Tagungsbericht „Annotationen in Edition und Forschung. Funktionsbestimmung, Differenzierung und Systematisierung“ (von Lisa Eggert, Maximilian Lippert, Fabian Etling)

6 Veröffentlicht von Jan Rohden am

Der Terminus „Annotation“ gewinnt mit der fortschreitenden Verankerung der Digital Humanities innerhalb der akademischen Landschaft immer stärker an Bedeutung. Gleichzeitig steht er in den Geistes- und Informationswissenschaften für jeweils unterschiedliche Konzepte, welche zwar in Umfang, Einsatz und Zielausrichtung variieren, aber auch konzeptuelle Parallelen aufweisen. Vor dem Hintergrund der Zusammenarbeit der verschiedenen Wissenschaftsdisziplinen scheint es daher geboten, verschiedene Annotationspraxen und die mit ihnen verbundenen Konzepte von Annotationen zu reflektieren und diskutieren, ins Verhältnis zueinander zu setzen sowie Gemeinsamkeiten und Unterschiedlichkeiten zu systematisieren. Hierfür luden Julia Nantke und Frederik Schlupkothen (beide Bergische Universität Wuppertal) vom Graduiertenkolleg „Dokument – Text – Edition. Bedingungen und Formen ihrer Transformation und Modellierung in transdisziplinärer Perspektive“ zur interdisziplinär angelegte Tagung „Annotationen in Edition und Forschung. Funktionsbestimmung, Differenzierung und Systematisierung“ (https://www.editionen.uni-wuppertal.de/de/veranstaltungen/tagungen/annotation.html) vom 20. bis zum 22. Februar 2019 an die Bergische Universität Wuppertal ein. Wissenschaftler*innen aus verschiedenen Ländern und Fachbereichen berichteten in fünf Sektionen über ihre Forschungsprojekte und -ergebnisse zu Annotationen, deren unterschiedlichen Erscheinungsformen und Funktionsweisen sowie zu verschiedenen terminologischen, methodischen und technischen Fragestellungen. Der Annotationsbegriff wurde hierbei bewusst weit gefasst und sowohl auf digitale und analoge sowie manuelle und automatisierte Annotationsprozesse in unterschiedlichen Medien bezogen.

Die Tagung eröffnete Key-Note-Speaker Willard McCarty (King’s College London) mit seinem Vortrag Making notes, reading annotations: Thoughts on a coupling, with examples, in dem er grundsätzliche Überlegungen zum Beschriften von beliebigen Objekten anstellte. Das Beschriften von Gegenständen in der Welt, also Annotation in einem weiten Sinne, diene dem Bewahren und Abrufen von Gedanken und könne nicht ohne die es bedingenden Umstände sowie das erforderliche Wissen über die jeweiligen Medien verstanden werden. Dieses Annotieren sei außerdem immer auch eine temporäre kognitive Verbindung zwischen Annotator*in und (physischem) annotiertem Objekt, wobei vorläufige Überlegungen erarbeitet, sprachlich ausgedrückt und angeordnet werden. McCarty plädierte dafür, dass eine Auseinandersetzung mit Annotationen auch immer jenes „Coupling“ und die damit einhergehenden kognitiven Prozesse der Annotator*innen mit in den Blick nehmen sollte. Hierfür beschrieb er exemplarisch Vorgehensweisen des Notizenmachens in der Auseinandersetzung mit einem wissenschaftlichen Gegenstand, angelehnt an die lexikographische Methode von James Murray, und machte deutlich, dass auch moderne computergestützte Formen des Annotierens im Hinblick auf das Coupling genauso funktionieren wie traditionellere Arten des Beschriftens, Markierens oder Notizenmachens. Im Anschluss zeigte er anhand von drei weiteren beispielhaften Annotationsformen – mittelalterliche Glossen für spätere Leser desselben Buches, Notizen eines Wissenschaftlers zu einem Experiment und schließlich ein politisches Graffito in Belfast –, wie die Gedanken des Beschriftenden in Bezug auf das beschriftete Objekt von Dritten wahrgenommen werden und wie sie dort funktionieren. So wurde klar, dass der Begriff „Annotieren“ im Sinne von Coupling sehr weit gefasst sein und auf viele verschiedene Praktiken des Beschriftens referieren kann. An allen jenen Praktiken sowie den jeweils voneinander abweichenden Bedürfnissen auf Rezipient*innenseite müssen sich laut McCarty schließlich auch Entwickler*innen von Annotationstools orientieren.

Den Auftakt innerhalb der ersten Sektion „Form von Annotationen“ machte mit Mark Hall (Martin-Luther-Universität Halle-Wittenberg) ein Informatiker. In seinem Vortrag Annotations are Not Just for Writing fokussierte er auf die eben angesprochene Rezipient*innenseite des Annotierens sowie die hier virulenten Anforderungen bei der Programmierung eines Annotationstools. Tools, die für die Text Encoding Initiative (TEI) entwickelt werden, konzentrieren sich hauptsächlich auf das Erstellen, Kodieren, Kommentieren und Verarbeiten von Text. Leider gerate laut Hall dabei das langfristige Ziel von Annotationen, der Transfer von Wissen, das mit einem bestimmten Text verknüpft ist, oftmals aus dem Fokus und werde von aktuellen Tools nicht ausreichend berücksichtigt. Vor diesem Hintergrund stellte er den selbstentwickelten Digital Edition Reader, eine datenagnostische JavaScript-Komponente, welche eine digitale Leseumgebung mit angenehmer Leseatmosphäre bietet, anhand einer eigens erstellten Faust-Edition vor. Um im digitalisierten kommentierten Text Orientierung zu finden, wurden Standards bezüglich gängiger physischer Texte auf den Digital Edition Reader übertragen. Diese betreffen die Repräsentation der Annotationen sowie eine Instanz zur Navigation im annotierten Text. Der Reader bietet zwei Darstellungsmodi an, um verschiedene Nutzerbedürfnisse zu befriedigen, wobei der Haupttext stets zentral ist. Im ersten Modus steht dieser in der Mitte, während ein Panel links davon via Inhaltsverzeichnis, Index und Suchfeld die Navigation ermöglicht sowie ein Panel rechts die Annotationen abbilden soll. Im Haupttext werden die kommentierten Textpassagen in Abhängigkeit von den Designvorgaben der Edition entweder mithilfe von Standard-Web-Links oder durch das Hinzufügen von Fußnoten am Ende der Passage hervorgehoben. Der zweite Darstellungsmodus fokussiert stärker auf die Rezeption des Haupttextes, wobei Benutzer*innen durch einen Klick auf Markierungen im Text auf einzelne Annotationen zugreifen können. Die Anmerkungen erscheinen nun in einem Blockbereich am unteren Rand des Bildschirms, wobei die Repräsentation an die Fußnoten eines Buches angelehnt ist.

Im Anschluss fragte Manuel Bamert (ETH Zürich) in seinem Vortrag „Aha!“ – Wissenstheoretische Perspektiven auf Stiftspuren in Privatbibliotheken nach dem literaturwissenschaftlichen Erkenntnispotential von Lese- und Stiftspuren in Thomas Manns Privatbibliothek und wie derlei handschriftliche Annotationen in einem digitalen Textkorpus be- und verarbeitet werden können. Dies ist auch das erklärte Vorhaben des im Vortrag vorgestellten vom Schweizerischen Nationalfonds geförderten Forschungsprojektes „Produktive Lektüre. Thomas Manns Nachlassbibliothek“ (http://www.lit.ethz.ch/forschung/laufende‑drittmittelprojekte/thomas‑manns‑nachlassbibliothek.html) an der ETH Zürich. Hier soll erstmals systematisch der gesamte Bestand von Thomas Manns Privatbibliothek auf Stiftspuren untersucht und vollständig digitalisiert werden. Ziel ist die Erstellung eines digitalen Recherchetools, mit dem man systematisch nach den Stiftspuren suchen kann. Bamert erörterte in seinem Vortrag vor allem die terminologischen, epistemologischen und praxeologischen Fragestellungen und Probleme, welche im kulturhistorisch-philologischen Spannungsfeld der sogenannten Lesespurenforschung auftreten können. So gebe es für die Erschließung und Erforschung von Privatbibliotheken sowie die dort vorzufindenden Lesespuren keine terminologischen Standards. Diese Arten von Annotationen lassen sich schließlich nicht über ihre jeweils spezifische Funktionalität definieren, sondern vielmehr über ihre Materialität. Dabei können Stiftspuren wie Unter-, An- und Durchstreichungen, die also selbst nicht als Schrift zu bezeichnen sind, ebenso relevant sein wie Randbemerkungen – so etwa das titelgebende „Aha!“. Barmert fragte vor diesem Hintergrund, wie sich der Begriff der Annotation für derlei Lesepuren verwenden lasse und wo seine Grenzen seien. Weiterhin sei zu klären, welche Art von Lesespuren überhaupt digital erfasst werden und wie diese später per Recherchetool aufsuchbar sein sollen. Als Forschungsdesiderat markierte er zum Schluss zudem das Fehlen einer Praxistheorie des Annotierens, die neben den kulturellen und historischen Bedingungen auch die körperlichen und situationellen Aspekte von Annotationen miteinbezieht.

Joseph S. Freedman (Alabama State University Montgomery) nahm in seinem Vortrag Footnotes in Historical Context, Their Usefulness for Multiple Narratives, and their Sometimes Contested Use into the 21st Century eine weitere, ganz spezielle Art von Annotationen in den Fokus: die Anmerkungsform der Fußnote. Im Hinblick darauf, dass ein Blick auf historische Praktiken oftmals hilft, nützliches Wissen für die heutige Zeit zu generieren, befasste er sich mit dem ersten Gebrauch von Fußnoten in Zentraleuropa ab der Mitte des 17. Jahrhunderts. Diese Form der Anmerkungen sei von wissenschaftlichen Autoren auf unterschiedliche und stets innovative Weisen verwendet worden. Als Beispiel dienten Freedman Veröffentlichungen von Johannes Theill, der ab 1642 die ersten bekannten Fußnoten gebrauchte. Dabei nutzte er zur Sequenzierung zumeist das griechische Alphabet sowie verschiedene Ziffern. Die Fußnoten enthielten kommentierenden Text oder Zitate; manchmal wurden sie von Marginalien ergänzt. Mit der rasanten Zunahme wissenschaftlicher Publikationen in der zweiten Hälfte des 17. Jahrhunderts stiege auch der Bedarf nach ordnenden Verweistechniken, was an der Fußnotenverwendung von Adam Rechenberg deutlich wurde. Dessen innovative Verwendung von Fußnoten, welche teilweise längeren Text enthalten, mit verschiedenen Symbolen eingeleitet oder auch mit Klammern links und rechts eingeschlossen werden, wurden im Vortrag anhand einschlägiger Textstellen demonstriert. Ein Blick auf jene damals neuartige Verwendung von Anmerkungen, die aus spezifischen Gründen erfolgte und bestimmte Funktionen übernahm, könne laut Freedman auch heute noch die Entwicklung neuer Paradigmen anregen. Anschließend daran diskutierte er die Möglichkeit, dass die Digital Humanities Brücken zwischen verschiedenen wissenschaftlichen Disziplinen bauen und Studierende zudem eine Perspektive in der sich digitalisierenden Wirtschaftswelt eröffnen können.

Als Auftakt des zweiten Tages warf Georg Rehm (Speech and Language Technology Lab, DFKI, Berlin) mit seinem Keynote-Vortrag Observations on Annotations – From Computational Linguistics and the World Wide Web to Artificial Intelligence and back again aus den Perspektiven verschiedener Forschungsfelder heraus einen Blick auf Annotationen als wissenschaftliche Methode und technisches Hilfsmittel entlang verschiedener Dimensionen und Merkmale. Dabei bezog er sich sowohl auf Grundlagenforschung als auch auf die angewandte Entwicklung von Technologien, sowohl auf Annotationen die von einer kleinen Zahl hochspezialisierter Forscher*innen vorgenommen, als auch auf solche, die potenziell von Millionen von Nutzer*innen verwendet oder erstellt werden können. Einleitend führte Rehm einflussreiche W3C-Standards auf, wobei er insbesondere auf den W3C-Web-Annotations-Standard und dessen Implementierung in das Tool Hypothes.is (https://web.hypothes.is/) einging. Anschließend beleuchtete er mit einigen Beispielen den Einsatz von Annotationen in den Gebieten der künstlichen Intelligenz, der Computerlinguistik sowie der Sprachtechnologie und diskutierte die Frage nach den Möglichkeiten der Evaluierung und Verifizierung von annotativen Inhalten, welchen er im Hinblick auf den Einsatz in Open-Science-Szenarios eine entscheidende Rolle zuschreibt. Interessant schien besonders die Überlegung, mithilfe von webbasierten Annotationen gegen die Verbreitung sogenannter Fake News im Internet vorzugehen. Rehm schloss seinen Vortrag mit Betrachtungen zur Komplexität, Wirkkraft und Bedeutung von Annotationen in einer digitalen Welt, welche immer stärker von Werkzeugen und Technologien bestimmt wird, die aus den Bereichen des Machine Learning und der Künstlichen Intelligenz stammen.

Die zweite Sektion „Annotation als individuelles Werkzeug“ leitete Patrick Helling (Universität zu Köln) mit seinem Vortrag Geisteswissenschaftliche Forschungspraxis – Empirische Nutzerstudie zum Annotationsverhalten bei analogen und digitalen Textmaterialien ein. Da Geisteswissenschaftler*innen für ihre Arbeit zunehmend digitale Werkzeuge benutzen und vor allem das digitale Annotieren von digitalem Text eine zunehmende Relevanz für Forscher*innen erfährt, wurde eine Nutzer*innenstudie als Online-Umfrage mit 35 Fragen erstellt, um zu ergründen, welches Verhalten Nutzer*innen beim Annotieren von analogen und digitalen Textmaterialien an den Tag legen. So bildete den Kern der Umfrage jeweils ein Fragenblock zur Arbeit mit analogen bzw. digitalen textbasierten Materialien und entsprechendem Annotationsverhalten. Von insgesamt 125 Teilnehmer*innen schlossen 90 den Fragebogen auswertbar ab. Dabei stellte sich heraus, dass die Nutzung von digitalen Materialien unter Forscher*innen zwar verbreitet ist, diese Materialien aber häufig ausgedruckt und anschließend analog annotiert werden. Die Möglichkeit des digitalen Annotierens stelle demnach meist keine Überführung von analogen Arbeitsschritten in den digitalen Raum dar. Im Rahmen der Studie wurde auch nach der beruflichen Position der annotierenden Personen gefragt, wodurch sich Aussagen über altersspezifische Unterschiede hinsichtlich der Annotationspraxis treffen ließen. Erstaunlicherweise sinke gerade mit dem Alter – also hauptsächlich in der Riege der Professor*innen – die Nutzung des analogen Annotierens. Dieses Umfrageergebnis könnte mit dem Wissenshorizont der Befragten zusammenhängen, durch welchen die Annotationspraxis möglicherweise an Relevanz verliert. Der noch ausstehende zweite Teil der Studie, in welchem Tiefeninterviews einiger bereits befragter Personen erfolgen werden, werde vermutlich weiterführende Erkenntnisse zu dieser und weiteren Fragen liefern.

In seinem Vortrag Annotationen im Schreibprozess. Ein Beitrag zu einer empirisch fundierten Spezifikation für digitale Annotationsumgebungen in den Geisteswissenschaften skizzierte Felix Lange (Max-Planck-Institut für Wissenschaftsgeschichte, Berlin) einleitend die idealtypische Konzeption von Annotationssystemen im Kontext eines „Scholarly Web“. Hierbei führte er Pundit (http://www-old.thepund.it/) als beispielhaftes Tool an, stellte aber auch fest, dass sich bis jetzt keines der existierenden webbasierten Systeme in den Digital Humanities habe durchsetzen können. Ausgehend von einer Arbeitsdefinition des Begriffs „Annotation“ – hier bildete er drei Klassen: 1. editorische Auszeichnungen im Editionsprojekt, 2. serielle Auszeichnungen für die qualitative sowie quantitative Datenanalyse und 3. „Notiz-Annotationen“ als individuelle Hinzufügungen durch Leser*innen im Prozess des Lesens – legte Lange den Fokus auf die empirische Untersuchung der Funktion von Notiz-Annotationen im Forschungsprozess, des Verhältnisses der Eigenschaften webbasierter Annotationssysteme zu den Nutzungsgewohnheiten und Anforderungen in den Geisteswissenschaften sowie der Frage der Weiternutzung von Annotationen. Aus den Untersuchungsergebnissen folgerte er die Notwendigkeit einer Anpassung des Software-Designs, wobei er insbesondere die Wichtigkeit folgender Punkte herausstellte: Integration von proprietärer Offline-Standard-Software (wie z.B. Office-Anwendungen), eine nicht-zentralistische Architektur sowie ein minimales Datenmodell bei maximaler Interoperabilität (z.B. W3C-Web-Annotationen).

Den Abschluss der Sektion machte Jan Horstmann (Universität Hamburg) mit seinem Vortrag Undogmatisches literaturwissenschaftliches Annotieren mit CATMA: manuell, halb-automatisch und automatisiert. In diesem stellte er das Annotationstool CATMA (http://catma.de/) vor, das seit zehn Jahren in Hamburg mit dem Ziel entwickelt wird, literaturwissenschaftliche Arbeit mit digitalen Mitteln zu unterstützen, ohne dass vertiefte technische Fähigkeiten nötig sind. Den größeren Projektkontext, in welchem CATMA verortet werden kann, bildet wiederum die Forschungsumgebung forText (https://fortext.net/). Dieses Projekt setzt sich zum Ziel, Methoden der digitalen Literaturwissenschaft für traditionelle Literaturwissenschaftler*innen zugänglich zu machen, indem neben Tools wie CATMA auch Lehrmodule und Lerneinheiten sowie Online-Ressourcen zur Verfügung gestellt werden. Horstmann betonte, dass die Mitarbeiter*innen von forText keinen Paradigmenwechsel von analoger zu digitaler Geisteswissenschaft fordern, sondern es um literaturwissenschaftliche Erkenntnisarbeit mit digitalen Mitteln gehe. Hierbei verwies er mit Claudine Moulin darauf, dass die Annotation generell – die analoge wie digitale – eine kulturelle Praxis sei. Daran anschließend stellte er linguistische und literaturwissenschaftliche Annotationspraxen einander gegenüber und vermutete hier ein Problem vieler Tools, die rein an den Bedürfnissen linguistischer Annotation orientiert sind. Im Anschluss an weitere begriffliche und methodologische Überlegungen zum Annotieren stellte er CATMA „live“ vor. Hierbei bewies sich, dass CATMA ein sehr robustes Online-Tool ist, mit welchem sowohl manuelle als auch halb-automatische und vollständig automatisierte Annotationen zügig und ohne großes technisches Vorwissen vorgenommen werden können.

Sarah Lang (Karl-Franzens-Universität Graz) eröffnete die dritte Sektion „Methodischer Einsatz von Annotationen“ mit ihrem Vortrag Die Allegoriae, mit welchen die Sapientes des Mysterium unserer secretae Philosophiae occultirt haben / werden uns als den offenbar / und nit mehr verborgen seyn. Zu Herausforderungen und Nutzen der digitalen Annotation alchemischer Decknamen. In ihrem Dissertationsprojekt untersucht sie alchemistische Texte mit dem Ziel, die „alchemische Sprache“ zu dekodieren. Die hierbei zu Grunde liegende These ist, dass es ein Analogieverhältnis zwischen alchemistischen Symbolnamen und den chemischen Elementen und Prozessen gebe. Am Beispiel des „Mercurius“ machte Lang die Disparatheit der hinter einzelnen Symbolnamen verborgenen Konzepten deutlich. Der zweite Teil ihres Vortrags befasste sich mit der technischen Dimension ihres Projektes. So sollen die Texte mit einem Stand-off-Thesaurus – momentan noch in SKOS (http://skos.um.es/unescothes/) kodiert – annotiert werden. Die Anforderungen an die Methode seien einerseits, dass hier ein Zugang gefunden werden soll, der auf alle Texte übertragbar ist, und dass andererseits dennoch implizites Wissen explizit gemacht werden kann. Das Ziel sei eine möglichst komplette Automatisierung. Die Modellierung sei dabei – angelehnt an die Überlegungen von Key-Note-Speaker Willard McCarty – ein iterativer Prozess, der in Langs Projekt seinen Ausgang in Michael Maiers alchemistischen Indices nimmt und von dort aus auf weitere Texte übertragen werde. Die Referentin stellte explizit die Wahl eines Kodierungsstandards (RDFS, SKOS oder eine eigene Kodierung) zur Diskussion. Ferner wurden neben dem Problem, die Subjektivität von Texten auch in maschineller Verarbeitung zu erhalten, ebenfalls besondere Schwierigkeiten des Korpus wie die Vieldeutigkeit und der Vorrang sinnlicher Eigenschaften vor der Bedeutung der Sprache diskutiert.

Im Anschluss stellten Lina Franken und Evelyn Gius (beide Universität Hamburg) in ihrem Vortrag Annotation als Instrument der Strukturierung die Arbeit des interdisziplinär angelegten Projektes hermA (https://www.herma.uni-hamburg.de/) vor. Gius begann dazu den Vortrag mit einigen grundsätzlichen Überlegungen zur Frage: „Wie kann man auf Annotationen schauen?“. Zur Beantwortung dieser Frage schlug sie ein Ordnungssystem von verschiedenen Forschungslogiken, unterteilt in deduktive, induktive sowie abduktive, vor. Denn die Hypothesenbildung und damit das Verhältnis von Annotation zu Daten unterscheide sich je nachdem, welcher Forschungslogik man folgt. Diesen Ansatz illustrierten die beiden Referentinnen im Folgenden durch die Vorstellung zweier Teilprojekte aus dem Verbundprojekt hermA. Gius stellte ihre literaturwissenschaftliche Forschung zu genderspezifischen Unterschieden in der Beschreibung von Krankheiten vor. Das Untersuchungskorpus, das als Teilkorpus des von Berenike Herrmann und Gerhard Lauer erstellten KOLIMO (https://kolimo.uni-goettingen.de/index.html) Prosatexte zwischen 1870 und 1920 verzeichnet, wurde zunächst manuell – mit CATMA und dem Stuttgarter Tool CorefAnnotator (https://www.ims.uni‑stuttgart.de/forschung/ressourcen/werkzeuge/CorefAnnotator.html) – annotiert. Dabei wandelte sich die Forschungslogik im Laufe des Projektes von einem deduktiven Ansatz, der Regeln der Figurenanalyse appliziert, zu einem induktiven, da nun die durch die Annotation strukturierten Daten daraufhin befragt werden, wie Krankheitskonzepte in den Textphänomenen definiert werden. Einen anderen Ansatz, nämlich einen abduktiven, verfolgt das von Franken vorgestellte kulturanthropologische Projekt zur Telemedizin. Hierbei handelt es sich um ein emergentes Feld, das von kontinuierlicher Entwicklung und daraus resultierenden Aushandlungsprozessen geprägt ist. Methodisch schließt das Projekt an Grounded-Theory-Ansätze an und erschließt so den Gegenstand – hier anhand von Bundestagsdebatten beispielhaft dargeboten – zunächst induktiv und versucht im Anschluss abduktiv eine Theorie aus den Daten heraus zu bilden. Der Annotation, die mit MAXQDA (https://www.maxqda.de) vorgenommen wird, kommt dabei die Rolle der Kategorisierung und Strukturierung einerseits sowie der Filterung andererseits zu. Auch hier werden Annotation und Modellierung als iterative Prozesse verstanden.

Mit ihrem Vortrag Makrogenetisches Mark-Up für Musil leiteten Katharina Godler und Walter Fanta (beide Alpen-Adria-Universität Klagenfurt) den Sektions- und damit Tagesabschluss ein. Das vorgestellte Forschungsvorhaben, dessen Ziel es ist, den Schreibprozess als denkendes Schreiben sowie als schreibendes Denken zu verstehen, steht im Zusammenhang mit der Online-Edition von Robert Musils „Der Mann ohne Eigenschaften“ (http://musilonline.at/). Hierzu sollen Annotationen der Spuren des Schreibprozesses im Text und nicht des Schreibprozesses selbst vorgenommen werden. Um den Nachlass Musils, der sehr viele unterschiedliche Arten von Manuskripten enthält, strukturieren zu können, schließen Godler und Fanta theoretisch an die Schreibszenenkonzeption von Rüdiger Nutt-Kofoth an und unterscheiden zwischen einer Mikro-, Meso- und Makroebene der Textgenese. So konnten sie sechs Manuskripttypen ausmachen, die sich hinsichtlich ihres zeitlichen Bezugs zueinander, ihrer Linearität bzw. Nicht-Linearität und ihrer Funktion für den Schreibprozess unterscheiden. Die technische Herausforderung des Projektes bestehe nun darin, die Bausteine im Schreibprozess maschinengestützt nachvollziehbar zu machen und diese im User-Interface zu visualisieren. Dabei könne auf ein TEI-Schema für die Mikrogenese (Streichungen einzelner Wörter, kleinere Revisionen) zurückgegriffen werden. Mit der Frage, wie eine Annotation für die Makrogenese, die neben intertextuellen vor allem auf intratextuellen Verweisen beruht, aussehen könnte, wurde in die Diskussion übergeleitet. Als mögliche Lösung wurde eine Superstruktur vorgeschlagen, also eine leere Textstruktur, aus der auf die verschiedenen Zeugen, die selbst erhalten bleiben, verwiesen werden kann. Die Verweise selbst könnten dann nach TEI kodiert sein. Darüber hinaus wurde darauf hingewiesen, dass die verschiedenen Probleme auf der Makroebene segmentiert werden können und sich so jeweils einzelne Lösungen finden ließen.

Angelika Zirkers Vortrag Challenges of Automation: Some Theoretical Considerations about Explanatory Annotation in Literary Studies, der die vierte Sektion „Differenzierung von Annotationsebenen“ eröffnete, fokussierte auf die hermeneutische Annotation als kontextualisierende, erklärende Hinzufügungen zu einem bestehenden Text im Sinne einer Anreicherung durch Informationen, die das Verstehen des Textes beeinflussen. Ausgehend vom Annotationsprojekt „Tübingen Explanatory Annotation System“ (TEASys – http://www.annotation.es.uni-tuebingen.de/) stellte Zirker einige theoretische Überlegungen an, inwieweit solche hermeneutisch-erklärenden Annotationen automatisiert werden können. Dabei zeigte sie besonders die möglichen Herausforderungen und Grenzen der automatischen Annotation auf, welche sie anhand einiger exemplarischer Problemfelder darstellte. Das erste Feld betraf das generelle Problem der Ambiguitätserkennung, welches bei einer automatischen Annotation im Besonderen evident werde. Ambiguitäten können beispielsweise disambiguiert werden, wodurch etwa die besondere Qualität des literarischen Werks außer Acht gelassen werden könne. Dass Ambiguitäten oft abhängig von der Gesamtinterpretation eines Textes sind, führte zum zweiten Problemfeld, der Verankerung von Annotationen im Text und das Verhältnis von Textteil und Textganzem. Hier bestehe die hermeneutische Herausforderung in der Annotation von (metaphorischen) Bedeutungen, die lokal im Wechselspiel mit dem Gesamttext stehen. Fraglich sei, wo derartige Annotationen vorzunehmen seien. Diese Frage stelle sich auch besonders für formale Aspekte, die von einem bestimmten Muster abweichen. Ein weiteres Problemfeld bezog sich auf intertextuelle Verweise sowie ein letztes auf die Frage nach individuellen Leserbedürfnissen: Für wen werden die jeweiligen Annotationen verfasst? In TEASys wurden für derartige Probleme drei verschiedene Komplexitätsebenen eingeführt, welche neben Basisinformationen für das Verstehen des Textes schließlich auch komplexere Informationen bis hin zu Diskussionen der Sekundärliteratur enthalten. Die genannten Herausforderungen und mögliche computerphilologische Lösungen zeigte Zirker schließlich anhand einiger beispielhafter literarischer Textstellen auf.

Der darauf folgenden Vortrag von Tamara Drummond und Janina Wildfeuer (beide Universität Bremen) The Multimodal Annotation of TV Series. Combining qualitative questions and quantitative results veranschaulichte die Möglichkeit der Verbindung von qualitativen und quantitativen Ansätzen für die Analyse von audiovisuellen Daten. Dabei zeigten die Referentinnen auf, wie sich das Annotationstool ELAN (https://tla.mpi.nl/tools/tla-tools/elan) für die semantische Analyse der multimodalen Darstellung geschlechtsspezifischer Unterschiede in TV-Serien fruchtbar machen lässt. Hierzu wurden die Ergebnisse eines empirischen Masterarbeitsprojekts zu den Anfangssequenzen zeitgenössischer TV-Serien präsentiert, in welchen jeweils Teams von weiblichen und männlichen Hauptfiguren eingeführt werden. Anhand des Materials ließ sich die Konstruktion bestimmter geschlechtsspezifische Unterschiede feststellen, die mit einem multimodalen Rahmen analysiert werden können. In diesem Zusammenhang ergaben sich sowohl theoretische als auch methodologische Fragen zur multimodalen Analyse und Annotation von TV-Serien. Der von Drummond und Wildfeuer verwendete systemisch-funktionale Ansatz ermögliche es, die Interaktionstypen weiblicher und männlicher Hauptpersonen mit anderen Charakteren während ihrer Einführung in die Serie zu analysieren. Annotationen auf jeweils separaten Ebenen lassen dabei multiple Fragestellungen zu. Abschließend wurden die verwendeten analytischen Einheiten anhand der TV-Serie „Blindshot“ und ihrer Hauptcharaktere im Hinblick auf geschlechtsspezifische Unterschiede in der Inszenierung der Charaktere präsentiert (z.B. Toneinstellungen, Kamerawinkel und Zoom-Einstellungen).

Es folgte Christian Lücks (FernUniversität in Hagen) Vortrag Beispiele annotieren: Manuelle Annotationen im Spannungsfeld zwischen Interpretation, formalem Schema und maschineller Auswertung. Dieser stellte die Annotationspraxis im DFG-Projekt „Das Beispiel im Wissen der Ästhetik (1750-1850). Erforschung und Archivierung einer diskursiven Praxis“ (http://gepris.dfg.de/gepris/projekt/327259109) vor, in welchem Beispiele in Texten der philosophischen Ästhetik annotiert werden. Zur Erfassung von Beispielen lassen sich gängige Standardabkürzungen wie „z.B.“ oder „e.g.“ als Marker verwenden, aber auch syntaktische sowie vielfältige semantische Merkmale. Geplant sind digitale Annotationen als externes Markup zu Quelldokumenten, welche in einem Standardformat, etwa TEI-XML, vorliegen. So lassen sich Annotationen kollaborativ herstellen und Kontrollannotationen desselben Texts durch einen weiteren Annotator realisieren. Perspektivisch soll jedoch an einer automatisierten Annotation von Beispielen gearbeitet werden. Hierfür müsse man jedoch computerlinguistisch erzeugte Daten wie Segmentierungen in Token und Sentences, grammatische Grundformen, Part-Of-Speech-Tags oder Tree-Banks, wie sie vom WebLicht-Service (https://weblicht.sfs.uni-tuebingen.de/WaaS/)oder von NLP-Bibliotheken für Eingabedokumente zurückgeliefert werden, auswerten. Dabei werden technische Probleme virulent, etwa die Frage, wie man die unterschiedlichen Typen von Markup aufeinander bezieht. Doch auch für die manuelle Annotationspraxis haben Überlegungen, welche Art von Beispielen überhaupt durch einen Algorithmus erfasst werden können, Auswirkungen. Auf diese Weise ergeben sich Spannungen in einem Dreieck aus interpretativer Arbeit am philosophischen Text, Ausdrucksmächtigkeit des Annotationsschemas und künftigem Algorithmus.

Mit ihrem Vortrag Facilitating reusable third-party annotations in the digital edition eröffneten Peter Boot und Marijn Koolen die letzte Sektion der Tagung „Annotation und Ontologie“ und diskutierten zum einen den Umgang mit der Annotationen von Dritten. Im Fokus standen dabei Anmerkungen zu einer digitalen Edition, die von Forscher*innen gemacht wurde, die selbst nicht an dem Editionsprojekt beteiligt gewesen sind. Diese Anmerkungen fungieren als Beiträge zu den auf der Website bereits vorhandenen Erklärungsmaterialien. Zum anderen wurde die technische Frage behandelt, wie sich solche Annotationen an einem bestimmten Ort in der digitalen Ausgabe leichter verankern lassen. Die Annotation soll sich dabei für die verschiedenen Komponenten der digitalen Edition (z.B. Scan des Originals, Transkript, edierter Text) realisieren lassen und in unterschiedlichen Versionen (bspw. auch Übersetzungen) fest verankert bleiben. RDFa biete hier eine geeignete Technologie zum Einbetten der erforderlichen Informationen in die HTML-Seiten der Edition. Boot und Koolen stellten einen Open-Source-Prototyp eines Annotations-Tools vor, das in den kommenden Jahren für den Einsatz in mehreren Bereichen in der niederländischen Infrastruktur CLARIAH (Common Lab Research Infrastructure for the Arts and Humanities – https://www.clariah.nl/) entwickelt werden soll. Mithilfe dieses Tools wurde eine Ausgabe der Briefe von Vincent van Gogh vorgestellt. Die Edition der Briefe verfügt dabei über vier Darstellungsmodi des Objektes: eine zeilenweise (diplomatische) Transkription, ein laufender (kritischer) Text, eine Übersetzung ins Englische sowie ein Faksimile. Die Annotationen können entweder in allen Darstellungsmodi oder nur in einem bestimmten angezeigt werden. Außerdem ist eine Unterscheidung von privaten, mit bestimmten Nutzer*innen geteilten sowie öffentlichen Annotationen möglich. Abschließend wurden die potenziellen Auswirkungen derartiger Annotationen von Dritten auf die Praxis der Geisteswissenschaften diskutiert. So biete etwa die Möglichkeit, Anmerkungen verschiedener Art digital zu erstellen, zu organisieren und auszutauschen, leichten Zugang zu den Interpretationen anderer Forscher*innen.

Den Abschluss der Sektion bildete Evelyn Gius’ (Universität Würzburg) und Nils Reiters (Universität Stuttgart) Vortrag zu Shared Tasks zur Entwicklung von Annotationsrichtlinien in den Digital Humanities. Bei einem Shared Task befassen sich mehrere Teams mit der Lösung derselben Aufgabe. Nach der Arbeitsphase werden die Resultate aller Teams verglichen und ausgewertet. Derartige Shared Tasks sollen sich laut den Vortragenden insbesondere dann als Verfahren für die Digital Humanities anbieten, wenn computergestützte Verfahren auf geisteswissenschaftliche Konzepte treffen und diese in einem intersubjektiven Aushandlungsprozess operationalisiert werden sollen. Der hier vorgestellte Shared Task bestand in der Erstellung einer Guideline für die Annotation von Erzählebenen (wie Rahmen- und Binnenerzählungen etc.) mit dem Ziel, eine solche Annotation später automatisieren zu können. Acht Teams beteiligten sich an diesem kompetitiven Verfahren. In einem Workshop wurden die Vorschläge entlang eines Sets von drei Kriterien – konzeptionelle Angemessenheit, Anwendbarkeit sowie Benutzbarkeit – miteinander verglichen. Aus diesen drei Kriterien ergebe sich allerdings ein Trilemma: Man könne keine der drei Dimensionen optimieren, ohne zumindest eine der anderen zu verschlechtern. Daraus folgte für die Bewertung der Vorschläge, dass über einen Fragebogen und Annotationstestläufe sowie mittels eines speziellen Bepunktungssystems der Sieger ermittelt wurde. Reiter wies noch einmal nachdrücklich darauf hin, dass bei solch komplexeren Konzepten häufig die Fehleinschätzung vorherrsche, diese müssen für den Computer vereinfacht werden. Doch Computer seien nicht das Problem, sondern die Übereinstimmung der Forscher*innen sowie die Verfügbarkeit von annotierten Daten, an denen die Computer trainiert werden können.

In der von Julia Nantke und Frederik Schlupkothen geleiteten Abschlussdiskussion ließen die Teilnehmer*innen der Konferenz alle Vorträge noch einmal Revue passieren. So hatte es sowohl Makro- als auch Mikroperspektiven auf Annotationen gegeben und der Fokus war dabei manchmal auf die Nutzer*innen, manchmal auf die Annotator*innen gelegt worden. Die sektionenübergreifend aufgeworfene Frage danach, wie viel Interpretation in einer Annotation stecke, wurde ebenso resümiert wie die Frage nach dem Status von Annotationen als Daten im Sinne eines analytischen Mittels. Künftig ist außerdem ein Tagungsband geplant, welcher die einzelnen Beiträge noch einmal jeweils in Aufsatzform gebündelt präsentieren soll. Im Hinblick darauf diskutierte man abschließend, wie sich eine interaktive Annotationspraxis im Rahmen einer derartigen Publikation fruchtbar machen ließe, was in Anbetracht der sich weiterentwickelnden Möglichkeiten (digitaler) wissenschaftlicher Publikationen freilich keineswegs Spekulation bleiben muss.

Kommentar schreiben