Eindrücke von der DH2025 – “Accessibility & Citizenship”, 14.-18. Juli, Lissabon, Portugal

0 Veröffentlicht von Anna Kleinsasser am

Zunächst möchte ich mich beim Verband der Digital Humanities im deutschsprachigen Raum bedanken, durch den mir die Teilnahme bei der diesjährigen ADHO-Konferenz in Form eines Reisestipendiums ermöglicht wurde.

Vor dieser Tagung haben für mich die Digitalen Geisteswissenschaften primär im Seminarraum existiert. Weitere Berührungspunkte fanden medial statt: In Büchern, in Artikeln, im Internet. Wenn ich draußen zum unzähligen Mal einem verwirrten Gesicht erklären muss, was ich da eigentlich studiere, dann fühlt sich die DH-Welt, die für mich so groß ist, immer wieder sehr klein an. In Lissabon zeigte sich: Hunderte Menschen aus aller Welt reisen an und alle wollen über DH reden.

“Accessibility & Citizenship – Building Access and Accessibility, Open Science to all Citizens.”– unter diesem Motto fand vom 14. bis 18. Juli die diesjährige ADHO-Konferenz an der NOVA-FCSH in Lissabon statt. 

Angeboten wurde eine Fülle an Workshops, Panels und Vorträgen zu verschiedensten Themen. Da ich Beiträge nach meinen Interessen ausgewählt habe, bleibt mein hier beschriebener Eindruck sehr subjektiv. Im Allgemeinen lässt sich allerdings sagen, dass sich viele der Beiträge – dem Thema der Tagung folgend – mit ethischen Überlegungen zu Offenheit, Inklusion und ethischer Verantwortung in der Forschung der digitalen Geisteswissenschaft befassten. Auffällig war zudem die starke Präsenz von Themen wie KI, Machine Learning, LLMs –  und der kritische, verantwortungsvolle Umgang mit diesen Technologien.

Was mir gleich zu Beginn sehr positiv auffiel, war die Verwendung der Whova-App zur Planung der Konferenz. Für mich als absoluten Tagungsneuling und damit etwas nervös, weil man nicht genau weiß, was einen erwartet, war sie auf vielen Ebenen eine enorme Hilfe: In erster Linie aus organisatorischer Sicht, denn man hatte einen Überblick über die gesamte Tagungsagenda, aus der man ganz einfach einzelne Beiträge in eine persönliche Agenda überführen konnte. Es gab auch die Möglichkeit, sich über die App mit Organisatoren, Vortragenden oder Teilnehmenden auszutauschen, hinsichtlich der Workshops und Vorträge oder in themenbezogenen Chatgruppen, sei es zu fachlichem Austausch, Stellenangeboten, oder auch einfach zu Essen, Musik oder Haustierfotos!

Pre-Conference-Workshops

Montag und Dienstag fanden jeweils die Pre-Conference-Workshops statt. Es wurde eine Reihe an verschiedenen Workshops angeboten, was die Auswahl nicht einfacher machte, aber ich entschied mich schlussendlich für die folgenden zwei Workshops:
1. “Using LLMs as Chainsaws – Fostering a Tool-Critical Approach for Information Extraction”, abgehalten von Aaron Maladry und Pranaydeep Singh der Universität Gent – und wie der Titel bereits teilweise verrät, ging es hier um die kritische Verwendung von LLMs zur Informationsgewinnung literarischer oder historischer Daten. Ich habe mich für diesen Workshop wegen eines grundsätzlichen Interesses und einer Faszination an LLMs entschieden. Bei ‘Information Extraction’ musste ich an Named Entity Recognition denken, in der Hoffnung hier möglicherweise neue Perspektiven mitzunehmen, vor allem in Bezug auf ein eigenes Projekt im Rahmen eines Projektseminars, auf dem auch meine Masterarbeit aktuell aufbaut, in der ich die Entitäten in Texten ausschließlich manuell extrahiere. 

Im zweiten Workshop “LEAF Commons: Flexible Digital Tools and Responsive Scholarly Workflows”, abgehalten von Diane Katherine Jakacki der Bucknell University, Susan Brown der University of Guelph und Rachel Milio der University of Crete, wurden die LEAF Commons vorgestellt. Dabei handelt es sich um eine Sammlung aus interoperablen Open-Source-Tools zur digitalen Editionsarbeit, etwa von der semantischen Kodierung (basierend auf TEI), über die Umwandlung von Textformaten, bishin zur Publikation interaktiver Online-Editionen.

Spannend war es, einen neuen Zugang zur digitalen Edition kennenzulernen, der keinerlei Kodierungskenntnisse erfordert. Das macht die Tools besonders geeignet für eine Zielgruppe, die Editionsprojekte umsetzen möchte, aber aus anderen Fachgebieten kommt oder sich nicht vertieft mit den Technologien im Hintergrund auseinandersetzen möchte und eine intuitive Oberfläche bevorzugt. Da ich in meinem Studium jedoch viel mit X-Technologien, von TEI bis zur Veröffentlichung, viel zu tun hatte und mich mit dieser Arbeitsweise sehr wohlfühle, wodurch die vorgestellten Tools wohl keine unmittelbare Alternative in meiner Arbeitsweise darstellen. 

Für beide Workshops lässt sich festhalten, dass schrittweise in die behandelten Themen eingeführt wurde und ein Raum geschaffen wurde, in dem Fragen willkommen waren. Und obwohl ich anfangs Sorge hatte, als Studentin eventuell nicht mithalten zu können, war Gegenteiliges der Fall – die drei Stunden vergingen jeweils sehr schnell und am Ende hätte ich mir sogar mehr Zeit gewünscht, da vieles nur an der Oberfläche behandelt werden konnte.

Die Konferenz

Dienstagabend wurde die Tagung offiziell von Javier Cha der University of Hong Kong mit seiner Keynote “Automating the past: Artificial Intelligence and the next frontiers of Digital History” eröffnet. Dabei ging es darum, wie KI-Technologien die Arbeit mit großen, komplexen historischen Datenbeständen verändern und bereichern können, und wie sich dieser Mehrwert mit der Bewahrung der menschlichen interpretativen Komponente in historischer Forschung vereinbaren lässt. 

Darauf folgte eine Inclusive Dance Perfomance, die das Tagungsmotto auch nonverbal und ästhetisch einführte, bis schließlich Mittwoch bis Freitag ganztägig ein dichtes Programm an Präsentationen in thematischen Panels stattfand. Besonders interessant war es, einen Einblick in die Workflows und verwendeten Tools verschiedener Forschungsprojekte zu erhalten. Vieles war neu und ich konnte mir eine Reihe an potenziell nützlichen Tools und Methoden, von OCR- und Transkriptionswerkzeugen zu LLMs, mitnehmen.

Zwei Paperpräsentationen sind mir dabei besonders in Erinnerung geblieben. Mariona Coll Ardanuy des Barcelona Supercomputing Center (BSC) stellte mit “Towards an automatic transcription of Catalan notarial manuscripts from the Late Middle Ages” ein Projekt vor, das sich die automatische Transkription von amtlichen Schreiben wie Urkunden, Abschriften und Seiten aus Notariatsregistern aus dem Spätmittelalter aus Barcelona, zum Ziel nimmt.

Christoph Sander und Jörg Hörnschemeyer vom Deutschen Historischen Institut in Rom stellten das Projekt GRACEFUL17, das aus einer Kombination aus KI, Knowledge Graphs und Visualisierungstools eine digitale Strategie zur Analyse frühneuzeitlicher Daten zur Kirchenverwaltung vor. Da ich mich in meiner Masterarbeit mit frühneuzeitlichen kirchenrechtlichen Akten beschäftige, fand ich die vorgestellte Strategie sehr inspirierend – insbesondere in Bezug darauf, wie derartige Verwaltungsprozesse und Netzwerke dargestellt werden können. Zwar liegt der Schwerpunkt meiner Masterarbeit auf TEI und ihrer Eignung als Modellierungswerkzeug für diese Akten, für eine weiterführende Auseinandersetzung mit diesen oder ähnlichen Daten könnten die vorgestellten Ansätze allerdings sehr wertvoll sein.

Für ein nächstes Mal – oder was ich gerne vorher gewusst hätte: 

  • Die Atmosphäre ist entspannt und es wird Raum für Fragen geschaffen, sowohl vor Ort als auch virtuell.
  • Ein genauer Blick auf das Tagungsprogramm zahlt sich wirklich aus, da in der Fülle des Angebots interessante Beiträge leicht übersehen werden können.
  • Gleichzeitig lohnt sich eine gewisse Offenheit: Einige spannende Eindrücke konnte ich aus Vorträgen mitnehmen, die zunächst gar nicht auf meiner Liste standen.

Kommentar schreiben