„Ceci n’est pas un texte.“* – Mein Rückblick auf die DHd 2026 in Wien
Fast 600 Menschen kamen zur DHd 2026 unter dem Motto „Not only text, not only data“ an einer der ältesten Universitäten des deutschsprachigen Raums zusammen – und damit zugleich in einer Stadt, in der Kaffeehäuser seit 2011 zum immateriellen UNESCO-Kulturerbe zählen. In fünf Tagen bot die Konferenz eine Mischung aus Workshops, Panels und Postern – einige davon sind mir besonders in Erinnerung geblieben und stehen in diesem Blog-Post noch einmal kurz im Mittelpunkt.
Workshops: Experimentieren, Annotieren, Automatisieren
Wie für die DHd üblich, fanden an den ersten beiden Tagen Workshops statt – insgesamt 18 an der Zahl. Am Montag entschied ich mich für den Workshop „Beyond the Cloud: Democratizing GPU Access for the Digital Humanities with DHInfra.at“, der von Forschenden der Universität Graz und der Universität für Weiterbildung Krems ausgerichtet wurde. Vorgestellt wurde mit DHInfra ein Forschungsinfrastrukturprojekt, das GPU-Ressourcen bereitstellt, um lokale Hardwaregrenzen und Abhängigkeiten von kommerziellen Cloudlösungen zu überbrücken.
Im Workshop erhielten die Teams Zugriff auf DHInfra und arbeiteten mithilfe von Jupyter Notebooks und Large Language Models an der Bereinigung eines historischen Datensatzes mit fehlerhafter OCR. Das Vorgehen war dreistufig angelegt: Zunächst ging es um reines Prompt Engineering, anschließend um das Feinjustieren der Modellparameter, und in einem dritten Schritt wurden synthetische Beispiele erzeugt, um die Genauigkeit weiter zu steigern. Ein gewisser Gamification-Aspekt durfte dabei nicht fehlen: Eine fortlaufend aktualisierte Bestenliste wurde an die Wand projiziert, auf der sich insbesondere Team Fish, Death to AI und Team 1234 ein enges Rennen lieferten.
Am Dienstag nahm ich am Workshop „Film- und Videoanalyse mit VIAN & TIB-AV-A – Grundlagen, Anwendungen und Schnittstellen“ teil. Dabei wurden mit VIAN und TIB-AV-A zwei Tools vorgestellt und praktisch angewendet, die unterschiedliche Möglichkeitsräume in der Arbeit mit Video als Daten eröffnen. Während VIAN als manuelles Annotationstool stärker an klassische filmwissenschaftliche Arbeitsweisen anknüpft und „Annotation als Schule des Sehens“ greifbar macht, eröffnen automatisierte Verfahren wie TIB-AV-A ganz andere analytische Potenziale.
Der zweite Teil des Workshops widmete sich genau diesen Verfahren: Die Teilnehmenden konnten unterschiedliche Methoden der automatisierten Filmanalyse selbst erproben. TIB-AV-A bietet dabei ein breites Spektrum an Funktionen – von Emotionserkennung über Farbanalyse bis hin zur Objektklassifikation. Insgesamt war der Workshop so aufgebaut, dass auch Einsteiger:innen den Weg von der manuellen Annotation hin zur automatisierten Analyse nachvollziehen konnten und ein Gefühl dafür entwickelten, wann ein minimalistisches Tool wie VIAN und wann ein eher umfassendes System wie TIB-AV-A sinnvoll eingesetzt werden kann.
Von Data Selfies, Data Jewellery zu Data Ghosts – Opening Keynote von Miriah Meyer
Eröffnet wurde die Konferenz mit einer Keynote von Miriah Meyer. Sie ist Professorin am Fachbereich Wissenschaft und Technologie der Universität Linköping. Ihre Keynote trug den Titel Data As ___: Exploring the Plurality of Data in Visualization und bot einen Überblick über Konzepte, die Visualisierung und Daten zusammendenken.
Der Begriff „Data“ stand dabei als roter Faden im Vordergrund und wurde unterschiedlich gefasst: Data as Input, Data as Ground Truth, Data as Entangled und Data as Design Material. Sie machte zudem deutlich, dass Daten auch persönlich sind, und stellte eine Reihe von Projekten vor, an denen sie selbst beteiligt war – unter anderem mit Jugendlichen als Zielgruppe. Mit ihnen erprobte sie Methoden des Data Crafting bzw. der Data Physicalization, die von Data Selfies über Data Jewellery bis hin zu Data Ghosts reichten. Besonders spannend für mich war dabei, wie Miriah Meyer mit diesen Ansätzen das Prozesshafte von Daten hervorhob.
Dabei ging sie auch auf unerwartete Nebenprodukte ein: Auf einer physischen Karte sollten Besuchende mithilfe von Stickerpunkten emotionale Orte markieren. Dabei entstanden u. a., wie sie es bezeichnete, Data Graffiti – also Punkte, die sich (absichtlich) zu Wörtern oder Symbolen formten und auf die Miriah Meyer humorvoll verwies. Nach dieser spannenden Perspektive aus der Data-Vis-Community folgte die Eröffnungsfeier mit Schnittchen und Wein, die den Abend stimmungsvoll ausklingen ließ.
Zwischen Klang, Kritik und Virtualität: Der Konferenzmittwoch
Am Konferenzmittwoch begannen die Panels, die das Motto „Not only text, not only data“ auf unterschiedliche Weise einlösten. Den Auftakt meines Tages bildeten Beiträge aus der Digital Musicology, die ein breites methodisches Spektrum abdeckten. Besonders in Erinnerung blieb mir der Vortrag „Soundful Dickens – Sound in Literary Fiction“, in dem Svenja Guhr und Michaela Mahlberg zeigten, wie sich Klangereignisse in literarischen Texten computergestützt erfassen lassen. Ausgangspunkt war dabei die Idee, Klang systematisch zu modellieren, indem lauttragende sprachliche Einheiten identifiziert und hinsichtlich ihrer Intensität beschrieben werden, um so neue Perspektiven auf Dickens’ Romane zu eröffnen.
Gleichzeitig wurde in anderen Vorträgen deutlich, wie produktiv sich die digitale Musikwissenschaft mit Fragen der Datenmodellierung und -infrastruktur auseinandersetzt: So zielte ein Beitrag darauf ab, das XML-basierte MEI-Datenmodell in eine semantisch anschlussfähige RDF-Ontologie zu überführen, während ein anderer zeigte, wie sich mithilfe von Large Language Models quellenbezogene Daten aus der neuen Schubert-Ausgabe automatisiert extrahieren und weiterverarbeiten lassen.
Nach der Mittagspause verschob sich der Fokus hin zur Wissenschaftsgeschichte der DH. Florian Windhager eröffnete das Panel mit Überlegungen zur Rolle und insbesondere zur Verantwortung der Digital Humanities im Kontext einer „zweiten Säkularisierung“ (nach Simon During) und entwarf mit Komplizenschaft, Widerstand, Migration und Nachfolgearbeit vier mögliche Reaktionsweisen. Damit verband er die Frage nach den Digital Humanities mit einem breiteren Nachdenken über Kultur nach der Hochkultur, etwa im Kontext von Konzepten wie „Dopamine Culture“.
Auch die folgenden Beiträge knüpften an diese Perspektivverschiebung an: Anna Maria Neubert analysierte 714 Drittmittelprojekte (1996–2021) aus einer feministischen Perspektive und machte dabei strukturelle Unterschiede in Forschungsnetzwerken sichtbar. Sie schloss mit der Betonung der Notwendigkeit intersektionaler Perspektiven in den Digital Humanities. Das letzte Projekt widmete sich der Landschaft von 866 Wissenschaftsblogs in Deutschland und stellte Fragen nach Open Science und Open Access, etwa im Hinblick auf Standardisierungen wie DOI, ISSN oder Creative-Commons-Lizenzen.
Zum Abschluss des Tages wechselte ich in ein Panel unter dem thematischen Dach „Virtualität“, das sich zwischen Architektur, VR und Eye-Tracking bewegte. Den Auftakt bildeten Überlegungen zur Dokumentationspraxis in der Architekturforschung, vorgestellt anhand von IDOVIR (Infrastructure for Documentation of Virtual Reconstructions), einem Taxonomieprojekt, das sich der Integration vielfältiger Quellen – von physischen und digitalen 3D-Modellen über naturwissenschaftliche Analysen bis hin zu Oral History und Inschriften – widmet.
Vom Physischen ging es anschließend in den virtuellen Raum: Mit ExPresS XR wurde ein No-Code-Tool für die Entwicklung von XR-Ausstellungen vorgestellt, das einen niederschwelligen Zugang zur Gestaltung immersiver VR-Erlebnisse eröffnet. Der Fokus liegt dabei auf Anwendungen im musealen und wissenschaftlichen Kontext – von der Vermittlung über die Forschung bis hin zur kuratorischen Praxis.
Unter der Leitfrage „Was bestimmt die Zeit?“ zeigte der abschließende Vortrag anhand einer Eye-Tracking-Studie, dass sich Aufmerksamkeit im Museum entlang klarer Muster verteilt: Kunstwerke werden länger betrachtet als Texte, Größe und Gattung beeinflussen die Verweildauer signifikant, und Sehen und Lesen stehen in einem engen Zusammenhang.
Ein sehr gelungener Start, der noch einmal deutlich machte, welche Debatten in den Digital Humanities – fernab der Literatur, an ihren Rändern oder im Zusammenspiel mit GLAM – geführt werden.
Doctoral Consortium und Poster-Slam: Mein Konferenzdonnerstag
Meinen Donnerstag begann ich mit dem Doctoral Consortium: Die vorgestellten Projekte reichten von der computergestützten Modellierung literarischer Aufmerksamkeit am Beispiel von Sherlock-Holmes-Erzählungen (Jan Angermeier) über die digitale Kartierung von Akteur:innen der Stonewall-Bewegung und damit verbundene Fragen nach Sichtbarkeit und Gewichtung innerhalb queerer Geschichtsschreibung (Robin Luger) bis hin zur Analyse von 54 sowjetischen Theaterstücken der Jahre 1945 bis 1964, in der Ekaterina Kolevatora familiäre Modelle im Spannungsfeld von Spätstalinismus und Tauwetter-Periode untersuchte.
Ein Highlight des Tages war die Postersession, insbesondere der Poster-Slam, der mit viel Poesie, Star-Wars-Referenzen und sogar aus dem Grab auferstandenen Protagonist:innen überzeugte. Insgesamt wurden auf der DHd2026 fast 100 Poster präsentiert. Der Empfang und die Preisverleihung des Slams fanden am Abend im Rathaus statt und bildeten mit Buffet, Musik und anschließender Party einen gelungenen Abschluss des Tages – in einer besonders schönen Atmosphäre.
Zum Abschluss: Panels und Keynote am Freitag
Der Freitag begann für mich mit Präsentationen aus dem Bereich der Digital Art History, in denen unterschiedliche Zugänge zur computergestützten Bildanalyse zusammenkamen. Ein Vortrag widmete sich der Frage, wie sich Vision-Language-Modelle wie CLIP für kunsthistorische Analysen nutzen lassen und wie ihre Entscheidungen mithilfe von Explainable Artificial Intelligence nachvollziehbar werden können. Dabei zeigte sich, dass die Modelle bei konkreten Objekten überzeugend arbeiten, bei abstrakteren Konzepten jedoch an ihre Grenzen stoßen.
Diese Spannbreite zwischen methodischer Reflexion und praktischer Anwendung setzte sich in den folgenden Beiträgen fort: Mit PortApp wurde eine App zur Analyse und Durchsuchung frühneuzeitlicher Porträts vorgestellt, die sowohl Ähnlichkeitssuchen als auch die Suche mit eigenem Bildmaterial ermöglicht. Gleichzeitig zeigte das Tool „Suchkind“, wie sich multimodale Modelle mit domänenspezifischer Annotation kombinieren lassen, um visuelle Vorstellungen von Kindheit in historischen Kinder- und Jugendbüchern systematisch analysierbar zu machen.
Die Closing Keynote von Katharina Kinder-Kurlanda (Universität Klagenfurt) führte diese Perspektiven auf einer Metaebene zusammen. In ihrem Vortrag „Digital Humanities Unpacked: The Politics and Practices of Data Work“ machte sie deutlich, dass digitale Daten stets in komplexe Machtverhältnisse, Infrastrukturen und gesellschaftliche Kontexte eingebettet sind, und plädierte dafür, die Digital Humanities als kritische Disziplin zu verstehen, die nicht nur Methoden anwendet, sondern auch deren politische und epistemologische Implikationen reflektiert.
Dies bildete den Abschluss der sehr erfolgreichen #DHd2026 in Wien. Ich freue mich schon jetzt auf die DHd2027 in Marburg unter dem Titel „Mind the Gap! – Wissen, Unsicherheit und Verantwortung“ (1.–5. März 2027 am MCDCI).
Und möchte mich an dieser Stelle herzlich bei NFDI4Culture und dem DHd bedanken, die mir durch das Reisestipendium die Teilnahme an dieser inspirierenden Konferenzwoche in Wien ermöglicht haben. Neben zahlreichen inhaltlichen Impulsen, die genau an die Schnittstellen anknüpfen, an denen ich mich künftig verorten möchte, nehme ich vor allem die Begegnungen mit – eine wachsende Kontaktliste und einige neue WhatsApp-Gruppen, die die DH-Community einmal mehr als offen, lebendig und vernetzt zeigen.
*Der Titel bezieht sich übrigens auf einen Satz, den ein Konferenzteilnehmer auf seinem LED-Badge hatte – ein Goodie aus dem Konferenzbeutel, das selbst programmiert werden konnte und auf dem die vergnüglichsten Aussagen angezeigt wurden, u. a. selbstverständlich „I love DHd“.
Von Alica Müller
Kommentar schreiben