Rückblick DHd 2025: Von Algorithmen in Haft zu Herr-der-Ringe-Snake-Journeys

1 Veröffentlicht von Alica Müller am

Kein Ort könnte passender sein als Bielefeld, eine Stadt, die mit Wettbewerben zur Beweisführung ihrer Nicht-Existenz aufwartet, in der sich ein Wollnashorn-Skelett unter einer Glasscheibe in einer U-Bahnstation befindet und deren Straßen Namen wie Konsequenz, Lauf der Dinge, Durchbruch oder Aufklärung tragen. Bereits zum elften Mal fand die Jahrestagung der Gesellschaft für Digital Humanities im deutschsprachigen Raum statt – dieses Mal unter dem Motto „Under Construction – Geisteswissenschaften und Data Humanities“ in Bielefeld. Und passend zum Thema ist auch Bielefeld seit Jahren „under construction“ und strahlt diese Dynamik aus – selbst in den Mauern bereits fertiger Gebäude. Vom 3. bis 7. März 2025 stellten die Universität und Hochschule Bielefeld diese Gebäude für die Dhd-Tagung zur Verfügung und boten damit einen perfekten Ort für den interdisziplinären Dialog und Austausch der diesjährigen Konferenz. Und ich freue mich, als eine der Dhd-Stipendiat:innen, von meinen Eindrücken der diesjährigen Tagung berichten zu dürfen.

Von Algorithmen in Haft zu Herr-der-Ringe-Snake-Journeys

Der Konferenzdienstag begann an der Interaktion 1, dem HSBI-Hauptgebäude, mit Workshops. Für mich bedeutete das die Teilnahme am Workshop „Fortgeschrittenes Prompt- und AI-Agent-Engineering für wissenschaftliche Textproduktion“, geleitet von der AG Angewandte Generative KI und der AG Digitales Publizieren. Ein Thema, das insbesondere durch die letzten Entwicklungen der LLMs (Large Language Models), wie Time-Compute-Skalierung, Reasoning-Modellen und Multi-Agent-Systemen, für mich und viele andere völlig neue Dimensionen angenommen hatte. Daher traf Christopher Pollin mit seiner Eingangsfrage „… fühlen Sie sich auch (wie ich) ziemlich überfordert?“ genau den Nerv vieler Anwesenden und brach sofort das Eis.

In den folgenden acht Stunden hatten wir die Möglichkeit, als „Experts-in-the-loop“ durch praktisches Prompt Engineering am Beispiel eines fiktiven Forschungsblogs die vorgeschlagenen neuen Arbeitsweisen und Prompts direkt anzuwenden. Dies erfolgte in einem produktiven Wechselspiel aus praktischer Arbeit und reflektiven Momenten, in denen wir auch kritische Metafragen zur ethischen, ökologischen, rechtlichen und sozialen Dimension von Generativer KI nachgingen: Welche Rolle spielt eigentlich die (männliche) Machtposition von Tech-Oligarchen? Wann beginnt Open Source und wo endet es bei Closed Source? Mit welchen vorgefassten Biases in Trainingsdaten haben wir es zu tun? Wie sollten wir kennzeichnen, was wir tun, und können wir hier noch von guter wissenschaftlicher Praxis sprechen?

Die Workshop-Leiter:innen nahmen uns als Peers mit auf eine Reise, bei der wir den gesamten Prompt Engineering Prozess sezieren durften. Dabei kamen viele verschiedene Perspektiven zusammen – von Studierenden und Lehrenden über Kulturinstitutionen bis hin zu Personen, die sich selbst als „Bindestrich-Informatiker:innen“ bezeichneten.

In der praktischen Anwendung eröffneten sich mir neue Perspektiven, sei es bei der Arbeit mit Pseudo-Syntaxen oder bei den feinen linguistischen Unterschieden zwischen „report“, „summarize“ und „explain“. Besonders angenehm war die Offenheit der Workshop-Leiter:innen und der Gruppe gegenüber unterschiedlichen Wissensständen – für mich war es beispielsweise das erste Mal, dass ich etwas über den Einsatz von Agents erfuhr.

Und neben den intensiven technischen Debatten gab es auch immer wieder humorvolle Momente, wie zum Beispiel während einer Diskussion über Urheberrecht, als jemand im Raum den Vorschlag machte, Algorithmen in Haft zu nehmen, oder als als Simulation ein Herr-der-Ringe-Snake-Spiel entworfen wurde. Und nicht zuletzt, jedes Mal, wenn wir mit einem Sprachmodell kommunizierten und dabei zur Theatralik neigten: „This is very important for my career“ oder: „Mein Leben hängt davon ab“, um nur einige Beispiele zu nennen. Ein gelungener Workshop, der meinen Umgang mit LLMs und ihren neuen Möglichkeiten nachhaltig veränderte.

Ein Plädoyer für einen „values-first“-Ansatz und ein Nachdenken über Denkmaschinen, Stochastische Papageien und Ausbeutung(en)

Nachdem ich nun gemeinsam mit meiner Workshop-Gruppe acht Stunden damit zugebracht hatte, neue Möglichkeitsräume in LLMs zu prompten, fand die Eröffnungskeynote von Mark Dingemanse der diesjährigen Konferenz statt, die sich genau an den Themen des Workshops anlehnte und noch weitere Perspektiven eröffnen konnte. Thema seiner Keynote war die Frage „What makes LLMs so irresistible?“. Er begann seine Ausführungen mit einer theoretischen Perspektive und bezog sich auf unterschiedlichste historische und zeitgenössische Ansätze, darunter Victoria Welbys Überlegungen zu „Thinking Machines“ oder Pascal Boyers Konzept der „ostensive detachment“, aber auch auf Adornos Theorie der „Pseudo-individualization“ und Garfinkels „specific vagueness“.

Dingemanse plädierte für eine Critical AI Literacy. Dabei waren jede seiner Ausführungen geprägt von wundervoller wissenschaftskommunikativer Eleganz. Er untermauerte sein Argument durch das konkrete Beispiel ChatGPT, indem er sich sowohl den „Chat“ als auch den „GPT“-Part genauer ansah. Ein Fokus dabei lag für ihn auf dem Verfahren des Reinforcement Learning with Human Feedback (RLHF), das uns enthüllte, wie LLMs oft eine scheinbar freundliche und hilfsbereite Haltung annehmen. Dingemanse thematisierte die Ausbeutung menschlicher Sinnschöpfung und Bedeutungszuschreibung und warnte davor, dass die scheinbare Einfachheit der Nutzung – wie sie von Johanna Drucker beschrieben wird – uns in die Irre führen könne.

Mich faszinierte dabei, mit welcher schieren Leichtigkeit er diese zum Teil hochkomplexen Konzepte herunterbrach und in einen neuen Kontext setzte, aber auch sein Verweis auf den European Open Source AI Index (https://osai-index.eu) fand ich sehr hilfreich. Eine wirklich wichtige Ressource für eine kritische Auseinandersetzung mit LLMs, die meiner Meinung nach wirklich dazu beitragen kann, noch besser einen „values-first“-Ansatz zu verfolgen und das „textbook Open-Washing“ von LLMs wie LLama aufzudecken.

Nach der Eröffnungskeynote folgte der Ausklang des Abends beim Sektempfang. Und zu Ende ging für mich der erste Konferenztag, der mir verdeutlichte, wie zentral die Rolle insbesondere von LLMs in so kurzer Zeit geworden ist, aber auch welche neue Rolle für mich als Early-Career-Scientist damit einhergehen kann und sollte, um zurück zum Beginn des Tages zu kommen, in einem Satz: „This is very important for my career.“

Status Quo und Status Futures: How to Forschungsdatenmanagement?

Am Konferenzmittwoch begannen die Panels, mein Fokus lag heute auf der Beschäftigung mit Forschungsdatenmanagement und somit insbesondere Fragen nach der Entstehung und Erhaltung von DH-Projekten. Patrick Helling eröffnete das Panel mit seinem Vortrag zu „Strategien zur nachhaltigen Bereitstellung lebender Ressourcen“ und stellte Fragen wie: „Wer ist eigentlich für das Aufbewahren von DH-Projekten zuständig?“ Dabei nahm er unterschiedliche Akteur:innen wie Förderinstitutionen, Forschende und Dateninstitutionen in den Blick und formulierte zugleich die Herausforderungen an diese Institutionen im Umgang mit Projekten, die sich der Abschließbarkeit entziehen.

Leider zu oft als abgeschlossen betrachtet und nicht mehr angefasst, nachdem der Förderantrag abgeschickt wurde, werden DMP, also Datenmanagementpläne, die das Thema des zweiten Vortrags darstellten. Anhand einer Evaluation stellten Nils Reiter, Felix Rau und Patrick Helling fest, wie viel Potential von DMP oft unausgeschöpft bleibt und plädierten für eine aktivere Nutzung dieses Tools. Auch im dritten Vortrag stand ein zentrales Tool im Fokus, nämlich GitLab. Jennifer Bunselmeier und Lena-Luise Stahn zeigten auf, wie sie GitLab als Multitool zum Einsatz bringen, ganz egal ob als Forschungsdatenrepositorium, Wissensspeicher oder Tagebuch. Und stellten auch die Frage nach dem Einfluss dieser Tools auf DH-Praktiken. Ein wirklich interessantes Panel, das einen guten Überblick über den Status Quo des Forschungsdatenmanagements in den DH lieferte.

Nach der Pause wurde der Blick zum zukünftigen Arbeiten in den DH gerichtet. Manuel Burghardt stellte in seinem Vortrag Fragen nach der Zukunft der DH und bediente sich dabei auch philosophischer Konzepte wie dem von „Zwei Kulturen“, das Charles Percy Snow formulierte. Ein konkretes Beispiel für einen neuen Ansatz zukünftiger Arbeitsweisen in den DH lieferte dann der nächste Vortrag von Anastasia Glawion, Dominik Kremer, Sabine Lang, Michaela Mahlberg und Andreas Wagner, welche die Applied Digital Humanities und insbesondere das Potenzial von Public Engagement Labs thematisierten.

Der Vortrag „Operationalizing operationalizing“ war der letzte in dieser Gruppe und stellte noch einmal große Fragen, insbesondere, ob wir in den DH einen größeren Fokus auf Erklärung, Messung und Validierung legen sollten.

Nachdem mein Vormittag mit meta-reflektiven Perspektiven auf das Management von DH-Projekten gut gefüllt war, interessierte mich am Nachmittag besonders, welche Themen und Ansätze von Early-Career-Perspektiven in den Fokus gerückt wurden. Im Doctoral Consortium nahm ich an den Vorträgen „Übersetzung und Digitalisierung der jiddischen Zeitschrift ‚Der Wahre Jude'“ von Robin Luger und „Die Wahrnehmung von Privatsphäre und KI-Überwachungstechnologien“ von Vera Yakupova teil.

Algorithmen embodied: UNDER CONSTRUCTION. A Physical Lecture

Ein zentraler Teil der Tagung war auch das Rahmenprogramm, und so hatte ich am Abend ein Ticket für „UNDER CONSTRUCTION. A Physical Lecture“, choreografiert von Felix Landerer und performativ umgesetzt von Gaya Bommer-Yemini. Diese Performance ermöglichte mir eine nicht-sprachdominante Perspektive, die ich zum Anlass nehmen konnte, um über Potenziale, Chancen und Herausforderungen der DH nachzudenken.

Die Performance fand in einem Hörsaal statt, dessen Mobiliar gleichzeitig als Bühnenbild und Requisite diente. Zu Beginn waren an der Tafel nur dünn gezeichnete Zahlen zu sehen, die schemenhaft die Figur eines Menschen erahnen ließen. Als die Tänzerin den Raum betrat, trug sie einen Anzug und eine Aktentasche und bewegte sich in einer Schleife gefangen, immer wieder hin und zurück zum Eingang des Hörsaals. Diese Wiederholungen waren ein zentrales choreografisches Element, das sich von Anfang bis Ende durchzog. Immer wieder wurden Gesten so exakt wie möglich wiederholt, was Fragen nach Menschlichkeit in technologischen Kontexten aufwarf.

Diese Fragen wurden verstärkt, als die technischen Aspekte des Raums inszeniert wurden, etwa als der Schreibtisch oder die Tafel per Knopfdruck hoch und runter gefahren wurden. Dieses Zusammenspiel zwischen verkörperten Algorithmen und der gleichförmig agierenden Technik im Raum zog sich auch auf musikalischer Ebene durch: Parallel dazu war ein Soundscape von Christof Littmann zu hören, in dem sich Stimmen und Sounds genauso mechanisch wiederholten und überlagerten, wie es die Technik im Raum oder die körperlichen Praktiken taten. Der Prozess des Wiederholens und Stoppens wurde immer wieder unterbrochen von Momenten, in denen die Tänzerin bewusst Menschlichkeit ausstellte oder sogar die Nähe zum Tier – etwa, als sie eine Banane schälte und aß, was eine Assoziation zu Affen hervorrief.

Die Performance war eine provokante Auseinandersetzung mit den Fragen, die ich mir zuvor in den Vorträgen gestellt hatte – etwa, wie viel Menschlichkeit im „humans-in-the-loop“-Ansatz steckt und wie wir mit der von Dingemanse beschriebenen Ausbeutung der Menschlichkeit in der Interaktion mit LLMs zukünftig umgehen sollten.

Digital History: Von historischen Texten zu visuellen Analysen

Am vorletzten Tag der Tagung verbrachte ich den ersten Teil des Vormittags mit verschiedenen Ansätzen zur Digital History, wobei der Fokus besonders auf den Herausforderungen und Chancen lag, die historische Texte an uns stellen. Den Auftakt bildeten Michela Vignoli und Doris Gruber mit ihrem Vortrag „Voll automatisiert die Natur in historischen Reiseberichten erkennen? Entzauberung von KI-Werkzeugen und ihr Nutzen für die Geisteswissenschaften“. Sie thematisierten vor allem die Grenzen von KI-Werkzeugen, die in manchen Fällen zu verzerrten Ergebnissen führen können. Statt dies jedoch als Rückschlag zu sehen, betonten sie, dass solche Schwierigkeiten eine Chance darstellen, die Expertise der Forscher:innen in den Umgang mit diesen Technologien zu integrieren, um die Herausforderungen der Digital History besser zu bewältigen.

An diesen Gedanken knüpfte der Vortrag von Yannic Bracke und Anton Ehrmanntraut an, der sich mit der „Historischen Textnormalisierung“ befasste. Sie präsentierten Ansätze zur Normalisierung historischer Texte, um die Schwierigkeiten, die bei der Analyse auftreten, zu überwinden. Der Vortrag von Nina Rastinger und Claudia Resch baute darauf auf, indem er sich der semi-automatischen Identifikation und Analyse von Korrespondenzorten in der „Wiener Zeitung“ widmete. Hierbei wurde untersucht, welche Orte während des Siebenjährigen Krieges am häufigsten in den Korrespondenzen auftauchten.

Nach diesem intensiven ersten Teil des Vormittags, der sich mit der Textanalyse beschäftigte, verlagerte sich der Fokus beim zweiten Teil auf visuelle Quellen, was unter dem Begriff Distant Viewing zusammengefasst wurde. Den Beginn des Panels machte der Vortrag von Wiebke Helm und Janos Borst, die versuchten, durch computergestützte Analyse bestimmte Szenen in den Illustrationen von etwa 11.000 Kinderbüchern zu identifizieren. Dabei wurden rund 230.000 Illustrationen analysiert. Besonders spannend waren auch die Grenzen, denen sie während ihrer Arbeit begegnet sind, etwa wenn die Kategorisierung der Bilder nicht eindeutig war oder je nach Forschungsfrage variieren konnte – beispielsweise wie Bilder von Kindern beim Unterrichten spielen oder beim Unterrichten unterschieden werden sollten.

Im Vortrag „Gustav Klimt: Kunstgeschichte und Visual Analytics im Dialog“ von Teresa Kamencek standen dann Ausstellungsnetzwerke im Fokus. Die Daten wurden in der Datenbank DoME herausgefiltert, um dann in ArtVis (https://artvis.cvast.tuwien.ac.at/) als dynamisches Netzwerk visualisiert werden zu können. Den Abschluss bildete der Vortrag von Sabine Lang und Mathias Zinnen zur Provenienzforschung. Sie erläuterten, wie bildbasierte Suchverfahren auf das Material in historischen Auktionskatalogen eingesetzt werden könnten, um neue Verbindungen zwischen Objekten und Informationen zu entdecken. Anhand von Beispielen verdeutlichten sie, wie der Einsatz von Bildsuchtechnologien zur Rekonstruktion der Geschichte von Kulturgütern beitragen kann.

Besonders die Vorträge am Nachmittag sind mir in Erinnerung geblieben, denn als Theaterwissenschaftsstudentin interessieren mich all jene Momente, in denen all das eingefangen und neu konzeptualisiert werden kann, was nicht rein textlicher und sprachlicher Natur ist. Der Ansatz, der für Szenen in Kinderbüchern vorgestellt wurde oder auch der Ansatz zur Provenienzforschung bieten dabei spannende Zugänge zu den digitalen Spuren, die auch Performances hinterlassen.

Ein Poster, eine Minute und eine Performance!

Apropos Performance! Nach den intensiven Tagen der letzte Woche fand am Donnerstag nach den Panels ein weiteres Highlight der Konferenz statt: der Posterslam. Binnen kürzester Zeit mussten die Slamenden von den Ideen ihres Posters überzeugen, und das Urteil über Qualität und Präsentation lag im Applaus des Publikums, der mithilfe eines professionellen Lautstärkemessgeräts in Daten übertragen wurde. Dabei wurden keine Kosten und Mühen für die Kostümauswahl und Performance gescheut. Von popkulturellen Referenzen zu Model-Ikonen, über Cowboys mit Mundharmonika und Tamburin, zu sportlichen Tauziehen und lautstarken Erklärungen war alles dabei. Eine wundervolle Überleitung zur Poster-Session, in der alle Poster und deren Ersteller:innen noch einmal intensiv befragt werden konnten.

Da der Donnerstag bereits der letzte Abend der Konferenz war, standen an diesem Abend auch noch weitere Höhepunkte an, nämlich die Konferenzparty im Forum Bielefeld, inklusive Konferenz-Dinner, das in von Burger-Foodtrucks serviert wurde. Dabei konnte auch endlich die Frage aufgelöst werden, die wir uns als Social Media Team seit einiger Zeit gestellt hatten: Welche Musik wird auf einer Dhd-Konferenzparty laufen?

Unsicherheiten, Unfertigkeit und Unwissenheit – Under Construction!

Mein Freitag stand unter der Frage, wie wir eigentlich mit den Baustellen umgehen, die uns in unserer Arbeit begegnen, und wie wir die Großbaustelle der Digital Humanities angehen sollten. Ein Dreiklang aus konkreten Projekten, die sich mit Unsicherheiten in ihrer Arbeit befassten, einem Diskussionsforum, das die Frage aufwarf, wie es um DH als Disziplin steht, und der Abschlusskeynote der diesjährigen Tagung, die den Tag mit einem Blick auf den Zustand des Unfertigen abrundete, bot den perfekten Strauß von Antworten auf diese Fragen.

Zusammengefasst unter dem Begriff Modellierung begann mein Tag mit dem Panel „Kontext, Unsicherheit und Geschlecht im Fokus der Modellierung: Datenprinzipien für die feministische Filmgeschichte“ von Pauline Junginger. Die Vortragende gab spannende Einblicke in ihre Arbeit, in der sie unter anderem die Frage untersuchte, wie Unsicherheiten modelliert werden können. Sie präsentierte neue Ansätze, etwa die Anwendung der FAIR-Prinzipien, und beleuchtete deren Bedeutung im Kontext der feministischen Filmgeschichte.

Auch Stefan Heßbrüggen-Walter beschäftigte sich mit Unsicherheiten in seinem Vortrag „Accuracy vs. Consistency: A Case Study Assessing Data Quality in Metadata of Early Modern Dissertations“. Er stand vor konkreten Herausforderungen, wie etwa der Frage, was passiert, wenn Diskrepanzen auftreten und Namen nicht eindeutig als Autor:innen identifiziert werden können, während die Datenbank kaum Raum bietet, um solche Unsicherheiten adäquat abzubilden.

Schließlich präsentierte Philipp Sauer ein Projekt, das in Zusammenarbeit mit dem Tanzarchiv Leipzig unter dem Titel „Work(s) in progress – Datenmodellierung zum Kulturerbe Tanz in der DDR als Prozess“ umgesetzt werden soll. Dabei steht das Projekt vor der Herausforderung, dass die Flüchtigkeit dieser Kunstform und ihre Abhängigkeit von Spuren mit zahlreichen Unsicherheiten in Bezug auf die Erschließung von Daten konfrontiert sind. Und zugleich auch mit dem Problem, dass es bisher nur vergleichsweise wenig DH-Modellprojekte für die Untersuchung performativer Künste gibt.

Nach Einblicken in diese sehr spezifischen Unsicherheiten und Baustellen nahm ich an einem Panel zur Großbaustelle der Digital Humanities teil, mit dem Titel „Gemeinsame Baustellenbegehung – Digital Humanities und Wissenschaftsforschung“. Anstatt eines klassischen Vortrags fand diese Begehung vielmehr als Diskussionsforum statt, moderiert von Lisa Eggert und Sandra König. Das Publikum hatte die Möglichkeit, seine eigenen Perspektiven und Sichtweisen als aktive Teilgeber:innen einzubringen.

In der Diskussion wurden zahlreiche Fragen aufgeworfen, etwa: Was sind die Digital Humanities eigentlich? Eine Disziplin, eine Metadisziplin oder gar eine Bewegung? Brauchen wir eine Geschichtsschreibung der DH? Wenn ja, wie sollte diese aussehen und in welchem Format sollte sie stattfinden? Auch wenn dieses Panel länger dauerte als alle anderen Vorträge, konnte selbst nach 90 Minuten keine eindeutigen Antworten auf diese Fragen gefunden werden, was jedoch auch den Raum für Weiterentwicklung eröffnet. An dieser Stelle möchte ich auf das Projekt „What is Digital Humanities?“ (https://whatisdigitalhumanities.com) hinweisen, das sehr gut die Vielseitigkeit dieser Disziplin widerspiegelt – und für mich persönlich macht gerade das die Faszination der DH aus.

Im Anschluss an das Diskussionsforum folgte die Abschlusskeynote von Mareike König, die perfekt den Bogen zur vorangegangenen Diskussion spannte. Ein Ladebalken, der nie ganz gefüllt war, bildete einen visuellen Anker in ihren Präsentationsfolien. Ihre Präsentation ermutigte dazu, die Nicht-Abgeschlossenheit als produktive Strategie zu begreifen, das Scheitern als Chance zu sehen und „Slow Science“ zuzulassen. Mareike König betonte, dass wir beginnen sollten, die Unfertigkeit als einen fortlaufenden Prozess zu umarmen – und setzte damit den perfekten Schlusspunkt für diese intensive Konferenzwoche.

Ich bin sehr dankbar, dass mir durch die Dhd und NFDI for Culture mit einem Reisestipendium die Teilnahme an der diesjährigen Tagung ermöglicht wurde und hoffe, auch in Zukunft weiterhin an solchen wertvollen Veranstaltungen teilnehmen zu können („This was very important for my career“). Die Konferenz war nicht nur eine ausgezeichnete Gelegenheit, aktuelle Projekte und innovative Ideen aus der digitalen Geisteswissenschaft zu entdecken, sondern auch ein Raum für tiefgehende Reflexionen über die Zukunft der Disziplin. Und ich freue mich sehr auf die nächsten geplanten Tagungen, im Februar 2026 in Wien unter dem Motto „Not only Text, not only Data“ und im März 2027 unter „Mind the gap! – Wissen, Unsicherheit und Verantwortung“ in Marburg.

Von Alica Müller (she/her)

Kommentar schreiben