Rückblick auf die DHd 2026 – Nicht nur Text

0 Veröffentlicht von Arabella Petz am

Als Stipendiatin des DHd-Verbands obliegt es mir einen Blogeintrag bezüglich meiner Erfahrungen auf dieser Konferenz zu schreiben. An dieser Stelle möchte ich meinen herzlichen Dank an den DHd-Verband ausdrücken, ohne dessen Förderung ich nicht an dieser Konferenz hätte teilnehmen können. Da es sich dabei um meine allererste Konferenz gehandelt hat, bin ich dem DHd-Verband noch dankbarer für diese Chance!

Nachdem der genaue Programm-Ablauf online im Detail abgerufen werden kann, wollte ich die Konferenz nicht Schritt für Schritt protokollieren, sondern lieber erst etwas sacken lassen, um zu sehen, welche Elemente, denn den größten Eindruck hinterlassen haben. Zu den eindrucksvollsten Elementen zählen für mich die Räumlichkeiten, die eröffnende Keynote sowie einer der Workshops. Auch die hier nicht aufgeführten Panels, Sessions, Workshops, Vorträge und Diskussionen waren alle hervorragend und ich konnte aus allen, an denen ich teilgenommen habe, etwas mitnehmen, doch die im Folgenden genannten Elemente werden mich am längsten begleiten.

Imposante Räumlichkeiten

Auf Anhieb fällt da zunächst das imposante Hauptgebäude ein mit seiner in gleichem Maße wunderschönen als auch verwirrenden Architektur. Die zahlreichen breiten Treppen, die Statuen und der Stuck verleiten der Konferenz ein besonderes Flair, der schwer zu imitieren ist. Besonders stechen dabei natürlich die Festsäle heraus: nicht nur waren diese ein wahrer Augenschmaus mit ihren hohen, aufwändigen Stuck-Decken, es wurde auch besonders viel Zeit in ihnen verbracht, nachdem hier die regelmäßigen Kaffeepausen mit Gebäcken zur Stärkung zwischendurch verbracht wurden. Insgesamt hatte man dank der Kulisse das Gefühl in eine andere Welt eingetaucht zu sein, fern vom regulären Alltag und gefüllt mit Wissenschaft, Forscher:innen und digitalen Methoden.

An dieser Stelle kann auch generell die Verpflegung positiv hervorgehoben: zweimal am Tag wurden Kaffee, Tee und zahlreiche Variationen an Gebäck angeboten, mit sowohl pflanzlicher als auch tierischer Milch, die einen immer gestärkt in die nächste Veranstaltung ziehen haben lassen.

Eine andere Räumlichkeit, die starken Eindruck hinterlassen hat, war das Rathaus. Mit noch stärker verschachtelten Treppen als im Hauptgebäude der Universität Wien versetzt es einen direkt in vergangene Jahrhunderte. Noch beeindruckender war allerdings der Festsaal, welcher über und über mit Gold, Kristall und anderen Verzierungen prunkt. Während des Empfangs im Rathaus durch diesen Saal zu schlendern und die Verzierungen im Detail zu betrachten, war ein außergewöhnliches Vergnügen besonders, wenn man dabei in guter Gesellschaft war.

Keynotes und Datenaliens

Von den Keynotes ist mir vor allem die von Miriah Meyer zu „Data As _______: Exploring the Plurality of Data in Visualization“ in Erinnerung geblieben. Nicht nur war ihr Vortrag informativ und unterhaltsam, ihre PowerPoint-Präsentation war ein Zeichen ihrer Spezialisierung auf (Daten)Visualisierung. Grundlegend wurden in diesem Vortrag Fragen gestellt, wie Was sind Daten? Woher kommen sie? Wer macht Daten?. Eine Antwort, die mir dabei besonders in Erinnerung geblieben sind, waren die Datenaliens, die von Kindern kreiert und mit ihren eigenen Informationen gefüllt wurden. Das Konzept, das alles Daten sein können und jede:r Daten kreieren kann, mag zwar simpel sein, jedoch war es doch eine Epiphanie die mich in meinem weiteren Leben und Forschungsweg begleiten wird.

Ein beeindruckender Workshop

Besonders oft musste ich an den Workshop am Dienstag zu „LLMs unter Kontrolle: Offene Modelle in Forschung und Praxis“ von Jürgen Hermes, Kai Niebes, Sarah Oberbichler, Andreas Wagner zurückdenkend. Nicht nur wurde dieser sehr interessant und abwechslungsreich gestaltet, inhaltlich kann ich die vermittelten Kompetenzen, allen voran das Selbst-Hosten eines LLMs (selbst auf meinem alten Laptop), für meine Masterarbeit zur Erkennung generierter Paper direkt anwenden. Aus diesen Gründen möchte ich nun etwas vertiefter diesen Workshop beschreiben.

Beginnend mit einer theoretischen Einheit zu den Grundlagen von LLMs sowie verschiedenen Konzepte der Offenheit (Open Source vs. Open Weights) wurde eine solide gemeinsame Wissensbasis erarbeitet. Dabei wurde grundlegend die Architektur von LLMs erläutert sowie auf die Problematik von proprietären Modellen im Forschungskontext eingegangen. Im Anschluss gab es eine Praxis-Einheit in der gezeigt wurde, wie Modelle lokal auf dem eigenen Laptop zum Laufen gebracht werden können. Beginnend mit einer sehr hilfreichen Anleitung zum Starten einer virtuellen Umgebung und mehreren Python-Dateien mit denen man Schritt für Schritt an neue Elemente, wie System Prompts, herangeführt wurde. Eingegangen wurde dabei auch auf die verschiedenen Parameter, die zur Verfügung stehen, um den generierten Output zu beeinflussen, darunter auch die Temperatur oder der Seed.

Im Anschluss an die Mittagspause gab es dann den zweiten Theorieblock: der Einsatz offener LLMs (OpenLLMs) in den DH. Dabei wurde sowohl darauf eingegangen, welche Modelle verwendet werden und inwiefern general-purpose Modelle angemessen für die Forschung eingesetzt werden können als auch die Unterscheidung zwischen LLMs als Methode oder als Werkzeug erläutert und welche Folgen das jeweils mit sich bringt, vor allem in Bezug auf mögliche Risiken, die abgewogen werden müssen. Im Fokus stand dabei auch das Maß an Kontrolle über das verwendete Model: proprietäre Modelle bedeuten wenig Kontrolle, währen lokale Modelle mehr Kontrolle bieten können. Dann wurde noch darauf eingegangen, wie offene Modelle implementiert werden können: Beispiele für (Cloud) Server, wie HPC-Jupyter oder Huggingface Inference/Jobs und JupyterHubs, etwa vom Leibniz-Rechenzentrum oder vom RWTH der Universität Aachen wurden genannt. Außerdem wurde darauf aufmerksam gemacht, dass die eigenen Institutionen eventuell auch High Performance Computing (HPC)-Dienste anbieten. Zum Abschluss wurde der Fokus noch auf die Evaluation und die möglichen Optionen gelegt: von programmatischer Evaluation bis verschiedene, bereits existierende Metriken wurde einiges genannt.

Besonders positiv hervorzuheben sind hier auch die verwendeten Bilder im Foliensatz: die Bilder stammen von https://betterimagesofai.org/, einer non-profit Kollaboration mit dem Ziel nicht-generierte Bilder rund um das Thema Künstlicher Intelligenz zur Verfügung zu stellen, um somit Stereotype und Klischees zu reduzieren. In Anbetracht des exzessiven Einsatzes von generierten Bildern in unserem Alltag mittlerweile (von Werbung im Kino bis Serviettenmotive), war es eine sehr willkommene Abwechslung, gerade in einem Workshop zum Einsatz von KI, keine generierten Bilder zu sehen.

Im direkten Anschluss an den zweiten Theorieteil folgte der zweite Praxisteil, welcher die Leistungsfähigkeit offener Modelle, wie etwa OLMO, aufgezeigt hat. Dabei wurde sowohl gezeigt wie über die Hugging Face Inference API als auch HuggingFace Jobs eingesetzt werden können.

Da ich in meiner Masterarbeit viel mit LLMs arbeite, wird besonders der Part zum selbst-hosten von Modellen mir viel weiterhelfen können und mir neue Optionen ermöglichen.

Fazit

Insgesamt war die DHd 2026 eine eindrucksvolle Konferenz, die verschiedene Themen- und Forschungsbereiche abgedeckt hat, manche vertraut, andere komplett neu, jedoch alle verbunden durch die Digital Humanities. Es war ein guter Einblick in Konferenzen und einen Teil der wissenschaftlichen Welt mit dem ich bisher noch keinen Kontakt hatte. Somit möchte ich mich noch einmal explizit beim DHd-Verband bedanken mir die Mittel gegeben zu haben, an dieser wunderbaren Konferenz teilgenommen haben zu können sowie grundlegend für das Ausrichten dieser Konferenz!

Kommentar schreiben