Nachlese zur Konferenz Digital Humanities revisited in Hannover

1 Veröffentlicht von Mirjam Blümm am

von Martin Hinze, Universität Freiburg

Vom 5.-7. Dezember fand in Hannover die Konferenz (Digital) Humanities revisited – challenges and opportunities in the digital age statt (wir berichteten Anm. d. Red.), veranstaltet von der VolkswagenStiftung. Es war die dritte in der neuen Reihe der Herrenhäuser Konferenzen im neu errichteten Schloss Herrenhausen. Die Konferenz brachte Protagonisten der Digital Humanities aus der ganzen Welt zusammen. Auch Skeptiker der Digitalisierung und sie eher von außen betrachtende Wissenschaftler waren eingeladen. Die Konzeption der Konferenz war mutig, denn es sollten, wie schon in der Ankündigung zu lesen war, nicht nur beispielhafte Projekte der Digital Humanities vorgestellt und diskutiert werden. Es sollte auch nach den Verlusten gefragt werden, die die Digitalisierung mit sich bringt.

Kurz nach der Konferenz wurde bereits eine Reihe von Berichten veröffentlicht. Sascha Foerster hat für die Max Weber Stiftung einen Überblick zusammengestellt.[1] Dieser Liste wären noch die Mitschriften und Kommentare zur Konferenz James Bakers von der British Library hinzuzufügen. Sein Veröffentlichen der persönlichen Notizen zeigt den Geist des Teilens, der zum Reiz dieses Feldes beiträgt.[2] In Erwartung des offiziellen Berichts der VolkswagenStiftung, der für den 17. Januar angekündigt ist, möchte ich in einer späten Nachlese einige Bemerkungen nachtragen. Diese beziehen sich auf drei Punkte.

  1. Die Schwierigkeit, Digital Humanities zu definieren
  2. Den Zusammenhang von Gewinn und Verlust durch Digitalisierung
  3. Audiomaterial als Gegenstand der Digital Humanities

Zu 1.

digital Humanities statt Digital Humanities?

Auf der Konferenz wurde intensiv und zum wiederholten Mal darüber nachgedacht, wie sich die Digital Humanities definieren ließen. Diese Frage hängt damit zusammen, ob die Digital Humanities eine eigene Disziplin sind und ist für viele Teilnehmer deshalb relevant, weil von ihrer Beantwortung die institutionelle Unterbringung und Finanzierung von Projekten und Stellen abhängt. Die Digital Humanities als neuer Studiengang würden auch einen neue Nachfrage nach Lehrkräften und Lehrstühlen mit sich bringen. Die Frage wurde nach der Konferenz auf verschiedene Weise beantwortet. Michael Schmalenstroer schlägt vor, eine engere und operationalisierbare Definition durch eine Umbenennung der Digital Humanities in Computational oder Algorithmic Humanities zu erreichen.[3] Eine gegensätzliche Position nimmt Philipp Nordmeyer in seinem Beitrag Destroy the Digital Humanities! ein.[4] Die Einleitung provoziert zunächst mit dem Wunsch, die Digital Humanities sollten zerstört und aufgelöst werden und verschwinden. Es folgt allerdings ein konstruktives Plädoyer, die Digital Humanities in den bestehenden Geisteswissenschaften unterzubringen und die Digital Humanities so in digital Humanities umzuwandeln. Dahinter steht die paradoxe, durch Marx geprägte Denkformel, Realisierung und Aufhebung einer Idee fielen zusammen.

Während Schmalenstroer bedauert, z. B. die geschichtswissenschaftlichen Studiengänge würden keine oder nicht genug Programmierkenntnisse vermitteln, argumentiert Nordmeyer, es sei eine nicht einzulösende Forderung, einen jungen Forscher zugleich zu einem produktiven Geisteswissenschaftler und zum Meisterprogrammierer zu machen. Er schlägt pragmatisch vor, jeder solle sich für seine Arbeitsumgebung die nötigen Kenntnisse aneignen, um sich mit Fachleuten aus anderen Gebieten verständigen zu können. Diese verschiedenen Positionen sind an dieser Stelle auch deshalb erwähnenswert, weil schon während der Konferenz kontrovers diskutiert wurde, wieviel IT-Kenntnisse im Rahmen geisteswissenschaftlicher Studiengänge vermittelt werden und welche anderen Inhalte dafür gestrichen werden könnten.

Bemerkenswert scheint mir, dass sowohl Schmalenstroer als auch Nordmeyer den Begriff der Schwammigkeit verwenden, um die unscharfe Definition der Digital Humanities zu bedauern oder zu loben. Zu dieser Metapher passt der Wunsch nach mehr Porosität, also nach mehr Offenheit und Durchlässigkeit im intellektuellen Leben, den Baker in seinen Notizen zum dritten Tag der Konferenz äußert (Vgl. Anm. 2).

In vielen Beiträgen während und nach der Konferenz erscheint es als ein besonderes Dilemma der Digital Humanities, dass es ihnen an einer bündigen Definition mangelt. Blickt man zurück in die Geschichte akademischer Disziplinen scheint eine solche Unschärfe allerdings nicht selten zu sein. Ein gutes Modell ist die Geschichte des Aufsatzes The Resistance to Theory von Paul de Man (1982). De Man sollte für die MLA im Sammelband Introduction to Scholarship in Modern Languages and Literatures den Bereich der Literaturtheorie behandeln und darin präzise beschreiben, was Literaturtheorie eigentlich sei, wie sie angewendet werde und welche Ergebnisse von ihr in absehbarer Zukunft zu erwarten seien. Stattdessen schrieb de Man darüber, warum er diese Fragen nicht beantworten könne: Das theoretisches Interesse der Literaturwissenschaft hänge eng mit ihrer Eigenschaft zusammen, sich einer solchen Definition zu entziehen. Der Beitrag wurde von den Herausgebern abgelehnt, wurde aber auch rasch zu einem modernen Klassiker der Literaturtheorie. Ähnlich ließe sich für Kulturwissenschaft als Disziplin sagen, dass ihre Hybridität und ihre Grenzüberschreitungen das Erstellen von Lehrplänen für das Fach schwierig machen, aber auch ihre Produktivität begründen. Gilt dies nicht auch für die Digital Humanities? Die 37 aktuellen Forschungsprojekte, die junge Wissenschaftler in Kurzvorträgen vorstellten, ließen sich nur schwer auf einen Nenner bringen und belegten die interdisziplinäre Vielfalt der im Rahmen der Digital Humanities verfolgten Ziele.

Zu 2.

In der die Konferenz eröffnenden keynote von Jeffrey Schnapp, der in Harvard sowohl für Studien über Romanistik als auch über Internet und Gesellschaft verantwortlich ist, kam das doppelköpfige Thema von Gewinn und Verlust durch die Digitalisierung prägnant zum Ausdruck. Schnapp gab einen weiten Überblick über neue Arbeitsmöglichkeiten in den Geisteswissenschaften im Zeitalter der Digitalisierung. Durch das crowdsourcing-Projekt Homeless Paintings. The Diaspora of Italian Renaissance Art [5] war es etwa möglich, die heutigen Standorte zahlreicher Gemälde aus der Zeit der italienischen Renaissance wieder ausfindig zu machen. Die Kunstgeschichte wusste von der Existenz dieser Bilder bis dahin nur durch eine Sammlung von 17.000 schwer zugänglichen Fotografien. Durch die Verfügbarmachung dieser Fotografien im Internet konnten Kunstwissenschaftlern zahlreiche Originale wieder zugänglich gemacht werden. Den Digital Humanities wird nicht selten vorgeworfen, die Tradition der Geisteswissenschaften zu bedrohen. Dieses Projekt ist von daher interessant, weil es eine unterbrochene Tradition wiederherstellt.

Hot spots and cold spots

Schnapp, der in Harvard auch knowledge design unterrichtet, warnte gleichzeitig vor einem Zuviel an Vernetzung und Nachrichten, die das Denken zu oft unterbrächen. Er ermutigte dazu, Bibliotheken nicht zu durchgängig vernetzten hot spots zu machen, sondern bewusst Platz für abgeschirmte ‚cold spots‘ zu lassen. Gerade Bibliotheken als eine Architektur der Erkennenden benötigen immer noch stille und weitgedehnte Orte zum Nachdenken, wohin kein Netzwerkrauschen dringt.

Im ersten Panel wurden ausführlicher konkrete Beispiele der Anwendung digitaler Methoden in den Geisteswissenschaften vorgestellt. An dieser Stelle beschränke ich mich mit einem Hinweis auf den Vortrag Detmar Meurers (Universität Tübingen), der u. a. über das maschinelle Übersetzen vortrug. Er hob dabei ein Training für ein Übersetzungsprogramm hervor, das sich als besonders effektiv erwiesen hatte. Aus einem Korpus von Beispielsätzen wurde jedes Wort gestrichen, das nur einmal vorkam. Auf diesem Weg war es möglich, Erkenntnisse über den Gebrauch von Sprache mit weniger ‚noise‘ zu verallgemeinern. Dieses Verfahrensbeispiel provozierte später, an einem anderen Punkt der Diskussion, eine Replik, die den Unterschied zwischen hermeneutischen und algorithmischen Verfahren auf den Punkt brachte und zu dem am häufigsten zitierten Gedanken der Konferenz wurde.

„You erased all words that occurred only once.”

Die Replik erinnerte an einen Roman aus dem 16. Jahrhundert von François Rabelais‘, dessen Bedeutung in dem Wort ‚trink‘ verschlüsselt sei und das in dem ganzen Roman nur einmal vorkomme. Da nun aber in Meurers Verfahren jedes Wort eines Korpus gestrichen wird, das nur einmal vorkommt, wäre mit einem solchen quantitativen Vorgehen das literarische Verständnis des Textes bedroht – ein Präzedenzfall für die Differenz hermeneutischer und algorithmischer Verfahren. Es wäre allerdings nicht fair, Meurers beeindruckend effektives Verfahren nach einem Maßstab zu bewerten, der mit dem von ihm angestrebten Ziel nichts zu tun hat.

An die Vorträge dieses Panels schlossen Kommentare von Thomas Anz (Universität Marburg) und Horst Bredekamp (HU Berlin) an. Einleitend erinnerte Anz daran, dass bereits die Sozialwissenschaften die Literaturwissenschaft mit quantitativen Methoden konfrontiert haben und dass daher die Herausforderungen durch das Digitale nicht völlig neu sind. Der Vorbehalt gegenüber quantitativen Methoden stamme aus der „Urszene“ der Literaturwissenschaft, der Erschließung potentiell unverständlicher Texte. Anz zeigte anhand des Gedichts Weltende von Jakob von Hoddis die Bedeutung von Abweichung und Differenz in der Analyse von Lyrik. Computergestützte Methoden sind bekanntlich gut dazu geeignet, Standardsprachen zu beschreiben, z. B. was die am häufigsten gebrauchten Worte und Redewendungen in einem bestimmten Textkorpus sind und welche grammatikalischen Konstruktionen wie verbreitet sind. Anz zeigte nun an dem Gedicht Weltende, wie Lyrik die Regeln der Standardsprache brechen und auf eine bestimmte Art von ihr abweichen kann. Während statistische Methoden allgemeine Gesetze erkennbar machen können, geht es im Lesen von Literatur um das Verstehen von besonderen Einzelfällen. Anz fügte hinzu, dass digitale Methoden in der Literaturgeschichte durchaus bereits ein Gewinn sind, da empirische Methoden z. B. Rückschlüsse auf die Relevanz und Verbreitung von Texten zu bestimmten Zeiten erlauben.

Digital Dark Age?

Bredekamp formulierte an dieser Stelle und im Laufe der Konferenz aus bildwissenschaftlicher Perspektive eine umfassendere Kritik an der Digitalisierung in ihrer bestehenden Form, die er auf den Begriff Präsentismus brachte. Als ein begeisterter Teilnehmer der digitalen Aufbruchs- und „Pionierzeit“ in den 1980er Jahren diagnostizierte er für die Gegenwart eine Ermüdung am Digitalen. Mit Präsentismus bezeichnet Bredekamp eine Geschichtsvergessenheit, die in den gegenwärtigen digitalen Praktiken überhand genommen habe. Das Digitale sei vor 20 Jahren wesentlich reflektierter gewesen, Bredekamp erinnerte an dieser Stelle an frühe Festivals der Serie Ars Electronica in Linz. Er konstatierte für die Gegenwart durch die Kurzlebigkeit des Digitalen ein permanentes Auslöschen der Erinnerung. Auch wenn ein neues Dunkles Zeitalter digitaler Art vielleicht noch nicht gerade vor der Tür steht, ist diese Bemerkung Bredekamps ein spannendes Paradoxon. Denn die Mittel von Big Data zielen ja eigentlich auf die Archivierung, Speicherung und Verfügbarmachung von allen möglichen Informationen.

Zu 3.

Es war ein Verdienst der Konferenz, im vornehmlich visuell arbeitenden Feld der Digital Humanities auch Wissenschaftlerinnen zu Wort kommen zu lassen, deren primärer Forschungsgegenstand auditives Material ist. Eleanor Selfridge-Field (Stanford University) trug über digitale Musikstudien vor und Tanya Clement (University of Texas at Austin) hielt einen Kurzvortrag über das Projekt high performance sound technologies for access and scholarship (HiPSTAS).[6]

Materials situated in time vs. materials situated in space

Selfridge-Field nahm den Reichtum an Notenmanuskripten, die in den letzten Jahren digitalisiert wurden, als Ausgangspunkt und stellte einige digitale Archive insbesondere von Manuskripten aus der Zeit des Barock vor. Besonders wichtig erscheint mir eine prinzipielle Unterscheidung, die sie vornahm: Musik lasse sich zwar visuell analysieren, aber nur auditiv erfahren. Das Visuelle wirke im Raum, Musik aber in der Zeit. Für viele Teilnehmer der Konferenz, die den Umgang mit Visualisierungen gewohnt sind, dürfte der wissenschaftliche Umgang mit dem ‚in der Zeit‘ wirkenden Medium Musik eine ungewohnte Herausforderung gewesen sein.

„Now is the time for humanists to design tools for sound study.”[7]

Die Arbeit mit klanglichen Quellen ist in Digital Humanities überhaupt ein noch zu wenig beachtetes Arbeitsfeld. Clement warnte in ihrem Beitrag eindringlich vor dem Verfall bestehender klanglicher Archive, die nicht ausreichend genutzt und nachgefragt würden, „however there are few means to use or to understand how to use tools for accessing and analyzing digital sound collections.“ Bemerkenswert ist eine interdisziplinäre Transferleistung von Clements HiPSTAS-Projekt. Um Aufnahmen menschlicher Sprache zu analysieren wurde auf die Software ARLO zurückgegriffen, die ursprünglich für die Klassifikation von Vogelstimmen nach Höhe, Rhythmus und Timbre entwickelt wurde.

Mein Fazit

Im Rückblick auf die Konferenz (Digital) Humanities revisited fällt mir die gelungene Komposition der Veranstaltung als ganze auf. Einerseits wurden herausragende Projekte und offene Arbeitsfelder in den Digital Humanities präsentiert. Gleichzeitig ist es gelungen, ein Moment der Kritik und des Negativen an der Digitalisierung, das als Korrektiv und Denkanstoß wirken mag, in die Veranstaltung zu integrieren und zur Sprache zu bringen. Besonders hilfreich waren für mich und viele andere Teilnehmer die workshops, die phasenweise soweit in Kleingruppen geteilt wurden, dass tatsächlich jeder die Gelegenheit bekam, sich selbst zu äußern und mit den übrigen Teilnehmern ins Gespräch zu kommen. Die Einladung der Veranstalter an die Teilnehmer, sich selbst in kleineren Gruppen zu grundlegenden Fragen zu äußern, schärfte das Verständnis für die auf der Konferenz verhandelten Probleme. Glücklich war anschließend, wie die Resultate der workshops ins Plenum zurückgetragen und dort zugespitzt wurden, etwa die Frage nach dem Unterschied von humanities und Geisteswissenschaften.



[7] Zitat aus dem genannten Kurzvortrag von Tanya Clement.

Ein Kommentar Kommentar schreiben
  • Andreas Müller

    Antworten

    „Da nun aber in Meurers Verfahren jedes Wort eines Korpus gestrichen wird, das nur einmal vorkommt, wäre mit einem solchen quantitativen Vorgehen das literarische Verständnis des Textes bedroht – ein Präzedenzfall für die Differenz hermeneutischer und algorithmischer Verfahren.“

    Finde ich nicht. Das hier Wörter mit niedriger Frequenz gestrichen werden hat nichts damit zu tun dass es ein algorithmisches Verfahren ist, sondern hängt mit der konkreten Aufgabe zusammen. Wollte man den Text nach Bedeutung oder Stil analysieren würde man vielleicht diese Worte nicht streichen, könnte aber immer noch algorithmische Verfahren benutzen um eine hermeneutische Analyse durchzuführen. Algorithmisch heißt nur dass er einen Algorithmus implementiert und benutzt um den Text zu analysieren. Pre-processing gehört bei vielen algorithmischen Verfahren der Textanalyse zwar dazu, aber welche Form dieses pre-processing annimmt hängt von der Aufgabe ab. Ich schreibe das nicht als Kritik des Artikels sondern weil Ich denke eines der großen Probleme der digital humanities ist ein fehlendes Verständnis solcher Grundbegriffe, und natürlich auch fehlendes Verständnis von geisteswissenschaftlichen Grundbegriffen auf der Seite der informationstechnisch orientierten Wissenschaftler.

Kommentar schreiben