Revolution der Literaturgeschichtsschreibung? Potential und Grenzen der derzeitigen Digital Humanities

0 Veröffentlicht von Sofie Dobbener am

„Kulturen beruhen auf Erinnerung, auf Praktiken der Speicherung und der Überlieferung“ – so heißt es zu Beginn der Beschreibung zur DHd2022-Tagung Kulturen des digitalen Gedächtnisses. Dies trifft auch auf die Literaturgeschichtsschreibung zu. Literatur als Teil von Kulturen beruht auf den Erinnerungen der Schreibenden und den Erinnerungen der Lesenden, sie muss gespeichert und überliefert werden, um nicht in Vergessenheit zu geraten. Literaturgeschichtsschreibung ist sowohl Teil als auch Resultat dieser Erinnerungs- und Gedächtnispraktiken, bestimmte Werke werden durch ihre Hervorhebung im kulturellen Gedächtnis gehalten, andere bleiben ungenannt.[1] Dieser Selektionsprozess entscheidet mit darüber, wie die Literatur der Vergangenheit gegenwärtig und zukünftig betrachtet wird.

Durch die technische Weiterentwicklung verändern sich die Gedächtnispraktiken. Digitalisate können einer Öffentlichkeit, die über eine funktionierende Internetverbindung verfügt, zu jeder Tages- und Nachtzeit zugänglich gemacht werden und mit digitalen Methoden kann auch in der Literaturwissenschaft quantitativ geforscht werden, sodass nicht länger auf einen Kanon zurückgegriffen werden müsste – so die große Hoffnung. Literaturgeschichte als (Re-)Konstruktion von Vergangenheit ist dabei wie jede Geschichtsschreibung von Bias und persönlichen Zielsetzungen beeinflusst, doch die Hoffnung besteht darin, diese durch digitale Methoden korrigieren und ein korrekteres Bild der literarischen Verhältnisse erzeugen zu können. Zugleich besteht die Gefahr, stattdessen einen zweiten ‚digitalen Kanon‘ zu schaffen, in dem sich gerade die Bias, die im analogen Literaturkanon bestehen, verfestigen und sie in der Literaturgeschichtsschreibung weiter fortzuschreiben.

Deshalb stellt sich die Frage, wie sich die derzeitigen DH in diesem Spannungsfeld bewegen. Welches Veränderungspotential bergen sie für die Literaturgeschichtsschreibung und an welchen Hürden scheitert dieses Potential aktuell? Dieser Text orientiert sich dabei an den Beiträgen, die bei der DHd2022 präsentiert und diskutiert wurden.[2]

Wie vielfältig eine Überprüfung der Literaturgeschichte mit digitalen Methoden aussehen kann, zeigen die präsentierten Projekte:

Dîlan Canan Çakir und Frank Fischer widmen sich dramatischen Einaktern von 1740–1850 – eine Literaturform, die aus dem Kanon und dem kulturellen Gedächtnis herausgefallen ist, obwohl sie zu ihrer Entstehungszeit durchaus beliebt waren. Dies trifft auf viele dramatische Werke zu, denn die Dramenforschung beschäftigt sich nur mit etwa zehn Prozent der Dramentexte aus dem letzten Drittel des 18. Jahrhunderts. Durch ihre Analyse konnten Çakir und Fischer u.a. nachweisen, dass es wesentlich mehr einaktige Tragödien gibt, als bislang in der Forschung angenommen wurde, und sie konnten unbekanntere Dramenautorinnen sichtbar machen (vgl. https://doi.org/10.5281/zenodo.6327977).  

Das von Julia Röttgermann, Anne Klee, Maria Hinzmann und Christof Schöch präsentierte Projekt Mining and Modeling Text bemüht sich um einen datenbasierten, wikifizierten Ansatz für die Literaturgeschichtsschreibung. Dafür extrahieren sie Topics aus 115 Texten der französischen Literatur des 18. Jahrhunderts und gleichen diese mit literaturhistoriographischen Aussagen aus bibliographischen Nachschlagewerken der 1970er Jahre ab. Über ein Linked-Open-Data-Wissensnetzwerk soll es schließlich möglich sein, auch weniger bekannte Werke zu bestimmten Topics zu finden (vgl. Vortrag https://doi.org/10.5281/zenodo.6328157; Poster 10.5281/zenodo.6322490). Aus dem Mensch-Maschine-Abgleich ergaben sich große Übereinstimmungen, die die bisherigen Themenangaben bestätigten. Anders als die sehr zeitaufwendige Erstellung der Bibliographien in den 70er Jahren und zuvor ließen sich die digitalen Ergebnisse schneller erzeugen und reprozieren. Zugleich bietet die digitale Aufarbeitung als Wissensnetzwerk eine bessere Übersichtlichkeit und Verfügbarkeit als die analoge Form. 

Speziell mit Genitivmetaphern in realistischen und modernen Gedichten um 1900 setzt sich der Beitrag des Projektes The beginnings of modern poetry – Modeling literary history with text similarities von Merten Kröncke, Leonard Konle, Fotis Jannidis und Simone Winko auseinander, wobei sie zum Teil konträre literarhistorische Forschungsthesen auf ihre Richtigkeit überprüfen. Auf Basis eines Korpus von 6249 kanonisierten und nicht-kanonisierten Texten konnte u.a. festgestellt werden, dass die Differenz zwischen beiden Epochen deutlich überbetont wurde und die Veränderungen der Genitivmetaphern, auf die die Unterscheidung zwischen realistischer und moderner Lyrik u.a. begründet wird, voraussichtlich auf eine semantische Weiterentwicklung zurückzuführen ist (vgl. https://doi.org/10.5281/zenodo.6328069).

Die quantitative Überprüfung etablierter Literaturgeschichte ist eines der Ziele von Judith Brottragers Dissertation Relating the Unread – Modellierungen der Literaturgeschichte. Mit ca. 1.200 kanonisierten und nicht-kanonisierten englisch- und deutschsprachigen Texten aus dem Zeitraum von 1688–1914 nimmt sie diachrone und synchrone Vergleiche vor, um Kanonisierungs- und Wertungsprozesse in der Literaturgeschichte herauszuarbeiten. Dabei soll auf einer textexternen Ebene für diese Texte die Wahrscheinlichkeitshöhe ihrer Kanonisierung bzw. der guten Rezeption zu ihrer Entstehungszeit über Scores operationalisiert angegeben werden, zudem wird verglichen, ob eine Überschneidung zwischen der Kanonisierung und textinternen Merkmalen besteht (vgl. https://doi.org/10.5281/zenodo.6327937). Nach jetzigem Stand der Daten ist nur eine schwach positive Korrelation zwischen einer auf textexternen Faktoren basierenden Kanonisierung und textinternen Merkmalen feststellbar.[3]

Doch nicht nur durch quantitative Untersuchungen nehmen die DH einen Einfluss auf die Literaturgeschichtsschreibung. Die Berücksichtigung von born-digital Texten in der Forschung stößt eine Debatte darüber an, was im digitalen Zeitalter als Literatur verstanden wird, und richtet den Blick auf neue Formen von Literatur, wie es zwei Poster-Beiträge auf der DHd2022 getan haben:

Zum einen zeigten André Blessing, Jan Hess, Kerstin Jung und Nicolas Schenk anhand literarischer Blogs Analysemöglichkeiten für born-digital Texte auf (vgl. 10.5281/zenodo.6322488). Ziel des Projektes SDC4Lit – Science Data Center for Literature, aus dem beispielhaft das Techniktagebuch präsentiert wurde, ist es, Analyse-Pipelines zu entwickeln, die sowohl für literarische Blogs als auch allgemein für Netzliteratur genutzt werden können. So soll ein vereinfachter Zugang zu dieser trotz ihrer Digitalität kaum in der Wissenschaft beachteten Literaturform geschaffen werden.

Der von Simon Meier-Vieracker und Elias Kreuzmair präsentierte Posterbeitrag aus dem Kontext des DFG-Projektes Schreibweisen der Gegenwart. Zeitreflexion und literarische Verfahren nach der Digitalisierung betrachtet zum anderen Kurztexte und gegenwartsliterarischen Diskurse auf 117 öffentlichen Twitter-Accounts aus dem Raum der deutschsprachigen Literaturszene und stellt spezifische Merkmale dieser Literaturform heraus (vgl. 10.5281/zenodo.6322528). Der Urheberrechtsstatus von Tweets ist allerdings noch unklar, weshalb sich Erforschung, Archivierung und Freigabe des Materials schwierig gestalten.

Die Beschäftigung mit born-digital Texten sowohl in der Forschung als auch in den Archiven liefert einen Impuls für eine Auseinandersetzung mit digitalen Texten als Literaturform. Born-digital Texte haben Bernhard Fetz und Sandra Richter ebenfalls bei dem Panel Digitale Archive für Literatur als digitale Sammelobjekte der Zukunft benannt, mit denen in den Archiven ein Umgang gefunden werden will (vgl. https://doi.org/10.5281/zenodo.6327943). Hier zeigte sich erneut die problematische Rechtslage, denn da der Urheberstatus dieser Werke häufig unklar oder ungeregelt ist, ist eine Archivierung derzeit kaum möglich.

Die DH sind auf eine umfassende Menge an Digitalisaten – born-digital oder retrodigitalisiert – angewiesen, um ihre digitalen Methoden zu vollem Potential nutzen zu können. Schon früh war es ein Ziel der DH durch quantitative Forschung stärker nicht-kanonisierte Werke mit einbeziehen zu können und so eine Revidierung der etablierten Literaturgeschichte vorzunehmen. Doch da nicht alle Artefakte in Bibliotheken, Archiven und Museen sofort (oder generell) digitalisiert werden können,[4] stellt der Digitalisierungsprozess eine Selektion der in diesen Institutionen bereits selektiert vorliegenden Artefakte dar. Welche Digitalisate wiederum frei verfügbar gemacht werden, unterliegt einer weiteren Selektion, weshalb es sich bei diesen Artefakten letztlich um das Ergebnis einer dritten Auslese handelt. Darauf wies Amalia Levi schon in der Eröffnungskeynote hin. Resultat ist eine ausgeprägte Unterrepräsentation von Frauen sowie von People of Color in den im Netz abrufbaren Digitalisaten (vgl. https://www.dhd2022.de/opening-keynote/).

Auf den Punkt der Selektion ging ebenfalls Gerben Zaagsma in seinem Vortrag The Digital Archive and the Politics of Digitization ein. Gerade bei der Tagung Kulturen des digitalen Gedächtnisses sollten Archive nicht in einer einfachen Übertragung als Gedächtnisorte verstanden werden, sondern sie sind Vermittler in der (Re-)Konstruktion der Vergangenheit. Genauso wie zuvor für die analogen Archive gilt für ihre digitalisierte Form: „the question of access has been key in determining who writes history“ (https://doi.org/10.5281/zenodo.6328223). Dementsprechend ist es relevant zu reflektieren, ob und was digitalisiert wird, denn dies entscheidet mit darüber, wie die Vergangenheit in Zukunft betrachtet wird.

In eine ähnliche Richtung ging der Workshop Repräsentativität in digitalen Archiven von Corinna Dziudzia und Mark Hall (https://doi.org/10.5281/zenodo.6328011). Dort wurde hinsichtlich der Selektion durch Digitalisierung ein Zirkelschluss beschrieben, der dazu führt, dass die Kanonisierung gerade nicht abgebaut, sondern verstärkt wird: Kanonisierte Werke werden häufiger digitalisiert, Wissenschaftler:innen der DH sind auf bestehende Digitalisate angewiesen, da weder Zeit noch Finanzierung für eine eigene Digitalisierung anderer Werke vorhanden ist, und greifen daher eher auf diese Werke zurück. Durch ihre Verwendung bestätigen sie scheinbar die Richtigkeit der Digitalisierung ebendieser Werke. Indem mit dem „Kanon eines Kanons“ gearbeitet wird, besteht die Gefahr, die im Kanon enthaltenen Bias weiterzutragen und durch die doppelte Selektion noch zu verstärken.

Aber nicht nur der Prozess der Digitalisierung an sich birgt Probleme, sondern auch die rechtliche Lage, in der sich die Akteure dabei bewegen. Das DARIAH–DE Stakeholdergremium „Wissenschaftliche Sammlungen“ hatte schon 2018 eine Anpassung des bestehenden Urheberrechts gefordert, „sodass ein freier Zugang für die Forschung zum kulturellen Erbe erfolgen kann“ (Klaffki/Schmunk/Stäcker 2018, 34). Dass die Urheberrechtslage zu Schwierigkeiten führt, wurde schon bei den born-digital Texten thematisiert. Für die Literatur des 20. und 21. Jahrhunderts verhindert das Urheberrecht zu großen Teilen eine digitale Erforschung, weshalb dieser Zeitraum durch die DH kaum berücksichtigt werden kann.

Wie in der Anschlussdiskussion zum Vortrag Die Aktualität des Unzeitgemäßen kurz angesprochen wurde, stellt jedoch nicht allein das Urheberrecht eine Hürde bei der Digitalisierung und Freigabe dar. Selbst wenn Werke urheberrechtlich frei sind, haben einige Archive aufgrund von institutionellen Nutzungsvereinbarungen Bedenken bei einer unbeschränkten Freigabe ihrer Digitalisate. Auch befürchten sie einen Bruch mit privaten Sammlungen und Bibliotheken, gerade bei der Freigabe seltener Werke, die nicht über andere Wege verfügbar sind. Daher schrecken sie von einer freien Verfügbarkeit zurück.

Selbst in dem Fall, dass Werke digitalisiert und online bereitgestellt wurden, kann eine digitale Erforschung schwierig sein. So wies der Bericht des DARIAH-DE Teams (2018, 18) darauf hin, dass Retrodigitalisate oftmals nicht ausreichend für eine Analyse mit DH-Methoden aufbereitet werden – eine Problematik, die auf der DHd2022 mehrfach angesprochen wurde. Bei dem Panel zu Digitaler Sammlungsforschung wurde eine einheitliche und für die digitale Forschung ausreichend hohe Datenqualität als Herausforderung hervorgehoben, der Workshop Manifest für digitale Editionen entstand aus dem „drängenden Bedarf, die besonderen Rahmenbedingungen für digitale Editionen und einige gegenwärtig unbefriedigende Aspekte der wissenschaftlichen Arbeit bei allen Stakeholdern deutlicher zu machen, um eine Verbesserung der Situation zu bewirken“ (https://doi.org/10.5281/zenodo.6327989). Das Manifest soll eine Grundlage liefern, bei der sowohl die benötigte Datenqualität als auch die FAIR-Prinzipien berücksichtigt werden – ohne dabei aus dem Blick zu verlieren, dass digitale Editionen im wissenschaftlichen Kontext zumeist in drittmittelgeförderten Projekten interdisziplinärer Teams entstehen.

Der Hinweis auf die FAIR-Prinzipien zeigt einen weiteren Problembereich auf, denn besonders in diesem Zusammenhang wurden während der Tagung zahlreiche Negativbeispiele genannt wie z.B. verschwundene Datenbanken wie DaSind oder aufwendige 3D-Digitalisate, die nach Programmupdates der bereitstellenden Institute online nicht mehr abrufbar waren.

Diese eingeschränkte Menge an maschinenlesbaren, urheberrechtsfreien Daten hat Folgen für die DH-Forschung. Bereits auf vorherigen DHd-Tagungen wurde kritisiert, dass die Forschung überwiegend auf einen eher kleinen, von Autoren dominierten „Kanon des Kanons“ beschränkt ist, da – meist zwangsläufig – auf bestehende Digitalisate zurückgegriffen wird (vgl. z.B. https://doi.org/10.5281/zenodo.3666690). Auswirkungen zeigten sich in der Studie von Mark Hall, der Vortrags- und Poster-Abstracts der DHd-Tagungen von 2016–2018 auf Gender, Sprache und Herkunftsland der explizit genannten, untersuchten Personen analysierte. Solche Personennennung traten in 104 der 342 Abstracts auf. Fielen die Ergebnisse der Länder- und Sprachanalysen positiv aus, galt dies nicht für das Gender: Während in 100 dieser Abstracts Männer genannt wurden, waren es bei Frauen 12, ausschließliche Nennung von Frauen als Studienziel oder alleiniges Beispiel traf nur auf 2 Abstracts zu (vgl. https://zenodo.org/record/2596095). Die Studie wies darüber hinaus darauf hin, dass Abstracts mit expliziter Personennennung nur einen Teil der DH-Forschung abbilden, die im Rahmen der DHd-Tagungen präsentiert wurden, dennoch zeige sich darin eine Tendenz. Aus aktueller Sicht lässt sich diese Tendenz voraussichtlich nicht auf einen expliziten Gender-Bias in den DH zurückführen, sondern sie ist ein Effekt eines wesentlich stärker wirkenden Kanon-Bias.[5] Daher ist es von großer Relevanz, in den vorgenommenen Untersuchungen zu reflektieren, auf welche Weise das jeweilige Korpus zustande gekommen ist und welche Werke es enthält bzw. nicht enthält.

Dass die DH generell das Potential haben, die etablierte Literaturgeschichtsschreibung zu revidieren, haben die angeführten Projekte gezeigt. Zumeist weisen diese sogar explizit darauf hin, kanonisierte und nicht kanonisierte Texte mit einzubeziehen oder sich speziell nicht kanonischer Formen zu widmen. Auffällig dabei ist, dass fünf der sechs vorgestellten Untersuchungen drittmittelfinanzierte Projekte sind, folglich eher die Option haben, selbstständig Digitalisierungen vorzunehmen – allerdings in der Regel ohne eine Perspektive auf Langzeitverfügbarkeit.

Zahlreiche Hürden verhindern jedoch, dass das mögliche Potenzial der DH zur vollständigen Anwendung kommt. Wie schon 2018 gefordert, bräuchte es für den Bildungs- und Wissenschaftsbereich eine Sonderregelung des Urheberrechts, um alle Zeiträume abdecken zu können. Aktuell sorgt es dafür, dass große Bereiche des 20. und 21. Jahrhunderts für die DH blinde Flecken sind.

Außerdem bräuchte es mehr maschinenlesbare Digitalisate und zugleich finanzierte Forschung, die sich diesen Digitalisaten widmen kann. Mehr Digitalisierung an sich würde die vorliegenden Problematiken nicht lösen, sondern die Daten nur von einem analogen in ein digitales Speichergedächtnis verschieben, ohne dass sie funktional genutzt werden. Beides erfordert Kenntnisse und eine wesentlich größere Finanzierung, als sie zurzeit stattfindet. Doch die Wichtigkeit dieser Fragen ist nicht zu unterschätzen, denn sie entscheiden darüber, wie Literatur langfristig betrachtet und erinnert werden wird.


Dieser Beitrag entstand im Rahmen des Reisestipendiums der DHd2022.


Zusätzliche Quellen:

Jannidis, Fotis: Literaturgeschichten. In: Handbuch Kanon und Wertung. Theorien, Instanzen, Geschichte. Herausgegeben von Gabriele Rippl und Simone Winko. Stuttgart: Metzler, 2013.

Klaffki, Lisa; Schmunk, Stefan; Stäcker, Thomas: Stand der Kulturgutdigitalisierung in Deutschland. Eine Analyse und Handlungsvorschläge des DARIAH–DE Stakeholdergremiums „Wissenschaftliche Sammlungen“. Göttingen: GOEDOC, 2018.


[1] An dieser Stelle ist darauf hinzuweisen, dass Literaturgeschichten im Kanonisierungskontext eine Sonderstellung einnehmen, da sie zentral für Kanonisierung und Kanonpflege sind, aber nicht den Kanon selbst bestimmen (vgl. Jannidis 2013, 159).

[2] Die folgenden Beiträge sind beispielhaft zu verstehen, da aufgrund der Beitragsmenge nicht alle Beiträge angeführt werden konnten.

[3] Für genauere Informationen siehe Brottrager/Stahl/Arslan: Predicting Canonization. Comparing Canonization Scores Based on Text-Extrinsic and -Intrinsic Features, http://ceur-ws.org/Vol-2989/short_paper21.pdf.

[4] Über den allgemeinen Stand und die Datenqualität der Kulturgutdigitalisierung in Deutschland gibt es keine valide Statistik. Für eine Analyse auf Basis der verfügbaren Daten siehe Klaffki/Schmunk/Stäcker (2018).

[5] Ich danke an dieser Stelle Mark Hall für die Rückmeldung.

Kommentar schreiben