Perspektiven der Digital Humanities: Ein Interview mit Manfred Thaller

1 Veröffentlicht von Markus Neuschäfer am

In der Reihe „Perspektiven der Digital Humanities“ berichten WissenschaftlerInnen über ihren Projektalltag und aktuelle Fragen im Bereich der digialen Geisteswissenschaften.

Keynote von Prof. Manfred Thaller auf dem DH Summit 2015

Keynote von Prof. Manfred Thaller auf dem DH Summit 2015

Prof. Dr. Manfred Thaller beschäftigt sich bereits seit den 1970er Jahren mit der Frage, wie Computertechniken für den geschichtswissenschaftlichen Alltag nutzbar gemacht werden können. Dabei geht es unter anderem um fachspezifische Software, historische Datenbanken und die maschinenunterstützte Auswertung darin verwalteten Quellenmaterials, aber auch digitale Archive und Bibliotheken, sowie Fragen der digitalen Langzeitarchivierung. Seit 2000 ist Manfred Thaller Professor für „Historisch-Kulturwissenschaftliche Informationsverarbeitung“ (HKI) an der Universität zu Köln und beteiligt sich bei der Forschungsinfrastruktur DARIAH-DE mit mehreren Projekten zu digitalen Geisteswissenschaften.

Welche Projekte bearbeiten Sie aktuell bei DARIAH-DE?

Innerhalb von DARIAH-DE ist Köln einerseits verantwortlich für einen „Semantisch Topologischen Editor“. Wie kann man in einer Bilddatenbank Queries durchführen, die semantische mit Lageprädikaten verbinden? Salopp gesprochen: „Finde Tafelbilder, bei denen St. Joseph auf derselben Seite der Krippe steht wie der Esel.“ Allerdings: Ich persönlich habe das angeregt, aber nicht mehr. Die Arbeit wird von Jochen Graf durchgeführt.

Andererseits hat Köln die Aufgabe, zwischen der technischen Infrastruktur von DARIAH-DE und den inhaltlichen Anforderungen der Digital Humanities zu vermitteln. Salopp gesprochen: Welche Anforderungen muss ein technischer Workflow erfüllen, um für die Geisteswissenschaften unmittelbar anwendbar zu sein. Aber auch hier – die Arbeit wird nicht von mir erledigt, sondern von Johanna Puhl.

Wie haben Sie begonnen, sich mit digitalen Geisteswissenschaften zu beschäftigen?

Im Rahmen meiner Dissertation hatte ich versucht, die Entstehung eines (kollektiven) Amerikabildes in Deutschland, Großbritannien und Österreich im Vergleich zwischen 1840 und 1941 aus dem konkreten Informationsangebot abzuleiten. Also nicht aus Leitartikeln und Meisterwerken, sondern aus den täglichen Meldungen und verbreiteter, zeittypischer Literatur. 700 Zeitungsjahrgänge, 35.000 Zettelkastenzetteln und 6.000 Fußnoten später fand ich, dass ein anderes Instrumentarium für den Umgang mit dieser Art von Anliegen geben müsste. Entsprechend der in den Siebzigern sehr intensiven Debatte über die interdisziplinären Beziehungen den historischen Fächern und den Sozialwissenschaften, schloss ich an die Promotion in Neuerer Geschichte daher einen zweijährigen PostDoc in Empirischer Soziologie an. Dabei hatte ich sehr bald den Eindruck, dass die sich damals gerade ausbreitenden statistischen Programmpakete für geisteswissenschaftliche Vorhaben nicht ausreichten. Und dann gab es plötzlich eine ganze Menge von Projekten, die jemand suchten, der solche Anwendungen in den jeweiligen Wissensdomänen aufbauen sollte.

Welche Forschungsergebnisse im Bereich der Digital Humanities haben Sie bisher besonders beeindruckt?

Zunächst spontan:
In den sozialhistorisch ausgerichteten Geschichtswissenschaften fand ich das Philadelphia Social History Project (PSHP), trotz der immer wieder auftretenden Turbulenzen, wegen der über 40 Jahre hinweg immer wieder angeregten Einzelpublikationen als Umsetzung einer besonders eindrucksvollen Vision.

In der 3D Welt finde ich, wegen des Pilotcharakters, das Nuovo Museo Elettronico aus den 90ern, erinnerungswürdig … gerade auch, weil sich zu den einschlägigen Teilen von jetzt gerade brandneuen Vorhaben wie der Venice Time Machine  sehr direkte Verbindungen aufzeigen lassen.

Dazu:
In beiden Bereichen (Sozialgeschichte und noch mehr 3D) habe ich damit freilich eher auf Strukturen als auf „Ergebnisse“ hingewiesen. Das liegt zum Teil daran, dass erfolgreiche Forschungsergebnisse – wie die aus dem PSHP abgeleiteten – zu Recht den Schwerpunkt eher auf die inhaltlichen Ergebnisse legen, als auf den informationstechnischen Hintergrund, der mich selbst mehr interessiert. Gerade in den historischen Studien, denen ich, geisteswissenschaftlich gesehen, entstamme, ist das evident: Peter Laslett’s The World We Have Lost: England Before the Industrial Age (1965), hat ein Thema vorgegeben, das ohne eine Wendung zu statistischen Verfahren nicht behandelbar wäre. Und die darauf aufbauende Cambridge Group for the History of Population and Social Structure, ist ohne die dafür verwendeten und entwickelten IT Werkzeuge kaum vorstellbar. Trotzdem bezieht es seinen Stellenwert aus den inhaltlichen angestoßenen Diskussionen und wird deshalb weiterhin, genauso wie die inhaltlichen Ergebnisse der Cambridge Group, nachgedruckt. Wrigley’s Identifying people in the past (1973), hat mich persönlich als Untersuchung der Techniken und Methoden für eine der Enabling Technologies und als ein früher Nachweis, dass es möglich sei, sich den aus einer inhaltlichen Fragestellung ergebenden technischen Problemen systematisch zu nähern, stark beeinflusst. Da diese Überlegungen aber wesentlich stärker in Vergessenheit gerieten (und zum Teil mühsam wieder entdeckt werden) wäre es auf den ersten Blick nur verwirrend, auf eine der späteren rein inhaltlich ausgerichteten und das technische Rüstzeug voraussetzenden Publikationen zur Historischen Demographie hinzuweisen.

Dieser Zwiespalt – ein beeindruckendes inhaltliches Ergebnis verschleiert die zu seiner Gewinnung eingesetzten IT Verfahren – macht es ungemein schwierig, auf ein selbsterklärendes „Ergebnis“ zu verweisen. Mutmaßlich für die „Digital Humanities“ (was auch immer das ist) insgesamt, aber ganz sicher für den Teilbereich, für den ich mich persönlich interessiere, ist dieses Dilemma geradezu konstitutiv. Beeindruckend ist für mich ein Projekt, das zeigt, auf Grund welcher IT gestützter Verfahren eine neue Vorgehensweise möglich wird. Wird diese dann tatsächlich inhaltlich genutzt, entstehen inhaltliche Ergebnisse, die auch sehr beeindruckend sind: Für die jeweiligen Spezialisten des inhaltlichen Fachgebietes.

Mit dem Vorbehalt – und um zu zeigen, dass ich (a) nicht nur von den siebziger Jahren beeindruckt war – :=) – und (b) es Beeindruckendes wirklich in der ganzen Breite der Digital Humanities gibt:

Stemmaweb beeindruckt mich als ein Werkzeug, das aus erheblicher editorischer inhaltlicher Erfahrung in traditioneller Philologie abgeleitet und auch wirklich umgesetzt wurde. Das Projekt „GigaMesh and Gilgamesh – 3D Multiscale Integral Invariant Cuneiform Character Extraction“ beeindruckt mich, weil wir hier von der Erkennung gedruckter Schriften einen wichtigen Schritt in eine völlig neue Welt der Formerkennung machen.

Ich bin tief beeindruckt von … sagen wir mal: http://www.edirom.de/ „Sagen wir mal“, denn eigentlich müsste es heißen: Von dem Umfeld, in das dieses Projekt hineingehört und das es schafft, genuine DH Entwicklungsarbeiten so organisch in die inhaltliche Arbeit des Faches zu integrieren, dass man gar nicht so recht weiß, worauf man eigentlich verweisen soll. In dieser Beziehung setzt das Projekt die Tradition einiger weniger anderer fort, in denen diese Integration ebenso eng war, die man aber sehr viel schlechter zitieren kann, da die digitalen Ergebnisse wesentlich weniger zugänglich sind – wie z.B.: http://wab.uib.no/wab_BEE.page

Ich bin tief beeindruckt davon, dass es Anthony Kenny für nötig gehalten und umgesetzt hat, vor der Publikation einer stilometrischen Studie zum Neuen Testament A Stylometric Study of the New Testament (1986), erst einmal ein Lehrbuch zum Thema zu schreiben – The Computation of Style: An Introduction to Statistics for Students of Literature and Humanities (1982) – um sicher zu gehen, dass er weiß, was er da verwendet.

Ich bin tief beeindruckt von Jean-Claude Gardin, der mit Le calcul et la raison : essais de formalisation du discours savant (1991) von Anfängen in der Hilfestellung durch IT Verfahren für handwerkliche Probleme der Archäologie, nach einem Bemühen, diese ins Methodische weiter zu treiben, endgültig in einer geisteswissenschaftlichen Metatheorie gelandet war.

Gibt es DH-Tools, welche Sie in Zukunft gerne sehen würden?

Ja … Noch viel mehr aber würde ich gerne eine Architektur sehen, die es wirklich erlaubt, dass alle DH Tools interoperabel sind. Aus meiner Sicht leiden wir darunter, dass es derzeit drei Ansätze gibt: (a) Sehr große konzeptuelle Szenarien, die so generisch sind, dass sie völlig inkompatible Lösungen zulassen. (Mit Hilfe der TEI kann man Texte in so unterschiedlichen Formen auszeichnen, dass der Aufwand, sie interoperabel zu machen, nur geringfügig, wenn überhaupt geringer ist, als dies der Fall wäre, wenn sie mit völlig unterschiedlichen XML Schemata umgesetzt worden wären.) (b) Technischen Strukturen, die, meist einer Service Oriented Architecture verpflichtet, es theoretisch ermöglichen, dass Tools von anderen integrierbar sind; die aber de facto so komplexe Regeln aufstellen, dass praktisch nur Mitarbeiter der jeweiligen Struktur eine Chance haben, sie zu erweitern. (c) Und eben Anwendungen, die schlicht nicht auf Interoperabilität angelegt  und daher auch kaum verallgemeinerungsfähig sind.

Wenn man diesen allgemeinen Wunsch beiseite lässt drei Gruppen von Tools:

(a) Solche, die spezifisch geisteswissenschaftliche und prinzipiell bekannte Problemlösungen leichter anwendbar machen: (a.1) Hintergrundwerkzeuge, die mit minimalem Aufwand in andere Anwendungen eingebunden werden können und geisteswissenschaftliche Datierungsformen operativ machen. („Drittes Viertel des 18. Jhdts.“; 1724 – 1736.) (a.2) Hintergrundwerkzeuge, die mit minimalem Aufwand in andere Anwendungen eingebunden werden können und geographische Angaben kontextsensitiv abarbeiten. („Preußen“ bezieht sich im Jahre 1670 auf deutlich andere Geokordinaten, als 1770.)
(b) Werkzeuge, die die Möglichkeiten von Mobile Devices ausloten. (Eine App, mit der sich ein Siegel im Archiv aufnehmen lässt und das Bild in einen interaktiven Suchprozess in einer Siegeldatenbank einbindet.)
(c) Experimentelle Werkzeuge, die sich mit wirklich neuen Technologien beschäftigen, die bisher aus dem Blickfeld blieben: Ein 3D Datenbank vom Münzen, die es erlaubt, für den Unterreicht geeignete Beispiele auf 3D Druckern auszugeben.

Welche laufenden DH-Projekte finden Sie derzeit besonders spannend?

Das Virtual Paul’s Cross project finde ich aus allgemeinen methodischen Überlegungen ungemein spannend: Hier wird die Tür für Simulationen als einem neuen analytischen Ansatz aufgestoßen. Allerdings – leider scheint es essentiell eine Auftragsarbeit an einen kommerziellen Anbieter gewesen zu sein. Von einer Verallgemeinerung innerhalb der Geisteswissenschaften sind wir also wahrscheinlich noch weit entfernt.

Mit einem lachenden und einem weinenden Auge betrachte ich „Visible Prices“. Hier wird versucht, Fragen nach der tatsächlichen Kaufkraft zu beantworten, die jedem Historiker in Mikrosekunden einleuchten müssen. Leider aber als ein-Personen-Projekt, das versucht, die Daten von Hand zusammen zu tragen. Wenn diese Idee mit einer substantiellen Entity Extraction / Textmining Kompetenz kombiniert würde … Wenn sich daraus ein Modell ergäbe, solcherart definierte, inhaltlich relevante Entities auf der Basis leicht zugänglicher Werkzeuge aus wirklich großen Textmengen zu extrahieren …
[ … und jetzt gäbe es noch 100 weitere, die ich aus dem einen oder einem völlig anderen Grund als schöne Beispiele betrachte … ]

Aber jetzt mal ohne Reservationen: Das Projekt „Virtuelle Rekonstruktion von Barockschlössern im ehemaligen Ostpreußen“ finde ich Klasse!

Wo sehen Sie gegenwärtig die größten Herausforderungen bei der Entwicklung der Digital Humanities?

Sich aus der Freude an der Effektivität von Alltagstechniken soweit zu befreien, dass ein langfristig tragfähiges theoretisch methodisches Verständnis der Digital Humanities entstehen kann. Als besonders alarmierend betrachte ich momentan das gelegentlich von durchaus prominenter Seite geäußerte Argument, „in zehn Jahren würden alle Geisteswissenschaften digital sein“.
In den achtziger Jahren gab es eine intensive Diskussion darüber, wie weit man Textverarbeitungsprogramme einsetzen dürfe, ohne die Substanz geisteswissenschaftlicher Autorentätigkeit zu verfälschen. Von den begeisterten Textverarbeitern der Zeit wurden deshalb zum Teil Lehrveranstaltungen konzipiert, bei denen die TeilnehmerInnen bei der Abschlussklausur die notwendigen Tastenanschläe angeben mussten, mit denen man beispielsweise eine Fußnote einfügte. Aus deren Sicht sind die Geisteswissenschaften mittlerweile „digital“.

Die größte Herausforderung besteht für mich darin, einen methodischen Rahmen zu finden, in dem aus geisteswissenschaftlicher Sicht eine Beschäftigung mit einer sich stetig fortentwickelnden Informationstechnologie so erfolgen kann, dass wir von enthusiastischen Überreaktionen auf gerade aktuelle Entwicklungen nicht von den langfristig wichtigen Fragen ablenken: Was sind die Charakteristika erfolgreichen geisteswissenschaftlichen IT Einsatzes, jenseits der einzelnen Technologie, des einzelnen Projekts?

Prof. Manfred Thaller hat die Fragen der Redaktion schriftlich beantwortet.

Weitere Informationen

Digital Humanities – eine Bestandsanalyse.  Keynote von Prof. Manfred Thaller beim DH-Summit 2015

DARIAH-DE Logo mit deutscher Unterschrift

DARIAH-DE unterstützt mit digitalen Ressourcen und Methoden arbeitende Geistes- und KulturwissenschaftlerInnen in Forschung und Lehre. Dafür baut das Projekt eine digitale Forschungsinfrastruktur für Werkzeuge und Forschungsdaten auf und entwickelt Materialien für Lehre und Weiterbildung im Bereich der Digital Humanities (DH). DARIAH-DE ist der deutsche Beitrag von DARIAH-EU und arbeitet in diesem Kontext mit einer Vielzahl von europäischen Partnern und Projektverbündeten zusammen.

 

 

 

Kommentar schreiben