Die Nachhaltigkeitsproblematik digitaler Editionen – Workshopbericht

1 Veröffentlicht von Peter Dängeli am

Dass digitale Editionen über die Möglichkeiten ihrer gedruckten Vorgänger und Gegenstücke in vielerlei Hinsicht hinausgehen können, ist breit akzeptiert und in manchem Antragstext schon zur festen Floskel geronnen. Die Editionspraxis im digitalen Medium bietet Raum für ein Textverständnis jenseits eindeutig kanonisierter Fassungen. Stattdessen sieht es “fragile, kollektive, kooperative, intertextuell verwobene, hypertextuell gestufte und segmentierte, temporal veränderliche textliche Äußerungsformen” vor, was ein Buch schwerlich leisten könnte.[1]

Seit den Anfängen der digitalen Editorik besteht aber auch ein Bewusstsein dafür, dass digitale Editionen bezüglich Nachhaltigkeit nicht per se besser abschneiden als bedrucktes Papier.[2] Vielmehr stellen sich hier ganz besondere zusätzliche Herausforderungen, die durchaus auch zur Auffassung führen, dass “nur das gedruckte Buch jene Langfristigkeit, Stabilität, Authentizität und Zitierbarkeit gewährleisten könne, die zu den zentralen Erfordernissen einer zu kanonisierenden Textfassung gehören”, wie es Patrick Sahle im Kontext der argumentativen Fundierung von Hybrideditionen beobachtet.[3]

Die (digitale) Methodenentwicklung ging von Anfang an mit Fragen der Nachhaltigkeit einher. Gut aufzeigen lässt sich dies am Beispiel der Text Encoding Initiative (TEI), die schon in ihrer Urfassung (P1) das Ziel verfolgte, ein Standardformat zum Datenaustausch in der geisteswissenschaftlichen Forschung festzulegen, das als reines Textformat ganz bewusst ohne Spezialsoftware bearbeit- und lesbar sein und sich an bestehenden und entstehenden Standards orientieren sollte.[4] Auch an den deutschen Akademien der Wissenschaften wird die Nachhaltigkeitsproblematik schon länger thematisiert, ein Beispiel dafür ist der Workshop zu Datenrepositorien, den die Arbeitsgruppe Elektronisches Publizieren im Oktober 2010 an der Düsseldofer Akademie durchführte.[5]

Für den Workshop “Nachhaltigkeit digitaler Editionen” am 17. September 2018 fiel die Gastgeberrolle wiederum der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste in Düsseldorf zu. Organisiert wurde der Workshop vom Data Center for the Humanities der Universität zu Köln (DCH), dem Cologne Center for eHumanities (CCeH) und dem von der Deutschen Forschungsgemeinschaft im Rahmen des LIS-Programms geförderten Projekts „SustainLife – Erhalt lebender, digitaler Systeme für die Geisteswissenschaften“ des DCH). Als Kooperationspartner war darüber hinaus die Landesinitiative NFDI der Digitalen Hochschule NRW beteiligt.

Wie es bereits die Ausschreibung ankündigte, liegt für digitale Ressourcen die Problematik der Sicherstellung einer langfristigen Verfügbarkeit nicht in erster Linie in der Sicherung der Primärdaten, sondern vor allem auch im anhaltenden Betrieb der Präsentationsoberflächen und der Bewahrung ihrer Funktionalitäten. Die anhaltende Aktualität dieses Schwerpunkts ist nicht nur durch die laufenden Diskussionen zum Thema des (geisteswissenschaftlichen) Forschungsdatenmanagements im NFDI-Prozess belegt. Auch die Tatsache, dass der Workshop schon kurz nach seiner Ankündigung ausgebucht und der Tagungsraum mit 80 Teilnehmerinnen und Teilnehmern dementsprechend bis auf den letzten Platz gefüllt war, belegt das hohe Interesse an der Thematik.

Nach kurzen einleitenden Bemerkungen von Ania López (Universität Duisburg-Essen, Projektleitung Landesinitiative NFDI) und Brigitte Mathiak (DCH Universität zu Köln, Projekleitung SustainLife) zur thematischen Ausrichtung und institutionellen Einbettung des Workshops legte Patrick Sahle (Cologne Center for eHumanities, “Koordinierungsstelle DH” der AWK NRW) anhand praktischer Beispiele das Schicksal einiger ausgewählter digitaler Editionen aus dem Catalogue of Digital Editions[6] und seinem eigenen Catalog of Digital Scholarly Editions[7] dar. Viele ältere digitale Editionen kämpfen bereits mit ihrem Fortbestehen oder sind nicht länger zugreifbar, darunter durchaus auch bekannte und bedeutende Editionsprojekte. Als Beispiele genannt wurden etwa das Thomas Raddall Electronic Archive Project (2001-2004), das in seinem ursprünglichen Funktionsumfang nicht mehr verfügbar ist und stattdessen als reine Materialsammlung in eine Bibliotheksplattform überführt wurde,[8] oder die im Jahr 2000 als CD-ROM veröffentlichte Stjin Streuvels-Edition, die durch die Bibliothek niederländischer Literatur zwar langfristig vorgehalten wird, allerdings einzig mit Lese- und Browsingmöglichkeiten unter Einbuße aller textkritischen Funktionalitäten.[9] Das härteste Schicksal der genannten Projekte ereilte das Alcalá Account Book Project, zu dem nur mehr ein zweiteiliger Artikel[10] sowie Metadaten[11] auffindbar sind. Institutionelle Umstrukturierungen und personelle Wechsel haben dazu geführt, dass die eigentliche digitale Ressource, die vormals unter http://archives.forasfeasa.ie/ erreichbar war, nicht mehr bzw. nur noch über das Internetarchiv (ohne Datenbankfunktionalität) zugänglich ist.[12] Vor dem Hintergrund dieser Beispiele äußerte Sahle mit dem Desiderat eines abstrakten Modells für Strukturen und Inhalte digitaler Editionen einen Gedanken, der sowohl in mehreren der folgenden Vorträge als auch in den Diskussionen ähnlich geteilt wurde. Neben diesem Ruf nach Abstraktion wurde die als Schlüsselproblematik eruierte Persistierung lebender Anwendungen im weiteren Verlauf auf drei weiteren Angriffslinien angegangen: Automatisierung, digitale Handwerkskunst und Versionierung. Der folgende Bericht ist entlang dieser Strategien gegliedert.

Vier diskutierte Nachhaltigkeitsstrategien

1. Abstraktion spezifischer Funktionalitäten digitaler Editionen

Thomas Stäcker (Universitäts- und Landesbibliothek Darmstadt) sezierte in seinem Vortrag die digitale Edition, gedacht als digitale Anwendung und nicht als intellektuelles oder sprachliches Werk, sorgfältig in ihre konstituierenden Bestandteile. Als übergeordnete Kategorien wählte er dazu Text, Struktur, Regeln, Layout, Skripte und Metadaten, jeweils ergänzt durch Nachhaltigkeitskriterien. Neben offener Lizenzierung, bestimmten Daten- (XML/TEI, CSS) und Schnittstellenformaten (REST), betonte er vor allem die Wichtigkeit der Selbstbeschreibung der digitalen Edition. Einerseits müsse auf Dateiebene deklariert werden, was genau zu einer digitalen Edition gehöre, andererseits seien aber auch die möglichen Verarbeitungen abstrakt und maschinenles- und interpretierbar zu beschreiben, so dass eine digitale Edition jederzeit auch ohne konkrete technische Realisierung in sich komplett vorläge. Eine nachhaltige digitale Edition besteht damit nach Stäcker in der Summe aller Komponenten und ihrer Verarbeitungsmöglichkeiten, vollständig beschrieben in maschinenlesbarer und standardisierter Form. Nicht zuletzt durch die Abstraktionsebene des processing model liegt XML/TEI als Beschreibungsformat nach Stäcker näher an diesem Nachhaltigkeitspostulat als etwa die in jüngerer Zeit viel gepriesenen graphbasierten Beschreibungsstrukturen.[13] Es scheint in diesem Bereich, der von Fotis Jannidis schon im Herbst 2007 auf der TEI-Konferenz in Maryland anlässlich der Veröffentlichung der Guidelines in ihrer aktuellen Auflage (P5) thematisiert worden war,[14] also nach wie vor Potenzial für mehr Nachhaltigkeit zu liegen.

Die von Samuel Müller (Forum für Edition und Erschließung Basel) vertretene, in der Schweiz im Entstehen begriffene Nationale Infrastruktur für Editionen NIE-INE stützt sich im Kern nicht auf X-Technologien, sondern auf ein Semantic-Web-Paradigma. Auch dieser Ansatz verfolgt aber das Ziel, “eine allgemeine maschinenlesbare Theorie von Edition”[15] als Grundlage zu erarbeiten und stellt damit die Abstraktion der Funktionalitäten und Darstellungsarten einer Edition ins Zentrum. Nach Müller beruht die Umsetzung, die derzeit in der Zusammenarbeit mit 13 großen Editionsprojekten erprobt wird, auf generischen, aber hochdifferenzierten editionsspezifischen Basis-Ontologien, nach denen die Daten der Editionsprojekte semantisch verknüpft werden (RDF-Triplestore; die Ontologien sind nach Cidoc CRM und FRBR modelliert). Auch die Datenpräsentation basiere auf relativ generischen Präsentationsmodulen, die spezifisch erweitert werden können, um die Freiheit der Editorinnen und Editoren zu gewährleisten. Im Vortrag leider lediglich erwähnt, aber nicht näher demonstriert wurde der erste Editionsprototyp mit sichtbarem Webfrontend, die Historisch-kritische Online-Edition von Kuno Raebers Lyrik (http://raeber.nie-ine.ch), die zugleich als erster Testfall für den Import bestehender Encodings (https://kunoraeber.ch/lyrik) in die NIE-INE-Umgebung dient. Die konkrete Ausgestaltung einer Editions-Ontologie und ihre Tauglichkeit zur (Mit-)Beschreibung von Struktur und Funktionalität blieb dementsprechend eher vage.

Ähnlich wie Müller, nach dem “die gewählte Darstellung integrierender Bestandteil jeder Edition ist”,[16] messen Wolfgang Lukas (Bergische Universität Wuppertal) und der Vortragende Thomas Burch (Trier Center for Digital Humanities) der Präsentationsschicht einer Edition kognitiven und epistemischen Wert zu. Aus dem Befund, dass Layout und Visualisierung “nicht bloße austauschbare ‚Oberfäche‘ sind und keine bloßen ‚accidentals‘, sondern […] Instrumente der Wissensproduktion und -vermittlung”, leiten sie die Forderung ab, “dass neben den reinen modellierten Daten auch deren projektspezifsche Präsentation nachhaltig bewahrt werden muss”.[17] Für die Schnitzler-Edition soll das nach Burchs Ausführungen dadurch gewährleistet sein, dass die digitale Edition nach Projektende durch einen institutionellen Partner (Cambridge University Library) betrieben werden soll, was mit diesem in einem Memorandum of Agreement einschließlich der technischen Spezifikationen geregelt ist. Das TCDH, das die im Projekt entwickelte Infrastruktur anderweitig nachnutzt, scheint insofern bezüglich Nachhaltigkeit gut aufgestellt zu sein, als es zum Einen eine relativ weitgehende technische Konvergenz aufweist (bei ca. 30 Forschungsvorhaben) und zum Anderen im Rahmen des eScience-Centers der Uni Trier von vier verstetigten Stellen mit einem entsprechenden Kompetenz- und Aufgabenprofil profitieren kann.

Eine zentrale Rolle übernahm die Abstrahierung von Editionsfunktionalitäten auch im Vortrag von Johannes Stigler (Zentrum für Informationsmodellierung Graz), auf den Punkt gebracht in der letzten seiner fünf Thesen:

Modellierung ist ein notwendiges Strukturmerkmal nachhaltiger Repräsentationsform Digitaler Editionen. Zur Sicherstellung von Nachhaltigkeit bedarf es standardisierter daten- (und nicht technologie-)zentrierter Lösungsansätze in den Digitalen Geisteswissenschaften. Auch Repräsentationsschichten Digitaler Editionen sollten letztendlich modelliert und nicht programmiert werden.[18]

Von dieser Prämisse ausgehend skizzierte Stigler die Erarbeitung eines Referenzmodells für digitale Editionen und einer Best-Practice-Lösung für eine eng in LZA-Repositorien eingebundene Publikationsplattform für digitale Editionen im Rahmen des Kompetenznetzwerks “Digitale Edition” (KONDE), dem österreichischen Gegenstück zur schweizerischen NIE-INE-Infrastruktur. Die technische Grundlage in Graz bildet das Fedora Commons-basierte GAMS (Geisteswissenschaftliches Asset Management System), das am ZIM entwickelt wurde und sich seit Jahren in der Praxis bewährt.

2. Automatisierte Kuratierung, Infrastruktur als Code

Eine wesentliche Komponente im KONDE-/GAMS-Ansatz für die langfristige Kuratierung, verstanden als “algorithmusgesteuerte Bestandserhaltung in einem sich in einem ständigen Wandel befindlichen IT-Ökosystem”[19], ist die Automatisierung von Routine-Operationen und Wartungsaufgaben. Als aktuellen Testfall schilderte Stigler die Erfahrungen bei der Aktualisierung des Fedora-Frameworks auf die Version 5, für die alle Services in eine Docker-basierte Systemarchitektur überführt wurden.

Ein vergleichbarer Ansatz stand im Zentrum des Beitrags von Torsten Schrade (ADW Mainz), der unter dem Schlagwort “technische Kuratierbarkeit” Nachhaltigkeitsstrategien auf Ebene der Softwareentwicklung thematisierte. Sein Ansatz, der sich an aktuellen Entwicklungen im Bereich des Software-Engineering orientiert, zielt auf die vollständige und automatisierte Reproduzierbarkeit einer Softwareanwendung inklusive ihrer Umgebung, also dem System, in dem die Anwendung läuft, und all ihrer Abhängigkeiten. Damit geht einerseits eine Selbstdokumentation wichtiger Parameter einher, die ansonsten oft exklusives Wissen einzelner Systemadministratoren sind, andererseits wird die Laufzeitumgebung von der Hardware abstrahiert, so dass diesbezügliche Abhängigkeiten stark reduziert und Anwendungen leicht in ganz unterschiedlichen Kontexten reproduziert werden können. Die Anwendung selber wird algorithmisch in einen möglichst statischen Zustand überführt (Static Site Generator), was neben der leichteren Langzeitpräservation auch Performanzvorteile mit sich bringt. Wie Schrade am Beispiel der Sturm-Edition demonstrierte, lassen sich Forschungsdaten, Programmschicht und vorgenerierte Präsentationsschicht leicht in ein Komplettpaket packen, das sich mit wenigen Befehlen lokal oder auf einem Server in Betrieb nehmen lässt. Dabei lässt sich die Integrität der Anwendung mit Akzeptanztests, die z.B. bestimmte Strukturen auf Vollständigkeit und Sinnhaftigkeit kontrollieren, laufend auf den Prüfstand stellen. Hierzu wird (virtuell) die Perspektive des Nutzers eingenommen, was es nahelegt, die Editoren direkt in diesen Testprozess mit einzubeziehen.

Der Ansatz, so viel Spezialwissen wie möglich in Konfigurationsdateien und generischem Programmcode zu formalisieren und zu hinterlegen und die Architektur zugleich möglichst plattformunabhängig zu gestalten, kam beim Workshop-Publikum sehr gut an. Diskussionspunkte waren unter anderem der potenzielle Anstieg der Komplexität oder der beträchtliche Aufwand insbesondere im Bereich des Testing. Es ist auch anzumerken, dass diese Nachhaltigkeitsstrategie vor allem die softwareseitige Kuratierung adressiert, nicht aber die inhaltliche Pflege der Forschungsdaten. Sie ist also keineswegs als Panazee für alle Nachhaltigkeitsprobleme digitaler Editionen zu betrachten.

3. Reflektierte Entwicklungspraxis / Research Software Engineering

Der Vortrag von Alexander Czmiel (BBAW Berlin) hatte eine ähnliche, allerdings weiter gefasste Schlagrichtung, indem er dafür plädierte, die hochgradig reflektierte Editionspraxis mit einer ebenso reflektierten Entwicklungspraxis zu ergänzen. Dabei sieht er wechselseitig großes Potenzial im Austausch mit der lebendigen RSE-Community (Research Software Engineering), die sich im laufenden Jahr auch im deutschsprachigen Raum institutionell konsolidiert hat.[20] Hintergrund seiner Ausführungen ist die Entwicklung an der Berlin-Brandenburgischen Akademie der Wissenschaften, die über die Jahre sehr viele digitale Editionen entwickelt und übernommen hat, was bisher grundsätzlich gut funktioniert hat, vor allem dank eines stabilen, gut eingespielten Teams. Personelle Wechsel zeigen nun aber deutlich auf, dass die Einarbeitung in “fremde” Projekte einen Krakftakt erfordert, den man nicht immer und immer wieder stemmen kann. Während für die Datenstandards längst gute und bewährte Lösungen zum Einsatz kommen, fehlen diese im Bereich der Funktionsschicht noch weitgehend. Das von Czmiel zur Förderung guter Entwicklungspraxis im DH-Bereich und spezifischer im Bereich digitaler Editionen vorgeschlagene 10-Punkte-Programm, das Reduktion der Komplexität, Modularisierung, Homogenisierung und Clustering sowie umfassendes Testen und sorgfältiges Dokumentieren verbindet,[21] zeigt auf, dass die von den anderen Referentinnen und Referenten vertretenen Strategien auch in Berlin wahrgenommen, eingesetzt und weiterentwickelt werden. Der reflektierte Prozess führt dabei idealerweise nicht nur zu einer (weiteren) Professionalisierung der Entwicklungstätigkeit, sondern auch zu mehr Anerkennung, von der einerseits die Mitarbeitenden profitieren können (Kompetenznachweis), andererseits aber auch die Institutionen (etwa indem Anerkennung zu einer Verstetigung von Entwicklerstellen führen kann).

4. Versionierung und im Besonderen Versionierung bestimmter Publikationszustände

Auf reiche praktische Erfahrung zurückblicken kann auch Torsten Schaßan (HAB Wolfenbüttel), der in seinem Vortrag Einblick in die laufende Planung zur Erneuerung der seit 1998 bestehenden Wolfenbütteler Digitalen Bibliothek gab. Gegenwärtig ist eine Arbeitsgruppe dabei, Strategien zu evaluieren und definieren, die die Editionsplattform auf eine solide Basis für die Zukunft hieven sollen. Ein wesentliches Ziel ist es, die bestehende, ad hoc gewachsene PHP-Eigenentwicklung, die stark auf XSLT-1.0-Transformationen basiert, durch eine besser wartbare und flexiblere Lösung zu ersetzen. Die Erneuerung soll aber viel umfassender erfolgen und auch Änderungen in den Bereichen Datenmodell – angedacht ist eine editionsfreundliche Erweiterung des linguistisch ausgerichteten DTA-Basisformats –, Funktionalitäten und Schnittstellen mit sich bringen. Vorgesehen ist eine integrierte Publikationsumgebung, in der auch unveröffentlichte Dokumente schon in der Zielumgebung bearbeitet werden und die die Dokumente entsprechend ihrem jeweiligen Status behandelt. In diesem Zusammenhang arbeitete Schaßan die eindeutige Benennung von Publikationsakten (in relativ kurzen Publikationszyklen) mit entsprechender Versionierung und Katalogisierung als zentrale Nachhaltigkeitsstrategie heraus. So lässt sich eine digitale Ressource in klar abgrenzbare Einheiten unterteilen, deren langfristige Verfügbarkeit sich auch unabhängig voneinander sicherstellen lässt. Je nach Architektur und intendierter Umsetzungstiefe sollte ein solcher Versionierungsansatz natürlich neben den Encodings auch weitere Komponenten abbilden bzw. auf deren jeweilige Version verweisen. Eine Stärke dieses Konzept besteht darin, dass es sehr variabel eingesetzt werden kann und sich so mit allen anderen der am Workshop besprochenen Strategien vereinbaren lässt, z.B. der statischen Generierung, aber auch der funktionalen Reduktion.

Von der institutionellen Pflege lebender Systeme…

Einen konkreten Ansatz, der diese Aspekte zu verbinden sucht, stellten Brigitte Mathiak und Claes Neuefeind (DCH Köln) mit dem DFG-Projekt SustainLife – Erhalt lebender, digitaler Systeme vor, das seit März 2018 am Kölner Data Center for the Humanities (DCH) in Kooperation mit dem Institut für Architektur von Anwendungssystemen (IAAS) der Universität Stuttgart läuft und das ein Konzept für die nachhaltige Sicherung von lebenden Systemen entwickeln und erproben will (der Begriff der “lebenden Systeme” umfasst dabei mehr als digitale Editionen). Das Projekt setzt auf den OASIS-Standard TOSCA (Topology and Orchestration Specification for Cloud Applications) sowie dessen Open-Source-Implementierung OpenTOSCA. Mithilfe dieses Standards können digitale Editionen vollständig, d.h. als Softwaresysteme mitsamt ihrer jeweiligen Laufzeitumgebung in standardisierter Weise modelliert und archiviert werden. Die fortlaufende Versionierung und das Einfrieren bestimmter Entwicklungs- und Publikationszustände ist ein wesentlicher Aspekt dieses Ansatzes, der darüber hinaus durchaus auch die Automatisierung begünstigt.

Zwar liegen im aktuellen frühen Projektstadium noch keine ins Zielsystem migrierte Anwendungen vor, es konnten aber schon einige interessante Befunde aus einer Bedarfsumfrage vorgestellt werden. Dabei zeigte sich einerseits eine breite Streuung der eingesetzten Werkzeuge und Formate, andererseits ließen sich aber auch einige häufig genutzte Systemkomponenten und typische Technologie-Stacks herausarbeiten.[22] Inwiefern sich solche relativ einheitliche Architekturen in der dennoch benötigten spezifischen Konfigurierbarkeit mit dem OpenTOSCA-Ansatz kapseln lassen und ob der gleiche Ansatz auch für heterogenere Architekturen tragfähig ist, wird der weitere Verlauf des Projekts zeigen.

…zur Frage, wie sich Nachhaltigkeit finanzieren lässt

Mit Technologiekonvergenz (im Bereich X-Technologien) und der transformativen Erzeugung funktionsreduzierter Derivate nannte Christoph Kudella (SUB Göttingen) zwei pragmatische Lösungsansätze, für die es in der Praxis eine Reihe guter Beispiele gibt und die auch in anderen Workshop-Vorträgen diskutiert wurden. Grundästzlich lösen lasse sich die Nachhaltigkeitsproblematik dadurch aber nicht, weil trotz technischer Optimierung Kosten anfielen, es aber bisher für den Langzeitbetrieb digitaler Editionen bzw. Editionsplattformen noch keinerlei verlässliche Finanzierungsmodelle gebe. Insbesondere sei die in der Praxis vielfach genutzte projektförmige Finanzierung durch Forschungsinstitutionen paradox, weil diese ja in aller Regel einen sehr begrenzten Zeitrahmen bilde. Die prinzipiell strukturell geförderten Informationsinfrastrukturen verfügen (noch?) nicht über die notwendigen Mittel für den Langzeitbetrieb komplexer digitaler Ressourcen, schon gar nicht angesichts der Skalierungsproblematik bei zunehmender Anzahl und Komplexität. Ob sich mit dem mittlerweile bei allen Akteuren eindeutig vorhandenen Bewusstsein für die Problemlage des Langfristbetriebs digitaler Editionen auch verbindliche Zusagen ergeben und wer die Finanzierung welcher Infrastrukturen und/oder Zentren in Zukunft leisten wird, bleibt offen und ist einer der zentralen Diskussionspunkte im angelaufenen NFDI-Prozess,[23] aber auch dezentral an den einzelnen Forschungsinstitutionen und Fördereinrichtungen.

Gesucht sind Lösungen jenseits der Projektfinanzierung

Der Finanzierungsaspekt war auch in der Abschlussdiskussion des Workshops das zentrale Thema. Während das Bewusstsein für die Nachhaltigkeitsproblematik in Bezug auf digitale Editionen seit längerer Zeit ganz eindeutig gegeben ist, ist auch klar, dass sich keine einfachen und direkten Lösungen finden lassen, verursacht vor allem durch den organischen, sich stets wandelnden Charakter des Internets (und seiner technischen Grundlagen und Zugriffssysteme). Wohl lassen sich durch die Wahl sinnvoller Formate und Standards und die Berücksichtigung guter Entwicklungspraxis viele absehbare Probleme entschärfen. Dass der Langzeitbetrieb komplexer Ressourcen dagegen nicht aus den einzelnen Projekten geleistet werden kann, war allgemeiner Konsens.

Im Zusammenhang mit institutionellen Ansätzen zum Langzeitbetrieb digitaler Editionen wurden angesichts der möglichen Schere zwischen vorhandenen Ressourcen und zu lösenden Problemen einige interessante Punkte angeschnitten. Beispielsweise wurde hypothetisiert, nach welchen Kriterien und Metriken bestimmte Editionen gerettet werden und andere – ungewollt, aber unter Umständen bewusst – dem Verfall überlassen werden sollen, oder nach den Autoritäten gefragt, die solche Entscheidungen treffen sollen. Es scheint in dieser Hinsicht auf jeden Fall Vorsicht geboten, Strategien einzig auf technische Machbarkeit oder reine Zugriffszahlen auszurichten und der wissenschaftlichen Bedeutung nicht den Vorrang zu gewähren.


Workshopübersicht

17.09.2018, 9.30 – 17.30 Uhr

Nordrhein-Westfälische Akademie der Wissenschaften und der Künste
Palmenstraße 16, 40217 Düsseldorf

Ania Lopez (Essen) / Brigitte Mathiak (Köln)
Begrüßung
Patrick Sahle (Köln)
Einführung
Julia Schmidt-Funke (Jena / Gotha)
Das Editionsportal Thüringen – Ein generischer Ansatz als Beitrag zur Nachhaltigkeit digitaler Editionen[24]
Brigitte Mathiak / Claes Neuefeind (Köln)
Lebende Systeme in den Geisteswissenschaften – das Projekt SustainLife
Wolfgang Lukas (Wuppertal) / Thomas Burch (Trier)
Modellieren für die Nachwelt (?) – Konzepte und Entwicklungen am Beispiel von ‚Arthur Schnitzler digital (Einleitungstext)
Thomas Stäcker (Darmstadt)
‘XML oder nicht XML, das ist hier die Frage‘ – Perspektivwechsel bei der Langzeitarchivierung von digitalen Editionen
Christoph Kudella (Göttingen)
Digitale Editionen als Service von Informations- und Forschungsinfrastrukturen
Torsten Schaßan (Wolfenbüttel)
Die Wolfenbütteler Digitale Bibliothek (WDB): Erfahrungen aus (fast) 20 Jahren und Strategien für die Zukunft
Alexander Czmiel (Berlin)
Nachhaltigkeit vs. Digitale Edition – Möglichkeiten und Grenzen
Torsten Schrade (Mainz)
Annotate, Generate, Test, Deploy: Aktuelle Software-Engineering Methoden zur Steigerung der Nachhaltigkeit Digitaler Editionen
Samuel Müller (Basel)
Die Nationale Infrastruktur für Editionen (NIE-INE): Aufgaben und Lösungswege zur langfristigen Präsentation digitaler Editionen
Johannes Stigler (Graz)
Fünf Thesen zum Thema Nachhaltigkeit: Die Sicherstellung der Verfügbarkeit von (Text-)Daten als Aufgabe von Langzeitarchivierung. Erfahrungsbericht aus einem nationalen Forschungsdateninfrastrukturprojekt.

Die verlinkten Materialien zum Workshop sind auch unter http://dch.phil-fak.uni-koeln.de/nde-workshop.html verfügbar.


Kommentar schreiben