Digitale Methoden können den Geisteswissenschaften zu neuen Erkenntnissen verhelfen, aber sie haben ihre Grenzen. Die Literaturwissenschaftlerin Anita Traninger über eine neue globale Sicht auf Literatur, die Gefahr von Vereinfachung und Konservatismus durch den informationstechnischen Blick – und den Reiz des Analogen
Interview: Tobias Timm
In einem alten Backsteingebäude mit Blick auf den Botanischen Garten in Berlin residiert eines der anspruchsvollsten Projekte der deutschen Digital Humanities, das im Rahmen des Exzellenzclusters Temporal Communities: Doing Literature in a Global Perspective angesiedelt ist: das Neudenken einer globalen Literaturgeschichte unter den Bedingungen des Digitalen. Unter der Leitung der Literaturwissenschaftlerin Anita Traninger und ihrer Kolleg innen sollen hier in den kommenden Jahren neue Formen und Formate der digitalen Literaturwissenschaft erprobt werden. In allen Büros stehen leistungsstarke Rechner, doch im Regal hinter Traningers Schreibtisch finden sich auch noch Bücher, manche da- von – wie Jeremias Drexels „Orbis Phaëthon” – Jahrhunderte alt und in Leder gebunden, voller Spuren, die Leser*innen über die Zeit bei der Lektüre hinterlassen haben.
Kann ein Computer „Hundert Jahre Einsamkeit” von Gabriel García Márquez besser lesen als Sie?
Ja und Nein. Das ist eine wunderbar unentschiedene Antwort! Aber es kommt darauf an, was man unter „besser” versteht. Was der Computer sicher besser kann, ist, Muster zu identifizieren, also zum Beispiel herauszufinden, wie oft und in welchen Kontexten bestimmte Wörter in einem Roman verwendet werden. Etwa, welche Verben gehäuft mit weiblichen oder männlichen Pronomen vorkommen – was dann natürlich interpretiert werden muss, um Aussagen über die Geschlechterverhältnisse zu treffen. Schlechter funktionieren solche Methoden dort, wo es um das geht, was literarische Texte gerade ausmacht: ihre Vieldeutigkeit. Auch Ironie, Anspielungen, unzuverlässiges Erzählen sind dem Computer fremd. Künstliche-Intelligenz-Forschende sagen, es sei nur eine Frage der Zeit, bis Algorithmen auch das beherrschten, man müsse sie nur immer weiter füttern und justieren. Wir haben da so unsere Zweifel. (Sie lacht.)
In dem von Ihnen gemeinsam mit dem Anglisten Andrew James Johnston geleiteten Exzellenzcluster Temporal Communities geht es um die globalen Verflechtungen von Literatur.
Genau, wir betrachten Literatur als Praxis in einer globalen Perspektive. Unser Ausgangspunkt ist die kritische Auseinandersetzung mit dem Begriff der Weltliteratur, der in den letzten Jahren recht prominent geworden, aber zugleich in einige Sackgassen geraten ist. Zum einen bedeutet Weltliteratur für viele immer noch das, was Goethe darunter verstand: Literatur aus aller Welt, die es wert ist, dass wir – der Westen – uns ihr widmen. Im Wesentlichen ist das die Frage nach einem Weltkanon. Zum anderen beschreibt man damit Literatur, analog zu Weltmusik oder world cinema, die aus außereuropäischen Kulturen kommt und diese vermeintlich repräsentiert. Das bringt eine unglaubliche Reduktion mit sich: Afrikanische oder asiatische Autor innen werden nicht als literarische Stimmen wahrgenommen, sondern stets nur als Berichterstatter innen über eine exotische Welt.
Wo sehen Sie einen Ausweg?
Wir glauben, dass die historische Dimension bisher sträflich vernachlässigt wurde. Literatur wird global, weil sie über die Zeit hinweg Bedeutung stiften kann. Dabei gibt es nicht die eine, weltumspannende globale Literatur, sondern Literatur stiftet Gemeinschaften, communities, die sich über lange Zeiträume bilden – und immer wieder neu formieren.
Können Sie dafür ein Beispiel nennen?
Unser Forschungsbereich „Travelling Matters” befasst sich mit den Medien der Literatur und dabei ganz zentral auch mit dem Theater. Aischylos’ „Die Schutzflehenden”, die älteste überlieferte Tragödie aus dem 5. Jahr- hundert vor Christus, wird in Elfriede Jelineks Stück „Die Schutzbefohlenen” aus dem Jahr 2013 zu einem Kommentar zur Flüchtlingspolitik.
In einer Inszenierung des Exil Ensembles am Maxim Gorki Theater wurde diese lange Tradition noch einmal neu relevant. Eine solche Resonanz durch die Jahrhunderte stiftet Gemeinschaften, es etablieren sich Beziehungen zwischen den Menschen, die über die Jahrhunderte das Stück gelesen, ediert, übersetzt oder inszeniert und es jeweils neu mit Sinn ausgestattet haben. Daraus ergibt sich ein multiperspektivischer Blick auf Literatur, je nachdem, von wo aus man anfängt zu erzählen. Wir spannen bewusst einen weiten Rahmen auf und binden Wissenschaftler innen aus der ganzen Welt ein, die nach Berlin kommen, um mit uns gemeinsam Literatur über Zeiten und Räume hinweg zu erforschen. Wenn wir unter diesem Vorzeichen einen neuen Ansatz in der Literaturgeschichte entwickeln, dann wird das keine vielbändige Enzyklopädie, sondern ein digitales Projekt sein.
Was bedeuten Digital Humanities für die Literaturwissenschaft?
Auf der Ebene der Materialien ist das Digitale bereits eine Selbstverständlichkeit. Unsere Forschungsgegenstände liegen ebenso digital vor wie unsere Publikationen. Die eigentliche Frage ist aber jene der Methoden: Es verschieben sich derzeit viele Ressourcen hin zu digitalen Methoden, also Professuren, Stellen, Fördergelder, ohne dass die nachhaltige Relevanz mancher digitaler Untersuchungsansätze geklärt wäre. Zudem gibt es einen gewissen Methodendruck seitens der Informatik, die den Geisteswissenschaften eine Formalisierung ihrer Forschungsfragen aufdrängt. Es finden nun Methoden Einzug in die Literaturwissenschaft, die ihr eigentlich fremd sind, etwa das Zählen, das Rechnen, die Statistik. Eine Frage, die uns im Cluster umtreibt, ist: Wie verhält sich dies zu der kritischen Reflexion, die Literaturwissenschaft ausmacht?
Und wie helfen Ihnen Computer dabei, Antworten zu finden?
Wir denken zum Beispiel darüber nach, wie uns die Netzwerkanalyse helfen kann, ein Modell für unsere globale Literaturgeschichte zu entwickeln. Dass das geht, ist noch nicht ausgemacht. Wir nutzen die entsprechenden Tools als Denkwerkzeuge, um unseren eigenen Modellierungsprozess kritisch zu reflektieren. Denn das, was als Daten in die Modellbildung eingespeist werden muss, liegt ja nicht einfach vor, einem Datensatz gehen ja eine ganze Reihe von Entscheidungen voraus. Heute wird die Netzwerkanalyse zum Beispiel sehr erfolgreich für die Darstellung und Analyse von Briefnetzwerken genutzt: So lässt sich nachvollziehen und visualisieren, mit wem beispielsweise Voltaire in ganz Europa korrespondierte, wo die Schwerpunkte lagen, wo weiße Flecken sind. Doch wie müssen wir unsere communities denken, um sie in eine Netzwerkanalyse zu überführen? Welche Elemente berücksichtigen wir? Die Autor*innen? Die Texte? Die Ausgaben, Auflagen, Verlage, Sammlungsorte, Aufführungen? Unsere Denkaufgabe ist analog mindestens ebenso groß wie digital.
Was hat die bisherige Digitalisierung von Archiven und Bibliotheken bewirkt?
Wir können jetzt eine Literaturgeschichte schreiben, die auf eine Fülle von digital verfügbaren Materialien zurückgreifen kann. Das Problem ist, dass die Bestände verstreut und die Metadaten, also die Angaben zu den Digitalisaten, in unterschiedlichen Formaten vorliegen. Gemeinsam mit unseren außeruniversitären Partnern, darunter die Staatsbibliothek und das Ibero-Amerikanische Institut Preußischer Kulturbesitz, arbeiten wir an Lösungen für eine Zusammenführung dieser Daten. Hierfür beraten wir uns auch intensiv mit Kolleg*innen in Einrichtungen, die mit Literatur erstmal gar nichts zu tun haben, wie dem Fraunhofer-Institut für Offene Kommunikationssysteme. Zugleich sind wir in der Situation, dass digitale Formate die geisteswissenschaftlichen Arbeitsprozesse zunehmend prägen. Hier brauchen wir eine spezifische „Data Literacy“, die noch in den Kinderschuhen steckt und für die wir uns engagieren.
Der Mathematiker Martin Grötschel konstatiert, dass eine mathematische Modellbildung in den Geisteswissenschaften schwieriger sei als von Pionier*innen der Digital Humanities gedacht.
Das ist in der Tat so. Wir haben natürlich als Literaturwissenschaftler*innen immer schon modellbildend gearbeitet. Die Frage danach, wie Literatur zusammenhängt, wie sie sich in der historischen Tiefe darstellen lässt, hat viele Generationen von Wissenschaftler*innen beschäftigt. Die heutigen Modelle und Technologien der Informationswissenschaft sind allerdings auf die Geisteswissenschaften nicht eins zu eins übertragbar. Und die Frage ist noch immer: Zu welchem Zweck soll man sie übertragen? Wir glauben nicht an einen Methodenprimat der informationstechnischen Methoden und auch nicht daran, dass Exaktheit und Formalisierung überhaupt Leitkriterien für uns sind. Es geht vielmehr um die – offene – Frage, was uns bei der Analyse und der Kontextualisierung von Literatur in welcher Weise helfen kann.
Digitale Methoden können also auch in die Irre führen?
So ist es. Und es werden damit Konzepte und Ansätze zurück in die Literaturwissenschaft gespült, die wir seit Dekaden problematisiert haben. Die vielen Ansätze, die die Literaturwissenschaft im 20. Jahrhundert bewegt und inspiriert haben, von der Systemtheorie bis zur Dekonstruktion, werden unter dem Stichwort „hermeneutisch” platt zusammengefasst, als undifferenzierter Gegenbegriff von „digital”. Der informationstechnische Blick auf Literatur führt oft zu einer Vereinfachung, die zugleich auch einen gewissen Konservatismus mit sich bringt.
Und wie kann man dem begegnen?
Nur durch Dialog. Die Literaturwissenschaft hat vielfach und teilweise auch zu Recht die Neigung, zu sagen, das Digitale sei naiv, weil reduktiv. Wir müssen aber das Gespräch suchen, denn aus der Auseinandersetzung mit dem Digitalen ist auf jeden Fall etwas zu gewinnen.
Wie weit ist Ihre Arbeit dabei von Open-Data-Ansätzen geprägt?
Unsere digitale Literaturgeschichte realisieren wir als Open-Access-Projekt. Das „Living Handbook of Temporal Communities” wird, wie der Name sagt, eine sich ständig weiterentwickelnde Plattform sein. Dort werden Grundbegriffe unsere Arbeit und auch Fallstudien aus den Projekten des Clusters erläutert und global sichtbar zur Diskussion gestellt.
Wie eng arbeiten bei Ihnen Informatiker*innen und Geisteswissenschaftler*innen zusammen?
Die meisten im Forschungsbereich „Building Digital Communities haben eine Doppelkompetenz, sie kommen aus der Informatik und den Geisteswissenschaften. Das ist uns wichtig, weil wir vor einer Entwicklungsaufgabe stehen, die beides erfordert. Aber wir gehen auch systematisch in Gespräche mit Informatiker innen, denen sich nicht unmittelbar erschließt, was ein Netzwerk in der Literatur ist oder sein kann. Die Komplexität übersteigt schnell mal das, womit Informatiker*innen üblicherweise arbeiten, so haben wir uns sagen lassen. (Sie lacht.)
Und was machen die Digital Humanities, wenn der Strom ausfällt?
Dann wird es finster. Zum Glück pflegen wir immer noch die alten Kulturtechniken, arbeiten mit Büchern, wie vor 500 Jahren. Als Langzeitspeicher sind sie den digitalen Medien bisher weit überlegen. Kulturtechniken wie das Schreiben mit der Hand oder das Umgehen mit Büchern eröffnen uns als verkörperte Erfahrungen auch andere kognitive Horizonte als die Bildschirmlektüre. Und beim Entlangstreifen an Bücherregalen kann man nach dem Serendipity-Prinzip noch immer die wirklich glücklichen Funde machen.