Die theoretische Debatte um die spezifisch mittelalterlichen Bedingungen von Textproduktion und -rezeption sowie um die damit verbundenen Konzepte von Autorschaft, Autorität und Authentizität hat in den vergangenen Jahrzehnten eine Vielfalt neuer editorischer Ansätze hervorgebracht. Das Spektrum reicht von der Überlieferungsgeschichtlichen Methode über New und Material Philology bis hin zu digitalen Texteditionen. Gegenüber der traditionellen Textkritik weisen diese neuen Ansätze eine Reihe von Gemeinsamkeiten auf, denen die Erkenntnis zugrundeliegt, dass sich unser modernes Verständnis von Autorschaft nicht ohne weiteres auf die mittelalterlichen Verhältnisse übertragen lässt. Der Versuch, durch Eliminierung von ‚Fehlern’ der Texttradierung ein möglichst autornahes Original – also den abstrakten Text jenseits der Überlieferung – zurückzugewinnen, wird deshalb durch ein methodisches Vorgehen ersetzt oder ergänzt, das die Textgeschichte entweder in den Vordergrund stellt oder zumindest stärker berücksichtigt. Diese Perspektivverschiebung ermöglicht es, die Varianz der Texte nicht mehr nur als unzulässige Abweichung von einem in den meisten Fällen nicht mehr zugänglichen Original wahrzunehmen, sondern als legitimes Zeugnis einer produktiven Textaneignung und -umformung durch die Redaktoren. Die Erforschung der kontinuierlichen mouvance der Texte wird dabei ergänzt durch Überlegungen zur jeweils spezifischen sozialen und kulturellen Verortung der einzelnen Handschriften, die manche Eingriffe in den Textbestand zu erklären vermag (so zum Beispiel, wenn sich die funktionale Einbindung einer Handschrift in eine bestimmte monastische Reformbewegung nachweisen lässt).

Diese Gemeinsamkeiten sollten allerdings nicht darüber hinwegtäuschen, dass die theoretischen Prämissen der neu entwickelten editorischen Ansätze höchst unterschiedlich sind. So liegt etwa der Material Philology ein anderer Textbegriff zugrunde als der Überlieferungsgeschichtlichen Methode, insofern Erstere der materiellen Bindung des geschriebenen Wortes – und damit dem einzelnen Kodex – eine sehr viel größere Bedeutung beimisst. Der Zuwachs an Möglichkeiten digitaler Erschließungs- und Publikationsformen schließlich hat die Diskussion um Ziele und Methoden der editorischen Praxis neu belebt.

Wie sich der konkrete editorische Einzelfall innerhalb der Wechselbeziehungen zwischen materieller Überlieferung, abstrakten Textbegriffen und zunehmend „transmedialen Datenstrukturen und Verarbeitungsweisen“ (Sahle, s.u.) textueller Informationen darstellt, bildete daher eine Kernfrage des Workshops, den das Zentrum für Mittelalterstudien der Universität zu Köln (ZfMs) unter Mitwirkung des Instituts für Dokumentologie und Editorik am 13. und 14. Juli 2007 im Alten Senatssaal veranstaltete. Sowohl arrivierten als auch jüngeren Wissenschaftlern war hier die Möglichkeit gegeben, die methodischen Grundlagen, Probleme und Lösungswege ihrer aktuellen Editionsprojekte zu präsentieren und zur Diskussion zu stellen. Das Themenspektrum der Vorträge umfasste philologische, philosophische, historische sowie informationswissenschaftliche Aspekte und ermöglichte so einen breiten Einblick in die editorischen Ansätze der unterschiedlichen Fachbereiche.

Den Auftakt bildete auf einer allgemeinen, theoretischen Ebene der Vortrag von Patrick Sahle (Göttingen/Köln) unter dem Titel „Text und Transkription jenseits des Gutenberg-Platonismus“, der für alle folgenden Diskussionen einen sehr praktikablen begrifflichen Bezugsrahmen bieten sollte. Ausgehend von der trivialen Feststellung, dass das Ziel einer kritischen, wissenschaftlichen Edition in der Repräsentation eines Textes besteht, der durch historische Überlieferung gegeben ist, gelte es zunächst eine Anwort auf die grundsätzliche Frage zu finden, was denn eigentlich dieser Text sei. Da die verschiedenen Fachdisziplinen hier naturgemäß ganz unterschiedliche Antworten gäben und ein einfacher, überfachlicher, überzeitlicher und übermedialer Textbegriff nicht auszumachen sei, entwickelte Sahle anstelle dessen eine pluralistische und integrative Texttheorie, die je nach Standpunkt des Editors die unterschiedlichen Bedeutungsaspekte von Textualität – angefangen bei der Materialität und Visualität des physischen Dokuments über die einzelne schriftsprachliche Fassung und das sprachlich bestimmte Werk jenseits der Schrift-Fassungen bis hin zum Inhalt jenseits der sprachlichen Formulierung – in den Vordergrund treten lässt und damit eine verortende Beschreibung der verschiedenen Textbegriffe und editorischen Haltungen erlaubt. Ein solcher pluralistischer Textbegriff schärfe zudem den Blick dafür, welche Texttechnologien und Medien jeweils welche Textbegriffe fördern oder behindern und wie sich dies auf die allgemeine Methodenentwicklung der Edition auswirkt. Eine pluralistische Texttheorie lasse insbesondere erkennen, in welchem Maße die Druckkultur zu einem platonischen Textverständnis geführt habe, das wiederum in der traditionellen kritischen Edition seinen methodischen Niederschlag gefunden habe. Sie zeige die Relativität dieser Position in einer Zeit, in der Digitalisierung nicht nur Medienwechsel, sondern Transmedialisierung bedeute, bei der die Identität von Inhalt (nunmehr Daten) und Form (Medialität) relativiert werde. Eine moderne digitale Edition könne ein solches pluralistisches Textverständnis technisch operationalisieren und als Zielstellung formulieren. Für die Erarbeitung inhaltsreicher Editionen, die vielen Textbegriffen und Erwartungshaltungen entgegenkommen sollen, sind, so Sahle, möglichst informationsreiche Transkriptionen nötig, die im Idealfall ein genaues Protokoll der Leseprozesse an den überlieferten Dokumenten darstellen. Auch hier seien allerdings sowohl der traditionelle Ansatz als auch der im Moment paradigmatische, weiter ausgreifende digitale Standard (Text Encoding Initiative – TEI P5) einem platonischen Textbegriff verpflichtet. Eine globale Texttheorie könne deshalb auch für die Entwicklung einer Theorie der Transkription als Ausgangspunkt und zur Orientierung dienen.

Von den Grenzen und Chancen einer Auswahledition mehrfach überlieferter Minnereden, die gegenwärtig als Bestandteil des Handbuchs Minnereden in Dresden mit den Fördermitteln der Fritz Thyssen-Stifung entsteht, handelte der Vortrag von Jacob Klingner (Dresden). Das Editionsprojekt sucht dem Missstand beizukommen, dass die sogenannten ‚Überlieferungsschlager’ unter den Minnereden zwar allesamt in Handschriftenabdrucken bestimmter Minneredensammlungen vorliegen, diese aber in keiner Weise die komplexe und divergierende Überlieferungslage der einzelnen Minnereden wiedergeben, sondern vielmehr Textfassungen kanonisieren, die vom Rest der Überlieferung deutlich abweichen, ja sogar dessen Verballhornung darstellen können. Anhand einer repräsentativen Auswahl soll exemplarisch gezeigt werden, zu welchem Grad Abschreibeprozesse im Rahmen speziell dieser Gattung Transformations- und Aneignungsprozesse sind und in welchen Grenzen sie funktionieren. Doch solle zugleich vermieden werden, dass durch ‚Apparatungetüme’ und andere ‚Anschwellungen’ die Zugänglichkeit und Benutzbarkeit der Edition auch für ein breiteres wissenschaftliches Publikum eingeschränkt werde. Als probates Mittel, eine so postulierte Benutzerfreundlichkeit zu bewerkstelligen, erscheint dem Editionsunternehmen hier die Informationsreduktion. Demgegenüber wurde von den Verfechtern digitaler Textausgaben der Einwand erhoben, dass dadurch ohne Not der Wert einer Edition, die immer auch Grundlage der Weiter-Forschung sein will, deutlich gemindert wird. Ein entscheidender Vorteil der Digitalisierung liege gerade darin, einen maximalen Informationsgehalt mit größtmöglicher Benutzerfreundlichkeit kombinieren zu können. Und so galt denn auch den meisten als Buchedition konzipierten Editionen in eben diesem charakteristischen und heiklen Punkt der vom wissenschaftlichen Leser nicht kontrollierbaren Informationsreduktion wiederholt deutliche Kritik.

Christoph Flüeler (Freiburg/Schweiz) führte anhand des Literalkommentars von Petrus de Alvernia zur aristotelischen Politeia exemplarisch die Probleme auf, die sich für kritische Editionen von Schriften dieses Typs stellen: Petrus lag für seine Kommentierung der Politeia die lateinische Übersetzung durch Wilhelm von Moerbeke vor, und zwar eine bestimmte Abschrift dieser Übersetzung, die durch Glossen und Korrekturen angereichert wurde und die zahlreiche Fehler enthielt. Wollte man nun den Text, den Petrus las, edieren, würden sich zahlreiche Schwierigkeiten stellen, da man nicht einfach den ursprünglichen (lateinischen) Text, also einen rekonstruierten Archetyp, edieren könnte, sondern eine versio deterior wiederherstellen müsste. Dies sei grundsätzlich bei allen mittelalterlichen Literalkommentaren die Ausgangslage. Allerdings, so das Fazit Flüelers, sei es sowohl aus praktischen als auch aus textkritischen Überlegungen heraus nur in Ausnahmefällen wünschenswert und realisierbar, die Version des kommentierten Textes zu rekonstruieren und mitzuedieren, die dem Kommentator vorgelegen haben mag.

Die Schwierigkeiten, die sich dem Editor mittellateinischer Kommentare zu griechischen Werken stellen, treffen genauso und in gesteigerter Weise auf Editionen judaeo-arabischer Kommentare zu. Carsten Schliwski (Köln) stellte in diesem Zusammenhang seine Edition von Maimonides’ Kommentar zu den Aphorismen des Hippokrates vor. Aus pragmatischen Gründen entschied er sich für eine Darbietung des Textes in klassischer arabischer Schrift, auch wenn dadurch die hebräische Überlieferung ebenso wegfällt wie die von den Schreibern verwendeten mittelarabischen Ausdrucksformen. Zwar sei es absolut wünschenswert, Maimonides’ Kommentar in seiner ganzen inhaltlichen wie sprachlichen Variantenvielfalt der wissenschaftlichen Öffentlichkeit zugänglich zu machen; die dafür notwendigen Ressourcen standen im Rahmen dieses Dissertationsprojektes jedoch nicht zur Verfügung. Sicherlich biete sich aber auch hier eine digitale Edition an, um den Überlieferungsprozess in seiner ganzen Komplexität durchschaubar zu machen.

Zwei Dominikanertheologen des frühen 14. Jahrhunderts standen im Mittelpunkt der Vorträge von Ubaldo Villani-Lubelli und Gianfranco Pellegrino (beide Lecce). Während Villani-Lubelli über den Stand der kritischen Edition des zweiten Quodlibet Heinrichs von Lübeck informierte, gab Pellegrino einen Bericht über Editionsfragen und inhaltliche Probleme der Summa des Nikolaus von Straßburg. Die Werke beider Autoren werden in näherer Zukunft in der Reihe des Corpus Philosophorum Teutonicorum Medii Aevi erscheinen, das 1977 von Kurt Flasch und Loris Sturlese gegründet wurde und seither mit großer Zuverlässigkeit die Werke der deutschen Dominikanerschule in kritischen Bucheditionen zugänglich macht. Pellegrino vor allem demonstrierte mit philosophischer Gelassenheit, in welchem Umfang emendierende Eingriffe seitens des Editors vorzunehmen seien, um aus der Überlieferung einen philosophiehistorisch korrekten Text zu (re-)konstruieren und sorgte damit erwartungsgemäß bei Nicht-Philosophen für einige Irritationen.

Im Unterschied zu dieser ganz der traditionellen Textkritik verpflichteten Buchreihe hat sich das renommierte Parzival-Projekt von Michael Stolz von vorneherein konzeptionell der elektronischen Datenverarbeitung und digitalen Darstellungsmodi verschrieben. Die Genese volkssprachlicher Epen lasse sich – so Stolz – am besten durch das Konzept Rhizomatik erfassen. Die gleichberechtigt nebeneinander stehende Vielfalt und Komplexität abweichender Überlieferungsstränge des Parzival sucht die digitale Edition in umfassenden Datenbanken aufzufangen und den wissenschaftlichen Leser so in die Lage zu versetzen, unterschiedliche Versionen des Parzival abzurufen und einander gegenüberzustellen. Ein umfassender Einblick in das Projekt ist unter <www.parzival.unibas.ch> möglich.

Ferner präsentierte Franz Fischer (Köln) eine unlängst der philosophischen Fakultät der Universität zu Köln als Dissertationsschrift vorgelegte kritisch-digitale Erstausgabe der Summa de officiis ecclesiasticis Wilhelms von Auxerre, die sich in der praktischen Umsetzung dem pluralistisch-integrativen Textbegriff Sahles annähert und mehrfache Herangehensweisen sowohl an die erschlossenen Dokumente als auch an die konstituierten Textversionen ermöglichen will. Gestützt auf ein Archiv der vollständig faksimilierten handschriftlichen Überlieferung sowie auf ausführliche Handschriftenbeschreibungen, bietet sie unterschiedliche Editionstexte, die aus einem XML-Datensatz (jeweils optional) generiert werden: eine sehr genaue Transkription der Leithandschrift, einen digital aufbereiteten kritischen Text, eine mit Apparaten ausgestattete Druckversion sowie den Text einer überarbeiteten Fassung, und möchte damit sowohl inhaltlich-literarische als auch paläographische, kodikologische, linguistische, überlieferungs- und rezeptionsgeschichtliche Fragestellungen bedienen.

Mit frühmittelalterlichen kirchenrechtlichen Textsammlungen, hier am Beispiel der Collectio Dacheriana, befasste sich Daniel Ziemann (Köln). Auch wenn diese zumeist auf einen einzelnen Kompilator zurückgehen, handelt es sich doch um eine eher unfeste Textsorte, für die Fragestellungen nach Vorlagen, Autorschaft, Textproduktion, Urtext, Bearbeitungsstufen und Rezeption von besonderer Bedeutung sind. Eine Edition der Collectio Dacheriana, die wirklich alle relevanten Fragestellungen bedienen soll, übersteige die Möglichkeiten einer Druckausgabe. Allerdings bestehe ein Mangel an einfachen, praxiserprobten Modellen und Werkzeugen, die es einem inhaltlich orientierten Editor erlauben würden, eine umfassende digitale Edition zu erarbeiten, ohne erhebliche Ressourcen sowohl in die Konzeptentwicklung als auch in die technische Umsetzung zu investieren.

Besonders anschaulich wurde das Dilemma traditionsreicher, monumentaler Editionreihen, die ihre einmal gesetzten Standards nur geringfügig zu modifizieren vermögen, aber dennoch methodisch auf höchstem wissenschaftlichen Niveau stehen möchten, durch den Vortrag von Georg Vogeler (Lecce) und Christian Friedl (München) zu den Urkundeneditionen Kaiser Friedrichs II. Dabei handelt es sich um eines der aktuellen Renommierprojekte der Monumenta Germaniae Historica, das vor 20 Jahren begonnen wurde und somit die grundlegenden technischen Umwälzungen der letzten Zeit nicht mitmachen konnte. Die quellenkritischen Ansprüche sind von Theodor von Sickel in der zweiten Hälfte des 19. Jahrhunderts formuliert worden. Seither hat die Editionspraxis an der Verwirklichung dieser Ziele gearbeitet und so ein umfangreiches Regelwerk einer ‚guten’ Urkundenedition erstellt, auch wenn dieses nicht verschriftlicht ist, sondern als Teil der wissenschaftlichen Tradition von Lehrer zu Schüler weitergegeben wird. Was sich alles ändern könnte, wenn ein solches Projekt auf den aktuellen Forschungsergebnissen zur digitalen Edition und zur historischen Fachinformatik aufbauend neu begonnen werden würde, war die leitende Fragestellung des Beitrags, wobei die Felder benannt wurden, in denen sich die traditionellen Arbeitskonzepte und die der digitalen Edition nicht decken. Auf der Suche nach Kompromissen zwischen beiden Vorgehensweisen wurde unter anderem die Bitte an die Bucheditoren formuliert, die ohnehin benutzte EDV konsequenter einzusetzen. Dabei ginge es insbesondere darum, stärker strukturiert zu arbeiten (z.B. mit Datenbankensoftware) und das in Vorbereitung auf die Edition gesammelte Material auch vorab elektronisch zur Verfügung zu stellen.

Einen in der Sache sehr engagierten Vortrag hielt Manfred Thaller: Es sei ebenso notwendig wie aussichtsreich, auf dem Sektor der digitalen Editorik stärker initiativ zu werden und die hohe Akzeptanz der neuen Medien für wissenschaftliche Editionen insgesamt nutzbar zu machen, da wissenschaftliche Editionsformen in einer allgemeinen Akzeptanzkrise stünden und der Mangel an handhabbaren umfassenden digitalen Editionswerkzeugen endlich behoben werden müsse. Thaller forderte ferner, Konsequenzen aus der Tatsache zu ziehen, dass es heute durch moderne Technik wesentlich billiger ist, die visuelle Gestalt eines handschriftlich überlieferten Textes zu reproduzieren, als sie zu beschreiben. Man müsse sich daher von dem langwierigen wissenschaftlichen Prozedere verabschieden, weniger bedeutende und besonders umfangreiche Texte zusammenzufassen (Regesta), nur die wichtigsten kritisch zu edieren und nur die exklusiven Stücke zu faksimilieren. Die Forschung müsse vielmehr zu einem ‚synchronen’ Verfahren übergehen, bei dem möglichst rasch digital reproduzierte Texte veröffentlicht, von Seiten der Herausgeber mit vorläufigen Kommentaren versehen und erst nach und nach einer vertiefenden Interpretation oder kritischen Edition zugeführt werden.

Einen der editorischen Pragmatik verschriebenen Schlusspunkt setzte Torsten Schaßan (Wolfenbüttel) mit seinem Vortrag von der Edition als ‚Schichtsalat’. Nach Art eines von jedem Koch anwendbaren Kochrezeptes empfahl Schaßan eine bestimmte Abfolge von Arbeitsschritten, die insbesondere alle Möglichkeiten der Text-Bildverknüpfung in digitalen Editionen offenlässt. Beispielhaft wurde dies an der Edition der Wolfenbütteler Palimpsest-Handschrift Cod. Guelf 64 Weiss. durchexerziert, die zu den ältesten Handschriften in Deutschland gehört und eine äußerst komplexe Schichtung von textgeschichtlich bedeutsamen Stücken aufweist. Die angestrebte digitale Edition zielt allerdings nicht in erster Linie auf eine philologische Konstruktion ‚kritischer Texte’ aus den überlieferten Dokumenten, sondern dient der Erforschung und Exemplifizierung innovativer Publikations- und Editionstechniken. Entsprechend behandelte der Vortrag vornehmlich das Textauszeichnungssystem der TEI, theoretische Aspekte wie externes Markup und Visualisierungsstrategien für XML-Daten durch SVG (Scalable Vector Graphics).

Wenn es das Ziel des Workshops war, einen Überblick über den Status quo der editorischen Praxis zu verschaffen und über die Grenzen der einzelnen Disziplinen hinaus sowohl methodische als auch technologische Perspektiven für zukunftsfähige mediävistische Editionen aufzutun, so darf das zweitägige Kölner Kolloquium als Erfolg gewertet werden. Gerade die innerhalb der Mediävistik gegebene Interdisziplinarität schärfte den Blick für die gemeinsamen methodischen und theoretischen Grundlagen. Konzeption und Durchführung aller vorgestellten Editionsprojekte waren darüber hinaus immer ganz wesentlich durch die jeweils sehr konkreten finanziellen, zeitlichen und personellen Rahmenbedingungen bestimmt. Dem vielfach geäußerten Wunsch nach Vermittlung der für digitale Editionen grundlegenden Kenntnisse und Fertigkeiten soll in Form einer Summerschool im September des kommenden Jahres entsprochen werden.

(Franz Fischer / Lydia Wegener)

  • Aktivitäten