Sichtungen. Archiv - Bibliothek - Literaturwissenschaft ISSN: 1680-8975
PURL: http://purl.org/sichtungen/

Home > Beiträge > Agora > Fragen an Fotis Jannidis


Fotis Jannidis / Andreas Brandtner / Volker Kaukoreit: Fragen an Fotis Jannidis, Assistent am Institut für Deutsche Philologie, Ludwig-Maximilians-Universität München (27. 12. 2001). In: Sichtungen online, PURL: http://purl.org/sichtungen/jannidis-f-1a.html ([aktuelles Datum]). - Auch in: Sichtungen 2 (1999), S. 196-203.

Fotis Jannidis
Ludwig-Maximilians-Universität München
Institut für Deutsche Philologie
Schellingstraße 3Rückgebäude, D-80799 München
Adressinformation zuletzt aktualisiert: 1999

Andreas Brandtner
Wiener Stadt- und Landesbibliothek
Handschriftensammlung
Rathaus, A-1082 Wien
Adressinformation zuletzt aktualisiert: 2000

Volker Kaukoreit
Österreichische Nationalbibliothek
Österreichisches Literaturarchiv
Josefsplatz 1, A-1015 Wien
Adressinformation zuletzt aktualisiert: 2000

Fragen an Fotis Jannidis, Assistent am Institut für Deutsche Philologie, Ludwig-Maximilians-Universität München

Fotis Jannidis / Andreas Brandtner / Volker Kaukoreit


[2/ S. 196:] Lieber Herr Jannidis, Sie haben ein Editionsprojekt zum jungen Goethe mitbetreut (Der junge Goethe in seiner Zeit. Bde. 1, 2 + 1 CD-ROM. Hg. von Karl Eibl, Fotis Jannidis, Marianne Willems. Frankfurt: Insel 1998; vgl. auch http://www.jgoethe.uni-muenchen.de/). Wir gehen davon aus, daß dabei zuerst die editorischen Richtlinien festgelegt, dann die Möglichkeiten der technischen Hilfsmittel diskutiert wurden und sich schließlich die Frage nach dem Vertrieb stellte. Unternehmen dieser Art entstehen nun immer öfter, häufig auch in kleinerem Rahmen (vgl. den Beitrag von Thomas Csanády im vorliegenden Band). Was würden Sie aus Ihrer Erfahrung heraus gerade Einsteigern raten, um organisatorische und technische Kardinalfehler zu vermeiden?

Vorauszuschicken ist, daß die wesentlichen Fragen einer elektronischen Edition keine technischen Fragen sind, sondern - wie bei jeder Edition - konzeptionelle. Auch die elektronischen Aspekte sind vor allem von den üblichen prinzipiellen Fragen des editorischen Konzepts abhängig: Welchen Ausgabentyp will man erstellen, wie sollen die Textveränderungen dokumentiert werden, welche Kontexte sind relevant usw. Damit verbunden sind ja üblicherweise auch ganz pragma- [2/ S. 197:] tische Punkte, nämlich wieviel personellen und finanziellen Aufwand man betreiben kann. Eine große, seit Jahrzehnten laufende historisch-kritische Edition - in Deutschland zumeist an den Akademien angesiedelt -, die nun einen elektronischen Begleiter erhalten soll, wird sich mit völlig anderen Problemen konfrontiert sehen als etwa die Studienausgabe eines Autors, dessen Werke kein Verlag ohne erhebliche Zuschüsse drucken würde und die deshalb nur elektronisch erscheinen soll. Allerdings wird hierbei deutlich, daß auch die Entscheidung dieser prinzipiellen Fragen immer schon von den pragmatischen Randbedingungen abhängig war. Die Auswahl relevanter Kontexte wurde z. B. häufig vom Bandumfang und insgesamt von den hohen Druckkosten eingeschränkt. In diesem Punkt führt also bereits in der Konzeption die Wahl einer elektronischen Ausgabe zu neuen Entscheidungen.

Am Anfang steht also eine Konzeption des Designs der Edition, d. h. welche Texte und Kontexte sollen aufgenommen werden, welche Struktur-Informationen soll sie enthalten usw. Die zusätzlichen Möglichkeiten elektronischer Editionen werden hier wohl zu einem abstrakteren Design führen. Also nicht: Wie soll der Apparat typographisch gestaltet werden, sondern: Welche Informationen sollen im Apparat enthalten sein. Der nächste Schritt ist dann die Abklärung des Produktionsprozesses. Am besten rückwärts: Welche Ausgabeformate will man, d. h. Druck, elektronische Edition fürs Internet, für die CD, wie kommt man dorthin? Diese Konzeption muß folgenden Punkten genügen:

1. Abschirmung der Editoren vor der Technik.
2. Vermeidung von Doppelaufwand für verschiedene Ausgabeformate.

Tatsächlich stehen die beiden Aspekte in einem reziproken Verhältnis zueinander. Der erste Punkt besagt, daß die Editoren ihre Informationen in einer ihnen gemäßen Weise eintragen können, sich also ohne größere Zeit- und Reibungsverluste auf ihre Tätigkeit konzentrieren können. Der zweite Punkt besagt, daß die eingetragenen Informationen ohne größeren Mehraufwand sowohl für die Druck- als auch für die digitale Fassung gewonnen werden können. In der Praxis scheint das größere Probleme zu machen, da die meisten Editoren auf das Herstellen von Druckeditionen eingestellt sind und die unvermeidliche Anpassung an die Bedingungen einer Doppelproduktion als hinderlich wahrnehmen.

Vielleicht noch ein Blick auf die Ausgabeformate: Die Druckseite ist bekannt und wird beherrscht. Problematischer ist die elektronische Seite: Man sollte sich nur bei überschaubaren Projekten, die in weniger als drei bis fünf Jahren abgeschlossen sind, tatsächlich auf eine be- [2/ S. 198:] stimmte Zielsoftware einlassen. In allen anderen Fällen sollte so produziert werden, daß man frei wählen kann, für welche Ausgabesoftware man sich letztendlich entscheidet. Das bedeutet vor allem, daß die Daten in offenen Standards abgelegt werden müssen.

Diese beiden Punkte erscheinen mir also wesentlich, um größere Probleme zu vermeiden: ein klares Konzept über das angestrebte Ergebnis, das sich auch brauchbar operationalisieren läßt, und die Entscheidung für offene Standards der Datenspeicherung.

Sie plädieren für den Einsatz offener Standards. Können Sie die wichtigsten nennen und für welchen entscheidet man sich unter welchen Umständen?

Der Begriff ›offene‹ Standards bezeichnet Vereinbarungen, deren Gestaltung nicht in den Händen einer Firma liegt, sondern bei einem unabhängigen Standardisierungskomitee. Dieser eigentlich selbstverständliche Anspruch ist im Fall der Computerwelt nicht ganz so selbstverständlich, da die schnelle Entwicklung der Software die typischerweise langsamen Prozesse solcher unabhängigen Komitees weit hinter sich gelassen hat. So ist die Situation entstanden, daß Millionen Büros seit Jahren ihre Daten im Format ihrer Textverarbeitung abspeichern und nun feststellen, daß ihre alten Daten nur noch schlecht oder gar nicht mehr zugänglich sind, weil der Hersteller die Konvertierungsprogramme für die früheren Textformate nicht mehr automatisch mitliefert. In eine Edition werden ganz erhebliche, meist öffentliche Mittel investiert, und es ist daher notwendig, eine solche Koppelung der eigenen Daten an schnellebige de-facto-Standards auf jeden Fall zu vermeiden.

Für elektronische Editionen sind Standards in den Bereichen Zeichensatz-Kodierung und struktureller sowie typographischer Auszeichnung relevant.

Für die Abspeicherung der Zeichen gibt es den ASCII-Zeichensatz, der allerdings nur 128 Zeichen definiert, zu denen die deutschen Umlaute, französische Akzente usw. nicht gehören. Das ASCII-Format wurde durch die ISO (International Organization for Standardization) als ISO 646 definiert. Ein erweiterter ASCII-Zeichensatz mit 256 Zeichen, nun mit den europäischen Sonderzeichen, aber z. B. ohne griechische, hebräische oder kyrillische Buchstaben, ist als ISO 8859/1 definiert. Zwei neuere Zeichensatz-Standards, die sich inzwischen einander annähern, decken nun nahezu alle weltweit gebräuchlichen Zeichen ab: Unicode 2 und ISO 10646. Welchen Zeichensatz man wählt, ist von den Texten abhängig, die man zu bearbeiten hat.

[2/ S. 199:] Für die Abspeicherung von Metainformationen, also Angaben zur Struktur (Überschrift, normaler Text, Fußnote, Variante usw.) und zur Typographie (Schriftart und -größe, Seitenwechsel usw.), gibt es mehrere Standards: Rich Text Format, Postscript, Portable Data Format, TeX, SGML und XML. Die ersten drei Formate sind firmenspezifisch, TeX ist eine Satzsprache, so bleiben meiner Einschätzung nach nur SGML (ISO 8879:1986) und XML, die eng miteinander verwandt sind. Beide dienen der Definition von Textauszeichnungssystemen. Sie sind, um das noch einmal hervorzuheben, nicht selbst Textauszeichungssysteme, sondern Standards dafür, wie man solche definiert. Ihr großer Vorteil besteht darin, daß Software so gestaltet werden kann, daß sie jeden SGML- oder XML-konformen Text, egal welches spezifische Auszeichnungssystem nun definiert ist, verarbeiten kann. Für philologische Zwecke existiert das Auszeichnungssystem, das die TEI (Text Encoding Initiative), eine internationale Kooperation von Philologen, festgelegt hat. TEI ist SGML-konform. Handbücher und weiteres sind im Internet abrufbar (http://www.uic.edu:80/orgs/tei/).

Für die Auszeichnung von typographischen Informationen aufgrund der Strukturauszeichnung mittels SGML oder XML sind die Document Style Semantics and Specification Language (DSSSL), die Extensible Stylesheet Language (XSL) und auch Cascading Stylesheets (CSS) von Belang. Die umfassendsten Informationen zu den meisten hier genannten Standards findet man - natürlich - im Internet (http://www.oasis-open.org/cover/sgml-xml.html).

Wenn Sie den Herausgeber vom Techniker trennen, wem ist die Auswahl des Standards überlassen?

Dem Sachverstand.

Hans Walter Gabler unterscheidet in einem neueren Aufsatz (Hans Walter Gabler: Computergestütztes Edieren und Computer-Edition. In: Textgenetische Edition. Hg. von Gunter Martens und Hans Zeller. Tübingen: Niemeyer 1998 [= Beihefte zu Editio 10], S. 315-328) zwischen computergestütztem Edieren und Computer-Edition. Können Sie mit Blick auf das computergestützte Edieren die wichtigsten editorischen Arbeiten, die automatisiert vorgenommen werden können, kommentierend aufzählen?

Mir ist keine editorische Tätigkeit bekannt, die vollständig automatisiert werden kann. Der Computer kann immer nur unterstützend eingesetzt werden. Ein Beispiel: Zur Kollationierung von Texten kann man den Rechner einsetzen. Er listet jede Differenz zwischen Texten [2/ S. 200:] auf, allerdings kann es bei größeren bzw. komplexeren Abweichungen dazu kommen, daß das Programm keine Synchronizität mehr herstellen kann. Dann muß manuell eingegriffen werden - was nach Auskunft derjenigen, die es schon einmal gemacht haben, recht häufig geschieht. Computer sind also immer nur Helfer, wenn auch zunehmend unverzichtbare.

Kann man etwa mittlerweile Fraktur-Schrift ohne hohe Fehlerquote OCR-lesen?

Kommt darauf an, was als »hohe Fehlerquote« angesehen wird. Wenn ein Text zu 99 Prozent korrekt ist, dann haben Sie alle hundert Zeichen, also ungefähr in jeder zweiten Zeile einen Fehler. Diese Fehler manuell zu beseitigen, ist äußerst aufwendig. Um eine elektronische Edition auf den Qualitätsstandard zu heben, der in wissenschaftlichen Ausgaben üblich geworden ist, ist bislang die manuelle Eingabe immer vorzuziehen. Editionen wie die Weimarer Ausgabe der Werke Goethes bei Chadwyck-Healey verwenden ein Verfahren, das als besonders sicher gilt: Der Text wird zweimal manuell eingegeben, und dann werden die beiden Versionen mit Prüfprogrammen auf Abweichungen hin getestet, die mögliche Fehlerquellen anzeigen. Danach muß noch Korrektur gelesen werden. Es ist also ein Irrglaube, daß die Herstellung elektronischer Texte einfach oder billig sei. Allerdings wird man, je nach Lage des Projekts, unterschiedlich hohe Ansprüche anlegen - wie das bei gedruckten Büchern auch der Fall ist.

Wichtig wäre es ebenfalls, etwas über bereits erprobte Programme und Systeme zu erfahren, wie zum Beispiel TUSTEP (Tübinger System von Textverarbeitungs-Programmen).

Der beste Ansprechpartner zu TUSTEP ist natürlich Wilhelm Ott vom Zentrum für Datenverarbeitung an der Eberhard-Karls-Universität von Tübingen, wo TUSTEP entwickelt wurde und betreut wird. Meines Wissens nach hat TUSTEP den großen Vorteil, ein komplettes Satzprogramm für philologische Druckvorbereitung zu liefern, das außerdem über einige sehr leistungsfähige Hilfsmodule, etwa zur Kollationierung, verfügt. Die Benutzerschnittstelle ist allerdings deutlich durch seine Ursprünge aus der Großrechnerzeit geprägt und wird die meisten Anwender vor größere Probleme stellen. Inzwischen gibt es jedoch von Winfried Bader eine Einführung in das Arbeiten mit TUSTEP (Lernbuch TUSTEP: Einführung in das Tübinger System von Textverarbeitungsprogrammen. Bearb. von Winfried Bader. Tübingen: [2/ S. 201:] Niemeyer 1995). Vielleicht macht diese den Zugang leichter. TUSTEP ist kein Autorensystem für die Erstellung elektronischer Ausgaben, läßt sich aber mit etwas Geschick dafür verwenden. Man kann für solche Zwecke aber auch SGML-Editoren oder sogar Winword verwenden, da alle Systeme erst den eigenen Arbeitszielen angepaßt werden müssen.

Meines Erachtens ist die Wahl des Autorensystems zur Erstellung einer elektronischen Edition stark von den Rahmenbedingungen der Arbeit abhängig, also vom Editionstyp, von den finanziellen und personellen Möglichkeiten, vom anvisierten Zeitrahmen, von der zu erwartenden Textmenge, ebenso von der Frage, ob es sich um eine Retrodigitalisierung handelt oder um die Erschließung neuer Quellen usw. Welches System man nun wählt, hängt auch davon ab, welche Kompetenzen bereits vorhanden sind, bzw. von den Möglichkeiten, diese einzukaufen. Ich selbst habe z. B. mit der Skriptsprache Perl bei der Arbeit an der TEI-Version des jungen Goethe sehr gute und schnelle Erfolge erzielt. Allerdings habe ich diese Sprache bereits bei der Gestaltung der Webpages zur »Computerphilologie« (http://computerphilologie.uni-muenchen.de/) eingesetzt; sie war mir also vertraut. Insgesamt erscheint es mir daher weniger wichtig, welches Werkzeug man einsetzt - in diesem Bereich ändert sich die Computerwelt auch viel zu schnell -, als welches Ziel man verfolgt. Und da plädiere ich wiederum für die Standards, die ich bereits nannte.

Um abschließend noch einmal Gablers Position aufzugreifen: Er spricht vom »Zukunftsentwurf Computer-Edition« (S. 319), der besondere Innovationskraft »im Hinblick auf die Darstellungs- und Nutzungsmöglichkeiten wissenschaftlicher Editorik« (S. 222) eigne. Worin sehen Sie diese Vorteile gegenüber einer traditionellen Editorik?

Die Editionsphilologie ist meiner Einschätzung nach in einer Art Dauerkrise: Ihre zunehmend ausgefeilteren Methoden und Konzepte verlängern die Arbeit an den Editionen, was die praktische Folge hat, daß der Literaturwissenschaft häufig keine vollständigen Ausgaben zur Verfügung stehen. Angesichts des erstaunlich gepflegten Zustands auch älterer historisch-kritischer Ausgaben in den Bibliotheken kommt man ohnehin ins Grübeln, wie es mit der Verwendung dieser Editionen im Fach so bestellt ist. Der Boom von Studienausgaben (z. B. Goethe), die immerhin innerhalb von zehn bis zwanzig Jahren ihre Arbeit abschließen, spricht eine ähnliche Sprache. Die offensichtliche Nichtbenutzung des Wissens, das in historisch-kritischen Editionen steckt, hängt sicherlich nicht nur mit der Fragmentarisierung zu- [2/ S. 202:] sammen, sondern auch mit der - technisch gesprochen - Benutzerschnittstelle, also der Aufbereitung des Wissens über den Text, insbesondere mit der Gestaltung der Apparate. Der Einarbeitungsaufwand ist so immens, der Ertrag dieser Arbeit so wenig vorhersehbar, daß diese Mühe offensichtlich oft gescheut wird.

Wenn ich auch sehr skeptisch bin, was die Möglichkeiten betrifft, die Editionsarbeit mit Computern zu beschleunigen (es werden wohl einfach die Ansprüche weiter wachsen, bis der mögliche Zeitgewinn wieder aufgefressen worden ist), so glaube ich doch, daß Hypertextsysteme besser dazu geeignet sind, das ohnehin mehrdimensionale und netzartig strukturierte Wissen eines Apparats zu präsentieren. Walter Morgenthaler, leitender Herausgeber der Gottfried Keller-Ausgabe, die eben neu erscheint, hat den Apparat z. B. so angelegt, daß er jede beliebige Fassung des Textes als Basistext verwenden kann und die Varianten der anderen Texte dann als Apparat dazu einblenden kann. Die Möglichkeiten von modernen Multimediasystemen lassen die parallele Anzeige von Text und einem oder mehreren Apparaten zu oder Filter für die gewünschten Varianten, farbliche Hervorhebung von Abweichungen oder Identitäten usw. (Gottfried Keller. Sämtliche Werke. Historisch-Kritische Ausgabe. Hg. unter der Leitung von Walter Morgenthaler im Auftrag der Stiftung Historisch-Kritische Gottfried Keller-Ausgabe. Basel , Frankfurt / Main, Zürich: Stroemfeld, Verlag Neue Zürcher Zeitung 1996ff.; vgl. dazu auch Walter Morgenthaler: Gottfried Keller - elektronisch ediert. In: Jahrbuch zur Computerphilologie 1/1999 [in Druck]). Wir stehen hier erst am Anfang des Experimentierens. Es ist nicht immer abzusehen, welche Experimente mit der Textgestaltung und -auszeichnung geglückt sind, welche nicht; aber die Möglichkeiten sind jetzt schon so gelagert, daß eine historisch-kritische Edition, die nur gedruckt vorliegt, im Vergleich mit einer elektronischen den Anwender kaum mehr zufriedenstellen kann.

... die ja teilweise auch sehr schlecht für die Lektüre geeignet ist.

Sowohl in Studien- als auch in historisch-kritischen Ausgaben gibt es Textteile, die man zur intensiven Lektüre drucken wird. Insgesamt halte ich Hybrideditionen - also eine Kombination von Druck- und Digitaledition - für die beste Art, der augenblicklichen Ausdifferenzierung der Medien entgegenzukommen. Aber für den recherchierenden Zugriff ist die elektronische Edition mehr als nur wünschenswert: Sie könnte den Anschluß der Editionsphilologie ans Fach, der sich manchmal etwas gelockert zu haben scheint, in ganz neuer Weise herstellen. [2/ S. 203:] Neue Ausgabentypen, die Elemente der historisch-kritischen Ausgabe mit denen der Studienausgabe vereinen, sind denkbar. Solche Editionen könnten als Online-Projekte nicht nur erstellt, sondern auch gepflegt, d. h. ergänzt, korrigiert und erweitert werden (erarbeitet werden sie ja ohnehin mit öffentlichen Geldern, und es ist eigentlich nicht einzusehen, warum die öffentlichen Bibliotheken sie dann mit teurem Geld von den Verlagen kaufen sollten).

Vor diesen Schritten ins Neuland sind jedoch erst einmal die Verhältnisse zu ordnen. So ist es meiner Einschätzung nach mehr als dringlich, daß die geldgebenden Fördereinrichtungen (in Deutschland meist die Deutsche Forschungsgemeinschaft) all die Editionsprojekte ansprechen, die intern teilweise seit Jahren elektronisch arbeiten, ihre Daten aber nach Drucklegung entweder wegwerfen oder nur für interne Zwecke weiterverwenden. Hier muß über die Möglichkeiten langfristiger Archivierung mit erprobten Standards informiert und zu deren Verwendung auch motiviert werden, damit diese Daten für den wissenschaftlichen Gebrauch erhalten bleiben. Sonst muß das alles in einigen Jahren wieder sehr kostenintensiv und wiederum mit öffentlichen Gelder retrodigitalisiert werden. Verlage mußten diese Lektion meist sehr teuer lernen: Sie stellen keine Bücher mehr her, sondern strukturierte, mit Metainformationen angereicherte Information, die als Buch, als CD-ROM, als Internetdatenbank, vielleicht sogar in allen Varianten zusammen, sichtbar werden kann. Legt man sich vorschnell auf ein Medium fest, muß man die Informationen für die anderen Medien wiederum erarbeiten. Das kostet Geld und ist unnötig, aber die Verlage lernen inzwischen damit umzugehen. Die Textwissenschaften sind in der gleichen Situation: Den verschiedenen Bedürfnissen ihrer ›Kunden‹, also der scientific community, muß das, was sie herstellen, angepaßt werden können. Die Gespräche darüber, wie das am besten geschehen kann, haben inzwischen begonnen. Es sollten sich möglichst viele daran beteiligen und ihre Vorstellungen formulieren. (Vgl. dazu auch Computergestützte Text-Edition. Hg. von Roland Kamzelak. Tübingen: Niemeyer 1999 [= Beihefte zu editio 12]. Möglichkeiten zur Diskussion bieten unter anderem die schon genannte Website der »Computerphilologie« oder die Diskussionsgruppe e-edition, die in Marbach betreut wird.)




Printversion:
PURL dieser Datei:
Metadaten zu dieser Datei:
XML-Master dieser Datei:
Datum XML-Master:
PURL der zugrundeliegenden HTML-Datei:
Aktuellste Version der zugrundeliegenden HTML-Datei:
Metadaten zur zugrundeliegenden HTML-Datei:
Sichtungen 2 (1999), S. 196-203
http://purl.org/sichtungen/jannidis-f-1a-print.html
http://purl.org/sichtungen/jannidis-f-1a-print.rdf
http://purl.org/sichtungen/jannidis-f-1a.xml
2001-12-27
http://purl.org/sichtungen/jannidis-f-1a.html
http://purl.org/sichtungen/jannidis-f-1
http://purl.org/sichtungen/jannidis-f-1a.rdf


Copyright 2001-2002 by Sichtungen online
Diese HTML-Datei wurde am Tue 26. Feb. 2002, 22:40 Uhr mittels eines XSLT-Stylesheets (http://purl.org/sichtungen/sichtprint-xml2html.xsl, Vers. 0.5.1, erstellt am 2002-02-26 durch mka) unter Verwendung des Parsers "SAXON 6.4.3 from Michael Kay" automatisch aus einem TEI/XML-Master (http://purl.org/sichtungen/jannidis-f-1a.xml, erstellt am 2001-12-27 durch mp) generiert.
[Webmaster] [Disclaimer]

Valid XHTML 1.0!