1"> Wie schreibt man Digital Humanities richtig? | dasBibliothekswissen

Wie schreibt man Digital Humanities richtig?

05.02.2013  — Thomas Stäcker.  Quelle: Bibliotheksdienst.

Überlegungen zum wissenschaftlichen Publizieren im digitalen Zeitalter1

In den letzten Jahren hat die elektronische Edition beträchtlichen Aufschwung genommen. Engagierte Einzelforscher, Forschungs- und Kultureinrichten, aber auch Wissenschaftsorganisationen wie die Union der Akademien, die Max Plack Gesellschaft oder Förderer wie die DFG haben das Potential digitaler Editionen erkannt3 und durch wissenschaftlich anspruchsvolle Mustereditionen und gezielte Förderung dazu beigetragen, dass die elektronische Edition heute gleichberechtigt neben der gedruckten steht und anerkannt wird, dass sie, sofern sie mediengerecht aufbereitet wird, in vielen Bereichen die gedruckte Edition übertrifft. Auch wenn derzeit noch viele Editionen in hybrider Form, meint gedruckt und digital, entstehen, deutet sich an, dass es sich dabei eher um ein Übergangsphänomen handelt. Editionen, die im Druckzeitalter begonnen wurden, werden, um einen Medienbruch zu vermeiden, in traditioneller Form fortgeführt, aber zusätzlich im Internet bereitgestellt. Zugleich gibt es vermehrt Anstrengungen, bereits im Druck erschienene Editionen für das Internet aufzubereiten bzw. zu retrokonvertieren. Beispiele sind u. a. die Monumenta Germaniae Historica4 oder die jetzt im Rahmen des AEDit-Projekts5 bearbeiteten Editionen Controversio et confessio,6 der Fruchtbringenden Gesellschaft7 und der Marburger Leichenpredigten. 8 Anders verhält es sich, wenn Projekte, wie das in Zusammenarbeit mit der Universität Göttingen an der HAB begonnene DFG-Langzeitvorhaben der Kritischen Gesamtausgabe der Werke Andreas Bodenstein gen. Karlstadt,9 oder die in Kooperation mit den Universitäten Bonn, Köln und Oldenburg entstehende Edition der Amoenitates Exoticae des Engelbert Kämpfer10 von Anfang an als digitale geplant und angelegt werden. Hier können die Vorteile der elektronischen Publikation ohne Rücksicht auf Beschränkungen der Printfassung direkt umgesetzt werden.

Für die Akademieprojekte bzw. großen geisteswissenschaftlichen Editionen zeichnet sich daher ab, dass sie in absehbarer Zeit nur noch in elektronischer Form erscheinen werden. Was damit einhergeht, ist auch ein Trend zur „Entkommerzialisierung“ des Editionswesens, denn schaut man einmal auf die elektronischen Akademieprojekte, wie z. B. Blumenbach online11 oder die Trierer Wörterbuchprojekte mit der herausragenden Edition von Grimms Wörterbuch,12 dem digitalen Grimm, so springt ins Auge, dass diese allesamt in öffentlicher Hand liegen und allenfalls Mehrwertdienste vermarkten. Diese Entwicklung leuchtet im Bereich der digitalen Editionen unmittelbar ein, denn der Markt war immer schon begrenzt und mehr oder weniger ein Binnenmarkt. Editionsbände, die in der Regel zwischen 200 und 500 Euro kosten, konnten sich nur Bibliotheken leisten, was den Abnehmerkreis und Marktwert sehr einschränkte und damit das Interesse von Verlagen, sich diesem Bereich überhaupt zuzuwenden. Umgekehrt hat erst die Option, im Internet publizieren zu können, auch Editionen ermöglicht, die unter den Bedingungen einer vermarktungsfähigen Druckausgabe trotz wissenschaftlich interessanter Quellen schwerlich oder nur unter erheblichen Kosten das Licht des Tages erblickt hätten,13 so dass sich auch eine für die Wissenschaft attraktive neue Publikationsplattform eröffnet hat.

Was sich im Bereich der digitalen Editionen gleichsam organisch entwickelt, ist im Bereich von elektronischen Zeitschriften und elektronischen wissenschaftlichen Büchern, so genannten eBooks und eJournals, alles andere als selbstverständlich. Warum ist das so und warum ist es für uns überhaupt von Interesse? Der erste Teil der Frage, warum das so ist, ist eher wissenschaftspolitischer Natur und wird Gegenstand des zweiten Teils dieses Beitrages sein unter der Überschrift „Open Access – Open Source“. Die zweite Frage, warum es überhaupt von Interesse ist, führt uns ins Herz der Digital Humanities. Denn mit dem Wechsel zu elektronischen Publikationsformen stellt sich auch grundsätzlich die Frage, wie diese Publikationen aus technischer und formaler Sicht beschaffen sein müssen, wenn sie denn wie bei den Editionen die Vorteile der digitalen Form wirklich nutzen wollen.

1 Technische und formale Voraussetzungen für elektronische Publikationen

In den Geistes- und Kulturwissenschaften haben wir es vor allem mit textlichen Dokumenten zu tun. Sowohl die Quellen, die wir lesen, sind Texte,14 als auch die bevorzugte, nahezu ausschließlich genutzte Form, Wissen festzuhalten, ist der in einem Dokument niedergelegte Text. Der Text ist also mehr oder weniger ausgesprochen das Element, in dem sich die Geistes- und Kulturwissenschaften bewegen. Von dieser banalen Grundvoraussetzung ausgehend, ist die Frage: „Wie schreibt man Digital Humanities richtig?“, von einiger Virulenz und sie leitet implizit zu der Frage über, was denn das Charakteristische der digitalen Geistesund Kulturwissenschaften bzw. Digital Humanities sei, für die dieser Text in dann elektronischer Form konstitutiv ist. Dass diese Frage kontrovers diskutiert wird und widersprüchliche Auffassungen aufeinanderprallen, wundert angesichts des allgemeinen Anspruches der Digital Humanities kaum.15 Dass diese Frage möglicherweise nicht einmal abschließend zu beantworten ist, lässt eine fast resignierende Äußerung von Rafael C. Alvarado erahnen: „Let‘s be honest – there is no definition of digital humanities, if by definition mean a consistent set of theoretical concerns and research methods that might be aligned with a given disciplin. […] It is a social category, not an ontological one.“16 Dieser Einschätzung, dass wir es eher mit einer sozialen als einer ontologischen Kategorie zu tun haben, kann man sicher etwas abgewinnen. Dennoch hat auch die soziale Konfiguration Regeln, die Sache selbst ihre Pragmatik und möglicherweise lassen sich sogar fächerüberspannende Aspekte ausmachen, die man mit McCarty „methodological commons“ nennen könnte.17

Ein zentraler Aspekt dieser Diskussion ist, so die hier vertretene Hypothese, wie man digitale Texte schreibt, wobei man die technisch-praktische von der theoretischen Ebene trennen muss. Das Folgende wird sich vornehmlich auf die Praxis des „richtigen“ Schreibens elektronischer Texte beziehen. Auf die Konsequenzen für den Begriff des Autors, Lesers oder des Dokuments18 soll nur am Rand eingegangen werden, ohne natürlich aus dem Blick zu verlieren, dass eine Änderung des Mediums auch eine Änderung der Wissenschaft nach sich zieht. Denn man muss nicht McLuhen bemühen, um zu erkennen, dass wichtige Rahmenbedingungen der wissenschaftlichen Kommunikation und der Herstellung wissenschaftlicher Werke vom Träger der Kommunikation abhängig sind. Für das Gutenbergzeitalter sind diese Prozesse gut untersucht.19 Für das digitale steht diese Analyse noch aus, im Grundsatz ist dieser Zusammenhang aber evident.

Wenn wir also davon ausgehen, dass der Text auch im Digitalen das maßgebliche Element der Kultur- und Geisteswissenschaften ist,20 dann haben die Digital Humanities eminent damit zu tun, was wir mit Texten machen, seien diese Texte Gegenstand stylometrischer Analyseverfahren, seien sie historische Texte, die modern ediert werden, oder seien es eben Texte, die ganz klassisch Arbeitsergebnisse transportieren, in Form von Artikeln, Büchern oder in Zukunft vielleicht auch Blogs und anderen Formaten. Texte der DH sind also nicht nur Dokumente, mit denen wir uns befassen, sondern auch Dokumente, die wir selbst herstellen. Denn auch die Texte, die wir selbst schreiben, können wieder Gegenstand analytischer Verfahren werden. Wenn dem aber so ist, können wir diese Texte noch so schreiben, wie wir sie als Wissenschaftler immer geschrieben haben oder verlangen uns diese neuen digitalen Texte nicht mehr oder anderes ab? Denn offenbar haben elektronische Texte, anders als auf Papier gedruckte, neue Eigenschaften und Funktionen, sie sind nicht nur menschenlesbar, sondern auch maschinenlesbar, wie Dino Buzetti formulierte: „A digital representation is data and data is processable […] into a form that can be processed by a machine.“21 Wenn der Text sich in dieser grundsätzlichen Dimension wandelt, betrifft dies auch Bibliotheken, denn es bedeutet, dass Erwerbung, Erschließung und Vermittlung unter diesen neuen Vorzeichen überdacht werden müssen.

Die bekannteste der neuen Textfunktionen kennen und schätzen wir – und manche Plagiatoren fürchten sie vielleicht auch –, nämlich dass Texte durchsuchbar sind. Google Books macht es uns vor. Tausende und Abertausende von Büchern können im Handumdrehen durchsucht werden und bieten eine riesige Fülle an Material. Damit verändert sich auch unsere Beziehung bzw. der Umgang mit den Texten. Der Göttinger Germanist, Gerhard Lauer, hat es in einem Beitrag in faz.net auf den Punkt gebracht.22 Es geht nicht mehr nur darum, Literatur zu lesen, sondern darum, Literatur zu „rechnen“. Wie ergiebig das Rechnen der Literatur sein kann, zeigen jüngere Publikationen, wie z. B. eine in Literay and Linguistics Computing erschienene statistische Analyse zu Francis Bacon,23 die aufzeigt, dass Bacons veröffentlichte Werke, wenn man sie statistisch auswertet, nicht mit seinen Autographen übereinstimmen. Eine Einsicht, die Fragen nach der Autorschaft der publizierten Baconschen Werke aufwirft.

Besondere Evidenz erlangt aber die Forderung, Literatur zu rechnen, wenn man sich die Tausend und Abertausend Neuerscheinungen oder auch das Meer des bisher Geschriebenen vergegenwärtigt, das sich jeglichem Anspruch auf vollständige Lektüre entzieht. Mit einem Titel von Gregory Crane, dem geistigen Vater von Perseus24 zu reden: „What do you do with a million books?“25 Das Potential, das sich hier auch dem Kultur- und Geisteswissenschaftler erschließt, ist wohl kaum zu überschätzen, auch wenn es noch Jahre, wenn nicht Jahrzehnte dauern wird, bis die digitale Konversion des Wissensschatzes, den Bibliotheken und Archive über die Jahrhunderte angesammelt haben, abgeschlossen sein wird.

Dass dieser Prozess der zunehmenden Bereitstellung digitaler Kopien für die Wissenschaften schon heute methodische Konsequenzen hat, ist vermutlich noch nicht allen bewusst, aber wie Unsworth und andere in einem Beitrag schreiben: „[…] when millions of books are equally at your fingertips, all eagerly responding to your Google Book Search: you can no longer as easily ignore the books you don’t know, nor can you grasp the collective systems they make up without some new strategy – a strategy for not reading.“26 Mit anderen Worten, Google bringt zutage, was wir nicht wissen, synchron und diachron, wir haben jedoch kaum eine Chance uns dieses Wissen in traditioneller Form durch Lesen anzueignen. Auch der Übergang vom Intensivlesen zum, wie es Sosnoski formulierte, „Hyperreading“,27, zum schnellen Durchsehen von Snippets, Herausgreifen weniger Passagen, intuitiven Verstehen des Sinns etc., löst das Problem nur ansatzweise. Wir benötigen eine Strategie für das Nichtlesen, wie Unsworth sagt, denn ignorieren kann man das, was man theoretisch finden kann, als Wissenschaftler nicht. Es bedarf einer neuen Art zu lesen, die Kathrin Hayles28 sehr zutreffend „machine reading“ nennt, und die sie dem „Close Reading“ bzw. Intensivlesen und „Hyperreading“ als eigenständige Leseform zur Seite stellt.

Das Problem verschärft sich im Falle von Google dadurch, dass Google uns mit diesem Textmeer weitgehend allein lässt. Logische Schneisen zu schlagen, Zugehöriges von Unzugehörigem, Relevantes von Irrelevantem zu trennen, ist kaum möglich. Hinzu kommt, dass diese Art der Suche auch am Mangel der Präzision krankt. Die flache Durchsuchbarkeit von Texten des im wesentlich ungeordneten Internets lässt uns in vielen Fällen im Unklaren darüber, was wir eigentlich gefunden haben, selbst in Google Books, das die Recherche auf Literatur beschränkt, ist die Situation alles andere als eindeutig und in vielen Fällen auch nicht hilfreich. Wenn ich z. B. nach Werken des Stechers und Herausgebers von Emblembüchern, Peter Isselburg (um 1580 in Köln; † 1630/1631 in Nürnberg), suche, finde ich Quellen, Nachdrucke, Werke, in denen er zitiert wird, Kataloge oder Verzeichnisse, die ihn verzeichnen, Werke, in denen über ihn gehandelt wird, Werke in denen möglicherweise ein Namensvetter erwähnt wird usw. Dies könnte man als Mangel der Suchmaschine beklagen, doch handelt es sich bei genauerer Betrachtung eher um einen Mangel der Dokumente. Die Dokumente in Google Books sagen nämlich in der Regel wenig über sich selbst aus. Wie also könnte man die Dokumente besser machen und was ist eigentlich bei dieser Art Suche ein Problem? Lässt man einmal die Verbesserung der Suchbedingungen durch Beigabe externer Daten, also Meta- oder Katalogdaten beiseite,29 dann ist es vor allem die geringe Strukturierung der Texte, die ins Auge fällt. Wenn man einen Namen sucht, dann gibt die Suchmaschine einen Treffer aus, gleich, in welchem Kontext der Name erscheint. Für die Interpretation des Treffers macht es jedoch einen Unterschied, in welchem Kapitel der Name auftaucht, ob er in einem Zitat, in den Fußnoten, auf dem Titelblatt, in der Bibliographie oder im Register erscheint. Diese Dinge leuchten uns im Druck sofort ein, digital ist die Sache nicht so einfach, denn Google oder andere Suchmaschinen, die mit flachen Textstrukturen arbeiten, dekontextualisieren den Treffer. Die Suchmaschine liefert zwar den Text im Kontext (KWIC), doch sagt sie nicht, was der Treffer „bedeutet“. Dass das so ist, liegt nicht zum Geringsten daran, dass eBooks oder eJournals derzeit im Web meist in Form von PDF angeboten werden. PDF ist ein Format, das vor allem dafür geschaffen wurde, eine Druckseite zu simulieren, es ist ein Layout bezogenes Format, d. h. die Titelseite ist nicht als Titelseite charakterisiert, sondern hat nur ein besonderes Layout, z. B. größere Schrift, Fußnoten sind nicht als Fußnoten gekennzeichnet, sondern durch eine kleinere Schrift. So gesehen, ließe sich zwar sagen, dieser oder jener Suchtreffer liege in einem Bereich mit kleinerer Schrift, der sich am Ende einer Seite befindet, und gehöre damit wahrscheinlich zu einer Fußnote, – sicher kann man sich aber nicht sein. Es könnte sich auch um einen sonstigen Einschub im Text handeln. Auch Zitate, die wir gewöhnlich mit Kursive oder Anführungszeichen hervorheben, lassen sich in der Suche kaum filtern und verfälschen das Suchergebnis erheblich. Hätte man hier eine eindeutige Struktur, ließen sich Treffer anders einordnen, wie es z. B. in den Editionen der Wolfenbütteler Digitalen Bibliothek versucht wird. Bei einer Suche in Grimmelshausens Werken30 werden das Werk und die betreffende Struktureinheit beim Treffer mit angegeben (z. B.- 1. Buch, 2. Kap. Simplicissimus). Diese teilweise noch experimentellen Suchmöglichkeiten, die auf dem Einsatz der nativen XML-Datenbank eXist31 beruhen, bieten einen ersten Vorbegriff von einer Suchlogik, die sich von der Textlinearität löst und versucht, Treffer zu kontextualisieren und besser verstehbar zu machen.

Wenn wir den Text daraufhin ansehen, welche Strukturmerkmale für eine dieserart Suche und Internetpublikation besondere Aufmerksamkeit verdienen, so sind es vor allem Titelseite, Kapitelüberschriften, Illustrationen, Tabellen, Fußnoten, Seitenzahlen, Bibliographie und Register. Einige von diesen sind nicht nur als Kontextinformation wichtig, sondern können weitergehende oder gewandelte Funktionen erfüllen. Zum Beispiel gewinnt das Register in einem Internetkontext neue Bedeutung. Das Register hatte vordem die Funktion, das gedruckte Buch nach bestimmten Kriterien zu erschließen und einen schnellen Zugang zu Stellen zu gewähren. Typische Register sind Personen-, Orts- und Sachregister. Darüber hinaus kommen noch Zitatenregister und andere fachbezogene Spezialregister in Betracht, wie z. B. Register von Versanfängen oder mittelalterlichen Initien. Wenn das Buch nicht mehr als isolierte Einheit betrachtet wird, sondern als Teil des Internets, muss sich die Bedeutung des Registers wandeln. Einerseits verliert es durch die neuen technischen Suchmöglichkeiten an Relevanz. Zugriffe auf einzelne Stellen lassen sich meist über eine Volltextsuche erledigen, ohne dass man auf das Register zurückgreifen müsste. Andererseits wachsen ihm in seiner normativen und ordnenden Funktion neue Aufgaben zu. Denn der Kontext eines Registers ist nicht mehr nur das jeweilige Werk,32 sondern das gesamte Internet bzw. theoretisch die Summe aller anderen elektronischen Texte, die mit diesem Text verbunden sind oder sein könnten, was natürlich neue Anforderungen an Normativität und Standardisierung mit sich bringt. Nun könnte man einwenden, dass diese Beziehung zu anderen Texten ja auch im gedruckten Buch bestand und insbesondere über Fußnoten explizit herstellt wurde. Das ist zwar richtig, übersieht aber, dass es beim elektronischen Buch um die Möglichkeit der Maschinenlesbarkeit geht und dass eine Zusammenführung von Information nur dann möglich ist, wenn die Identität des Referenzierten trotz verschiedener Repräsentationsformen gewährleistet ist. Das ist das alte Prinzip der Normansetzung. Was die diversen Namensformen zusammenhält, ist bei einem Normdatensatz die Nummer des Datensatzes. Diese wird in diesem idealen Fall von einer Registry verwaltet, bei Personennamen findet vor allem die GND der Deutschen Nationalbibliothek Verwendung. Nun gibt es natürlich mehrere Nationalbibliotheken. Viele haben sich bereits zusammengeschlossen und über ein Angebot namens VIAF33 eine gemeinsame Normdatei öffentlich zugänglich gemacht. Mit dieser die Person individuell identifizierenden Nummer können internetweit alle mit dieser Nummer versehenen Ressourcen verbunden werden, unabhängig davon, wie die Person sprachlich und schriftlich im Text repräsentiert ist. Typisch ist derzeit z. B. die Verlinkung zu Enzyklopädien wie Wikipedia, NDB/ ADB oder Bibliothekskatalogen, in denen man – auch in die Zukunft gerichtet – nachsehen kann, was die jeweilige Person publiziert hat. Mit dieser Norm-Nummer bzw. Norm-URI entsteht eine neue Registerform. Personenregister bestehen, wenn sie den Internetkontext berücksichtigen, in Eintragungen, die vorliegenden Namensformen Nummern zuordnen, einst PND-, jetzt GND-Nummern.

Ein weiteres im Internet wichtiges Strukturmerkmal ist die Bibliographie. Die Bibliographie eines Standardwerks erfüllt nicht selten die Aufgabe, nicht nur die im Text zitierte Literatur nachzuweisen, sondern, wenn es sich um ein Grundlagenwerk handelt, auch die einschlägige Literatur eines Themengebietes zu versammeln, so dass sie einen eigenständigen Wert gewinnt. Sie böte, so gesehen, einen wertvollen Pool, um sich über wichtige Literatur zu informieren. Von der Bibliographie eines Buches gelangt man zur nächsten in einem anderen Buch. Dieserart Weiterhangeleffekte sind bekannt, liber librum aperit34 heißt es in einer alten Devise, das gilt in diesem Sinne bis heute noch und könnte auch digital genutzt werden. Wäre ein Werk eindeutig bezeichnet,35 ließe sich schnell identifizieren, wo und wie oft ein Werk rezensiert wurde. Könnte man zudem Fußnoten auswerten, so wäre es leicht möglich, eine Art science citation index aufzubauen und damit „Reputation“ zu messen. Das ist nicht unbedingt nur auf den einzelnen Forscher und sein karriereseitiges Fortkommen hin zu münzen, sondern auch auf die Frage, was qualitativ anerkannt ist, und wo gegenwärtig thematische Forschungsschwerpunkte liegen. Die Naturwissenschaften haben für solche Zwecke so genannte Impact-Faktoren entwickelt. Ob man diese in der bestehenden Form für die Geisteswissenschaften übernehmen kann und soll, ist mehr als fraglich. Gleichwohl scheint angesichts der Fülle erscheinender Artikel und Bücher absehbar, dass ein technisch basiertes Evaluationsverfahren qualitätssichernde Funktionen übernehmen wird, allerdings muss man eine solche Funktion von der Zeitschriftenbasiertheit (s. u.) entkoppeln. Es bleibt auch offen, ob die traditionellen peer review-Verfahren oder, was in den Geisteswissenschaften gebräuchlicher ist, Qualitätssicherung durch Herausgeber oder Herausgebergremien noch in der Weise funktionieren kann und soll wie in der Vergangenheit, oder ob angesichts der geringen Publikationskosten eher eine nachgeordnetes Evaluationsverfahren greifen könnte, das sich auf preprints stützt. Diese ließen sich nach ihrer Veröffentlichung bewerten bzw. könnten über technische Analyseverfahren eine Art ranking erhalten. Auch in diesen derzeit noch theoretischen Fällen vermag die Auswertung bibliographischer Information in Dokumenten eine funktional wichtige Rolle zu übernehmen.

Besonders wichtig ist die Zitierbarkeit. Um über etwas reden zu können, muss man es bezeichnen. Traditionell hat diese Funktion die im Buch eingedruckte Seite übernommen (Sonderfälle wie Klassikerzitate, Bibelstellen, juristische Paragraphen seien einmal beiseite gelassen). Die Seitenzahl bzw. Paginierung gibt es im elektronischen Text nicht mehr, da sie am Träger haftet. Um daher auch im Internet weiter etwas zuverlässig bezeichnen zu können, bedarf es neuer Mechanismen, die im Netz naturgemäß die Form von Links annehmen.36 Um das Zitierziel im Text zu verankern, kommen zwei Techniken in Betracht. Entweder man gibt den in Frage kommenden Textbestandteilen Identifier – das kann bis auf die Wortebene hinabreichen – oder spricht vorhandene Worte bzw. Strukturelement direkt an, z. B. das 55. Wort oder der 3. Absatz. Letztere können wiederum als Zitierziel dynamisch erzeugt werden oder man bedient sich moderner Verweistechniken wie Xpointer.37 Das ist dann letztlich eine Frage der Implementierung. Letzteres Verfahren setzt jedoch voraus, dass das Dokument in sich stabil bleibt, denn Korrekturen würden Zitierziele verschieben. Wenn diese Stabilität nicht gewünscht ist, müsste in den Zeiger selbst wie auch das Dokument eine Versionierung integriert werden.

Mit der Zitierbarkeit von Strukturbestandteilen ist eine wichtige Voraussetzung geschaffen einerseits für die differenzierte Verlinkung von Komponenten, aber auch für kommunikative Funktionen. Wie mittlerweile häufig zu beobachten, fördern elektronische Publikationsformen die direkte Kommunikation und Annotation. Ein gelungenes Beispiel findet sich in der Online-Publikation von Kathleen Fitzpatrick,38 in der es Lesern möglich ist, absatzweise zu annotieren. Auch im Falle der Annotation ist es angezeigt, wie bei den Personennamen, nicht zu sehr auf das Binnensystem eines einzelnen Textes bzw. Dokumentes zu sehen, sondern die durch das Internet bedingten Vernetzungsstrukturen mitzudenken und Annotationsmöglichkeiten, z. B. nach dem Modell der Open Annotation Collaboration,39 zu standardisieren.

Kommunikationsfähigkeit in abstraktem bzw. technischem Sinne besteht vor allem darin, Texte miteinander in Beziehung treten lassen zu können, auch ohne dass man die Beziehung, z. B. über Fußnoten oder verlinkte Annotationen, explizit gemacht haben müsste. Ein wesentlicher Grundgedanke des so genannten semantic web ist die Herstellung von formalisierten Links. Wie es im oft zitierten Statement von Tim Berners-Lee heißt: “The Semantic Web isn’t just about putting data on the web. It is about making links, so that a person or a machine can explore the web of data. […] Like the web of hypertext, the web of data is constructed with documents on the web. However, unlike the web of hypertext, where links are relationships anchors in hypertext documents written in HTML, for data they links between arbitrary things described by RDF. The URIs identifies any kind of object or concept.”40

Aus den genannten Punkten lässt sich erkennen, inwieweit die strukturelle Gliederung konstitutiv für die digitale Publikation der Zukunft ist. Entsprechend liegt eine der großen Herausforderungen der Medienkonversion darin, Texte zu strukturieren bzw. Layoutinformationen in Strukturinformationen zu übersetzen. Um Crane noch einmal zu Wort kommen zu lassen: “We need to be able to analyze page layouts to parse out footnotes, tables, headers, tables of contents, indices, marginalia, and other structural patterns that segment and give meaning to the characters on the printed page.”41

Wie nun lassen sich diese Strukturmerkmale sachgerecht „schreiben“? Voraussetzung für strukturelles Schreiben war die Trennung der Struktur- von der Layoutebene, wie sie durch die Entwicklung von Markupsprachen wie SGML und XML möglich wurde. Sie erlauben durch Vergabe expliziter Codes (Markup) Textpassagen „Bedeutung“ zuzuweisen.42 Während die Strukturebene heute vor allem43 in XML kodiert wird, wird die Oberfläche durch Layoutsprachen wie CSS, XSLT u. a. generiert. Durch die Trennung dieser Ebenen erhalten Texte eine andere Dynamik und größere Flexibilität. Allerdings bedeutet sie aber auch den Verlust einer stabilen sichtbaren Textebene (XML wird dem Leser in der Regel nicht gezeigt). Das XML-Dokument kann mit nahezu beliebig vielen Sichten versehen werden, wobei die grundlegende XML-Struktur in der Regel on-the-fly in eine HTML-Leseoberfläche übersetzt wird. Weitere Übersetzungen sind möglich, z. B. in PDF. Vor allem aber dient XML als Grundlage für das „machine reading“, indem dort strukturierte Elemente für die Anzeige extrahiert und Treffer kontextualisiert werden (z. B. ein Name innerhalb eines Literaturverzeichnisses). Die Aufspaltung in eine (XML-)Strukturschicht und eine (Stylesheet-)Oberflächenschicht hat auch für das Schreiben Folgen und führt zu einer neuen Form von Autorschaft, die sich an die Gestaltung dynamischer Oberflächen knüpft. In diesem Sinne diversifiziert sich das Schreiben, indem der „eigentliche“, nunmehr mit strukturellen Auszeichnungselementen (Markup) versehene Grundtext dem Auge entzogen und erst im Nachhinein, mitunter in unvordenklicher Weise, gestaltet wird. Wenn Texte in dieser Form geschrieben werden, hat das Konsequenzen für den Begriff des Werkes, der Autorschaft, der Distribution und auch des Lesers, Konsequenzen, die in ihren theoretischen und praktischen Auswirkungen weitgehend noch unerforscht sind. Gleichwohl finden sich schon eine Reihe guter Beispiele für das strukturelle Verfassen von elektronischen Publikationen. Zum Beispiel basiert die Zeitschrift Digital Humanities Quarterly (DHQ)44 auf der Text Encodiung Initative (TEI),45 die mittlerweile als der wichtigste Standard zur Kodierung von Texten in den Geistes- und Kulturwissenschaften gilt. Wiewohl für historische Texte entwickelt, findet die TEI zunehmend auch für moderne Texte Anwendung. Das besondere an DHQ ist, dass es den XML-Quelltext ebenfalls online zur Verfügung stellt, was die technische Nachnutzung der Artikel erheblich erleichtert. Lege artis ist auch die Ausstattung mit einer CC-Lizenz (dazu unten mehr). Als weiteres Beispiel, das von gleichem Bemühen getragen ist, kann der im Rahmen des Wolfenbütteler Theatra Projektes entstandene Tagungsband „Theatrum Europaeum. Wissensarchitektur einer Jahrhundertchronik“46 genannt werden. Auch hier wurden die TEI als Kodierungsstandard zu Grunde gelegt, auch hier ist der XML-Quelltext zugänglich und unter einer CC-Lizenz verfügbar. Im naturwissenschaftlichen Bereich entwickeln sich ähnliche Modelle,47 zu nennen ist hier etwa PloS,48 das ebenfalls Artikel im XML-Format zugänglich macht.

Der Prozess des Schreibens mit Auszeichnungen bzw. Markup, der Wechsel von einer layoutbasierten zu einer strukturbasierten Publikationstechnik, führt in vielen Bereichen auch zur Präzisierung des Geschriebenen. Wo man früher vielleicht leichthin eine Kursivierung gesetzt hat, ohne sich Rechenschaft über ihre Bedeutung abzugeben (handelt es sich um ein Zitat, ein terminus technicus, eine ironische Bemerkung oder eine sonst irgendwie geartete, nicht näher benennbare Hervorhebung) muss man jetzt genau sein und festlegen, ob es sich um ein Zitat, einen terminus technicus oder eine allgemeine Hervorhebung handelt. Auch die hypertextuellen Elemente führen theoretisch zu einer strengeren wissenschaftlichen Methodik. Wenn man einen Link auf eine digitale Quelle setzt, legt man sich als Autor fest und gestattet dem Leser die unmittelbare Überprüfung des Gesagten. Auch umgekehrt lassen sich ggf. über die Mitte der Quelle Bezüge auf diese Quelle eruieren, so dass theoretisch mehrere Aussagen zum selben Quellenbestand verglichen werden können.

Mit der Möglichkeit der externen Verlinkung bzw. mitunter für den Leser nicht spürbaren Integration externer Elemente in die eigene Publikation (so genannte mashups), eröffnen sich einerseits völlig neue Perspektiven für die Anreicherung von Publikationen, andererseits verliert der klassische Dokumentbegriff an Schärfe, weil die Kompilation die Identität des Textes in Frage zu stellen vermag49 und damit auch die Katalogisierungstheorie vor erhebliche Probleme stellt.50

Trotz aller potentiellen Unschärfe lassen sich text- bzw. werkkonstitutive51 von Bestandteilen mit geringerem Zusammenhalt unterscheiden. Man kann sich dabei dem von Gérard Genette52 eingeführten Begriff „Paratext“ bedienen und die eigentlichen bzw. Haupttexte von Paratexten unterscheiden:

Textstrukturen des Haupttextes

  • Inhaltliche Gliederungselemente des „Werkes“ (Titel, Vorwort, Kapitel, Tabellen) und deren formale Gliederungselemente (Abschnitte, Sätze, Wörter, Buchstaben)
  • Entitäten (Personen, Orte, Körperschaften, Sachbegriffe)
  • Bildelemente (Illustrationen, Karten)
  • Fußnoten
  • Bibliographie
  • Register

Paratexte

  • Quellen im weitesten Sinne53 (Images, Rohtext als Abschrift oder OCR, Editionen)
  • Forschungsliteratur im Volltext
  • Anmerkungen Dritter
  • Lexika, Enzyklopädien
  • Externe Normdaten (Personen, Orte, Körperschaften, Sachen)
  • Bibliographien, Kataloge, Datenbanken
  • Skripte zur Darstellung und Suche (XSLT, XQuery)

Die Beziehung der Paratexte zum Haupttext ist wie gesagt definitorisch nicht scharf bestimmt, sondern manifestiert sich eher in einer mehr oder weniger starken Kohäsion der Elemente untereinander.54 Denn in einem hypertextuell bestimmten Internet, in dem theoretisch alles mit allem verbunden ist, fehlt die physikalische, ein Werk bestimmende Grenze, die das gedruckte und gebundene Buch noch verkörperte.

Mit der Maschinenlesbarkeit und Dynamisierung der Leseoberflächen eröffnen sich zudem neue Funktionen des Textes, die die reine Lesbarkeit überschreiten. Dazu gehören Funktionen wie:

  • Textsuche und -analyse
  • Visualisierung verschiedener Sichten (z. B. annotiert und nicht annotiert)
  • Dynamischer Vergleich mehrerer Dokumente miteinander (z. B. Quellen aus Fußnoten, mehrere Kommentare zu einer Stelle etc.)
  • Dynamische Literatursuche
  • Darstellung von Zeitachsen (Bearbeitungsstufen, Versionierung)

Mit PDF, das sich hartnäckig als Inkunabel des digitalen Zeitalters im Netz behauptet, sind diese neuen Funktionen nur bedingt oder gar nicht zu realisieren, auch wenn natürlich PDF als derivatives Format sicher seinen Wert z. B. als Lesefassung auf einem mobilen Lesegerät oder zum Ausdrucken von Dokumenten behält. Das für diese Zwecke maßgebliche Format ist nach dem derzeitigen Stand XML. Man kann XML-Strukturen direkt mit einem XML-Editor wie oXygen55 bearbeiten. Das stellt zwar noch eine Hürde für Geisteswissenschaftler dar, die mit solchen Strukturen nicht vertraut sind, aber in Zukunft wird es sicher durch adäquate Softwarelösungen größere Verbreitung finden. Digital Humanities richtig zu schreiben hieße in jedem Fall jedoch strukturell zu schreiben. Bibliotheken, die sich dieser Texte annehmen, müssen bei der Erwerbung entscheiden, wie und ob sie neben der XML-Basis auch die Layoutebene berücksichtigen können, sie müssen bei der Erschließung die strukturellen Charakteristika von Volltexten erfassen und in der Benutzung ein differenziertes Angebot machen, das Nutzungsgewohnheiten einbezieht, die mit den elektronischen Medien verbunden sind (Recherche und „machine reading“, Lesen auf mobilen Endgeräten, Kommunikations- bzw. Annotationsplattform usw.). Die geisteswissenschaftliche Bibliothek der Zukunft ist damit weniger eine Bibliothek der Bücher als eine Bibliothek der Texte, genauer eine Bibliothek wissenschaftlich definierter Textgeflechte und digitaler Kommunikationsräume.

2 Open Access – Open Source

Eine wichtige Bedingung und immer wieder erhobene Forderung der Digital Humanities-Bewegung sowie auch zunehmend der Bibliotheken ist die Publikation im Open Access (OA). Ehe ich auf die Umstände dieser Forderung näher eingehe, zunächst drei Fakten:

a) Das Buch von Johann Anselm Steiger: Jonas Propheta, Zur Auslegungsund Mediengeschichte des Buches Jona bei Martin Luther und im Luthertum der Barockzeit. Mit einer Edition von Johann Matthäus Meyfarts ›Tuba Poenitentiae Prophetica‹ (1625). Doctrina et Pietas. Abteilung II: Varia. Erschienen 2011 im Frommann-Holzboog Verlag mit. 412 S. 22 Abb. Ln. kostet EUR 498,–.

b) Die durchschnittlichen Preise von Büchern der immer noch schwerpunktmäßig geisteswissenschaftlich operierenden De Gruyter Verlagsgruppe sind nach einer Auswertung der Erwerbungen der Herzog August Bibliothek56 in den letzten 3 Jahren um ca. 25 % gestiegen. Begründet wird das vor allem mit dem Wegfall des Druckkostenzuschusses. Elektronische Bücher kosten trotz der reduzierten Herstellungskosten genauso viel wie gedruckte, im Bundle sind 140 % zu zahlen (wobei das Bundle-Angebot von De Gryuter eines der kostengünstigsten am Markt ist).

c) Cambridge University Press verweigert der Herzog August Bibliothek das Archivrecht für lizenzierte eBooks.

Diese Fakten haben pars pro toto das im Folgenden Ausgeführte mit angeregt und Anlass gegeben, die Frage nach der Zukunft des wissenschaftlichen Publizierens im Kontext der sich entwickelnden Digital Humanities und des semantic web aus der Perspektive einer geisteswissenschaftlichen Forschungsbibliothek neu zu stellen.

OA gilt als ein integraler Bestandteil der Digital Humanities. Mit dem immer lauter werdenden Ruf nach OA wissenschaftlicher Publikationen bricht sich eine Forderung Bahn, die sich im Prinzip mit dem Siegeszug des Internet und seinen technischen Möglichkeiten bereits abgezeichnet hat. Dennoch ist die Situation heute immer noch so, dass die freie Zugänglichkeit zu wissenschaftlichen Publikationen alles andere als selbstverständlich ist, ja im digitalen Bereich sogar eine Verschlechterung der Zugangsbedingungen eingetreten ist.

Während die Dokumentebene, die durch die Metadaten der Bibliothekskataloge gut abgebildet ist, dieses Kriterium der freien Zugänglichkeit im Großen und Ganzen erfüllt57 und man durch Metakataloge wie den KVK58 durchaus die Möglichkeit hat, Bestände in großen Teilen der Welt suchen können, sind die wissenschaftlichen Texte selbst, wenn sie denn überhaupt in den Kultur- und Geisteswissenschaften elektronisch vorliegen, dem direkten Zugriff verschlossen und meist nur über Lizenzvereinbarungen mit Verlagen zugänglich. Mit anderen Worten, „How to read a million books“ – kann man nur fragen, wenn auch der Text frei zugänglich und im Fachjargon gesprochen „geparst“ werden kann. Das ist heute in der Regel nicht der Fall, weil die Geschäftsmodelle kommerzieller Verwerter von wissenschaftlicher Literatur auf dem Model der Lizenzierung beruhen. Der „Leser“ kann erst lesen oder eben das Buch nutzen, wenn er bezahlt hat und selbst dann kann er es auch nicht „parsen“, weil es ihm zumindest juristisch nicht erlaubt ist, es herunterzuladen und für seine Zwecke aufzubereiten (zu indexieren). Wie schon angedeutet, ist dies ein Thema, das derzeit gerade im Kontext der aktuellen Urheberrechtsdebatte kontrovers diskutiert wird.

Um diese Diskussion besser zu verstehen, scheint es sinnvoll einen Schritt zurückzugehen und sich die Geschichte der schriftlichen Distribution wissenschaftlicher Erkenntnisse in ihren wesentlichen Zügen noch einmal zu vergegenwärtigen. Die Geschichte der Überlieferung wissenschaftlicher Schriften war immer aufs Innigste mit dem Verbreitungsmedium und der Vervielfältigungstechnik verbunden. Als Träger dienten Stein, Tontafel, der Papyrus, das Pergament und schließlich das Papier. Schon an dieser Aufzählung lässt sich erkennen, dass die Art der Träger darüber entscheidet, mit welchem Aufwand Texte hergestellt und wie sie verbreitet werden können. Stein ist wie auch Tontafeln unhandlich und umständlich zu bearbeiten, geschweige denn leicht zu verbreiten – auch wenn diese Medien unter Bestandserhaltungsgesichtspunkten sicher günstig sind: Tontafeln werden sogar durch Brennen härter. Papyrus ist als Rohstoff lokal begrenzt und in feuchten Gebieten nicht haltbar. Mit dem Pergament, später dem Papier, gekoppelt mit der Erfindung des Kodex am Anfang des Mittelalters, verbessern sich auch Überlieferungs- und Nutzungsbedingungen. Gerade mit dem Papier, das zunächst aus Hadern, später aus Holzschliff hergestellt wird, steht ein günstiges Material zur Verfügung, das eine wirtschaftliche Verbreitung einer größeren Anzahl von Kopien erlaubt. Kopien wurden seit der Antike durch Abschriften erstellt, ein langwieriger und fehleranfälliger Prozess. Einen entscheidenden Durchbruch markiert daher der Schritt zur mechanischen Vervielfältigung. Mit Gutenbergs Erfindung zog eine neue Ära auf. Bislang unerreichte Mengen von identischen Exemplaren konnten mit vergleichsweise geringem ökonomischem Aufwand hergestellt werden. Ab 1830 wurde dieser Prozess noch einmal beschleunigt durch die Ablösung der Handpresse durch die Maschinenpresse. In der Folge dieser Entwicklungen bildete sich ein Verlagswesen heraus, das die Distribution für die Wissenschaft trotz immer wieder beklagter Missstände und Unzulänglichkeiten weitgehend effizient organisierte. Diese Symbiose, wenn man es so nennen will, von Wissenschaft und Druck- und Verlagswesen wirkte bis in die Gegenwart fort.

Erst in jüngerer Zeit, in etwa den letzten 10 Jahren, veränderte sich die Situation, wenn auch für den Wissenschaftler direkt kaum spürbar. Der zunehmende wirtschaftliche Druck, die internationale Konkurrenz und Verbesserung der Publikationstechniken sowie weitere sozio-ökonomische Faktoren führten zu einer zunehmenden Monopolisierung des Verlagswesens, infolge dessen gerade im STM-Bereich nicht nur Verlage verschwanden, sondern auch Preise in unanständige Höhen stiegen. Die so genannte Zeitschriftenkrise war geboren.59 Die Bibliotheken reagierten angesichts schwindender Etats mit Abstellungen, die STM-Verlage mit weiteren Preissteigerungen. Ein Teufelskreis. Da die wissenschaftliche Literatur fast nie durch die Wissenschaftler selbst erworben wird, sondern durch Bibliotheken, merkten die eigentlichen Produzenten davon erst einmal nichts. Allenfalls wurden Abbestellungen moniert. Der Zugang zum Text, so das „Gefühl“, schien doch kostenlos für die Forschung. Nicht zuletzt diese fiktive Allmende trug dazu bei, dass nicht „marktgerecht“ gehandelt wurde, denn eigentlich hätten die Bibliotheken nicht kaufen dürfen. Nun ist aber wissenschaftliche Literatur anders zu bewerten als ein neues Auto. Wenn man sich einen Porsche nicht leisten kann, dann kauft man sich einen VW. Günstigere Literatur könnte man zwar kaufen, doch wäre das offenkundig unsinnig. So mussten die Bibliotheken, die sich den Porsche nicht leisten konnten, ihn trotzdem kaufen. Die vormals angesichts dieser Abhängigkeit fein austarierte Balance, die über Jahrzehnte hin zwischen Wissenschaftlern, Verlagen und Bibliotheken wirksam war, wo alle Seiten die Notwendigkeiten des anderen anerkannten, Wissenschaftler in Verlagen Gesprächspartner fanden, die sich von der Sache leiten ließen, Bibliotheken Bücher zu angemessenen Preisen erwarben, die auch das wirtschaftliche Überleben des Verlages sicherten, diese Balance geriet durch die Monopolisierung und konsequente Durchkommerzialisierung des Verlagswesens, durch die alleinige Orientierung an der Gewinnmaximierung, aus dem Gleichgewicht60 und zerstört mit zunehmender Geschwindigkeit auch noch funktionierende Verhältnisse, selbst im geisteswissenschaftlichen Bereich.

Die Wissenschaft bzw. die Bibliotheken können sich die Literatur nicht mehr leisten. In der Folge riefen sodann Bibliotheken und Verlage gleichermaßen nach dem Staat, der die Mehrkosten übernehmen sollte. Dass vordem bereits alle Wirtschaftsmechanismen, die ein Regulativ hätten sein können, außer Kraft gesetzt waren oder gerade im Fall der großen Verlags-Tycoone wie Elsevier ein Konsens zwischen Verlagen und Bibliotheken und damit implizit zwischen Verlagen und Wissenschaftlern aufgekündigt war, wird dabei verschwiegen. Übersehen wird auch, dass genau betrachtet die Wissenschaft sich in eine für sie eigentlich verhängnisvolle Abhängigkeit begeben hat, vor allem darin, dass sie ihre qualitätssichernden Verfahren mit bestimmten Verlagen verschwisterte. Begünstigt wurde dieser Prozess unter anderem durch die breite Einführung des erstmals durch Garfield in den 1950ern beschriebenen Impact Factors,61 den die einschlägigen Verlage begierig aufgriffen. Denn durch den Impact Factor war es möglich geworden, wissenschaftliche Qualität an eine Zeitschrift zu binden. Garfield selbst schreibt jedoch in einem seiner jüngeren Aufsätze:

“The use of journal impact factors instead of actual article citation counts to evaluate individuals is a highly controversial issue. Granting and other policy agencies often wish to bypass the work involved in obtaining actual citation counts for individual articles and authors. And allegedly recently published articles may not have had enough time to be cited, so it is tempting to use the journal impact factor as a surrogate evaluation tool. Presumably the mere acceptance of the paper for publication by a high impact journal is an implied indicator of prestige. Typically, when the author’s recent bibliography is examined, the impact factors of the journals involved are substituted in lieu of the actual citation count. Thus, the impact factor is used to estimate the expected influence of individual papers which is rather dubious considering the known skewness observed for most journals.”62

Eine Zeitschrift statt den konkreten Artikel als Grundlage für Qualität zu nehmen, ist folglich umstritten, aber natürlich von Seiten der betroffenen Zeitschriftenverlage als Gewissheit proklamiert, da sich damit eminent ökonomische Interessen verbinden und besagte Abhängigkeitsverhältnisse verfestigen lassen. Besonders bedenklich ist der Prozess vor dem Hintergrund des bereits mehrfach beklagten finanziellen Zirkels. Wissenschaftler, die von der öffentlichen Hand bezahlt werden, schreiben – und – in vielen Fällen – layouten einen Beitrag, der Beitrag wird wiederum von durch die öffentliche Hand bezahlte Wissenschaftler begutachtet, schließlich kauft es die öffentliche Hand in Gestalt von Bibliotheken wieder zurück. Das mag alles angehen, solang die Dienstleistung der Verlage, nämlich Lektorat, Layout, Distribution und Werbung, als substantielle Leistung erkennbar bleiben. Doch Kostendruck und Gewinnstreben führt dazu, dass Lektorate sterben, dass Layout auf die Wissenschaftler übertragen wird, kostenträchtige Werbung unterbleibt und Preise in für den Privatmann unerschwingliche Höhen steigen. Bei den Monographien kommt hinzu, dass Auflagen auf 200 Exemplare begrenzt oder sie gar nur print on demand angeboten werden. All dies ist kaum geeignet, das Werk sichtbarer zu machen und in den wissenschaftlichen Kreislauf einzuspeisen. Das ist deswegen ein wichtiger Punkt, weil in dieser Sichtbarkeit das maßgebliche Interesse des Wissenschaftlers liegt, denn es geht ihm in der Regel nicht darum, mit seinem Buch Geld zu verdienen, sondern Reputation, d. h. die eigentliche Währung ist Aufmerksamkeit, die man nur bei geeigneter Werbung, Verbreitung und Findbarkeit erreicht. Mit anderen Worten, es wird zunehmend fraglicher, ob Verlage noch im Interesse der Wissenschaft handeln.

Mit den Möglichkeiten des Internet öffnete sich Ende der 1990er Jahre plötzlich ein Weg, den man als Ausweg aus der Krise hätte sehen können. Das elektronische Medium schickte sich an, dem Papier Konkurrenz zu machen, vielfältig war, wenn sicher auch übereilt, vom Ende des gedruckten Buches die Rede. Die Schlüsselerfahrung war die, dass es jeder Privatperson möglich war, selbst praktisch kostenfrei publizieren zu können und dass auch Kopieren, anders als durch Abschreiben und mechanische Vervielfältigung im Buchdruck, praktisch kostenfrei möglich war. Rentabilitätsüberlegungen oder Probleme der Knappheit waren mit einem Schlag verschwunden. Einige Universitäten nahmen sich dieser Möglichkeit an und schufen so genannte institutional repositories. Doch der Erfolg blieb aus oder war begrenzt. Die so naheliegende und logische Überlegung, dass der Forscher seine Arbeitsergebnisse auf dem Server seiner Heimatinstitution publiziert, meint selbst in die Hand nimmt, fand gerade im geisteswissenschaftlichen Feld wenig Anhänger, obwohl Wissenschaftler über die typischen Verteilungskanäle, Kataloge, Listen, wissenschaftliche Gesellschaften etc., weltweit vermutlich mehr Gleichgesinnte und Interessenten erreicht hätten, als auf dem traditionellen Buchmarkt je zu erwarten gewesen wären.

Schuld daran waren mehrere Faktoren. Zunächst haben Universitäten diese neue Chance nicht beherzt genug ergriffen. Statt immer höhere Erwerbungsetats zu finanzieren, wäre es sinnvoller gewesen, Teile dieses Geldes in die Eigenpublikation zu investieren. Denn, das kann man nicht bestreiten: auch die elektronische Publikation kostet Geld. Zwar nicht die Distribution – eine Verteilung über das Internet ist nahezu kostenfrei – wohl aber die redaktionelle Bearbeitung und Aufbereitung sowie Einstellung der digitalen Dokumente in das repository. Doch wäre das für einen Bruchteil der Kosten zu haben gewesen, die jetzt für die Lizenzierung gezahlt werden muss. Diese interne Aufstockung und Umschichtung unterblieb jedoch. Die Universitäten zeigten sich weitgehend indifferent. Die eigenen Wissenschaftler wurden alles andere als ermuntert, in den eigenen Repositorien zu veröffentlichen. Im Gegenteil, diese Repositorien waren und sind teilweise noch als Schmuddelecke verschrien, wo man allenfalls Dinge von zweifelhaftem Wert publiziert. Mangels Masse nahmen manche Repositorienbetreiber tatsächlich unkritisch alles auf, von der Magisterarbeit bis zum Vortragszettel und verstärkten damit den negativen Eindruck. Hinzu kam, dass durch die mangelnde finanzielle Ausstattung und Betreuung viele Repositorien lieblos wirkten und technisch nicht gepflegt wurden, so dass sie für die Publikation wenig attraktiv erschienen. Hier sind ein Stückweit auch die Bibliotheken zu kritisieren, die zu spät auf diese Entwicklung eingegangen und zu lange an den liebgewonnenen klassischen, meint kommerziell gesteuerten Erwerbsmodellen festgehalten haben, denn ein Buch, das digital über ein repository der Universität publiziert wird, ist eo ipso auch ein Erwerbungsfall.

Das entscheidende Moment allerdings für das – bisherige – Scheitern dieser Repositorien ist, dass es der Wissenschaft nicht gelang oder sie je nach Disziplin auch nicht willens war, kurzfristig ihre eingespielten Qualitätssicherungsverfahren anzupassen, was bedeutete und bis heute in vielen Fakultäten noch bedeutet, dass Publikationen nur dann zählen, wenn sie in bestimmten, eben meist kommerziellen und vor allem in gedruckten Zeitschriften oder Verlagen erscheinen, so wenig sachlichen Grund es dafür in vielen Fällen auch geben mag.63 Denn wäre es seinerzeit gelungen, die bestehenden editorial boards- und peer review-Verfahren oder Herausgebergremien neu um elektronisch frei publizierende Organe herum zu organisieren, dann sähe die heutige Situation vermutlich anders aus. So aber blieben die wesentlich kommerziell arbeitenden Verlage, insbesondere die großen Konglomerate auch nach der digitalen Wende maßgeblich und passten sich, wenn zunächst auch sehr langsam, so doch letztlich erfolgreich mit neuen elektronischen Produkten an. Der eJournal-Markt war schnell wieder durch sie dominiert, nur wenige OA-Publikationen brachten es zu Geltung. Allerdings ging dieser Prozess auch im Verlagswesen mit schmerzlichen Entwicklungen einher. Es traf vor allem die kleinen Verlage, die der Markmacht der Großen und ihren weitgefächerten elektronischen Angeboten nichts entgegenzusetzen hatten. Wir beobachten daher in den letzten Jahren zunehmend einen Konzentrationsprozess und das Ende der Vielfalt in der Verlagslandschaft. Mit dem Auftritt von Google, Amazon und Apple auf dieser Bühne wird auch deutlich, dass selbst die Großen der Branche auf noch größere Haie treffen können. So erlebt die amerikanische Verlagswelt derzeit durch Amazon einen regelrechten buy out, darin dass Amazon Autoren für eBooks weit höhere Honorare verspricht als die klassischen Verlage zahlen können und wollen.64

Besonders problematisch für Bibliotheken an dieser Entwicklung ist, dass ein für sie, und damit auch für die Wissenschaft, zu Anfang kaum absehbarer, sich zunächst schleichend entwickelnder Enteignungsprozess einsetzte.65 Infolge einer verfehlten Wissenschaftspolitik, die es gerade im Bereich der Urheberrechtsgesetzgebung nicht vermochte die Balance zwischen öffentlichem und wirtschaftlichem Interesse, z. B. durch eine Wissenschaftsschranke im Urheberrecht, herzustellen, trat zunehmend eine Situation ein, die die Wissenschaft selbst von den Quellen abschnitt. Nicht nur sind die Kosten in derart schwindelerregende Höhen gestiegen, dass neuerdings sogar durchaus kapitalstarke Universitäten wie Harvard gegenzusteuern versuchen,66 es ist auch angesichts der üblichen Lizenzpolitik der Verlage nahezu unmöglich geworden, dass Bibliotheken die elektronischen Bücher und vor allem Zeitschriften als Kopie erhalten. Gerichte unterbinden das Anzeigen von eBooks in der Bibliothek, wenn die Möglichkeit besteht, dass man Titel downloaden kann (die hier unterstellte Nutzerkriminalisierung – jeder Nutzer ist ein potentieller Dieb – ist kein Glanzstück für die deutsche Rechtsprechung). Das Kopieren von Zitaten oder Passagen ist jedoch unverzichtbar, um adäquat mit elektronischen Texten arbeiten zu können. Noch problematischer aber ist, gerade für die Nutzung dieser Medien in einem Umfeld, das sich dem semantic web und den digital humanities verpflichtet sieht, dass sogar das Speichern und Indexieren von eJournals und eBooks in Bibliotheken nur mit ausdrücklicher Genehmigung der Verlage gestattet ist. Bibliotheken und ihre Nutzer, die Wissenschaftler, sind nicht mehr Herr ihrer Literatur.67 Elektronische Bücher und Zeitschriften können anders als ihre gedruckten Vorläufer nur noch lizenziert, aber nicht mehr gekauft werden. eBooks und eJournals bzw. die files liegen nur noch auf dem Verlagsserver und in einigen ausgewählten Repositorien. Nur wenige Verlage, wie z. B. De Gryuter, gestatten im direkten Verhandlungswege die Archivierung und Indexierung, leider jedoch nicht für alle Medientypen. Typisch ist dies Entgegenkommen nicht. So verweigert wie gesagt Cambridge University Press der Herzog August Bibliothek eine Archivkopie, Oxford University Press wird es vermutlich genauso halten. Wer wird also zugreifen dürfen? War es das, was die Autoren wollten, als sie dem Verlag die Exklusivrechte an ihren Werken abtraten? Dass es gerade die so genannten Universitätsverlage sind, die sich besonders hartleibig zeigen, ist eine Ironie der Geschichte und wird nur dadurch erklärlich, dass sie nahezu keine Finanzierung mehr von ihren Heimatuniversitäten erhalten. Sie sind heute nicht besser und schlechter als andere vornehmlich kommerziell arbeitenden Verlage. Nicht mehr im Dienst der Wissenschaft, sondern vor allem im Dienst der Gewinnmaximierung tätig.68 Geht der Verlag unter oder kann die Bibliothek in Zeiten der Knappheit nicht mehr lizenzieren, dann ist im schlimmsten Fall alles verloren, – in den meisten Fällen eben auch die vormals erworbenen Lizenzen. Auch der Umstand, dass es ggf. Repositorien gibt, die eBooks noch haben, hilft dabei wenig, weil die Zugangswege zu diesen Repositorien nicht geregelt sind. Wird der Forscher in Deutschland tatsächlich Zugang zur Kopie der Library of Congress erhalten?

Vor diesem Hintergrund sei noch einmal an die einfache Logik erinnert, dass die Wissenschaft vor allem das Interesse hat, ihr Wissen zu verbreiten und auch langfristig für zukünftige Generationen zu bewahren. Kathleen Fitzpatrick hat in ihrem sehr lesenswerten Buch Planned obsolescence: publishing, technology, and the future of the academy69 auf diese Grundsachverhalte in selten klarer Eindeutigkeit aufmerksam gemacht und der Wissenschaft empfohlen, das Publizieren wieder stärker in die eigene Hand zu nehmen. Verlage, die mehr und mehr Arbeiten, wie Redaktion und Layout auf den Forscher ausgelagert haben, haben dafür im Grunde gute Voraussetzungen geschaffen, denn wenn man die Publikation schon selbst fertig hergestellt hat, dann ist es kein großer Schritt mehr, sie auch ins Internet zu stellen. Allerdings müssen sich auch Wissenschaftler von kommerziellen Aspirationen frei machen. Bezüge der VG WORT wird es dann mittelfristig nicht mehr geben. Dafür erhält er oder sie größere Aufmerksamkeit – es ist mittlerweile bekannt, dass im Open Access erschienen Beiträge intensiver rezipiert werden – und die Wissenschaft kann wieder in dem erstarken, das für sie seit den frühneuzeitlichen Briefnetzen immer ihr Element war, im frei fließenden Austausch der Gedanken. Und auch Bibliotheken fällt in dieser einfachen Logik eine klare Rolle zu. Wenn es Aufgabe der Bibliotheken ist, auch digitale Medien zu archivieren und in einer Form aufzubereiten, dass eine zukünftig stärker digital arbeitende Geisteswissenschaft Nutzen davon hat, dann macht es kostenseitig und technisch kaum einen Unterschied, ob das eBook oder eben die elektronische Edition auch gleich ins Internet gestellt wird. Im Gegenteil, komplizierte Abschottungsmechanismen, die den Zugriff auf den IP-Bereich einer Bibliothek begrenzen, oder Zugriffkontrollen, die wegen entsprechender Lizenzauflagen regeln, wie viel Simultanzugriffe möglich sind, kosten deutlich mehr als eine Open Access-Publikation. Auch die Formate können gleich so gewählt werden, wie sie für eine Langzeitarchivierung und optimalen Nutzung im semantic web (s. Teil I) voraussichtlich günstig sind. So gehen beide Aufgaben und Interessen Hand in Hand. Folgt man dieser Logik, dann wäre es im besten Fall so, dass sich wissenschaftliche und kommerzielle Interessen grundsätzlich trennen und man nicht mehr so tut, als herrsche hier ein wechselseitiger Altruismus. Man sollte sich auch hüten, das Gewinnstreben überhaupt zu verdammen. Daran ist an sich nichts Ehrenrühriges, denn natürlich hat jeder Autor das Recht, mit seinem Werk Geld verdienen zu können (die Diskussion, ob mit öffentlichen Mitteln geförderte Werke auch der Öffentlichkeit frei zur Verfügung stehen müssen, kann an dieser Stelle nicht geführt werden). Doch hat ein kommerzielles Produkt eine andere Funktion. Hier gilt die Frage, ob Porsche oder VW. Der Leser hat die Wahl. Ein elektronisches Buch, das verkauft werden soll, steht nicht frei im Netz, es wird gegen eine Zugangsgebühr verkauft und wirft unter Umständen Gewinn ab, für den Verlag und den Autor. Ein Buch, mit dem man vor allem die Wissenschaft ansprechen, sich wissenschaftlich austauschen und vernetzen will, steht frei und offen zur Verfügung. Es bringt zwar keinen finanziellen Gewinn, wohl aber im guten Fall wissenschaftlichen Fortschritt und Reputation, vor allem durch freie Vernetzung und eine intensivere Rezeption. Bibliotheken können diese frei zugängliche Literatur ungehindert archivieren und für die Forschung aufbereiten.

Die Wissenschaft, die Verlage und die Bibliotheken müssen sich angesichts dessen neu ausrichten. Die Wissenschaft wäre nach der luziden Analyse von Fitzpatrick gut beraten, sich von den alten Abhängigkeiten zu lösen und die Publikation ihrer Arbeitsergebnisse wieder selbst in die Hand zu nehmen. Universitäten sollten dafür Sorge tragen, dass die Publikationen ihrer Wissenschaftler auf den hauseigenen Repositorien erscheinen. Die wissenschaftliche Unabhängigkeit sollte auch dadurch gewährleistet werden, dass Qualität nicht mehr automatisch mit einer Zeitschrift verbunden wird, sondern marktunabhängige und allein wissenschaftliche Kriterien den impact factor bestimmen.

Für die Verlage gilt: unabhängig davon, dass wir noch lange gedruckte Bücher brauchen, man wird neue Geschäftsmodelle entwickeln müssen, denn die alten tragen nicht mehr. Die Publikation OA im golden way ist eine gute Perspektive für diese Umgestaltung, zumindest wenn die Kosten in vernünftigem Rahmen bleiben. Das Angebot von services und tools wäre eine weitere Option,70 sofern nur die Dokumente frei bleiben. Gelingt dies nicht, sollten die Universitäten das Publizieren der wissenschaftlichen Literatur selbst in die Hand nehmen.

Wenn hier von OA die Rede ist, dann muss damit gemeint sein: Open Source.71 Das semantic web, die Forschung mit Daten gelingt nur, wenn man nicht nur freien Zugriff auf diese Ressourcen hat, sondern sie auch in jeder Hinsicht frei nutzen kann, so dass man, nach dem Bonmot von Lauer, mit ihnen „rechnen“ kann, dass man sie herunterladen, archivieren, modellieren, indexieren und auch ohne Einschränkung in anderen Zusammenhängen zeigen kann. Texte im elektronischen Zeitalter sind nicht nur Texte zum Lesen, sondern in ihrer Prozessierbarkeit auch Forschungsdaten, die Forscher jederzeit frei nutzen und beliebig aggregieren können müssen. Ein eingeschränktes, nur über Lizenzierung zugänglich Angebot erfüllt diese wichtigen Grundvoraussetzung nicht und ist eine Fehlentwicklung des wissenschaftlichen Publikationswesens. Sie steht dem Fortschritt in den Digital Humanities im Wege und Bibliotheken sollten im Grundsatz eBooks und eJournals, die sie nicht archivieren und indexieren dürfen, nicht erwerben (auch wenn eine solche Forderung derzeit sicher nicht ohne Weiteres durchsetzbar ist).72

Eine elektronische Publikation ist anders als ihr Vorgänger auf Papier, sie ist komplexer und erfordert weiter reichende Rücksichten, was Kodierung und Schnittstellen anbelangt. Dazu kann gehören, dass registerrelevante Entitäten des Textes wie Personen, Orte oder Körperschaften mit eindeutigen Identifiern ausgestattet werden, um ihre Nutzung in anderen Zusammenhängen zu ermöglichen oder dass ein Text mit Markup versehen wird, um das Datamining zu erleichtern. Elektronische Texte sind immer auch Texte für andere Texte oder andere wissenschaftliche digitale Anwendungen und können als Knoten des semantischen Web fungieren. Wie schreibt man Digital Humanities richtig? Das hat zwei Seiten. Eine technisch-formale und eine ideelle. Die technische besagt, dass man Formate wie die XML basierten TEI wählt und Texte mit strukturellen Metadaten versieht, um analytische Funktionen und vielfältige dynamische Visualisierungen zu ermöglichen. Die ideelle liegt darin, die Texte unter einer Creative Commons-Lizenz im Sinne einer akademischen Allmende zur freien Nutzung ins Netz zu bringen. Als Belohnung winkt nicht nur eine differenzierte Antwort auf die Frage: „How to read a Millon Books?“, sondern auch der freie wissenschaftlichen Austausch und unmittelbare und ungehinderte Zugriff auf digitale geistesund kulturwissenschaftliche Werke, die Bibliotheken für zukünftige Generationen bewahren.

Autor: Dr. Thomas Stäcker, Herzog August Bibliothek Wolfenbüttel

Fußnoten:

1Dieser Text steht unter einer Creative Commons BY-SA Lizenz.

3 Vgl. Stäcker, Thomas: Creating the Knowledge Site – elektronische Editionen als Aufgabe einer Forschungsbibliothek. In: Digitale Edition und Forschungsbibliothek. Hrsg. v. Christiane Fritze [u. a.]. Wiesbaden 2011, S. 107–126 (Bibliothek und Wissenschaft, 44), s. a. den Überblicksbeitrag von Ray Simons [u. a.]: Understanding the Electronic Scholarly Edition in the Context of New and Emerging Social Media: Selected, Annotated Bibliographies. In: digital humanities quarterly 6 (2012) 1. http://www.digitalhumanities.org/dhq/vol/6/1/000111/000111.html [Zugriff: 11. November 2012].

4 http://www.mgh.de/dmgh/. [Zugriff: 7. November 2012].

5 Archiv-, Editions- und Distributionsplattform für Werke der Frühen Neuzeit. http://diglib.hab.de/ ?link=029 [Zugriff: 7. November 2012].

6 http://diglib.hab.de/edoc/ed000211/start.htm (work in progress) [Zugriff: 7. November 2012].

7 http://diglib.hab.de/edoc/ed000213/start.htm (work in progress) [Zugriff: 7. November 2012].

8 Derzeit noch nicht online.

9 http://diglib.hab.de/edoc/ed000216/start.htm (work in progress) [Zugriff: 7. November 2012].

10 http://diglib.hab.de/edoc/ed000081/start.htm (work in progress) [Zugriff: 7. November 2012].

11 http://www.blumenbach-online.de/ (work in progress) [Zugriff: 11. November 2012].

12 http://dwb.uni-trier.de/de/ [Zugriff: 11. November 2012].

13 Vgl. z. B. die Edition der in Wolfenbüttel vorhandenen Handschrift von Jacques de Fontenys Livre d‘Enigmes. http://diglib.hab.de/edoc/ed000166/start.htm [Zugriff: 11. November 2012].

14 Kunsthistoriker, Musikwissenschaftler, Archäologen etc. spielen hier ein Stück weit eine Sonderrolle, wiewohl auch sie in erheblichem Umfang auf textliche Quellen rekurrieren und auch sie ihre Arbeitsergebnisse in Textform festhalten.

15 Gute Einstiegspunkte in die aktuelle Diskussion bieten Manfred Thaller (Ed.): Controversies around the Digital Humanities. Sonderband Historical Social Research 37 (2012) 3 und mit Abstrichen Gold, Matthew G.: Debates in the Digital Humanities. Minneapolis [u. a.] 2012.

16 Alvarado, Rafael C.: The Digital Humanities Sitution (wie Anm. 15.), S. 50.

17 McCarty, Willard: Humanities Computing. Basingstoke, Hampshire [u. a.] 2005, S. 119, Fig. 3.1.

18 Man beachte hier z. B. die sehr lesenswerte Übersichtsdarstellung von Sarah Dudek: Die Zukunft der Buchstaben in der alphanumerischen Gesellschaft. Text und Dokument unter digitalen Bedingungen. In: Bibliothek, Forschung und Praxis 36 (2012), S. 189–199.

19 Hinweisen möchte ich hier pars pro toto nur auf den Klassiker von Elisabeth Eisenstein, The printing press as an agent of change.

20 Text verwende ich im Prinzip wie Dokument, nur dass ein Text auch trägerlos gedacht werden kann. Ein Dokument verkörpert dagegen einen Text. Vgl. die Definition bei Pédauque, Roger T.: Le document à la lumière du numérique. Caen 2006. Der Textbegriff kommt dem Schriftbegriff sehr nah und unterscheidet sich wie das Saussuresche Language und Parole darin, dass Schrift der potentielle Texte ist, Text die aktuierte Schrift.

21 Buzetti, Dino: Digital Editions and Text Processing. In: Text Editing, Print and the Digital World, hier S. 46.

22 http://www.faz.net/aktuell/feuilleton/geisteswissenschaften/literatur-rechnen-lektuere-imcomputerzeitalter-1840973.html [Zugriff: 7. November 2012].

23 Reynolds, Noel B. [u. a.]: Who wrote Bacon? Assessing the respective roles of Francis Bacon and his secretaries in the production of his English works. In: LLC 27 (2012) 4. S. 409–425. doi: 10.1093/ llc/ fqs020. http://llc.oxfordjournals.org/content/27/4/409.short?rss=1 [Zugriff: 11. November 2012].

24 http://www.perseus.tufts.edu/hopper/ [Zugriff: 7. November 2012].

25 http://www.dlib.org/dlib/march06/crane/03crane.html [Zugriff: 7. November 2012].

26 Tanya Clement, Sara Steger, John Unsworth, Kirsten Uszkalo: How Not to Read a Million Books, 2008 http://people.lis.illinois.edu/~unsworth/hownot2read.html [Zugriff: 7. November 2012].

27 Sosnoski, James. “Hyper-readers and Their Reading Engines.” Passions, Pedagogies, and Twenty-First Century Technologies. Ed. Gail E. Hawisher and Cynthia L. Selfe. Urbana 1999 (zitiert nach Hayles Anm. 28).

28 N. Katherine Hayles: How We Read: Close, Hyper, Machine. In: 150 ADE Bulletin (2010).

29 Google vermeidet seltsamerweise bislang jegliche Anstrengung, die Suche durch den Einsatz von Metadaten zu verbessern.

30 http://diglib.hab.de/edoc/ed000133/start.htm [Zugriff: 11. November 2012]; Suchbeispiel: http://diglib.hab.de/wdb.php?q=gedruckt&dir=edoc%2Fed000133&qurl=projekte%2Fgrimmelshausen%2Fsearch%2Fsearch.xql&distype=results-transcript [Zugriff: 11. November 2012].

31 http://exist-db.org/exist/index.xml [Zugriff: 11. November 2012].

32 Wiewohl der Begriff des „Werkes“ in der wissenschaftlichen Diskussion in Misskredit geraten ist, scheint er der einzig passende, um in Abgrenzung zu Dokument und Text den Zusammenhang bzw. die Identität einer geistigen Schöpfung zu charakterisieren. Die Autorbeziehung ist dabei von untergeordneter Bedeutung, d. h. ein Werk muss nicht eo ipso durch eine klassische Autorbeziehung charakterisiert bzw. im wörtlichen Sinne autorisiert sein.

33 http://viaf.org/ [Zugriff: 7. November 2012].

34 http://diglib.hab.de/?grafik=top-app-2-00237 [Zugriff: 7. November 2012].

35 Dafür könnte z. B. in Deutschland die so genannte EKI genutzt werden, S. http://www.hebis.de/de/1publikationen/arbeitsmaterialien/formalerschliessung/erstkat_id_2009_02.pdf [Zugriff: 7. November 2012]. Leider der Umsetzungsgrad bis heute noch unbefriedigend.

36 Seiten simulierende Techniken wie die über die command-line bzw. URL mitgeteilte Seitenzahlen in PDF Dokumenten, sind natürlich möglich, gehören formal aber zur Gruppe der dezidiert gesetzten Anker bzw. ID-Referenzen im Dokument, zumal bei digital born-Dokumenten die Festlegung der „Seite“ als struktureller Container beliebig bzw. durch „Druckbarkeit“ gesteuert ist.

37 http://www.w3.org/TR/xptr/ .

38 http://mediacommons.futureofthebook.org/mcpress/plannedobsolescence/ .

39 http://www.openannotation.org/ [Zugriff: 7. November 2012].

40 http://www.w3.org/ Designissues/LinkedData.html [Zugriff: 7. November 2012].

41 http://www.dlib.org/dlib/march06/crane/03crane.html [Zugriff: 7. November 2012].

42 Zu einer grundsätzlichen Diskussion S.: McGann, Jerome: Radiant textuality: literature after the World Wide Web. New York [u. a.] 2001; Vgl. a. Dino Buzzetti, Dino, McGann, Jerome: Electronic Textual Editing: Critical Editing in a Digital Horizon. http://www.tei-c.org/About/Archive_new/ETE/Preview/mcgann.xml [Zugriff: 7. November 2012].

43 Theoretisch sind hier natürlich auch andere Markuptechniken denkbar, wie SGLM, in manchen Bereichen JSON etc.

44 http://www.digitalhumanities.org [Zugriff: 7. November 2012].

45 http://www.tei-c.org [Zugriff: 7. November 2012].

46 http://diglib.hab.de/ebooks/ed000081/start.htm [Zugriff: 7. November 2012].

47 Shotton, David: Semantic Publishing: the coming revolution in scientific journal publishing. In: Learned Publishing 22 (2009) 85–94. doi:10.1087/2009202. Preprint: http://delos.zoo.ox.ac.uk/pub/2009/publications/Shotton_Semantic_publishing_evaluation.pdf [Zugriff: 7. November 2012].

48 http://www.plos.org/ [Zugriff: 7. November 2012].

49 S. a. Dudek (wie Anm. 18), S. 190.

50 Neue Modelle wie RDA, die auf FRBR aufsetzen, bieten zur Lösung dieser komplexen Probleme vielversprechende Ansätze. Die jetzige Einführung von RDA durch die DNB (Vgl. http://www.dnb.de/DE/Aktuell/Presse/pmDnbSetztRda.html) kann man aber nur als Augenwischerei bezeichnen, weil das zentrale Konzept des „Werkes“ schlicht ignoriert wird. Hintergrund ist, dass derzeit offenbar weder die DNB noch die Verbünde in Deutschland technisch in der Lage sind, das anspruchsvolle Konzept umzusetzen.

51 Zu diesem Werkbegriff S. Stäcker (wie Anm. 3).

52 Genette, Gérard: Paratexte. Das Buch vom Beiwerk des Buches. Frankfurt a. M. 1989.

53 Steding, Sören A.: Computer-based Scholarly Editions. Berlin 2002, nennt diese zutreffend „documenting data and evidences“ (S. 215).

54 Die Frage der Autorschaft ist in diesem Zusammenhang problematisch und kann hier aus Umfangsgründen nicht erläutert werden.

55 http://www.oxygenxml.com/ [Zugriff: 7. November 2012].

56 Anders als in den USA gibt es in Deutschland meines Wissens keine allgemeine Übersicht über die Preisentwicklungen wissenschaftlicher Verlage. Dies wäre ein dringendes Desiderat.

57 Zunehmend stellen Verbundsysteme ihre Katalogdaten unter CC-Lizenzen im Netz zur Verfügung, zuerst das HBZ (http://opendata.hbz-nrw.de/ ) und der BVB/ KOBV (https://opacplus.bibbvb.de/TouchPoint_touchpoint/help.do?helpContext=opendata ). [Zugriff: 7. November 2012].

58 http://www.ubka.uni-karlsruhe.de/kvk.html [Zugriff: 7. November 2012].

59 http://www.fbi.fh-koeln.de/institut/papers/kabi/volltexte/Band046.pdf [Zugriff: 7. November 2012].

60 Vgl. http://www.spiegel.de/wissenschaft/mensch/teure-fachmagazine-aufstand-gegen-diehueter-des-wissens-a-313112.html [Zugriff: 7. November 2012].

61 Vgl. http://www.garfield.library.upenn.edu/papers/jifchicago2005.pdf [Zugriff: 7. November 2012].

62 http://www.garfield.library.upenn.edu/papers/jifchicago2005.pdf; S. 18 [Zugriff: 7. November 2012].

63 Fitzpatrick, Kathleen: Planned obsolescence: publishing, technology, and the future of the academy. New York [u. a.] 2011. “Until scholars really believe that publishing on the web is as valuable as publishing in print – and more importantly, until they believe that their institutions believe it, too – few will be willing to risk their careers on a new way of working […]” (S. 10). Und: “[…] we are entrenched in systems that no longer serve our needs.” (S. 13). http://mediacommons.futureofthebook.org/mcpress/plannedobsolescence/introduction/ [Zugriff: 7. November 2012].

64 Gigant ohne Geist. In: Zeit Online. http://www.zeit.de/2012/35/Verlag-Buchhaendler-Amazon.

65 Vgl. Andreas Molitor, Unser Wissen gehört uns. Forscher fühlen sich von den Wissenschaftsverlagen ausgebeutet. Und nehmen das Geschäft in ihre eigenen Hände (2012). http://www.brandeins.de/uploads/tx_brandeinsmagazine/120_b1_07_12_wissenschaftspublizistik.pdf. [Zugriff: 7. November 2012].

66 Faculty Advisory Council Memorandum on Journal Pricing. Major Periodical Subscriptions Cannot Be Sustained (2012). http://isites.harvard.edu/icb/icb.do?keyword=k77982&tabgroupid=icb.tabgroup143448 [Zugriff: 7. November 2012].

67 Vgl. hierzu auch Oehlmann, Doina: Lizenzen oder Texte, Nutzung oder Hosting? In: Zeitschrift für Bibliothekswesen und Bibliographie 59,5 (2012), S. 231–235; s. a.: Waters, Donald J.: Urgent Action Needed to preserve scholarly electronic journals (2005). http://www.arl.org/bm~doc/ejournalpreservation_final.pdf [Zugriff: 7. November 2012].

68 Vgl. Fitzpatrick (wie Anm. 63); 46f. http://mediacommons.futureofthebook.org/mcpress/plannedobsolescence/five-the-university/the-history-of-the-university-press/ [Zugriff: 7. November 2012].

69 Wie Anm. 63.

70 Fitzpatrick (wie Anm. Fitzpatrick), S. 185 “The creation of value in a hybrid economy may lie in services or tools rather than products.”

71 Vgl. zum Begriff der Open Source im Bereich der Textwissenschaften Bodard, Gabriel und Juan Garcés: Open Source Critical Editions: A Rationale. In: Text Editing, Print and the Digital World. Hrsg. Deegan, Marilyn. Farnham [u. a.] 2009, S. 83–98.

72 Das heißt nicht, dass man archivieren und indexieren muss. Es gibt durchaus Gründe, darauf verzichten zu wollen, indem man argumentiert, man böte seinen Nutzern lediglich ein attraktives Zusatzangebot, das nicht mit einem eigenen Archivauftrag verbunden ist und auch wieder entfallen kann. Allerdings sollte man auch in diesen Fällen auf Eigenindexierungs- und -archivierungsrechte Wert legen, um bei entsprechenden Anforderungen handlungsfähig zu bleiben und die Position der Bibliotheken nicht zu unterhöhlen. Gerade bei diesen Zusatzangeboten ist die Frage sehr nachdrücklich zu stellen, ob die oft hohen Kosten wirklich gerechtfertigt sind, und eine Lizenzierung sollte immer durch entsprechende Statistiken belegt sein, da die öffentliche Hand nur begrenzten Nutzen davon hat.

Newsletter:

dasBibliotheks­wissen

Aktuelle News und Informationen zum Bibliothekswesen und zum Bibliotheksmanagement

Aktuelle Ausgabe Jetzt abonnieren
nach oben