Als Johannes Gutenberg vor gut 500 Jahren die beweglichen Lettern erfand, löste er damit eine mediale und kulturelle Revolution aus. Seine Neuentwicklung vereinfachte entscheidend den mechanischen Buchdruck und legte den Grundstein für die industrielle Massenproduktion von Büchern. Zugleich ermöglichte sie damit erstmals in der Geschichte die exakte Reproduktion von Wissen.
Einige Jahrhunderte später erhielt die Gutenberg-Galaxis mit der Erfindung von Tonträgern, Radio und Fernsehen erstmals Konkurrenz, die sie allerdings in ihren Grundfesten nicht erschüttern konnte. Erst die Erfindung des Internet stellt das Primat der gedruckten Überlieferung radikal in Frage.
Denn die Digitalisierung der Kulturgüter verändert auf tiefgreifende Weise den Zugang zu unserem Wissen. Die “Entmaterialisierung” und die rasante Verbreitungsgeschwindigkeit von Informationen schaffen zum ersten Mal in der Menschheitsgeschichte die technischen Voraussetzungen für einen Internetkonzern wie Google, sich eine unermessliche Zahl digitalisierter Buchkopien anzueignen. Zum anderen erlaubt es das Netz, das Wissen der Menschheit in elektronischer Form allgemein zugänglich zu machen.
Derzeit scheint es, als laufe die leichtfüssige technische Fortentwicklung einer vergleichsweise behäbigen Rechtsordnung davon. Daher lautet die spannende Frage, welche tiefgreifenden Folgen die Neuordnung der Medienlandschaft für das Urheberrecht und damit für die ideellen wie materiellen Interessen der Autoren und Verlage sowie nicht zuletzt für die Leser haben wird.
Aktuell stellt sich die Frage, wie wir damit umgehen, dass ein globales, milliardenschweres Privatunternehmen de facto die Exklusivrechte an digitalisierten Werken anstrebt. Denn die Auseinandersetzung um das Google Book Settlement und die Debatte um den “Heidelberger Appell” spiegeln jene konfliktreichen Umbrüche wider, die durch die Virtualisierung von Informationen ausgelöst wurden.
Letztendlich wird es entscheidend darauf ankommen, das Gleichgewicht zwischen Gemeinwohl, dem Urheberrechtsschutz und dem privatwirtschaftlichen Verwertungsinteresse neu auszutarieren. Zwischen diesen drei Polen wird auch die Antwort zu finden sein, wer in Zukunft zu welchen Bedingungen über das “Weltwissen” verfügen darf.
Googles Beutezug durch die Bibliotheken
Vor fünf Jahren begann Google, in Zusammenarbeit mit öffentlichen Bibliotheken, auch urheberrechtlich geschützte Bücher einzuscannen, ohne sich zuvor die Genehmigung der Verlage und Autoren einzuholen. Die Anhörung über einen Vergleich, der den Streit zwischen Rechteinhabern und dem Unternehmen beilegen sollte, wurde nun erneut verschoben. Dieser Schritt wurde unumgänglich, nachdem das US-Justizministerium massive urheberrechtliche und kartellrechtliche Bedenken gegen das Projekt angemeldet hatte. Zahlreiche Beobachter gehen davon aus, dass das mühsam ausgehandelte Google Book Settlement verworfen wird.
Das Settlement sieht vor, dass Google für alle bis zum Mai 2009 eingescannten Bücher eine Pauschale in Höhe von 60 US-Dollar an die Autoren auszahlt. Darüber hinaus sollen die Rechteinhaber in Zukunft mit 63 Prozent an den Einnahmen beteiligt werden, die Google mit den Werken erzielen möchte.
Das mag aus Sicht der Autoren in Teilen durchaus erfreulich sein: Gerade die vergriffenen Werke, mit denen über den Buchhandel kein Geld mehr zu verdienen ist, generieren auf diese Weise wieder Einnahmen.
Es bleibt jedoch der bittere Nachgeschmack, erst bestohlen und dann nur auf großen juristischen und politischen Druck hin entschädigt worden zu sein. In keinem anderen Fall ist ein solches Vorgehen zudem mit so viel Nachsicht verhandelt worden. So wurde der Bostoner Student Joel Tenenbaum beispielsweise im August d. J. von einem US-Gericht wegen Urheberrechtsverletzungen zu einem Schadenersatz in Höhe von insgesamt 675 000 US-Dollar verklagt, nachdem er 30 Musikstücke aus dem Internet heruntergeladen hatte – wohlgemerkt zu privaten, nicht-kommerziellen Zwecken.
Treuherzig rechtfertigt Google – gemäß dem informellen Firmenmotto “Don’t be evil” – den Beutezug durch die Bibliotheken: Schließlich gehe es darum, das Wissen vergangener Jahrhunderte zu retten und eine “Bibliothek für die Ewigkeit” einzurichten. Ein Ziel, das zu erreichen dem Internet- Giganten durchaus zuzutrauen ist.
Google verfügt als eines von wenigen Unternehmen über ausreichend Ressourcen, sein gigantisches Scan-Projekt erfolgreich durchzuführen. Hierzulande ist Google vor allem für seine Suchmaschine bekannt; gut 90 Prozent der deutschen Internetnutzer “googeln”, wenn sie etwas im Netz suchen. Sein Geld verdient das Unternehmen allerdings in erster Linie mit der Schaltung von Anzeigen, die neben den Suchergebnissen oder in unterschiedlichen Applikationen angezeigt werden. Mit Erfolg: Im vergangenen Jahr erwirtschaftete das Unternehmen einen Nettogewinn von mehr als 1,4 Mrd. US-Dollar.
Das Angebot von Google Books besteht aus zwei Säulen: Auf der einen Seite präsentiert Google in Kooperation mit Verlagen Ausschnitte aus deren Büchern. In der Regel – es sei denn, die Verlage lassen mehr zu – kann der Nutzer zudem den Text nach Schlagwörtern durchsuchen und bibliographische Informationen abfragen. Auf der anderen Seite präsentiert Google Werke, die der Konzern in Zusammenarbeit mit weltweit über 30 Bibliotheken, sieben davon in Europa, eingescannt hat. Seit 2004 digitalisierte der Konzern die Inhalte von bereits mehr als sieben Mio. Büchern, bis 2015 plant das Unternehmen 15 Mio. “Digitalisate” auf seinen Servern zu speichern.
Ein Großteil der eingescannten Texte ist bereits online abrufbar. Bücher, die noch unter Urheberrecht stehen, hat Google bisher nur in Auszügen, sogenannten snippets, zugänglich gemacht. Der Konzern beruft sich dabei auf den Grundsatz des “Fair Use”, eine Schrankenbestimmung im amerikanischen Urheberrecht, die es gestattet, urheberrechtlich geschützte Werke unter anderem für Bildung und Forschung eingeschränkt zu verwenden. Sogenannte gemeinfreie Werke, deren Urheberrecht abgelaufen ist, wurden von Google vollständig veröffentlicht. Neben diesen Texten wird keine Werbung eingeblendet.
Proteste gegen die “Enteignung”
Gegen das Vorhaben Googles formiert sich zunehmend Widerstand. 2005 klagten der US-amerikanische Autorenverband Author’s Guild und die American Association of Publishers, ein Zusammenschluss amerikanischer Verleger, gegen das Buchprojekt. Sie sehen darin eine “massive Urheberrechtsverletzung” und verlangen finanzielle Entschädigung. Drei Jahre später einigten sich beide Seiten schließlich auf das Google Book Settlement.
Aber auch kartellrechtliche Bedenken werden laut. Im Sommer d.J. wurde die Open Book Alliance ins Leben gerufen, der die American Society of Journalists and Authors, die National Writers Union und das Internet Archive angehören und der auch Unternehmen wie Microsoft, Yahoo und Amazon beigetreten sind.
Diese Allianz unterstellt Google, ein Monopol anzustreben, und kritisiert, dass der Konzern Zugang, Verteilung und Preisniveau der größten digitalen Datenbasis von Büchern weltweit kontrolliert. Demgegenüber setzt sie sich “für faire und flexible Lösungen ein, die darauf abzielen, ein dauerhaftes und offenes System durchzusetzen.”
Tatsächlich hätte das Google Book Settlement weitreichende Folgen für das Urheberrecht. Denn seine Anerkennung würde de facto eine private Urheberrechtsordnung per Gerichtsbeschluss herbeiführen, die internationale Geltung hätte. Zugleich würde damit das Urheberrecht auf den Kopf gestellt: Bislang wurde der Rechteinhaber um Erlaubnis gefragt, bevor sein Werk zu kommerziellen Zwecken verwendet wird. Google hingegen maßt sich an, geschützte Bücher so lange zu verwerten, bis der Autor widerspricht.
Strittig sind insbesondere die verwaisten Werke, also etwa Bücher, deren Rechteinhaber nicht mehr aufzufinden sind. Etwa 60 Prozent der Bestände von Google-Books fallen unter diese Rubrik. Das Settlement würde es Google erlauben, bis zu 20 Prozent ihrer Inhalte werbefinanziert zugänglich zu machen oder auch den Zugang zu den Volltexten bzw. E-Books zu verkaufen. Die Anteile der Autoren und Verlage an den Erlösen soll das Unternehmen an die von Google getragene Book Rights Registry ausschütten, die diese Erträge verwaltet und an die registrierten Rechteinhaber ausschüttet.
Neue Abhängigkeiten
Während der Internetkonzern vorgibt, die Informationen dieser Welt für alle Menschen verfügbar machen zu wollen, errichtet Google in Wirklichkeit längst ein weltweites Informationsmonopol. Die realen Ziele des Unternehmens sind nicht altruistischer Natur, sondern richten sich an den Interessen der eigenen Aktionäre aus.
Das eigentliche Problem besteht darin, dass Bücher bisher werbefreie Zonen waren. Google jedoch ist, wie es der Schriftsteller Peter Glaser auf den Punkt brachte, mehr an dem “weißen Rand” als an deren Inhalte interessiert. Skeptiker bringen daher nicht nur kartell- und wettbewerbsrechtliche Argumente gegen Google Books vor. So machten die US-Bürgerrechtsorganisationen Electric Frontier Foundation und die American Civil Liberties Union ihre Bedenken gegen das Projekt deutlich: Google zeichne das Leseverhalten der Nutzer auf und werte diese Daten aus. Damit sei weder gewährleistet, dass Besucher wie in Bibliotheken oder Buchhandlungen anonym in den Beständen recherchieren können, noch dass Google die gesammelten Informationen nicht an Dritte weitergibt.
Bei Google Books zu stöbern ist damit in etwa so, als würde der Buchhändler unentwegt über die Schulter des Kunden schauen und sich Notizen über dessen Vorlieben machen. Schließlich verdient das Unternehmen mit Hilfe der gesammelten Daten und den auf die Nutzer zugeschnittenen Anzeigen das meiste Geld – fortan auch dann, wenn wir online bei Jorge Luis Borges, Franz Kafka oder George Orwell nachschlagen.
Und es besteht noch ein weiterer Unterschied zum klassischen Buchhandel: Erwirbt der Leser ein urheberrechtlich geschütztes Buch, erhält er bloß den Zugang zu dem Text, der auf einem der zahlreichen Google-Server liegt. Um das Buch auch offline lesen zu können, werden allenfalls einige Seiten auf dem elektronischen Lesegerät zwischengespeichert. Somit werden die Leser nicht in der Lage sein, sich in Zukunft mittels Google eine Sammlung an digitalisierten Werken lokal auf ihrer Festplatte zusammenzustellen. Stattdessen verbleiben die Texte auf den Servern des Konzerns. Vorbei sind damit auch die Zeiten, in denen man ein gekauftes Buch sein Eigen nennen konnte. Faktisch sind die Leser somit vollkommen von Google abhängig.
Der Konzern schweigt sich außerdem darüber aus, nach welchen Kriterien die Texte organisiert und in welcher Rangfolge Suchergebnisse ausgegeben werden. Zu guter Letzt behält sich der Internetkonzern das Recht vor, 15 Prozent der eingescannten nicht mehr lieferbaren Werke wieder aus dem Online- Angebot zu nehmen, sofern sie sich wirtschaftlich nicht rechnen. Ob die Nutzer über das Entfernen der Titel auch in Kenntnis gesetzt werden, ist bislang ungeklärt.
Es gibt somit ausreichend Gründe, Google gegenüber misstrauisch zu bleiben und das Settlement zu kritisieren. Der Vergleich muss noch vom Bundesgericht des Southern District of New York abgesegnet werden. Nachdem die Anhörung auf den 9. November verschoben wurde, haben beide Parteien nun Gelegenheit, eine überarbeitete Version des Vergleichs einzureichen.
Public-Private-Partnership mit Google
Da Google auch Bücher einscannt, an denen deutsche Verlage und Autoren die Rechte besitzen, sorgt man sich auch auf der hiesigen Seite des Atlantiks um den Schutz der Urheberrechte. So äußerten mehr als 750 bundesdeutsche Verleger, Buchhändler und Publizisten in einer gemeinsamen, an die Bundesregierung gerichteten Resolution ihre Bedenken. Der vorliegende Vergleich bedeutet in ihren Augen die Belohnung eines “millionenfachen dreisten Bruchs von Urheberrechten durch Google” und beraubt Autoren und Verlage zugleich “ihres ureigenen Rechts, über die Nutzung ihrer Werke selbst entscheiden zu können.” Für in Deutschland erschienene Werke verhandelt die VG Wort mit Google. Eine Änderung des sogenannten Wahrnehmungsvertrags mit den Rechteinhabern – dazu zählen immerhin 350 000 Autoren und etwa 8000 Verlage – erlaubt es der Verwertungsgesellschaft, Einspruch gegen das Settlement einzulegen und Entschädigung zu fordern.
Allerdings stellt sich die Frage, ob die europäischen Verlage am Ende gar keine andere Wahl haben, als mit Google zu kooperieren. Denn in der “alten Welt” finden sich auch deutliche Befürworter. So plädieren die EU-Medienkommissarin Viviane Reding und der EU-Binnenmarktkommissar Charlie McCreevy dafür, auch die positiven Seiten des Google-Deals zu sehen. Da es auf Seiten der europäischen Staaten an Geldern fehle, eine Alternative zu Googles Scan- Projekt auf die Beine zu stellen, heißen sie die Public-Private-Partnership zwischen den Bibliotheken und dem US-Konzern willkommen. Schließlich sei die Digitalisierung der Bestände “eine Herkulesaufgabe”, die die Mitgliedsstaaten nicht stemmen könnten.
Aus ebendiesem Grund dürfte die EU-Kommission auch die jüngste Einigung zwischen Google und der Bibliothèque Nationale de France (BNF) mit Wohlwollen zur Kenntnis genommen haben. Die BNF vollzog eine unerwartete Kehrtwende und vereinbarte mit dem Konzern die Digitalisierung ihrer nicht urheberrechtlich geschützten Bestände.
Mit Nachdruck hatte Frankreich zuvor noch das europäische Bibliotheksportal Europeana unterstützt, wo bislang 4,6 Mio. Bücher, Musikstücke und Filme eingestellt sind. Allerdings verhindern technische und finanzielle Schwierigkeiten, aber auch die fehlende urheberrechtliche Harmonisierung innerhalb der Europäischen Union, dass das Vorhaben große Schritte nach vorne macht. Allein um die Bestände der Dritten Republik, also die französischen Werke, die zwischen 1871 und 1940 erschienen sind, einzuscannen, werden etwa 70 Mio. Euro benötigt. Beim aktuellen Tempo jedoch, so ermittelte das französische Beratungsunternehmen Ifrap, würden schätzungsweise weitere 312 Jahre benötigt, um eine europäische Alternative zu Googles virtueller Bibliothek aufzubauen.
Die EU ist offenbar nicht gewillt, der gegenwärtigen Entwicklung Einhalt zu gebieten und für die Digitalisierung der hiesigen Bibliotheksbestände ausreichend Gelder bereit zu stellen. Angesichts der Tatsache, dass in den vergangenen Monaten milliardenschwere Rettungsschirme für Banken aufgespannt wurden, kann nicht die Rede davon sein, dass nun die vergleichsweise geringen Mittel fehlen. Doch fatalerweise scheint die EU-Kommission blindes Vertrauen in die Kräfte des Marktes und insbesondere das Privatunternehmen Google zu setzen. Dabei kann auch den verantwortlichen Politikern nicht entgangen sein, mit welcher Chuzpe Google sein aggressives Vorpreschen rechtfertigt.
Heidelberger Missverständnisse
Es ist also sehr zu begrüssen, dass der Konzern vorerst ausgebremst wurde. Die gewonnene Zeit kann und sollte genutzt werden, die Tragweite der aktuellen Entwicklung erkennbar zu machen und veritable Antworten auf die zahlreichen strittigen Fragen zu finden. Ein reger Austausch könnte dazu beitragen, Missverständnisse hinsichtlich der Digitalisierung im Internet zu beseitigen, die auch im Zuge der Debatte um Google Books aufgetaucht sind.
Eine Reihe dieser Irrtümer finden sich in dem “Heidelberger Appell”, der im März 2009 veröffentlicht wurde und “für die Publikationsfreiheit und die Wahrung der Urheberrechte” eintritt. Mehr als 2600 Unterstützer, unter ihnen “Dichter und Denker” wie Siegfried Lenz, Hans-Magnus Enzensberger, Daniel Kehlmann, Julia Franck und Alexander Kluge, protestieren dort gegen die “Entwendung” ihrer Werke im Internet.
Im gleichen Atemzug mit Googles Scan-Projekt kritisieren die Unterzeichner indirekt auch die “Allianz der deutschen Wissenschaftsorganisationen”, die sich für Open Access stark macht. Der Allianz gehören sämtliche bedeutende deutsche Forschungseinrichtungen an, darunter die Deutsche Forschungsgemeinschaft, die Max-Planck-Gesellschaft, die Leibniz-Gemeinschaft und der Deutsche Akademische Austauschdienst. Sie alle befürworten einen möglichst freien Zugang zu wissenschaftlichen Ergebnissen.
Bereits im Februar hatte der Initiator des Heidelberger Appells, der Germanist Roland Reuß, der Open-Access-Bewegung unterstellt, sie verfolge in verfassungswidriger Absicht gar eine “klammheimliche technokratische Machtergreifung”. Es fällt schwer, Reuß nicht Unkenntnis oder gar Böswilligkeit zu unterstellen. Denn er übersieht, dass Open Access im Vergleich zu Google als Eigeninitiative aus der Wissenschaft heraus entstanden ist und nicht vorrangig kommerzielle Interessen verfolgt.
Gegen die dreifache Förderung
Derzeit stecken die Modelle von Open Access noch in den Kinderschuhen und müssen auf ihre Tauglichkeit erprobt werden. Fest steht bereits: Nachdem eine offensichtliche Fehlfunktion des Marktes zu einer weitgehenden Enteignung der Autoren geführt hat, deutet sich mit den Open-Access-Initiativen eine notwendige wie begrüssenswerte Korrektur auf dem wissenschaftlichen Publikationsmarkt an.
Die Unterstützer der Open-Access-Bewegung nennen vorrangig zwei Hauptmotive für ihr Anliegen: Zum einen sind viele Hochschulbibliotheken nicht länger bereit, die in den letzten Jahren außerordentlich stark gestiegenen Kosten für wissenschaftliche Journale aufzubringen. Schließlich sind die Bezugspreise vor allem für naturwissenschaftliche Zeitschriften seit den 90er Jahren überdurchschnittlich gestiegen – um bis zu 30 Prozent pro Jahr. Betroffen sind dabei vor allem die STM-Disziplinen, also Science, Technology und Medicine. Die Ursache für diese Entwicklung liegt in der Ausdünnung des Marktes, den sich nur noch wenige Zeitschriftenverlage untereinander aufteilen. Erschwerend kommt hinzu, dass eine Vielzahl der akademischen Bibliotheken zu Einsparungen gezwungen ist; ihnen stehen in der Regel heute deutlich weniger Mittel zur Verfügung als noch vor einigen Jahren.
Zum anderen sind die Autoren zumeist gezwungen, ihre Nutzungsrechte vollständig an die Verlage abzutreten – insbesondere, wenn sie ihre Beiträge in renommierten Wissenschaftsjournalen unterbringen möchten.
Die Wissenschaftsorganisationen wenden sich deshalb gegen die dreifache Förderung der Publikation durch die öffentliche Hand. Die Publikation wissenschaftlicher Beiträge wird in der Regel mit der Auszahlung von Gehältern oder der Unterstützung durch Stipendien ermöglicht. Die Bibliotheken müssen dann mit ihren Etats die Abonnements der Zeitschriften bezahlen, in denen die Wissenschaftler ihre Forschungsergebnisse veröffentlichen. Schließlich übernehmen die Geistesarbeiter, zumeist kostenfrei, noch die Peer Review, die wissenschaftliche Begutachtung der Beiträge.
Die Nutznießer dieser Situation sind daher bisher vor allem die Fachzeitschriftenverlage gewesen. So hat der Branchenführer Elsevier im Jahr 2008 einen Umsatz von 6,7 Mrd. Euro erzielt. Das macht immerhin gut zwei Drittel dessen aus, was die gesamte bundesdeutsche Buchbranche im gleichen Zeitraum erwirtschaftete, nämlich 9,6 Mrd. Euro. Der Gewinn des Wissenschaftsverlages betrug nach Steuern 1,3 Mrd. Euro.
Die “schamlosen Enteigner” sitzen somit in Wahrheit weniger im Internet als vielmehr in den wissenschaftlichen Fachverlagen. Daher kann auch nicht die Rede davon sein, dass Open Access die Abschaffung des Urheberrechts oder gar die Zerschlagung einer freien deutschen Verlagszene bedeutet.
Das Ziel der Open-Access-Bewegung ist vielmehr der verbesserte und kostengünstige Zugang zu Informationen aus Forschung und Wissenschaft. Die Initiative verfolgt im Detail zwei Strategien. Auf der einen Seite den “Grünen Weg”: Hier veröffentlichen Wissenschaftler ihre Ergebnisse weiterhin in den Zeitschriften, allerdings machen sie die Texte – in Absprache mit den Fachverlagen – nach beispielsweise sechs Monaten auch über Open-Access-Datenbanken frei zugänglich (womit sie, insbesondere in den Naturwissenschaften, bereits als “veraltet” und damit als ökonomisch uninteressant gelten.)
Der “Goldene Weg” auf der anderen Seite beschreibt die Veröffentlichung in frei zugänglichen Online-Fachzeitschriften. Autoren publizieren ihre Ergebnisse direkt in einem Verlag, der den Kriterien der Bewegung verpflichtet ist. Diese belassen den Wissenschaftlern ihre Rechte an den Texten und kümmern sich ebenfalls um die Peer Review sowie die Pflege der Datenbanken.
Um die Veröffentlichungsplattformen zu finanzieren, erheben einige Verlage Gebühren für die Publikation der Texte, die von den Autoren bzw. deren Arbeitgebern, etwa den Forschungseinrichtungen, beglichen werden. Beispiele aus der Forschungsgemeinschaft belegen, dass die Publikationskosten mit Hilfe von Open Access dramatisch gesenkt werden können. Besonders erfolgreich ist hier “ArXiv”, wo seit 1991 Nachdrucke naturwissenschaftlicher Publikationen bereits kostenfrei online zugänglich gemacht werden. Die Publikationskosten belaufen sich auf gerade einmal 1 bis 5 US-Dollar pro Artikel.
Die Informationsgesellschaft von morgen
Die gegenwärtigen Diskussionen machen eines deutlich: Um angemessen auf die Medienrevolution reagieren zu können, braucht es mehr als die Einzelfallentscheidung eines New Yorker Gerichts oder den Appell eines Heidelberger Germanisten.
Wir befinden uns heute inmitten einer kulturpolitischen Auseinandersetzung, in deren Verlauf alle Seiten jahrhundertealte Gewissheiten hinterfragen müssen. Diese Debatte um die Konsequenzen des Medienwandels für Urheber, Verwerter und Leser wird sich auf drei Feldern abspielen. Sie müssen gemeinsam für die Zukunft eine Balance zwischen dem öffentlichen Interesse an einem möglichst offenen Zugang zu Kulturgütern, dem Schutz der Urheberrechte und dem Recht auf privatwirtschaftliche Verwertung schöpferischer Leistungen finden.
Zum einen macht der Konflikt um Google Books deutlich, dass ein politischer Rahmen für Vorhaben dieser Art benötigt wird. Angesichts der Risiken und gesellschaftlichen Kosten, die das Google-Book-Projekt birgt, müssen außerdem alternative öffentliche Strukturen geschaffen werden, die der Herausbildung eines Quasi-Monopols entgegenwirken.
Auch die Digitalisierung der kulturellen Schätze sollte – wie ihre bisherige Verwaltung – so weit wie möglich eine Aufgabe öffentlicher und demokratisch kontrollierter Einrichtungen bleiben. Dies freilich kann nur gelingen, wenn der politische Wille vorhanden ist, die dafür notwendigen Mittel bereitzustellen.
Zum Zweiten muss der Urheberrechtsschutz, als das “Arbeitsrecht der Kreativen”, dem gegenwärtigen Wandel der Informationsgesellschaft angepasst werden. Die Digitalisierung ermöglicht es mit einfachen Mitteln und ohne Qualitätseinbußen, eine beliebige Anzahl gleichwertiger Audio-, Video- oder auch Schriftdokumente herzustellen. Das Kopieren im Internet ist dabei längst zu einer Kulturtechnik geworden.
Versuche dagegen vorzugehen, erschöpfen sich meist in repressiven Lösungen, mit dem Resultat, dass eine ganze Generation von Tauschbörsennutzern kriminalisiert wird, allerdings ohne dass die Downloadzahlen signifikant zurückgegangen wären. Das Urheberrecht im Internet wird weiterhin tagtäglich und weltweit verletzt – wenn auch im weit kleinerem Rahmen als von Google. Dabei mangelt es zumeist auch an Bewusstsein, dass allen voran Künstler auf die Entschädigung ihrer Leistungen angewiesen sind, damit sie ihre schöpferische Tätigkeit fortsetzen können.
Hiermit ist drittens die entscheidende Frage angesprochen: Wer bezahlt, wenn möglichst viele Werke frei zugänglich sein sollen? Hier ist vor allem eine Debatte um ein neues Regulations- und Entschädigungsmodell notwendig.
So wird beispielsweise die “Kulturflatrate” kontrovers diskutiert, um den Gordischen Knoten der “Informationsgesellschaft” zu zerschlagen. Sie sieht vor, zu den Gebühren für den eigenen Internetanschluss eine zusätzliche geringe Summe zu zahlen, deren Erlöse nach dem Vorbild bestehender Verwertungsgemeinschaften unter den Künstlern nach einem bestimmten Schlüssel verteilt wird.
Befürworter einer Kostenpauschale führen an, dass die Urheber unmittelbar entschädigt würden, auf diese Weise die “Kostenlos-Kultur” im Internet ausgehebelt und eine Kriminalisierung der Nutzer überflüssig werde. Die Skeptiker sehen in der Pauschale hingegen eine bürokratische Zwangsabgabe, die anfällig für Manipulationen sei. Sie kritisieren auch die “Gleichmacherei”, da verbindliche Vergütungskriterien und -quoten gefunden werden müssten, was einer kommerziellen Distribution und der Preisfindung über den “freien Markt” entgegen stehe.
Das Institut für Europäisches Medienrecht kam in einem von Bündnis 90/ Die Grünen in Auftrag gegebenen Gutachten jüngst zu dem Schluss, dass die Kulturflatrate nach nationalem und europäischem Recht möglich und wirtschaftlich durchsetzbar sei. Bei der Pauschalvergütung für Up- und Downloads in Tauschbörsen handele es sich schlicht um “die logische Konsequenz der technologischen Revolution, die durch das Internet erfolgt ist.” Der Soziologe Volker Grassmuck sieht in den Tauschbörsen gar den perfekten Markt, da sich hier Angebot und Nachfrage “frei von externen Faktoren wie Monopolinstitutionen ausbalancieren.”
Die Kulturflatrate könnte in der Tat eine Alternative zum Status quo bieten – und zugleich die bisherige Kulturökonomie vom Kopf auf die Füsse stellen. In Zeiten der Digitalisierung wird unser Wissen zunehmend beweglicher. Große Beweglichkeit ist auch bei der Suche nach den – möglicherweise auch unorthodoxen – Reaktionen auf den Medienwandel gefragt.
Wir stehen vor einem Scheideweg: Es liegt in unserer Hand, ob die weltweiten Bibliotheksbestände entweder in die Hände Googles fallen und damit faktisch monopolisiert werden. Oder aber wir nutzen die sich bietende Gelegenheit und setzen uns für einen möglichst freien Zugang zum Wissen dieser Welt ein, der zu allererst dem Gemeinwohl statt den privatwirtschaftlichen Interessen von Weltkonzernen zugute kommt.