oa books

Sarah-Mai Dang

Seite 2 von 4

Leistungsschutzrechte, Remix-Kultur und Freies Wissen – Zur kreativen Nachnutzung seit dem Sampling-Urteil des Bundesverfassungsgerichts

Kunstfreiheit schlägt Eigentum“ titelte Ende Mai dieses Jahres die Online-Ausgabe der Legal Tribune, als das Bundesverfassungsgericht (BVerfG) seine Entscheidung in Sachen „Metall auf Metall“ bekanntgab. In der Musik- und vor allem in der HipHop-Szene war das Urteil im Streit zwischen Moses Pelham und der Band Kraftwerk mit Spannung erwartet worden, sollte es doch ein für allemal regeln, ob Sampling – das Verwenden von Tonausschnitten aus fremden Werken in der eigenen Produktion – erlaubt ist oder nicht.

Aber nicht nur für professionelle Musiker:innen ist das Urteil interessant, sondern auch für Musikfans, die aus den Werken ihrer Idole neue Tracks zusammenschneiden und so neue Kunst schaffen wollen. Technische Fortschritte, insbesondere Digitalisierung und Internet, haben Herstellungs- und Grenzkosten in Ton und Film stark gesenkt, wie ich in meinem letzten Beitrag ausführte. Das hat eine neue Form der Remix-Kultur entstehen lassen, die wohl niemand so eloquent, passioniert und enthusiastisch beschrieben hat wie der Rechtswissenschaftler und Creative Commons-Mitgründer Lawrence Lessig.1 Die Remix-Kultur lässt die Grenzen zwischen Produzent:innen und Konsument:innen verschwimmen oder hebt sie sogar ganz auf und schafft den neuen Typus der Prosument:innen: Personen, die sich der Werke anderer bedienen, um sich selbst kreativ auszudrücken.

Anstatt hier das Sampling-Urteil selbst im Detail zu analysieren, möchte ich es in den größeren Kontext der kreativen Nachnutzung einordnen, weil es meines Erachtens zu kurz greift, das Urteil allein an der Kunstfreiheit zu messen. Die alte Rechtsprechung des Bundesgerichtshofs (BGH) ordnete für leistungsschutzrechtlich geschützte Inhalte2 ein strengeres Schutzniveau an als für urheberrechtlich geschützte Werke. Durch seine Auslegung, auch kleinste Tonfetzen seien vom Leistungsschutzrecht des Tonträgerherstellers3 umfasst, verkürzte der BGH aber nicht nur die Kunstfreiheit nachfolgender Urheber, sondern schmälerte allgemein die Domäne Freien Wissens, die Ursprung aller Kreativität ist.4 Das Urteil des BVerfG könnte nun zu einer Änderung dieser Bewertung führen; das ist jedoch keineswegs sicher.

Formen der kreativen Nachnutzung
Mit kreativer Nachnutzung meine ich die Verwendung von Werken, Inhalten oder Teilen davon zur Erstellung eines neuen Werks. Das deutsche Urheberrechtsgesetz (UrhG) kennt, bzw. reguliert, drei Formen: das Zitat, die Bearbeitung und die freie Benutzung.5

Ein Zitat gemäß § 51 UrhG ist nur die unveränderte Übernahme eines Werkteils oder Medienteils zu Zwecken der inhaltlichen Auseinandersetzung. Die Quelle muss genannt werden und der Zweck die Nutzung in ihrem Umfang rechtfertigen. Man darf also nicht einfach einen kompletten Zeitungsartikel übernehmen und mit einer eigenen Überschrift versehen. Ebenso wenig darf man eigene Musik- oder Filmproduktionen einfach mit Ausschnitten aus fremden Aufnahmen garnieren, ohne dass dabei eine inhaltliche Auseinandersetzung stattfindet. Als rechtliche Grundlage für Remixes taugt das Zitatrecht also nicht.

Eine Bearbeitung gemäß § 23 Abs. 1 UrhG meint die Veränderung oder Umgestaltung des Werks, z.B. eine Übersetzung oder Dramatisierung. Grundsätzlich ist die Bearbeitung ohne Genehmigung möglich; allein ihre Veröffentlichung bedarf der Erlaubnis der ursprünglichen Urheber.6 Ausnahmen sind z.B. die Ausführung von Plänen für bildende Kunst, der Nachbau von Baukunstwerken und auch die Verfilmung. Bei diesen Nutzungen ist der Gesetzgeber bei Schaffung des UrhG davon ausgegangen, dass sie nur im kommerziellen Rahmen betrieben werden, also nicht Privatpersonen, sondern nur Wettbewerber betreffen würden, und ordnete ein Verbot an. Angesichts der Tatsache, dass es heute möglich ist, mit einem Telefon Videoaufnahmen herzustellen, ist diese Regelung für Verfilmungen nicht mehr zeitgemäß.

Eine freie Benutzung gemäß § 24 UrhG liegt vor, wenn ein:e Künstler:in sich bei der Schaffung eines Werks von anderen Werken inspirieren lässt. Das wird für Rezipient:innen allerdings gar nicht immer erkennbar sein. Ob eine Krimiautorin eher von Elizabeth George oder von Agatha Christie beeinflusst wird, ist ihren Geschichten nicht unbedingt zu entnehmen.

Nachnutzung und Urheberrecht
Um das Urheberrecht an einem Werk überhaupt zu berühren, muss ein bei der Nachnutzung verwendeter Teil dieses Werk über eine freie Benutzung hinaus gehen. Abstrakte Ideen sind nicht vom Urheberrecht umfasst. Sie müssen schöpferisch konkretisiert worden sein und die Nachnutzung muss auf diese schöpferische Konkretisierung zugreifen. Ist das der Fall, so handelt es sich um eine Bearbeitung, deren Veröffentlichung von der Genehmigung der Urheber des früheren Werks abhängt. Die unveränderte Übernahme kann als Zitat zulässig sein.

Für Sprachwerke gilt, dass nicht der Inhalt eines Textes geschützt ist, sondern die konkrete Formulierung. Auch die Bausteine des Textes können nicht vom Urheberrecht umfasst sein. Alle Texte bestehen aus Wörtern und diese müssen für die Allgemeinheit verwendbar bleiben, dürfen nicht monopolisiert werden. Nur Formulierungen von ausreichender Länge und Kreativität rechtfertigen Urheberrechtsschutz. Den Satz „Bei einem Wohnhausbrand in Weimar wurden zwei Menschen verletzt.“ darf ich hier ohne Quellenangabe veröffentlichen, weil er so generisch ist. Die Zeilen „Und leiden nicht, daß sich die letzten Kohlen; Von unsers Hauses Schreckensbrande still; In mir verglimmen“ dagegen sind so individuell und schöpferisch, dass sie Schutz verdienen. Sie dürfte ich nicht ohne Weiteres verwenden, wenn Johann Wolfgang von Goethes Urheberrecht auf seine Iphigenie auf Tauris nicht mittlerweile abgelaufen wäre.

Wer solch kreative Formulierungen verwenden will, darf sie zitieren, aber eben nur zum Zweck des Belegs und nur in einem Umfang, den dieser Zitatzweck rechtfertigt. Hierzu fällte das BVerfG im Jahr 2000 eine Grundsatzentscheidung. Der Fall betraf die Verwendung von Texten Bertolt Brechts im Drama „Germania 3“ des Autors Heiner Müller. Dieser hatte die Erben Brechts vor der Veröffentlichung nicht um eine Genehmigung ersucht. Sie ließen daher den Vertrieb des Stücks verbieten, wogegen Müllers Verlag schließlich Verfassungsbeschwerde erhob.

Das BVerfG entschied, das Verbot verletze die Kunstfreiheit. Die Zitatschranke aus § 51 UrhG sei im Hinblick auf Art. 5 Abs. 3 Satz 1 GG verfassungsgemäß auszulegen. In diese „kunstspezifische Betrachtungsweise“ müsse die Kollision zwischen der Kunstfreiheit und der Eigentumsgarantie aus Art. 12 Abs. 1 GG mit einbezogen werden. Die Verwertungsinteressen der Brecht-Erben seien hier nicht beschädigt. Daher müsse ihr Urheberrecht hinter die Kunstfreiheit bzgl. des neuen Werks zurücktreten.

Als Musikwerk geschützt sind Noten und ggfs. Text eines Musikstücks. Auch bei Musikwerken sind Zitate zulässig, sie bedürfen aber ebenfalls eines Zitatzwecks. Der kann z.B. in einer Hommage liegen, muss aber den Umfang des Zitats rechtfertigen. Melodien sind zudem besonders geschützt; gemäß § 24 Abs. 2 UrhG darf eine Melodie nicht „erkennbar dem Werk entnommen und einem neuen Werk zugrunde gelegt“ werden. Ab wann eine Tonfolge eine Melodie darstellt, ist wiederum Auslegungssache.

Keine kreative Nachnutzung sind sog. Cover von Liedern. Wer sich – wie ich – beim Anhören einer Coverversion schon einmal gefragt hat, warum die Urheber etwas erlauben, das entweder völlig grauenhaft ist und ihr Lied entstellt oder sogar besser ist als das Original und ihren Gewinn schmälern wird, der/dem sei gesagt: Das müssen sie gar nicht. Das unveränderte „Nachsingen“ eines Liedes ist nämlich keine Bearbeitung, sondern eine Vervielfältigung. Und die Vervielfältigungsrechte haben Musikurheber in den allermeisten Fällen an eine Verwertungsgesellschaft abgetreten – in Deutschland an die GEMA. Diese ist gemäß § 32 Verwertungsgesellschaftengesetz (bis 31.05.2016 gemäß § 11 Urheberrechtswahrnehmungsgesetz) verpflichtet, „jedermann auf Verlangen zu angemessenen Bedingungen Nutzungsrechte einzuräumen“. Wer covert, zahlt an die GEMA, und diese schüttet die Einnahmen nach den Bedingungen ihres Verteilungsplans an Musikurheber und Musikverlage aus.7

Beim Filmwerk wird die Sache kompliziert. Als Urheber gelten dort immer die Hauptregisseurin, die Komponistin der Filmmusik, die Drehbuchautorin und – sofern abweichend – die Dialogautorin. Je nach Kreativität ihrer Beiträge können auch Cutter, Kameraleute und andere ein Urheberrecht erwerben.8

Für die Nachnutzung von Drehbuch, Dialog und Musik gelten die soeben erläuterten Regeln. Ob der Schnitt einer Szene, eine bestimmte Einstellung oder Kamerafahrt so eindeutig ein anderes Werk nachahmen, dass sie als Bearbeitung gelten und damit genehmigungspflichtig sein sollten, hängt wiederum vom Einzelfall ab.

Als abstrakte Idee grundsätzlich nicht schützbar ist die erfundene Geschichte, die einem Sprachwerk, Film, Theaterstück oder Videospiel zugrunde liegt. Ausnahmsweise können jedoch schon einzelne Elemente einer Geschichte so kreativ sein, dass Dritte sie nicht ohne Genehmigung verwenden dürfen. Die Abgrenzung zwischen Bearbeitung und freier Benutzung fällt hier besonders schwer. So ist für manche Filmfans der Plot von John Woos Mission: Impossible 2 bloß eine Hommage an Alfred Hitchcocks Notorious, für andere dagegen klarer „Ideenraub“.

Insbesondere erfundene Charaktere können Schutz genießen. Sogenannte „Fan Fiction“ – das Weitererzählen der Erlebnisse beliebter Figuren durch Fans – berührt daher stets das Urheberrecht. Einige Autor:innen dulden die Praxis, solange die Fans kein Geld damit verdienen und das Original am Markt nicht verdrängt wird. Der Veröffentlichung von Fan Fiction in privaten Internetforen oder auf nicht kommerziellen Webseiten ist ohnehin praktisch kaum beizukommen.

Auf die Verwendung des jeweiligen Namens kommt es nicht an. Auch Charaktereigenschaften und besondere äußerer Merkmale können Gegenstand des Urheberrechts sein, wenn sie einer Figur eine unverwechselbare Persönlichkeit verleihen. Dabei ist laut Rechtsprechung des BGH aber ein strenger Maßstab anzulegen.9

Insgesamt gilt im Urheberrecht stets und für alle Werkarten: Nicht die einzelnen Bausteine sind geschützt, sondern das Gesamtgefüge; nicht Wörter, sondern Texte, nicht Töne, sondern Melodien, nicht Tanzschritte, sondern Choreographien, nicht Farben, sondern Bilder, nicht Ideen, sondern deren konkrete kreative Ausführung. Eine klare Grenze, wo das eine aufhört und das andere beginnt, gibt es selten. Aber es ist wichtig, dass die Bausteine der Kreativität frei verfügbar bleiben. Sie gehören zur Domäne des Freien Wissens, zur public domain, ohne welche Kreativität nicht möglich wäre.

Nachnutzung und Leistungsschutzrechte
Während das BVerfG im Jahr 2000 in „Germania 3“ eine Kollision zwischen der Kunstfreiheit und dem Urheberrecht lösen musste, befasste sich der BGH etwas zur selben Zeit im Fall „Mattscheibe“ mit einer Kollision zwischen der Kunstfreiheit und dem Leistungsschutzrecht des Film- und Laufbildherstellers. Der Komiker Oliver Kalkofe hatte Ausschnitte aus Fernsehprogrammen unverändert übernommen und sich dann kritisch mit diesen auseinandergesetzt. Diese Kritik ließ der BGH genügen, um die Nutzung als Satire für zulässig zu erklären. Anders als das BVerfG stützte er sich dabei nicht auf das Zitatrecht, sondern ordnete die Verwendung der Ausschnitte als freie Benutzung analog10 § 24 Abs. 1 UrhG ein.

Wie ebenfalls in meinem letzten Beitrag ausgeführt, sollen Leistungsschutzrechte nicht Kreativität schützen, sondern Investitionsanreize setzen. Die große Frage, welche die Gerichte zuletzt in „Metall auf Metall“ beschäftigte, lautet daher: Kann es angesichts der unterschiedlichen Zielsetzung von Urheberrecht (das die Urheber schützt) und Leistungsschutzrecht (das Investitionen der Hersteller und Verwerter schützt) eine der Schöpfungshöhe vergleichbare Mindestschwelle geben, unterhalb derer das Schutzrecht gar nicht berührt wird? Gibt es auch in diesem Bereich Bausteine, die frei verfügbar bleiben sollten?

Für die Rechte der Hersteller von Filmen, Laufbildern und Tonträgern verneinte der BGH diese Frage. In „Mattscheibe“ waren die Ausschnitte so lang, dass er sich nicht dazu hatte äußern müssen. Im Jahr 2007 urteilte er im Fall „TV Total“, auch kleinste Teile einer Videoaufnahme seien vom Recht des Film- bzw. Laufbildherstellers aus §§ 94, 95 UrhG umfasst.

Ein Jahr später wandte der BGH diese Wertung auch auf das Recht des Tonträgerherstellers an. Bei der Produktion des Songs „Nur Mir“ hatte Moses Pelham im Jahr 1997 zwei Sekunden aus der Aufnahme des Lieds „Metall auf Metall“ von Kraftwerk geloopt und als Beat verwendet. Kraftwerk sind selbst Inhaber des Herstellerrechts und klagten gegen den Vertrieb des neuen Songs. Der BGH entschied, das Herstellerrecht umfasse auch „kleinste Tonfetzen“. Anders als das Urheberrecht schütze § 85 Abs. 1 UrhG keine besondere Kreativität, sondern die wirtschaftliche, organisatorische und technische Leistung, die zur Festlegung von Tönen auf Trägern erforderlich sei.

Da der Tonträgerhersteller diese unternehmerische Leistung für den gesamten Tonträger erbringt, gibt es keinen Teil des Tonträgers, auf den nicht ein Teil dieses Aufwands entfiele und der daher nicht geschützt wäre.11

Anders als das Urheberrecht schützen Leistungsschutzrechte nach dieser Ansicht also sehr wohl die Bausteine. Sie wären demnach stärker als das Urheberrecht, was dem Urteil viel Kritik eingebracht hat.12

Pelham erhob schließlich Verfassungsbeschwerde gegen die Urteile – und bekam Recht. Wieder rügte das BVerfG, der BGH sei hier dem Erfordernis der „kunstspezifischen Betrachtungsweise“ nicht nachgekommen. In „Mattscheibe“ habe er – im Ergebnis richtig – einen satirischen Zweck ausreichen lassen. Dieser sei aber nicht nötig; auch Sampling zu „tongestalterischen Zwecken“ müsse erlaubt sein, solange es nicht zu erheblichen wirtschaftlichen Nachteilen für den Tonträgerhersteller führe. Ansonsten wäre eine ganze Musikrichtung praktisch verboten, nämlich der HipHop, der viel auf Sampling setzt.

Das BVerfG hat den Fall an den BGH zur erneuten Entscheidung zurückverwiesen und angemerkt, dass die gebotene Abwägung nicht im Rahmen der freien Benutzung gemäß § 24 Abs. 1 UrhG zu erfolgen habe. Statt dessen könne sich der BGH auch auf das Zitatrecht aus § 51 UrhG stützen oder bloße Tonfetzen von vornherein aus dem Anwendungsbereich des Leistungsschutzrechts des Tonträgerherstellers nach § 85 Abs. 1 UrhG herausnehmen. Für diese Auslegung hatte sich während des Verfahrens sogar die Bundesregierung(!!) in einer Stellungsnahme ausgesprochen.13

Für Texte existierten bis 2013 keine Leistungsschutzrechte; aus gutem Grund, denn es fehlt an einer der Ton- oder Filmaufnahme vergleichbaren Fixierung. Das neue Leistungsschutzrecht des Presseverlegers nimmt deshalb „einzelne Wörter und kleinste Textausschnitte“ ausdrücklich von seinem Anwendungsbereich aus. Es will augenscheinlich nicht die Bausteine der Sprache monopolisieren. Dennoch bleibt es ein Fehlgriff, denn was „kleinste Textausschnitte“ sind, müssen nun die Gerichte klären. Fassen sie den Rahmen weit, bleibt das Recht wirkungslos, fassen sie ihn eng, wird es zu einem Monopol auf Sprache.

Dessen ungeachtet versucht die EU-Kommission gerade, das Leistungsschutzrecht, das in Deutschland als so gut wie gescheitert gilt, auf europäischer Ebene einzuführen.

Fazit
Für welche Lösung sich der BGH in Sachen „Metall auf Metall“ entscheidet, bleibt nun abzuwarten. Den Interessen der Leistungsschutzberechtigten wäre auch dann ausreichend Rechnung getragen, wenn ein Eingriff in ihre Schutzrechte erst dann angenommen würde, sobald das Sampling von Musik- oder auch Filmausschnitten ihre eigene Verwertung spürbar beeinträchtigt. Ein entsprechendes Urteil des BGH könnte die Remix-Kultur mit dem deutschen Urheberrecht ein gutes Stück kompatibler machen. Weitere Anpassungen oblägen dann dem Gesetzgeber.14

Die Leistungsschutzrechte wurden ursprünglich zum Schutz vor kommerziellen Wettbewerbern geschaffen. Je mehr der technische Fortschritt die Mittel zur Produktion und Veränderung von Kulturgütern in die Hände von Privatpersonen legt, desto mehr greifen die Schutzrechte in deren Privatleben ein und machen die Kreativität der Prosument:innen illegal. Ihr schöpferisches Potential bleibt ungenutzt. Solange Sampling den Investitionsschutz nicht spürbar schmälert, indem es das ursprüngliche Werk verdrängt, sollten auch bei Aufnahmen die Bausteine frei benutzbar bleiben.

Wie schon in „Germania 3“ betont das BVerfG ausdrücklich die Bedeutung des intellektuellen Gemeineigentums, des Freien Wissens, der public domain:

[E]in Werk [steht] mit der Veröffentlichung nicht mehr allein seinem Inhaber zur Verfügung, sondern tritt bestimmungsgemäß in den gesellschaftlichen Raum und kann damit zu einem eigenständigen, das kulturelle und geistige Bild der Zeit mitbestimmenden Faktor werden.15

Mehr noch als reale Eigentumsrechte haben Immaterialgüterrechte eine Sozialbindung. Ihre Existenz soll nicht allein ihren Inhaber:innen dienen, sondern Anreize für neue Kreativität setzen und damit letztlich der Allgemeinheit zugute kommen. Richtig eingesetzt, werden sie nach ihrem Ablauf die public domain vergrößert haben. Wenn sie Kreativität unterdrücken statt fördern, verfehlen sie ihr Ziel und verlieren ihre Berechtigung.

Marion Goller ist Juristin und forscht über Urheberrecht, Patentrecht, Freie Lizenzen und die Wissensallmende. Seit September 2016 ist sie Stipendiatin im Fellow-Programm „Freies Wissen“ des Wikimedia Deutschland e.V. und des Stifterverbands. Mail: marion.goller@oabooks.de, Twitter: @MarionGoller.

 

1. Lawrence Lessig: „Remix, Making Art and Commerce thrive in the Hybrid Economy“; Lessigs wunderbarer Vortrag desselben Titels ist online zu finden unter YouTube: Lawrence Lessig – Remix.

2. Zur Erinnerung: Werk ist nur, was die Schöpfungshöhe erreicht, siehe mein letzter Beitrag.

3. Im Text verwendete generische Maskulina sind dem Wortlaut des Gesetzes geschuldet.

4. Der Filmemacher Kirby Ferguson demonstriert in seiner exzellenten Webserie Everything is a Remix, wie nahezu unsere gesamte Kultur und Technologie aus der Kopie, Transformation und Rekombination bekannten Wissens besteht.

5. Das Copyright der USA hat eine „fair use“ genannte, sehr offene und flexible Schranke; dazu vielleicht in einem späteren Beitrag mehr.

6. Erreicht die Bearbeitung die notwendige Schöpfungshöhe, so entsteht an ihr wiederum ein Urheberrecht. Auch ungenehmigt ist sie nicht urheberrechtsfrei. Das neue Urheberrecht ist jedoch wieder nur ein Verbotsrecht. Es berechtigt nicht zur Nutzung, wenn dadurch Urheberrechte an den Quellen verletzt werden.

7. Ob die Ausschüttung an die Musikverlage nach dem Urteil des BGH in Sachen VG Wort noch als rechtmäßig gelten kann, darf bezweifelt werden.

9. Vergleiche das Urteil Pippi Langstrumpf, Randnummer 29.

10. Die Analogie war nötig, weil § 24 direkt nur für Urheberrechte gilt, nicht auch für das hier betroffene Leistungsschutzrecht am Laufbild.

11. Siehe Randnummer 14 im Urteil des BGH.

12. Das Sampling sollte laut dem BGH trotzdem als freie Benutzung analog § 24 Abs. 1 UrhG erlaubt sein, wenn es nicht möglich sei, die verwendete Tonfolge selbst einzuspielen. Mit dieser Einschränkung wollte der BGH die Nachnutzung doch noch ermöglichen. Er verkannte aber, dass es beim Sampling gerade darum geht, Tonausschnitte unverändert zu übernehmen, sodass diese für den Zuhörer erkennbar sind. Trotz dieser Kritik bestätigte der BGH sein Urteil vier Jahre später, als der Fall erneut zu ihm gelangte; siehe Urteil Metall auf Metall II.

13. Siehe Randnummer 53 im Urteil des BVerfG.

14. Die Initiative Recht auf Remix fordert seit einigen Jahren entsprechende Änderungen des Urheberrechts. Die Berichterstatterin im Europaparlament, Julia Reda, forderte im Jahr 2014 in ihrem Entwurf eines Berichts über die Umsetzung der relevanten Richtlinie ebenfalls ein solches Recht. Leider gehen die Pläne der EU-Kommission teilweise in die entgegengesetzte Richtung.

15. Siehe Randnummer 87 im Urteil des BVerfG.

Dieser Beitrag wurde am 05.10.2016 veröffentlicht und am 31.10.2016 leicht verändert.

Peer Review in Zeiten von Open Access

Mit der zunehmenden Verbreitung von Open Access stellt sich die Frage nach der Rolle klassischer Peer Review neu. Denn digitale Veröffentlichungspraktiken erlauben alternative Verfahren wissenschaftlicher Qualitätssicherung.

Über die Schwachstellen von Peer Review (subjektiv, willkürlich, undurchsichtig, langsam, ineffizient) wird viel diskutiert. Doch nach wie vor stellt Peer Review – die offizielle Begutachtung von Texten durch renommierte Wissenschaftlerinnen – eine anerkannte Praxis dar. Peer reviewed Artikel oder Bücher gelten als hochwertiger im Vergleich zu Texten, die auch ohne formelle Freigabe ihren Weg in die Öffentlichkeit finden. Zunehmend gilt die Kategorie auch in den Geisteswissenschaften als ein Gütesiegel, das auf keiner Publikationsliste fehlen sollte.

Doch gibt es tatsächlich Unterschiede zwischen offiziell begutachteten Texten und jenen, die schlichtweg eine Herausgeberin begeistern oder gar von der Autorin eigenständig veröffentlicht werden? Wie sinnvoll ist Peer Review im digitalen Zeitalter, wo es de facto keine physische Platzbeschränkung mehr für Texte gibt? Wie hat Open Access die Bewertung von Texten verändert?

Die Aussagekraft von Gutachten
Peer Reviewer dienen als Gatekeeper. Gutachterinnen sollen dafür sorgen, dass nur Texte, die wissenschaftlichen Standards (Originalität, Schlüssigkeit, Nachprüfbarkeit) genügen, publiziert werden. Damit soll die Qualität von Forschung gewährleistet werden.

Welche Kriterien wirklich maßgebend für die Gutachten sind, ist allerdings nicht immer ersichtlich. Im besten Fall erhält man von Reviewern konstruktives Feedback und der Text gewinnt an Prägnanz, die Argumentation an Schlagkraft. Im schlimmsten Fall nutzen Gutachterinnen ihre Position, um unliebsame Theorien, also ihre Konkurrenz auszubremsen. Originelle Arbeiten bleiben dann im Dunkeln, die Forschung stagniert (s. auch „Does Science Advance One Funeral at a Time?“).

Nicht von der Hand zu weisen ist jedenfalls, dass die individuelle Prädisposition einer jeden Gutachterin immer eine Rolle spielt im Begutachtungsprozess. Dies ist umso wichtiger zu bedenken, wenn nur eine einzige Person über die Veröffentlichung entscheidet. Neben objektiven Kriterien bestimmen in der Regel allgemeine, oftmals unbewusste Vorurteile gegenüber der Autorin (etwa aufgrund des Namens, der Reputation, des Herkunftslandes oder des Geschlechts) die Entscheidung. Wie aussagekräftig ist also das Prädikat „peer reviewed“?

Unterschiedliche Standards und Verfahren
Peer Review ist nicht gleich Peer Review. Die Begutachtungsverfahren können sich nicht nur von Verlag zu Verlag unterscheiden, sondern auch von Zeitschrift zu Zeitschrift. So werden manchmal nur ein einziges Gutachten, manchmal zwei oder mehr eingeholt. Manche Peer Review-Verfahren sind „single blind“, d.h. die Gutachterin kennt den Namen der Autorin, die Autorin aber nicht jenen der Gutachterin; manche Verfahren gehen „double blind“ von statten, d.h. beide, Gutachterin und Autorin, bleiben anonym. Um Transparenz in die unterschiedlichen Verfahren zu bringen und sie vergleichbar zu machen, führt die OAPEN Library die jeweilige Vorgehensweise der an ihrer Plattform beteiligten Verlage auf.

Anonymität vs. Fairness
Die Anonymität der Reviewer soll unabhängige, faire und freimütige Gutachten ermöglichen. Doch zu welch unausgegorenen Äußerungen einseitige Anonymität verleiten kann, kennt man nur zu gut von den Kommentarspalten im Internet. Wie das Feedback von Reviewern mitunter aussehen kann, ist auf dem recht unterhaltsamen Tumblr-Blog „Shit my Reviewers Say“ zu lesen.

Dreht man den Spieß um und anonymisiert allein die Autorin, wie es Martin Paul Eve, Mitgründer der Open Library of Humanities, in einem Gedankenspiel demonstriert, wird Vorurteilen Einhalt geboten und zudem konstruktives Feedback gefördert, da die Gutachterin mit ihrem Namen einstehen muss. Außerdem wird so die – meist unbezahlte – Gutachterinnentätigkeit gewürdigt (um die Würdigung von Peer Review geht es auch in der diesjährigen, gerade stattfindenden Peer Review Week). Gleichzeitig steigt der Druck auf die Reviewerin, einwandfreie und damit eher konservative Arbeiten freizugeben, um der Kritik der Kolleginnen vorzubeugen. Auch so können also Veröffentlichungen progressiver Forschung verhindert werden.

Grundsätzlich ist anzuzweifeln, ob man innerhalb einer kleineren, überschaubaren Disziplin Anonymität überhaupt gewährleisten kann oder ob nicht Thema und Position des eingereichten Textes bzw. des Feedbacks ohnehin auf die Identität der Autorin bzw. der Gutachterin hinweisen.

Einen Leitfaden für Gutachterinnen, wie ein verantwortlicher Peer Review-Prozess so oder so aussehen sollte, hat das Committee on Publication Ethics (COPE) erstellt.

Transparenz durch Open Peer Review
Um dem undurchsichtigen Verhältnis zwischen Gutachterin und Autorin entgegenzuwirken, gibt es mittlerweile mehr und mehr Formen der Open Peer Review. Dabei werden beispielsweise die Gutachten mitveröffentlicht, wie etwa im digitalen Video Essay-Journal [in]Transition. Dadurch wird das Feedback als wichtiges Instrument in der Entstehung wissenschaftlicher Texte gewürdigt. Doch da die auf der Website zu sehenden Arbeiten bereits für veröffentlichungswürdig befunden wurden, fallen die Gutachten entsprechend positiv und wenig kritisch aus. Warum ein eingereichter Text nicht publiziert wird, erfährt allein die Autorin. Wie bei der traditionellen Peer Review werden die Gutachten vor der Veröffentlichung erstellt (pre-publication review).

Eine nachträgliche Form der Open Peer Review (post-publication review) stellen Kommentare dar – eine Praxis, die etwa das Content Management-System von MediaCommons Press (s. z.B. Open Review. A Study of Contexts and Practices) oder das Annotationsprogramm Hypothes.is (s. auch diese Website) unterstützen. Arbeiten können mittels Kommentarfunktion noch lange nach Erscheinen öffentlich diskutiert werden. Dadurch wird der Tatsache Rechnung getragen, dass Wissenschaft kollaborativ funktioniert, dass Publikationen immer nur ein Zwischenergebnis eines langwierigen Arbeitsprozesses darstellen können und dass Forschung niemals abgeschlossen ist. Der Gebrauch der Kommentarfunktion hält sich bei wissenschaftlichen Texten im Gegensatz zu Nachrichtenportalen allerdings in Grenzen. Die Hemmungen, seinen Senf zu einem Text öffentlich – und vor allem schriftlich – dazuzugeben, scheinen unter Akademikerinnen (noch) zu groß.

Inoffizielle Qualitätssicherung
Dafür ermöglichen inoffizielle Feedbackrunden (ob mündlich oder schriftlich) einen produktiven Austausch. Wichtige Texte werden nämlich ohnehin vorab von Kolleginnen gegengelesen und auf Konferenzen diskutiert und passieren mehrere Stufen der Überarbeitung bevor sie Autorinnen zur Veröffentlichung einreichen. Diesen crowdsourced Peer Review-Prozess, mit Hilfe dessen im Grunde alle Publikationen entstehen, öffentlich vonstatten gehen zu lassen, dafür setzt sich Kathleen Fitzpatrick ein, die 2009 einen ersten Versuch mit ihrem Buchprojekt Planned Obsolescence gestartet hat. Weitere Publikationen wie die oben genannte Studie zu Open Peer Review oder Jason Mittells Buch Complex TV. The Poetics of Contemporary Television Storytelling haben sich Fitzpatricks Experiment zum Vorbild genommen.

Crowd Review dank Preprint-Server
Preprint-Server – Onlineplattformen, auf denen Wissenschaftlerinnen ihre Texte schon vor der offiziellen Veröffentlichung hochladen können – sind der beste Beweis dafür, dass auch (noch) nicht formell begutachtete Texte längst als ernstzunehmende Publikationen gelten. Preprint-Server wie arXiv.org für Physik, Informatik und Mathematik oder das leider in Verruf geratene Social Science Research Network (SSRN) für Wirtschaftswissenschaft und Jura sind für viele Wissenschaftlerinnen nicht mehr wegzudenken; die sich im Aufbau befindende Plattform SocArXiv für Sozialwissenschaften wächst stetig.

Zumindest aus wissenschaftlicher Sicht scheint der auf eine Veröffentlichung auf einem Preprint-Server in einer Zeitschrift folgende peer-reviewed Artikel an Bedeutung zu verlieren. „We now read papers, not journals“, konstatiert George Lozano in seinem Blogpost zum Impact Factor und der sinkenden Relevanz renommierter Zeitschriften. Preprint-Server erlauben der Community jedenfalls, Forschungsergebnisse lange vor dem Abschluss eines mehrmonatigen Peer Review-Verfahrens und der endgültigen – in der Regel gedruckten – Fassung zu lesen und zu evaluieren.

Qualität durch Open Access
Wenn mit der zunehmenden Verbreitung von Open Access und digitalen Publikationen Texte insgesamt leichter zugänglich sind und eher gelesen werden, ist anzunehmen, dass sich Autorinnen stärker denn je darum bemühen, gute Arbeiten zu präsentieren. Onlinepublikationen sorgen für mehr Transparenz und Vergleichbarkeit. Ein und derselbe Text lässt sich dann nicht mehr so leicht unter unterschiedlichen Titeln in verschiedenen Sammelbänden oder Zeitschriften unterbringen – was in Zukunft vielleicht die Bedeutung von Publikationslisten relativieren wird und auch die Kategorie „peer reviewed“.

Im Fahrstuhl zur Erkenntnis? Oder: Das Dilemma von Wissenschaftskommunikation

In ein paar Sätzen das postdramatische Literaturtheater eines französischen Autors vorstellen? Eben mal die Funktionsweise von Serialität und Wiederholung im Pornofilm erläutern? Den Unterschied zwischen ästhetischer und sozialer Erfahrung kurz auf den Punkt bringen?

Heute scheint es nicht mehr auszureichen, wenn Wissenschaftlerinnen lehren, forschen und publizieren. Neben Drittmittelanträgen für „Spitzenforschung“ und internationalen Kooperationen muss man zudem noch auf allen Social Media-Plattformen präsent sein und Ergebnisse öffentlichkeitswirksam vorführen. Dabei gilt hauptsächlich eines: Die Forschung muss verständlich sein. Am besten innerhalb einer Minute. Wie im sogenannten Elevator Pitch.

Der Elevator Pitch und Wissenschaftsevents
Ein Elevator Pitch dient in erster Linie der Präsentation der eigenen Person. Er soll verkaufen, dem Gegenüber den Nutzen eines Vorhabens verdeutlichen und für eine Sache interessieren. Deshalb muss der Pitch vor allem emotional ansprechen.

Zunehmend bedienen auch Wissenschaftlerinnen sich solch einer Vermittlungsform, in Science Slams, Science Notes  oder TED Talks.

Gegen unterhaltsame Präsentationen ist nichts einzuwenden. Gegen ein wachsendes Bewusstsein für den Zugang zu und die Verbreitung von Wissen erst recht nicht (Stichwort „Open Access“). Doch welchen Nutzen, welchen Sinn und Zweck haben Wissenschaftsevents und was wird eigentlich warum präsentiert? Was erfahren Menschen dort?

„What is it that the TED audience hopes to get from this?“, möchte auch der Kunst- und Philosophie-Professor Benjamin Bratton im Guardian wissen. Bratton gibt zu, dass die Talks ihn zwar amüsieren, doch dass er sofort wieder vergisst, worum es ging. Der Wissenschaftsjournalist Martin F. Robbins kritisiert im New Statesman, dass TED Talks nicht dazu dienten, Ideen vorzustellen und zu reflektieren, sondern dazu, „to make people feel good about themselves; to flatter them and make them feel clever and knowledgeable“.

Ich selbst habe mir zahlreiche TED Talks angesehen und bin von den Themen angetan und der Redekunst fasziniert. Und vor kurzem habe ich in diesem Blog auf einen großartigen Auftritt der Künstlerin Amanda Palmer verlinkt. Dennoch stellt sich auch mir die Frage, was bleibt wirklich hängen von den schillernden Präsentationen, den „ideas worth spreading“?

Wissenschaft und Gesellschaft
Laut des Wissenschaftsbarometers 2016, das im Auftrag der Organisation Wissenschaft im Dialog erstellt wurde, interessieren sich immer mehr Menschen in Deutschland für „wissenschaftliche Themen“, nämlich 41% der rund 1000 Befragten (im Unterschied zu 36% und 31% in den beiden Vorjahren). Ebenso viele finden allerdings, dass Wissenschaftler sich zu wenig darum bemühen, die Öffentlichkeit über ihre Arbeit zu informieren.

Aber was genau möchten die Befragten denn wissen? Handelt es sich bei der Forderung nach mehr Öffentlichkeit um eine allgemeine Kritik am akademischen Elfenbeinturm? Oder geht es tatsächlich um ein konkretes Interesse an Forschung?

Inwiefern Geistes- und Sozialwissenschaftlerinnen sich besonders schwer tun, ihre Erkenntnisse einem breiten Publikum zu vermitteln, warum sie weniger als Naturwissenschaftlerinnen in der Öffentlichkeit wahrgenommen werden und ob sie Medien eher meiden, wurde vergangene Woche beim Berliner Stammtisch Wissenschaftskommunikation 2.0. diskutiert. Es wurde argumentiert, dass Texte sich eben schwerer als Experimente präsentieren ließen und dass Geisteswissenschaften weniger „anwendungsbezogen“ und damit weniger öffentlichkeitswirksam seien.

In der Diskussion wurde ein grundlegendes Dilemma von Wissenschaftskommunikation deutlich: dass die Komplexität von Erkenntnissen stark reduziert werden muss, um diese einem breiten Publikum verständlich zu machen. Dabei läuft man zwangsläufig Gefahr, Widersprüche und Ambiguitäten auszublenden. Begriffsgeschichten verschwinden hinter eingängigen Schlagworten.

Gleichzeitig hat der Kunstwissenschaftler Daniel Hornuff recht, wenn er in der FAZ schreibt: „Was nicht zur Aufführung gebracht wird, kann nicht verhandelt werden. Sich ungewohnten Ausdrucksformen zu verschließen, bedeutet also auch, das Streiten zu unterbinden.“ Geisteswissenschaftler sollten, so Hornuff, die Skepsis gegenüber den Medien hinter sich lassen und zu „Profis der Skepsis“ werden.

Allerdings darf man nicht übersehen, dass Wissenschaftler sich mehr und mehr darum bemühen, ihre Arbeit über Blogs, Twitter und Facebook – oder auf Wissenschaftsevents – sichtbarer und zugänglicher zu machen. Ebenso bedienen sich nun auch deutsche Universitäten zunehmend sozialer Medien, um für sich zu werben und sich nach außen hin zu öffnen, wie Anna-Lena Scholz im Tagesspiegel beschreibt.

Wissenschaftler sind keine Unternehmer
Einerseits sind die steigende Nutzung digitaler Vermittlungsmöglichkeiten und das verstärkte Interesse an Forschung erfreulich. Andererseits wächst mit der allgemeinen Forderung nach mehr Öffentlichkeit auch der ohnehin große Druck auf Wissenschaftlerinnen, ihre Tätigkeit zu legitimieren und sich inmitten all der „praktischen“ Berufe zu behaupten. Dass man sich mit einer Promotion oder gar einer Habilitation bereits als Wissenschaftlerin qualifiziert hat (und damit guten Gewissens forschen und öffentliche Gelder beziehen dürfen sollte), darf in der Diskussion um (mehr) Wissenschaftskommunikation nicht in Vergessenheit geraten.

Ob eine Forschungsfrage auf Anhieb verständlich ist und Ergebnisse sich hübsch verpacken lassen, gibt nämlich keinerlei Auskunft über die Sinnhaftigkeit eines Projekts. Und schon gar nicht über dessen Nutzen. Daher ist fraglich, ob der Elevator Pitch zur Darstellung wissenschaftlicher Arbeit taugt. In ihm zeigen sich höchstens die Präsentations- und Verkaufsqualitäten der Vortragenden. Doch Wissenschaftler sind keine Wissenschaftsjournalisten. Und erst recht keine Unternehmer.

Verwandte Schutzrechte — ein Anachronismus? Ein Gastbeitrag von Marion Goller

Dass Sarah-Mai Dang in ihrem letzten Beitrag angesichts der Debatten um das BGH-Urteil zur Verteilungspraxis der VG Wort das Leistungsschutzrecht für Presseverlage erwähnt hat, nehme ich zum Anlass, an dieser Stelle einmal zu erläutern, was Leistungsschutzrechte, auch genannt „Nachbarrechte“ oder „verwandte Schutzrechte“, eigentlich sind und was sie vom Urheberrecht unterscheidet. Da es sich bei diesen Rechten um reinen Investitionsschutz handelt, halte ich die Einführung neuer Leistungsschutzrechte angesichts der heute verfügbaren Technologien nicht mehr für zeitgemäß.

Immaterialgüterrechte
Beide Instrumente, Urheberrecht und Leistungsschutzrechte, sind sogenannte Immaterialgüterrechte, dienen also der Herstellung eines rechtlichen Monopols über ein Wissensgut. Wissen ist seiner Natur nach frei kopierbar und „nicht rival“ — wer mir ein Lied beibringt, verliert dadurch selbst nicht die Möglichkeit, es zu singen.1 Um aus Information eine handelbare Ware zu machen, muss sie an körperliche Träger gebunden und besser noch durch Schutzrechte künstlich verknappt werden. Grundlage ist das „Gesetz über Urheberrecht und verwandte Schutzrechte“ (UrhG). Das Wort „und“ weist darauf hin, dass es sich bei den verwandten Schutzrechten um vom Urheberrecht zu unterscheidende Instrumente handelt, die anderen Zielen dienen. Die öffentliche Berichterstattung lässt diese Differenzierung zuweilen vermissen. Das hat einerseits gute Gründe, denn die Sache ist kompliziert. Andererseits wären insbesondere Zeitungen in der Pflicht gewesen, in ihrer Berichterstattung über das Leistungsschutzrecht für Presseverlage außerordentliche Sorgfalt walten zu lassen, da es sie selbst betraf, was sie nicht immer transparent machten.

Vor allem sollte man sich in der Debatte um die Produktion und Nutzung von Wissensgütern immer wieder in Erinnerung rufen: Urheberrecht und Leistungsschutzrechte sind Verbotsrechte. Die Nutzung geschützter Immaterialgüter bedarf der Erlaubnis durch die Inhaber_innen der Rechte. Diese können bestimmte Nutzungsarten kostenlos oder gegen Entgelt erlauben. Immaterialgüterrechte geben ihnen aber nicht das Recht, andere zu bestimmten Nutzungen zu verpflichten und dafür eine Vergütung zu verlangen. (Lookin‘ at you, VG Media!)

Das Urheberrecht setzt eine persönliche geistige Schöpfung voraus. Es schützt also nicht Mühe, sondern Kreativität. Fehlt diese, so erreicht eine Arbeit nicht die notwendige „Schöpfungshöhe“, um als Werk urheberrechtlich geschützt zu sein. Zu den schützbaren Werkarten gehören § 2 Abs.1 UrhG Schriftwerke, Reden und Computerprogramme, Musik, Tanz, bildende Kunst, Fotografie, Film oder auch wissenschaftliche Zeichnungen und Pläne. Die Aufzählung ist nicht abschließend. Andere Werkarten sind denkbar.

Immer gilt dabei, dass die Arbeit eine gewisse Schöpfungshöhe aufweisen muss, um ein urheberrechtlich geschütztes Werk zu sein. Die Grenzen sind fließend. Ob eine Arbeit kreativ genug ist, um ein Werk zu sein und Urheberrechtsschutz zu genießen, ist von Fall zu Fall zu beurteilen. Die Anforderungen sind jedoch nicht allzu hoch; es genügt ein gewisses Maß an Individualität. Auch solche Arbeiten, die keine Werke sind, können außerdem einem Leistungsschutzrecht unterfallen, dazu sogleich.

Schutzberechtigt sind allein der oder die Urheber2 des Werks, also die Person oder Personen, die es selbst geschaffen haben. Das Urheberrecht gibt ihnen exklusive Verwertungsrechte. Wenn sie ihre Manuskripte, Notenblätter und Demo-Tapes an Verlage und Labels senden, ist so sichergestellt, dass diese ohne vertragliche Genehmigung die Werke nicht vervielfältigen und vertreiben dürfen.

Das Urheberrecht schützt aber nicht nur wirtschaftliche Interessen, sondern auch die persönliche Bindung zwischen Schöpfer_in und Werk. Dieser Teil des Urheberrechts, das sog. Urheberpersönlichkeitsrechts ist unverzichtbar. Ein Urheber kann beispielsweise nicht dazu gezwungen werden, auf sein Recht auf Namensnennung zu verzichten.

Das Urheberpersönlichkeitsrecht ist außerdem nicht auf Andere übertragbar. Es entsteht und verbleibt bei der oder den Urheber_innen. Nur die Verwertungsrechte können abgetreten werden. Das betrifft in erster Linie das Recht zur Vervielfältigung, aber auch, wie Sarah schon hinsichtlich des ihr vorgelegten Verlagsvertrags beschrieben hat, das Bearbeitungsrecht, welches etwa Übersetzungen oder szenische Darstellungen einschließt.

Verwandte Schutzrechte
Die verwandten Schutzrechte (=Leistungsschutzrechte) dagegen schützen allein Investitionen. Anders als Urheberrechte können sie auch von Unternehmen gehalten werden und sind vollständig übertragbar.3

Schutzrechte gibt es außerdem für Tonträgerhersteller, Filmhersteller, Hersteller von Laufbildern, die mangels Schöpfungshöhe keine Filmwerke sind, Hersteller von Lichtbildern (=Fotografien), die mangels Schöpfungshöhe keine Lichtbildwerke sind, und für Sendeanstalten, also Radio- und Fernsehstationen.

Diese Schutzrechte gelten neben dem Urheberrecht. An einer einzigen Arbeit können also sehr viele Leute Rechte haben. Wer aus dem Radio eine Sendung aufnimmt, in der Musik gespielt wird, der berührt

• das Urheberrecht der Personen, die Text und Melodie des Musikstücks geschrieben haben
• das Schutzrecht der ausübenden Künstler, die die Aufnahme eingespielt habe
• evtl. das Urheberrecht der/des Produzenten/in, die/der die Aufnahme gemacht hat, wenn ihr/sein Beitrag die Schöpfungshöhe erreicht (anzunehmen bei Leuten wie dem DJ und Musikproduzenten David Guetta)
• das Recht des Tonträgerherstellers, der die Aufnahme gemacht hat
• das Recht der Sendeanstalt an „ihren“ Sendeinhalten.

Ohne das Recht auf Privatkopie müsste man alle diese Leute/Unternehmen um Erlaubnis fragen, bevor man „record“ drückt. So kann es zu einer Rechtehäufung kommen, welche die Verwertung erschwert, weil jede_r Rechteinhaber_in befugt ist, die Vervielfältigung oder andere Verwertung zu verbieten.4

Begründung für die Schutzrechte
Grund für die Einführung von Leistungsschutzrechten waren die früher exorbitanten Herstellungskosten für Tonträger, Lichtbilder und Filmaufnahmen. Die benötigte Ausrüstung war in der Anschaffung so teuer, dass man den sie zur Verfügung stellenden Unternehmen — und es waren meistens Unternehmen — ein eigenes Schutzrecht einräumte, welches ihr Investitionsrisiko ausgleichen sollte. Auch die Grenzkosten, also die Mehrkosten für jede weitere Kopie einer Aufnahme, waren ursprünglich sehr hoch. Neue Technologien und die Produktion in großen Stückzahlen, die Musiklabels und Filmvertrieben möglich waren, haben diese über die Jahre sinken lassen.

Diese hohen Kosten bestanden unabhängig davon, ob es sich bei der jeweiligen Arbeit um ein urheberrechtlich geschütztes Werk handelte oder nicht. Auch Ton-, Laufbild- und Lichtbildaufnahmen, die nicht die dafür nötige Schöpfungshöhe aufwiesen, waren teuer herzustellen. Die Leistungsschutzrechte wurden daher als vom Urheberrecht unabhängiger Investitionsschutz gestaltet. Ziel war dabei nicht die Belohnung der Investoren. Vielmehr sollte der Schutz diesen erst die Anreize geben, überhaupt das Risiko der Produktion auf sich zu nehmen. Damit sollen die Schutzrechte letztlich der Allgemeinheit zugute kommen.

Verhindern sollten sie – auch das vergisst man heute leicht — die Konkurrenz durch andere Verwertungsunternehmen. Nur andere Produktionsfirmen hatten damals überhaupt Zugang zu den Technologien, die nötig waren, um Leistungsschutzrechte zu verletzen. Erst kostengünstige Fotokopierer, Kassettenrekorder und Videorekorder machten den Verwertern Angst vor der eigenen Kundschaft…die Napster später zur nackten Panik steigern sollte.

Heute sieht die Sache anders aus. Aufnahmegeräte für Ton, Film und Lichtbild sind erschwinglich und ubiquitär geworden. Digitalisierung und Internet haben zudem die Vervielfältigung und Verbreitung nahezu kostenlos gemacht. Ich kann heute mit einem Telefon Filme in Ultra-HD drehen und auf YouTube mit der gesamten online-Menschheit teilen.

Anders als bei Schaffung des UrhG können nun Privatpersonen Leistungsschutzrechte verletzen und sogar selbst innehaben. Die Senkung der Herstellungs- und  Grenzkosten auf ein für Laien erschwingliches Niveau reduziert den Bedarf an Monopolen als Investitionsanreize. Daher wäre es an der Zeit, die Notwendigkeit von Leistungsschutzrechten grundsätzlich neu zu überdenken.

Datenbankhersteller und Presseverleger
Die Tendenz geht leider in die umgekehrte Richtung. Seit einigen Jahren verlangen die Produzenten anderer Wissensgüter als Bild, Ton und Film eigene Leistungsschutzrechte für sich. Und das teilweise mit Erfolg. Den Anfang machte die Richtlinie zum Schutz von Datenbanken.5

Bloße Datensammlungen sind nicht urheberrechtlich schützbar. Erst wenn Gestaltung und Auswahl so kreativ sind, dass sie eine ausreichende Schöpfungshöhe erreichen, handelt es sich um ein Datenbankwerk. Nicht schöpferische Datensammlungen sind also der Grenzkostensenkung durch Digitalisierung und Internet besonders schutzlos ausgeliefert. Daher versah die (damals noch) EG sie mit einem eigenen Schutzrecht, weil sie befürchtete, ohne ein solches würden in der Gemeinschaft „Investitionen in moderne Datenspeicher- und Datenverarbeitungs-Systeme“ nicht „in dem gebotenen Umfang stattfinden“. Zehn Jahre später ergab eine Evaluation, dass die Richtlinie große Rechtsunsicherheit erzeugt habe, mehr Anreize zu Investitionen in Datenbanken jedoch nicht nachweisbar seien. Der EuGH musste den Schutzumfang außerdem stark beschränken, damit die Richtlinie nicht zu einem Monopol auf Fakten mutiert.

Legislativen Erfolg hatten im Jahr 2013 auch die Presseverlage, als ihr lang herbeigesehntes und -lobbyiertes Leistungsschutzrecht ins UrhG geschrieben wurde.

Den Ausführungen Stefan Niggemeiers und Till Kreutzers, auf die Sarah bereits verlinkt hat, ist wenig hinzuzufügen.6 Die VG Media, welche einige große Presseverlage vertritt, will Suchmaschinen dazu zwingen, ihre Angebote zu listen und dafür zu bezahlen, auf Grundlage ihres Leistungsschutzrechts. Dieses ist aber, wie oben bereits ausgeführt, ein Verbotsrecht. Niemand sollte dazu gezwungen werden können, gebührenpflichtig Verbote zu brechen, nicht einmal evil evil Google.

Monopol auf Sprache
Nach dem BGH-Urteil zur Verteilungspraxis der VG Wort wollen jetzt auch andere Verlage ein eigenes Leistungsschutzrecht. Diese Idee ist ja keineswegs neu. Die Forderung gibt es schon seit mit dem Erlass des UrhG die ersten Leistungsschutzrechte eingeführt wurden. Der Gesetzgeber hat sie nur aus gutem Grund immer abgelehnt. Denn zwischen Lichtbild-, Ton- und Laufbildaufnahmen einerseits und Schriftwerken andererseits bestehen zwei große Unterschiede:

Erstens sind die Grenz- und vor allem die Herstellungskosten für Schriftwerke schon lange sehr niedrig. Zur Herstellung benötigt werden Papier und Stift. Mehr nicht. Wie komplex und teuer Vervielfältigung und Vertrieb sind, hängt von Art und Umfang des Werks ab.

Zweitens — und das ist noch wichtiger — gibt es bei Schriftwerken, anders als bei Lichtbild, Ton und Laufbild, keine Aufnahme, die das Werk in klar abgrenzbarer Weise fixiert. Jedem leuchtet der Unterschied zwischen einem Musikstück selbst, also Text und Melodie, und der Aufnahme desselben ein. Dasselbe gilt für Drehbuch und Filmwerk. Eine vergleichbare Abgrenzung zwischen einem Text und einem Verlagsprodukt ist nicht möglich. Werk und Verlagsprodukt sind identisch.

Genau aus diesem Grund geht das Leistungsschutzrecht fehl. Niemand weiß, welche Länge ein „Snippet“ haben darf, um noch als erlaubnisfrei durchzugehen. Sind es zu viele Wörter, so ist es für Suchmaschinen und Aggregatoren leicht zu umgehen. Sind es zu wenige, so könnte es zu einer kolossalen Blockadewirkung kommen. Man stelle sich vor, Axel Springer habe künftig das ausschließliche Nutzungsrecht an den Worten „Ein Dorf hat Angst“ oder einer ähnlichen Schlagzeile. Das Leistungsschutzrecht bleibt also im besten Fall wirkungslos, im schlimmsten Fall wird es zu einem Monopol auf Sprache.

Das Recht des Presseverlegers gilt nur gegenüber Suchmaschinen und News-Aggregatoren und ist auf ein Jahr beschränkt, insofern hält sich der Schaden für Journalisten, Blogger und Privatpersonen in Grenzen.7 Sollte es tatsächlich zu einem allgemeinen Verleger-Leistungsschutzrecht kommen, ist von einer Geltung gegenüber jedermann und von einer sehr viel längeren Schutzdauer auszugehen. Die Folgen für das Recht auf freie Meinungsäußerung hingen dann wieder davon ab, welchen Umfang verwendete Ausschnitte haben dürften. In jedem Fall würde große Rechtsunsicherheit drohen.

Fazit
Die starke Senkung von Herstellungs- und vor allem Grenzkosten ist eine wunderbare Entwicklung mit großem Potential für die allgemeine Wohlfahrt der gesamten Menschheit.8 Leider wird sie kaum als solche gefeiert. Die Verwerter reagieren mit Angst, weil sie ihr Geschäftsmodell bedroht sehen. Die Politik macht mit, weil sie weiterhin daran glaubt, ohne Schutzrechte würde niemand Kunst oder Wissen schaffen. Wer auch nur ein einziges Mal die Wikipedia genutzt hat, kann erkennen, auf welch tönernen Füßen diese Einstellung steht.

Die Verlage behaupten, ohne ihre verlegerische Arbeit werde es keinen Qualitätsjournalismus, keine anspruchsvolle Literatur, keine wertvollen wissenschaftlichen Beiträge mehr geben. Wenn sie aber, wie es in der Wissenschaftspublikation nur allzu häufig geschieht, diese verlegerische Arbeit nahezu vollständig auf die Autor_innen abwälzen, erscheint diese Behauptung wenig glaubhaft.

Verlage müssen gegenüber der heute möglichen Selbstveröffentlichung im Internet einen Mehrwert bieten, der die Urheber dazu bringt, mit ihnen zusammenarbeiten zu wollen. Sie sollten nicht für Leistungen bezahlt werden, die das Internet kostenlos erledigt, sondern für den geleisteten Mehrwert; für Auswahl, redaktionelle Aufbereitung, Lektorat und Marketing.

Wir brauchen nicht mehr Leistungsschutzrechte, welche die Verbreitung von Wissen und Kultur einschränken, sondern weniger. Menschen werden immer schreiben, musizieren und Geschichten erzählen, sie werden immer neugierig ihre Umgebung beobachten und ihre Erkenntnisse aufzeichnen. Ein Geschäftsmodell, das allein auf der künstlichen Verknappung dieser Wissensgüter fußt, ist in der Tat bedroht.

Marion Goller ist Juristin und forscht über Urheberrecht, Patentrecht, Freie Lizenzen und die Wissensallmende. Mail: marion.goller@oabooks.de, Twitter: @MarionGoller.

 

1. Ein wichtiger Unterschied, den Anti-Piracy-Slogans wie „You wouldn’t steal a car“ völlig einebnen.
2. In diesem Text verwendete generische Maskulina sind dem Wortlaut des Gesetzes geschuldet.
3. Eine Ausnahme bildet hier das Schutzrecht des ausübenden Künstlers. Ausübende Künstler sind z.B. Sänger_innen oder Schauspieler_innen, die eigene Werke oder Werke anderer Personen für eine Aufnahme singen, musizieren, spielen oder darstellen sowie solche Werke öffentlich aufführen. Der Beitrag ausübender Künstler hat nach Ansicht des deutschen Gesetzgebers ebenfalls einen persönlichen Bezug, der in gewissem Maße Schutz verdient. So wird im UrhG ihr Recht auf Namensnennung garantiert und sie können eine Entstellung ihrer Arbeit verbieten.
4. Das Recht des Filmherstellers dient unter anderem dazu, diese Rechtehäufung etwas einzudämmen. Per Gesetz werden die Verwertungsrechte beteiligter Urheber, z.B. Regisseur_in, Drehbuchautor_in oder Komponist_in der Filmmusik, auf den Filmhersteller, d.h. üblicherweise auf die Produktionsfirma, übertragen.
5. Richtlinie 96/9/EG
6. Wer mehr wissen will, kann sich auf http://leistungsschutzrecht.info/ umsehen.
7. Der Deutsche Journalistenverband lehnt das Schutzrecht trotzdem ab, siehe https://www.djv.de/startseite/profil/der-djv/pressebereich-download/pressemitteilungen/detail/article/am-besten-abschaffen.html
8. Lesetipp: Jeremy Rifkin „The Zero Marginal Cost Society“

Verlage stehen im Dienste der AutorInnen. Oder: Warum ich mich für einen Selfpublishing-Verlag entschieden habe

Textproduktion ist harte Arbeit. Und ist diese erledigt, möchten WissenschaftlerInnen oftmals nichts mehr damit zu tun haben. Unter welchen Bedingungen der Text dann veröffentlicht wird, spielt so gut wie keine Rolle, geschweige denn irgendwelche Vertragsklauseln. Auch nicht, wenn die Dissertation nach Jahren des Denkens, Recherchierens und Schreibens endlich abgeschlossen ist. Es ist verständlich, dass WissenschaftlerInnen sich neben Lehre, Forschung, Drittmittelanträgen, Vorträgen und eben der Textproduktion und deren Publikation nicht auch noch um die Verhandlung der Publikationsbedingungen mit Verlagen kümmern wollen. (Doch wofür zermartert man sich jahrelang den Kopf, durchforstet Wälder von Artikeln und Büchern und schreibt sich die Finger wund?) Ist die Textproduktion endlich abgeschlossen, besteht der letzte Schritt dann in der Regel darin, einen Verlag mit möglichst hohem Ansehen – oder mit dem günstigsten Angebot – zu finden, der bereit ist, die Arbeit (gegen eine Gebühr) zu veröffentlichen.

Als ich den Vertrag des gewünschten Verlags in der Hand hielt, wurde mir jedoch bewusst, dass die Unterzeichnung des Vertrags doch nicht der allerletzte Schritt des Publikationsprozesses sein würde. Denn dass der Verlag das „ausschließliche Recht zur Vervielfältigung und Verbreitung“ sowie die „ausschließlichen Nebenrechte“ (u.a. zum teilweisen Vorabdruck und Nachdruck, zur Vergabe von Lizenzen, zur Übersetzung in andere Sprachen und zur Verfilmung und Vertonung des Werks bekommen sollte), machte mich stutzig. Aus Sicht des Verlags leuchteten mir die Paragraphen zur unbeschränkten Rechteeinräumung zwar ein, schließlich verpflichtete dieser sich dazu, „das Werk zu vervielfältigen, zu verbreiten und dafür angemessen zu werben“, wofür ein gewisser Spielraum notwendig ist, doch warum sollte ich die ausschließlichen Verwertungs- und Nutzungsrechte an den Verlag übertragen? Noch dazu, wenn ich als Autorin weder am Absatz noch an der Verwertung der Nebenrechte beteiligt worden wäre bzw. werden darf. (Als drittmittelfinanzierte Mitarbeiterin hätte ich zwar einen Druckkostenzuschuss vom Forschungsprojekt bekommen, aber im Gegenzug dazu nichts an der Veröffentlichung verdienen dürfen, da meine Forschung durch „öffentliche Mittel“ gefördert wurde – was auch in der Auslegung des nach wie vor umstrittenen Zweitveröffentlichungsrecht bzw. Zweitverwertungsrechts entscheidend ist).

Mit meiner Dissertation Geld zu verdienen, war und ist allerdings ohnehin nicht mein Ziel. Mir ging und geht es vor allem um die möglichst große Verbreitung der Forschungsergebnisse. Die Einräumung des ausschließlichen Verwertungs- und Nutzungsrechts schränkt die Verbreitung ein. Sie verbietet zum Beispiel selbst eine nicht-kommerzielle Zweitveröffentlichung auf dem universitären Dokumentenserver. Open Access-Repositorien schlagen deshalb vor, einen entsprechenden Passus in den Verlagsvertrag aufzunehmen, sodass zumindest die jeweilige Institution (gegebenenfalls nach einer bestimmten Sperrfrist) das Recht hat, die Arbeit der Öffentlichkeit über den Dokumentenserver oder sonstiger Form frei zugänglich zu machen.

Dass Verlage sich weigern, diesen Passus in den Vertrag mit der Autorin aufzunehmen, ist verständlich, schließlich konkurriert die frei zugängliche Onlinefassung mit dem zu erwerbenden Buch. Allerdings ist der Einwand „größere Verbreitung = besseres Marketing = höhere, zumindest gleichbleibende Absatzzahlen“ ebenfalls berechtigt, wie Jeroen Sondervan von der Amsterdam University Press (die Mitglied im Open Access-Verbund OAPEN Library ist) auf einem Verlagspanel [Verlinkung wurde aufgrund einer veränderten URL von der Red. entfernt] der Post-Digital Scholar Conference erklärt.

Wie aber lassen sich die Wünsche von Autorin und Verlag vereinbaren? Welches Verhältnis besteht überhaupt zwischen UrheberInnen und VerwerterInnen? Zwar geht es sowohl dem Verlag als auch der Wissenschaftlerin um die größtmögliche Verbreitung eines Werkes, doch aus verschiedenen Gründen. Für den Verlag sind Absatzzahlen entscheidend, für die Autorin Rezensionen und Verweise. Bei einer Beteiligung von 0-5% am Gewinn von durchschnittlich 150-300 verkauften Büchern rechnen WissenschaftlerInnen ohnehin nicht mit einer hohen Provision und schon gar nicht mit einem Honorar. Eher kalkulieren sie mit der jährlichen Ausschüttung der Verwertungsgesellschaft Wort, die für die Veröffentlichung einer (gedruckten) Monographie einmalig etwa 800 Euro auszahlt.

Die VG Wort verwaltet die Einnahmen aus Urheberrechten, die aus der Einräumung des Vervielfältigungsrechts zum privaten Gebrauch hervorgehen, zum Beispiel Reprographieabgaben, die man beim Kauf eines Druckers oder Scanners zahlt, oder Bibliothekstantiemen. Jüngst ist die Verwertungsgesellschaft durch ein BGH-Urteil zur Verteilungspraxis in die Schlagzeilen geraten. Dem Urteil nach stehen allein den AutorInnen die Einnahmen zu, denn sie sind die UrheberInnen der Werke – und nicht die VerlegerInnen. Bisher hatte die VG Wort die Einnahmen zu gleichen Teilen an AutorInnen und Wissenschaftsverlage (in der Belletristik bekamen die Verlage 30% der Abgaben) ausgeschüttet und damit jahrelang rechtswidrig gehandelt. Nun hoffen Verlage auf ein Leistungsschutzrecht auf europäischer Ebene – absurderweise, wie Stefan Niggemeier erklärt.

„Verlage sind keine Urheber“, schreibt Julia Franck in der ZEIT. „Sie verdienen am ‚gedruckten‘ Wort, nicht am erdachten.“ Selbstverständlich sollen Verlage durch ihre verlegerische Leistung Geld verdienen. Doch worin besteht diese Leistung, wenn ich als Autorin selbst bei einem renommierten und profitablen Wissenschaftsverlag wie Palgrave Macmillan (wo die englische Übersetzung meiner Dissertation erscheint) Vorschläge zur Covergestaltung einreichen und ein sechsseitiges Marketingformular ausfüllen muss? Worin besteht die wirtschaftliche, technologische und organisatorische Leistung des Verlags, wenn ein druckfertiges Manuskript (aufgeteilt in einzelne Kapitel zwecks „eBook“-Vermarktung, sprich PDF-Verkauf) samt Rezensionsliste vorzulegen ist?

Die Suche nach einem geeigneten Verlag hat mich letztendlich dazu gebracht, die Dissertation selbst, d.h. bei dem Selfpublishing-Verlag tredition zu veröffentlichen. Für ein Print-on-Demand-Buch muss ich keinen „Druckkostenzuschuss“ zahlen. Stattdessen berechnet der Verlag eine Servicegebühr von 150 Euro für Vertrieb und ISBN-Vergabe. Oder verlangt eine Mindestabnahme von 35 Büchern. Das Buch erscheint im Verzeichnis der Deutschen Nationalbibliothek. Den Verkaufspreis kann man selbst festlegen, je nachdem wie hoch die Provision ausfallen soll. Und vor allem: Der Verlag erhält die nicht ausschließlichen Verwertungsrechte, d.h. „der Rechteinhaber bleibt berechtigt, das Werk selbst und durch Dritte neben tredition zu verwerten.“

Ob das Selfpublishing – sei es über einen Selfpublishing-Verlag, Blogs, Institutsseiten, persönliche Websites oder Fachrepositorien – die Zukunft wissenschaftlichen Publizierens ist, lässt sich schwer sagen. Noch greifen die meisten WissenschaftlerInnen auf herkömmliche Publikationsformate zurück und veröffentlichen traditionell bei einem Verlag. Fest steht allerdings, dass Verlage auch im Zuge des digitalen Wandels einen Mehrwert bieten müssen, damit sich AutorInnen gerne für eine Zusammenarbeit entscheiden. Verlage stehen im Dienste der AutorInnen. Ohne sie gäbe es keine Verlage.

Elsevier kauft Preprint-Server SSRN – und wird zum Datenkönig

Das Social Science Research Network (SSRN) ist eines der größten Open Access-Repositorien weltweit. Dass ausgerechnet Verlagsgigant Elsevier diese Plattform jetzt aufgekauft hat, verdeutlicht, dass „offenen“, „kostenfreien“, jedoch profitorientierten Plattformen wie Academia.edu oder ResearchGate mit größter Skepsis zu begegnen ist. Versprechen auf größtmögliche Sichtbarkeit von Forschungsergebnissen und uneingeschränkten Zugang zu wissenschaftlichen Arbeiten verdecken langfristige Ziele und Geschäftsmodelle der Unternehmen, die hinter den Plattformen stehen. Anders als Wissenschaftsverlage, die von den AutorInnen ein article processing charge (APC) verlangen, um Inhalte kostenfrei zugänglich zu machen und trotzdem daran zu verdienen, geht es privatwirtschaftlichen Publikationsplattformen um Daten. Es geht um Daten, die besagen, welche Artikel wo welchen Impact haben. Es geht um Nutzerprofile und Nutzerverhalten. Wie und zu welchem Zwecke diese Informationen genutzt werden (Werbung, Datenhandel, Überwachung) ist unklar. Genauso unklar ist, welche Daten überhaupt generiert werden und wie.

„Academia.edu has a parastical relationship to the public education system, in that these academics are labouring for it for free to help build its privately-owned for-profit platform by providing the aggregated input, data and attention value“, schreibt Gary Hall, Professor für Medienwissenschaft an der Coventry University, in seinem Post „Does Academia.edu Mean Open Access is Becoming Irrelevant?“. Und weiter: „We can thus see that posting on Academia.edu is not ethically and politically equivalent to making research available using an institutional open access repository at all.“ Kathleen Fitzpatrick, Medienwissenschaftlerin in den Digital Humanities, fügt in ihrem Post „Academia, Not Edu“ hinzu: „Everything what‘s wrong with Facebook is wrong with Academia.edu, at least just up under the surface, and so perhaps we should think twice before committing our professional lives to it“.

Es nichts Neues ist, dass auch wissenschaftliche Datenplattformen ein immer lukrativeres Geschäft versprechen. So kaufte Elsevier 2013 die Forschungsplattform Mendeley für einen Millionenbetrag im höheren zweistelligen Bereich von seinen drei deutschen Gründern ab. Kurz darauf forderte Elsevier in etwa 2.800 Abmahnungen die NutzerInnen des Konkurrenten Academia.edu auf, Artikel, die das Copyright verletzten, von der Plattform zu löschen.

Dennoch hat die Übernahme von SSRN durch Elsevier für große Verunsicherung und Aufregung gesorgt. „It’s like if Monsanto bought out your favorite organic farm co-op“, schreibt Cory Doctorow von Boing Boing. Eine der Hauptsorgen ist, was mit den Artikeln passiert, die auf SSRN gehostet werden. Was passiert etwa, wenn Elsevier den SSRN-Server zumacht, um Universitäten, die ihre Zeitschriftenabonnements von Elsevier aufgrund der enormen Preise und missliebigen Bezugsbedingungen gekündigt haben, dazu zwingen, ihre Kündigung zurückzuziehen, damit sie wieder Zugriff auf (ihre eigenen) Forschungsergebnisse haben?

Vielleicht geht es Elsevier auch darum, seine Monopolstellung gegenüber seiner Konkurrenten Springer und Wiley im wissenschaftlichen Zeitschriftenmarkt zu verteidigen. Doch was der eigentliche Gewinn ist: Daten. Wertvolle – für die NutzerInnen unbekannte, unzugängliche – Daten, die man –  wie den Impact Factor des Medienkonzerns Thomson Reuters – vermarkten kann. Christopher M. Kelty, Professor für Informationswissenschaft an der University of California, erklärt in seinem Beitrag „It’s the Data, Stupid. What Elsevier’s Purchase of SSRN also means“ auf savageminds.org:

SSRN represents better data about the impact of social science research than any single journal, or any publisher‘s data (even Elsevier, with its hundreds of social sciences journals), because it has been built on the good will, apparent neutrality, and level playing field of an open access repository. Until Tuesday May 17, it was not tied to any particular publishing conglomerate or metrics company, and so its data represented social science research with a fidelity to reality that is expensive and hard to otherwise achieve.

Doch bitte jetzt nicht in Schockstarre verfallen! Die Bedeutung dieser Daten – und damit der For-Profit-Plattformen – sinkt, wenn wir die Evaluation von wissenschaftlicher Arbeit anhand von quantitativen Kriterien an sich hinterfragen. Wenn wir die Aussagekraft von Impact Factor, Downloads und Publikationslisten kritisch prüfen. Wenn die Leistung von WissenschaftlerInnen stattdessen anhand von Qualität, Innovation und Engagement bewertet wird.

Es ist höchste Zeit, dass die verschiedenen Disziplinen Alternativen zu Plattformen wie Academia.edu und ResearchGate schaffen und ihre eigenen institutsübergreifenden Non-Profit-Repositorien à la ArXiv.org aufbauen, die durch Spenden, Mitgliedsbeiträge und Fördergelder langfristig finanziert werden. SSRN dient dafür ja jetzt leider nicht mehr als Beispiel…

Digital Humanities – neoliberal oder politisch progressiv?

Die Bedeutung und Konsequenzen der Digital Humanities diskutieren WissenschaftlerInnen in der Los Angeles Review of Books.

Wenn Digital Humanities zum Selbstzweck werden. Ein kritischer Beitrag von Daniel Allington, Sarah Brouillette und David Golumbia.

Daniel Allington, Sarah Brouillette und David Golumbia explain how Digital Humanities plays a lead role in the corporatist restructuring of the humanities.

„What Digital Humanities is not about, despite its explicit claims, is the use of digital or quantitative methodologies to answer research questions in the humanities. It is, instead, about the promotion of project-based learning and lab-based research over reading and writing, the rebranding of insecure campus employment as an empowering ‚alt-ac‘ career choice, and the redefinition of technical expertise as a form (indeed, the superior form) of humanist knowledge.“

Quelle: Neoliberal Tools (and Archives): A Political History of Digital Humanities – Los Angeles Review of Books

Eine lesenswerte Replik haben Juliana Spahr, Richard So, Andrew Piper verfasst. Sie weisen auf das Potenzial der Digital Humanities und auf ihre Vielseitigkeit hin.

„The history the authors provide also risks effacing contributions from individuals in the present – particularly women and persons of color – who work outside of this institutional framework. There is a tremendous amount of new scholarship being produced in DH that seeks to answer significant research questions, and a great deal of this work directly addresses issues related to race, gender, class, and power.“

Quelle: Beyond Resistance: Towards a Future History of Digital Humanities – Los Angeles Review of Books

„Was nichts kostet, ist nichts wert.“ Oder: Wie kann Open Access eigentlich finanziert werden?

Wenn Texte kostenfrei zur Verfügung gestellt werden, lassen sie sich nicht mehr verkaufen. Wie aber kann man dann die Produktion von Texten (das Denken, das Schreiben, das Lektorieren, das Korrigieren, die Formatierung, den Satz bzw. die Programmierung) und die Zugänglichkeit zu Texten, die bisher vor allem Bibliotheken gewährleisten, finanzieren?

Bei digitalen Texten halten sich die Kosten für die Bereitstellung im Rahmen. Dank WordPress muss man Websites nicht mehr aufwendig programmieren. Vorlagen kann man entsprechend anpassen, nachdem man sich in die Grundlagen von HTML und CSS reingefuchst hat. Selbst ohne jegliche Programmierkenntnisse kann man einen Blog oder eine persönliche Website aufsetzen. Und auch die Serverkosten sind überschaubar. Finanzieller und persönlicher Aufwand für die Schaffung einer digitalen Infrastruktur sind also überschaubar. Doch die Textproduktion ist nach wie vor ein aufwendiger und mühsamer Prozess, um den man nicht herumkommt. Und der will entlohnt werden. Doch wie, wenn man seine Texte am liebsten kostenfrei zur Verfügung stellen möchte, damit sie möglichst viele lesen können?

In den Geisteswissenschaften rechnen WissenschaftlerInnen ohnehin nicht damit, ein Honorar für ihre Texte zu bekommen. Denn die Texte selbst sind die Währung. Je länger die Publikationsliste, desto größer der Marktwert. Deshalb sind in Deutschland AutorInnen sogar bereit, einem Verlag zwischen 2.000 und 8.000 Euro (je nach Reputation des Verlags) zu bezahlen, damit dieser ihre Monographie veröffentlicht. Wenn ihre Publikation durch einen „Druckkostenzuschuss“ eines Drittmittelprojekts finanziert wird, dürfen sie selbst nichts an dem Buchverkauf verdienen. Eine entsprechende Honorar-Verzichtserklärung muss man dann unterschreiben. Bei einer durchschnittlichen Auflage von 300 Stück pro Dissertation (die man ja in Deutschland veröffentlichen muss, um seine Promotion abzuschließen) stellen die Druckkostenzuschüsse für die Verlage eine wichtige Einnahmequelle dar. Je niedriger der angesetzte Verkaufspreis des Buches ist (in der Regel zwischen 25 und 65 Euro), desto größer die Rolle des Druckkostenzuschusses in der Verlagskalkulation. Darüber hinaus können Verlage mit der Abnahme einer gewissen Menge an Büchern durch Bibliotheken rechnen. Verlage in den USA verkaufen zunächst die erste Auflage, die als Hardcover und damit zu einem höheren Preis von bis zu $100 erscheint, an Bibliotheken, bevor sie eine günstigere Paperback-Version (deren Preis allerdings nicht immer weit unter dem Hardcover-Preis liegt) herausbringen.

Mit diesen Ausführungen möchte ich keinesfalls Stimmung gegen Verlage machen, wie dies manche Open Access-Verfechter tun, sondern schlichtweg darauf aufmerksam machen, wie das wissenschaftliche Publikationswesen funktioniert. Denn gerade im digitalen Zeitalter, wo das Selbstpublizieren ein Kinderspiel geworden ist, gibt es für WissenschaftlerInnen viele Alternativen zum herkömmlichen Publikationssystem, die sie nutzen könnten, wenn sie wollten. Den meisten WissenschaftlerInnen, mit denen ich gesprochen habe, als ich einen digitalen Wissenschaftsverlag gründen wollte, liegt das gedruckte Buch jedoch so sehr am Herzen, dass sie in der digitalen Publikation vor allem eine Abwertung ihrer Arbeit sehen würden. Viele befürchten zudem, dass eine Veröffentlichung bei einem (noch) unbekannten Verlag ihrer Karriere schaden könnte. Vielleicht zu recht. Manche sind grundsätzlich gegen Open Access, da für sie der Grundsatz gilt „Was nichts kostet, ist nichts wert.“ Damit komme ich zum eigentlichen Thema dieses Posts: Wie lässt sich Open Access eigentlich finanzieren?

Wie bereits erwähnt, übernehmen bisher vor allem AutorInnen bzw. die sie fördernden Institutionen die Gebühr für den kostenfreien Zugang, die APC (article processing charge). So muss man zum Beispiel 2.150 Euro bezahlen, um einen Artikel in einer Zeitschrift der britischen Verlagsgruppe Taylor & Francis open access zu stellen und ca. 12.600 Euro, um seine Monographie beim geistes- und sozialwissenschaftlichen Verlag Routledge, der zu Taylor & Francis dazugehört, open access zu veröffentlichen. Das Ziel, diese Gebühren gerecht zu verteilen und nicht allein auf die AutorInnen abzuwälzen, haben sich Projekte wie Knowledge Unlatched und Luminos auf die Fahnen geschrieben. Bei Knowledge Unlatched teilen sich Bibliotheken (die ohnehin die Bücher kaufen würden) die von den Verlagen verlangte Open Access-Gebühr. Luminos, ein Projekt der University of California Press, möchte, dass alle, die von der Publikation profitieren (AutorInnen, Institutionen, Bibliotheken und Verlage) für die Produktion und Verbreitung aufkommen.

Dass auch die LeserInnen für den kostenfreien Zugang bezahlen, scheint ein zu großes Paradox. Doch warum sollen nicht tatsächlich alle, die Nutzen aus den Texten ziehen, dafür bezahlen (können)? Die Musikerin Amanda Palmer bringt es in ihrem TED-Talk „The Art of Asking“ auf den Punkt: „Don‘t make people pay. Let them.“ Nachdem ihr Label sie nicht länger unterstützen wollte, da sie ‚nur‘ 25.000 CDs verkaufte, hat sie für ihre nächste Plattenproduktion eine Crowdfunding-Kampagne gestartet. Diese Aktion brachte ihr $1.192.793 ein – von insgesamt fast 25.000 SpenderInnen. (Danke, Marion Goller, für diesen Hinweis.)

Neben Crowdfunding (wodurch inzwischen ganze Forschungsprojekte unterstützt werden sollen) hat das Internet weitere Finanzierungsmodelle hervorgebracht, die sich auch für die Produktion wissenschaftlicher Texte eignen könnten, z.B. maßgeschneiderte Werbung. Doch viele Menschen stehen Werbung prinzipiell skeptisch gegenüber. Zudem empfinden sie es als starke Beeinträchtigung des Lesegenusses (Stichwort Adblocker), der bei Online-Publikationen ja ohnehin gefährdet scheint. Werbung stellt also nicht die die beste Finanzierungsweise dar, wenn es um wissenschaftliche Texte geht. Da erscheint mir die Möglichkeit des Micropayments, der Bezahlung von Kleinstbeträgen, sinnvoller. Das Problem bei der Nutzung von Online-Inhalten ist meiner Meinung nach weniger die von KulturpessimistInnen verdammte „Umsonstkultur“, sondern der Mangel an unkomplizierten Bezahlmöglichkeiten (neben der durch das DRM eingeschränkten Nutzung versteht sich, doch das ist nicht Thema dieses Posts). Muss man immer wieder seine Kontaktdaten und Kreditkartennummer in Bezahlmasken eingeben, ist das nicht nur zeitaufwendig, sondern auch riskant und heikel. Vielleicht ist dies unter anderem der Grund, warum Matthew Butterick mit seiner tollen Website über Typographie (wie bereits in einem früheren Post erwähnt) trotz eines implementierten Zahlsystems nur 1 von 1000 LeserInnen dazu bringt, eine Überweisung vorzunehmen (ich habe trotzdem eine kleine Summe überwiesen, nicht weil ich musste, sondern weil der Autor mich darum gebeten hat, s. Amanda Palmer).

Der Journalistin Antje Schrupp wäre Werbung viel lieber als das Geld von LeserInnen, müsste sie von ihrem Blog „Aus Liebe zur Freiheit. Notizen zur Arbeit der sexuellen Differenz“ leben. Denn durch Werbung wäre sie freier beim Schreiben als wenn sie in der Schuld ihrer LeserInnen stünde. Letztendlich verdient sie ihren Lebensunterhalt allerdings durch das Vermitteln der Gedanken, die man kostenlos auf ihrem Blog lesen kann. So steigern Publikationen auch ihren Marktwert und damit die Nachfrage nach ihren (bezahlten) Vermittlungstätigkeiten (Vorträge, Podiumsdiskussionen etc.). Nicht zu vergessen sei allerdings die Aufmerksamkeit, die ihr die LeserInnen entgegenbrächten, in Form von Klicks und Kommentaren. Das Lesen sei ja ebenfalls eine Investition, gar ein Geschenk, weil freiwillig.

Um seiner Wertschätzung im Internet Ausdruck zu verleihen, gibt es neben Kommentaren und Verlinkungen, Retweets und Likes auch den Flattr-Button, über den man monatlich eine selbst festgelegte Spendensumme an verschiedene Projekte verteilen kann, und das Bezahlsystem PayPal, das eine relativ einfache Überweisung erlaubt. (Flattr-Gründer Peter Sunde will nun übrigens in Kooperation mit AdBlock Plus ein automatisches Spendensystem implementieren wie der Guardian berichtet.) Der Digitalverlag mikrotext setzt zum Beispiel – wie Zeitungen – aufs Abo, das wiederum bei Zeitschriften wie The Economist im Grunde als Flatrate funktioniert. Ich werde Flattr-Button und PayPal mal ausprobieren, insbesondere letzteres, damit man mein Print-on-demand-Buch einfacher erwerben kann. Selbstverständlich freue auch ich mich über die Wertschätzung meiner Arbeit – in welcher Form auch immer. Vielen Dank für Ihre Aufmerksamkeit.

« Ältere Beiträge Neuere Beiträge »

© 2023 oa books

Theme von Anders NorénHoch ↑