Sarah-Mai Dang

Kategorie: Geisteswissenschaft

oabooks.de –> Open-Media-Studies-Blog

Der Open-Media-Studies-Blog | Zeitschrift für Medienwissenschaft ist nun online!

Um die Diskussion um Publikations-, Forschungs- und Lehrpraktiken in den Geisteswissenschaften einem größeren Kreis zu öffnen und stärker in der Medienwissenschaft zu verankern, habe ich im Frühjahr 2018 den Open-Media-Studies-Blog initiiert, den ich gemeinsam mit meiner Kollegin Alena Strohmaier kuratiere. Posts zu #openaccess, #openscience, #opendata, #digitalhumanities sind jederzeit willkommen!

Zu lesen sind die Beiträge des Open-Media-Studies-Blog auch auf dem sozial- und geisteswissenschaftlichen Metablog Hypotheses: https://mediastudies.hypotheses.org/.

Weiterhin werden Posts auch auf oabooks.de erscheinen.

Open-Media-Studies-Blog / Call for Postings

In Kürze startet der Open-Media-Studies-Blog auf der Seite der Zeitschrift für Medienwissenschaft (ZfM) (Call for Postings)[Verlinkung wurde aufgrund einer veränderten URL von der Red. entfernt].

Der Blog bietet ein öffentliches Forum für aktuelle Debatten rund um den Themenkomplex Transparenz, Offenheit und Zugang in der Wissenschaft. Theoretische und wissenschaftspolitische Beiträge zu Forschungs-, Lehr- und Publikationspraktiken sind jederzeit willkommen. Kuratiert wird er von meiner Kollegin Alena Strohmaier und mir.

Wir freuen uns über Themenvorschläge an: openmediastudies@zfmedienwissenschaft.de.

Call for Postings

Open Media Studies-Blog

Open Science und Open Access sind seit geraumer Zeit viel diskutierte Themen und zunehmend realisierte Forschungs-, Lehr- und Publikationspraktiken, die auch die Medienwissenschaft betreffen. Obgleich die medienspezifische Konstitution von Wissen zu den Kernfragen der Disziplin gehört, wird die Zugänglichmachung zu und die Vermittlung von Forschungsergebnissen – und vor allem Forschungsprozessen – bislang eher am Rande reflektiert.

Der Open Media Studies-Blog möchte eine Diskussionsplattform bieten, um die Vielzahl der diversen Positionen zum Thema Open Science und Open Access in der Medienwissenschaft zu präsentieren und miteinander ins Gespräch zu bringen. Er soll die Auseinandersetzung mit wissenschaftlichen Praktiken, Methoden und Gegenständen in der eigenen Disziplin ermöglichen und verstärken. Ziel ist es, die Medienwissenschaft für offenere Arbeitspraktiken zu sensibilisieren und Forschungsprozesse transparenter zu machen. Der Blog soll die Positionierung der deutschsprachigen Medienwissenschaft in den aktuellen theoretischen und wissenschaftspolitischen Debatten stärken und das Fach über die Community hinaus sichtbarer in den Geisteswissenschaften und der Öffentlichkeit machen.

Im Kern medienwissenschaftlich ausgerichtet sucht der Open Media Studies-Blog die interdisziplinäre Auseinandersetzung. Der offenen Wissenschaft verpflichtet ist er zugänglich für alle Interessierten und sucht die direkte und kontinuierliche Diskussion mit einem möglichst großen Publikum. Die Form des Blogs erlaubt schnelle Beiträge zu aktuellen Themen, die Reflexionen von Alltagspraktiken und die Kommentierung anderer Positionen.

Der Blog ist offen für unterschiedliche Publikationsformate, für zentrale Fragen ebenso wie für Randständiges. Denkbar sind: theoretische Reflexionen, empirische Befunde, Forschungsnotizen, Gedankenspiele, Interviews, persönliche Kommentare, Erfahrungsberichte und praktische Beispiele aus Forschung und Lehre, Reviews, Bildstrecken oder Videoessays. Insbesondere gilt es, unabgeschlossene Prozesse zu reflektieren und vorherrschende Paradigmen und Konzepte zu hinterfragen. So kann etwa der Begriff der „Offenheit“ etwas je Unterschiedliches bedeuten und Zugänglichmachung auch eine Form der Schließung implizieren.

Willkommen sind deutsch- und englischsprachige Beiträge von allen Personen, die sich Open Science und Open Access oder verwandten Problemfeldern in theoretischer, methodologischer, empirischer und/oder wissenschaftspolitischer Weise nähern.

Mögliche Themenfelder der Beiträge
digitale Methoden und Technologien, digitale Forschungsobjekte, Publikationspraktiken, (Open) Peer Review, Open Monographs, Open Journals, Urheberrecht, Lizenzierungen, Forschungsdatenmanagement, Forschungstagebücher, Nachnutzungsmöglichkeiten, Langzeitarchivierung, OER (Open Educational Resources), Recherchepraktiken, Shadow Libraries, Best Practice-Beispiele, institutionelle Strukturen und Rahmenbedingungen, Wissenschaftskommunikation, Citizen Science, Openness, Open by default, Marginalisierungsprozesse, Datenschutz, Impact

Der Open Media Studies-Blog erscheint ab Mai 2018 auf der Website der Zeitschrift für Medienwissenschaft (ZfM). Überdies wird er auf dem sozial- und geisteswissenschaftlichen Metablog http://hypotheses.org/ gespiegelt. Monatlich wird ein Blogpost erscheinen (1000-2000 Wörter; CC-BY-4.0.-Lizenz).

Abstract-Einreichungen
Bei Interesse an einem der ersten Beiträge bitten wir um einen Themenvorschlag (200-300 Wörter) inkl. Kurzbiographie (150 Wörter) bis zum 15.05.2018 mit Angabe eines möglichen Einreichtermins an: openmediastudies@zfmedienwissenschaft.de.

Da es sich um ein langfristiges Projekt handelt, können gerne auch verschiedene Themenvorschläge für mehrere Posts und selbstverständlich später noch, im Laufe der Debatten, eingereicht werden.

Kuratorinnen
Dr. Sarah-Mai Dang (Philipps-Universität Marburg)
Dr. Alena Strohmaier (Philipps-Universität Marburg)

Rückfragen und Kommentare bitte an: openmediastudies@zfmedienwissenschaft.de.
Stylesheet und weitere Hinweise unter: www.zfmedienwissenschaft.de/service/submission-guidelines

Zenodo, SocArXiv oder GitHub? Preprints in den Geisteswissenschaften

In der Regel dauert es in der Wissenschaft Monate, wenn nicht Jahre, bis dass ein Artikel oder Bucheintrag veröffentlicht wird – selbst wenn der Text längst verfasst ist und den Herausgeber:innen vorliegt. Um eine zügige Veröffentlichung und Diskussion dennoch zu ermöglichen, gibt es Preprint-Server, über die Wissenschaftler:innen Manuskripte bereits vor der offiziellen Veröffentlichung zugänglich machen können (s. mein Post zu Peer Review).

In den Natur- und mittlerweile auch in den Sozialwissenschaften gibt es von der Community anerkannte Preprint-Server. In den Geisteswissenschaften steht immer noch keine dezidierte Möglichkeit zur ‚Vorveröffentlichung‘ zur Verfügung. So habe ich als Film- und Medienwissenschaftlerin erst einmal recherchieren müssen, welche adäquate Form es gibt, um nun selbst zum ersten Mal einen Artikel frühestmöglich zur Diskussion zu stellen.

Früher Zugang durch Preprint
Es handelt sich um einen Beitrag zu digitalen Werkzeugen und Methoden in der Filmgeschichtsschreibung, deren Potentiale und Herausforderungen für die Film- und Medienwissenschaft ich am Beispiel der feministischen Filmgeschichte erläutere. Da Projekte und Ansätze in den Digital Humanities derzeit stark diskutiert werden, ist es mir in diesem Fall ein besonders dringendes Anliegen, frühzeitiges und vielseitiges Feedback zu meinem Beitrag zu bekommen.

Der Artikel ist bereits eingereicht und soll am 1. Juni 2018, also in acht(!) Monaten bei MEDIENwissenschaft Rezensionen | Reviews  erscheinen. In Absprache mit der Redaktion (Danke!) habe ich mich entschieden, den ersten Entwurf vorab zu veröffentlichen. Was in den Naturwissenschaften gang und gäbe ist, stellt in den Geisteswissenschaften nach wie vor eine Besonderheit dar. Kommerzielle Plattformen wie ResearchGate oder Academia.edu werden zwar genutzt, doch in der Regel um im Nachhinein Artikel verfügbar zu machen. Leser:innen müssen sich registrieren, um die Texte herunterzuladen. Zudem sind die AGB undurchsichtig und die rechtliche Lage ist oftmals ungeklärt. Nicht zuletzt bleibt die Veröffentlichung an die Produktionsabläufe der Verlage gebunden. Außerdem können Dokumente oder ganze Accounts beliebig gelöscht oder erstellt werden. Eine nachhaltige Nutzung kann somit nicht gewährleistet werden. Die Prozesshaftigkeit von Wissenschaft spiegeln Preprint-Server weitaus besser wider. Gilt es, sich für eine offenere Wissenschaft einzusetzen und seine Publikationen sowohl zugänglicher als auch nachnutzbarer zu machen, ist dies meines Erachtens die bessere Wahl.

Relevante Kriterien für Preprints
Doch wo sollen Geisteswissenschaftler:innen ihre Preprints veröffentlichen? Und was sollen Preprint-Server eigentlich leisten?

Meiner Meinung nach sind folgende Kriterien relevant:
Sichtbarkeit durch Auffindbarkeit: durch passende Verschlagwortung, SEO, DOI (Digital Object Identifier), permanente URL
Zugänglichkeit: durch nutzer:innenfreundliches Interface, Download-Option ohne Registrierung
Nachnutzbarkeit: durch variable Lizenzierung und Zitiermöglichkeit (über DOI, permanente URL)
Nachhaltigkeit: durch permanente URL, standardisierte Metadaten, Langzeitarchivierung über Speicherverfahren wie LOCKSS  oder CLOCKSS sowie nicht beliebig löschbare Dokumente
Anerkennung in der Community: durch verbreitete Nutzung, transparente Verfahren, produktive Beiträge
Transparenz: durch Offenlegung des Source Codes, der AGB, der Finanzierung bzw. des Geschäftsmodells

Nach Gesprächen mit Kolleg:innen aus der Open Science-Community (Danke, Fellows und Aktivist:innen von „Freies Wissen“!) habe ich mir die Plattformen SocArXiv, Zenodo und GitHub näher angesehen. Schlussendlich habe ich mich entschieden, meinen Artikel als Preprint bei Zenodo hochzuladen („Digital Tools & Big Data: Zu gegenwärtigen Herausforderungen für die Film- und Medienwissenschaft am Beispiel der feministischen Filmgeschichtsschreibung“). Ausschlaggebend war die größere, wenn auch vergleichsweise geringe, Bekanntheit unter Wissenschaftler:innen in der Medienwissenschaft in Deutschland.

Mögliche Preprint-Server
1) Zenodo, https://zenodo.org/
Zenodo ist eine vom CERN 2013 ins Leben gerufene Plattform, die jedoch ausdrücklich sowohl Natur- als auch Humanwissenschaften willkommen heißt. Die Nutzung ist für Autor:innen sowie für Leser:innen kostenlos. Finanziert wird die Plattform u.a. durch die Initiative der europäische Kommission OpenAIRE.

Zenodo bietet
◦ Verschlagwortung
◦ automatische DOI
◦ variable Lizenzierung, auch ohne Creative Commons
◦ eine Community-Umgebung für Kollaborationen und Austausch
◦ verschiedene Dateiformate
◦ verschiedene Genres (z.B. Textpublikationen, Präsentationen, Videos, Poster, Bilder)
◦ ein eigenes Repositorium bzw. Gruppe
◦ Verknüpfung mit ORCID
◦ Verknüpfung mit GitHub
◦ schnellen Import von Artikeln in Literaturdatenbanken

Die Plattform ist open source basiert (GitHub). Die Nutzungsrechte bleiben bei den Urherber:innen. Auch deutschsprachige Artikel sind auf Zenodo zu finden. Unter „Medien“ sind 70 Einträge gelistet. „Medienwissenschaft“ bringt allerdings keine Suchergebnisse hervor. Dafür gibt es Beiträge zur Geisteswissenschaft, z.B. zur Bedeutung von Open Access, https://zenodo.org/record/50598). Zenodo ist einfach zu bedienen. Zudem sind die einmal hochgeladenen Dokumente oder Dateien nicht beliebig löschbar, sodass eine nachhaltige Archivierung und Nutzung gewährleistet wird.

2) SocArXivhttps://osf.io/preprints/socarxiv
In die engere Auswahl ist auch SocArXiv gekommen. SocArXiv ist mit dem Gründungsjahr 2011 ebenfalls ein relativ junger PrePrint-Server. Verstärkte Aufmerksamkeit hat er in der Diskussion um die Plattform SSRN (Social Science Research Network) bekomment, als diese 2016 von Elsevier (s. mein Blog-Post) aufgekauft wurde. Angesiedelt ist die Plattform an der University of Maryland (UMD).

SocArXiv bietet
◦ Suche nach Schlagworten und Disziplinen
◦ permanente URL
◦ automatische DOI (Digital Object Identifier) ist in Planung
◦ variable Lizenzierung (CC-O oder CC-BY)
◦ Indexierung über Google Scholar
◦ Teilen über Twitter, fb, LinkedIn und eMail
◦ Download-Statistiken
◦ Verknüpfung mit ORCID

Auch bei SocArXiv bleiben die Nutzungsrechte bei den Urherber:innen. Während bei Zenodo Daten über GitHub archiviert und verknüpft werden können, kooperiert SocArXiv mit OSF (Open Science Framework), über das man über Hintergrund und Kontext des Artikels mittels zusätzlichem Material und weiteren Daten informieren kann. SocArXiv verpricht, dass sie sich anders als SSRN nicht an Elsevier verkaufen würden. Reichweite und Netzwerk scheinen mir auch bei SocArXiv inzwischen recht groß, auch in den Humanwissenschaften. Doch da kaum deutsche Text auf der Plattform zu finden sind, habe ich Zenodo den Vorrang gegeben.

3) GitHub, https://github.com/
GitHub war mir bisher nur als Hosting-Plattform für Software, insbesondere im open source-Bereich, bekannt. Doch es ist ebenso möglich, Textdateien über GitHub verfügbar machen, nicht nur Codes. Dennoch scheinen mir SocArXiv und Zenodo für Preprint-Zwecke eindeutig geeigneter, zumal es über Zenodo möglich ist, seine Daten auf GitHub-Account zu verlinken.

4) eigene Website
Den Preprint-Artikel über die persönliche Website oder die Institutsseite zugänglich zu machen, erlaubt zwar eine unmittelbare Verknüpfung mit dem eigenen Profil, doch Auffindbarkeit und Nachhaltigkeit sind nicht gewährleistet.

Feedback willkommen!
Es stellt natürlich ein Risiko dar, ‚unfertige‘ Produkte für die Community oder gar die Öffentlichkeit freizugeben. Man stellt sich einer unbekannten Leser:innenschaft und macht sich leichter angreifbar. Dennoch freue ich mich auch über kritisches Feedback zum Text sowie über allgemeine Kommentare, Vorschläge oder eigene Erfahrungsberichte zu Preprint-Servern – nicht nur in der Film- und Medienwissenschaft.

 

Update (22. August 2019)
Seit diesem Jahr gibt es MediArXiv, ein offenes, internationales, mehrsprachiges, crowd-sourced Repositorium für die Medien-, Film- und Kommunikationswissenschaft (und angrenzende Disziplinen), dem ich als Mitglied des Steering Committee angehöre. MediArXiv fokussiert derzeit vor allem Publikationen, also Artikel, Buchkapitel und ganze Bücher, sowohl als Preprint als auch als Postprint.

Geht es um das Zugänglichmachen von Texten, ist MediArXiv zu empfehlen. Geht es jedoch um heterogeneres Material, z.B. um Präsentationen, oder um die Organisation einer themenspezifischen Community, ist Zenodo die geeignetere Anlaufstelle.

Des Weiteren gibt es für die deutschsprachige Medienwissenschaft das Repositorium media/rep, das in Kooperation mit Verlagen Publikationen sammelt und open access stellt.

Zurück zum Kopierer? Wie die VG Wort den Zugang zu Wissen und die Arbeit von Wissenschaftlerinnen erschwert

Die Verwertungsgesellschaft Wort (VG Wort) soll die Interessen von Urheberinnen vertreten. Dazu gehören auch Autorinnen wissenschaftlicher Werke und damit Wissenschaftlerinnen. Doch der neue Rahmenvertrag, der zwischen der VG Wort und den Kultusministern der Länder abgeschlossen wurde und ab 2017 in Kraft treten soll, erschwert den Zugang zu Wissen und die Arbeit von Wissenschaftlerinnen.

Grundsätzlich haben Urheberinnen das ausschließliche Recht zur Vervielfältigung und zur Verbreitung ihrer Werke. Das deutsche Urheberrecht erlaubt aber Vervielfältigungen zum privaten oder wissenschaftlichen Gebrauch sowie den ungewerblichen Verleih. Für diese Nutzungen sind die Urheberinnen zu entschädigen. Da sie jedoch nicht jeden Gebrauch einzeln geltend machen können, werden pauschale Abgaben, z.B. für Kopiergeräte, an Verwertungsgesellschaften gezahlt. Für Schriftwerke übernimmt in Deutschland die VG Wort die Verwaltung dieser sogenannten Reprographieabgabe und Bibliothekstantieme.

Auch Universitäten zahlen für das Kopieren und die Nutzung von Texten. Seit Jahren wird allerdings diskutiert, wie eine „angemessene Vergütung“ für die Nutzung digitaler Kopien, etwa auf eLearning-Plattformen, aussehen soll. Darauf kann auch der neue Rahmenvertrag keine Antwort geben, denn er sieht ein aufwendiges Meldeverfahren vor, das sich in keinen wissenschaftlichen Alltag integrieren lässt. Das hat jüngst ein Pilotprojekt der Universität Osnabrück gezeigt.

Bisher haben Universitäten jährlich Pauschalbeträge für die „Öffentliche Zugänglichmachung von urheberrechtlich geschützten Werken für Unterricht und Forschung“ (§ 52a UrhG) an die VG Wort abgeführt. Ab 2017 sollen alle digitalen Texte einzeln erfasst und abgerechnet werden. Pro Seite und Seminarteilnehmerin bzw. Projektmitarbeiterin werden 0,8 Cent berechnet.

Textteile bis zu maximal 12% eines Werkes, insgesamt jedoch nicht mehr als 100 Seiten, sowie kürzere Texte mit maximal 25 Seiten dürfen online zugänglich gemacht werden. Seiten, die überwiegend Fotos oder Bilder zeigen, werden interessanterweise nicht mitgezählt.

Wissenschaftlerinnen müssen gewährleisten, dass die Textteile begrenzt zugänglich sind, der Zugang zum jeweiligen eLearning-Kurs also nur durch ein Passwort möglich ist. Nicht zugänglich machen darf man Digitalisate, wenn der Text durch die Rechteinhaberin selbst schon in digitaler Form angeboten wird. Dann ist diese Version zu verwenden, d.h. ggf. ist mit der jeweiligen Rechteinhaberin in Kontakt zu treten, um eine lizenzierte Kopie zu erwerben.

In Open Access-Zeitschriften und -Repositorien veröffentlichte Texte unterstehen einer Creative Commons-Lizenz, welche von vornherein und kostenlos ihre Vervielfältigung und Verbreitung erlaubt. Sie fallen daher nicht unter die Meldepflicht.

uebersicht_urhg52

Anne Fuhrmann-Siekmeyer, Universität Osnabrück, CC-BY-SA

Durch digitale Technologien können Forschungsergebnisse leichter zugänglich gemacht werden. Elearning-Plattformen sind dafür ein gutes Beispiel. Doch das geplante Verfahren verkompliziert die Nutzung wissenschaftlicher Texte. Es steht in einem krassen Widerspruch zu den Interessen von Wissenschaftlerinnen, die als Urheberinnen von der VG Wort eigentlich vertreten werden sollen. Sie sind für die digitalen Semesterapparate verantwortlich und haften ab 2017 persönlich für die Einhaltung der neuen Regelungen. Zur Rechtsunsicherheit kommt der bürokratische Mehraufwand[Verlinkung wurde aufgrund einer veränderten URL von der Red. entfernt], der in keinem Verhältnis zum Nutzen steht. Die geschätzten Verwaltungskosten würden ein Vierfaches der zu zahlenden Beträge ausmachen.

Aus diesen Gründen weigern sich Universitäten bundesweit, dem Rahmenvertrag beizutreten. So ist zu hoffen, dass der Vertrag so nicht umgesetzt werden kann und nochmals Nachverhandlungen stattfinden. Andernfalls würden digitale Texte wahrscheinlich durch Handapparate ersetzt werden und die Studierenden müssten wieder Schlange stehen am Kopierer.

Vielleicht greifen Wissenschaftlerinnen nun verstärkt auf Open Access-Publikationen zurück und beginnen endlich selbst, unter einer CC-BY-Lizenz zu veröffentlichen. Dann hätten die unliebsamen Neuregelungen am Ende doch noch einen Sinn.

Peer Review in Zeiten von Open Access

Mit der zunehmenden Verbreitung von Open Access stellt sich die Frage nach der Rolle klassischer Peer Review neu. Denn digitale Veröffentlichungspraktiken erlauben alternative Verfahren wissenschaftlicher Qualitätssicherung.

Über die Schwachstellen von Peer Review (subjektiv, willkürlich, undurchsichtig, langsam, ineffizient) wird viel diskutiert. Doch nach wie vor stellt Peer Review – die offizielle Begutachtung von Texten durch renommierte Wissenschaftlerinnen – eine anerkannte Praxis dar. Peer reviewed Artikel oder Bücher gelten als hochwertiger im Vergleich zu Texten, die auch ohne formelle Freigabe ihren Weg in die Öffentlichkeit finden. Zunehmend gilt die Kategorie auch in den Geisteswissenschaften als ein Gütesiegel, das auf keiner Publikationsliste fehlen sollte.

Doch gibt es tatsächlich Unterschiede zwischen offiziell begutachteten Texten und jenen, die schlichtweg eine Herausgeberin begeistern oder gar von der Autorin eigenständig veröffentlicht werden? Wie sinnvoll ist Peer Review im digitalen Zeitalter, wo es de facto keine physische Platzbeschränkung mehr für Texte gibt? Wie hat Open Access die Bewertung von Texten verändert?

Die Aussagekraft von Gutachten
Peer Reviewer dienen als Gatekeeper. Gutachterinnen sollen dafür sorgen, dass nur Texte, die wissenschaftlichen Standards (Originalität, Schlüssigkeit, Nachprüfbarkeit) genügen, publiziert werden. Damit soll die Qualität von Forschung gewährleistet werden.

Welche Kriterien wirklich maßgebend für die Gutachten sind, ist allerdings nicht immer ersichtlich. Im besten Fall erhält man von Reviewern konstruktives Feedback und der Text gewinnt an Prägnanz, die Argumentation an Schlagkraft. Im schlimmsten Fall nutzen Gutachterinnen ihre Position, um unliebsame Theorien, also ihre Konkurrenz auszubremsen. Originelle Arbeiten bleiben dann im Dunkeln, die Forschung stagniert (s. auch „Does Science Advance One Funeral at a Time?“).

Nicht von der Hand zu weisen ist jedenfalls, dass die individuelle Prädisposition einer jeden Gutachterin immer eine Rolle spielt im Begutachtungsprozess. Dies ist umso wichtiger zu bedenken, wenn nur eine einzige Person über die Veröffentlichung entscheidet. Neben objektiven Kriterien bestimmen in der Regel allgemeine, oftmals unbewusste Vorurteile gegenüber der Autorin (etwa aufgrund des Namens, der Reputation, des Herkunftslandes oder des Geschlechts) die Entscheidung. Wie aussagekräftig ist also das Prädikat „peer reviewed“?

Unterschiedliche Standards und Verfahren
Peer Review ist nicht gleich Peer Review. Die Begutachtungsverfahren können sich nicht nur von Verlag zu Verlag unterscheiden, sondern auch von Zeitschrift zu Zeitschrift. So werden manchmal nur ein einziges Gutachten, manchmal zwei oder mehr eingeholt. Manche Peer Review-Verfahren sind „single blind“, d.h. die Gutachterin kennt den Namen der Autorin, die Autorin aber nicht jenen der Gutachterin; manche Verfahren gehen „double blind“ von statten, d.h. beide, Gutachterin und Autorin, bleiben anonym. Um Transparenz in die unterschiedlichen Verfahren zu bringen und sie vergleichbar zu machen, führt die OAPEN Library die jeweilige Vorgehensweise der an ihrer Plattform beteiligten Verlage auf.

Anonymität vs. Fairness
Die Anonymität der Reviewer soll unabhängige, faire und freimütige Gutachten ermöglichen. Doch zu welch unausgegorenen Äußerungen einseitige Anonymität verleiten kann, kennt man nur zu gut von den Kommentarspalten im Internet. Wie das Feedback von Reviewern mitunter aussehen kann, ist auf dem recht unterhaltsamen Tumblr-Blog „Shit my Reviewers Say“ zu lesen.

Dreht man den Spieß um und anonymisiert allein die Autorin, wie es Martin Paul Eve, Mitgründer der Open Library of Humanities, in einem Gedankenspiel demonstriert, wird Vorurteilen Einhalt geboten und zudem konstruktives Feedback gefördert, da die Gutachterin mit ihrem Namen einstehen muss. Außerdem wird so die – meist unbezahlte – Gutachterinnentätigkeit gewürdigt (um die Würdigung von Peer Review geht es auch in der diesjährigen, gerade stattfindenden Peer Review Week). Gleichzeitig steigt der Druck auf die Reviewerin, einwandfreie und damit eher konservative Arbeiten freizugeben, um der Kritik der Kolleginnen vorzubeugen. Auch so können also Veröffentlichungen progressiver Forschung verhindert werden.

Grundsätzlich ist anzuzweifeln, ob man innerhalb einer kleineren, überschaubaren Disziplin Anonymität überhaupt gewährleisten kann oder ob nicht Thema und Position des eingereichten Textes bzw. des Feedbacks ohnehin auf die Identität der Autorin bzw. der Gutachterin hinweisen.

Einen Leitfaden für Gutachterinnen, wie ein verantwortlicher Peer Review-Prozess so oder so aussehen sollte, hat das Committee on Publication Ethics (COPE) erstellt.

Transparenz durch Open Peer Review
Um dem undurchsichtigen Verhältnis zwischen Gutachterin und Autorin entgegenzuwirken, gibt es mittlerweile mehr und mehr Formen der Open Peer Review. Dabei werden beispielsweise die Gutachten mitveröffentlicht, wie etwa im digitalen Video Essay-Journal [in]Transition. Dadurch wird das Feedback als wichtiges Instrument in der Entstehung wissenschaftlicher Texte gewürdigt. Doch da die auf der Website zu sehenden Arbeiten bereits für veröffentlichungswürdig befunden wurden, fallen die Gutachten entsprechend positiv und wenig kritisch aus. Warum ein eingereichter Text nicht publiziert wird, erfährt allein die Autorin. Wie bei der traditionellen Peer Review werden die Gutachten vor der Veröffentlichung erstellt (pre-publication review).

Eine nachträgliche Form der Open Peer Review (post-publication review) stellen Kommentare dar – eine Praxis, die etwa das Content Management-System von MediaCommons Press (s. z.B. Open Review. A Study of Contexts and Practices) oder das Annotationsprogramm Hypothes.is (s. auch diese Website) unterstützen. Arbeiten können mittels Kommentarfunktion noch lange nach Erscheinen öffentlich diskutiert werden. Dadurch wird der Tatsache Rechnung getragen, dass Wissenschaft kollaborativ funktioniert, dass Publikationen immer nur ein Zwischenergebnis eines langwierigen Arbeitsprozesses darstellen können und dass Forschung niemals abgeschlossen ist. Der Gebrauch der Kommentarfunktion hält sich bei wissenschaftlichen Texten im Gegensatz zu Nachrichtenportalen allerdings in Grenzen. Die Hemmungen, seinen Senf zu einem Text öffentlich – und vor allem schriftlich – dazuzugeben, scheinen unter Akademikerinnen (noch) zu groß.

Inoffizielle Qualitätssicherung
Dafür ermöglichen inoffizielle Feedbackrunden (ob mündlich oder schriftlich) einen produktiven Austausch. Wichtige Texte werden nämlich ohnehin vorab von Kolleginnen gegengelesen und auf Konferenzen diskutiert und passieren mehrere Stufen der Überarbeitung bevor sie Autorinnen zur Veröffentlichung einreichen. Diesen crowdsourced Peer Review-Prozess, mit Hilfe dessen im Grunde alle Publikationen entstehen, öffentlich vonstatten gehen zu lassen, dafür setzt sich Kathleen Fitzpatrick ein, die 2009 einen ersten Versuch mit ihrem Buchprojekt Planned Obsolescence gestartet hat. Weitere Publikationen wie die oben genannte Studie zu Open Peer Review oder Jason Mittells Buch Complex TV. The Poetics of Contemporary Television Storytelling haben sich Fitzpatricks Experiment zum Vorbild genommen.

Crowd Review dank Preprint-Server
Preprint-Server – Onlineplattformen, auf denen Wissenschaftlerinnen ihre Texte schon vor der offiziellen Veröffentlichung hochladen können – sind der beste Beweis dafür, dass auch (noch) nicht formell begutachtete Texte längst als ernstzunehmende Publikationen gelten. Preprint-Server wie arXiv.org für Physik, Informatik und Mathematik oder das leider in Verruf geratene Social Science Research Network (SSRN) für Wirtschaftswissenschaft und Jura sind für viele Wissenschaftlerinnen nicht mehr wegzudenken; die sich im Aufbau befindende Plattform SocArXiv für Sozialwissenschaften wächst stetig.

Zumindest aus wissenschaftlicher Sicht scheint der auf eine Veröffentlichung auf einem Preprint-Server in einer Zeitschrift folgende peer-reviewed Artikel an Bedeutung zu verlieren. „We now read papers, not journals“, konstatiert George Lozano in seinem Blogpost zum Impact Factor und der sinkenden Relevanz renommierter Zeitschriften. Preprint-Server erlauben der Community jedenfalls, Forschungsergebnisse lange vor dem Abschluss eines mehrmonatigen Peer Review-Verfahrens und der endgültigen – in der Regel gedruckten – Fassung zu lesen und zu evaluieren.

Qualität durch Open Access
Wenn mit der zunehmenden Verbreitung von Open Access und digitalen Publikationen Texte insgesamt leichter zugänglich sind und eher gelesen werden, ist anzunehmen, dass sich Autorinnen stärker denn je darum bemühen, gute Arbeiten zu präsentieren. Onlinepublikationen sorgen für mehr Transparenz und Vergleichbarkeit. Ein und derselbe Text lässt sich dann nicht mehr so leicht unter unterschiedlichen Titeln in verschiedenen Sammelbänden oder Zeitschriften unterbringen – was in Zukunft vielleicht die Bedeutung von Publikationslisten relativieren wird und auch die Kategorie „peer reviewed“.

Im Fahrstuhl zur Erkenntnis? Oder: Das Dilemma von Wissenschaftskommunikation

In ein paar Sätzen das postdramatische Literaturtheater eines französischen Autors vorstellen? Eben mal die Funktionsweise von Serialität und Wiederholung im Pornofilm erläutern? Den Unterschied zwischen ästhetischer und sozialer Erfahrung kurz auf den Punkt bringen?

Heute scheint es nicht mehr auszureichen, wenn Wissenschaftlerinnen lehren, forschen und publizieren. Neben Drittmittelanträgen für „Spitzenforschung“ und internationalen Kooperationen muss man zudem noch auf allen Social Media-Plattformen präsent sein und Ergebnisse öffentlichkeitswirksam vorführen. Dabei gilt hauptsächlich eines: Die Forschung muss verständlich sein. Am besten innerhalb einer Minute. Wie im sogenannten Elevator Pitch.

Der Elevator Pitch und Wissenschaftsevents
Ein Elevator Pitch dient in erster Linie der Präsentation der eigenen Person. Er soll verkaufen, dem Gegenüber den Nutzen eines Vorhabens verdeutlichen und für eine Sache interessieren. Deshalb muss der Pitch vor allem emotional ansprechen.

Zunehmend bedienen auch Wissenschaftlerinnen sich solch einer Vermittlungsform, in Science Slams, Science Notes  oder TED Talks.

Gegen unterhaltsame Präsentationen ist nichts einzuwenden. Gegen ein wachsendes Bewusstsein für den Zugang zu und die Verbreitung von Wissen erst recht nicht (Stichwort „Open Access“). Doch welchen Nutzen, welchen Sinn und Zweck haben Wissenschaftsevents und was wird eigentlich warum präsentiert? Was erfahren Menschen dort?

„What is it that the TED audience hopes to get from this?“, möchte auch der Kunst- und Philosophie-Professor Benjamin Bratton im Guardian wissen. Bratton gibt zu, dass die Talks ihn zwar amüsieren, doch dass er sofort wieder vergisst, worum es ging. Der Wissenschaftsjournalist Martin F. Robbins kritisiert im New Statesman, dass TED Talks nicht dazu dienten, Ideen vorzustellen und zu reflektieren, sondern dazu, „to make people feel good about themselves; to flatter them and make them feel clever and knowledgeable“.

Ich selbst habe mir zahlreiche TED Talks angesehen und bin von den Themen angetan und der Redekunst fasziniert. Und vor kurzem habe ich in diesem Blog auf einen großartigen Auftritt der Künstlerin Amanda Palmer verlinkt. Dennoch stellt sich auch mir die Frage, was bleibt wirklich hängen von den schillernden Präsentationen, den „ideas worth spreading“?

Wissenschaft und Gesellschaft
Laut des Wissenschaftsbarometers 2016, das im Auftrag der Organisation Wissenschaft im Dialog erstellt wurde, interessieren sich immer mehr Menschen in Deutschland für „wissenschaftliche Themen“, nämlich 41% der rund 1000 Befragten (im Unterschied zu 36% und 31% in den beiden Vorjahren). Ebenso viele finden allerdings, dass Wissenschaftler sich zu wenig darum bemühen, die Öffentlichkeit über ihre Arbeit zu informieren.

Aber was genau möchten die Befragten denn wissen? Handelt es sich bei der Forderung nach mehr Öffentlichkeit um eine allgemeine Kritik am akademischen Elfenbeinturm? Oder geht es tatsächlich um ein konkretes Interesse an Forschung?

Inwiefern Geistes- und Sozialwissenschaftlerinnen sich besonders schwer tun, ihre Erkenntnisse einem breiten Publikum zu vermitteln, warum sie weniger als Naturwissenschaftlerinnen in der Öffentlichkeit wahrgenommen werden und ob sie Medien eher meiden, wurde vergangene Woche beim Berliner Stammtisch Wissenschaftskommunikation 2.0. diskutiert. Es wurde argumentiert, dass Texte sich eben schwerer als Experimente präsentieren ließen und dass Geisteswissenschaften weniger „anwendungsbezogen“ und damit weniger öffentlichkeitswirksam seien.

In der Diskussion wurde ein grundlegendes Dilemma von Wissenschaftskommunikation deutlich: dass die Komplexität von Erkenntnissen stark reduziert werden muss, um diese einem breiten Publikum verständlich zu machen. Dabei läuft man zwangsläufig Gefahr, Widersprüche und Ambiguitäten auszublenden. Begriffsgeschichten verschwinden hinter eingängigen Schlagworten.

Gleichzeitig hat der Kunstwissenschaftler Daniel Hornuff recht, wenn er in der FAZ schreibt: „Was nicht zur Aufführung gebracht wird, kann nicht verhandelt werden. Sich ungewohnten Ausdrucksformen zu verschließen, bedeutet also auch, das Streiten zu unterbinden.“ Geisteswissenschaftler sollten, so Hornuff, die Skepsis gegenüber den Medien hinter sich lassen und zu „Profis der Skepsis“ werden.

Allerdings darf man nicht übersehen, dass Wissenschaftler sich mehr und mehr darum bemühen, ihre Arbeit über Blogs, Twitter und Facebook – oder auf Wissenschaftsevents – sichtbarer und zugänglicher zu machen. Ebenso bedienen sich nun auch deutsche Universitäten zunehmend sozialer Medien, um für sich zu werben und sich nach außen hin zu öffnen, wie Anna-Lena Scholz im Tagesspiegel beschreibt.

Wissenschaftler sind keine Unternehmer
Einerseits sind die steigende Nutzung digitaler Vermittlungsmöglichkeiten und das verstärkte Interesse an Forschung erfreulich. Andererseits wächst mit der allgemeinen Forderung nach mehr Öffentlichkeit auch der ohnehin große Druck auf Wissenschaftlerinnen, ihre Tätigkeit zu legitimieren und sich inmitten all der „praktischen“ Berufe zu behaupten. Dass man sich mit einer Promotion oder gar einer Habilitation bereits als Wissenschaftlerin qualifiziert hat (und damit guten Gewissens forschen und öffentliche Gelder beziehen dürfen sollte), darf in der Diskussion um (mehr) Wissenschaftskommunikation nicht in Vergessenheit geraten.

Ob eine Forschungsfrage auf Anhieb verständlich ist und Ergebnisse sich hübsch verpacken lassen, gibt nämlich keinerlei Auskunft über die Sinnhaftigkeit eines Projekts. Und schon gar nicht über dessen Nutzen. Daher ist fraglich, ob der Elevator Pitch zur Darstellung wissenschaftlicher Arbeit taugt. In ihm zeigen sich höchstens die Präsentations- und Verkaufsqualitäten der Vortragenden. Doch Wissenschaftler sind keine Wissenschaftsjournalisten. Und erst recht keine Unternehmer.

Digital Humanities – neoliberal oder politisch progressiv?

Die Bedeutung und Konsequenzen der Digital Humanities diskutieren WissenschaftlerInnen in der Los Angeles Review of Books.

Wenn Digital Humanities zum Selbstzweck werden. Ein kritischer Beitrag von Daniel Allington, Sarah Brouillette und David Golumbia.

Daniel Allington, Sarah Brouillette und David Golumbia explain how Digital Humanities plays a lead role in the corporatist restructuring of the humanities.

„What Digital Humanities is not about, despite its explicit claims, is the use of digital or quantitative methodologies to answer research questions in the humanities. It is, instead, about the promotion of project-based learning and lab-based research over reading and writing, the rebranding of insecure campus employment as an empowering ‚alt-ac‘ career choice, and the redefinition of technical expertise as a form (indeed, the superior form) of humanist knowledge.“

Quelle: Neoliberal Tools (and Archives): A Political History of Digital Humanities – Los Angeles Review of Books

Eine lesenswerte Replik haben Juliana Spahr, Richard So, Andrew Piper verfasst. Sie weisen auf das Potenzial der Digital Humanities und auf ihre Vielseitigkeit hin.

„The history the authors provide also risks effacing contributions from individuals in the present – particularly women and persons of color – who work outside of this institutional framework. There is a tremendous amount of new scholarship being produced in DH that seeks to answer significant research questions, and a great deal of this work directly addresses issues related to race, gender, class, and power.“

Quelle: Beyond Resistance: Towards a Future History of Digital Humanities – Los Angeles Review of Books

„Was nichts kostet, ist nichts wert.“ Oder: Wie kann Open Access eigentlich finanziert werden?

Wenn Texte kostenfrei zur Verfügung gestellt werden, lassen sie sich nicht mehr verkaufen. Wie aber kann man dann die Produktion von Texten (das Denken, das Schreiben, das Lektorieren, das Korrigieren, die Formatierung, den Satz bzw. die Programmierung) und die Zugänglichkeit zu Texten, die bisher vor allem Bibliotheken gewährleisten, finanzieren?

Bei digitalen Texten halten sich die Kosten für die Bereitstellung im Rahmen. Dank WordPress muss man Websites nicht mehr aufwendig programmieren. Vorlagen kann man entsprechend anpassen, nachdem man sich in die Grundlagen von HTML und CSS reingefuchst hat. Selbst ohne jegliche Programmierkenntnisse kann man einen Blog oder eine persönliche Website aufsetzen. Und auch die Serverkosten sind überschaubar. Finanzieller und persönlicher Aufwand für die Schaffung einer digitalen Infrastruktur sind also überschaubar. Doch die Textproduktion ist nach wie vor ein aufwendiger und mühsamer Prozess, um den man nicht herumkommt. Und der will entlohnt werden. Doch wie, wenn man seine Texte am liebsten kostenfrei zur Verfügung stellen möchte, damit sie möglichst viele lesen können?

In den Geisteswissenschaften rechnen WissenschaftlerInnen ohnehin nicht damit, ein Honorar für ihre Texte zu bekommen. Denn die Texte selbst sind die Währung. Je länger die Publikationsliste, desto größer der Marktwert. Deshalb sind in Deutschland AutorInnen sogar bereit, einem Verlag zwischen 2.000 und 8.000 Euro (je nach Reputation des Verlags) zu bezahlen, damit dieser ihre Monographie veröffentlicht. Wenn ihre Publikation durch einen „Druckkostenzuschuss“ eines Drittmittelprojekts finanziert wird, dürfen sie selbst nichts an dem Buchverkauf verdienen. Eine entsprechende Honorar-Verzichtserklärung muss man dann unterschreiben. Bei einer durchschnittlichen Auflage von 300 Stück pro Dissertation (die man ja in Deutschland veröffentlichen muss, um seine Promotion abzuschließen) stellen die Druckkostenzuschüsse für die Verlage eine wichtige Einnahmequelle dar. Je niedriger der angesetzte Verkaufspreis des Buches ist (in der Regel zwischen 25 und 65 Euro), desto größer die Rolle des Druckkostenzuschusses in der Verlagskalkulation. Darüber hinaus können Verlage mit der Abnahme einer gewissen Menge an Büchern durch Bibliotheken rechnen. Verlage in den USA verkaufen zunächst die erste Auflage, die als Hardcover und damit zu einem höheren Preis von bis zu $100 erscheint, an Bibliotheken, bevor sie eine günstigere Paperback-Version (deren Preis allerdings nicht immer weit unter dem Hardcover-Preis liegt) herausbringen.

Mit diesen Ausführungen möchte ich keinesfalls Stimmung gegen Verlage machen, wie dies manche Open Access-Verfechter tun, sondern schlichtweg darauf aufmerksam machen, wie das wissenschaftliche Publikationswesen funktioniert. Denn gerade im digitalen Zeitalter, wo das Selbstpublizieren ein Kinderspiel geworden ist, gibt es für WissenschaftlerInnen viele Alternativen zum herkömmlichen Publikationssystem, die sie nutzen könnten, wenn sie wollten. Den meisten WissenschaftlerInnen, mit denen ich gesprochen habe, als ich einen digitalen Wissenschaftsverlag gründen wollte, liegt das gedruckte Buch jedoch so sehr am Herzen, dass sie in der digitalen Publikation vor allem eine Abwertung ihrer Arbeit sehen würden. Viele befürchten zudem, dass eine Veröffentlichung bei einem (noch) unbekannten Verlag ihrer Karriere schaden könnte. Vielleicht zu recht. Manche sind grundsätzlich gegen Open Access, da für sie der Grundsatz gilt „Was nichts kostet, ist nichts wert.“ Damit komme ich zum eigentlichen Thema dieses Posts: Wie lässt sich Open Access eigentlich finanzieren?

Wie bereits erwähnt, übernehmen bisher vor allem AutorInnen bzw. die sie fördernden Institutionen die Gebühr für den kostenfreien Zugang, die APC (article processing charge). So muss man zum Beispiel 2.150 Euro bezahlen, um einen Artikel in einer Zeitschrift der britischen Verlagsgruppe Taylor & Francis open access zu stellen und ca. 12.600 Euro, um seine Monographie beim geistes- und sozialwissenschaftlichen Verlag Routledge, der zu Taylor & Francis dazugehört, open access zu veröffentlichen. Das Ziel, diese Gebühren gerecht zu verteilen und nicht allein auf die AutorInnen abzuwälzen, haben sich Projekte wie Knowledge Unlatched und Luminos auf die Fahnen geschrieben. Bei Knowledge Unlatched teilen sich Bibliotheken (die ohnehin die Bücher kaufen würden) die von den Verlagen verlangte Open Access-Gebühr. Luminos, ein Projekt der University of California Press, möchte, dass alle, die von der Publikation profitieren (AutorInnen, Institutionen, Bibliotheken und Verlage) für die Produktion und Verbreitung aufkommen.

Dass auch die LeserInnen für den kostenfreien Zugang bezahlen, scheint ein zu großes Paradox. Doch warum sollen nicht tatsächlich alle, die Nutzen aus den Texten ziehen, dafür bezahlen (können)? Die Musikerin Amanda Palmer bringt es in ihrem TED-Talk „The Art of Asking“ auf den Punkt: „Don‘t make people pay. Let them.“ Nachdem ihr Label sie nicht länger unterstützen wollte, da sie ‚nur‘ 25.000 CDs verkaufte, hat sie für ihre nächste Plattenproduktion eine Crowdfunding-Kampagne gestartet. Diese Aktion brachte ihr $1.192.793 ein – von insgesamt fast 25.000 SpenderInnen. (Danke, Marion Goller, für diesen Hinweis.)

Neben Crowdfunding (wodurch inzwischen ganze Forschungsprojekte unterstützt werden sollen) hat das Internet weitere Finanzierungsmodelle hervorgebracht, die sich auch für die Produktion wissenschaftlicher Texte eignen könnten, z.B. maßgeschneiderte Werbung. Doch viele Menschen stehen Werbung prinzipiell skeptisch gegenüber. Zudem empfinden sie es als starke Beeinträchtigung des Lesegenusses (Stichwort Adblocker), der bei Online-Publikationen ja ohnehin gefährdet scheint. Werbung stellt also nicht die die beste Finanzierungsweise dar, wenn es um wissenschaftliche Texte geht. Da erscheint mir die Möglichkeit des Micropayments, der Bezahlung von Kleinstbeträgen, sinnvoller. Das Problem bei der Nutzung von Online-Inhalten ist meiner Meinung nach weniger die von KulturpessimistInnen verdammte „Umsonstkultur“, sondern der Mangel an unkomplizierten Bezahlmöglichkeiten (neben der durch das DRM eingeschränkten Nutzung versteht sich, doch das ist nicht Thema dieses Posts). Muss man immer wieder seine Kontaktdaten und Kreditkartennummer in Bezahlmasken eingeben, ist das nicht nur zeitaufwendig, sondern auch riskant und heikel. Vielleicht ist dies unter anderem der Grund, warum Matthew Butterick mit seiner tollen Website über Typographie (wie bereits in einem früheren Post erwähnt) trotz eines implementierten Zahlsystems nur 1 von 1000 LeserInnen dazu bringt, eine Überweisung vorzunehmen (ich habe trotzdem eine kleine Summe überwiesen, nicht weil ich musste, sondern weil der Autor mich darum gebeten hat, s. Amanda Palmer).

Der Journalistin Antje Schrupp wäre Werbung viel lieber als das Geld von LeserInnen, müsste sie von ihrem Blog „Aus Liebe zur Freiheit. Notizen zur Arbeit der sexuellen Differenz“ leben. Denn durch Werbung wäre sie freier beim Schreiben als wenn sie in der Schuld ihrer LeserInnen stünde. Letztendlich verdient sie ihren Lebensunterhalt allerdings durch das Vermitteln der Gedanken, die man kostenlos auf ihrem Blog lesen kann. So steigern Publikationen auch ihren Marktwert und damit die Nachfrage nach ihren (bezahlten) Vermittlungstätigkeiten (Vorträge, Podiumsdiskussionen etc.). Nicht zu vergessen sei allerdings die Aufmerksamkeit, die ihr die LeserInnen entgegenbrächten, in Form von Klicks und Kommentaren. Das Lesen sei ja ebenfalls eine Investition, gar ein Geschenk, weil freiwillig.

Um seiner Wertschätzung im Internet Ausdruck zu verleihen, gibt es neben Kommentaren und Verlinkungen, Retweets und Likes auch den Flattr-Button, über den man monatlich eine selbst festgelegte Spendensumme an verschiedene Projekte verteilen kann, und das Bezahlsystem PayPal, das eine relativ einfache Überweisung erlaubt. (Flattr-Gründer Peter Sunde will nun übrigens in Kooperation mit AdBlock Plus ein automatisches Spendensystem implementieren wie der Guardian berichtet.) Der Digitalverlag mikrotext setzt zum Beispiel – wie Zeitungen – aufs Abo, das wiederum bei Zeitschriften wie The Economist im Grunde als Flatrate funktioniert. Ich werde Flattr-Button und PayPal mal ausprobieren, insbesondere letzteres, damit man mein Print-on-demand-Buch einfacher erwerben kann. Selbstverständlich freue auch ich mich über die Wertschätzung meiner Arbeit – in welcher Form auch immer. Vielen Dank für Ihre Aufmerksamkeit.

DH Cinema Projects

„Digital Humanities“ ist ein schillernder Begriff und derzeit in aller Munde. Darunter fallen computergestütze Verfahren zur Aufarbeitung und Archivierung von Datensätzen oder zur Präsentation von Forschungsergebnissen ebenso wie die Analyse von digitalen Vorgängen und Objekten. Digital Humanities steht für neue Methoden und Theorien in den Geisteswissenschaften, wenn nicht gar für ein neues Fach, das sich auf Ansätze aus den Software Studies und den Science and Technology Studies stützt.

Wie Digital Humanities-Projekte in den Medienwissenschaften aussehen, haben Marina Hassapopoulou (NYU) und Anne Amanda Moore (Columbia) einer Liste zusammengetragen.

DH Cinema Projects

Die Liste ist Teil des übergeordneten Projektes Transformations I. Cinema & Media Studies Research Meets Digital Humanitites Tools, das sich mit der Frage auseinandersetzt, inwiefern Film- und Medienwissenschaften, die sich per se für neue Technologien (wie damals zum Beispiel dem Kino) interessieren, bereits vor der Entstehung des Begriffs genau das getan haben, was heute Digital Humanities heißt.

© 2023 oa books

Theme von Anders NorénHoch ↑