Wissenschaftler:innen nutzen digitale Tools zur Ermöglichung und Erleichterung ihrer Arbeit in Forschung, Lehre und Kommunikation. Die vernetzten Technologien erweisen sich dabei zunehmend auch als Medien einer umfassenden Überwachung, Kontrolle und Verwertung. Bedrohen sie die Freiheit der Wissenschaft?
Das Jahrbuch Technikphilosophie nimmt Impulse einer laufenden Debatte auf und erkundet das Terrain mit Erfahrungsberichten, Recherchen und Reflexionen zum Thema: Haben auch Sie Beobachtungen, Erfahrungen, Überlegungen zu dem Thema, die Sie mit uns und unseren Leser:innen teilen möchten? Geeignete Einsendungen veröffentlichen wir gern auf dieser Seite.
Das Bild kann als Karte genutzt werden, um zu Beiträgen über verschiedene Aspekte des Themas zu navigieren. Illustration: Matthias Seifert
Bei der Debatte um das Wissenschaftstracking stand bislang vor allem die Sensibilisierung für den Datenschutz im Vordergrund. Das ist ein wichtiger erster Schritt, denn nur wenn Forschende sich darüber bewusst sind, dass ihr Forschungsverhalten Klick für Klick überwacht und kommerziell verwertet wird, können sie sich dafür engagieren, dieser Praxis Einhalt zu gebieten. Doch wie so oft bei Datenschutzthemen droht sich Fatalismus breitzumachen, wenn die Debatte in der Problembeschreibung steckenbleibt.
Viel zu wenige Universitäten bieten ihren Forschenden proaktiv eine eigene, datenschutzsensible Software-Infrastruktur an, die kollaboratives wissenschaftliches Arbeiten auch institutionenübergreifend ermöglichen würde. Große Teile der wissenschaftlichen Literatur sind ausschließlich über die Portale der kommerziellen Wissenschaftsverlage verfügbar, die mit verwirrenden Cookie-Bannern aufwarten. Allein sich einen Überblick zu verschaffen, welche Daten ein Konzern wie Elsevier über einen gespeichert hat, ist ein aufwändiges Unterfangen[1]. Im ohnehin schon stressigen Forschungsalltag ist es unrealistisch, dass einzelne Forschende sich selbst vor dem Tracking durch diese Unternehmen schützen, indem sie deren Produkte meiden.
Ein Appell an die Eigenverantwortung der Forschenden allein kann also nicht die Lösung sein. Es ist deshalb folgerichtig, dass sich die Petition „Stop Tracking Science“ mit ihren Forderungen in erster Linie an die Universitäten und andere Forschungsinstitutionen richtet.[2] Forschende haben ein Recht darauf, dass öffentliche Wissenschaftseinrichtungen sie in der Ausübung ihrer Wissenschaftsfreiheit schützen.[3]Grundvoraussetzung hierfür ist die Möglichkeit, der eigenen Forschung unbeobachtet und vertraulich nachgehen zu können. Der Europäische Gerichtshof hat in seiner Rechtsprechung zum Recht auf Privatsphäre und dem Schutz personenbezogener Daten deutlich gemacht, dass eine Verletzung dieser Grundrechte sich indirekt auch negativ auf die Kommunikationsfreiheiten auswirkt,[4] zu denen die Wissenschaftsfreiheit zählt. Wer davon ausgehen muss, dass das eigene Surfverhalten stetig überwacht wird, läuft Gefahr, die Schere im Kopf anzulegen und bestimmte sensible Forschungsfelder womöglich gar nicht erst zu bearbeiten.
Sowohl Unternehmen als auch staatliche Stellen wie Universitäten benötigen für die Verarbeitung von personenbezogenen Daten der Forschenden eine Rechtsgrundlage, etwa eine explizite Einwilligung, die viele Webseitenbetreiber durch Cookiebanner einzuholen versuchen. Diese Einwilligung ist aber nur dann wirksam, wenn sie aus freien Stücken erteilt wurde – sie darf nicht zur Voraussetzung dafür gemacht werden, dass man seine Forschungstätigkeit überhaupt ausführen kann.
Fehlt es an der Rechtsgrundlage für die Datenverarbeitung, stehen den Forschenden mehrere Möglichkeiten offen: Eine Beschwerde bei der Datenschutzbehörde ist sowohl gegen ein Wissenschaftsunternehmen als auch gegen eine Universität möglich, die ihre Fürsorgepflicht für die Forschenden verletzt hat. Parallel dazu sieht die Datenschutzgrundverordnung auch einen Schadensersatzanspruch vor, wenn eine Stelle rechtswidrig personenbezogene Daten verarbeitet. Neben Schadensersatz können Forschende auch auf Unterlassung der rechtswidrigen Datenverarbeitung klagen. Mit Inkrafttreten der EU-Verbraucherverbandsklagerichtlinie im Sommer 2023 kommt darüber hinaus die Möglichkeit hinzu, dass Verbände im Namen der Nutzer*innen von Verlagsportalen Sammelklagen bei Datenschutzverstößen einreichen können, ohne dass die einzelnen Betroffenen selbst vor Gericht ziehen müssen. Diese und andere Rechtsschutzmöglichkeiten möchte die Gesellschaft für Freiheitsrechte e.V. gemeinsam mit Forschenden prüfen, die sich durch das Wissenschaftstracking betroffen sehen. Der Autor dieses Beitrags freut sich diesbezüglich über Hinweise (z.B. via E-Mail oder Twitter).
[1] Vgl. Fried, Eiko I. und Robin N. Kok: “Welcome to Hotel Elsevier: You Can Check-out Any Time You like … Not.” OSF, 09.05.2022. doi:10.17605/OSF.IO/NV5T6.
[2] Vgl. Informationszentrum Lebenswissenschaften: „Stop Tracking Science“, Petition, Deutsche Zentralbibliothek für Medizin (ZB MED) 2022. https://stoptrackingscience.eu/.
[3] Vgl. Klaus-Ferdinand Gärditz: „Universitäre Industriekooperation, Informationszugang und Freiheit der Wissenschaft. Eine Fallstudie, verfasst im Auftrag der Gesellschaft für Freiheitsrechte e.V.“, in: Wissenschaftsrecht. Beiheft 25 (2019). doi:10.1628/978-3-16-157605-8.
[4] Vgl. EuGH, Fall C-293/12 Digital Rights Ireland, Schlussanträge GA Cruz Villalón, Rn. 52.
[5] Gesellschaft für Freiheitsrechte e.V.: „Unabhängige Wissenschaft braucht Transparenz“, https://freiheitsrechte.org/themen/demokratie/unabhangige-wissenschaft-braucht-transparenz (2022).
Großstadtbewohner kennen das: Man sitzt in Bus oder Bahn, pendelt zur Arbeit oder bewegt sich zu anderem Zweck von West nach Ost, von Nord nach Süd durch die eigene Stadt. Das kostet Zeit. Zeit, die man gerne anders verbringen würde. Zeit, die es zumindest zu füllen gilt. Lesen ist eine beliebte Alternative. Waren es früher Zeitung und Buch, ist es heute das Smartphone oder das Tablet mit den diversen Anwendungen darauf, das Zeitblasen zu füllen hilft. Die Augen der Lesenden sind dabei so auf die Geräte fixiert, dass eine verzweifelte Servicekraft in der New Yorker Subway ihre notwendigen Lautsprecheransagen einleitete mit: ›Dear passengers – PLEASE – pay attention!‹ Alle Augen kleben am eigenen Display – oder etwa nicht? Nein, bei genauerer Betrachtung stellt man fest, dass es Leute gibt, die einen unauffälligen Blick über die Schulter ihrer Nachbarn werfen, die Spezies der ›Mitleser‹. Folgten deren Augen früher fremder Menschen Druckspalten, betrachten sie heute schweigend die Smilies und Likes, die sich auf den elektronischen Lesegeräten häufen. Wer hätte gedacht, dass sich aus diesem harmlos scheinenden, neugier- und langeweilegetriebenen Gruppenverhalten ein lukratives Geschäftsmodell entwickeln ließe?
Das aber geschieht gerade jetzt – möglich gemacht durch unsere Nutzung digitaler Medien. Längst wird es mehr und mehr zur Gewohnheit, eBooks auf den Cloud-Servern der Online-Buchhändler zu speichern – gesetzte Lesezeichen und andere Textmarkierungen inklusive. Was macht es schon, wenn Amazon & Co. die privaten Lektürestunden trackt, die man sonst mit einem Mitleser in der Bahn geteilt hätte?
Erstreckt sich diese Resignation des Alltagsindividuums auch schon auf andere Bereiche? Wie steht es mit dem Wissenschaftssektor? Hier ist der Austausch von Informationen essentiell, Lesen, wenn man so will, seit jeher ›Teil des Geschäfts‹. Erkenntnistheoretiker sprechen von der sogenannten epistemischen oder kognitiven Arbeitsteilung.[1] Wissenschaft ist Teamarbeit und das nicht nur in der unmittelbaren Forschungstätigkeit im Labor. Thomas Bartelborth weist darauf hin, dass gerade in diesem Kontext der Rückgriff auf Daten, Informationen und Wissensinhalte – kurz: auf das Zeugnis anderer[2] – wesentlich sei. Wissenschaftlicher Fortschritt wird nur möglich, wenn wir uns auf die Mitteilungen unserer FachkollegInnen verlassen dürfen. Müssten wir alle Grundlagen stets von Neuem selbst erarbeiten, bliebe die wissenschaftliche Arbeit in ihren Anfängen stecken. Dass darüber hinaus „die Wissenschaften das Rückgrat des gesellschaftlichen Wissens“ darstellen, wie Bartelborth schreibt,[3] also eine enge Vernetzung der verschiedenen gesellschaftlichen Bereiche – von Wissenschaft, Politik und Alltag – vorliegt, hat uns die Corona-Pandemie sehr deutlich vor Augen geführt.
Kehren wir an dieser Stelle zurück zu den ›Mitlesern‹: Wie passen sie in dieses komplexe Bild wechselseitiger epistemischer Abhängigkeit? Für das Verständnis unseres heutigen Blicks über die nur mehr metaphorische Schulter Lesender sind Informations- und Kommunikationstechnologien (IuK-Technologien) der Schlüssel.[4]Das ›Mitlesen‹ im Kontext der Wissenschaft setzt dabei mindestens zweierlei voraus: (a) einer Verdichtung der Quellen, d.h. der Informationsträger, um einen schnellen und umfassenden Zugriff auf ihre Daten zu erhalten und (b) das Vorhandensein eines Dritten, der ein (kommerzielles) Interesse an den verfügbaren Daten und Informationen besitzt.
Die Voraussetzung der Verdichtung – wie sie im ÖPNV durch das Zusammenführen vieler Fahrgäste im täglichen Berufsverkehr erfolgt – ergibt sich aus der Notwendigkeit, die stetig wachsenden Datenströme zu kanalisieren, zu strukturieren, kurz: sie handhabbar zu machen.[5] Im wissenschaftlichen Publikationswesen geschieht das vor allem durch die Bündelung von informationsbezogenen Dienstleistungen, wie sie derzeit insbesondere von kommerziellen Verlagen angeboten werden. Insofern ist damit zugleich die zweite Voraussetzung erfüllt: Es gibt einen Dritten, der ein (kommerzielles) Interesse an Daten und Informationen hat.
Wie eine solche Verdichtung von Datenströmen erfolgt, lässt sich gut am Beispiel der Abstract- und Zitationsdatenbank Scopus des Verlagskonzerns Elsevier nachvollziehen. Das Unternehmen bewirbt sein Angebot mit dem Argument, dass seine Datenbank einen enormen Effizienzvorteil für die wissenschaftliche Praxis impliziere: »Scopus quickly finds relevant and authoritative research, identifies experts and provides access to reliable data, metrics and analytical tools. Be confident in progressing research, teaching or research direction and priorities — all from one database and with one subscription.«[6] Die Datenbank stellt für den individuellen Wissenschaftler also sowohl ein Recherche-Werkzeug als auch ein Mittel der Bewertungvon Informationsangeboten (Publikationen der unterschiedlichsten Art) wie auch von Personen (AutorInnen) und zugehörigen Institutionen dar.
Mit der vom Betreiber intendierten kontinuierlich ausgeweiteten Nutzung von Scopus im Wissenschaftsalltag etabliert sich ein kommerzieller Akteur im Kernprozess der epistemischen Arbeitsteilung und strebt dort eine Monopolstellung an, wie aus dem obigen Zitat deutlich wird. Von diesem Unternehmensziel ist Elsevier heute nicht mehr weit entfernt; denn zu Scopus steht derzeit weltweit nur ein einziges Produkt in Konkurrenz: Web of Science.[7] Scopus ist also ein IT-Produkt, das ähnlich wie Google für den Bereich der Internetsuchmaschinen eine marktdominierende Stellung innehat.
Diese analoge Entwicklung der beiden Technologiemärkte verschärft epistemologische Schwierigkeiten, die sich aus der Nutzung einer Datenbanklösung im wissenschaftlichen Kommunikationswesen ergeben können. Beispielsweise kann es durch eine solchermaßen veränderte Arbeitspraxis dazu kommen, dass der für die epistemische Arbeitsteilung notwendige Informationsfluss innerhalb der digitalisierten Arbeitsumgebung der wissenschaftlichen Gemeinschaft sowohl in qualitativer als auch in quantitativer Hinsicht eingeschränkt wird. In ähnlicher Weise wie die Monopolisierung des Suchmaschinenmarktes kann die Etablierung einer neuen Schnittstelle zwischen wissenschaftlichem Informationsangebot (Publikationen, Forschungsdaten usw.) und Nachfrage längerfristig zu einer Engführung des Suchhorizonts der ForscherInnen (und WissenschaftsmanagerInnen) führen.[8]
Kurz gesagt: In einer Datenbank kann nur gesucht werden, was darin als Inhalt auch vermutet wird. Ausgeblendet wird dabei das, was der Forschung aber vielleicht den größeren Innovationsschub verleihen könnte, nämlich unbekannte (d.h. nicht den Erwartungshaltungen entsprechende), aber relevante Informationen. Letztere können Anreize bieten, Forschungshypothesen zu hinterfragen, andere Erklärungsmodelle in Erwägung zu ziehen usw. Allerdings sind es gerade diese Informationen, die nur schwerlich mittels einer auf Algorithmen gestützten Suchtechnologie gefunden werden können. Suchfunktionen, wie sie in Datenbanken etabliert werden, stützen sich auf Metadaten zu den Dokumenten, die im Speicher hinterlegt wurden. Das können im Falle von Scopus AutorInnennamen, Zeitschriftentitel, aber auch für die Beiträge vergebene Schlagwörter sein. In jedem Fall muss aber der Nutzer einen relevanten Suchbegriff verwenden, um auf die zugehörige Publikation aufmerksam zu werden.[9]
Eine Verengung des epistemischen Horizonts der NutzerInnen solcher IT-Lösungen steht darüber hinaus noch in einer weiteren Hinsicht zu befürchten. Zwar werben die Technologie-Betreiber mit dem Versprechen, dass ihre AnwenderInnen auf effiziente und zuverlässige Weise Zugang sowohl zu ExpertInnen als auch zu qualitativ hochwertigen Fachinformationen erlangten, doch sind dieser Zusicherung zwei Fragen entgegenzuhalten, die das klassische »Big-Data-Problem« bezeichnen:
(a) Wie vollständig ist die Datenbasis, auf die sich dieses Versprechen gründet?[10]
(b) Verfügen die vorhanden Daten tatsächlich über die vermeintliche Qualität, die vom Anbieter beworben wird?[11]
Die Verbindung zum Big-Data-Thema mag auf den ersten Blick erstaunen, entspricht aber sehr genau der Selbstwahrnehmung der beteiligten Akteure. Elsevier wird in der wissenschaftlichen Gemeinschaft zwar überwiegend noch als einer der klassischen internationalen Wissenschaftsverlage betrachtet, das Selbstverständnis ist jedoch mittlerweile ein ganz anderes: »Elsevier ist ein globales Unternehmen für Informationsanalysen, das Institutionen und Fachleute dabei unterstützt, die Leistungen im Gesundheitswesen und in der Wissenschaft zum Wohle der Menschheit zu verbessern.«[12] Der Konzern stellt sich somit als global agierender Informationsdienstleister vor, welcher seine NutzerInnen bei der Lösung gesellschaftspolitisch relevanter Fragen bestmöglich unterstützen will.
Vor diesem Hintergrund ist es nicht weiter verwunderlich, dass sich der Datenbankbetreiber zum ›Mitleser‹weiterentwickelt hat. Klammert man in der obigen Selbstdarstellung die Formulierung »zum Wohle der Menschheit« einmal ein, haben wir es schlicht mit einem Konzern zu tun, dessen Geschäftsmodell den Handel mit Daten und Informationen umfasst. Natürlich ist es im Interesse eines solchen Konzerns, so viele Informationen wie möglich abzugreifen, und natürlich gehört es zu seinem Interesse, diese zu vermarkten. WissenschaftlerInnen sollten nicht so naiv sein, einem Unternehmen vorwerfen zu wollen, Profit machen zu wollen.
Ob man profitorientierte Akteure in den Prozessen des Wissenschaftsbetriebs als Mitspieler haben möchte, ist freilich eine andere Frage.[13] Die Deutschen Forschungsgemeinschaft (DFG) hat die negativen Konsequenzen der Implementierung eines kommerziellen Anbieter im Herzen der epistemischen Arbeitsteilung klar benannt. In einem entsprechenden Positionspapier heißt es zu den möglichen Folgen des ›Mitlesens‹ der Konzerne: »Im Einzelnen kann unreguliertes bzw. unerkanntes Datentracking
eine Verletzung der Wissenschaftsfreiheit und der Freiheit von Forschung und Lehre bedeuten;
eine Verletzung des Rechts auf den Schutz der eigenen Daten darstellen;
eine potenzielle Gefährdung von Wissenschaftlerinnen und Wissenschaftlern darstellen, da die Daten auch ausländischen Regierungen und autoritären Regimes zugänglich werden können;
einen Eingriff ins Wettbewerbsrecht darstellen, da neue Teilnehmer kaum eine Chance auf einen Markteintritt haben;
eine Wertminderung öffentlicher Forschungsinvestitionen begünstigen, da im Rahmen von Wirtschaftsspionage wissenschaftliche Aktivitätsdaten von kommerziellen Forschungskonkurrenten erhoben oder ihnen gegen Bezahlung zugänglich gemacht werden können.«[14]
Elsevier weist die Kritik natürlich entschieden zurück: »Bedauerlicherweise rückt das DFG-Papier die von den Wissenschaftsverlagen eingesetzten Sicherheitsmaßnahmen in ein falsches Licht, in dem [sic!] es suggeriert, dass Verlage sie als ›Spyware‹ in Bibliotheken einsetzen. Um es deutlich zu sagen: Elsevier führt keine Spyware in Bibliotheken und Institutionen ein.«[15] Das wäre jedoch allenfalls dann wahr, wenn die automatisiert Informationsanalyse tatsächlich »zum Wohle der Menschheit« erfolgte. Ebenso heißt es übrigens in der »Privacy Police« von Google: »When you use our services, you’re trusting us with your information. We understand this is a big responsibility and work hard to protect your information and put you in control.«[16] Hier wird der Umstand, dass der Alphabet-Konzern die von ihm gesammelten Daten hartnäckig vor dem Zugriff Dritter schützt, um sein Monopol zu bewahren, als Dienst an denjenigen ausgegeben, deren Daten man abgreift. Wollen sich WissenschaftlerInnen und ihre Institutionen nicht auf die Euphemismen der Konzerne einlassen, sind sie an dieser Stelle gefordert, sich kritisch mit dem Sachverhalt auseinanderzusetzen. Es ist leicht, sich auf kommerzielle Produkte zu verlassen, doch nimmt man dann die Aggregation von Gestaltungsmacht und strategischer Steuerung bei deren Betreibern stillschweigend in Kauf. Wir sollten uns fragen, ob dieser Preis nicht zu hoch ist.
[1] Vgl. z.B. Kitcher, Philip: The advancement of science. Science without legend, objectivity without illusions, Oxford u.a. 1995, Kap. 8.
[2] Vgl. dazu Mößner, Nicola: Wissen aus dem Zeugnis anderer – der Sonderfall medialer Berichterstattung, Paderborn 2010 und Gelfert, Axel: A critical introduction to testimony, London 2014.
[3] Bartelborth, Thomas: Begründungsstrategien. Ein Weg durch die analytische Erkenntnistheorie,Berlin 1996, S. 74.
[4] Eine Übersicht der zu diesem Zweck verwendeten IT-Werkzeuge findet sich beispielsweise auf der Seite der Initiative »Stop Tracking Science« unter https://stoptrackingscience.eu/background-information/#how, eingesehen am 11. Februar 2022.
[5] Luciano Floridi spricht vom Zeitalter des Zettabyte, das die Menschheit mittlerweile erreicht habe (vgl. Floridi, Luciano: The 4th revolution. How the infosphere is reshaping human reality, Oxford 2014, S. 13). Belegt ist, dass der globale jährliche Datenverkehr im Internet erstmals 2016 diese Grenze überschritten hat, vgl. https://blogs.cisco.com/sp/the-zettabyte-era-officially-begins-how-much-is-that, eingesehen am 14. Februar 2022.
[6] https://www.elsevier.com/solutions/scopus, eingesehen am 15. Februar 2022, Hervorhebung NM.
[7] Vgl. https://clarivate.com/webofsciencegroup/solutions/web-of-science/, eingesehen am 15. Februar 2022, früher war diese Datenbank bekannt unter dem Namen Web of Knowledge.
[8] Ergänzend kann festgehalten werden, dass das natürlich dazu führen kann, dass bestimmte Fragestellungen auch gar nicht erst entwickelt werden und somit bestimmte Informationen nicht verfügbar sind.
[9] Diesen systematischen Ausschluss von Zufallsfunden bzw. Zufallsbegegnungen kritisiert Cass R. Sunstein im Zusammenhang mit der Nutzung von sozialen Medien als Informationslieferanten als Basis für demokratische Entscheidungsfindungsprozesse. Vgl. dazu Sunstein, Cass R.: #republic. Divided democracy in the age of social media, Princeton und Oxford 2018.
[10] Diesen Punkt kann man am in der Datenbank ausgewiesenen (vermeintlichen) Expertenstatus bestimmter AutorInnen veranschaulichen: Dieser Status wird einer Person auf der Basis bibliometrischer Analysen zugeschrieben, die sich wiederum auf in der Datenbank erfasste Publikationen stützen. Was nicht in Scopus als Datenmaterial vorliegt, wird also nicht berücksichtigt. Gerade in den Geisteswissenschaften ist dies allerdings ein Problem, denn viele Publikationen umfassen hier klassische Monographien, die (bisher) aber nur mit einem geringen Anteil in Scopus indexiert wurden. Vgl. dazu Mößner, Nicola: »Wissenschaft in ‚Unordnung‘? Gefiltertes Wissen und die Glaubwürdigkeit der Wissenschaft«, in: Nicola Mößner und Klaus Erlach (Hg.): Kalibrierung der Wissenschaft. Auswirkungen der Digitalisierung auf die wissenschaftliche Erkenntnis. Bielefeld (im Erscheinen).
[11] Vgl. dazu Retzlaff, Eric: »Wer bewertet mit welchen Interessen wissenschaftliche Publikationen? Eine Skizzierung des Einflusses kommerzieller Interessen auf die Forschungsoutput-Bewertung«, in: Nicola Mößner und Klaus Erlach (Hg.): Kalibrierung der Wissenschaft. Auswirkungen der Digitalisierung auf die wissenschaftliche Erkenntnis. Bielefeld (im Erscheinen).
[12] https://www.elsevier.com/de-de/about, eingesehen am 15. Februar 2022, Hervorhebung NM.
[13] Wendy Brown diskutiert diesen Punkt kritisch im politischen Umfeld, für welches sie konstatiert, dass derzeit eine Verquickung von Bürger- und Konsumentenrechten sowie entsprechender Mentalitäten in den demokratischen Gesellschaften westlicher Staaten zu einer Reihe ernstzunehmender Spannungen und Probleme führe. Vgl. Brown, Wendy: Undoing the demos: neoliberalism‘s stealth revolution, New York 2015.
[14] DFG: »Datentracking in der Wissenschaft: Aggregation und Verwendung bzw. Verkauf von Nutzungsdaten durch Wissenschaftsverlage. Ein Informationspapier des Ausschusses für Wissenschaftliche Bibliotheken und Informationssysteme der Deutschen Forschungsgemeinschaft 28. Oktober 2021«, S. 8. online unter: https://www.dfg.de/download/pdf/foerderung/programme/lis/datentracking_papier_de.pdf.
[15] https://www.elsevier.com/de-de/connect/elsevier-antwort-auf-dfg-papier-datenverfolgung-in-der-forschung, eingesehen am 11. Februar 2022.
[16] https://policies.google.com/privacy, eingesehen am 18. Februar 2022.
Ich bin Wissenschaftlerin, habe aber auch ein politisches Leben. Dieses hat insbesondere in den 1990er Jahren zu allerlei namentlich gezeichneten Texten geführt, die in auf kleine Öffentlichkeiten zugeschnittenen Print-Zeitschriften erschienen sind. Ebenso habe ich mich auch in (grauen und nicht-grauen) Zeitschriftenredaktionen engagiert, in welchen mein Name als Mitwirkende nur irgendwo „innendrin“ genannt worden ist. Wichtig: Wir sprechen von Zeitschriften, die lediglich gedruckt erschienen sind – und von welchen man damals als Autorin nie erwartet hätte, dass sie nachträglich als Volltext digitalisiert werden, um sie dann weltweit als Medium anzubieten. Und wir sprechen von Zeitschriften, die in klassischen Bibliothekskatalogen – wo sie überhaupt angeschafft worden waren – auch nur mit ISSN und Titel erfasst worden sind.
Ich halte fest, dass ich meinen Namen in der Print-Welt jedenfalls nie versteckt habe. Weder bereue ich meine Texte, noch finde ich sie heute schlecht. Alles ist namentlich gezeichnet. Allerdings ist man in den 1990er Jahren auch mit politisch heiklen Texten und insbesondere mit der Nennung als Mitwirkende an Zeitschriften noch recht sorglos umgegangen. In der Welt des gedruckten Vertriebs von Schriften ist der Kreis der Leserinnen und Leser ja einigermaßen abschätzbar. Man schreibt nicht für den Globus, sondern für ein Publikum. Zumeist ein kleiner, jedenfalls vorgebildeter, tendenziell auch solidarischer Kreis. Vielleicht wird auch mal der Staatsschutz das lesen. Naja gut, dachte man damals. Jedenfalls: Im Blatt zu publizieren und vor allem das Engagement in der „Redaktion“ hieß nicht, dass potenziell ALLE – nicht nur Nachbarn, Kollegen, Studierende, Bibliotheksgänger, sondern tatsächlich: weltweit jeder Internetnutzer – dies mit wenigen Klicks recherchieren können.
Zu meiner Überraschung finde ich nun aber seit einiger Zeit in etlichen deutschen Bibliotheken und damit sowohl in den deutschlandweiten Verbundkatalogen als auch in den Beständen der weltweiten Meta-Suchmaschine „Worldcat“ die Einzelhefte der seinerzeit im Selbstverlag und ausschließlich als Print-Organ (wenngleich mit ISSN) produzierten und vertriebenen Zeitschrift IHRSINN („Radikalfeministische Lesbenzeitschrift“) verzeichnet. Und jenseits der Metadaten, die auch in vor-digitalen Katalogen gestanden hätten bzw. mit denen seinerzeit zu rechnen war, werden zusätzlich nun erstens neben den Bandnummern die Schwerpunktthemen im Katalog aufgeführt, und zweitens werden nun auch die „Red.“ (Redaktion? Redakteurin?) sowie „Mitarb.“ (Mitarbeiterin?) gleichsam heftscharf namentlich genannt.
Meinen Namen finde ich etwa (siehe Abb.) unter dem Titel GegenGewalt als „Red.“ im Katalog-Treffer für eine IHRSINN-Ausgabe von 1997. Bibliographisch hat das alles seine Richtigkeit. Ich schaue im Print-Exemplar nochmal nach: Tatsächlich listet das Impressum (als „Redaktion“) die Namen von sechs Frauen auf, meiner steht aus alphabetischen Gründen vorn. Freilich steht da weder „Autorin“ noch „Herausgeberin“ (also eine urheberschaftliche Rolle) – sondern nur eine presserechtliche, eben: „Redaktion“. Oder sogar nur „Mitarbeit“. Die Herausgeberin der Zeitschrift war nämlich, damals sehr bewusst beschlossen, lediglich ein Verein: „Ihrsinn e.V.“ (was so auch im Impressum steht). Und die Redaktion wiederum – ja sind das denn sechs Einzelpersonen? Nein, so dachten wir natürlich nicht. Sondern die Redaktion ist ein Kollektiv. Wir sind presserechtlich verantwortlich, aber „geoutet“ sind wir als Redakteurinnen nicht. So dachte man/frau jedenfalls in den 1990er Jahren. Vor allem aber: auf die Erfassung und digitale Publikation aller dieser Feindaten eines Impressums waren wir nicht eingestellt.
Gleichwohl scheint nicht nur inzwischen die vormals „analoge“ Katalogangabe retrodigitalisiert und eben global zugänglich „publiziert“ worden zu sein (das scheint im Rückblick der springende Punkt: die Inhalte von Print-Katalogen waren kein Publikat!). Sondern es hat auch eine Erweiterung der (und zwar nun digital erfassten und digital distribuierten) Metadatenfelder stattgefunden zu haben. Es gibt die Rolle „Redakteurin“. Und diese wird nicht nur ‚still‘ erfasst, sondern das System gibt sie eben auf dem Bildschirm auch aus.
Ich ergänze noch, dass die Bibliothekskataloge (vermutlich aufgrund automatisierter Großschreibung zu Zeilenbeginn) den Titel des fraglichen Heftes falsch abbilden. Das Heft 17/1997 der IHRSINN hieß nämlich nicht GegenGewalt, sondern gegenGewalt – wie man leicht sehen kann, ein durchaus sinnentstellender Fehler. Nun lebe ich in einer glücklichen, gänzlich vorurteilsfreien, toleranten Demokratie. Vermutlich wäre nichts in meinen akademischen Leben – kein Begutachtungsvorgang, kein Ergebnis einer Bewerbung, keine Evaluation, keine Beratungsfrage, keine Einladung irgendwohin, kein Eintrag auf „meinprof.de“ und auch kein Internet-Shitstorm – anders verlaufen, hätte man mich stets als eine aus dem IHRSINN-Redaktionskollektiv identifizieren können. Ich nehme das jetzt jedenfalls mal an.
Was freilich, wenn ich Türkin wäre? Oder Afghanin? Oder einfach nur schüchtern? Oder wenn in einigen Jahren dann doch vielleicht meine Einreise in bestimmte Länder von Computern genehmigt werden wird, die vorher den WorldCatchecken? Einreiseverbote soll es ja schon wegen Witzen auf Twitter gegeben haben.[1] Oder vor allem: Was ist, wenn ich mich nun frage, ob es für eine afghanische Freundin zum Problem werden könnte, mich gut zu kennen?
Datenschutz, übernehmen Sie! Und folgendes sei bitte auch als Schnappschuss aus der Betroffenensicht an die beteiligten Bibliotheksmanager*innen übermittelt: Irgendwann in den 2010er Jahren hat man Redaktionsmitgliedschaften für ein bloß „technisches“ Datum erklärt – Einwilligungen aus den 1990er Jahren aber nicht erfragt und dennoch zum Beispiel Redaktions-Angaben „(Red.)“ im Impressum als ‚irgendwie auch Autorschaft‘ (das heißt, informationstechnisch als „Personen“) zu verbuchen begonnen. Die Netzindustrie will Eigennamen.
Auch bibliographische Angaben verändern aber ihren Sinn, wenn sie aus einem Print-Impressum über die digitale Publikation eines Katalogs ins Internet wandern. Ebenso verändern Namensnennungen ihren Sinn, wenn Kataloge nicht nur (anstatt zum Beispiel allein wissenschaftlicher Bestände) „alle“ (also etwa auch die grauen, politischen oder populären) Publikationen einer Autorin gleichen Namens anzeigen (identifizierbar als natürlichen Person – vgl. den Beitrag zur Autor-Identifikation), sondern man retrospektiv die bibliographische Erfassung erweitert und auch Namen erfasst werden, die gar keine Autoren-Angaben sind. Auch hier ließe sich weiterdenken: Was, wenn die Datenbankerfassung auch noch alle Pseudonyme von Autor:innen verknüpft und bei Abfragen mit ausgibt? Dann würde eine schreib-politische Differenzierung (welche die schriftstellerische Freiheit symbolisiert, aber auch verbürgen soll) daten-politisch unterlaufen. Die (guten) Gründe für ein (zumindest für Fragen der Person und von Persönlichkeitsrechten) sensibles Identitätsmanagement müssen nun den (stärkeren) Gründen für ein Informationsmanagement weichen.
Personenbezogene, datenschutzrechtlich kritisch zu nennenden Daten sind im Falle der vermeintlich unschuldigen Veröffentlichung jener Bibliotheksangabe „Red. …“ doch wohl durchaus im Spiel: Hier geht es konkret um sexuelle Orientierung und zudem um das Thema „Gewalt“. Ob (nur) Autorinnen und Herausgeberinnen oder auch weitere Namen aus dem Impressum „retro“-öffentlich werden: Bibliotheken haben augenscheinlich die Definitionsmacht. Einwilligung? Oder auch nur Information? Betroffene gibt es, so scheint es, nicht. – Was wäre, wenn ich nun noch verriete, dass mein eigener Beitrag im Heft sogar „Gegengewalt“ heißt … ?
Oder: Wie ich von Datenhändlern zu einem Mikrobiologen gemacht wurde
Alexander Friedrich
Obwohl ich niemals eine biologische oder eine medizinische Ausbildung durchlief – und dies auch nie behauptet oder suggeriert habe – erhalte ich seit bald einem Jahr regelmäßig Anfragen für die wissenschaftliche Begutachtung von Fachartikeln zu mikrobiologischen und biomedizinischen Themen. Forschungsarbeiten und Manuskripte, deren wissenschaftliche Qualität ich einschätzen soll, lauten etwa:
“Urine Culture in Hospitalized Patients during 2014-2018: An Analysis on Pathogen Distribution and Drug Sensitivity“
„Analysis of blood stream infections and their antibiotic sensitivity pattern: pre and post COVID-19 lockdown in an Indian cancer care hospital – A record based retrospective cohort study.“
„Resistance of Staphylococcus aureus in the Mechanical Ventilator: A Cross-Sectional Study“
“Use of metagenomics whole-genome sequencing (WGS) in the typing and epidemiologic surveillance of respiratory pathogens”
…um nur eine kleine Auswahl zu nennen. Begonnen hatte es mit dieser Mail, die mich Anfang Februar 2021 erreichte:
Dear Dr. Friedrich,
A manuscript titled “Nasal Carriage of Methicillin Resistant Staphylococcus aureus Among Healthcare Workers in a [specific] Hospital“ by [author name et al.], has been submitted to our journal for consideration.
As the Academic Editor handling the manuscript, I would be delighted if you would agree to review it and let me know whether you feel it is suitable for publication.
DECLINE: click
AGREE: click
The manuscript’s abstract and author information is below to help you decide. Once you have agreed to review, you will be able to download the full article PDF.
Reviewers are expected to return their report within 14 days of agreeing to review, however if you need more time please do let us know as we may be able to arrange an alternative deadline.
To ensure we keep delays to a minimum please accept or decline this invitation within the next 7 days.
If a potential conflict of interest exists between yourself and either the authors or the subject of the manuscript, please decline to handle the manuscript. If a conflict becomes apparent during the review process, please let me know at the earliest possible opportunity.
Kind regards,
[Signatur]
This email was sent to [meine Email-Adresse]. You have received this email in regards to the account creation, submission, or peer review process of a submitted paper, published by [publisher name].
[Publisher] respects your right to privacy. Please see our privacy policy [Link] for information on how we store, process, and safeguard your data.
Erst hielt ich die Email für Spam; dann für eine Verwechslung. Die Redaktion des Journals hielt mich offenbar für einen Experten in Sachen Staphylococcus aureus – ein sich gern in Traubenform anordnender Saprobiont und Kommensale, wie ich nach kurzer Internetrecherche herausfand. Jeden Monat, ja wöchentlich erhalte ich nun ständig solche und ähnliche Anfragen. Seither beschäftigen mich zwei Fragen:
1. Wie konnte es dazu kommen?
2. Was kann ich dagegen tun?
Inzwischen interessiert mich noch eine dritte Frage:
3. Welche daten- und wissenschaftspolitischen Implikationen hat diese Geschichte?
Eine Antwort auf die erste Frage hatte ich schnell gefunden, zumindest vermutet. Ich hatte zwei Jahre vorher einen Artikel über ethische Probleme einer möglichen künftigen Zweitverwertung kryokonservierter Eizellen als Ressourcen für die biomedizinische Forschung in der Zeitschrift New Genetics and Society veröffentlicht. Das Journal beschäftigt sich mit den sozialen Implikationen der Biomedizin und Biotechnik und gehört zu der Verlagsgruppe Taylor & Francis, die ihrerseits (wie etwa auch der Routledge Verlag) im Besitz der börsennotierten Informa Gruppe ist, die mit Fachliteratur, Konferenzen – und Daten handelt. Die Einreichung, Begutachtung sowie die redaktionelle Betreuung meines bei dem Journal eingereichten Manuskripts wurde über Manuscript CentralTMabgewickelt, einem „online system used by journal editorial offices to manage the submission and peer review of articles. It is a product of the ScholarOne® platform of Thomson Reuters“[1] wie es dort zur Erklärung heißt. Im Laufe des Einreichungsprozederes hat man da allerhand Häkchen zu setzen und Kästchen zu klicken; unter anderem ist eines dabei, das danach fragt, ob man auch bereit wäre, andere Fachpublikationen zum eingereichten Thema zu begutachten. Da muss ich wohl unvorsichtiger Weise einen Haken gemacht oder stehen gelassen haben.
Nun handelt es sich bei den Manuskripten aber gar nicht um ein sozialwissenschaftliche, sondern um mikrobiologische Arbeiten und das anfragende Journal gehört nicht zu Taylor & Francis. Daher nahm ich zunächst an, die Herausgeber:innen sind bei ihrer Suche nach potentiellen Gutachtern irrtümlicher und zufälliger Weise an mich geraten. Wobei ich mich schon etwas wundern musste, wie man auch bei nur oberflächlicher Recherche mich für einen Mikrobiologen halten kann. Aber da ich selbst als Herausgeber tätig bin und weiß, wie mühsam diese Suche nach Gutacher:innen ist, wollte ich die anfragende Redaktion aus Solidarität nicht in der Luft hängen lassen und schrieb eine kurze Antwortmail, dass es sich hier wohl um ein Missverständnis handele. Da ich ja gar kein Biologe bin, sollte ich für eine Anfrage gar nicht in Frage kommen. Eine andere als die ursprünglich anfragende Person bedankte sich dann kurz und knapp für meinen Hinweis. Damit hielt ich die Sache für erledigt: „Thank you for letting us know. We are sorry for the inconvenience.“
So ziemlich eine Woche danach, erreichte mich dann eine nächste Anfrage:
„Dear Dr. Friedrich:
Manuscript [ID number] entitled „The microbiological profile of the patients with Fournier’s gangrene: a retrospective multi-institutional cohort study” has been submitted to the International [journal].
May I ask you to evaluate the enclosed manuscript and to inform us whether it is suitable for publication.
Please, find enclosed the manuscript.“
Es folgte auch hier wieder die Aufforderung, die Anfrage via Klick entweder anzunehmen oder abzulehnen. Zudem wurde ich darauf hingewiesen, dass hierfür automatisch ein Account in einem „online manuscript submission and review system“ angelegt wird. Dabei handelte es sich um die mir schon bekannte ScholarOne® Plattform, über die das ganze Kommunikations- und Begutachtungsgeschehen abgewickelt wird. Egal also, ob man die Anfrage annimmt oder ablehnt, man wird in jedem Fall in der Datenbank registriert, wie einem spätestens nach dem Klick auf den Antwort-Link deutlich wird:
„Welcome to the [Journal Name] ScholarOne Manuscripts site for online manuscript submission and review. Your name has been added to our reviewer database in the hopes that you will be available to review manuscripts for the Journal which fall within your area of expertise.
[…]
Thank you for your participation.“
Da man zudem gleich aufgefordert wird, eine ORCID iD (siehe dazu den Beitrag von Petra Gehring) anzulegen, sofern noch nicht vorhanden, verlor ich jegliche Lust auf „participation“ und schrieb immerhin noch eine Ablehnungsmail:
„Dear [editor],
My expertise is in the field of philosophy; I cannot review a paper in the field of microbiology.“
Auf diese Mail bekam ich schon keine Antwort mehr. Ich hoffte aber immerhin, dass mich die Herausgeber:innen nun wegen Inkompetenz und Unhöflichkeit von ihrer Liste für potentielle Gutachter streichen würden.
Allerdings erreicht mich, wieder eine Woche später, eine dritte Anfrage zur „Mikrokalkulation von Diagnostika in der Onkologie“ – auch wieder von einem Taylor & Francis Journal, abermals verbunden mit einer Einladung zu ScholarOne®. Während ich anfangs ja noch vermutet hatte, dass diese Anfragen auf den Irrtum oder das Missgeschick verzweifelter Herausgeber:innen zurückzuführen wären, schwante mir nun, dass vielleicht niemals ein Mensch an meiner Auswahl beteiligt war, sondern dass ich wohl das Opfer einer verhängnisvollen Datenbankverknüpfung geworden bin. Irgendwie habe ich mir (bzw. meine Autoren-ID sich) durch meine Publikation eine „Mikrobiologie und Bioökonomie“-Kennzeichnung eingefangen, die nun dazu führt, dass ich ständig entsprechende Anfragen erhalte.
Diese Schlussfolgerung entmutigte mich: Meine beiden Ablehnungsmails wären dann nichts weiter als bloße Symptombekämpfungen. Die Strategie, Absagen per Mail zu verschicken, würde nur auf eine unendliche Reihe bestimmter Negationen hinauslaufen, die nichts weiter zum Resultat haben würden als eine sinnlose Verschwendung von Lebenszeit auf beiden Seiten der Kommunikationsbeziehung.
Die einzig erfolgsversprechende Strategie, diesem Unwesen ein Ende zu setzen wäre dann, die mutmaßlich ursächliche Fehlverknüpfung in der fraglichen Datenbank zu identifizieren und zu tilgen, aus der die Journals ihre Listen für potentielle Gutachter:innen generierten. Zu recherchieren, wo sich diese Datenbank befindet, und wer hier die erforderlichen Schreibrechte hat und herauszufinden, was nötig war, um eine entsprechende Tilgung zu veranlassen, schien mir aber ein ungebührlicher Aufwand zu sein – für den ich jedenfalls keine Lebenszeit übrighatte. Also nehme ich fortan solche Anfragen seufzend hin und ignoriere sie.
Anfänglich hoffte ich noch, durch konsequentes Nicht-Reagieren irgendwann als „notorisch ignorant“ markiert und somit nicht mehr angeschrieben zu werden. Aber diese Hoffnung hat sich nicht erfüllt.
Meine zweite Frage: „Was kann ich dagegen tun?“ habe ich mir also nur abstrakt beantworten können: „persönlich gar nichts oder nur so viel, dass die zu erwartenden Kosten den Ertrag übersteigen“. – Mit dieser entmutigenden Einsicht wende ich mich nun der dritten Frage zu: „Welche daten- und wissenschaftspolitischen Implikationen hat diese Geschichte?“
Den ersten Hinweis auf eine mögliche Beantwortung dieser Frage finde ich in der ersten Mail – an deren Ende sich, im Kleingedruckten, ein Link zu der „privacy policy“ des fraglichen Publishers findet. Ich klicke auf den Link und gelange zu einem Text, der folgendermaßen beginnt:
„Information We Collect
When you interact with us or our Sites, Wiley may collect personal data about you in the following ways: directly from you; through automated technologies such as cookies; and from other sources, such as our business partners and data processors.”
In dem darauffolgenden Abschnitt „Information collected through automated technologies“ werde ich darüber aufgeklärt, dass während des Besuchs der Seite, die auf diese Policy verlinkt, Daten über mich gesammelt werden, die u.a. umfassen:
„Internet Protocol (IP) address, browser type and settings, device identifier details, internet service provider (ISP), referring and exit pages, the Site content you interacted with, operating system, clickstream data, location data, or other usage information. We (and third parties acting on our behalf) may collect this information through certain tracking technologies, including cookies, web beacons (also known as tracking pixels or pixel tags), embedded scripts, location-identifying technologies, device recognition technologies, and session replay software. We may combine the information collected through these technologies with other information we collect about you.“
Außerdem wird mir beiläufig erklärt, dass man meinen Wunsch, nicht getrackt zu werden, einfach ignoriert und ich deutlich aktiver werden müsse, wenn es mir mit meinem Wunsch ernst ist: „While we do not currently respond to ‚do not track‘ browser signals, you have several options to exercise choices about cookies and tracking technologies.“
Es folgt ein Abschnitt über „information we receive from other sources“, in dem mir erklärt wird, dass Wiley sich auch anderweitig Informationen über mich beschafft, und zwar von:
„business partners and data processors in technical, payment and/or delivery services; advertising, marketing, digital and social media agencies; data brokers; analytics providers; academic institutions; journal owners, societies and similar organizations; search information providers; third parties who may recommend you as a potential author, reviewer, editor or contributor; and credit reference agencies.
Wiley may also receive information about you from publicly accessible content, such as public databases or social media platforms. When we do collect publicly available data about you, we will honor this Privacy Policy when we store and process it. If you choose to register and sign in by using a social media or other third-party account as an identity service (such as your Facebook or Google account), the authentication of your account is managed by that third party. Wiley will collect your name, email address and any other information that you agree to share with us at the time you give permission for your Wiley account to be linked to your third-party account.“
Zwischen Suchmaschinenbetreibern und Kreditauskunfteien finde ich also eine Bestätigung meiner Hypothese, zumindest ein bekräftigendes Indiz. Das erste Journal, von dem ich eine solche Anfrage erhalten habe, hat wohl vermutlich eine solche Empfehlung eingeholt und die Quelle dieser Empfehlung könnte die ScholarOne Datenbank gewesen sein, in der ich schon als Autor (und vielleicht als potentieller Gutachter) registriert war.
In der „privacy note“ von ScholarOne, die ich nun auch noch einmal nachlese, finde ich die folgenden Sätze: „Your personal data in ScholarOne will be accessed by:
– The publishers that are the ‘controllers’ of your personal data and who may disclose your data to other organizations and individuals.
– Your data may be transferred to a third party as a result of any merger, acquisition, or similar corporate event involving Clarivate.
Clarivate Analytics, das 2016 aus der Intellectual Property and Science Business Abteilung von Thomson Reuters hervorgegangen ist und inzwischen auch das Web of Science, Publons und EndNote besitzt, beschreibt sich selbst als „a global leader in providing trusted insights and analytics to accelerate the pace of innovation.“[2]
Clarivate, das – wie ich nun auch herausfinde – inzwischen eine strategische Partnerschaft mit Wiley und Francis & Taylor eingegangen ist, stellt sich somit als das verbindende Glied zwischen all den verschiedenen Anfragen heraus.
So heißt es denn auch unter Punkt „your rights and choices:
You should first contact each publisher with questions or requests about their use of your data, for example to request access to the data that they hold about you, or request that it be corrected or erased. However, you may also contact Clarivate with data privacy questions, in particular those that concern the role the ScholarOne solution performs in processing your personal data. You can contact us at: Mail to.“
Die Indizien, die ich zur Beantwortung meiner dritten Frage gefunden habe, werfen nun ein neues Licht auf meine entmutigenden Schlussfolgerungen zur Beantwortung der zweiten. Jede Anfrage, die – wie irrtümlich auch immer – aus dem System generiert wird, ist immer auch ein Akt der Datenakquise. Die Emails mit den Links zur Annahme oder Ablehnung sind so etwas wie Crawler einer Suchmaschine. Scholar Crawler – wenn man so möchte: unermüdliche Sonden oder Fallen für das Ziel eines möglichst umfassenden Wissenschaftler:innen-Trackings. Jede Interaktion produziert Informationen, die dafür verwendet werden, nicht nur die erfassten IDs einzelner scholars mit immer mehr personenbezogenen Daten anzureichern, die dann entsprechend ausgewertet und gehandelt werden. Auch Informationen zur Verknüpfung dieser Informationen werden gesammelt: Wer arbeitet mit wem zu welchem Thema zusammen, mit welchem Ergebnis? Auch jede Ablehnung von Interaktion ist eine interessante Information, die sich auswerten lässt, insbesondere wenn sie per Klick ausgeführt wird und auf diese Weise die scholars in den Kaninchenbau der Manuskriptmanagementsysteme lockt. Entziehen kann man sich dem System, das die bestimmte Negation zu einem positiven Datum macht, nur wenn man Glück hat – oder enorme Sicherheitsvorkehrungen trifft, die nicht ihrerseits Informationen produzieren.
Problematisch daran kann man Vieles finden. Mögliche Probleme hier reichen von „Privatsphäre“ bis „Industriespionage“. Ich möchte abschließend aber noch einem anderen Gedanken nachgehen, der sich mit meiner dritten Frage verbindet: Was, wenn ich den Fehler der Datenbank systematisch affirmieren würde?
Den Herausgebern der verschiedenen wissenschaftlichen Journale gelte ich ja als Experte für Mikrobiologie, sowie deren medizinische und ökonomische Anwendungen. Was, wenn ich einfach einmal auf „akzeptieren“ klicke? Dann bekomme ich vollautomatisch den Artikel zur Begutachtung. Und dann würde ich ein bisschen darin herumblättern, wenig davon verstehen und dann schriebe ich ein Gutachten. Ich würde ein paar ähnliche Publikationen googeln, mir ein paar Textbausteine daraus kopieren, diese mit einigen launischen Kommentaren vermischen und eine völlige arbiträre Bewertung mit einer abwegigen Begründung schreiben. Nicht selten hat man ja selbst schon Gutachten vorgelegt bekommen, die auf genau die gleiche Art zustande gekommen zu sein scheinen: Gutachten, bei denen man den Eindruck einfach nicht haben konnte, dass die Gutachter:in den Text tatsächlich gelesen oder verstanden hat. Warum das also nicht selber einmal probieren, zumal in einem fremden Fachgebiet, in dem ich de jure und de facto ohnehin keine Expertise – also auch keine Reputation zu verlieren habe? Damit es für die beteiligten Autor:innen und Herausgeber:innen nicht zu ärgerlich wird, werde ich erst ein bisschen herumnörgeln, dann aber doch die meisten Paper für eine Publikation empfehlen. Oder ich lobpreise ganz überschwänglich die Genialität der darin niedergelegten Einsichten. Ab und zu lehne ich dann ein Paper harsch ab, um weniger vorhersehbar zu sein. Wenn ich genügend solcher „Gutachten“ geschrieben habe, werde ich quasi vollautomatisch eine solide Reputation als verlässlicher Reviewer für mikrobiologische Forschungsarbeiten erworben haben, die zwar immer noch nicht reichen würde, um selber eine Fachpublikation zu veröffentlichen. Aber ich werde auf diese Art einen gewissen Einfluss auf die fachwissenschaftliche Öffentlichkeit nehmen können, indem ich die Publikationsprozesse und damit die mikrobiologische Wissensproduktion subtil manipuliere.
Nachdem ich meiner Phantasie gestattet habe, in eine etwas abwegige Richtung zu denken, möchte ich mich näher liegenden Möglichkeiten zuwenden: Was, wenn solche Anfragen auch aus der empirischen Sozialforschung oder der Politikwissenschaft an mich herangetragen würden – was aufgrund meines mutmaßlichen Datenbankprofils durchaus auch möglich sein könnte? Hier könnte ich deutlich besser noch den Eindruck von Kompetenz erwecken und die Affordanz des Systemfehlers für meine persönlichen Idiosynkrasien ausbeuten, indem ich etwa Publikationsvorhaben eines mir missliebigen Forschungsgebiets sabotiere. Die Möglichkeiten einer systematischen Strategie für Wissenschafts-Sabotage hätte ich dadurch allein noch nicht, aber ich könnte immerhin mit dem arbeiten, was mir angeboten wird. Von diesem Gedanken aus ist es dann auch nicht mehr weit bis zu der Frage: Was, wenn nicht nur ich so handelte? Ich bin ja sicherlich nicht das einzige „Opfer“ einer solchen Datenbank-Fehlverknüpfung. Wie verhalten sich denn betroffene Kolleg:innen in ähnlichen Fällen? Das Problem missgünstiger Kolleg:innen, die die Publikation ihrer Arbeiten gegenseitig verhindern, einmal beiseite gelassen: Wer oder was sichert denn überhaupt die Expertise von Gutachter:innen unter den Bedingungen ihrer automatisierten Auswahl? Das Begutachtungs(un)wesen gedeiht ja zu Wohl und Wehe der Wissenschaft. Man hört Kolleg:innen klagen, man komme vor lauter Gutachten gar nicht mehr zum Arbeiten. Man glaubt es ihnen, wenn man weiß, wovon sie reden. Man hört Herausgeber:innen seufzen, dass sie keine Gutachter:innen mehr finden, weil gefragte Expertinn:en längst erschöpft abwinken und verbleibende Kapazitäten immer schwieriger aufzutreiben sind. Eine Konsequenz der Ökonomie des Mangels ist, dass man nehmen muss, was man haben kann; und je weniger hochqualifizierte Expert:innen zur Begutachtung zur Verfügung stehen, desto häufiger wird man sich zur Not mit mittelmäßigen Expert:innen begnügen – im schlimmsten Fall mit Gutachter:innen, die deutlich weniger Expertise haben als die Autoren, deren Texte sie beurteilen sollen. Und die sie vielleicht umso lustvoller kritisieren, je weniger Anerkennung und Wertschätzung sie in ihrem Berufsfeld für sich selbst sehen. Man kann sich ausmalen, welche sozialpsychologische Dynamik sich hier entwickelt mag und ich will es bei dieser „science fiction“ eines von stümpernden Gutachter:innen getragenen, halbautomatischen Begutachtungswesens belassen, die die wissenschaftliche (Nicht)Öffentlichkeit in Zukunft heimsuchen könnte – um zu bedenken zu geben, dass dies auch eine Konsequenz sein könnte, die wir beim Nachdenken über die Probleme mit in Betracht ziehen sollten, die aus der prosperierenden Praxis des Wissenschaftler:innentrackings erwachsen könnten.
Das globale Publikations-Rückverfolgbarkeitsinstrument ORCID
Petra Gehring
Vor einigen Jahren erreichte mich erstmals eine PDF-Korrekturfahne, die nicht nur – wie inzwischen leider üblich – den Verlagsvertrag (erst) im letzten Moment zur Kenntnis gab, nämlich als Bestandteil der Korrekturfahne enthielt. Die Fahne forderte vielmehr neben Adresse und elektronischer Erreichbarkeit auch die Eingabe meiner ORCID-Nummer. Es handelte sich um ein Pflichtfeld, versehen mit dem freundlichen Kommentar: Habe man noch keine ORCID-Nummer? Das sei kein Problem, der Verlag werde dann automatisch eine besorgen. Ein Feld, dem zuzustimmen (bzw. den Verlag zur Beantragung einer solchen Nummer zu autorisieren) sah das Fahnen-Formular nicht vor.
Wissenschaft lebt von Publikationen (nämlich Forschungsergebnissen), die andere lesen und zitieren. Hierfür ist der Autorenname üblicherweise zu nennen. Gleichwohl lassen sich auch anonyme, pseudonyme oder durch Institutionen publizierte Dokumente problemlos wissenschaftlich nutzen und auch korrekt nachweisen. Der TEXT muss identifizierbar sein. Autoren-Identitäten sind arbiträr. Diese zu kennen, dient auch nicht der Qualitätssicherung, die in der Wissenschaft ja der einzelnen Leistung gilt. Hier zählen die Korrektheit aller Belege, redaktionelle oder andere Filter- und Begutachtungssysteme sowie über viele weitere Selektions- und Individualisierungsmechanismen eines Publikats bzw. einer Forschungsleistung laufen.
Warum also ist nun eine ORCID-Nummer? Das Akronym steht für “Open Researcher and Contributor ID”. Die Nachfrage bei einem befreundeten Bibliothekar ergibt, Bibliotheksinformationssysteme seien unter anderem an der sogenannten „Disambiguierung“ von Eigennamen interessiert. Zehn Petra Müllers will man unterscheiden können. Ganz stimmig finde ich diese Auskunft nicht, da die Findbarkeit von Medien nicht davon abhängt und Kataloge keine Biografien sein müssen. Überdies: In einer Bibliothek mit Regensburger Aufstellung stünden die Bücher der zehn Petra Müllers – gleiches Fachgebiet vorausgesetzt – im Regal ggf. dennoch wieder nebeneinander. Tatsächlich, räumt mein Gesprächspartner ein, habe es schon etwas mit dem weltweiten Datenabgleich zu tun. Für mich nehme ich mit: Es geht nicht nur um die Personenzuordnung von Publikationen, sondern auch darum, um Nachfragezahlen (Anschaffungen, Klicks, Downloads) und damit wissenschaftliche Reputation, die „Relevanz“ von Autoren generell zu messen. Und eben auch konkret: von noch lebenden, schreibenden Wissenschaftler*innen.
Was also ist ORCID? Kein rein kommerzielles Unternehmen, aber auch keine öffentliche Institution. Vielmehr ein Intermediär, der sich selbst herausgebildet hat:
“ORCID is a non-profit organization supported by a global community of member organizations, including research institutions, publishers, funders, professional associations, service providers, and other stakeholders in the research ecosystem.”[1]
Die ORCID-Webseite präsentiert den Besitz einer eigenen Nummer im Stil eines Unverwechselbarkeitsversprechens:
„ORCID provides a persistent digital identifier (an ORCID iD) that you own and control, and that distinguishes you from every other researcher.”[2]
Unterscheiden von allen anderen? Eine deutsche Bibliothekswebseite erläutert den Nutzen der Nummer wie folgt:
„Publizierende sind eindeutig identifizierbar und authentifizierbar, trotz möglicher Namensvarianten, Namenswechsel, unterschiedlicher Schreibweisen oder ‚Namensvetterschaft‘ bei häufig vorkommenden Familiennamen. Publikationen sind den Urhebern eindeutig zugeordnet und auffindbar, auch wenn sie nicht in den großen Datenbanken nachgewiesen sind. Bei einem Wechsel der institutionellen Zugehörigkeit oder „Affiliation“ bleibt die individuelle ORCID-ID erhalten und weiter nutzbar. Publikationslisten bei ORCID bleiben stets aktuell, sofern automatische Aktualisierungen im eigenen Profil erlaubt werden.“[3]
Tatsächlich erinnere ich mich an eine seufzende Kollegin: Weil sie nun mal Petra Müller heiße, werde an ihrer Universität der H-Faktor verkehrt errechnet. Das sei ein Wettbewerbsnachteil, auch gegenüber dem Rektorat. Hingegen erinnere ich mich nicht an eine Kollegin, die nach dem Wechsel an eine andere Institution ihre Publikationsliste verloren oder dank ORCID gerettet hätte. Ebenso kann ich mir nicht vorstellen, dass ein Verlag sich derart rührend um den umzugsübergreifenden Fortbestand von Publikationslisten auf Seiten seiner Autorinnen kümmert, dass er mich deshalb von sich aus bei ORCID anmelden möchte.
Ziemlich klar ist vielmehr: Es geht um automatisierte Zugriffe auf Autor*innen und letztlich auf den „Menschen“ hinter dem Autor. Man will Maßzahlen zuordnen können. Allem voran das „Ranking“ von Publikations- und Zitationsvolumina. Unterscheiden von allen anderen – das postuliert also, dass man sich gemessen weiß und dann besser messbar sein will oder muss.
ORCID wird getragen durch Mitgliedsbeiträge, im „Board“ sitzen Vertreter*innen internationaler Forschungseinrichtungen, aber auch eine Vertreterin des Verlages PLOS und eine Vertreterin von Springer Nature. Ein beim Wellcome Trust tätiger Brite ist Direktor des Boards. Aus Deutschland oder Frankreich scheint niemand im Board beteiligt. In Deutschland firmieren die DFG, DLR, das Forschungszentrum Jülich, die Deutsche Nationalbibliothek (DNB), viele Universitäten, aber auch die Walter de Gruyter GmbH als Mitwirkende von ORCID.[4]
Wieviel Wirtschaft, wieviel öffentliches Interesse steckt also drin? Wikipedia spricht recht eindeutig von einer „Firmengründung“ im Jahr 2010. „Zu den Gründungsmitgliedern von ORCID gehören wissenschaftliche Verlagsgruppen (beispielsweise Elsevier, Nature Publishing Group, Springer) und Forschungsorganisationen (beispielsweise EMBO, CERN).“[5]
Zum 1. Januar 2016 hätten mehrere Verlage für wissenschaftliche Publikationen (z. B. Royal Society, PLOS) eine obligatorische Identifikation per ORCID für die einreichenden Autoren wissenschaftlicher Manuskripte eingeführt.[6]
„ORCID verfolgt das Ziel, seine Identifizierungsnummer im Sinne eines ‚enter once, reuse often‘ (einmal erfassen, vielfach nachnutzen) zum De-facto-Standard für die Autorenidentifikation im Wissenschaftsbetrieb zu machen, das heißt in Publikationen, Forschungsförderprogrammen, Peer Reviews und so weiter.[10] Die Planungen für ORCID wurden 2010 auf Umfragen gestützt.[11] ORCID-iDs sollen die elektronische Zuordnung von Publikationen und anderen Forschungsaktivitäten und -erzeugnissen zu Forschern erleichtern. Dies ist aufgrund der Personennamen alleine nicht sicher möglich, da verschiedene Autoren gleiche Namen haben können, Namen sich ändern können (beispielsweise bei Heirat), und wegen Schreibvarianten (beispielsweise einmal die ausgeschriebenen Vornamen, ein anderes Mal aber nur die Initialen).[12] Zudem erleichtern Identifikatoren die maschinelle Datenverarbeitung.“[7]
Die Deutsche Sub-Struktur von ORCID wird (einschließlich eines „Monitors“, der die Verwendung nachhält[8]) durch die DFG gefördert und über DINI vernetzt. Die Bibliotheken machen dafür unverhohlen Werbung – wiederum mit dem angeblichen Publikationslisten-Vorteil:
„Die ORCID iD (Open Researcher and Contributor iD) ist eine ID für Forschende, die ihnen u. a. die Pflege ihrer Publikationsliste erleichtert. Jede Person, die im wissenschaftlichen Arbeitsprozess einen Beitrag leistet, kann sich über ihre ORCID iD mit ihren Publikationen, Forschungsdaten und anderen Produkten des Forschungsprozesses (z. B. Forschungssoftware) eindeutig vernetzen. Damit werden diese Objekte sichtbar und technisch verlässlich mit ihren Erschafferinnen und Erschaffern verbunden. Die internationale non-profit Organisation ORCID vernetzt weltweit bereits 12,3 Millionen Publizierende mit ihren Aufsätzen, Forschungsdaten und anderen Informationsobjekten über die globaleindeutige und dauerhaft zitierbare ORCID iD. […] Ziel des DFG-Projekts ORCID DE ist es, die Implementierung von ORCID an Hochschulen und außeruniversitären Forschungseinrichtungen durch einen übergreifenden Ansatz nachhaltig zu unterstützen. Dabei stehen organisatorische, technische und rechtliche Fragen gleichermaßen im Fokus. Neben der Schaffung einer zentralen Anlaufstelle für Hochschulen und außeruniversitäre Forschungseinrichtungen stehen die Vernetzung und Verbreitung der ORCID iD im Bereich digitaler Informationsinfrastrukturen im Fokus des Vorhabens. Hierzu wird u. a. die Vernetzung mit der Gemeinsamen Normdatei (GND) vorangetrieben. Weiter widmet sich das Projekt den Herausforderungen der Etablierung eines „Organization Identifiers“ für wissenschaftliche Institutionen. Projektpartner von ORCID DE sind DataCite, die Deutsche Nationalbibliothek, das Helmholtz Open Science Office am Deutschen GeoForschungsZentrum GFZ, die Universitätsbibliothek Bielefeld und die Technische Informationsbibliothek (TIB). Das Projekt wurde durch die Deutsche Initiative für Netzwerkinformation (DINI) initiiert.“[9]
Die gemeinsame Normdatei (GND) der Deutschen Nationalbibliothek scheint mit ORCID verbunden zu sein (oder wird abgeglichen?) und Erweiterung der Autorenerfassung ist geplant:
„Bislang war die GND im Wesentlichen auf eine bibliothekarische Nutzung ausgerichtet. Zukünftig will die GND-Kooperative den Kreis der Nutzer und Nutzerinnen erweitern und sich verschiedenen Anwendern und Anwenderinnen aus Kultur und Wissenschaft öffnen: Auf der Grundlage eines mehrjährigen Entwicklungsprogramms soll ein spartenübergreifendes Produkt entstehen.“[10]
ORCID wirbt mit „Benefits for publishers“[11]. Unter anderem so:
“Improve data collection by easily discovering previously published works, datasets, affiliations and funding received by the researchers your systems interact with. Use them to pre-populate forms, join data with papers, and acknowledge funding, and [i]mprove visibility of your local profile pages by updating ORCID records to point to them.“[12]
“Reward peer reviewers and editors by giving them credit for their efforts by updating their records, [i]dentify reviewers and assign review tasks based on previous contributions and activities, and [a]ssist editors by providing more details about the authors.“[13]
“Reduce administrative burden by automatically updating ORCID records when works are published so they’re discoverable by other systems, including funders, indexers and research organizations“[14]
Ist das noch Bibliometrie oder schon Vermessung bzw. Vermarktung meiner Person? Tatsächlich adressiert ORCID auch die Wissenschaftler*innen mit Self-Tracking-Optionen. „Sign in“ werden mit Google und Facebook angeboten. Mit dem Member oder Premium Member Status kann man sich Ergebnisse zu Datenanalysen liefern lassen, die eigenen Publikationen betreffend. Ebenso gibt es Community Events und andere Angebote.[15]
Getarnt als informationswissenschaftliches Erfordernis stecken also durchaus Profitinteressen hinter der „ID“. Zudem ignoriert man – mit freundlicher Unterstützung von DFG und den Bibliotheken – die DSGVO. Denn ORCID transferiert Daten auf US-Server und ist damit seit dem letzten EuGH-Urteil datenschutzwidrig. Das macht nicht nur den Paternalismus eines Verlags, der mir die Nummer einfach verpassen will, zu einem Grundrechtsverstoß, sondern auch die diversen automatischen Updates (von deren genauem Inhalt man ebenso wenig erfährt wie von der genauen Nutzung und den Nutzern der an ORCID gegebenen Daten).[16]
Was Datenschützer ebenso stören dürfte: Man kann im System die eigenen Informationen zwar verwalten, aber nicht ändern, sondern nur die öffentliche Sichtbarkeit von Angaben unterdrücken, die man für falsch hält oder nicht eingetragen sehen will. Und dort, wo ORCID sich mit anderen Datenbanken abstimmt, geschieht dies nicht auf Basis der sichtbaren, sondern der dahinterliegenden, nach der Eingabe nicht veränderbaren Daten.
Es gibt andere Autorenidentifikationssysteme als ORCID. Etwa AuthorClaim, der Nachfolger eines Ökonomen-Netzwerks, ISNI, ein Unternehmen aus UK, an welchem Bibliotheksvertreter beteiligt sind, und ReseacherID des Datenanalytik-Konzerns Clarivate, der das Web of Science betreibt. Keiner von diesen dürfte als besser oder vertrauenswürdiger gelten. Aber … ist es eine Empfehlung, sich als das kleinste Übel durchgesetzt zu haben? Ich frage mich nochmals: Wozu – wenn nicht zur Überwachung und zum Verkauf personalisierter Services – benötigt man die Autorenidentifikation überhaupt?
[16] ORCID unterscheidet auch US-Bürger und Nicht-US-Bürger nicht. „It is not likely that ORCID would be subject to US surveillance law requests highlighted in the Schrems II decision.” https://info.orcid.org/our-principles-policies/faq-orcid-and-ecj-schrems-ii-decision/#easy-faq-13381 [28.9.2021]
Hätte Niklas Luhmann seinen berühmten Zettelkasten als digital vernetztes Literaturverwaltungsprogramm angelegt, wenn er so bequeme und elaborierte Möglichkeiten dafür gehabt hätte wie jene, die inzwischen dafür verfügbar sind? Und wenn er es getan hätte, würde er am Ende doch wieder auf sein papierbasiertes Aufschreibesystem zurückwechseln? – Begeben wir uns auf eine imaginäre Spurensuche…
Als Luhmann durch Internetwerbung, Informations- und Lizensierungsangebote seiner Bibliothek sowie begeisterte Kommentare seiner Kolleg:innen in den sozialen Medien auf verschiedene Programme aufmerksam geworden war, die in enger Zusammenarbeit mit der akademischen Community entwickelt und kostenfrei angeboten wurden, hatte er – nach anfänglicher Skepsis, gleichwohl mit Neugierde – verstanden, welche Möglichkeiten ihm die Tools boten. Er begann, sich einen digitalen Zettelkasten einzurichten und brachte sich auch bald mit eigenen Wünschen und Vorschlägen für die Entwicklung des Programmes ein, die von der Community eifrig aufgenommen wurden.[1] Schon bald war der digitale Zettelkasten zu einem ständigen Begleiter seiner Arbeit geworden. Wenn er einen Text las, notiert er darin rasch seine Exzerpte, Zitate, Zusammenfassungen und Kommentare. Die Notizen ergänzte er durch Schlagworte wie Kommunikation, Wissenschaft, Komplexität usw., versah sie mit Links zu weiterführenden Internetquellen oder Dateien auf seinem Computer.
Über die Jahre hinweg waren nicht nur der Umfang des digitalen Zettelkasten, sondern auch dessen Möglichkeiten immens angewachsen. Dank der beständigen Weiterentwicklung der Software wurden neue und immer mächtigere Funktionen ergänzt. Die akademische Community unterstützte die Entwickler mit Hinweisen und Nutzerwünschen. Zunächst kam die hilfreiche Option hinzu, bibliographische Daten per DOI fast automatisch in den Zettelkasten aufzunehmen. Bald konnten Texte als PDFs selbst in den Zettelkasten integriert werden. Anschließend war es sogar möglich, Texte direkt im Viewer der Literaturverwaltung zu lesen und zu annotieren. Wenn Luhmann einen Abschnitt gelb markierte, wurde die Passage automatisch als Zitat in seinen Zettelkasten übernommen, samt formatiertem Quellennachweis.
Später kam noch die Möglichkeit hinzu, ein virtuelles Inhaltsverzeichnis im Zettelkasten anzulegen. Luhmann plante, einen Text über die Organisation von Wissen in digitalen Aufschreibesystemen, er entwarf den Gedankengang dafür im Zettelkasten. Dazu notierte die Kapitel und Abschnitte des zu schreibenden Manuskripts und fügte ihnen anschließend Zitate, Notizen und Kommentare hinzu. Über Schlagworte und Querverweise füllten sich die Kapitel dann wie von selbst mit den damit verknüpften Zetteln, die dann nur noch selektiert und in eine gedankliche Ordnung gebracht werden mussten.
Sobald er sein Textverarbeitungsprogramm öffnete und mit dem Schreiben begann, konnte er durch ein Plug-In seine Zettel im Text einblenden und bibliographische Angaben durch einfaches Hinüberschieben ergänzen. Oder er zog ein Zitat aus dem digitalen Zettelkasten in das Manuskript, an dem er gerade arbeitete, und die bibliographischen Angaben dazu wurden daraufhin automatisch ergänzt. Löschte er das Zitate, wurden die Angaben automatisch entfernt. Sehr bequem.
Im Laufe dieser Entwicklung wanderte der Zettelkasten von Luhmanns Computer, wo er als Programm auf dem Desktop ausgeführt wurde, in die Cloud. Dadurch war es ihm nicht nur möglich, von „überall“ auf seine Zettelsammlung zuzugreifen. Er konnte sie zudem in Teilen oder im Ganzen mit Kolleginnen und Kollegen teilen, die wiederum ihrerseits zum Wachstum des Zettelkastens beitragen konnten.
Luhmann dachte darüber nach, wie der digitale Zettelkasten seine Arbeitsweise erleichtert, erweitert oder überhaupt erst ermöglicht. Er konnte schneller arbeiten, bibliographische Daten mussten nicht händisch erfasst oder in Literaturverzeichnisse eingefügt werden, Zitate nicht mehr abgetippt, Texte nicht auf einen Kopierer gelegt und nach der Ablage wiedergefunden werden. Über die Jahre hatte sich der Zettelkasten zu einem Archiv entwickelt, dass er mit seinem persönlichen Gedächtnis allein nicht mehr überblicken konnte: Er enthielt eine beträchtliche Zahl von bibliografischen Daten, Texten in PDF-Form, Zitaten, Notizen sowie ein umfangreiches Schlagwortsystem. Vor allem die Verwaltung und Pflege seines speziellen Verweissystems war mithilfe der Digitaltechnik spielend leicht zu bewältigen. Raumprobleme entstanden auf absehbare Zeit auch keine. Der Zettelkasten war zudem über die Jahre so eng mit seinem Arbeitsprozess zusammengewachsen, dass er sich kaum vorstellen mochte, ohne ihn auszukommen. Das Ergebnis seiner Überlegung zur Frage, wie das Programm seine Arbeitsweise, seinen Arbeitsalltag, ja sein Leben strukturierte, brachte er schließlich in die Form eines Aufsatzes: „Kommunikation mit Literaturverwaltungsprogrammen. Ein Erfahrungsbericht“.[2]
Die Geschichte von Literaturverwaltungsprogrammen hat häufig einen ähnlichen Anfang und eine ähnliche Entwicklung. Programme wie EndNote, Mendeley oder Citavi (vormals LiteRat) haben ihren Ursprung in akademischen Kreisen. EndNote wurde 1985 in Berkeley (Californien) von Dr. Richard Niles gegründet, einem Mathematiker, der – wie die Firmenwebsite von 1995 schildert – bemerkte, dass seine Frau, die ebenfalls Wissenschaftlerin war, Stunden damit zubrachte, Bibliographien in die von verschiedenen Verlage verwendeten unterschiedlichen Formate zu bringen.[3] Der Vorläufer von Citavi wurde von Hartmut Steuber, dem damaligen Leiter der Informationsstelle Erziehungswissenschaft, gemeinsam mit zwei studentischen Mitarbeitern an der Heinrich-Heine-Universität Düsseldorf entwickelt. Auch aus seiner Sicht stand ein Defizit am Anfang der Entwicklung: Es fehlte, so Steuber, ein Programm, um „Literatur für Publikationen und Seminararbeiten“ auswerten zu können.[4] Die erste Version namens LiteRat Classic erschien 1995.[5] Um die Finanzierung und damit Weiterentwicklung zu sichern, gründeten sie später das Unternehmen Swiss Academic Software. Es entwickelte Citavi zu einer der erfolgreichsten Literaturverwaltungen, insbesondere im deutschsprachigen Bereich. Nach eigenen Angaben können 85 % der Studierenden an deutschen Hochschulen Citavi dank einer (kostenpflichtigen) Campuslizenz die Software kostenlos nutzen.[6] Mendeley wurde von Doktoranden 2008 gegründet.[7] Durch den wie schon bei Endnote und Citavi betonten Fokus auf die gemeinsam mit der akademischen Community erfolgte Entwicklung der Literaturverwaltung genoss es bald eine ausgezeichnete Reputation. Da Mendeley auf Kollaboration beruhte, galt es als guter Rebell gegen die Lizenzschwellen der Verlage, die den akademischen Dialog mit oft beträchtlichen Bezahlschranken erschwerten.[8]
Was diese Literaturverwaltungen neben ihrer Einbindung in die akademische Community ferner gemeinsam haben: Sie wurden in den letzten Jahren von anderen Unternehmen, darunter auch großen Verlagshäusern aufgekauft. Der Aufschrei war groß, als Elsevier 2013 Mendeley erwarb – für 100 Millionen Dollar.[9] Elsevier galt in einigen Kreisen als das Gegenteil von Mendeley – als „evil“, als „bad crowd“.[10] EndNoteTM war zwischenzeitlich von Reuters aufgekauft worden, bevor es an einen anderen Großverlag ging: Clarivate Analytics. Auch Citavi ist 2021 von einem anderen Unternehmen erworben worden: QSR International. Es handelt sich um einen Entwickler von Software zur Datenanalyse.
Das Schreiben beginnt beim Lesen. Die soziologische Frage Luhmanns war: Wie verändert sich das Denken, wenn sein digitaler Zettelkasten kommerziellen Verlagen und Datenhändlern gehört? Begonnen hatte die Aufzucht seines Zettelkastens als eine Art koevolutionärer Prozess des Sammelns und Verweisens und Ergänzens. „Als Ergebnis längerer Arbeit mit dieser Technik entsteht eine Art Zweitgedächtnis, ein Alter ego, mit dem man laufend kommunizieren kann. Es weist, darin dem eigenen Gedächtnis ähnlich, keine durchkonstruierte Gesamtordnung auf, auch keine Hierarchie und erst recht keine lineare Struktur wie ein Buch.“[11] Inzwischen ist dieses Gedächtnis über das Internet aber noch an ein viel größeres angeschlossen. „Jede Notiz ist nur ein Element, das seine Qualität erst aus dem Netz der Verweisungen und Rückverweisungen im System erhält“, erkannte Luhmann: „Eine Notiz, die an dieses Netz nicht angeschlossen ist, geht im Zettelkasten verloren, wird vom Zettelkasten vergessen.“[12] – Was aber, wenn dieses Netz Teil eines noch größeren Netzes wird, in dem nichts mehr vergessen wird?
Die Tools sind längt nicht mehr nur „Referenzmanager“. Sie zielen darauf ab, den gesamten Forschungsprozess zu strukturieren und in ein Werkzeug zu integrieren, das Infrastruktur fürs Denken, Lesen und Schreiben sein will. Dass diejenigen, die das Lesen und Schreiben als eine zu verfeinernde Kunstfertigkeit erleben, diese auch mittels virtuoserer Werkzeuge weiterentwickeln wollen, ist verständlich. Und die Veränderungen, die die anschmiegsamen Tools mit sich bringen, sind nicht leicht zu erfassen. Es ist zunächst ein Unbehagen darüber, dass die vielen Stunden Arbeit am Zettelkasten (als Daten) nun so eng mit den Entscheidungen von Unternehmen verbunden sind.
Luhmann hatte am Abend eine Mail von einem Kollegen erhalten, der ihm seinen neuesten Aufsatz zuschickte. Die Frage war, ob er die Datei des Textes in die Datenbank seiner Literaturverwaltung aufnehmen sollte. Seine Universität subskribierte die Zeitschrift nicht, in der der Aufsatz erschienen war. Sein digitaler Zettelkasten gehörte einem Verlag, der den Abonnementstatus über eine Lizenzabfrage leicht feststellen kann. Und über seine individuelle ID, mit der die großen Wissenschaftsdatenhändler den Wissenschaftsautor Luhmann längst erfasst hatten, um seine ID mit allen verfügbaren Informationen über sein Lese-, Schreib-, Kommunikations- und Konsumhalten zu verknüpfen,[15] ist ebenfalls leicht feststellbar, dass er diesen Text nicht selbst gekauft, sondern über den „Schattenmarkt“ erhalten hat. Doch die Online-Tauschbörsen der Wissenschaft wurden in den letzten Jahren massiv attackiert. Zunehmend wurden auch Individuen für Urheberrechtsverstöße verfolgt. Das reichte bis in die Lehre hinein; Dateien, die in Seminaren zu Unterrichtszwecken angeboten wurden, mussten bis auf Komma genau erfasst und lizenziert werden. Bei Verstößen drohten immense Strafen, so wie längst schon bei illegalen Musik- und Filmtauschbörsen.
Elsevier, das Mendeley übernahm, hatte sich für den Stop Online Piracy Act (SOPA) eingesetzt, einem Gesetzesentwurf, der 2011 im US-amerikanischen Repräsentantenhaus eingebracht wurde, um weitreichende Maßnahmen zur Durchsetzung von Urheberrechts- und Verwertungsansprüchen einzuführen. Zu Clarivate Analytics gehört neben EndNoteTM das Web of Science, das die Datenbanken mehrere Disziplinen miteinander verbindet und mit Zitationsdaten auch Impact-Faktoren ermitteln will. Ferner ist Clarivate Analytics im Besitz von CompuMark und MarkMonitor: zwei Services, die darauf spezialisiert sind, Markenrechtsverletzungen zu ermitteln bzw. Antipiracy-Lösungen anzubieten.
Gibt es vielleicht etwas Ähnliches zur Überprüfung der Texte im Zettelkasten?
Die großen Verlage haben, wie beobachtet worden ist, ihr Geschäftsmodell verändert: Das Verlegen von Texten ist nurmehr ein Element, man ist auf dem Weg, sich in einen Datenhändler und -analytiker zu verwandeln. Dazu gehört auch, Themen und Forschungstrends frühzeitig zu erkennen und aufzugreifen.
Nachdem Luhmann einen Text mit Habermas veröffentlicht hatte, wurden ihm fortan zunehmend Texte zur Diskurstheorieempfohlen, ein Text des Mathematikers Spencer-Brown wurde von seinem digitalen Zettelkasten indessen als irrelevant betrachtet, und daher in seiner Literaturrecherche nicht angezeigt.
Elsevier, das selbst zur REALX Group gehört, bietet inzwischen unter dem Namen Pure ein „Research Information Management System an“, es verspricht einen „evidenzbasierten Ansatz im Hinblick auf die Forschungs- und Kollaborationsstrategien, die Assessment-Übungen und die alltäglichen Geschäftsentscheidungen Ihres Instituts.“ Es bietet eine Integration von anderen Services wie SciVal, Scopus, Plum Analytics oder NewsFlo an und soll dabei helfen, Forschungstrends zu erkennen und Institutionen zu benchmarken.[13]
Luhmann überlegte, ob er den digitalen Zettelkasten verlassen sollte. Oder zumindest zu einer anderen, nichtproprietären Software wechseln sollte. Das Problem war, dass es nicht leicht ist, die einmal in den alltäglichen Gebrauch eingewobene Infrastruktur aufzugeben. Das Problem der Pfadabhängigkeit: Migration wird alles andere als unproblematisch. Viele Jahre Arbeit waren in das Netz von Literatur, Zitaten, Schlagworten eingegangen. Das alles lässt sich nicht ohne großen, vielleicht zu großen Aufwand umtopfen. Ein Lock-in, das die jahrzehntelange Arbeit faktisch irreversibel an den einmal erschaffenen Zettelkasten bindet – weil Information endlos, die Lebenszeit aber begrenzt ist.
2008 hatte EndNoteTM eine Klage gegen die George Mason University eingereicht, die Entwickler hinter Zotero.[14] Zotero ist ein Literverwaltungsprogramm, das als freie Open Source-Software angeboten wird. EndNoteTM klagte, weil Zotero die Möglichkeit bot, die Daten in EndNoteTM nach Zotero zu migrieren und dafür eine technische Lösung zur Verfügung stellte. Diese verletze, so EndNoteTM, die Lizenzrechte, da sie mit dem spezifischen Format von EndNoteTM arbeite. Die Klage wurde abgewiesen.
[2] Zur kontrafaktischen Gegenlektüre: Niklas Luhmann: „Kommunikation mit Zettelkästen: Ein Erfahrungsbericht“. In: Universität als Milieu: Kleine Schriften, hrsg. v. André Kieserling, Bielefeld: Haux 1992, S. 53–61. Vgl. https://www.youtube.com/watch?v=4veq2i3teVk (Aufruf vom 1.12.2021).
Über szientometrische Verlagstools im Forschungsmanagement
Dawid Kasprowicz
Zu Beginn der Woche ging eine Mail an die Mitarbeiter:innen des Lehrstuhls. „Möchte jemand hingehen? Könnte interessant für uns sein.“ Die Mail war allgemein gehalten. Eine gewisse Erwartung an die Mitarbeiter:innen, den Termin wahrzunehmen, konnte man zwischen den Zeilen nicht herauslesen. Anfang der Vorlesungszeit, voller Kalender, aber dennoch: Ich folgte der Einladung. Denn das Thema war umso konkreter: Optimierung der Publikations- und Kollaborationstätigkeiten durch bibliometrische und szientometrische Tools. Kurzum: Systematische Erfassung von relevanter Forschungsliteratur, Bilanzierung von Themen-Trends in Graphen, Bestimmung der Gewichtung von Ländern und Disziplinen zu neuen Forschungsthemen durch Tortendiagramme, Verortung der wichtigsten Communities zu aktuellen Fragestellungen durch historisierte Zitationsverläufe – womöglich etwas, dass für Drittmittelanträge mühsam aufgearbeitet und im jeweiligen Dokument unter „Forschungsstand“ eingearbeitet werden muss. Das klang hilfreich.
Drei Tage später begann also der Workshop zum digitalen Verlagstool des niederländischen Verlages Elsevier mit dem Namen „SciVal“. Entgegen meiner Erwartung stand aber nicht die individuelle Nutzung von Forscher:innen im Vordergrund, sondern die möglichen Chancen für die Universität als Forschungsinstitution und Antragsteller. In der ersten Reihe nahm der Forschungsdekan der Universität sowie die Leitung des Forschungsservices Platz. Ein Vertreter der Firma Elsevier stellte das Tool vor, das aus vier Bausteinen mit den Namen „Overview“, „Benchmarking“, „Collaboration“ und „Trends“ besteht. Schnell wurde klar, dass es um die Vermarktung eines Tools ging, das in erster Linie großen Institutionen dazu dienen soll, maßgeschneiderte Informationen für große Förderprogramme wie z.B. die Exzellenz-Initiative zu erhalten. In solchen Formaten muss die Ausnahmestellung der Universität (oder besser: ihr Unique Selling Point) durch Internationalisierung und eine nachhaltige Vorreiterrolle in den Forschungsgebieten, die sie ins Rennen schickt, deutlich gemacht werden. Operativ stellen sich dann folgende Fragen: Wie lässt sich der Stellenwert eines internationalen Kollaborationspartners in seinem Forschungsfeld ermitteln? Welche Art von Kooperationen haben die Institute, die in meinem Fach die Benchmark darstellen? Mit welchen Themen liegen wir über dem Durchschnitt, was die Zitationen mit impact factor angeht?
Nun liegt es in der Natur des Forschungswettbewerbes, dass auch große Antragsteller wie Universitäten die geeigneten Tools für ihre Anträge finden. Das Verlagstool „SciVal“ macht allerdings zwei Probleme deutlich, die mit der systematischen Szientometrisierung akademischer Publikationspraktiken durch private Anbieter einhergehen: Zum einen ist es die Datenbank „Scopus“, mit der das Verlagstool „SciVal“ versehen ist. Bei „Scopus“ handelt es sich um eine teils lizenzpflichtige Datenbank, die ebenfalls zu Elsevier gehört und die Abstracts und Zitationen von 5000 Verlagen aufführt. Zahlreiche Wissenschaftler:innen, die nicht zuletzt für ihre Förderung um eine Quantifizierung ihrer publikatorischen Reichweite bemüht sind, greifen somit auf „Scopus“ zurück. Die Integration des persönlichen Outputs in „Scopus“ ist also auch Grundlage für Tools wie „SciVal“ – die quantifizierten Qualitätskriterien der Wissenschaft stellen damit die Bedingung für neue Wertschöpfungsketten privater Anbieter.
Zum andern ist der Umstand, dass Universitäten oder ganze Institute als Antragsteller auftreten können, in erster Linie ein wissenschaftspolitischer Effekt, der durch die Kriterien bundesweit ausgeschriebener Förderprogramme ausgelöst wird. Förderwürdigkeit, wie z.B. in der Exzellenz-Initiative, zeichnet sich dabei auch durch eine internationale Reputation und Vernetzung aus – Leitindexe, die sich in einem über Benchmarks und Trends gegossenen Outreach ermitteln und über disziplinäre Grenzen hinweg vergleichen lassen. Um den Outreach – und den seiner möglichen Konkurrenz – ermitteln zu können, werden Lizenzen für Tools wie „SciVal“ erworben und Einführungsveranstaltungen für das Forschungsmanagement der Universität veranstaltet, in die sich auch einige Forscher:innen verirren. Knapp ein Drittel der deutschen Exzellenzuniversitäten hat, wie ich erfuhr, eine SciVal-Lizenz, andere nutzen Anbieter wie „Web of Science“, die ähnliche Tools anbieten. Von Seiten der Hersteller hat man zu Beginn der Schulung versichert, dass eine deutsche Exzellenz-Universität für ihren erfolgreichen Antrag „SciVal“ verwendet hat.
Es ist daher möglich, dass viele deutsche Universitäten, die sich auf größere Förderlinien bewerben, hier an die Verlage herantreten und individuelle Beratung erwerben – wobei der umgekehrte Weg wahrscheinlicher ist. Damit setzt eine wissenschaftspolitische Agenda auch das Begehren, solche Informationen über die Forschungspraxis als Benchmarks generieren zu können. Und das mit Mitteln, die anderen Universitäten – aufgrund der Kosten oder des fehlenden Personals im Forschungsservice – nicht zur Verfügung stehen. Es bleibt langfristig die Frage, ob es universitäre Alternativen zu den Forschungstools der privaten Anbieter geben wird und wenn ja, welchen Benchmark-Kriterien darin gefolgt wird. Es ist wohl eher nicht davon auszugehen, dass die Wissenschaftspolitik ihre Vorliebe für quantifizierbare scientific impacts als Leitindexe der exzellenten Forschung zügeln wird.