Mitleser aufgepasst! Von der Informationsanalyse zum Wissenschaftlertracking

Nicola Mößner

Illustration: Matthias Seifert

Großstadtbewohner kennen das: Man sitzt in Bus oder Bahn, pendelt zur Arbeit oder bewegt sich zu anderem Zweck von West nach Ost, von Nord nach Süd durch die eigene Stadt. Das kostet Zeit. Zeit, die man gerne anders verbringen würde. Zeit, die es zumindest zu füllen gilt. Lesen ist eine beliebte Alternative. Waren es früher Zeitung und Buch, ist es heute das Smartphone oder das Tablet mit den diversen Anwendungen darauf, das Zeitblasen zu füllen hilft. Die Augen der Lesenden sind dabei so auf die Geräte fixiert, dass eine verzweifelte Servicekraft in der New Yorker Subway ihre notwendigen Lautsprecheransagen einleitete mit: Dear passengers – PLEASE – pay attention!‹ Alle Augen kleben am eigenen Display – oder etwa nicht? Nein, bei genauerer Betrachtung stellt man fest, dass es Leute gibt, die einen unauffälligen Blick über die Schulter ihrer Nachbarn werfen, die Spezies der ›Mitleser‹. Folgten deren Augen früher fremder Menschen Druckspalten, betrachten sie heute schweigend die Smilies und Likes, die sich auf den elektronischen Lesegeräten häufen. Wer hätte gedacht, dass sich aus diesem harmlos scheinenden, neugier- und langeweilegetriebenen Gruppenverhalten ein lukratives Geschäftsmodell entwickeln ließe?

Das aber geschieht gerade jetzt – möglich gemacht durch unsere Nutzung digitaler Medien. Längst wird es mehr und mehr zur Gewohnheit, eBooks auf den Cloud-Servern der Online-Buchhändler zu speichern – gesetzte Lesezeichen und andere Textmarkierungen inklusive. Was macht es schon, wenn Amazon & Co. die privaten Lektürestunden trackt, die man sonst mit einem Mitleser in der Bahn geteilt hätte?

Erstreckt sich diese Resignation des Alltagsindividuums auch schon auf andere Bereiche? Wie steht es mit dem Wissenschaftssektor? Hier ist der Austausch von Informationen essentiell, Lesen, wenn man so will, seit jeher ›Teil des Geschäfts‹. Erkenntnistheoretiker sprechen von der sogenannten epistemischen oder kognitiven Arbeitsteilung.[1] Wissenschaft ist Teamarbeit und das nicht nur in der unmittelbaren Forschungstätigkeit im Labor. Thomas Bartelborth weist darauf hin, dass gerade in diesem Kontext der Rückgriff auf Daten, Informationen und Wissensinhalte – kurz: auf das Zeugnis anderer[2] – wesentlich sei. Wissenschaftlicher Fortschritt wird nur möglich, wenn wir uns auf die Mitteilungen unserer FachkollegInnen verlassen dürfen. Müssten wir alle Grundlagen stets von Neuem selbst erarbeiten, bliebe die wissenschaftliche Arbeit in ihren Anfängen stecken. Dass darüber hinaus „die Wissenschaften das Rückgrat des gesellschaftlichen Wissens“ darstellen, wie Bartelborth schreibt,[3] also eine enge Vernetzung der verschiedenen gesellschaftlichen Bereiche – von Wissenschaft, Politik und Alltag – vorliegt, hat uns die Corona-Pandemie sehr deutlich vor Augen geführt.

Kehren wir an dieser Stelle zurück zu den ›Mitlesern‹: Wie passen sie in dieses komplexe Bild wechselseitiger epistemischer Abhängigkeit? Für das Verständnis unseres heutigen Blicks über die nur mehr metaphorische Schulter Lesender sind Informations- und Kommunikationstechnologien (IuK-Technologien) der Schlüssel.[4]Das ›Mitlesen‹ im Kontext der Wissenschaft setzt dabei mindestens zweierlei voraus: (a) einer Verdichtung der Quellen, d.h. der Informationsträger, um einen schnellen und umfassenden Zugriff auf ihre Daten zu erhalten und (b) das Vorhandensein eines Dritten, der ein (kommerzielles) Interesse an den verfügbaren Daten und Informationen besitzt.

Die Voraussetzung der Verdichtung – wie sie im ÖPNV durch das Zusammenführen vieler Fahrgäste im täglichen Berufsverkehr erfolgt – ergibt sich aus der Notwendigkeit, die stetig wachsenden Datenströme zu kanalisieren, zu strukturieren, kurz: sie handhabbar zu machen.[5] Im wissenschaftlichen Publikationswesen geschieht das vor allem durch die Bündelung von informationsbezogenen Dienstleistungen, wie sie derzeit insbesondere von kommerziellen Verlagen angeboten werden. Insofern ist damit zugleich die zweite Voraussetzung erfüllt: Es gibt einen Dritten, der ein (kommerzielles) Interesse an Daten und Informationen hat.

Wie eine solche Verdichtung von Datenströmen erfolgt, lässt sich gut am Beispiel der Abstract- und Zitationsdatenbank Scopus des Verlagskonzerns Elsevier nachvollziehen. Das Unternehmen bewirbt sein Angebot mit dem Argument, dass seine Datenbank einen enormen Effizienzvorteil für die wissenschaftliche Praxis impliziere: »Scopus quickly finds relevant and authoritative research, identifies experts and provides access to reliable data, metrics and analytical tools. Be confident in progressing research, teaching or research direction and priorities — all from one database and with one subscription[6] Die Datenbank stellt für den individuellen Wissenschaftler also sowohl ein Recherche-Werkzeug als auch ein Mittel der Bewertungvon Informationsangeboten (Publikationen der unterschiedlichsten Art) wie auch von Personen (AutorInnen) und zugehörigen Institutionen dar.

Mit der vom Betreiber intendierten kontinuierlich ausgeweiteten Nutzung von Scopus im Wissenschaftsalltag etabliert sich ein kommerzieller Akteur im Kernprozess der epistemischen Arbeitsteilung und strebt dort eine Monopolstellung an, wie aus dem obigen Zitat deutlich wird. Von diesem Unternehmensziel ist Elsevier heute nicht mehr weit entfernt; denn zu Scopus steht derzeit weltweit nur ein einziges Produkt in Konkurrenz: Web of Science.[7] Scopus ist also ein IT-Produkt, das ähnlich wie Google für den Bereich der Internetsuchmaschinen eine marktdominierende Stellung innehat. 

Diese analoge Entwicklung der beiden Technologiemärkte verschärft epistemologische Schwierigkeiten, die sich aus der Nutzung einer Datenbanklösung im wissenschaftlichen Kommunikationswesen ergeben können. Beispielsweise kann es durch eine solchermaßen veränderte Arbeitspraxis dazu kommen, dass der für die epistemische Arbeitsteilung notwendige Informationsfluss innerhalb der digitalisierten Arbeitsumgebung der wissenschaftlichen Gemeinschaft sowohl in qualitativer als auch in quantitativer Hinsicht eingeschränkt wird. In ähnlicher Weise wie die Monopolisierung des Suchmaschinenmarktes kann die Etablierung einer neuen Schnittstelle zwischen wissenschaftlichem Informationsangebot (Publikationen, Forschungsdaten usw.) und Nachfrage längerfristig zu einer Engführung des Suchhorizonts der ForscherInnen (und WissenschaftsmanagerInnen) führen.[8]

Kurz gesagt: In einer Datenbank kann nur gesucht werden, was darin als Inhalt auch vermutet wird. Ausgeblendet wird dabei das, was der Forschung aber vielleicht den größeren Innovationsschub verleihen könnte, nämlich unbekannte (d.h. nicht den Erwartungshaltungen entsprechende), aber relevante Informationen. Letztere können Anreize bieten, Forschungshypothesen zu hinterfragen, andere Erklärungsmodelle in Erwägung zu ziehen usw. Allerdings sind es gerade diese Informationen, die nur schwerlich mittels einer auf Algorithmen gestützten Suchtechnologie gefunden werden können. Suchfunktionen, wie sie in Datenbanken etabliert werden, stützen sich auf Metadaten zu den Dokumenten, die im Speicher hinterlegt wurden. Das können im Falle von Scopus AutorInnennamen, Zeitschriftentitel, aber auch für die Beiträge vergebene Schlagwörter sein. In jedem Fall muss aber der Nutzer einen relevanten Suchbegriff verwenden, um auf die zugehörige Publikation aufmerksam zu werden.[9]

Eine Verengung des epistemischen Horizonts der NutzerInnen solcher IT-Lösungen steht darüber hinaus noch in einer weiteren Hinsicht zu befürchten. Zwar werben die Technologie-Betreiber mit dem Versprechen, dass ihre AnwenderInnen auf effiziente und zuverlässige Weise Zugang sowohl zu ExpertInnen als auch zu qualitativ hochwertigen Fachinformationen erlangten, doch sind dieser Zusicherung zwei Fragen entgegenzuhalten, die das klassische »Big-Data-Problem« bezeichnen: 

(a) Wie vollständig ist die Datenbasis, auf die sich dieses Versprechen gründet?[10]

(b) Verfügen die vorhanden Daten tatsächlich über die vermeintliche Qualität, die vom Anbieter beworben wird?[11]

Die Verbindung zum Big-Data-Thema mag auf den ersten Blick erstaunen, entspricht aber sehr genau der Selbstwahrnehmung der beteiligten Akteure. Elsevier wird in der wissenschaftlichen Gemeinschaft zwar überwiegend noch als einer der klassischen internationalen Wissenschaftsverlage betrachtet, das Selbstverständnis ist jedoch mittlerweile ein ganz anderes: »Elsevier ist ein globales Unternehmen für Informationsanalysen, das Institutionen und Fachleute dabei unterstützt, die Leistungen im Gesundheitswesen und in der Wissenschaft zum Wohle der Menschheit zu verbessern.«[12] Der Konzern stellt sich somit als global agierender Informationsdienstleister vor, welcher seine NutzerInnen bei der Lösung gesellschaftspolitisch relevanter Fragen bestmöglich unterstützen will. 

Vor diesem Hintergrund ist es nicht weiter verwunderlich, dass sich der Datenbankbetreiber zum ›Mitleser‹weiterentwickelt hat. Klammert man in der obigen Selbstdarstellung die Formulierung »zum Wohle der Menschheit« einmal ein, haben wir es schlicht mit einem Konzern zu tun, dessen Geschäftsmodell den Handel mit Daten und Informationen umfasst. Natürlich ist es im Interesse eines solchen Konzerns, so viele Informationen wie möglich abzugreifen, und natürlich gehört es zu seinem Interesse, diese zu vermarkten. WissenschaftlerInnen sollten nicht so naiv sein, einem Unternehmen vorwerfen zu wollen, Profit machen zu wollen. 

Ob man profitorientierte Akteure in den Prozessen des Wissenschaftsbetriebs als Mitspieler haben möchte, ist freilich eine andere Frage.[13] Die Deutschen Forschungsgemeinschaft (DFG) hat die negativen Konsequenzen der Implementierung eines kommerziellen Anbieter im Herzen der epistemischen Arbeitsteilung klar benannt. In einem entsprechenden Positionspapier heißt es zu den möglichen Folgen des ›Mitlesens‹ der Konzerne: »Im Einzelnen kann unreguliertes bzw. unerkanntes Datentracking

  • eine Verletzung der Wissenschaftsfreiheit und der Freiheit von Forschung und Lehre bedeuten;
  • eine Verletzung des Rechts auf den Schutz der eigenen Daten darstellen;
  • eine potenzielle Gefährdung von Wissenschaftlerinnen und Wissenschaftlern darstellen, da die Daten auch ausländischen Regierungen und autoritären Regimes zugänglich werden können;
  • einen Eingriff ins Wettbewerbsrecht darstellen, da neue Teilnehmer kaum eine Chance auf einen Markteintritt haben;
  • eine Wertminderung öffentlicher Forschungsinvestitionen begünstigen, da im Rahmen von Wirtschaftsspionage wissenschaftliche Aktivitätsdaten von kommerziellen Forschungskonkurrenten erhoben oder ihnen gegen Bezahlung zugänglich gemacht werden können.«[14]

Elsevier weist die Kritik natürlich entschieden zurück: »Bedauerlicherweise rückt das DFG-Papier die von den Wissenschaftsverlagen eingesetzten Sicherheitsmaßnahmen in ein falsches Licht, in dem [sic!] es suggeriert, dass Verlage sie als ›Spyware‹ in Bibliotheken einsetzen. Um es deutlich zu sagen: Elsevier führt keine Spyware in Bibliotheken und Institutionen ein.«[15] Das wäre jedoch allenfalls dann wahr, wenn die automatisiert Informationsanalyse tatsächlich »zum Wohle der Menschheit« erfolgte.  Ebenso heißt es übrigens in der »Privacy Police« von Google: »When you use our services, you’re trusting us with your information. We understand this is a big responsibility and work hard to protect your information and put you in control.«[16] Hier wird der Umstand, dass der Alphabet-Konzern die von ihm gesammelten Daten hartnäckig vor dem Zugriff Dritter schützt, um sein Monopol zu bewahren, als Dienst an denjenigen ausgegeben, deren Daten man abgreift. Wollen sich WissenschaftlerInnen und ihre Institutionen nicht auf die Euphemismen der Konzerne einlassen, sind sie an dieser Stelle gefordert, sich kritisch mit dem Sachverhalt auseinanderzusetzen. Es ist leicht, sich auf kommerzielle Produkte zu verlassen, doch nimmt man dann die Aggregation von Gestaltungsmacht und strategischer Steuerung bei deren Betreibern stillschweigend in Kauf. Wir sollten uns fragen, ob dieser Preis nicht zu hoch ist.

Die DGPhil unterstützt die Initiative »Stop Tracking Science« (zur Petition:  https://stoptrackingscience.eu).


[1]          Vgl. z.B. Kitcher, Philip: The advancement of science. Science without legend, objectivity without illusions, Oxford u.a. 1995, Kap. 8. 

[2]          Vgl. dazu Mößner, Nicola: Wissen aus dem Zeugnis anderer – der Sonderfall medialer Berichterstattung, Paderborn 2010 und Gelfert, Axel: A critical introduction to testimony, London 2014.

[3]          Bartelborth, Thomas: Begründungsstrategien. Ein Weg durch die analytische Erkenntnistheorie,Berlin 1996, S. 74.

[4]          Eine Übersicht der zu diesem Zweck verwendeten IT-Werkzeuge findet sich beispielsweise auf der Seite der Initiative »Stop Tracking Science« unter https://stoptrackingscience.eu/background-information/#how, eingesehen am 11. Februar 2022.

[5]          Luciano Floridi spricht vom Zeitalter des Zettabyte, das die Menschheit mittlerweile erreicht habe (vgl. Floridi, Luciano: The 4th revolution. How the infosphere is reshaping human reality, Oxford 2014, S. 13). Belegt ist, dass der globale jährliche Datenverkehr im Internet erstmals 2016 diese Grenze überschritten hat, vgl. https://blogs.cisco.com/sp/the-zettabyte-era-officially-begins-how-much-is-that, eingesehen am 14. Februar 2022.

[6]          https://www.elsevier.com/solutions/scopus, eingesehen am 15. Februar 2022, Hervorhebung NM.

[7]          Vgl. https://clarivate.com/webofsciencegroup/solutions/web-of-science/, eingesehen am 15. Februar 2022, früher war diese Datenbank bekannt unter dem Namen Web of Knowledge.

[8]          Ergänzend kann festgehalten werden, dass das natürlich dazu führen kann, dass bestimmte Fragestellungen auch gar nicht erst entwickelt werden und somit bestimmte Informationen nicht verfügbar sind.

[9]          Diesen systematischen Ausschluss von Zufallsfunden bzw. Zufallsbegegnungen kritisiert Cass R. Sunstein im Zusammenhang mit der Nutzung von sozialen Medien als Informationslieferanten als Basis für demokratische Entscheidungsfindungsprozesse. Vgl. dazu Sunstein, Cass R.: #republic. Divided democracy in the age of social media, Princeton und Oxford 2018.

[10]        Diesen Punkt kann man am in der Datenbank ausgewiesenen (vermeintlichen) Expertenstatus bestimmter AutorInnen veranschaulichen: Dieser Status wird einer Person auf der Basis bibliometrischer Analysen zugeschrieben, die sich wiederum auf in der Datenbank erfasste Publikationen stützen. Was nicht in Scopus als Datenmaterial vorliegt, wird also nicht berücksichtigt. Gerade in den Geisteswissenschaften ist dies allerdings ein Problem, denn viele Publikationen umfassen hier klassische Monographien, die (bisher) aber nur mit einem geringen Anteil in Scopus indexiert wurden. Vgl. dazu Mößner, Nicola: »Wissenschaft in ‚Unordnung‘? Gefiltertes Wissen und die Glaubwürdigkeit der Wissenschaft«, in: Nicola Mößner und Klaus Erlach (Hg.): Kalibrierung der Wissenschaft. Auswirkungen der Digitalisierung auf die wissenschaftliche Erkenntnis. Bielefeld (im Erscheinen).

[11]        Vgl. dazu Retzlaff, Eric: »Wer bewertet mit welchen Interessen wissenschaftliche Publikationen? Eine Skizzierung des Einflusses kommerzieller Interessen auf die Forschungsoutput-Bewertung«, in: Nicola Mößner und Klaus Erlach (Hg.): Kalibrierung der Wissenschaft. Auswirkungen der Digitalisierung auf die wissenschaftliche Erkenntnis. Bielefeld (im Erscheinen).

[12]        https://www.elsevier.com/de-de/about, eingesehen am 15. Februar 2022, Hervorhebung NM.

[13]        Wendy Brown diskutiert diesen Punkt kritisch im politischen Umfeld, für welches sie konstatiert, dass derzeit eine Verquickung von Bürger- und Konsumentenrechten sowie entsprechender Mentalitäten in den demokratischen Gesellschaften westlicher Staaten zu einer Reihe ernstzunehmender Spannungen und Probleme führe. Vgl. Brown, Wendy: Undoing the demos: neoliberalism‘s stealth revolution, New York 2015.

[14]        DFG: »Datentracking in der Wissenschaft: Aggregation und Verwendung bzw. Verkauf von Nutzungsdaten durch Wissenschaftsverlage. Ein Informationspapier des Ausschusses für Wissenschaftliche Bibliotheken und Informationssysteme der Deutschen Forschungsgemeinschaft 28. Oktober 2021«, S. 8. online unter: https://www.dfg.de/download/pdf/foerderung/programme/lis/datentracking_papier_de.pdf.

[15]        https://www.elsevier.com/de-de/connect/elsevier-antwort-auf-dfg-papier-datenverfolgung-in-der-forschung, eingesehen am 11. Februar 2022.

[16]        https://policies.google.com/privacy, eingesehen am 18. Februar 2022.