Archiv des Autors: Andreas Kaminski

Mitleser aufgepasst! Von der Informationsanalyse zum Wissenschaftlertracking

Nicola Mößner

Illustration: Matthias Seifert

Großstadtbewohner kennen das: Man sitzt in Bus oder Bahn, pendelt zur Arbeit oder bewegt sich zu anderem Zweck von West nach Ost, von Nord nach Süd durch die eigene Stadt. Das kostet Zeit. Zeit, die man gerne anders verbringen würde. Zeit, die es zumindest zu füllen gilt. Lesen ist eine beliebte Alternative. Waren es früher Zeitung und Buch, ist es heute das Smartphone oder das Tablet mit den diversen Anwendungen darauf, das Zeitblasen zu füllen hilft. Die Augen der Lesenden sind dabei so auf die Geräte fixiert, dass eine verzweifelte Servicekraft in der New Yorker Subway ihre notwendigen Lautsprecheransagen einleitete mit: Dear passengers – PLEASE – pay attention!‹ Alle Augen kleben am eigenen Display – oder etwa nicht? Nein, bei genauerer Betrachtung stellt man fest, dass es Leute gibt, die einen unauffälligen Blick über die Schulter ihrer Nachbarn werfen, die Spezies der ›Mitleser‹. Folgten deren Augen früher fremder Menschen Druckspalten, betrachten sie heute schweigend die Smilies und Likes, die sich auf den elektronischen Lesegeräten häufen. Wer hätte gedacht, dass sich aus diesem harmlos scheinenden, neugier- und langeweilegetriebenen Gruppenverhalten ein lukratives Geschäftsmodell entwickeln ließe?

Das aber geschieht gerade jetzt – möglich gemacht durch unsere Nutzung digitaler Medien. Längst wird es mehr und mehr zur Gewohnheit, eBooks auf den Cloud-Servern der Online-Buchhändler zu speichern – gesetzte Lesezeichen und andere Textmarkierungen inklusive. Was macht es schon, wenn Amazon & Co. die privaten Lektürestunden trackt, die man sonst mit einem Mitleser in der Bahn geteilt hätte?

Erstreckt sich diese Resignation des Alltagsindividuums auch schon auf andere Bereiche? Wie steht es mit dem Wissenschaftssektor? Hier ist der Austausch von Informationen essentiell, Lesen, wenn man so will, seit jeher ›Teil des Geschäfts‹. Erkenntnistheoretiker sprechen von der sogenannten epistemischen oder kognitiven Arbeitsteilung.[1] Wissenschaft ist Teamarbeit und das nicht nur in der unmittelbaren Forschungstätigkeit im Labor. Thomas Bartelborth weist darauf hin, dass gerade in diesem Kontext der Rückgriff auf Daten, Informationen und Wissensinhalte – kurz: auf das Zeugnis anderer[2] – wesentlich sei. Wissenschaftlicher Fortschritt wird nur möglich, wenn wir uns auf die Mitteilungen unserer FachkollegInnen verlassen dürfen. Müssten wir alle Grundlagen stets von Neuem selbst erarbeiten, bliebe die wissenschaftliche Arbeit in ihren Anfängen stecken. Dass darüber hinaus „die Wissenschaften das Rückgrat des gesellschaftlichen Wissens“ darstellen, wie Bartelborth schreibt,[3] also eine enge Vernetzung der verschiedenen gesellschaftlichen Bereiche – von Wissenschaft, Politik und Alltag – vorliegt, hat uns die Corona-Pandemie sehr deutlich vor Augen geführt.

Kehren wir an dieser Stelle zurück zu den ›Mitlesern‹: Wie passen sie in dieses komplexe Bild wechselseitiger epistemischer Abhängigkeit? Für das Verständnis unseres heutigen Blicks über die nur mehr metaphorische Schulter Lesender sind Informations- und Kommunikationstechnologien (IuK-Technologien) der Schlüssel.[4]Das ›Mitlesen‹ im Kontext der Wissenschaft setzt dabei mindestens zweierlei voraus: (a) einer Verdichtung der Quellen, d.h. der Informationsträger, um einen schnellen und umfassenden Zugriff auf ihre Daten zu erhalten und (b) das Vorhandensein eines Dritten, der ein (kommerzielles) Interesse an den verfügbaren Daten und Informationen besitzt.

Die Voraussetzung der Verdichtung – wie sie im ÖPNV durch das Zusammenführen vieler Fahrgäste im täglichen Berufsverkehr erfolgt – ergibt sich aus der Notwendigkeit, die stetig wachsenden Datenströme zu kanalisieren, zu strukturieren, kurz: sie handhabbar zu machen.[5] Im wissenschaftlichen Publikationswesen geschieht das vor allem durch die Bündelung von informationsbezogenen Dienstleistungen, wie sie derzeit insbesondere von kommerziellen Verlagen angeboten werden. Insofern ist damit zugleich die zweite Voraussetzung erfüllt: Es gibt einen Dritten, der ein (kommerzielles) Interesse an Daten und Informationen hat.

Wie eine solche Verdichtung von Datenströmen erfolgt, lässt sich gut am Beispiel der Abstract- und Zitationsdatenbank Scopus des Verlagskonzerns Elsevier nachvollziehen. Das Unternehmen bewirbt sein Angebot mit dem Argument, dass seine Datenbank einen enormen Effizienzvorteil für die wissenschaftliche Praxis impliziere: »Scopus quickly finds relevant and authoritative research, identifies experts and provides access to reliable data, metrics and analytical tools. Be confident in progressing research, teaching or research direction and priorities — all from one database and with one subscription[6] Die Datenbank stellt für den individuellen Wissenschaftler also sowohl ein Recherche-Werkzeug als auch ein Mittel der Bewertungvon Informationsangeboten (Publikationen der unterschiedlichsten Art) wie auch von Personen (AutorInnen) und zugehörigen Institutionen dar.

Mit der vom Betreiber intendierten kontinuierlich ausgeweiteten Nutzung von Scopus im Wissenschaftsalltag etabliert sich ein kommerzieller Akteur im Kernprozess der epistemischen Arbeitsteilung und strebt dort eine Monopolstellung an, wie aus dem obigen Zitat deutlich wird. Von diesem Unternehmensziel ist Elsevier heute nicht mehr weit entfernt; denn zu Scopus steht derzeit weltweit nur ein einziges Produkt in Konkurrenz: Web of Science.[7] Scopus ist also ein IT-Produkt, das ähnlich wie Google für den Bereich der Internetsuchmaschinen eine marktdominierende Stellung innehat. 

Diese analoge Entwicklung der beiden Technologiemärkte verschärft epistemologische Schwierigkeiten, die sich aus der Nutzung einer Datenbanklösung im wissenschaftlichen Kommunikationswesen ergeben können. Beispielsweise kann es durch eine solchermaßen veränderte Arbeitspraxis dazu kommen, dass der für die epistemische Arbeitsteilung notwendige Informationsfluss innerhalb der digitalisierten Arbeitsumgebung der wissenschaftlichen Gemeinschaft sowohl in qualitativer als auch in quantitativer Hinsicht eingeschränkt wird. In ähnlicher Weise wie die Monopolisierung des Suchmaschinenmarktes kann die Etablierung einer neuen Schnittstelle zwischen wissenschaftlichem Informationsangebot (Publikationen, Forschungsdaten usw.) und Nachfrage längerfristig zu einer Engführung des Suchhorizonts der ForscherInnen (und WissenschaftsmanagerInnen) führen.[8]

Kurz gesagt: In einer Datenbank kann nur gesucht werden, was darin als Inhalt auch vermutet wird. Ausgeblendet wird dabei das, was der Forschung aber vielleicht den größeren Innovationsschub verleihen könnte, nämlich unbekannte (d.h. nicht den Erwartungshaltungen entsprechende), aber relevante Informationen. Letztere können Anreize bieten, Forschungshypothesen zu hinterfragen, andere Erklärungsmodelle in Erwägung zu ziehen usw. Allerdings sind es gerade diese Informationen, die nur schwerlich mittels einer auf Algorithmen gestützten Suchtechnologie gefunden werden können. Suchfunktionen, wie sie in Datenbanken etabliert werden, stützen sich auf Metadaten zu den Dokumenten, die im Speicher hinterlegt wurden. Das können im Falle von Scopus AutorInnennamen, Zeitschriftentitel, aber auch für die Beiträge vergebene Schlagwörter sein. In jedem Fall muss aber der Nutzer einen relevanten Suchbegriff verwenden, um auf die zugehörige Publikation aufmerksam zu werden.[9]

Eine Verengung des epistemischen Horizonts der NutzerInnen solcher IT-Lösungen steht darüber hinaus noch in einer weiteren Hinsicht zu befürchten. Zwar werben die Technologie-Betreiber mit dem Versprechen, dass ihre AnwenderInnen auf effiziente und zuverlässige Weise Zugang sowohl zu ExpertInnen als auch zu qualitativ hochwertigen Fachinformationen erlangten, doch sind dieser Zusicherung zwei Fragen entgegenzuhalten, die das klassische »Big-Data-Problem« bezeichnen: 

(a) Wie vollständig ist die Datenbasis, auf die sich dieses Versprechen gründet?[10]

(b) Verfügen die vorhanden Daten tatsächlich über die vermeintliche Qualität, die vom Anbieter beworben wird?[11]

Die Verbindung zum Big-Data-Thema mag auf den ersten Blick erstaunen, entspricht aber sehr genau der Selbstwahrnehmung der beteiligten Akteure. Elsevier wird in der wissenschaftlichen Gemeinschaft zwar überwiegend noch als einer der klassischen internationalen Wissenschaftsverlage betrachtet, das Selbstverständnis ist jedoch mittlerweile ein ganz anderes: »Elsevier ist ein globales Unternehmen für Informationsanalysen, das Institutionen und Fachleute dabei unterstützt, die Leistungen im Gesundheitswesen und in der Wissenschaft zum Wohle der Menschheit zu verbessern.«[12] Der Konzern stellt sich somit als global agierender Informationsdienstleister vor, welcher seine NutzerInnen bei der Lösung gesellschaftspolitisch relevanter Fragen bestmöglich unterstützen will. 

Vor diesem Hintergrund ist es nicht weiter verwunderlich, dass sich der Datenbankbetreiber zum ›Mitleser‹weiterentwickelt hat. Klammert man in der obigen Selbstdarstellung die Formulierung »zum Wohle der Menschheit« einmal ein, haben wir es schlicht mit einem Konzern zu tun, dessen Geschäftsmodell den Handel mit Daten und Informationen umfasst. Natürlich ist es im Interesse eines solchen Konzerns, so viele Informationen wie möglich abzugreifen, und natürlich gehört es zu seinem Interesse, diese zu vermarkten. WissenschaftlerInnen sollten nicht so naiv sein, einem Unternehmen vorwerfen zu wollen, Profit machen zu wollen. 

Ob man profitorientierte Akteure in den Prozessen des Wissenschaftsbetriebs als Mitspieler haben möchte, ist freilich eine andere Frage.[13] Die Deutschen Forschungsgemeinschaft (DFG) hat die negativen Konsequenzen der Implementierung eines kommerziellen Anbieter im Herzen der epistemischen Arbeitsteilung klar benannt. In einem entsprechenden Positionspapier heißt es zu den möglichen Folgen des ›Mitlesens‹ der Konzerne: »Im Einzelnen kann unreguliertes bzw. unerkanntes Datentracking

  • eine Verletzung der Wissenschaftsfreiheit und der Freiheit von Forschung und Lehre bedeuten;
  • eine Verletzung des Rechts auf den Schutz der eigenen Daten darstellen;
  • eine potenzielle Gefährdung von Wissenschaftlerinnen und Wissenschaftlern darstellen, da die Daten auch ausländischen Regierungen und autoritären Regimes zugänglich werden können;
  • einen Eingriff ins Wettbewerbsrecht darstellen, da neue Teilnehmer kaum eine Chance auf einen Markteintritt haben;
  • eine Wertminderung öffentlicher Forschungsinvestitionen begünstigen, da im Rahmen von Wirtschaftsspionage wissenschaftliche Aktivitätsdaten von kommerziellen Forschungskonkurrenten erhoben oder ihnen gegen Bezahlung zugänglich gemacht werden können.«[14]

Elsevier weist die Kritik natürlich entschieden zurück: »Bedauerlicherweise rückt das DFG-Papier die von den Wissenschaftsverlagen eingesetzten Sicherheitsmaßnahmen in ein falsches Licht, in dem [sic!] es suggeriert, dass Verlage sie als ›Spyware‹ in Bibliotheken einsetzen. Um es deutlich zu sagen: Elsevier führt keine Spyware in Bibliotheken und Institutionen ein.«[15] Das wäre jedoch allenfalls dann wahr, wenn die automatisiert Informationsanalyse tatsächlich »zum Wohle der Menschheit« erfolgte.  Ebenso heißt es übrigens in der »Privacy Police« von Google: »When you use our services, you’re trusting us with your information. We understand this is a big responsibility and work hard to protect your information and put you in control.«[16] Hier wird der Umstand, dass der Alphabet-Konzern die von ihm gesammelten Daten hartnäckig vor dem Zugriff Dritter schützt, um sein Monopol zu bewahren, als Dienst an denjenigen ausgegeben, deren Daten man abgreift. Wollen sich WissenschaftlerInnen und ihre Institutionen nicht auf die Euphemismen der Konzerne einlassen, sind sie an dieser Stelle gefordert, sich kritisch mit dem Sachverhalt auseinanderzusetzen. Es ist leicht, sich auf kommerzielle Produkte zu verlassen, doch nimmt man dann die Aggregation von Gestaltungsmacht und strategischer Steuerung bei deren Betreibern stillschweigend in Kauf. Wir sollten uns fragen, ob dieser Preis nicht zu hoch ist.

Die DGPhil unterstützt die Initiative »Stop Tracking Science« (zur Petition:  https://stoptrackingscience.eu).


This work is licensed under a Creative Commons Attribution 4.0 International License.


[1]          Vgl. z.B. Kitcher, Philip: The advancement of science. Science without legend, objectivity without illusions, Oxford u.a. 1995, Kap. 8. 

[2]          Vgl. dazu Mößner, Nicola: Wissen aus dem Zeugnis anderer – der Sonderfall medialer Berichterstattung, Paderborn 2010 und Gelfert, Axel: A critical introduction to testimony, London 2014.

[3]          Bartelborth, Thomas: Begründungsstrategien. Ein Weg durch die analytische Erkenntnistheorie,Berlin 1996, S. 74.

[4]          Eine Übersicht der zu diesem Zweck verwendeten IT-Werkzeuge findet sich beispielsweise auf der Seite der Initiative »Stop Tracking Science« unter https://stoptrackingscience.eu/background-information/#how, eingesehen am 11. Februar 2022.

[5]          Luciano Floridi spricht vom Zeitalter des Zettabyte, das die Menschheit mittlerweile erreicht habe (vgl. Floridi, Luciano: The 4th revolution. How the infosphere is reshaping human reality, Oxford 2014, S. 13). Belegt ist, dass der globale jährliche Datenverkehr im Internet erstmals 2016 diese Grenze überschritten hat, vgl. https://blogs.cisco.com/sp/the-zettabyte-era-officially-begins-how-much-is-that, eingesehen am 14. Februar 2022.

[6]          https://www.elsevier.com/solutions/scopus, eingesehen am 15. Februar 2022, Hervorhebung NM.

[7]          Vgl. https://clarivate.com/webofsciencegroup/solutions/web-of-science/, eingesehen am 15. Februar 2022, früher war diese Datenbank bekannt unter dem Namen Web of Knowledge.

[8]          Ergänzend kann festgehalten werden, dass das natürlich dazu führen kann, dass bestimmte Fragestellungen auch gar nicht erst entwickelt werden und somit bestimmte Informationen nicht verfügbar sind.

[9]          Diesen systematischen Ausschluss von Zufallsfunden bzw. Zufallsbegegnungen kritisiert Cass R. Sunstein im Zusammenhang mit der Nutzung von sozialen Medien als Informationslieferanten als Basis für demokratische Entscheidungsfindungsprozesse. Vgl. dazu Sunstein, Cass R.: #republic. Divided democracy in the age of social media, Princeton und Oxford 2018.

[10]        Diesen Punkt kann man am in der Datenbank ausgewiesenen (vermeintlichen) Expertenstatus bestimmter AutorInnen veranschaulichen: Dieser Status wird einer Person auf der Basis bibliometrischer Analysen zugeschrieben, die sich wiederum auf in der Datenbank erfasste Publikationen stützen. Was nicht in Scopus als Datenmaterial vorliegt, wird also nicht berücksichtigt. Gerade in den Geisteswissenschaften ist dies allerdings ein Problem, denn viele Publikationen umfassen hier klassische Monographien, die (bisher) aber nur mit einem geringen Anteil in Scopus indexiert wurden. Vgl. dazu Mößner, Nicola: »Wissenschaft in ‚Unordnung‘? Gefiltertes Wissen und die Glaubwürdigkeit der Wissenschaft«, in: Nicola Mößner und Klaus Erlach (Hg.): Kalibrierung der Wissenschaft. Auswirkungen der Digitalisierung auf die wissenschaftliche Erkenntnis. Bielefeld (im Erscheinen).

[11]        Vgl. dazu Retzlaff, Eric: »Wer bewertet mit welchen Interessen wissenschaftliche Publikationen? Eine Skizzierung des Einflusses kommerzieller Interessen auf die Forschungsoutput-Bewertung«, in: Nicola Mößner und Klaus Erlach (Hg.): Kalibrierung der Wissenschaft. Auswirkungen der Digitalisierung auf die wissenschaftliche Erkenntnis. Bielefeld (im Erscheinen).

[12]        https://www.elsevier.com/de-de/about, eingesehen am 15. Februar 2022, Hervorhebung NM.

[13]        Wendy Brown diskutiert diesen Punkt kritisch im politischen Umfeld, für welches sie konstatiert, dass derzeit eine Verquickung von Bürger- und Konsumentenrechten sowie entsprechender Mentalitäten in den demokratischen Gesellschaften westlicher Staaten zu einer Reihe ernstzunehmender Spannungen und Probleme führe. Vgl. Brown, Wendy: Undoing the demos: neoliberalism‘s stealth revolution, New York 2015.

[14]        DFG: »Datentracking in der Wissenschaft: Aggregation und Verwendung bzw. Verkauf von Nutzungsdaten durch Wissenschaftsverlage. Ein Informationspapier des Ausschusses für Wissenschaftliche Bibliotheken und Informationssysteme der Deutschen Forschungsgemeinschaft 28. Oktober 2021«, S. 8. online unter: https://www.dfg.de/download/pdf/foerderung/programme/lis/datentracking_papier_de.pdf.

[15]        https://www.elsevier.com/de-de/connect/elsevier-antwort-auf-dfg-papier-datenverfolgung-in-der-forschung, eingesehen am 11. Februar 2022.

[16]        https://policies.google.com/privacy, eingesehen am 18. Februar 2022.

Kommunikation mit Literaturverwaltungsdatenbanken. Ein kontrafaktischer Erfahrungsbericht

Andreas Kaminski, Alexander Friedrich

Hätte Niklas Luhmann seinen berühmten Zettelkasten als digital vernetztes Literaturverwaltungsprogramm angelegt, wenn er so bequeme und elaborierte Möglichkeiten dafür gehabt hätte wie jene, die inzwischen dafür verfügbar sind? Und wenn er es getan hätte, würde er am Ende doch wieder auf sein papierbasiertes Aufschreibesystem zurückwechseln? – Begeben wir uns auf eine imaginäre Spurensuche… 

Als Luhmann durch Internetwerbung, Informations- und Lizensierungsangebote seiner Bibliothek sowie begeisterte Kommentare seiner Kolleg:innen in den sozialen Medien auf verschiedene Programme aufmerksam geworden war, die in enger Zusammenarbeit mit der akademischen Community entwickelt und kostenfrei angeboten wurden, hatte er – nach anfänglicher Skepsis, gleichwohl mit Neugierde – verstanden, welche Möglichkeiten ihm die Tools boten. Er begann, sich einen digitalen Zettelkasten einzurichten und brachte sich auch bald mit eigenen Wünschen und Vorschlägen für die Entwicklung des Programmes ein, die von der Community eifrig aufgenommen wurden.[1] Schon bald war der digitale Zettelkasten zu einem ständigen Begleiter seiner Arbeit geworden. Wenn er einen Text las, notiert er darin rasch seine Exzerpte, Zitate, Zusammenfassungen und Kommentare. Die Notizen ergänzte er durch Schlagworte wie Kommunikation, Wissenschaft, Komplexität usw., versah sie mit Links zu weiterführenden Internetquellen oder Dateien auf seinem Computer.   

Über die Jahre hinweg waren nicht nur der Umfang des digitalen Zettelkasten, sondern auch dessen Möglichkeiten immens angewachsen. Dank der beständigen Weiterentwicklung der Software wurden neue und immer mächtigere Funktionen ergänzt. Die akademische Community unterstützte die Entwickler mit Hinweisen und Nutzerwünschen. Zunächst kam die hilfreiche Option hinzu, bibliographische Daten per DOI fast automatisch in den Zettelkasten aufzunehmen. Bald konnten Texte als PDFs selbst in den Zettelkasten integriert werden. Anschließend war es sogar möglich, Texte direkt im Viewer der Literaturverwaltung zu lesen und zu annotieren. Wenn Luhmann einen Abschnitt gelb markierte, wurde die Passage automatisch als Zitat in seinen Zettelkasten übernommen, samt formatiertem Quellennachweis. 

Später kam noch die Möglichkeit hinzu, ein virtuelles Inhaltsverzeichnis im Zettelkasten anzulegen. Luhmann plante, einen Text über die Organisation von Wissen in digitalen Aufschreibesystemen, er entwarf den Gedankengang dafür im Zettelkasten. Dazu notierte die Kapitel und Abschnitte des zu schreibenden Manuskripts und fügte ihnen anschließend Zitate, Notizen und Kommentare hinzu. Über Schlagworte und Querverweise füllten sich die Kapitel dann wie von selbst mit den damit verknüpften Zetteln, die dann nur noch selektiert und in eine gedankliche Ordnung gebracht werden mussten.

Sobald er sein Textverarbeitungsprogramm öffnete und mit dem Schreiben begann, konnte er durch ein Plug-In seine Zettel im Text einblenden und bibliographische Angaben durch einfaches Hinüberschieben ergänzen. Oder er zog ein Zitat aus dem digitalen Zettelkasten in das Manuskript, an dem er gerade arbeitete, und die bibliographischen Angaben dazu wurden daraufhin automatisch ergänzt. Löschte er das Zitate, wurden die Angaben automatisch entfernt. Sehr bequem.

Im Laufe dieser Entwicklung wanderte der Zettelkasten von Luhmanns Computer, wo er als Programm auf dem Desktop ausgeführt wurde, in die Cloud. Dadurch war es ihm nicht nur möglich, von „überall“ auf seine Zettelsammlung zuzugreifen. Er konnte sie zudem in Teilen oder im Ganzen mit Kolleginnen und Kollegen teilen, die wiederum ihrerseits zum Wachstum des Zettelkastens beitragen konnten.

Luhmann dachte darüber nach, wie der digitale Zettelkasten seine Arbeitsweise erleichtert, erweitert oder überhaupt erst ermöglicht. Er konnte schneller arbeiten, bibliographische Daten mussten nicht händisch erfasst oder in Literaturverzeichnisse eingefügt werden, Zitate nicht mehr abgetippt, Texte nicht auf einen Kopierer gelegt und nach der Ablage wiedergefunden werden. Über die Jahre hatte sich der Zettelkasten zu einem Archiv entwickelt, dass er mit seinem persönlichen Gedächtnis allein nicht mehr überblicken konnte: Er enthielt eine beträchtliche Zahl von bibliografischen Daten, Texten in PDF-Form, Zitaten, Notizen sowie ein umfangreiches Schlagwortsystem. Vor allem die Verwaltung und Pflege seines speziellen Verweissystems war mithilfe der Digitaltechnik spielend leicht zu bewältigen. Raumprobleme entstanden auf absehbare Zeit auch keine. Der Zettelkasten war zudem über die Jahre so eng mit seinem Arbeitsprozess zusammengewachsen, dass er sich kaum vorstellen mochte, ohne ihn auszukommen. Das Ergebnis seiner Überlegung zur Frage, wie das Programm seine Arbeitsweise, seinen Arbeitsalltag, ja sein Leben strukturierte, brachte er schließlich in die Form eines Aufsatzes: „Kommunikation mit Literaturverwaltungsprogrammen. Ein Erfahrungsbericht“.[2]

Die Geschichte von Literaturverwaltungsprogrammen hat häufig einen ähnlichen Anfang und eine ähnliche Entwicklung. Programme wie EndNoteMendeley oder Citavi (vormals LiteRat) haben ihren Ursprung in akademischen Kreisen. EndNote wurde 1985 in Berkeley (Californien) von Dr. Richard Niles gegründet, einem Mathematiker, der – wie die Firmenwebsite von 1995 schildert – bemerkte, dass seine Frau, die ebenfalls Wissenschaftlerin war, Stunden damit zubrachte, Bibliographien in die von verschiedenen Verlage verwendeten unterschiedlichen Formate zu bringen.[3] Der Vorläufer von Citavi wurde von Hartmut Steuber, dem damaligen Leiter der Informationsstelle Erziehungswissenschaft, gemeinsam mit zwei studentischen Mitarbeitern an der Heinrich-Heine-Universität Düsseldorf entwickelt. Auch aus seiner Sicht stand ein Defizit am Anfang der Entwicklung: Es fehlte, so Steuber, ein Programm, um „Literatur für Publikationen und Seminararbeiten“ auswerten zu können.[4] Die erste Version namens LiteRat Classic erschien 1995.[5] Um die Finanzierung und damit Weiterentwicklung zu sichern, gründeten sie später das Unternehmen Swiss Academic Software. Es entwickelte Citavi zu einer der erfolgreichsten Literaturverwaltungen, insbesondere im deutschsprachigen Bereich. Nach eigenen Angaben können 85 % der Studierenden an deutschen Hochschulen Citavi dank einer (kostenpflichtigen) Campuslizenz die Software kostenlos nutzen.[6] Mendeley wurde von Doktoranden 2008 gegründet.[7] Durch den wie schon bei Endnote und Citavi betonten Fokus auf die gemeinsam mit der akademischen Community erfolgte Entwicklung der Literaturverwaltung genoss es bald eine ausgezeichnete Reputation. Da Mendeley auf Kollaboration beruhte, galt es als guter Rebell gegen die Lizenzschwellen der Verlage, die den akademischen Dialog mit oft beträchtlichen Bezahlschranken erschwerten.[8]

Was diese Literaturverwaltungen neben ihrer Einbindung in die akademische Community ferner gemeinsam haben: Sie wurden in den letzten Jahren von anderen Unternehmen, darunter auch großen Verlagshäusern aufgekauft. Der Aufschrei war groß, als Elsevier 2013 Mendeley erwarb – für 100 Millionen Dollar.[9] Elsevier galt in einigen Kreisen als das Gegenteil von Mendeley – als „evil“, als „bad crowd“.[10] EndNoteTM war zwischenzeitlich von Reuters aufgekauft worden, bevor es an einen anderen Großverlag ging: Clarivate Analytics. Auch Citavi ist 2021 von einem anderen Unternehmen erworben worden: QSR International. Es handelt sich um einen Entwickler von Software zur Datenanalyse. 

Das Schreiben beginnt beim Lesen. Die soziologische Frage Luhmanns war: Wie verändert sich das Denken, wenn sein digitaler Zettelkasten kommerziellen Verlagen und Datenhändlern gehört? Begonnen hatte die Aufzucht seines Zettelkastens als eine Art koevolutionärer Prozess des Sammelns und Verweisens und Ergänzens. „Als Ergebnis längerer Arbeit mit dieser Technik entsteht eine Art Zweitgedächtnis, ein Alter ego, mit dem man laufend kommunizieren kann. Es weist, darin dem eigenen Gedächtnis ähnlich, keine durchkonstruierte Gesamtordnung auf, auch keine Hierarchie und erst recht keine lineare Struktur wie ein Buch.“[11] Inzwischen ist dieses Gedächtnis über das Internet aber noch an ein viel größeres angeschlossen. „Jede Notiz ist nur ein Element, das seine Qualität erst aus dem Netz der Verweisungen und Rückverweisungen im System erhält“, erkannte Luhmann: „Eine Notiz, die an dieses Netz nicht angeschlossen ist, geht im Zettelkasten verloren, wird vom Zettelkasten vergessen.“[12] – Was aber, wenn dieses Netz Teil eines noch größeren Netzes wird, in dem nichts mehr vergessen wird? 

Die Tools sind längt nicht mehr nur „Referenzmanager“. Sie zielen darauf ab, den gesamten Forschungsprozess zu strukturieren und in ein Werkzeug zu integrieren, das Infrastruktur fürs Denken, Lesen und Schreiben sein will. Dass diejenigen, die das Lesen und Schreiben als eine zu verfeinernde Kunstfertigkeit erleben, diese auch mittels virtuoserer Werkzeuge weiterentwickeln wollen, ist verständlich. Und die Veränderungen, die die anschmiegsamen Tools mit sich bringen, sind nicht leicht zu erfassen. Es ist zunächst ein Unbehagen darüber, dass die vielen Stunden Arbeit am Zettelkasten (als Daten) nun so eng mit den Entscheidungen von Unternehmen verbunden sind. 

Luhmann hatte am Abend eine Mail von einem Kollegen erhalten, der ihm seinen neuesten Aufsatz zuschickte. Die Frage war, ob er die Datei des Textes in die Datenbank seiner Literaturverwaltung aufnehmen sollte. Seine Universität subskribierte die Zeitschrift nicht, in der der Aufsatz erschienen war. Sein digitaler Zettelkasten gehörte einem Verlag, der den Abonnementstatus über eine Lizenzabfrage leicht feststellen kann. Und über seine individuelle ID, mit der die großen Wissenschaftsdatenhändler den Wissenschaftsautor Luhmann längst erfasst hatten, um seine ID mit allen verfügbaren Informationen über sein Lese-, Schreib-, Kommunikations- und Konsumhalten zu verknüpfen,[15] ist ebenfalls leicht feststellbar, dass er diesen Text nicht selbst gekauft, sondern über den „Schattenmarkt“ erhalten hat. Doch die Online-Tauschbörsen der Wissenschaft wurden in den letzten Jahren massiv attackiert. Zunehmend wurden auch Individuen für Urheberrechtsverstöße verfolgt. Das reichte bis in die Lehre hinein; Dateien, die in Seminaren zu Unterrichtszwecken angeboten wurden, mussten bis auf Komma genau erfasst und lizenziert werden. Bei Verstößen drohten immense Strafen, so wie längst schon bei illegalen Musik- und Filmtauschbörsen. 

Elsevier, das Mendeley übernahm, hatte sich für den Stop Online Piracy Act (SOPA) eingesetzt, einem Gesetzesentwurf, der 2011 im US-amerikanischen Repräsentantenhaus eingebracht wurde, um weitreichende Maßnahmen zur Durchsetzung von Urheberrechts- und Verwertungsansprüchen einzuführen. Zu Clarivate Analytics gehört neben EndNoteTM das Web of Science, das die Datenbanken mehrere Disziplinen miteinander verbindet und mit Zitationsdaten auch Impact-Faktoren ermitteln will. Ferner ist Clarivate Analytics im Besitz von CompuMark und MarkMonitor: zwei Services, die darauf spezialisiert sind, Markenrechtsverletzungen zu ermitteln bzw. Antipiracy-Lösungen anzubieten. 

Gibt es vielleicht etwas Ähnliches zur Überprüfung der Texte im Zettelkasten? 

Die großen Verlage haben, wie beobachtet worden ist, ihr Geschäftsmodell verändert: Das Verlegen von Texten ist nurmehr ein Element, man ist auf dem Weg, sich in einen Datenhändler und -analytiker zu verwandeln. Dazu gehört auch, Themen und Forschungstrends frühzeitig zu erkennen und aufzugreifen. 

Nachdem Luhmann einen Text mit Habermas veröffentlicht hatte, wurden ihm fortan zunehmend Texte zur Diskurstheorie empfohlen, ein Text des Mathematikers Spencer-Brown wurde von seinem digitalen Zettelkasten indessen als irrelevant betrachtet, und daher in seiner Literaturrecherche nicht angezeigt

Elsevier, das selbst zur REALX Group gehört, bietet inzwischen unter dem Namen Pure ein „Research Information Management System an“, es verspricht einen „evidenzbasierten Ansatz im Hinblick auf die Forschungs- und Kollaborationsstrategien, die Assessment-Übungen und die alltäglichen Geschäftsentscheidungen Ihres Instituts.“ Es bietet eine Integration von anderen Services wie SciVal, Scopus, Plum Analytics oder NewsFlo an und soll dabei helfen, Forschungstrends zu erkennen und Institutionen zu benchmarken.[13]  

Luhmann überlegte, ob er den digitalen Zettelkasten verlassen sollte. Oder zumindest zu einer anderen, nichtproprietären Software wechseln sollte. Das Problem war, dass es nicht leicht ist, die einmal in den alltäglichen Gebrauch eingewobene Infrastruktur aufzugeben. Das Problem der Pfadabhängigkeit: Migration wird alles andere als unproblematisch. Viele Jahre Arbeit waren in das Netz von Literatur, Zitaten, Schlagworten eingegangen. Das alles lässt sich nicht ohne großen, vielleicht zu großen Aufwand umtopfen. Ein Lock-in, das die jahrzehntelange Arbeit faktisch irreversibel an den einmal erschaffenen Zettelkasten bindet – weil Information endlos, die Lebenszeit aber begrenzt ist.

2008 hatte EndNoteTM eine Klage gegen die George Mason University eingereicht, die Entwickler hinter Zotero.[14] Zotero ist ein Literverwaltungsprogramm, das als freie Open Source-Software angeboten wird. EndNoteTM klagte, weil Zotero die Möglichkeit bot, die Daten in EndNoteTM nach Zotero zu migrieren und dafür eine technische Lösung zur Verfügung stellte. Diese verletze, so EndNoteTM, die Lizenzrechte, da sie mit dem spezifischen Format von EndNoteTM arbeite. Die Klage wurde abgewiesen. 


[1] Vgl. http://www.zettelkasten.danielluedecke.de.

[2] Zur kontrafaktischen Gegenlektüre: Niklas Luhmann: „Kommunikation mit Zettelkästen: Ein Erfahrungsbericht“. In: Universität als Milieu: Kleine Schriften, hrsg. v. André Kieserling, Bielefeld: Haux 1992, S. 53–61. Vgl. https://www.youtube.com/watch?v=4veq2i3teVk (Aufruf vom 1.12.2021).

[3] So nachzulesen auf der Firmenwebsite von Niles & Associates, Inc. aus dem Jahr 1995, die dank archive.org dokumentiert ist. Vgl. https://web.archive.org/web/19961112110744/http://www.niles.com/home/Company.htm (Aufruf vom 01.12.2021).   

[4] https://www.b-i-t-online.de/heft/2016-01-firmenportraet-citavi.pdf (Aufruf vom 30.11.2021).

[5] https://web.archive.org/web/20031008050454/http://www.literat.net/net_info.html (Aufruf vom 30.11.2021). 

[6] https://www.b-i-t-online.de/heft/2016-01-firmenportraet-citavi.pdf (Aufruf vom 30.11.2021).

[7] https://blog.mendeley.com/2008/03/11/hello-world/ (Aufruf vom 26.11.2021)

[8] https://www.newyorker.com/tech/annals-of-technology/when-the-rebel-alliance-sells-out (Aufruf vom 26.11.2021)

[9] https://www.theguardian.com/media/2013/apr/09/reed-elsevier-buys-mendeley (Aufruf vom 01.12.2021)

[10] Vgl. etwa nicht untypische Reaktionen auf Twitter: https://twitter.com/zephoria/status/321602939682701312?s=20

[11] Luhmann: „Kommunikation mit Zettelkästen“, S. 57. 

[12] Ebd. S. 58.

[13] https://www.elsevier.com/de-de/solutions/pure (Aufruf vom 10.11.2021). Siehe dazu auch den Beitrag von Dawid Kasprowicz.

[14] https://en.wikipedia.org/wiki/EndNote (Aufruf vom 02.12.2021).