Eine interessante Frage aus dem Publikum kam ganz zu Beginn: "Wieso besteht hier überhaupt noch Diskussionsbedarf? Hatten die Verlage nicht schon jahrelang Zeit, ihr Geschäftsmodell anzupassen?" Tatsächlich ist nicht (nur) "Zugang" das ein Problem im wissenschaftlichen Kommunikationsprozess, sondern es geht vor allem um die "Bequemlichkeit" dieses Zugangs. Verlagen und öffentlichen Institutionen ist es immer noch nicht gelungen, eine zufriedenstellende Lösung für dieses Problem zu finden. Würden sonst Angebote wie Sci-Hub ("Schattenbibliothek", die Zugang zu nur hinter einer Pay-wall verfügbaren Inhalten ermöglicht) so extensiv nachgefragt werden?
So lautet die Kernfrage denn auch nicht, ob ein kommerzielles-privatwirtschaftliches, oder eher ein öffentlich-rechtliches Angebot das bessere Angebot ist (Monopolisierung ist immer schlecht, egal ob öffentlich oder privat, lautete denn auch das Fazit der Diskussion darüber, ob wissenschaftliche Erkenntnisse von öffentlichen Institutionen oder kommerziellen Verlagen gehostet werden sollten), sondern, wie und durch wen sich ein solches Angebot schaffen lässt, das allgemeinen und weltweit unbeschränkten Zugang zu Information und darüber hinaus zugrundeliegenden Methoden und Daten ermöglicht.
Das nämlich ist letztlich und endlich die akkumulierte Forderung der Open Access Initiativen im Hinblick auf Zugang zu öffentlich finanzierten Informationen auf internationaler, europäischer und nationaler Ebene (siehe exemplarisch: Directive on Public Sector Information; OECD Principles and Guidelines for access to research data from public funding, Open Access in Deutschland).
Bislang hat sich an der Ausgestaltung der wissenschaftlichen Kommunikation wenig Elementares verändert. Zwar lässt sich ein deutliches Anwachsen von Open Access und insbesondere "Hybrid" Open Access feststellen (so auch eine neuere Untersuchung aus den Niederlanden), aber klar wurde in der Diskussion darüber, inwieweit öffentlichen Anstrengungen und Policies, sowie die öffentliche Finanzierung, hierauf Einfluss nehmen, dass die Verlage und ihre Plattformen noch sehr viel schneller auf Open Access umstellen müssten und flexibler sein müssten, als dies gegenwärtig der Fall ist.
Haben Verlage und Bibliotheken eine Zukunft?
Steigerung der Relevanz in einem vielschichtigen, fragmentiertem System der Forschungsergebnisse und Innovation ist am Ende eine Überlebensfrage. Im Jahr 2020 soll nach dem Willen der Politik alles offen sein. Aber was kommt nach Open Access, Open Peer Review, Open Science? Wird es noch Verlage und Bibliotheken geben?
Ja, so das Fazit der Keynote des ersten Tages von Michiel Kolman, dem Präsidenten der IPA (International Press Association), aber nur, wenn hier wie dort aktuelle Entwicklungen wie BlockChain, Artificial Intelligence und Text & Data Mining aufgegriffen werden, sowie Voraussetzungen wie Gender und Diversity geschaffen werden.
Es lohnt sich, die Diskussion hochkarätiger Stakeholder mitzuverfolgen (unter anderem wird heute, 16. Januar, Jean-Claude Burgelman, Direktor der Generaldirektion Forschung und Innovation der europäischen Kommission und Leiter der Abteilung "Open Data Policy and Science Cloud" erwartet).
Wem es nicht möglich ist, die kommenden beiden Tage in der Berlin Brandenburgischen Akademie der Wissenschaften vor Ort an der weiteren Diskussion über Themen wie #open science #openaccess #opendata #blockchain #artificialintelligence #piracy teilzunehmen, kann sich die Beiträge auch auf Video ansehen. Etwas zeitverzögert werden diese nach Aussage des Veranstalters auf den Konferenzseiten zur Verfügung stehen.