Deutsche Fachpresse

Big Data: Überrollt die riesige Datenmenge die Fachverlage?

20. Juli 2015
von Christina Busse
Unter dem Motto "Wissen oder Algorithmus: Woher kommt das Know-how in Zukunft?" lud die Deutsche Fachpresse auf der Frankfurter Buchmesse zu einer Diskussionsrunde unter Experten ein.

Fachmediales Wissensmanagement ist mit einer täglich wachsenden Datenmenge konfrontiert. Diese Entwicklung wirft Fragen auf: Müssen die Begriffe von "Wissen" und "Know-how" neu definiert werden? Welches Potenzial birgt das riesige Datenvorkommen und wie lässt es sich nutzen? Welche neuen Aufgaben kommen auf die Verlage zu? Diesen Fragen stellte sich die Diskussionsrunde.

"Wir müssen nur Star Trek gucken, um zu wissen, wohin es geht", führte Gunter Schunk, Leiter Kommunikation bei Vogel Business Media, ins Gespräch ein und zeigte auf, wie in der Sci-Fi-Serie Handy, I-Pad und Co. zukunftsweisend Eingang fanden. Dass es ganz so simpel nicht ist, bewies das anschließende Gespräch. Dabei war man sich im Grundsatz darüber einig, dass Wissen auch in Zukunft nicht gleichzusetzen ist mit der Anhäufung von Daten. Technik ist zwar wesentlich effizienter, wenn es darum geht, Datensätze unter bestimmten Suchkriterien zu scannen, oder auch Analyseergebnisse nach vorgegebenen Parametern zu liefern, selbständige Erkenntnisse sind auf diesem Weg allerdings nicht zu erwarten. "Daten kann man nur strukturieren, bewerten und daraus eine Meinung bilden, wenn Erfahrungswissen im Hintergrund steht", erklärte Svenja Hagenhoff vom Studiengang Buchwissenschaft an der Universität Erlangen-Nürnberg. "Ohne Menschen, die das Wissen haben, geht in Unternehmen nichts", betonte auch Michael Eble vom Fraunhofer-Institut für intelligente Analyse- und Informationssysteme.

Was aber bedeuten die riesigen Datenberge für die Verlage, die mit dem Material arbeiten? Sorgt das rasante Wachstum der Datenmenge tatsächlich dazu, dass Inhalte in Sekundenschnelle schon wieder überholt sind? "Sobald ein Buch auf dem Markt kommt, ist doch das behandelte Thema durch", meinte Simon Dückert, Geschäftsführer von Cogneon, einem Beratungsunternehmen für Wissensmanagement. Dafür erntete er von De Gruyter-Geschäftsführer Sven Fund, Kopfschütteln. "Wir müssen sicher weg von einem starren Geschäftsmodell, um aktuelle, relevante Daten berücksichtigen zu können. Aber unsere Hauptaufgabe sehe ich nicht im Management der Daten, sondern in der Kontextualisierung", hob Fund hervor. Für ihn liegt die Zukunft der Verlage darin, Wissen zu teilen. Sie erfordere aber auch ein Hinterfragen der Erfolgsmessung. "Teilweise überlagern ökonomische Kriterien das, was in der wissenschaftlichen Anwendung Priorität haben sollte. Beispielsweise gelten Titel umso erfolgreicher, je höher die Klickzahlen sind. Für den Nutzer ist aber eine zielgerichtete Suche über wenige Klicks wertvoller."

Buchwissenschaftlerin Hagenhoff empfahl den Fachverlagen, genau hinzuschauen, welche Infos die Kunden brauchen und wie diese in den Workflow der Unternehmen eingebracht werden können. "Der PC ist nur eine Effizienzmaschine: Es kommt nur die Datenqualität hinten raus, die der Eingabe entspricht", stellte sie es ganz bildlich dar. Das sah Michael Eble ähnlich: "In der Auswertung von Big Data und in der Informationsaufbereitung macht Rechnerunterstützung Sinn. Aber zukunftsfähig ist derjenige, der sieht, was der Markt braucht, und der prüft, wie und wo Algorithmen und Wissen sinnvoll zu kombinieren sind."

Einig war man sich abschließend darüber, "die Kirche im Dorf" zu lassen und sich nicht von einem "Hype um Big Data" verunsichern zu lassen. "Es gibt für die Branche keinen Grund, sich in die Bedeutungslosigkeit zu reden", resümierte Hagenhoff. Auf Moderator Schunks Schlussfrage "Entgleiten uns die Daten? Übernehmen sie die Herrschaft über die Menschen?" konterte Verleger Fund trocken: "Sie haben in Ihrer Jugend zu viel Raumschiff Enterprise gesehen."