Auf den ersten Blick scheinen KI-basierte Chatbots wie gemacht zu sein für Fachinhalte – bei denen es ja darauf ankommt, bestehendes Wissen kompakt zusammenzufassen, neu zu arrangieren oder zu aggregieren. Was bislang viel Zeit und personelle Ressourcen erfordert hat, erledigt die entsprechende Technologie in kürzester Zeit.
Doch die Versuchung, man hätte es sich denken können, birgt Gefahren. Nach wie vor sind Chatbots wie Chat GPT fehleranfällig, weil sie ihre Inhalte nach sprachlichen Wahrscheinlichkeiten und nicht nach semantischer Logik erzeugen. Auch eine falsche Verknüpfung von Daten führt immer wieder dazu, dass KI »halluziniert«, wie es im Fachjargon heißt. Fatal für Fachverlage, deren Geschäftsmodell auf einhundert Prozent korrekten und aktuellen Inhalten basiert – selbst wenn alles vor Veröffentlichung noch einmal von Menschen geprüft wird (und sich damit die Ressourceneinsparungen wieder relativieren).