KI-Symposium mit Nina George

„Das Prinzip der datenbasierten Tischtennisbälle“

19. Dezember 2024
Sabine Cronau

Sind generative KI-Modelle tatsächlich so intelligent, wie ihre Schöpfer immer behaupten? Und wie können sich Kreative gegen den großen Datenklau der Tech-Firmen wehren? Ein Symposium in Darmstadt schaute in den Maschinenraum der Künstlichen Intelligenz. Und sammelte die besten Notwehr-Strategien für Urheber:innen.

Autorin Nina George und Petra Gehring, Professorin für Philosophie an der TU Darmstadt

Musterklage der GEMA

Die GEMA hat am 13. November ein Zeichen gesetzt – und beim Landgericht München Klage gegen einen Anbieter generativer KI eingereicht. Die Verwertungsgesellschaft wirft dem US-Unternehmen OpenAI (Chat GPT) vor, geschützte Songtexte wiederzugeben, ohne dafür Lizenzen erworben beziehungsweise die Urheber:innen der genutzten Werke vergütet zu haben. Mit dem Verfahren soll nachgewiesen werden, dass OpenAI systematisch das Repertoire der GEMA verwendet, um seine Systeme zu trainieren.

Die Musterklage ist für die gesamte Kreativszene wichtig. Denn ganz gleich ob Musik, Bücher, Stimmen oder Bilder – die großen KI-Modelle verleiben sich alles ein, was sie im Internet finden. Neue Informationen sind ihr Lebenselexier: Nur dann können sie lernen, wachsen und gedeihen.

Zentrum für verantwortungsbewusste Digitalisierung

Mit dem Datenklau der Tech-Konzerne und den gesellschaftlichen Folgen generativer KI hat sich vergangene Woche ein interdisziplinäres Symposium der TU Darmstadt beschäftigt: Autorinnen und Illustratoren, Verleger und Wissenschaftlerinnen, Journalisten und Philosophen diskutierten in der Darmstädter Centralstation über Large Language Modelle und ihre Gefahren (zum Programm geht es hier).

Warum gerade Darmstadt? Weil es hier an der Technischen Universität ein „Zentrum für verantwortungsbewusste Digitalisierung“ gibt, kurz Zevedi. Angesiedelt ist es am Institut für Philosophie unter der Leitung von Professorin Petra Gehring.

Zu den aktuellen Forschungsvorhaben gehört ein Projekt, das für die Buchbranche ausgesprochen interessant ist: „Generative KI und kreative Autorschaft in Wissensarbeit und Literatur“. Als Fellow wurde Autorin Nina George an Bord geholt, zugleich Ehrenpräsidentin des European Writers‘ Council. Sie füllt das Projekt mit Leben – ein Baustein war das breit angelegte Symposium in Zusammenarbeit mit der VG Wort und der Initiative Urheberrecht.

Der philosophische Ansatz

Wer sich jetzt fragt, was Künstliche Intelligenz mit Philosophie zu tun hat, der muss sich nur die Projektbeschreibung auf der Website anschauen: „Generative KI-Systeme greifen auf gigantische Mengen digitaler Texte, Bilder und Töne zu, oftmals ohne Rücksicht auf Urheberrechte“, heißt es da.

Wie verändert sich unser Denken, kreatives Schaffen und die Definition von Urheberschaft durch den Einsatz solcher Technologien? Wie beeinflusst die Verfügbarkeit von maschinell erzeugten Inhalten unseren Blick auf das Menschsein, auf die Bedeutung menschlicher Kommunikation und Kulturarbeit? Große Fragen, die hier angerissen werden und bei dem zweitägigen Symposium auf der Agenda standen.

Letztlich ist das alles nur Statistik – wenn auch eine sehr komplexe.

Thomas Arnold, TU Darmstadt

Entzaubert wurde die gehypte Technologie von zwei Wissenschaftlern, die an der TU Darmstadt arbeiten und am zweiten Tag auf der Bühne standen:

  • Andreas Kaminski, Professor für Wissenschafts- und Technikphilosophie, machte deutlich, dass KI-Systeme Kreativität höchstens simulieren könnten: Denn während die Suche nach dem richtigen Wort beim Menschen vom persönlichen Empfinden gesteuert werde, würden Large Language Modelle einzig und allein mit Wahrscheinlichkeiten arbeiten.
  • Thomas Arnold vom Forschungslabor UKP Lab warf einen Blick unter die Haube der Sprachmodelle: „Der Effekt des Wunderbaren verschwindet, wenn wir die Blackbox öffnen,“ so seine These. Er verglich KI-Systeme mit Eimern voller beschrifteter Tischtennisbälle: Large Language Modelle würden auf der „Wahrscheinlichkeitsverteilung von Textsequenzen“ basieren und eben immer den einen Wortball aus dem Eimer ziehen, der im jeweiligen Zusammenhang am häufigsten zu finden sei. Ob die KI nun ein Gedicht im Stil von Shakespeare schreibe oder eine medizinische Fachfrage beantworte: „Letztlich ist es nur Statistik – wenn auch eine sehr komplexe.“ Gefahren sieht er dennoch: KI-gesteuerte Bots und manipulierte Algorithmen könnten die Demokratie gefährden: „Solche Modelle werden die politischen Arenen der Zukunft sein“.

Bleibt die Frage: Ist Statistik gleichzusetzen mit Intelligenz? Am Ende der beiden Vorträge schlussfolgerte Nina George, die mit viel Energie durch die Tagung führte: „Intelligenz ist bei KI nur ein Marketingbapperl“. Glück, Profit, Effizienz: „Die Narrative werden von den großen Tech-Firmen gesetzt - und alle hecheln diesen Narrativen hinterher, ohne das Prinzip der datenbasierten Tischtennisbälle zu verstehen.“

Die Narrative werden von den großen Tech-Firmen gesetzt - und alle hecheln diesen Narrativen hinterher, ohne das Prinzip der datenbasierten Tischtennisbälle zu verstehen.

Nina George, Autorin

Die Nöte der Kreativen

Trotzdem machen diese Tischtennisbälle der Kreativbranche jede Menge Ärger, nicht nur durch den Datenklau bei der Maschinenfütterung: In Darmstadt waren viele Professionen vertreten, die bereits die Auswirkungen des KI-Einsatzes im eigenen Arbeitsalltag spüren – sie zum Teil aber auch selbst nutzen:

  • Björn Staschen vom Journalistenverband DJV beobachtet „eine Art Hinrichtung des Journalismus“ in den vergangenen 15 Jahren. Die Erlösmodelle seien durch das Internet zusammengebrochen, jetzt komme auch noch die generative KI dazu, die zwar die Analyse großer Datenmengen bei Recherchen erleichtere, aber zugleich eine große Gefahr für die vierte Gewalt im Staat sei.
  • Jürgen Gawron von der Illustratoren Organisation sprach von einer Auftragsflaute in der Zeichnerszene: „Die Einschläge kommen immer näher“. Oft gehe es nur noch ums Zuarbeiten, natürlich für weniger Honorar – entweder sollen Skizzen geliefert werden, die dann von KI vollendet werden. Oder es gibt eine abgestimmte KI-Vorlage, die dann so lange bearbeitet werden soll, bis sie einen eigenständigen Werkcharakter bekommt.
  • Die freiberufliche Texterin Christa Goede berichtete ebenfalls von Umsatzeinbrüchen. Immer mehr Unternehmen würden das Marketing den Maschinen überlassen – und so würden dann auch die Werbetexte aussehen, etwa wenn von einer „Oase im Wasser“ die Rede sei.

Christa Goede trug bei der Tagung übrigens ein großes Logo auf dem Pullover: MI, für Menschliche Intelligenz. Das MI-Siegel steht für „von Menschen geprüfte Qualität“ und wird mittlerweile von Kreativen aus vielen verschiedenen Branchen genutzt und unterstützt. Die Markenrechte sind beantragt (mehr dazu hier).

  • Auch Autorin Monika Pfundmeier (Netzwerk Autorenrechte) warnte davor, die Gefahr durch Large Language Modelle zu unterschätzen: „Ein Mensch braucht mindestens ein halbes Jahr, um ein Buch zu veröffentlichen – für Fehler trägt er die Verantwortung, weil sein Name darauf steht.“ Mit der Maschine brauche man dagegen nur wenige Sekunden für einen Text, der sich zudem digital beliebig oft verbreiten lasse: „Darin enthalten sind die Daten, aber auch der Hass und die Vorurteile von gestern.“
  • Philosophie-Professorin Petra Gehring, neben Nina George als Moderatorin auf der Bühne, machte deutlich, dass sich durch die jüngsten technologischen Entwicklungen darüber hinaus die „Machtverhältnisse zwischen Wissenschaft und Wirtschaft verschieben“ würden. Anders formuliert: Universitäten können mit den Forschungslaboren der Industrie heute kaum noch konkurrieren. Und Tech-Konzerne gehören mittlerweile zu den Finanziers von Hochschulen - eine durchaus brisante Verflechtung.

Podium mit Kerstin Bäcker, Susanne Barwick, Kathrin Müllenbach (deGruyter Brill) und Robert Staats

Schutzmechanismen nutzen

Fakt ist: Die KI-Modelle lassen sich nicht mehr aus der Welt schaffen und viele Kreative arbeiten längst selbst damit. Aber: Wie können sich Urheber:innen zumindest gegen den Datenklau schützen?

Auch um solche Praxisfragen ging es bei dem Symposium. Die Tech-Konzerne berufen sich hierzulande auf die sogenannte Text- und Data-Mining-Schranke des Urheberrechtsgesetzes (Paragraf 44 b), die auch im kommerziellen Bereich vorübergehende Vervielfältigungen zur automatisierten Analyse von digitalen oder digitalisierten Werken erlaubt – vorausgesetzt, die Werke sind rechtmäßig zugänglich und der Rechteinhaber hat sich die Nutzung nicht wirksam vorbehalten. Genau das ist der Hebel, an dem sich ansetzen lässt.

Klare Empfehlung auf dem Symposium: Alle Urheber:innen, die zumindest die Rechte an ihren neuen Werken schützen wollen (die alten sind eh schon verarbeitet worden), sollten eine „Opt out“-Erklärung, also einen Nutzungsvorbehalt gegen die TDM-Schranke aussprechen, am besten maschinenlesbar.

Entsprechende Tools dafür gibt es: Der Börsenverein empfiehlt seinen Mitgliedern das „Text & Data Mining Reservation Protocol“, wie Susanne Barwick, stellvertretende Justiziarin des Verbands, erläuterte. Daniel Gebühr, Produktionsleiter beim Deutschen Apothekerverlag, verwies auf die Handreichungen des Börsenvereins und seiner Interessengruppen zum Thema (mehr dazu hier) – und appellierte an die Verlage, „Opt out“ zum Standard für all ihre Werke zu machen, solange die Autor:innen nicht ausdrücklich ein „Opt in“ verlangen (ein vertiefendes Interview zum Thema und zum AI Act der EU lesen Sie hier).

Opt out muss zur Standardpraxis für Autorinnen und Autoren werden – immer wenn ein Text ans Lektorat rausgeht.

Sebastian Posth, Liccium

Neuer Standard ISCC

Sebastian Posth von Liccium stellte in Darmstadt den International Standard Content Code (ISCC) vor, den er mitentwickelt hat. Er soll dafür sorgen, dass die „Opt out“-Kennzeichnung überall mit der Datei verknüpft bleibt – auch auf fremden Websites oder beim Teilen in den sozialen Netzwerken. „Opt out muss zur Standardpraxis werden – immer wenn ein Text ans Lektorat rausgeht“, meint Sebastian Posth in Richtung Urheber. Denn die KI-Crawler machen auch vor unverschlüsselten Mail-Anhängen nicht halt.

Dienstleister Bookwire will den jungen Standard künftig nutzen und 2025 mehr als 100 Millionen Dateien mit dem ISCC versehen. Auf neue, schärfere Gesetze zu warten – diese Zeit habe die Branche nicht, so Nicolas Bräuer, Justiziar bei Bookwire. Dafür würden die Verfahren einfach zu lange dauern. Er plädiert stattdessen für „effektive Rechtewahrnehmung“. Kerstin Bäcker, Rechtsanwältin bei der Kanzlei Lausen, sieht das ähnlich: „Das vorrangige Problem ist nicht der Rechtsrahmen, sondern seine Durchsetzung.“

Ob das Training generativer KI-Modelle überhaupt unter die TDM-Schranke fällt, ist allerdings keine ausgemachte Sache. Eine vielbeachtete Studie der Initiative Urheberrecht (zugleich Kooperationspartner des Symposiums) ist jüngst zu dem Ergebnis gekommen, dass sich diese Auslegung nicht halten lässt (ein Interview dazu hier, zu den Ergebnissen der Studie geht es hier).

Das vorrangige Problem ist nicht der Rechtsrahmen, sondern seine Durchsetzung.

Kerstin Bäcker, Kanzlei Lausen

Ansätze für eine Lizenzierung

Lizenzieren – ja oder nein? Auch das war ein zentrales Tagungsthema. Klar ist, dass dabei zwei Seiten zu beachten sind: Input und Output, also die Daten für das KI-Training auf der einen Seite und auf der anderen Seite das, was die KI bei einer entsprechenden Abfrage daraus macht: „Man sollte sich gut überlegen, was man genau lizenziert. Es kommt wie immer auf die Details an“, so Susanne Barwick vom Börsenverein: „Aber generell gilt: Besser eine lizenzierte als eine völlig unkontrollierte Nutzung.“

Erste Verlage tasten sich gerade an das Thema heran. So soll HarperCollins in den USA eine Vereinbarung mit einem Tech-Konzern getroffen haben – und Autor:innen 2.500 Dollar angeboten haben, wenn sie ihre Werke drei Jahre lang fürs Training zur Verfügung stellen (nur Non-Fiction, mehr dazu hier).

Generell gilt: Besser eine lizenzierte als eine völlig unkontrollierte Nutzung.

Susanne Barwick, stellvertretende Justiziarin des Börsenvereins

Neues Lizenzmodell der VG Wort

In Deutschland arbeitet die VG Wort an einer speziellen KI-Lizenz für ihre Mitglieder, allerdings nur für die interne Nutzung in Unternehmen, etwa in Pharma-Konzernen. Autor:innen haben die Möglichkeit, individuell Widerspruch gegen die geplante Lizenzierung einzulegen, die Frist ist gerade abgelaufen (ein FAQ der VG Wort dazu hier).

Ab März solle der Verkauf starten, berichtete Robert Staats, geschäftsführendes Vorstandsmitglied der VG Wort, in Darmstadt. „Die neue Lizenz wird bei Autor:innen nicht zu Reichtürmern führen“, weiß Staats, „aber sie macht den Kernpunkt unseres Anliegens deutlich: Ohne Erlaubnis keine Nutzung.“

Bedenken gegen solche Lizenzmodelle waren bei den Autor:innen im Saal allerdings durchaus spürbar: „Es geht hier um das ganz große Geschäft. Ich habe große Sorge, dass ich hier etwas lizenziere, das zu meiner Abschaffung führt,“ so Nicole Pfister Fetz, Generalsekretärin des European Writers Council. Und Claudia Hamm, Autorin, Übersetzerin und Regisseurin, sprach eine „Ermutigung zum Nein-Sagen“ aus: „Die KI braucht uns, aber wir brauchen sie nicht.“

Ich habe große Sorge, dass ich hier etwas lizenziere, das zu meiner Abschaffung führt.

Nicole Pfister Fetz, Generalsekretärin des European Writers' Council

Ist die Branche zu leise?

Müssen Urheber:innen deutlich lauter gegen die kreative Rechtsauslegung der Tech-Konzerne protestieren?  In den USA gebe es schon viele Klagen gegen die Tech-Konzerne, berichtete Thomas Höppner, Rechtsanwalt bei der Kanzlei Hausfeld – in Europa dagegen nur wenige: „Leider besteht auch immer das Risiko, schlechte Präzedenzfälle zu schaffen.“

Über die Klage der Gema hat sich Höppner jedoch gefreut: „Denn sie ist auch eine klare Botschaft an die Politik.“ Susanne Barwick appellierte an Verlage und Autor:innen, sich mit aussagekräftigen Beispielen an den Börsenverein zu wenden, der sie dann gegebenenfalls auf Musterprozess-Tauglichkeit abklopfen könne: „Wir brauchen gute Fälle.

Paul Nemitz

Der Kampf wird immer weitergehen - und neues Recht zu schaffen, ist ein sehr langer Weg.

Paul Nemitz, Chefberater der EU-Kommission

Der große gesellschaftliche Zusammenhang

Zu den besten Beiträgen des Symposiums gehörte ein Impuls von Paul Nemitz, Chefberater der EU-Kommission in der Generaldirektion Justiz und Verbraucherschutz: „Bei der KI-Entwicklung gibt es Gewinner und Verlierer“, betonte er: „Das hat mit der Technologie zu tun, aber eben auch mit der Politik.“ Er gab Einblick in die Gesetzgebungsverfahren, für die er sich eine „strafbewährte Wahrheitspflicht“ für befragte Unternehmen wünschen würde.

Sein Rat an die Kreativen: bestehendes Recht ausschöpfen, etwa durch Musterverfahren. „Der Kampf wird immer weitergehen und neues Recht zu schaffen, ist ein sehr langer Weg“ – zumal die Position von Autorinnen und Autoren gegenüber dem neu gewählten EU-Parlament eher schwächer geworden sein dürfte.

Die Kreativen müssten ihre Interessen über das Finanzielle hinaus in einen größeren gesellschaftlichen Zusammenhang stellen, empfahl Nemitz: Weil Künstliche Intelligenz auf den Daten von gestern basiere, führe sie zur Erstarrung: „Ihr fehlt die Unzufriedenheit des Menschen, der Traum von einer besseren Zukunft – und damit auch der Motor für echte Innovation. Es ist eine Technologie, die immer nur nach hinten schaut.“

"Ihre Punkte bitte": Katharina Uppenbrink (Initiative Urheberrecht) mit den Markierungen für den Forderungskatalog

Fünf zentrale Forderungen

Nach vorne schauten dagegen die Tagungsteilnehmer: Sie erstellten gemeinsam einen Forderungskatalog, der 2025 als „Darmstädter Erklärung“ veröffentlicht werden soll. Die wichtigsten Punkte, vorab in kleineren Expertenrunden zusammengetragen, konnten vom Publikum im Verlauf der zwei Tage an einer Pinwand bewertet werden.

Die Top 5 aus 74:

  1. Klauen darf nicht mehr cool sein.
  2. Bestehendes Recht durchsetzen
  3. Big Tech-Firmen massiv besteuern
  4. Verbands- und Musterklagen durchführen
  5. Die vergütungsfreie Text-und-Data-Mining-Ausnahme für kommerzielle Nutzung abschaffen

Bei den verschiedenen Diskussionsrunden zu den Themen Recht, Ethik, Technik, Sprache nutzten viele Zuhörer:innen aus dem Publikum einen „Hot Seat“, mit dem sich jeder, der etwas sagen wollte, auf die Bühne beamen konnte.

Das lange Sofa auf dem Podium füllte sich zwischendrin mit so vielen Diskutanten, dass Nina George witzelte: „So langsam kommt hier Klassenfahrt-Feeling auf“. Doch auch wenn es auf der Bühne manchmal eng und kontrovers zuging: In jedem Fall waren es zwei intensive Tage mit IMI – interdisziplinärer menschlicher Intelligenz.