Interview mit Jessica Sänger zur KI-Verordnung der EU

"Bei Rechtsverletzung haften KI-Unternehmen"

4. April 2024
Michael Roesler-Graichen

Mitte März hat das EU-Parlament den AI Act, die neue Verordnung zu Künstlicher Intelligenz, verabschiedet. Was bedeuten die Regelungen für die Buchbranche? Wie werden Ansprüche von Rechteinhaber:innen geschützt? Und welche Kennzeichnungspflichten haben Produzenten von Deep Fakes? Antworten darauf von Jessica Sänger, Direktorin für europäische und internationale Angelegenheiten beim Börsenverein.

Jessica Sänger

Jessica Sänger

Der vom EU-Parlament verabschiedete AI Act ist nun in Fragen der Künstlichen Intelligenz bindendes Recht. Wird es auf der Grundlage des AI Act noch ein deutsches Gesetz geben, das nationale Besonderheiten regelt?
Jessica Sänger: Das ist nicht erforderlich, da es sich bei dem AI Act um eine Verordnung handelt, keine Richtlinie. Verordnungen nutzt der EU-Gesetzgeber zur Vollharmonisierung des Regelungsthemas. Sicherlich ist eine zumindest europaweit einheitliche Regelung im Hinblick auf die grenzüberschreitenden KI-Angebote auch sinnvoll. Trotzdem sind noch nicht alle Details für die Praxis geklärt: die EU-Kommission muss nun vor dem Wirksamwerden der neuen Regelungen (je nach Kontext ab 2025) noch einiges organisieren, um die Durchsetzung des AI Act praktisch hinzubekommen, beispielsweise das neu vorgesehene "AI Office" gründen und mit qualifiziertem Personal ausstatten.

Ein Kernpunkt des AI Act für die Buchbranche ist, dass KI-Systeme künftig in Bezug auf das Urheberrecht Transparenzanforderungen erfüllen müssen. Was hat man sich darunter vorzustellen?
Sänger: KI-Systeme werden mit Daten trainiert. Zu den qualitativ hochwertigsten Daten gehören urheberrechtlich geschützte Werke wie Texte und Bilder aus Büchern. Werden in sogenannten Basismodellen, wie sie heute vielfach zum Einsatz kommen, Werke zum Training von KI verwendet, sieht der AI Act Transparenzpflichten vor, die den Inhaber:innen der Rechte an diesen Werken ermöglichen sollen, ihre Rechte durchzusetzen. Im Text der Verordnung ist eine "hinreichend detaillierte Zusammenfassung" zu den genutzten Werken vorgesehen. Was genau darunter zu verstehen ist, soll die EU-Kommission im Wege einer Vorlage für eine solche Zusammenfassung klarstellen. Der Teufel liegt also im Detail, das teilweise noch etwas unklar ist. Wir setzen uns dafür ein, dass unter anderem die Quelle der Werke eindeutig benannt wird, damit auf die einzelnen genutzten Werke rückgeschlossen werden kann. Wie sonst sollten Rechteinhaber:innen eventuelle Verstöße erkennen und ihre Rechte durchsetzen können?

Wir setzen uns dafür ein, dass unter anderem die Quelle der Werke eindeutig benannt wird, damit auf die einzelnen genutzten Werke rückgeschlossen werden kann.

Jessica Sänger

Und gibt es künftig für Rechteinhaber die Möglichkeit, die Nutzung durch KI von vornherein auszuschließen?
Sänger: Sie stellen die schwierige Frage nach der Reichweite der TDM-Schranke. Zur Erklärung: Grundsätzlich bedarf die Nutzung eines Werkes für das Training einer KI der Zustimmung des Rechteinhabers, da hierfür eine Vervielfältigung erforderlich ist. Die Regelungen zum Text- und Data-Mining (TDM), die im Zuge der Umsetzung der letzten Urheberrechtsrichtlinie Eingang in das Urheberrechtsgesetz gefunden haben, ermöglichen besagtes TDM zu wissenschaftlichen Zwecken ohne Zustimmung und stellen es zu anderen (auch kommerziellen) Zwecken unter den Vorbehalt, dass ein Werk genutzt werden darf, wenn nicht ausdrücklich ein Nutzungsvorbehalt ("Opt-Out") erklärt wurde. Was aber im KI-Bereich genau unter TDM fällt, ist umstritten. Wir sind der Meinung, dass KI, die mehr tut als Muster oder Trends zu erkennen bzw. Prognosen etwa über die Faltung von Proteinen zu treffen, sondern selbst Outputs wie Texte, Bilder, Filme oder Software-Code generiert – also „generative“ KI – nicht durch die TDM-Regeln gedeckt ist. Das sehen die KI-Unternehmen naturgemäß anders, und letztgültig lässt sich das nur durch eine Entscheidung des EuGH klären. Bis zu einer solchen Klärung müssen Rechteinhaber:innen damit rechnen, dass KI-Entwickler zumindest versuchen, sich auf die TDM-Schranke zu berufen. Deshalb ist die vorsorgliche Erklärung eines Nutzungsvorbehalts sinnvoll, wenn man nicht möchte, dass eigene Werke zum kommerziellen KI-Training verwendet werden. Dafür gibt es verschiedene Möglichkeiten, über die der Börsenverein beispielsweise in einem FAQ informiert. Eine Empfehlung für die technische Umsetzung eines solchen Nutzungvorbehalts wird gerade von der IG Digital vorbereitet und auf der Jahrestagung der IG im Juni vorgestellt.

Welche Möglichkeiten der Rechtsdurchsetzung haben Verlage, Autor:innen und Übersetzer:innen?
Sänger: Die Einhaltung der Transparenzpflichten wird durch das AI Office der EU-Kommission überwacht werden, so dass die geforderten Zusammenfassungen über zum Training genutzte Werke auch zuverlässig vorliegen sollten. Sollten Rechteinhaber:innen auf dieser Grundlage oder auch zum Beispiel durch KI-Outputs feststellen, dass ihre Werke genutzt wurden, ohne dass beispielsweise ein erklärter Opt-Out berücksichtigt wurde, stehen ihnen die gewohnten urheberrechtlichen Durchsetzungsmöglichkeiten zur Verfügung, und das KI-Unternehmen haftet für die Rechtsverletzung. Allerdings ist im Moment noch unklar, in welchem Maße das Training eines KI-Modells technisch wieder rückgängig gemacht werden kann.

KI-generierte Texte, Bilder und Videos müssen künftig als solche gekennzeichnet werden. Weiß man schon, auf welche Weise dies geschehen soll? Und können digitale Plattformen technisch so ausgerüstet werden, dass Sie Deepfakes herausfiltern können?
Sänger: Die technische Umsetzung der Kennzeichnung von Outputs obliegt zunächst den KI-Unternehmen. Ich gehe davon aus, dass sich hierfür Standards herausbilden werden. Die Kennzeichnung muss in interoperabler maschinenlesbarer Form angebracht werden, so dass auch Plattformen KI-Outputs erkennen können. Deepfakes im Bereich Bild, Ton oder Video müssen ebenfalls in geeigneter Weise gekennzeichnet werden, damit Nutzer:innen Transparenz haben. Hierfür ist verantwortlich, wer unter Einsatz der KI das Deepfake erstellt. Bei einem Spielfilm zum Beispiel darf die Kennzeichnung in einer Weise geschehen, die den Werkgenuss nicht beeinträchtigt. Handelt es sich hingegen um zum Beispiel künstlich generierte Presseberichterstattung, muss die Kennzeichnung für die Leser:innen sofort erkennbar sein. Anders ist es nur, wenn eine redaktionelle Überprüfung durch einen Menschen stattgefunden hat.

Wird es so auch gelingen, die Flut an KI-erzeugten Fake-Publikationen (ein Problem im Ratgeberbereich) in Online-Shops einzudämmen?
Sänger: Rein KI-generierte Texte unterliegen der Kennzeichnungspflicht, die durch das KI-Unternehmen sichergestellt werden muss. Wenn alles korrekt maschinenlesbar gekennzeichnet ist, können die Online-Shops solche Produkte in der Tat erkennen. Würde eine solche Kennzeichnung jedoch in betrügerischer Absicht entfernt, wäre das Problem wieder da. Man bräuchte eventuell eine KI, die erkennt, was KI-generiert ist, um vorsätzliche Betrügereien zu verhindern.