
Der Bericht adressiert ein Thema, das die Rechtswissenschaft seit Jahrzehnten begleitet und nie wirklich gelöst wurde: das Spannungsfeld zwischen einem Urheberrecht aus der Zeit des Buchdrucks und einer digitalen Technologie, die mit Werten operiert, die zum klassischen Verständnis des Urheberrechts schlicht nicht passen. Insofern ist es nicht übertrieben, von einer urheberrechtlichen Zeitenwende zu sprechen.
Worum geht es?
Im Zentrum steht ein Konflikt, der für die Wettbewerbsfähigkeit europäischer Unternehmen ebenso entscheidend ist wie für die Zukunft der Medien- und Kreativbranche. Auf der einen Seite will Europa bei KI-Innovationen aufholen und den Abstand zu den USA und China verringern. Ohne leistungsfähige Modelle und umfangreiche, qualitativ hochwertige Trainingsdaten ist das nicht zu haben.
Auf der anderen Seite stehen Medienhäuser, Verlage, Musik- und Filmwirtschaft, Plattformen und einzelne Kreative, deren Inhalte diese Trainingsdaten in großem Umfang liefern – häufig ohne ihre Zustimmung und ohne Vergütung.
Generative KI ist in vielen Unternehmen bereits fester Bestandteil von Produkten und Prozessen – von der Erstellung von Texten, Bildern und Software-Code bis hin zu ganzen Nachrichtenseiten. Hinter dieser technologischen Leistungsfähigkeit steht jedoch eine einfache, rechtlich heikle Frage: Womit wurden diese Systeme trainiert? Die Antwort lautet meist: Mit Inhalten, die von Journalistinnen, Autoren, Fotografen, Musikerinnen und anderen Kreativen stammen – und damit in aller Regel urheberrechtlich geschützt sind. Aus gutem Grund: Das Urheberrecht ist für Kreative oft die einzige rechtliche Grundlage, um die Nutzung ihrer Werke zu steuern und ihre Leistung zu monetarisieren.
Das europäische Urheberrecht ist historisch darauf ausgerichtet, einzelne schöpferische Werke vor unbefugter Vervielfältigung und Verbreitung zu schützen – also vor klassischen Kopierakten. Schon in der Diskussion um den immaterialgüterrechtlichen Schutz von Computerprogrammen zeigte sich, dass diese Logik nur begrenzt zur modernen Digitaltechnologie passt.
Software, die laufend verändert, kombiniert und in komplexen Systemen ausgeführt wird, ließ sich nur mit erheblichem dogmatischen Aufwand in die bestehenden Kategorien einpassen; nicht zufällig hat sie bis heute einen eigenen Abschnitt mit Sonderregeln im Gesetz.
KI, insbesondere das Training generativer KI, passt mit diesem proprietären Konzept noch weniger zusammen. KI ist darauf angewiesen, nicht nur „Daten“, sondern gerade auch urheberrechtlich geschützte Werke zu Trainingszwecken zu verarbeiten, um leistungsfähig zu sein und qualitativ hochwertige Ergebnisse zu liefern.
Daraus ergeben sich vor diesem urheberrechtlichen Hintergrund einige rechtliche Schlüsselfragen: Darf eine KI ohne Zustimmung massenhaft geschützte Werke aus dem Netz ziehen, analysieren und daraus neue Inhalte erzeugen? Und wenn ja: zu welchen Bedingungen, mit welchen Transparenzpflichten und mit welcher Vergütung für den Kreativsektor?
Erste Gerichte – etwa Ende vergangenen Jahres das Landgericht München – haben bestimmte Formen des KI-Trainings mit geschützten Werken und die Verwendung der Outputs bereits als unzulässig eingestuft. Jetzt zieht die europäische Politik nach.
Die Kernaussage
KI-Systeme arbeiten nicht mit einigen wenigen Werken, sondern mit Milliarden digitaler Kopien. Sie analysieren Muster, abstrahieren Inhalte und erzeugen daraus neue Outputs, ohne dass sich diese Nutzung noch sauber in den klassischen urheberrechtlichen Kategorien von Vervielfältigung, Verbreitung oder Bearbeitung abbilden lässt.
Vor diesem Hintergrund kommt der Rechtsausschuss zu einem bemerkenswert klaren Ergebnis: Das bestehende Urheberrecht ist in Zeiten von KI nicht mehr tauglich, um alle relevanten Interessen zu wahren. Es reicht als alleiniger Ordnungsrahmen nicht mehr aus. Im Raum steht die Forderung nach einem eigenständigen, ergänzenden Rechtsrahmen für KI und das Training von KI.
Kern des angedachten Rahmens ist die Idee einer funktionsfähigen Lizenzinfrastruktur: Rechteinhaber sollen ihre Inhalte gezielt für Trainingszwecke lizenzieren können; KI-Anbieter sollen im Gegenzug mit klaren, verlässlichen Regeln arbeiten. Das soll die Verhandlungsposition von Medien und Kreativen stärken und zugleich rechtssichere Nutzung für Technologieunternehmen ermöglichen – ein Versuch, das überforderte klassische Urheberrecht durch spezifische KI-Regeln zu entlasten.
Das ist bemerkenswert, weil es ein überfälliges Eingeständnis enthält: Die über Jahrzehnte verfolgte Strategie, immer neue digitale Phänomene in alte Normen „hineinzulesen“, ist an ihre Grenzen gestoßen.
Die Einzelheiten
Opt-out für Rechteinhaber
Ein wesentlicher Baustein des neuen Rahmens ist ein standardisiertes Opt-out-System. Rechteinhaber sollen ihre Inhalte künftig mit maschinenlesbaren Signalen kennzeichnen können, die unmissverständlich bedeuten: Diese Inhalte dürfen nicht für das Training generativer KI genutzt werden. Der Bericht sieht dafür standardisierte technische Formate und ein zentrales Register vor, idealerweise beim Amt der Europäischen Union für geistiges Eigentum (EUIPO).
Dort könnten Opt-out-Erklärungen gesammelt und von KI-Anbietern abgefragt werden. Insbesondere für Medienhäuser, Verlage und große Plattformen entstünde damit erstmals ein technisches und rechtliches Instrument, um aktiv zu steuern, ob und wie stark sie ihre Inhalte in den Datenstrom der KI einspeisen – statt dem Trainingsgeschehen nur zuschauen zu müssen.
Weitreichende Transparenzpflichten
Besonders weitreichend sind die geplanten Transparenzpflichten für KI-Anbieter. Sie sollen künftig offenlegen müssen, welche urheberrechtlich geschützten Inhalte sie für das Training ihrer Modelle genutzt haben, und diese Informationen an das EUIPO melden. Die Behörde soll die Daten entgegennehmen, Rechteinhaber informieren und die Einhaltung der Pflichten überwachen.
Verstößt ein Anbieter gegen diese Transparenzanforderungen, soll eine widerlegbare Vermutung greifen: Es wird angenommen, dass alle relevanten Werke in einem bestimmten Bereich für das Training verwendet wurden – mit der Folge, dass Unterlassungs- und Schadensersatzansprüche erheblich leichter durchgesetzt werden können.
Für Unternehmen, die KI-Modelle entwickeln und anbieten, bedeutet das einen Paradigmenwechsel: Trainingsdaten sind nicht mehr nur ein technischer und wettbewerblicher Faktor, sondern ein hochreguliertes Gut, dessen Einsatz umfassend dokumentiert und gegenüber Behörden und Rechteinhabern erklärbar sein muss.
Erweitertes Territorialitätsprinzip
Hinzu kommt der bewusst weit gezogene räumliche Anwendungsbereich. Der Bericht will das klassische Territorialitätsprinzip so weiterentwickeln, dass das EU-Urheberrecht immer dann Anwendung findet, wenn ein KI-System im EU-Binnenmarkt angeboten oder genutzt wird – unabhängig davon, wo das Training stattgefunden hat.
Ein Anbieter aus den USA oder Asien könnte sich also nicht darauf zurückziehen, dass seine Modelle außerhalb Europas trainiert wurden. Entscheidend wäre der Zugang zum europäischen Markt. Ziel ist ein „Level Playing Field“: Europäische und nicht europäische Anbieter sollen denselben urheberrechtlichen Anforderungen unterliegen, wenn sie ihre KI-Dienste in der EU anbieten.
Der Bericht stellt klar, dass Medien und Kreative am wirtschaftlichen Erfolg generativer KI beteiligt werden sollen. Diskutiert werden unterschiedliche Kompensationsmechanismen, einschließlich rückwirkender Vergütungen für bereits erfolgte Trainingsnutzungen in einer Zeit, in der es noch keinen entwickelten Lizenzmarkt gab. Ein pauschales globales Flatrate-Modell lehnt der Rechtsausschuss des Europäischen Parlaments (JURI) ab; stattdessen soll Vergütung verhältnismäßig sein und auf Basis relevanter Faktoren verhandelt werden.
Übergangsweise nennt der Bericht sogar eine pauschale Abgabe von fünf bis sieben Prozent des weltweiten Umsatzes der KI-Anbieter für die Nutzung europäischer Inhalte als Option. Ob ein solcher Satz politisch durchsetzbar ist, bleibt offen. Die Botschaft ist jedoch klar: Man rechnet mit erheblichen Umverteilungseffekten und denkt ernsthaft über ein eigenständiges Vergütungsregime für generative KI nach – ein weiterer Hinweis darauf, dass das klassische Urheberrecht allein als Steuerungsinstrument nicht mehr genügt.
Schutzfähigkeit von KI-Outputs
Ein weiterer zentraler Punkt ist der rechtliche Status von KI-Outputs. Der Bericht bekräftigt den Grundsatz, dass Urheberrecht nach europäischem Verständnis eine menschliche geistige Schöpfung voraussetzt. Rein KI-generierte Inhalte erfüllen diese Voraussetzung nicht und sollen daher grundsätzlich als gemeinfrei gelten und entsprechend gekennzeichnet werden.
Die jüngere Rechtsprechung stützt diese Linie: Das Amtsgericht München hat entschieden, dass KI-generierte Logos keinen Urheberrechtsschutz genießen. Weder reines Prompting noch die Auswahl aus mehreren KI-Vorschlägen genügen als hinreichender menschlicher Schöpfungsbeitrag. Für Unternehmen ist das ambivalent.
Einerseits sind rein KI-erzeugte Inhalte rechtlich kaum exklusiv zu sichern, was Markenaufbau und Content-Strategien berührt. Andererseits schafft die Gemeinfreiheit einen großen Pool frei nutzbarer Inhalte – mit neuen Chancen für Geschäftsmodelle, aber auch neuen Wettbewerbsdynamiken. In der Praxis wird es künftig stärker darauf ankommen, den menschlichen Anteil an kreativ geprägten Outputs zu dokumentieren, um Schutzfähigkeit zu begründen.
Und was heißt das jetzt – und für wen ist das relevant?
Rechtlich betrachtet handelt es sich beim JURI-Bericht „nur“ um einen Entschließungsentwurf. Nach der Abstimmung im Parlament entsteht eine Entschließung, die – anders als etwa die KI-Verordnung – keine unmittelbare Rechtswirkung entfaltet.
Sie ist eine politische Aufforderung an die EU-Kommission, das bestehende Urheberrecht zu präzisieren und gegebenenfalls neue Rechtsinstrumente vorzuschlagen. Das Initiativrecht für Gesetzgebung liegt bei der Kommission; das Parlament setzt mit solchen Entschließungen Impulse.
Trotzdem sind Berichte dieser Art ein verlässlicher Indikator dafür, wohin sich spätere Gesetzgebung bewegen wird. Vor allem ist die zugrunde liegende Diagnose eindeutig: Das Urheberrecht, wie wir es kennen, reicht im KI-Zeitalter nicht mehr aus, um Innovation, Wettbewerb und Schutz kreativer Leistungen in ein ausgewogenes Verhältnis zu bringen.
Für Unternehmen ist der Bericht daher weniger eine akademische Fingerübung als ein früher Blick auf die Rahmenbedingungen, unter denen KI in Europa künftig stattfinden wird. KI-Anbieter und Technologieunternehmen werden ihre Daten- und Dokumentationsstrategien überdenken müssen.
Wer heute Modelle trainiert, wird morgen nachweisen müssen, auf welchen Daten das Training basiert, welche Rechte daran bestehen und wie Opt-outs beachtet wurden. Gleichzeitig wird eine Lizenz- und Vergütungsstrategie nötig sein, die Kosten, Risiken und Chancen – etwa durch branchenspezifische oder kollektive Lizenzen – in den Blick nimmt. Geschäftsmodelle, Preisstrukturen und Markteintrittsstrategien für die EU werden sich daran ausrichten müssen.
Medienunternehmen, Verlage, Plattformen und andere Rechteinhaber erhalten durch den Bericht ein deutliches Signal, dass ihre Interessen auf EU-Ebene nicht nur gehört, sondern in konkrete Regulierung übersetzt werden sollen. Sie sollten frühzeitig entscheiden, ob sie ihre Inhalte dem KI-Training ganz oder teilweise entziehen oder im Gegenteil aktiv in entstehende Lizenzmärkte einbringen wollen. Parallel stellt sich die Frage, wie man sich institutionell aufstellt – über Verwertungsgesellschaften, Verbände oder eigene Rechteplattformen –, um in künftigen Verhandlungen nicht nur Zuschauer zu sein.
Und schließlich betrifft der Bericht auch alle Unternehmen, die „nur“ Nutzer von KI sind. Wer generative KI in Produkten, im Marketing, in der Softwareentwicklung oder in internen Prozessen einsetzt, muss künftig genauer hinschauen: Wie geht der jeweilige Anbieter mit Trainingsdaten um? Welche Zusicherungen gibt es zur Rechtmäßigkeit des Trainings und zur Beachtung von Opt-outs? Wie sind Haftungsrisiken verteilt? KI-Governance wird damit zur Querschnittsaufgabe, in der urheberrechtliche Fragen neben Datenschutz und KI-Verordnung einen festen Platz bekommen.
Was sollen Unternehmen jetzt tun?
Zum Schluss stellt sich die praktische Frage: Was sollten Unternehmen jetzt – und ohnehin schon – konkret tun?
- Generative KI sollte nur dort eingesetzt werden, wo sichergestellt werden kann, dass der Output keine Rechte Dritter verletzt. Das bedeutet in der Praxis etwa bei KI-generiertem Code, dass systematische Lizenz- und Compliance-Scans etabliert werden, um unerkannt übernommene Open-Source-Komponenten oder proprietäre Bausteine zu identifizieren. Ähnliches gilt für Texte, Bilder, Musik und Designs: Unternehmen sollten vertraglich und technisch absichern, dass die verwendeten KI-Dienste entweder auf rechtmäßig lizenzierten Trainingsdaten basieren oder entsprechende Freistellungen und Garantien bieten – und diese nicht nur „auf dem Papier“ stehen, sondern durch Prozesse und Audits flankiert werden.
- Es empfiehlt sich, ein eigenes KI-Nutzungsregime im Unternehmen zu schaffen. Dazu gehört eine interne Richtlinie, die festlegt, welche Systeme für welche Zwecke eingesetzt werden dürfen, welche Inhalte nicht in externe KI-Dienste eingegeben werden sollen (etwa vertrauliche oder hochsensible Daten) und welche Prüfschritte vor einer externen Veröffentlichung von KI-Inhalten durchlaufen werden müssen. Verantwortlichkeiten – etwa bei Rechtsabteilung, IT und Fachbereichen – sollten klar benannt sein.
- KI-Anbieter und größere Nutzer sollten ihre Daten- und Trainingsstrategien schon jetzt dokumentieren. Wer selbst Modelle trainiert, sollte festhalten, welche Datenquellen genutzt werden, welche Rechte daran bestehen und wie auf etwaige Opt-outs reagiert wird. Diese Dokumentation wird künftig nicht nur gegenüber Behörden, sondern auch gegenüber Geschäftspartnern und Investoren an Bedeutung gewinnen.
- Unternehmen, die umfangreiche eigene Inhalte produzieren – Medien, Plattformen, Markenunternehmen –, sollten zeitnah entscheiden, ob und unter welchen Bedingungen sie ihre Inhalte für KI-Training zur Verfügung stellen wollen. Dazu gehört, technische Opt-out-Möglichkeiten zu prüfen, aber auch Szenarien zu entwickeln, wie sich Inhalte in Lizenz- oder Vergütungsmodelle einbringen lassen, wenn sich entsprechende Märkte etablieren.
- Bestehende Verträge mit KI-Anbietern, Softwarelieferanten und Dienstleistern sollten überprüft und bei neuen Verträgen klare Regelungen zu Urheberrechten, Trainingsdaten, Haftung und Freistellung aufgenommen werden. Je stärker der Gesetzgeber Transparenz und Dokumentation fordert, desto wichtiger werden vertragliche Zusicherungen, die sich im Zweifel auch durchsetzen lassen.
- Schließlich ist es sinnvoll, den regulatorischen Prozess aktiv zu begleiten – sei es über Branchenverbände, Unternehmensnetzwerke oder Konsultationsverfahren. Wer frühzeitig Rückmeldungen gibt, kann dazu beitragen, dass künftige Regeln praxistauglich werden und nicht an der Realität von Geschäftsmodellen vorbeigehen.
