November 2025. Das Landgericht München verurteilt OpenAI wegen Urheberrechtsverletzung. Die GEMA feiert. Die Kreativbranche atmet auf. Endlich schützt jemand die Kleinen.
Nur: Wer sind „die Kleinen"?
Die GEMA vertritt über 100.000 Mitglieder. Aber wie bei Spotify gilt: Wenige kassieren viel, viele kassieren fast nichts. Das Verteilungsprinzip belohnt Masse. Wer 50.000 Titel im Katalog hat, sitzt am längeren Hebel. Wer zwölf Songs geschrieben hat, bekommt Centbeträge — wenn überhaupt.
Dieser Artikel handelt nicht davon, ob die GEMA-Klage berechtigt war. Das war sie. Er handelt von der Frage dahinter: Wem nützt strenge KI-Regulierung tatsächlich? Die Antwort ist unbequem. Lizenzpflichten für Trainingsdaten, Opt-out-Mechanismen, Vergütungsansprüche — das alles klingt nach Schutz für Kreative. In der Praxis profitieren vor allem jene, die große Rechtekataloge verwalten: Verlage, Labels, Verwertungsgesellschaften. Einzelne Illustratoren, freie Autoren, Indie-Musiker haben weder die Infrastruktur noch die Verhandlungsmacht, um von diesen Systemen proportional zu profitieren.
Das ist kein Verschwörungsargument. Es ist die Logik jedes Vergütungssystems: Wer mehr einbringt, bestimmt die Regeln der Verteilung.
Der Text analysiert diese Asymmetrie mit Bourdieu und Luhmann. Er zeigt, warum Verwertungsgesellschaften systemrational handeln — und warum Systemrationalität und Gerechtigkeit nicht dasselbe sind. Und er fragt, ob das Urheberrecht überhaupt das richtige Werkzeug ist für eine Welt, in der Maschinen Musik machen.
Wie die Verwertungskette wirklich funktioniert
Vier Verfahren, ein Muster. Alle drehen sich um dieselbe Frage: Darf KI mit geschützten Werken trainiert werden? Aber die Antworten fallen unterschiedlich aus — je nachdem, wer klagt und wo.
München, November 2025. Die GEMA verklagt OpenAI. Das Landgericht urteilt: ChatGPT hat Songtexte von Grönemeyer, Helene Fischer und Rolf Zuckowski gespeichert und auf einfache Nachfrage ausgespuckt. Urheberrechtsverletzung. OpenAI muss zahlen. Die GEMA feiert das als Grundsatzurteil. OpenAI prüft Berufung.¹
München, März 2026. Dasselbe Gericht, anderer Gegner. Die GEMA klagt gegen Suno, einen KI-Musikgenerator. Suno hat per Stream-Ripping YouTube-Aufnahmen abgegriffen und damit sein Modell trainiert. Die Ergebnisse klingen wie die Originale. Suno widerspricht: Das Modell speichere keine Trainingsdaten, der Output sei Nutzerverantwortung. Die Richterin verwies auf das OpenAI-Urteil. Entscheidung am 12. Juni 2026.²
London, November 2025. Getty Images verklagt Stability AI wegen 12 Millionen geschützter Fotos, die zum Training von Stable Diffusion genutzt wurden. Ergebnis: Getty verliert. Das Gericht weist die Copyright-Klage ab. Begründung: Die Modellgewichte seien keine „Kopien" der Originalwerke im Sinne des britischen Urheberrechts. Getty gewann nur bei einem Randaspekt — das Modell hatte in frühen Versionen Getty-Wasserzeichen reproduziert. Ein Pyrrhussieg: Getty muss fast 70 Prozent von Stabilitys Prozesskosten tragen, umgerechnet rund 4,4 Millionen Pfund.³
New York, laufend. Die New York Times verklagt OpenAI wegen systematischer Nutzung ihrer Artikel als Trainingsdaten. Das Verfahren ist politisch aufgeladen, juristisch komplex, und noch ohne Urteil.
Vier Klagen, vier verschiedene Rechtsräume, vier verschiedene Ausgänge. Was auffällt: Die beiden Erfolge — München — gingen von einer Verwertungsgesellschaft aus. Einer Organisation mit 100.000 Mitgliedern, eigenem Lizenzmodell, juristischer Abteilung und politischem Gewicht. Getty, ein börsennotierter Konzern mit 600.000 vertretenen Fotografen, scheiterte trotzdem.
Und jetzt die Frage, die niemand laut stellt: Wenn selbst Getty verliert — was kann ein freier Illustrator ausrichten? Eine Fotografin mit 200 Bildern auf Unsplash? Ein Songwriter mit zwölf Tracks auf Bandcamp?
Der Deutsche Kulturrat fordert „angemessene Vergütung" für Kreative, deren Werke für KI-Training genutzt werden. Das klingt richtig. Aber „angemessen" ist kein neutrales Wort. Angemessen für wen? Für den Verlag mit 50.000 Titeln im Backlist-Katalog? Oder für die Autorin, die einen Roman veröffentlicht hat?
Die Antwort hängt davon ab, wer die Verteilungsregeln schreibt. Und das sind selten die Kleinen.
Bourdieu, Luhmann — und die Logik der Felder
Die Urheberrechtsdebatte um KI wird fast immer als Zweikampf erzählt: Kreative gegen Tech-Konzerne. David gegen Goliath. Die Guten gegen die Datenkraken. Das ist nicht falsch. Aber es ist unvollständig. Denn innerhalb des „Kreativlagers" gibt es Machtverhältnisse, die diese Erzählung verdeckt. Zwei Theoretiker helfen, sie sichtbar zu machen.
Bourdieu: Das Feld und seine Türsteher
Pierre Bourdieu beschrieb kulturelle Märkte als „Felder" — soziale Räume mit eigenen Regeln, eigenen Hierarchien, eigener Währung. Das literarische Feld funktioniert anders als der Finanzmarkt, aber beide haben Gatekeeper, Aufnahmerituale und ungleiche Machtverteilung.
Was passiert, wenn KI in dieses Feld einbricht? Die Feldgrenzen verschieben sich. Plötzlich kann jeder mit einem Prompt einen Song produzieren, ein Buchcover gestalten, einen Artikel schreiben. Die Eintrittsbarriere sinkt. Das bedroht alle, die bisher vom hohen Eintritt profitiert haben.
Aber — und das ist der entscheidende Punkt — die Machtverhältnisse innerhalb des Feldes bleiben. Die GEMA sitzt weiterhin am Verhandlungstisch. Große Verlage kontrollieren weiterhin die Backlists. Verwertungsgesellschaften definieren weiterhin die Verteilungsschlüssel. Wer vorher drinnen war, ist immer noch drinnen. Wer vorher draußen war, bleibt es — nur unter verschärften Bedingungen.
Bourdieu nannte das die „Verleugnung des Ökonomischen": Das Feld behauptet, nur die Qualität zähle. Tatsächlich zählt der Zugang zu den Institutionen, die über Qualität entscheiden.
Konkret bedeutet das: Die GEMA entwirft ein Lizenzmodell für KI-Training. Aber das Geld fließt durch Strukturen, die für eine Welt gebaut wurden, in der Hits im Radio liefen. 30 Prozent Beteiligung an KI-Anbieter-Einnahmen klingt nach viel. Aber die interne Verteilung folgt dem Pro-Rata-Prinzip: Wer mehr Titel einbringt, bekommt mehr. Ein Musikverlag mit 50.000 Songs im Katalog profitiert proportional stärker als ein Songwriter mit zwölf Stücken. Das System ist formal fair. Strukturell ist es asymmetrisch.
Luhmann: Die Organisation, die sich selbst schützt
Niklas Luhmann beobachtete, dass Organisationen eine Eigenlogik entwickeln, die sich von ihrer erklärten Funktion unterscheidet. Eine Verwertungsgesellschaft hat die Funktion, Rechte wahrzunehmen. Aber als Organisation hat sie auch ein Interesse: Selbsterhalt. Einnahmenmaximierung. Relevanz. Diese beiden Logiken — Funktion und Interesse — sind nicht identisch. Manchmal widersprechen sie sich.
Die GEMA operiert an der Schnittstelle von Recht und Wirtschaft. Sie klagt juristisch — und handelt ökonomisch. Ihre Klage gegen OpenAI war rechtlich begründet. Aber sie war auch strategisch. Wer als Erster ein KI-Grundsatzurteil erstreitet, definiert die Spielregeln. Wer die Spielregeln definiert, kontrolliert den Markt.
Das ist nicht verwerflich. Es ist systemrational. Luhmann würde sagen: Die Organisation tut, was Organisationen tun. Sie sichert ihre Position im Feld.
Nur: Systemrationalität und individuelle Gerechtigkeit sind verschiedene Dinge. Die GEMA handelt rational, wenn sie Massenlizenzen verhandelt. Für den einzelnen Songwriter ist Massenlogik aber kein Schutz — sie ist eine Verwässerung.
Konkret bedeutet das: Die GEMA-Klage war richtig. Das Urteil war wichtig. Aber das Vergütungssystem, das dahintersteht, ist für eine andere Welt gebaut. Eine Welt, in der Tantiemen über Radioplay und Konzertaufführungen verteilt werden. Nicht für eine, in der KI millionenfach Inhalte generiert und niemand mehr weiß, welches Werk in welchem Output steckt.
Die Frage ist nicht, ob Kreative geschützt werden sollen. Die Frage ist, ob die Institutionen, die diesen Schutz organisieren, selbst Teil des Problems sind.
Wer klagt, wer profitiert, wer bleibt außen vor
Der rechtliche Rahmen: Wer darf was?
Das deutsche Urheberrecht erlaubt Text und Data Mining — auch für kommerzielle Zwecke. § 44b UrhG setzt dafür nur eine Bedingung: Der Zugang zu den Werken muss rechtmäßig sein. Rechteinhaber können per maschinenlesbarem Nutzungsvorbehalt widersprechen. Das klingt nach einem brauchbaren Instrument.⁴
Tatsächlich ist es das nicht. Was „maschinenlesbar" bedeutet, ist ungeklärt. Viele Kreative setzen auf robots.txt — eine simple Textdatei, die Webservern signalisiert, dass Crawling unerwünscht ist. Ob das urheberrechtlich als Nutzungsvorbehalt gilt, hat kein Gericht abschließend entschieden. Und selbst wenn: Eine robots.txt erstellen kann nur, wer eine eigene Website betreibt. Wer seine Bilder auf Unsplash hochlädt, seine Texte auf Medium veröffentlicht oder seine Musik auf Bandcamp vertreibt, hat keinen Zugriff auf die Servereinstellungen der Plattform.
Die EU-Ebene sieht ähnlich aus. Die DSM-Richtlinie von 2019 unterscheidet zwischen wissenschaftlichem TDM (Art. 3, keine Einschränkung) und kommerziellem TDM (Art. 4, mit Opt-out-Möglichkeit). Die Idee war sinnvoll. Die Umsetzung hinkt der Technologie hinterher.⁵
Was sich gerade verschiebt
Am 2. August 2026 werden die Transparenzpflichten der KI-Verordnung anwendbar. Chatbot-Betreiber müssen Nutzer informieren. Deepfakes müssen offengelegt werden. KI-generierte Texte zu öffentlich relevanten Themen brauchen eine Kennzeichnung — es sei denn, ein Mensch übernimmt die redaktionelle Verantwortung.⁶
Eine Ausnahme: Die maschinenlesbare Kennzeichnung synthetischer Inhalte nach Art. 50 Abs. 2 steht im Trilog zwischen Parlament, Rat und Kommission zur Debatte. Der zweite politische Trilog am 28. April 2026 scheiterte nach zwölf Stunden ohne Einigung. Nächster Termin: 13. Mai. Das Parlament will November 2026 als Frist, die Kommission Februar 2027. Wenn bis August kein Deal steht, gilt die Originalfrist — und viele Unternehmen wären unvorbereitet.⁷
Für den Artikel ist eine andere Verschiebung relevanter: Hochrisiko-KI-Systeme — etwa im Personalwesen oder in der Kreditwürdigkeitsprüfung — sollten ursprünglich ab August 2026 reguliert werden. Der Digital Omnibus schlägt Dezember 2027 vor. Die Pflichten werden nicht abgeschafft. Aber sie werden verzögert. Wer profitiert von der Verzögerung? Nicht die Kreativen, die auf Schutz warten. Sondern die Unternehmen, die mehr Zeit zum Anpassen brauchen.
Was die Zahlen sagen
Zwei empirische Studien zeigen, was passiert, wenn KI in kreative Märkte einbricht.
Goldberg und Lam von Stanford GSB und UCLA untersuchten eine große Stockfoto-Plattform, die Ende 2022 KI-generierte Bilder zuließ. Das Ergebnis: Die Gesamtmenge der Bilder explodierte. Firmen, die KI einsetzten, wuchsen um 88 Prozent. Gleichzeitig sank die Zahl menschlicher Anbieter. KI-Bilder verdrängten menschliche Arbeiten — weil Käufer sie bevorzugten. Günstiger, schneller, in größerer Vielfalt.⁸
Für die verbleibenden menschlichen Künstler gab es einen Silberstreif: Ihre Arbeiten wurden im Durchschnitt besser bewertet. Der Markt sortierte nicht pauschal aus — er polarisierte. Spitzenqualität überlebte. Der breite Mittelbau verschwand.
Peukert und Kollegen von der Universität Lausanne untersuchten Unsplash, eine Plattform mit sechs Millionen Fotos. Ihr Befund: Kreative, deren Bilder in ein KI-Training-Dataset aufgenommen wurden, verließen die Plattform häufiger und luden weniger neue Bilder hoch. Professionelle Fotografen reagierten stärker als Amateure.⁹
Zusammengenommen zeichnen die beiden Studien ein klares Bild: KI-Training verdrängt Kreative von Plattformen. KI-Output verdrängt menschliche Arbeiten am Markt. Und die Regulierung, die das verhindern soll, kommt spät, bleibt umstritten und nützt vor allem jenen, die die Infrastruktur haben, um sie zu nutzen.
Die Verlage: Schutz fordern, KI nutzen
Der Börsenverein des Deutschen Buchhandels veröffentlichte im November 2025 eine Handreichung für Verlage zum Umgang mit KI. Der Tenor: Transparenz, freiwillige Offenlegung, eigene Haltung entwickeln. Kein Siegel, keine Ampel — zu komplex, zu viele Graustufen.¹⁰
Gleichzeitig zeigt die KI-Studie 2026 des Börsenvereins: 31 Prozent der Verlagsmitarbeitenden halten KI inzwischen für bedeutsam — vor einem Jahr waren es neun Prozent. Ein Drittel baut bereits eigene KI-Lösungen. Verlage nutzen KI für Lektorat, Covergestaltung, Marketing, Metadatenoptimierung.¹¹
Das ist kein Widerspruch — aber es ist eine Spannung. Dieselbe Branche, die strenge Regulierung für KI-Training fordert, nutzt KI intern für Produktion. Sie will Schutz beim Input und Freiheit beim Output. Diese Doppelrolle wird im folgenden Abschnitt zum Thema.
Wo Künstlerschutz und Lobbyinteresse auseinandergehen
Spannung 1: Die Doppelrolle der Verlage
Großverlage fordern strenge Regulierung von KI-Training. Sie wollen, dass ihre Backlists — hunderttausende geschützte Werke — lizenziert werden müssen, bevor eine KI daraus lernt. Das ist ihr gutes Recht.
Gleichzeitig nutzen dieselben Verlage KI intern. Für Lektorat, Übersetzung, Coverentwürfe, Metadaten. Ein Drittel baut bereits eigene Lösungen. Die Handreichung des Börsenvereins empfiehlt sogar, eine „verlagseigene Haltung" zur KI-Nutzung zu entwickeln — nicht ob, sondern wie.
Das ist rational. Aber es erzeugt eine Asymmetrie: Verlage fordern Regulierung für den Input — und profitieren von der Deregulierung beim eigenen Output. Je strenger die Lizenzpflicht für Trainingsdaten, desto wertvoller werden bestehende Kataloge. Der Backlist-Besitzer gewinnt doppelt: Er kassiert Lizenzgebühren und senkt seine eigenen Produktionskosten durch KI.
Wer nicht über Backlists verfügt — ein Self-Publisher, eine freie Übersetzerin, ein unabhängiger Illustrator — profitiert von keiner Seite dieser Gleichung.
Spannung 2: Verwertungsgesellschaften und die Massenlogik
Die GEMA, die VG Wort, die VG Bild-Kunst — sie alle handeln im Auftrag ihrer Mitglieder. Aber „Mitglieder" ist keine homogene Masse. Die Interessen eines Musikverlags mit 50.000 Titeln decken sich nicht mit denen eines Singer-Songwriters mit zwölf Songs.
Das Problem steckt im Verteilungsmechanismus. Das Pro-Rata-Modell, das auch Spotify nutzt, verteilt Einnahmen proportional zur Nutzung. Wer mehr einbringt, bekommt mehr. Formal fair. Strukturell begünstigt es Masse.
Alternative Modelle existieren. Eine nutzerbasierte Verteilung würde Einnahmen danach aufteilen, was der einzelne Nutzer tatsächlich hört — nicht danach, was insgesamt am meisten gestreamt wird. Eine Pauschalvergütung mit Sockel würde jedem Urheber einen Mindestbetrag garantieren. Beide Ansätze werden diskutiert. Keiner wird umgesetzt.
Warum nicht? Weil die Verteilungsregeln von denen geschrieben werden, die vom bestehenden System profitieren. Das ist keine böse Absicht. Es ist organisationale Trägheit. Luhmann würde sagen: Das System reproduziert sich selbst.
Spannung 3: Opt-out als Scheinlösung
Der Nutzungsvorbehalt nach § 44b UrhG gibt Rechteinhabern theoretisch die Möglichkeit, KI-Training zu verhindern. Praktisch braucht es dafür: eine eigene Website, technisches Wissen zur Implementierung von robots.txt oder Wasserzeichen, und die Ressourcen, um die Einhaltung zu überwachen.
Ein Verlag mit IT-Abteilung schafft das. Eine freie Autorin, die auf Amazon KDP veröffentlicht? Schwierig. Eine Fotografin, die auf Stock-Plattformen verkauft? Fast unmöglich — die Plattform kontrolliert die Servereinstellungen, nicht die Urheberin.
Opt-out klingt nach Selbstbestimmung. Tatsächlich ist es ein Instrument, das technische und finanzielle Kapazitäten voraussetzt. Wer sie nicht hat, ist de facto eingewilligt — ohne je gefragt worden zu sein.
Spannung 4: Creative Commons und die Falle der Offenheit
Eine besonders bittere Variante betrifft Kreative, die ihre Werke unter freien Lizenzen veröffentlicht haben. CC-BY erlaubt die Nutzung, auch kommerziell, solange der Urheber genannt wird. Viele Fotografen, Musiker und Autoren haben diese Lizenz gewählt, um Reichweite zu gewinnen. Offenheit als Strategie.
Dann kamen die KI-Trainingsdatensätze. LAION, Common Crawl, The Pile — sie alle enthalten CC-lizenzierte Werke. Und die Lizenzbedingungen erlauben das. Wer unter CC veröffentlicht hat, kann die Nutzung als Trainingsdaten nicht nachträglich verbieten. Die Lizenz wurde für eine Welt geschrieben, in der „Nutzung" bedeutete: Ein Mensch liest, hört, sieht. Nicht: Eine Maschine extrahiert Muster und generiert Konkurrenzprodukte.
Die systemtheoretische Pointe
Alle vier Spannungen zeigen dasselbe Muster. Das System schützt, was es kennt: organisierte Rechteinhaber mit Katalogen, Mitgliedschaften, juristischen Abteilungen. Was es nicht kennt — den einzelnen Freelancer ohne VG-Mitgliedschaft, die Hobbyfotografin auf Unsplash, den Songwriter auf Bandcamp — fällt durch die Maschen.
Nicht weil jemand es so gewollt hätte. Sondern weil Systeme so funktionieren.
Was Einzelne, Organisationen und Politik tun können
Die Analyse der vorangegangenen Abschnitte lässt sich in einem Satz zusammenfassen: Die Regulierung schützt organisierte Rechteinhaber besser als individuelle Kreative. Das ist kein Grund, die Regulierung abzulehnen. Aber es ist ein Grund, sie anders zu denken.
Drei Perspektiven.
Für Einzelne: Sichtbar werden im System
Wer als Kreative oder Kreativer von Vergütungssystemen profitieren will, muss im System existieren. Das klingt banal. Ist es nicht.
Erster Schritt: VG-Mitgliedschaft prüfen. Die VG Wort nimmt auch Self-Publisher auf. Die VG Bild-Kunst steht freien Illustratoren offen. Die GEMA hat Einstiegshürden, aber nicht unüberwindbare. Wer Mitglied ist, hat zumindest Anspruch auf Ausschüttungen. Wer es nicht ist, bekommt nichts — egal wie oft seine Werke genutzt werden.
Zweiter Schritt: Eigene Werke registrieren. Klingt altmodisch, ist aber relevant. Wer nachweisen will, dass eine KI mit seinen Texten, Bildern oder Songs trainiert wurde, braucht einen dokumentierten Bestand. Zeitstempel, Veröffentlichungsnachweise, Metadaten. Ohne Dokumentation kein Anspruch.
Dritter Schritt: Nutzungsvorbehalt technisch umsetzen — soweit möglich. Wer eine eigene Website betreibt, kann robots.txt konfigurieren und Crawler blockieren. Wer auf Plattformen publiziert, sollte die AGB lesen. Manche Plattformen erlauben Opt-out. Viele nicht. Das zu wissen ist kein Schutz. Aber es ist ein Anfang.
Eine Illusion sollte man sich dabei nicht machen: Diese Schritte schließen die strukturelle Lücke nicht. Sie mildern sie. Ein Freelancer mit VG-Mitgliedschaft und sauberer Dokumentation ist besser aufgestellt als einer ohne. Aber er sitzt immer noch nicht am Verhandlungstisch, an dem die Verteilungsschlüssel festgelegt werden.
Für Organisationen: Haltung zeigen, bevor sie erzwungen wird
Die Handreichung des Börsenvereins geht in die richtige Richtung: Verlage sollen eine eigene Haltung zur KI-Nutzung entwickeln und transparent kommunizieren. Kein Siegel, kein Zwang — Selbstverpflichtung.
Das reicht nicht.
Transparenz ist dann glaubwürdig, wenn sie unbequeme Fragen beantwortet. „Wir nutzen KI für Coverentwürfe" — das reicht nicht. Dazu gehört auch: „Wir nutzen KI für Lektorat, und das hat Auswirkungen auf unsere freien Lektoren." Wer Lizenzgebühren für die eigene Backlist fordert, muss auch sagen, welcher Anteil davon bei den Autoren ankommt, die die Werke geschrieben haben.
Organisationen, die KI-Nutzung intern fördern und Regulierung extern fordern, brauchen eine kohärente Position. Wer beides tut, ohne die Spannung zu benennen, verliert Glaubwürdigkeit. Wer die Spannung benennt und offen damit umgeht, gewinnt Vertrauen. In einer Branche, die auf dem Vertrauen zwischen Autor und Verlag gebaut ist, ist das kein Luxus. Es ist Geschäftsgrundlage.
Konkret heißt das: Lizenzmodelle für KI-Training nicht nur fordern, sondern mitgestalten. Wer abwartet, bis die GEMA oder die EU die Regeln festlegt, akzeptiert Regeln, die er nicht beeinflusst hat.
Für Politik: Die Verteilungsfrage stellen
Die politische Debatte dreht sich fast ausschließlich um die Zugangsfrage: Darf KI mit geschützten Werken trainiert werden? Ja oder nein? Opt-in oder Opt-out? Das ist wichtig. Aber es ist nur die halbe Frage.
Die andere Hälfte: Wenn Vergütung fließt — wie wird sie verteilt?
Das Pro-Rata-Modell, das Streaming-Dienste und Verwertungsgesellschaften nutzen, verteilt proportional zur Masse. Wer viel einbringt, bekommt viel. Das belohnt Katalogbesitzer. Es bestraft Nischenkünstler. Und es ignoriert die Frage, wessen Werk tatsächlich im KI-Output steckt — eine Frage, die technisch ohnehin kaum zu beantworten ist.
Zwei Alternativen verdienen Aufmerksamkeit. Eine nutzerbasierte Verteilung würde Einnahmen danach aufteilen, welche Werke ein konkreter Nutzer tatsächlich konsumiert. SoundCloud hat das 2021 eingeführt. Deezer testet ein ähnliches Modell. Eine Studie des Centre National de la Musique zeigte: Nischenkünstler profitieren, Top-Acts verlieren leicht.¹² Eine Pauschalvergütung mit Sockel würde jedem registrierten Urheber einen Mindestbetrag garantieren — unabhängig davon, wie oft seine Werke genutzt wurden. Ähnlich wie die Ausschüttungen der VG Wort, die nicht nur Bestseller-Autoren erreichen, sondern auch Wissenschaftler mit einem einzigen Fachaufsatz.
Beide Modelle haben Schwächen. Nutzerbasierte Verteilung ist datenintensiv. Pauschalvergütung schafft Mitnahmeeffekte. Aber beide stellen die Frage, die das Pro-Rata-Modell umgeht: Ist proportionale Verteilung gerecht, wenn die Ausgangslage ungleich ist?
Das Urheberrecht hat auf diese Frage keine Antwort. Es schützt Rechte. Es verteilt keine Ressourcen. Vielleicht braucht es deshalb ein Instrument jenseits des Urheberrechts. Eines, das nicht nur fragt, wem ein Werk gehört. Sondern wie der Wert, den KI aus Millionen von Werken generiert, an die zurückfließt, die ihn möglich gemacht haben.
Urheberrecht, Organisation, Gerechtigkeit
Dieser Artikel hat eine Asymmetrie beschrieben. Keine Verschwörung, kein Skandal — eine Struktur. Verwertungsgesellschaften handeln rational. Verlage handeln rational. Die Regulierung funktioniert nach der Logik, für die sie gebaut wurde. Nur passt die Logik nicht mehr zur Welt.
Drei Fragen bleiben offen. Keine davon hat eine einfache Antwort.
Ist das Urheberrecht das richtige Werkzeug?
Das Urheberrecht schützt individuelle Werke. Es setzt voraus, dass sich ein konkretes Werk identifizieren lässt, das verletzt wurde. Bei KI-Training löst sich diese Voraussetzung auf. Ein Sprachmodell lernt aus Millionen von Texten. Kein einzelner Text „steckt" im Output — aber alle zusammen haben ihn ermöglicht. Das Urheberrecht kennt keinen Anspruch für kollektive Wertschöpfung ohne individuell nachweisbare Verletzung. Vielleicht braucht es ein neues Rechtsgebiet: eines, das nicht fragt „Wessen Werk wurde kopiert?", sondern „Wessen Arbeit hat den Wert erzeugt, von dem andere profitieren?"
Können Kreative sich organisieren, bevor die Verteilungsfrage entschieden ist?
Die Verteilungsregeln werden jetzt geschrieben. In Brüssel, in München, in den Vorstandszimmern der Verwertungsgesellschaften. Wer nicht am Tisch sitzt, wird verteilt. Freie Kreative — Illustratoren, Übersetzer, Indie-Musiker, Fotografen — sind strukturell unterrepräsentiert. Nicht weil sie keine Interessen hätten. Sondern weil sie keine Organisation haben, die für sie verhandelt. Die VGs vertreten ihre Mitglieder. Aber die Mitgliedschaftslogik bevorzugt Masse. Gibt es Organisationsformen jenseits der VG-Struktur? Gewerkschaften für Plattformkreative? Genossenschaften für Trainingsdaten? Die Frage ist offen. Die Zeit drängt.
Was wäre gerecht?
Hinter den juristischen und ökonomischen Debatten liegt eine normative Frage, die niemand gern stellt: Ein KI-Unternehmen mit einer Bewertung von einer halben Billion Dollar verdient Milliarden. Die Basis: die Arbeit von Millionen unentgeltlicher Kreativer. Ist das gerecht? Und wenn nein — was wäre die Alternative? Eine Steuer auf KI-generierte Inhalte? Ein Fonds für Kreative? Ein bedingungsloses Grundeinkommen für Kulturschaffende?
Keine dieser Ideen ist neu. Keine ist ausgereift. Aber alle sind nötiger als vor zwei Jahren.
Dieser Artikel ist der dritte einer Reihe. Artikel 1 fragte, wo das Werkzeug aufhört und der Schöpfer anfängt — die juristische Grundfrage. Artikel 2 fragte, ob die Gesellschaft den Autor noch braucht — die kulturphilosophische Frage. Dieser Artikel fragte, wem die Regulierung nützt — die politökonomische Frage.
Bourdieu, Luhmann, Empirie
Dieser Abschnitt richtet sich an Leser mit sozialwissenschaftlichem oder juristischem Hintergrund. Er vertieft die theoretischen Grundlagen, benennt die Grenzen der Übertragung und macht die interpretative Leistung des Artikels transparent.
Zur Bourdieu-Rezeption
Die Anwendung von Bourdieus Feldtheorie auf den KI-Urheberrechtskonflikt ist eine Extrapolation. Bourdieu analysierte das literarische Feld des 19. Jahrhunderts — Flaubert, Zola, die Autonomisierung der Kunst gegenüber dem Markt. Generative KI konnte er nicht antizipieren.
Trotzdem eignet sich die Feldtheorie besser als die meisten Alternativen, um die Machtdynamik innerhalb des Kreativlagers zu beschreiben. Der Grund: Bourdieu dachte Kultur nie als herrschaftsfreien Raum. Sein Konzept des „Autonomiepols" beschreibt den Bereich des Feldes, in dem symbolisches Kapital schwerer wiegt als ökonomisches. Das erklärt, warum bestimmte Akteure Regulierung befürworten, die ihnen ökonomisch nützt — und sie zugleich als Schutz der Kunst rahmen. Das ist kein Zynismus. Es ist die Doppelstruktur des Feldes selbst.
Eine Grenze der Übertragung verdient Benennung: Bourdieu setzte voraus, dass Feldgrenzen relativ stabil sind. KI destabilisiert sie radikal. Wenn jeder mit einem Prompt ein Buch schreiben kann, löst sich die Eintrittsbarriere auf, die das Feld konstituiert. Ob Bourdieus Feldtheorie unter diesen Bedingungen noch greift oder ob wir ein post-feldtheoretisches Modell brauchen, ist eine offene Forschungsfrage.
Zur Luhmann-Anwendung
Luhmann hat sich weder zu KI noch zum Urheberrecht im engeren Sinne geäußert. Die Anwendung seiner Konzepte — funktionale Differenzierung, Beobachtung zweiter Ordnung, Organisationslogik — auf die GEMA und den Regulierungsdiskurs ist eine interpretative Leistung dieses Artikels, keine Luhmann-Exegese.
Zwei Konzepte tragen die Argumentation. Erstens: Organisationen entwickeln eine Eigenlogik, die sich von ihrer erklärten Funktion unterscheidet. Die GEMA hat die Funktion der Rechtewahrnehmung. Als Organisation hat sie das Interesse des Selbsterhalts. Beide Logiken können konvergieren — und auseinanderfallen. Zweitens: Beobachtung zweiter Ordnung. Das Rechtssystem beobachtet, wer „schöpft". Es kann aber seinen eigenen blinden Fleck nicht beobachten: Taugt die Kategorie „Schöpfung" für KI-generierte Inhalte überhaupt noch? Diese Problemverschiebungsfigur stammt aus Luhmanns Risikosoziologie von 1991 und wurde hier übertragen.
Methodisch ist das vertretbar, solange die Übertragung als solche kenntlich gemacht wird. Dieser Abschnitt tut das.
Zur Empirie: Was die Studien nicht zeigen
Die Stanford-Studie von Goldberg und Lam untersucht eine einzelne Stockfoto-Plattform. Die Ergebnisse — Verdrängung menschlicher Anbieter, Qualitätsverbesserung bei Verbleibenden — lassen sich nicht ohne Weiteres auf andere kreative Märkte übertragen. Buchmarkt, Musikmarkt und Bildmarkt haben unterschiedliche Eintrittsbarrieren, Distributionsstrukturen und Vergütungsmodelle.
Die Peukert-Studie untersucht Unsplash — eine Plattform, auf der Fotografen ihre Werke kostenlos zur Verfügung stellen. Das Verhalten von Kreativen auf einer Gratisplattform ist nicht identisch mit dem Verhalten auf kommerziellen Marktplätzen. Die Studie zeigt einen Mechanismus (KI-Training löst Abwanderung aus), aber seine Generalisierbarkeit ist begrenzt.
Beide Studien sind methodisch solide. Aber wer aus ihnen politische Schlussfolgerungen ableitet — wie dieser Artikel es tut —, sollte die Begrenztheit der empirischen Basis benennen. Das geschieht hiermit.

Teil 1 der Reihe

Teil 2 der Reihe
Quellenverzeichnis
Juristische Quellen
§ 2 Abs. 2 UrhG — Persönliche geistige Schöpfung als Schutzvoraussetzung.
§ 44b UrhG — Text und Data Mining. Erlaubt TDM für alle Zwecke, auch kommerzielle. Rechteinhaber können per maschinenlesbarem Nutzungsvorbehalt widersprechen.
Richtlinie (EU) 2019/790 (DSM-Richtlinie), Art. 3 und 4 — TDM-Schranken für wissenschaftliche und kommerzielle Nutzung.
Verordnung (EU) 2024/1689 (KI-Verordnung / AI Act), Art. 50 — Transparenzpflichten für KI-Systeme. Abs. 1, 3, 4 anwendbar ab 2. August 2026. Abs. 2 im laufenden Trilog (Stand Mai 2026).
LG München I, Urt. v. 11.11.2025, Az. 42 O 14139/24 — GEMA vs. OpenAI. Urheberrechtsverletzung durch Memorisierung und Wiedergabe geschützter Songtexte bejaht. Nicht rechtskräftig.
LG München I, Klage v. 21.01.2025, Verhandlung 09.03.2026 — GEMA vs. Suno Inc. Urteilsverkündung angesetzt auf 12.06.2026. KI-generierte Audioinhalte und Stream-Ripping als Trainingsdatenquelle.
High Court of England and Wales, Urt. v. 04.11.2025, [2025] EWHC 2863 (Ch) — Getty Images vs. Stability AI. Sekundäre Urheberrechtsverletzung abgewiesen. Begrenzte Markenrechtsverletzung (Wasserzeichen). Berufung zugelassen (Dezember 2025).
Europäische Kommission — Digital Omnibus on AI, Vorschlag v. 19.11.2025. Verschiebung der Hochrisiko-Fristen (Anhang III: Dezember 2027, Anhang I: August 2028). Zweiter Trilog am 28.04.2026 ohne Einigung. Nächster Termin: 13.05.2026.
Empirische Quellen
Goldberg, Samuel / Lam, H. Tai (2025): Generative AI & Creative Goods: Market Expansion, Crowd-Out, and Copyright. Stanford University Graduate School of Business Research Paper. SSRN: 5152649. DOI: 10.2139/ssrn.5152649.
Peukert, Christian / Abeillon, Florian / Haese, Jannis / Kaiser, Florian / Staub, Alexander (2024): AI and Dynamic Supply of Training Data. University of Lausanne. arXiv: 2404.18445.
Börsenverein des Deutschen Buchhandels / Highberg (2026): KI-Studie 2026: Vom Experiment zum Standard. Befragung von 196 Fach- und Führungskräften in Verlagen.
Börsenverein des Deutschen Buchhandels, IG Digital / Ausschuss für Verlage (2025): Handreichung zur Entwicklung einer verlagseigenen Haltung im Umgang mit KI. Veröffentlicht 06.11.2025.
Deutscher Kulturrat (2025): Stellungnahme KI und Urheberrecht. Veröffentlicht 13.01.2025.
Centre National de la Musique (2021): Impact of online music streaming services adopting the UCPS. Studie mit Deezer-Daten zur nutzerzentrischen Vergütung.
Theoretische Quellen
Bourdieu, Pierre (1992/1999): Die Regeln der Kunst. Genese und Struktur des literarischen Feldes. Suhrkamp, Frankfurt am Main 1999. Französisches Original: Les règles de l'art. Genèse et structure du champ littéraire. Seuil, Paris 1992.
Bourdieu, Pierre (1983): Ökonomisches Kapital, kulturelles Kapital, soziales Kapital. In: Reinhard Kreckel (Hrsg.): Soziale Ungleichheiten. Soziale Welt, Sonderband 2. Schwartz, Göttingen 1983, S. 183–198.
Luhmann, Niklas (1990): Die Wissenschaft der Gesellschaft. Suhrkamp, Frankfurt am Main.
Luhmann, Niklas (1991): Soziologie des Risikos. de Gruyter, Berlin/New York.
Luhmann, Niklas (1993): Das Recht der Gesellschaft. Suhrkamp, Frankfurt am Main.
Luhmann, Niklas (1995): Die Kunst der Gesellschaft. Suhrkamp, Frankfurt am Main.
Endnoten
¹ LG München I, Urt. v. 11.11.2025, Az. 42 O 14139/24.
² LG München I, Klage v. 21.01.2025, Verhandlung 09.03.2026. Urteilsverkündung 12.06.2026.
³ High Court of England and Wales, Urt. v. 04.11.2025, [2025] EWHC 2863 (Ch).
⁴ § 44b UrhG.
⁵ Richtlinie (EU) 2019/790, Art. 3 und 4.
⁶ Verordnung (EU) 2024/1689, Art. 50.
⁷ Digital Omnibus on AI, Kommissionsvorschlag v. 19.11.2025.
⁸ Goldberg / Lam (2025), SSRN 5152649.
⁹ Peukert et al. (2024), arXiv 2404.18445.
¹⁰ Börsenverein, Handreichung v. 06.11.2025.
¹¹ Börsenverein / Highberg, KI-Studie 2026.
¹² Centre National de la Musique (2021), Impact of UCPS on streaming services, mit Deezer-Daten. SoundCloud UCPS seit April 2021.

