Die Grenze der Maschine: Wem gehört, was KI erschafft?

Zwischen Schöpfungshöhe und Kennzeichnungspflicht entsteht ein Vakuum — und mittendrin stehen Künstler, Verlage und Menschen, die auf KI-Werkzeuge angewiesen sind.

Geschrieben von
20 Minuten Lesezeit
Die Grenze der Maschine: Wem gehört, was KI erschafft?

Cover
Lädt...
0:00 14:15
KI-generiert

Drei Menschen, drei Werkzeuge, eine Frage

Drei Menschen öffnen morgens ihren Laptop. Ein Grafikdesigner markiert eine Fläche in Photoshop und tippt: „Ersetze Hintergrund durch Industriehalle, Morgenlicht.“ Adobe Firefly rechnet drei Sekunden. Das Bild steht.

Eine Autorin lässt ihr Manuskript durch ein KI-Lektorat laufen. Die Software streicht Wiederholungen, schlägt Umstellungen vor. Die Autorin nimmt die Hälfte an, verwirft den Rest.

Ein Mann mit Legasthenie diktiert seinen Fachartikel per Sprachsteuerung. Die KI formuliert seine Sätze aus. Er korrigiert, ergänzt, streicht. Am Ende steht ein Text, den er allein nicht hätte schreiben können — aber dessen Gedanken ausschließlich seine sind.

Alle drei schaffen etwas. Aber wer von ihnen schöpft im Sinne des Urheberrechts?

Die ehrliche Antwort: Das weiß niemand genau. Nicht der Gesetzgeber. Nicht die Gerichte. Nicht die Rechtsabteilungen der Verlage, die gerade Vertragsklauseln umschreiben. Das Urheberrecht kennt eine Kategorie — „persönliche geistige Schöpfung“ — und diese Kategorie stammt aus einer Zeit, in der Werkzeuge nicht zurückschrieben.

Ab dem 2. August 2026 greift die Kennzeichnungspflicht nach Art. 50 der EU-KI-Verordnung. Dann müssen KI-generierte Inhalte markiert werden. Das schafft Transparenz. Aber es wirft Fragen auf, die das Gesetz nicht beantwortet: Wo endet das Hilfsmittel? Wo beginnt die Maschine? Und was passiert mit Menschen, die KI nicht aus Bequemlichkeit nutzen — sondern weil sie ohne nicht können?

Dieser Artikel verfolgt drei Spuren: Das Recht und seine blinden Flecken. Die Regulierung und ihre Nebenwirkungen. Die Gerechtigkeit und ihre Leerstellen.

Wo KI heute schon mitschreibt

Der Grafikdesigner heißt nicht „der Grafikdesigner“. Er heißt Stefan und arbeitet seit zwölf Jahren bei einer Agentur in Stuttgart. Früher hat er Hintergründe von Hand freigestellt, Pixel für Pixel. Heute markiert er einen Bereich, beschreibt in zwei Sätzen, was er will, und Photoshop generiert. Der Rest des Tages gehört der Komposition, der Farbkorrektur, dem Kundengespräch. Stefan schöpft. Aber ein Teil seines Werkzeugs schöpft mit.

Die Autorin nutzt ein KI-Lektorat, das über ihren Roman liest wie ein aufmerksamer, aber geschmackloser Erstleser. Die Software findet Wiederholungen auf Seite 40 und Seite 187. Sie schlägt vor, einen Nebensatz umzustellen. Sie erkennt, dass ein Figurenname in Kapitel 3 anders geschrieben ist als in Kapitel 9. Was sie nicht kann: beurteilen, ob der Rhythmus eines Absatzes trägt. Ob eine Metapher sitzt. Ob der Schluss des Romans die Leserin trifft oder kalt lässt. Die Autorin entscheidet. Jedes Mal.

Dann ist da der Musiker, der abends an seinem Küchentisch einen Song produziert. Er gibt Suno AI eine Stimmung vor, einen Stil, ein paar Textfragmente. Die KI generiert einen Track. Der Musiker verwirft sechs Versionen, behält Elemente aus der siebten, mischt sie mit eigenen Aufnahmen. Das Ergebnis klingt nach ihm. Aber die Akkordfolge hat eine Maschine vorgeschlagen.

Und da ist der Mann mit Legasthenie, der seinen Fachartikel diktiert. Die Spracherkennung überträgt seine Worte. Die KI glättet die Grammatik, schlägt Formulierungen vor. Er prüft jeden Satz, streicht, was nicht stimmt, fügt hinzu, was fehlt. Der Gedankengang ist seiner. Die Formulierung ist es nur zur Hälfte.

Vier Szenarien. Vier unterschiedliche Grade von KI-Beteiligung. Und keines davon ist exotisch. Photoshop hat Generative Fill seit 2023. Word integriert Copilot. Notion schreibt auf Knopfdruck Zusammenfassungen. Grammarly korrigiert nicht nur Grammatik, sondern schlägt Umformulierungen vor. KI steckt längst in den Werkzeugen, die Millionen Menschen täglich benutzen. Die Frage ist nicht, ob KI am Schöpfungsprozess beteiligt ist. Die Frage ist, wo wir die Grenze ziehen — und warum gerade dort.

Einen Spiegel gibt es dafür schon lange. Er heißt Ghostwriting. Politiker lassen Bücher schreiben. Prominente lassen Memoiren verfassen. Geschäftsführer lassen Reden texten. Der Name auf dem Cover ist nicht der Name des Schreibers — und niemand verlangt eine Kennzeichnung. Das Urheberrecht regelt das über Nutzungsrechte. Der Ghostwriter überträgt seine Rechte, der Auftraggeber veröffentlicht. Sauber, legal, akzeptiert.

KI macht nur sichtbar, was beim Ghostwriting unsichtbar blieb: dass Autorschaft und Schöpfung nicht dasselbe sind. Und dass die Gesellschaft damit bisher kein Problem hatte — solange ein Mensch am anderen Ende saß.

0:00
/8:55

Warum das Recht die Maschine nicht einordnen kann

Ein Pinsel malt nicht von allein. Eine Kamera wählt kein Motiv. Eine Schreibmaschine formuliert keine Sätze um. Über Jahrhunderte war die Grenze zwischen Werkzeug und Schöpfer so selbstverständlich, dass niemand sie begründen musste. Das Werkzeug war passiv. Der Mensch war aktiv. Fertig.

Das Urheberrecht hat diese Selbstverständlichkeit in einen Rechtsbegriff gegossen: „persönliche geistige Schöpfung“ nach § 2 Absatz 2 des Urheberrechtsgesetzes. Der Begriff entstand nicht im luftleeren Raum. Er hat eine Geschichte. In den 1920er-Jahren stritt die Rechtswissenschaft darüber, ob Fotografie überhaupt Kunst sein kann — ein Apparat macht das Bild, nicht die Hand. Else Meißner argumentierte damals für die Schutzfähigkeit fotografischer Werke. Eugen Ulmer prägte 1959 den Werkbegriff, der bis heute gilt. Jedes Mal, wenn ein neues Werkzeug auftauchte — Kamera, Tonband, Synthesizer, Bildbearbeitungssoftware —, dehnte das Recht seinen Schöpfungsbegriff ein Stück weiter. Aber der Kern blieb: Am Anfang steht ein Mensch, der etwas will, und am Ende steht ein Werk, das dieses Wollen ausdrückt.

KI bricht dieses Muster. Nicht weil sie kreativ wäre. Nicht weil sie etwas wollte. Sondern weil sie im Prozess nicht mehr passiv ist. Sie schlägt vor, ergänzt, generiert. Der Mensch steuert, korrigiert, auswählt. Aber die Grenze zwischen Steuerung und Delegation verschwimmt. Und genau an dieser Stelle wird es interessant — nicht juristisch, sondern systemtheoretisch.

💡
Was meint „Beobachtung zweiter Ordnung“? Niklas Luhmann unterscheidet zwei Ebenen. Beobachtung erster Ordnung: Ein System beobachtet die Welt. Es sieht, was seine Kategorien zulassen. Beobachtung zweiter Ordnung: Ein Beobachter beobachtet, wie das System beobachtet — und erkennt, was dem System entgeht. Jedes System hat einen blinden Fleck: Es kann nicht gleichzeitig beobachten und die eigenen Beobachtungskategorien hinterfragen.

Das Urheberrecht beobachtet Schöpfung. Es fragt: Hat ein Mensch dieses Werk geschaffen? Erreicht es Schöpfungshöhe? Ist die Gestaltung individuell genug? Diese Fragen funktionieren, solange das Werkzeug stumm bleibt. Ein Maler, der einen Pinsel benutzt — klar, der Mensch schöpft. Ein Fotograf, der den Auslöser drückt — klar, trotz Apparat. Ein Designer, der einen Photoshop-Filter anwendet — noch klar, das Werkzeug transformiert nur.

Aber ein Mensch, der einen Prompt eingibt und ein Bild erhält? Der drei von zehn generierten Texten auswählt und einen davon überarbeitet? Der eine Melodie von Suno AI als Grundlage nimmt und darüber eigene Vocals legt?

Das Recht kann prüfen, ob Schöpfungshöhe vorliegt. Was es nicht prüfen kann: ob „Schöpfungshöhe“ noch die richtige Frage ist. Weil es diese Frage nicht stellen kann, ohne sein eigenes Fundament zu befragen. Und Fundamente befragen — das tun Rechtssysteme ungern.

Luhmann nannte das den blinden Fleck. Nicht als Vorwurf. Als Strukturmerkmal. Jedes Beobachtungssystem muss auswählen, was es sieht — und diese Auswahl macht es blind für alles andere. Das Urheberrecht sieht Mensch oder Maschine. Was es nicht sieht: den Prozess dazwischen. Das Hin und Her zwischen Prompt und Output, zwischen Verwerfung und Auswahl, zwischen maschinellem Vorschlag und menschlicher Entscheidung.

💡
Was meint „Problemverschiebung“? Luhmanns Risikosoziologie beschreibt, wie Systeme Probleme lösen und dabei neue erzeugen — die sie selbst nicht als Folge ihrer Lösung erkennen. Das gelöste Problem verschwindet aus dem Blickfeld. Das erzeugte Problem erscheint als eigenständiges, neues Phänomen.

Genau das passiert gerade. Die EU reagiert auf ein reales Problem: Deepfakes, Desinformation, Täuschung durch synthetische Medien. Die Lösung heißt Kennzeichnungspflicht — Art. 50 der KI-Verordnung. Das ist nachvollziehbar. Deepfakes sind gefährlich. Transparenz schützt.

Aber die Lösung erzeugt ein neues Problem, das sie nicht sieht. Die Kennzeichnungspflicht unterscheidet nicht zwischen Täuschungsabsicht und Werkzeugnutzung. Sie unterscheidet nicht zwischen einem Deepfake-Video eines Politikers und einem Buchcover, das ein sehbehinderter Autor mit KI gestaltet hat. Sie markiert beides als „KI-generiert“. Das eine zu Recht. Das andere mit Nebenwirkungen, die niemand wollte.

Das System löst Probleme, die es nicht erzeugt hat. Und erzeugt dabei Probleme, die es nicht sieht.

Für den Alltag heißt das: Wer KI als Werkzeug nutzt, muss beweisen, dass er trotzdem Schöpfer ist. Wer einen Ghostwriter beauftragt, muss das nicht. Der Unterschied liegt nicht in der kreativen Leistung. Er liegt darin, dass das Recht menschliche Delegation akzeptiert — aber maschinelle Delegation nicht einordnen kann. Noch nicht.

Drei juristische Stränge, die sich widersprechen

Die juristische Lage ist klarer, als die öffentliche Debatte vermuten lässt. Und gleichzeitig unklarer, als Juristen es gern hätten. Drei Stränge laufen parallel — und sie widersprechen sich an entscheidenden Stellen.

Strang 1: Wem gehört der Output?

Das Urheberrechtsgesetz schützt nur „persönliche geistige Schöpfungen“. Rein KI-generierte Inhalte — ein Bild aus Midjourney ohne menschliche Nachbearbeitung, ein Text aus ChatGPT ohne redaktionellen Eingriff — sind nicht geschützt. Sie gehören niemandem. Jeder darf sie verwenden, kopieren, weiterverkaufen. Das ist kein Versehen. Es ist die logische Folge des Schöpfungsbegriffs: Wo kein Mensch schöpft, entsteht kein Werk.

Komplizierter wird es bei Nachbearbeitung. Wer ein KI-generiertes Bild erheblich verändert, kann nach § 3 des Urheberrechtsgesetzes ein Bearbeitungsurheberrecht erwerben. Die Schwelle dafür ist allerdings unklar. „Erheblich“ ist kein Maßstab, den man nachmessen kann. Ein Gericht müsste im Einzelfall entscheiden — und bislang fehlen die Fälle.

Auch Prompts schützt das Urheberrecht grundsätzlich nicht. Theoretisch wäre ein Schutz denkbar, wenn ein Prompt „das Alltägliche deutlich überragt“ — so der BGH-Maßstab für Schöpfungshöhe. Praktisch dürfte das fast nie zutreffen. Ein Prompt ist eine Anweisung. Anweisungen sind selten Werke.

Strang 2: Was muss gekennzeichnet werden?

Art. 50 der KI-Verordnung enthält vier Absätze mit vier verschiedenen Pflichten. Die öffentliche Debatte wirft sie meist in einen Topf. Das verzerrt das Bild.

Absatz 1 richtet sich an Anbieter von KI-Systemen. Sie müssen sicherstellen, dass Outputs technisch als KI-generiert erkennbar sind — maschinenlesbar, nicht zwingend sichtbar für Endnutzer.

Absatz 2 betrifft synthetische Inhalte: Bilder, Audio, Video, Text. Sie müssen als künstlich erzeugt gekennzeichnet werden. Dieser Absatz trifft die breiteste Masse an Anwendungen — und er trifft sie undifferenziert. Ein mit KI generiertes Produktfoto und ein Deepfake-Video fallen unter dieselbe Regel.

Absatz 3 zielt auf Deepfakes. Wer Bilder oder Videos so manipuliert, dass sie realen Personen Handlungen oder Aussagen zuschreiben, muss das offenlegen.

Absatz 4 enthält die einzige Differenzierung: Texte, die zu Themen von öffentlichem Interesse veröffentlicht werden, sind von der Kennzeichnungspflicht ausgenommen — wenn ein Mensch die redaktionelle Verantwortung trägt. Verlage und Redaktionen können sich auf diese Ausnahme stützen. Einzelne Autoren, Blogger, Kreative ohne institutionellen Rahmen eher nicht.

Der Stichtag für Absatz 1, 3 und 4: 2. August 2026. Für Absatz 2 wird im Rahmen der Omnibus-Verordnung eine kurze Übergangsfrist diskutiert — das Europäische Parlament schlägt November 2026, die Kommission Februar 2027 vor. Das Trilog-Ergebnis steht aus.¹

Strang 3: Wer bezahlt für die Trainingsdaten?

Hier liegt die eigentliche Sprengkraft. KI-Modelle werden auf Milliarden von Texten, Bildern und Musikstücken trainiert. Viele davon sind urheberrechtlich geschützt. Die Frage, ob das legal ist, durchzieht gerade die europäische Rechtsprechung.

Das Urheberrechtsgesetz erlaubt Text-und-Data-Mining grundsätzlich — auch für kommerzielle Zwecke. Rechteinhaber können per maschinenlesbarem Nutzungsvorbehalt widersprechen. In der Praxis nutzen viele dafür robots.txt, aber ob das rechtlich als „maschinenlesbar“ im Sinne des Gesetzes gilt, ist umstritten.

Im November 2025 fiel das erste europäische Grundsatzurteil. Das Landgericht München I verurteilte OpenAI wegen Urheberrechtsverletzung. Die GEMA hatte geklagt, weil ChatGPT Songtexte aus ihrem Repertoire reproduzierte. Das Gericht stellte klar: Die TDM-Schranke rechtfertigt nicht die Speicherung und Wiedergabe geschützter Texte im Output. OpenAI hat im Dezember 2025 Berufung eingelegt. Das Verfahren läuft vor dem OLG München.²

Ein zweites Verfahren betrifft Suno Inc., den Anbieter einer Musik-KI. Die GEMA klagt, weil Suno per Stream-Ripping — dem Abgreifen von Audiodaten aus YouTube-Streams unter Umgehung technischer Schutzmaßnahmen — Trainingsdaten beschafft hat. Bei der Verhandlung am 9. März 2026 verwies die Richterin auf das OpenAI-Urteil und empfahl Suno einen Vergleich. Suno lehnte ab. Verkündungstermin: 12. Juni 2026.³

Was diese Verfahren zeigen: Die Rechtsprechung bewegt sich. Aber sie bewegt sich langsamer als die Technologie. Und die wirtschaftlichen Folgen sind bereits messbar. Eine Studie der Stanford Graduate School of Business untersuchte eine große Stockfoto-Plattform nach der Einführung von KI-Bildgeneratoren. Die Menge an KI-Bildern auf der Plattform stieg massiv an. Gleichzeitig sank die Zahl menschlicher Anbieter ohne KI um 23 Prozent. Die verbleibenden menschlichen Anbieter zeigten höhere Qualität — aber es waren eben weniger.⁴

Eine zweite Studie — Peukert und Kollegen an der Universität Lausanne — analysierte die Fotoplattform Unsplash. Kreative, deren Bilder in ein KI-Trainingsdataset aufgenommen wurden, verließen die Plattform häufiger und luden weniger hoch. Professionelle Fotografen reagierten stärker als Amateure.⁵

Zwei Studien, ein Muster: KI verdrängt nicht pauschal. Sie verdrängt selektiv. Und die Frage, wer bleibt und wer geht, hat wenig mit Talent zu tun — und viel mit ökonomischer Verhandlungsmacht.

Vier Paradoxien, die niemand auflöst

Wer die Lage für eindeutig hält, hat nicht genau genug hingeschaut. Vier Spannungen durchziehen die Debatte — und keine davon lässt sich auflösen, ohne etwas anderes zu verlieren.

Das Werkzeug-Paradox

Ein Fotograf drückt den Auslöser. Die Kamera belichtet den Sensor, rechnet das Bild, komprimiert die Datei. Niemand käme auf die Idee, dem Fotografen die Urheberschaft abzusprechen, weil die Kamera den größten Teil der technischen Arbeit erledigt hat.

Ein Designer öffnet Photoshop. Er markiert einen Himmel und klickt „Generative Fill“. Die KI erzeugt einen neuen Himmel. Der Designer passt Farbe und Kontrast an. Ist er Schöpfer? Oder Auftraggeber einer Maschine?

Die Grenze zwischen Werkzeug und Ersetzung ist nicht technisch bestimmbar. Sie ist eine Konvention. Die Kamera war einmal umstritten — heute nicht mehr. Der Synthesizer war einmal umstritten — heute nicht mehr. Die KI ist es gerade. Die Frage ist nicht, ob sie es bleibt. Die Frage ist, nach welchen Kriterien sich Konventionen verschieben. Und wer dabei mitredet.

Das Ghostwriting-Paradox

Ein Bundestagsabgeordneter lässt seine Biografie von einem Ghostwriter verfassen. Der Ghostwriter recherchiert, interviewt, schreibt. Am Ende steht der Name des Abgeordneten auf dem Cover. Urheberrechtlich sauber — der Ghostwriter überträgt seine Nutzungsrechte. Gesellschaftlich akzeptiert. Keine Kennzeichnungspflicht.

Ein Mann mit Legasthenie schreibt einen Blogbeitrag. Er diktiert seine Gedanken, die KI formuliert aus. Er korrigiert jeden Satz. Der Gedankengang ist seiner. Die sprachliche Ausformulierung teilweise nicht. Ab August 2026 möglicherweise kennzeichnungspflichtig.

Der Abgeordnete delegiert aus Bequemlichkeit. Der Legastheniker delegiert aus Notwendigkeit. Der erste braucht keine Kennzeichnung. Der zweite vielleicht schon. Wer das gerecht findet, muss erklären warum.

Der Barrierefreiheits-Widerspruch

Seit Juni 2025 gilt das Barrierefreiheitsstärkungsgesetz. Es verpflichtet Unternehmen, digitale Produkte und Dienstleistungen barrierefrei zu gestalten. KI spielt dabei eine zentrale Rolle: Spracherkennung für motorisch Eingeschränkte, Bildbeschreibung für Sehbehinderte, Textgenerierung für Menschen mit Lese-Rechtschreib-Schwäche. Das BFSG fördert diese Nutzung.

Ab August 2026 greift Art. 50 der KI-Verordnung. Synthetische Inhalte müssen gekennzeichnet werden. Ein sehbehinderter Autor, der sein Buchcover mit KI gestaltet, fällt unter Absatz 2 — synthetisches Bild, Kennzeichnung nötig. Die Ausnahme in Absatz 4 greift nur bei Texten zu öffentlichem Interesse und nur bei redaktioneller Verantwortung. Ein Buchcover ist kein Text. Ein selbstverlegter Autor hat keine Redaktion.

Zwei Gesetze. Eines fördert, was das andere stigmatisiert. Das BFSG sagt: Nutze KI, damit du teilhaben kannst. Art. 50 sagt: Wenn du KI nutzt, müssen wir das markieren. Für Menschen, die auf KI-Werkzeuge angewiesen sind, ist das kein Verwaltungsakt. Es ist ein Label.

Wie viele Menschen betrifft das? Legasthenie liegt bei etwa fünf Prozent der Bevölkerung. ADHS bei Erwachsenen bei rund fünf Prozent — wobei die meisten nicht diagnostiziert sind. Dazu kommen Sehbehinderungen, motorische Einschränkungen, kognitive Beeinträchtigungen. Es geht nicht um Randgruppen. Es geht um Millionen.

Die Lobbyismus-Frage

Strenge Regulierung klingt nach Schutz für Kreative. Aber wem nützt sie tatsächlich? Große Verlage sitzen auf Backlists — Tausende bereits veröffentlichte Werke, deren Verwertungsrechte bei ihnen liegen. Je strenger die Regulierung, desto wertvoller diese Bestände. Verwertungsgesellschaften wie die GEMA handeln im Auftrag ihrer Mitglieder. Aber ihre Verhandlungsmacht kommt den großen Rechteinhabern stärker zugute als der einzelnen Songwriterin, die drei Titel im Katalog hat.

Das ist kein Vorwurf. Es ist Systemlogik. Verwertungsgesellschaften handeln rational innerhalb ihres Auftrags. Aber ihre Rationalität deckt sich nicht automatisch mit dem Interesse jedes einzelnen Kreativen. Wer davon profitiert, wenn OpenAI zahlt — und wer nicht —, das ist eine Frage, die Artikel 3 dieser Serie genauer untersucht.

Was Einzelne, Organisationen und Politik tun können

Wer auf eine einfache Handlungsanweisung hofft, wird enttäuscht. Die Lage ist unübersichtlich, die Rechtsprechung in Bewegung, die Regulierung noch nicht in Kraft. Trotzdem lässt sich auf drei Ebenen handeln — oder zumindest vorbereiten.

Für Individuen: Den eigenen Prozess sichtbar machen

Das stärkste Argument für Urheberschaft ist ein dokumentierter Schöpfungsprozess. Wer KI als Werkzeug nutzt, sollte festhalten, was die Maschine beigetragen hat — und was nicht. Kein Aufwand, der Spaß macht. Aber ein Aufwand, der im Streitfall zählt.

Konkret: Ein Workflow-Logbuch. Welches Tool kam zum Einsatz? In welchem Schritt? Was wurde übernommen, was verworfen, was verändert? Nicht als bürokratische Pflichtübung, sondern als Nachweis, dass die kreative Entscheidung beim Menschen lag. Wer Prompts schreibt, auswählt, verwirft, kombiniert, überarbeitet — der schöpft. Aber er muss es zeigen können.

Für Kreative, die Verträge unterschreiben, kommt ein zweites Thema hinzu: Nutzungsrechte können nur eingeräumt werden, wenn Urheberrecht besteht. Wer einen rein KI-generierten Text an einen Verlag lizenziert, lizenziert etwas, das ihm nicht gehört. Nicht weil er betrogen hätte. Sondern weil das Urheberrecht den Text nicht schützt. Die Vertragsklauseln vieler Verlage sind auf diese Situation noch nicht vorbereitet. Wer jetzt Verträge unterschreibt, sollte nachfragen.

Und für Menschen mit Behinderung oder Neurodivergenz: Die kreative Leistung liegt bei euch. Die Formulierungshilfe ist das Äquivalent einer Brille. Kein Augenarzt würde verlangen, dass ihr auf den Brillenrahmen schreibt: „Dieses Sehen wurde technisch unterstützt.“ Dass die Rechtslage das bei KI möglicherweise anders sieht, ist ein Problem der Rechtslage — nicht eurer Arbeit.

Für Organisationen: Klarheit schaffen, bevor sie erzwungen wird

Verlage, Agenturen, Redaktionen stehen vor einer doppelten Aufgabe. Sie müssen klären, wie sie selbst KI einsetzen. Und sie müssen klären, was sie von ihren Autoren, Designern, Kreativen erwarten.

Der Börsenverein des Deutschen Buchhandels hat eine Handreichung veröffentlicht, die Verlage ermutigt, eine eigene KI-Haltung zu formulieren. Das klingt nach Strategie-Workshop. Gemeint ist etwas Praktischeres: Welche KI-Tools sind im Haus im Einsatz? Für welche Arbeitsschritte? Wer entscheidet, was übernommen wird? Wer trägt die redaktionelle Verantwortung?

Letzteres ist kein Formalismus. Art. 50 Absatz 4 der KI-Verordnung befreit Texte von der Kennzeichnungspflicht, wenn ein Mensch die redaktionelle Verantwortung übernimmt. Für Verlage und Redaktionen ist das eine nutzbare Ausnahme — aber nur, wenn die Verantwortung dokumentiert ist. Ein Vermerk im Content-Management-System reicht. Ein vages Gefühl reicht nicht.

Dazu kommt das Vertragsrecht. Bestehende Autorenverträge regeln KI-Nutzung oft nicht. Neue Verträge sollten drei Fragen beantworten: Darf der Autor KI einsetzen? Wenn ja, in welchem Umfang? Und wer haftet, wenn ein KI-gestützter Text Urheberrechte Dritter verletzt — etwa weil das Modell Trainingsdaten reproduziert?

Für Gesellschaft und Politik: Die Lücken füllen

Art. 50 der KI-Verordnung braucht eine Barrierefreiheits-Klausel. Nicht als Abschwächung der Transparenzpflicht, sondern als Differenzierung. Wer KI nutzt, weil er muss, steht in einer anderen Situation als jemand, der täuschen will. Die Verordnung macht diesen Unterschied nicht. Sie sollte es.

Ein Vorbild existiert. Der Vertrag von Marrakesch — ein WIPO-Abkommen von 2013 — erlaubt Urheberrechtsausnahmen zugunsten sehbehinderter Menschen. Die Analogie ist begrenzt: Der Vertrag betrifft den Zugang zu bestehenden Werken, nicht die Produktion neuer. Aber das Prinzip trägt. Teilhabe kann ein Grund sein, Urheberrechtsschranken anders zu setzen. Das hat die Weltgemeinschaft schon einmal entschieden.

Es fehlt auch ein Vergütungsmodell, das bei Kreativen ankommt. Die GEMA klagt gegen OpenAI und Suno. Wenn sie gewinnt, fließt Geld. Aber an wen? Verwertungsgesellschaften verteilen nach Schlüsseln, die große Rechteinhaber begünstigen. Eine Songwriterin mit drei Titeln im Katalog wird von einem Pauschalvergleich weniger profitieren als ein Major-Label mit zehntausend. Gerechtigkeit im Urheberrecht ist nicht nur eine Frage der Regeln. Es ist eine Frage der Verteilung.

Und schließlich: Das Leistungsschutzrecht. Es schützt wirtschaftliche Investitionen, nicht kreative Leistungen. Tonträgerhersteller, Sendeunternehmen, Datenbankhersteller haben Leistungsschutzrechte — ohne persönliche geistige Schöpfung. Ob ein ähnliches Recht für KI-Outputs sinnvoll wäre, wird diskutiert. Es wäre kein Urheberrecht. Es wäre ein Schutz der Investition in den Prozess. Die Debatte darüber hat gerade erst begonnen.

Drei offene Fragen

Dieser Artikel hat drei Spuren verfolgt. Das Recht und seine blinden Flecken. Die Regulierung und ihre Nebenwirkungen. Die Gerechtigkeit und ihre Leerstellen. Keine der drei Spuren führt zu einem sauberen Ergebnis. Das liegt nicht an mangelnder Recherche. Es liegt an der Sache selbst.

Die Werkzeug-Frage bleibt offen. Wenn eine Kamera ein Werkzeug ist und ein Synthesizer ein Werkzeug und Photoshop ein Werkzeug — warum ist eine KI keins? Die intuitive Antwort lautet: weil sie mehr tut. Aber „mehr“ ist kein Rechtsbegriff. Die Kamera tut auch mehr als der Pinsel. Der Synthesizer tut auch mehr als die Gitarre. Die Grenze zwischen Werkzeug und Ersetzung war nie technisch. Sie war immer eine Übereinkunft. Und Übereinkünfte lassen sich ändern.

Die Regulierungsfrage bleibt offen. Art. 50 der KI-Verordnung schafft Transparenz. Das ist ein Wert. Aber Transparenz ohne Differenzierung erzeugt Kollateralschäden. Wer Deepfakes kennzeichnen will, muss aufpassen, dass er nicht gleichzeitig assistive Technologien stigmatisiert. Die Verordnung ist noch nicht in Kraft. Es ist noch Zeit für eine Barrierefreiheits-Klausel. Ob der politische Wille dafür reicht, ist eine andere Frage.

Die Gerechtigkeitsfrage bleibt offen. Und sie reicht tiefer als das Urheberrecht. Kann ein Rechtssystem, das auf dem romantischen Geniebegriff des 18. Jahrhunderts basiert, die Realität des 21. Jahrhunderts abbilden? Das Urheberrecht schützt den einsamen Schöpfer, der aus sich heraus ein Werk gebiert. Dieses Bild war schon immer idealisiert — Kunst entsteht in Kontexten, in Traditionen, in Kollaborationen. KI macht nur drastisch sichtbar, was vorher leichter zu ignorieren war.

Zwei Fragen für die Weiterführung dieser Serie:

Roland Barthes erklärte 1967 den Autor als Sinngaranten für tot. Die KI liefert keinen neuen. Wer oder was tritt an die Stelle? Darüber handelt Artikel 2: Der Tod des Autors — und was danach kommt.

Die wirtschaftlichen Folgen der KI-Nutzung sind bereits messbar. Weniger Kreative auf Plattformen, ungeklärte Vergütungsmodelle, Machtverhältnisse, die sich verschieben. Wer profitiert, wer verliert, und nach welchen Regeln? Darüber handelt Artikel 3: Wer kassiert, wenn die Maschine schreibt.

Die Grenze der Maschine ist keine technische Grenze. Sie ist eine gesellschaftliche Verhandlung. Und diese Verhandlung hat gerade erst begonnen.

Art. 50 im Detail

Die vier Absätze von Art. 50 — was sie regeln und was nicht

Die öffentliche Debatte behandelt Art. 50 der KI-Verordnung meist als einen einzigen Regelungsblock: KI-Inhalte müssen gekennzeichnet werden. Das ist nicht falsch. Aber es ist so vereinfacht, dass es in die Irre führt.

Absatz 1 richtet sich ausschließlich an Anbieter von KI-Systemen — nicht an Nutzer. Wer ein KI-System auf den Markt bringt, muss dafür sorgen, dass dessen Outputs technisch als maschinell erzeugt erkennbar sind. Die Markierung soll maschinenlesbar sein, nicht zwingend für Endnutzer sichtbar. In der Praxis heißt das: Metadaten, Wasserzeichen, digitale Signaturen. Der im Dezember 2025 veröffentlichte Code of Practice konkretisiert diese Anforderungen — die finale Umsetzung bleibt abzuwarten.

Absatz 2 geht weiter. Er betrifft synthetische Inhalte: Bilder, Audio, Video und Text, die mit KI erzeugt oder erheblich verändert wurden. Anbieter und Nutzer müssen offenlegen, dass der Inhalt künstlich erzeugt wurde. Dieser Absatz hat die größte Reichweite — und die unschärfsten Grenzen. Was heißt „erheblich verändert“? Zählt ein KI-Lektorat? Ein Grammatik-Check? Ein Photoshop-Filter mit generativer Komponente? Die Verordnung beantwortet das nicht. Für Absatz 2 sieht der Omnibus-Entwurf eine kurze Übergangsfrist vor: Je nach Ausgang des Trilogs zwischen November 2026 und Februar 2027 — für Systeme, die bereits vor August 2026 auf dem Markt waren.

Absatz 3 zielt spezifisch auf Deepfakes. Wer Bild- oder Tonmaterial so manipuliert, dass es realen Personen Handlungen oder Aussagen zuschreibt, die nicht stattgefunden haben, muss das offenlegen. Dieser Absatz ist der engste — und der klarste. Er trifft ein klar definiertes Problem.

Absatz 4 enthält die einzige inhaltliche Ausnahme. Texte, die zu Themen von öffentlichem Interesse veröffentlicht werden, sind von der Kennzeichnungspflicht befreit — wenn ein Mensch die redaktionelle Verantwortung trägt und der Inhalt einer Qualitätskontrolle unterliegt. Für Verlage und Nachrichtenredaktionen ist das praktikabel. Für selbstverlegte Autoren, Blogger, unabhängige Kreative ist es eine Hürde. Wer keine institutionelle Anbindung hat, hat keine Redaktion. Wer keine Redaktion hat, kann keine redaktionelle Verantwortung im Sinne des Absatzes nachweisen.

§ 3 UrhG — der schmale Ausweg

Das Bearbeitungsurheberrecht nach § 3 des Urheberrechtsgesetzes wird gelegentlich als Lösung für das KI-Dilemma ins Spiel gebracht. Die Idee: Auch wenn der KI-Output selbst nicht geschützt ist, könnte die menschliche Bearbeitung dieses Outputs ein eigenständiges Werk begründen.

Das Prinzip ist etabliert. Wer eine Fotografie nachkoloriert, wer eine Übersetzung anfertigt, wer ein Musikstück arrangiert, kann Bearbeitungsurheberrecht erwerben. Die Voraussetzung: Die Bearbeitung muss ihrerseits Schöpfungshöhe erreichen. Bloßes Auswählen reicht nicht. Bloßes Korrigieren von Fehlern reicht nicht. Die Bearbeitung muss den Output so verändern, dass sie einen eigenen gestalterischen Ausdruck trägt.

Für die Praxis heißt das: Ein Autor, der einen KI-generierten Rohtext nimmt und ihn absatzweise umschreibt, Struktur ändert, Argumente ergänzt, Passagen streicht — der hat gute Chancen auf Bearbeitungsurheberrecht. Ein Autor, der drei Prompts ausprobiert und den besten Output kopiert — der hat schlechte Chancen. Die Schwelle liegt irgendwo dazwischen. Wo genau, muss die Rechtsprechung klären. Bisher fehlen die Urteile.

Die DSM-Richtlinie und ihre Evaluierung

Die europäische Urheberrechtsrichtlinie von 2019 — die sogenannte DSM-Richtlinie — regelt unter anderem das Text-und-Data-Mining. Deutschland hat sie mit § 44b UrhG umgesetzt. Eine planmäßige Evaluierung der Richtlinie steht 2026 an. Ob sie angesichts der KI-Entwicklung vorgezogen oder erweitert wird, ist politisch umstritten.

Drei Punkte stehen zur Diskussion. Erstens: Reicht der Nutzungsvorbehalt nach § 44b als Schutzinstrument, oder braucht es ein Opt-in statt eines Opt-out? Zweitens: Wie soll maschinenlesbarer Widerspruch technisch funktionieren — reicht robots.txt, oder braucht es einen eigenen Standard? Drittens: Muss die TDM-Schranke für generative KI anders bewertet werden als für analytische? Ein Suchindex, der Inhalte analysiert, ist etwas anderes als ein Modell, das Texte erzeugt, die mit den Trainingsdaten konkurrieren.

Die Evaluierung wird keine schnellen Antworten liefern. Aber sie wird die Fragen schärfen. Und das ist, angesichts der Lage, bereits etwas.

Der Tod des Autors — und seine Wiederauferstehung als Label
Roland Barthes erklärte den Autor 1967 für tot. Social Media hat ihn begraben. KI gräbt ihn wieder aus — weil das Recht ihn braucht, auch wenn die Gesellschaft ihn vergessen hat.

Teil 2 der Reihe

Wer schützt wen? KI-Regulierung zwischen Künstlerschutz und Marktmacht
Verwertungsgesellschaften klagen für Kreative. Großverlage profitieren von strenger Regulierung. Einzelne Künstler fallen durchs Raster. Eine Strukturanalyse.

Teil 3 der Reihe

Quellenverzeichnis

Gesetze und Verordnungen

Urheberrechtsgesetz (UrhG), § 2 Abs. 2 — Persönliche geistige Schöpfung als Schutzvoraussetzung

Urheberrechtsgesetz (UrhG), § 3 — Bearbeitungen und Umgestaltungen

Urheberrechtsgesetz (UrhG), § 44b — Text und Data Mining

Urheberrechtsgesetz (UrhG), §§ 31 ff. — Einräumung von Nutzungsrechten

Verordnung (EU) 2024/1689 (KI-Verordnung), Art. 50 — Transparenzpflichten für Anbieter und Nutzer

Barrierefreiheitsstärkungsgesetz (BFSG), in Kraft seit Juni 2025

Richtlinie (EU) 2019/790 (DSM-Richtlinie) — Urheberrecht im digitalen Binnenmarkt

WIPO: Marrakesh Treaty to Facilitate Access to Published Works for Persons Who Are Blind, Visually Impaired, or Otherwise Print Disabled. 2013

Rechtsprechung

LG München I, Endurteil v. 11.11.2025, Az. 42 O 14139/24 — GEMA vs. OpenAI. OpenAI hat Berufung eingelegt (Dezember 2025). Stand Mai 2026: Verfahren vor dem OLG München anhängig.

LG München I, Az. 42 O 763/25 — GEMA vs. Suno Inc. Klage eingereicht 21.01.2025, Verhandlung 09.03.2026, Verkündungstermin 12.06.2026.

Empirische Studien

Goldberg, Samuel; Lam, H. Tai (2025): Generative AI & Creative Goods: Market Expansion, Crowd-Out, and Copyright. Stanford University Graduate School of Business Research Paper. SSRN: 5152649. DOI: 10.2139/ssrn.5152649. Befund: Massive Zunahme an KI-Bildern, 23 % Rückgang bei menschlichen Anbietern ohne KI.

Peukert, C., Abeillon, F., Haese, J., Kaiser, F., Staub, A. (2024): AI and Dynamic Supply of Training Data. University of Lausanne. arXiv: 2404.18445

Yang, L. et al. (2022): Meta-Analyse zur Legasthenie-Prävalenz. Global: 7,1 %, alphabetische Schriftsysteme ca. 5 %

ADHS Deutschland e.V. / Bundesgesundheitsblatt: Erwachsenen-Prävalenz ADHS ca. 4,7 % (Feld), 0,4 % (administrative Diagnosen)

Theoretische Quellen

Luhmann, Niklas: Die Wissenschaft der Gesellschaft. Suhrkamp, Frankfurt a. M. 1990 — Beobachtung zweiter Ordnung

Luhmann, Niklas: Soziologie des Risikos. De Gruyter, Berlin 1991 — Problemverschiebung

Meißner, Else: Beiträge zum Urheberrecht an Photographien. 1920er Jahre — Schutzfähigkeit fotografischer Werke

Ulmer, Eugen: Urheber- und Verlagsrecht. Springer, Berlin 1959 — Werkbegriff

Anmerkungen

¹ Omnibus-VO: Die Kernpflichten aus Art. 50 Abs. 1, 3 und 4 gelten ab 2. August 2026 — daran ändert der Digital Omnibus nichts. Für die maschinenlesbare Kennzeichnung nach Abs. 2 wird eine kurze Übergangsfrist diskutiert. Die Kommission schlägt Februar 2027 vor, das Parlament November 2026. Der zweite politische Trilog am 28. April 2026 scheiterte nach zwölf Stunden ohne Einigung. Nächster Termin: 13. Mai 2026.

² LG München I, Endurteil v. 11.11.2025, Az. 42 O 14139/24. OpenAI hat im Dezember 2025 Berufung eingelegt.

³ LG München I, Az. 42 O 763/25. Verhandlung 09.03.2026. Verkündungstermin: 12.06.2026.

⁴ Goldberg, S.; Lam, H. T. (2025): Generative AI & Creative Goods: Market Expansion, Crowd-Out, and Copyright. Stanford GSB / UCLA. SSRN: 5152649. DOI: 10.2139/ssrn.5152649.

⁵ Peukert, C. et al. (2024): AI and Dynamic Supply of Training Data. University of Lausanne. arXiv: 2404.18445

Empfohlene Artikel

Acht Stunden, die die Welt veränderten — Warum der 1. Mai mehr ist als ein freier Tag

⸱ 24 Minuten Lesezeit

Die Anbieter des Risikos

⸱ 20 Minuten Lesezeit

Produktivität neu denken – Wenn die Kennzahl selbst das Problem ist

⸱ 32 Minuten Lesezeit

Das deutsche Modell am Limit – Warum Konsens zur Falle wird

⸱ 35 Minuten Lesezeit

Willkommen bei KUKA2ME

Wissenschaft im Dialog – unabhängig, zugänglich, DSGVO-konform

🌍 Google Übersetzer aktivieren?

Um diese Seite zu übersetzen, wird Google Translate geladen. Dabei werden Daten an Google übermittelt.

Mehr Infos in unserer Datenschutzerklärung.