Bruce-Willis-Synchronsprecher siegt vorm LG Berlin II — was das Urteil für Creators und Werber bedeutet

Wie LTO berichtet hat das Landgericht Berlin (II. Zivilkammer) in der Sache 2 O 202/24 am 20. August 2025 entschieden: Ein Youtuber, der mit einer KI die markante Stimme des bekannten Synchronsprechers Manfred Lehmann nachgeahmt und in zwei Videos verwendet hatte, muss dem Sprecher ein fiktives Honorar zahlen. Das Gericht sah eine Verletzung des Rechts an der eigenen Stimme und einen Anspruch aus ungerechtfertigter Bereicherung. Das Learning ist klar: KI-Stimmen sind keine Rechtsfreistätte — die Imitation einer erkennbaren Stimme kann Persönlichkeitsrechte, Zuordnungsinteressen und damit Schadenersatzansprüche auslösen.

Das Urteil ist deshalb wichtig, weil es KI-Generationen in einen etablierten zivilrechtlichen Rahmen einordnet: die Nachahmung einer Stimme wird rechtlich nicht anders bewertet als die Nachahmung durch einen „menschlichen“ Stimmenimitator. Und das hat Folgen für Marketing, Influencer-Content, Werbespots und virale Clips, in denen Stimmen bewusst oder unbewusst an Bekanntes angelehnt werden.


Das Urteil in Kürze — die wichtigsten Fakten

  • Kläger: Manfred Lehmann (bekannter Synchronsprecher u. a. für Bruce Willis).
  • Beklagter: Ein Youtuber, der zwei Videos mit einer KI-generierten Stimme veröffentlichte, die Lehmann sehr ähnlich klang.
  • Entscheidung (LG Berlin II, Urt. v. 20.08.2025, Az. 2 O 202/24): Verletzung des Rechts an der eigenen Stimme; Anspruch auf fiktives Honorar aus ungerechtfertigter Bereicherung (§§ 812, 818 BGB).
  • Begründung: Die Ähnlichkeit führte zu einer „Zuordnungsverwirrung“ beim Publikum; Zuschauer kommentierten, dass Lehmann die Videos vertont habe — damit wurde seine Stimme bewusst als werbewirksames Zugpferd eingesetzt.
  • Schadensbemessung: Fiktives Honorar orientiert an üblichen Werbehonoraren; das Gericht akzeptierte 2.000 EUR pro Video als vertretbar (Anhaltspunkt: BGH-Rechtsprechung zu fiktiven Lizenzhonoraren bei Bildverwertungen).

Warum das Urteil so wichtig ist — drei Kernaussagen

  1. Stimme = Persönlichkeitsrecht: Die Stimme zählt zur geschützten Persönlichkeit. Eine ähnliche KI-Stimme ohne Einwilligung berührt das allgemeine Persönlichkeitsrecht — insbesondere, wenn sie geeignet ist, eine Zuordnung zu einem bekannten Sprecher zu erzeugen.
  2. KI ändert die Rechtslage nicht grundlegend: Ob die Nachahmung von einem Imitator oder einer KI stammt — rechtlich geht es um dieselben Fragen: Identifizierbarkeit, Verwechslungsgefahr, wirtschaftliche Ausnutzung, und schließlich um die Interessenabwägung mit Meinungs-/Kunstfreiheit.
  3. Wirtschaftliche Verwertung wird berechnet: Statt nur Unterlassung kann der Verletzte fiktives Honorar verlangen; als Maßstab dienen die üblichen Marktpreise für ähnliche Leistungen.

Drehscheibe: Warum Zuschauerreaktionen so bedeutsam sind

Das Gericht hat die tatsächliche Wahrnehmung gewichtet: Kommentare unter den YouTube-Clips zeigten, dass Zuschauer die Stimme als Lehmanns identifizierten. Diese „Zuordnungswirkung“ ist entscheidend: Wenn ein signifikanter Teil des Publikums glaubt, eine bekannte Stimme zu hören, entsteht ein Image- und Zuordnungsinteresse — also ein Geschäfts- und Reputationsschutzbedürfnis des Sprechers. Ein reiner „ähnlicher Klang“ ohne Zuschreibung wäre weniger problematisch; die tatsächliche Reaktion des Publikums verstärkt aber den Anspruch.


Die Abwägung: Meinungs-/Kunstfreiheit vs. Persönlichkeitsrecht

Der Beklagte argumentierte mit Kunst- und Meinungsfreiheit (Satire-Gehalt seiner Clips). Das Gericht hielt dem entgegen: Satire schützt vieles, aber nicht die bewusste Ausnutzung einer bekannten Stimme, um Reichweite und kommerzielle Verlinkungen (Affiliate-Shop etc.) zu erhöhen. Freiheitsrechte kommen ins Spiel — aber sie sind nicht schrankenlos. Wo ein kommerzieller Nutzen und die Gefahr einer Rufverknüpfung besteht, wiegt das Persönlichkeitsrecht des Sprechers schwerer.


Was das Urteil praktisch für dich heißt — die Kernfolgen

  • Keine „kostenlose“ Nutzung bekannter Stimmen: Auch wenn eine KI-Stimme nur sehr ähnlich klingt, ist das Risiko einer Abmahnung / Klage real.
  • Auch „random KI-voices“ sind nicht risikofrei: KI-Generatoren bieten oft hunderte Stimmen — aber eine „zufällig“ ausgewählte Stimme kann überraschend nah an einer echten Person liegen. Du trägst die Verantwortung.
  • Monetarisierung erhöht das Risiko: Wenn deine Clips Produkte promoten, Affiliate-Links enthalten oder einen Shop ankurbeln, ist der Schadenersatz größer.
  • Labeling reicht nicht automatisch: Einfach draufschreiben „Stimme generiert mit KI“ schützt nicht per se — zeigt das Publikum trotzdem eine Zuordnung, bleibt das Risiko bestehen.
  • Fiktive Lizenzhonorare sind möglich: Selbst wenn keine reale Lizenz existiert, kann ein Gericht eine fiktive Gebühr festsetzen, die sich an Marktpreisen orientiert.

Konkrete Handlungsempfehlungen für Content-Creator, Agenturen, Advertiser & Händler

Die folgenden Maßnahmen helfen, rechtlich sicherer zu agieren — und zugleich ökonomische Entscheidungen transparent zu treffen.

1) Prefer safe: Lizenzierte Stimmen verwenden

  • Kaufe Stimmen (oder Lizenzen) von Anbietern, die garantieren, dass die Stimme keine realen Personen imitiert. Solche Anbieter liefern in der Regel Lizenz- und Freistellungs-Erklärungen.
  • Achtung: Lies die AGB genau — „royalty free“ ≠ „rechtsfreie Verwendung“. Manche Lizenzen schließen politische Werbung, Satire oder kommerzielle Weitervermarktung aus.

2) Verwende klare KI-Labels — UND eine Einwilligung, wenn erforderlich

  • Kennzeichne KI-generierte Stimmen sichtbar: „Voice by AI“. Das ist zwar keine Rechtsgarantie, erhöht aber Transparenz und verringert Zuordnungsfragen.
  • Bei erkennbarer Nähe zu einer bekannten Stimme solltest du vorher die Einwilligung der betroffenen Person einholen (besser: schriftlich, klar umrissener Nutzungsrahmen, Vergütung).

3) Hol dir eine Freistellung/Indemnity vom Voice-Provider

  • Wenn du Stimmen von Dritten einkaufst, bestehe auf Indemnity: der Anbieter muss dich schadlos halten, falls die Stimme gegen Rechte Dritter verstößt.
  • Prüfe, ob der Anbieter haftet und ob die Deckungssumme angemessen ist.

4) Vertragliche Sicherungen mit Influencern & Agenturen

  • Bau in Produktionsverträge eine Klausel ein: Creator/Agentur versichert, dass keine Rechte Dritter verletzt werden; sie haftet bzw. trägt Kosten bei Ansprüchen.
  • Lasse dir Original-Projektdateien, Prompt-Protokolle und Lizenzen aushändigen.

5) Operational: Prompt-Management & Audit-Trail

  • Protokolliere Prompts, Parameter und verwendete Stimmen (ID, Provider, Datum). Das hilft bei der Forensik, falls eine Stimme plötzlich einer realen Person ähnelt.
  • Halte fest, ob eine Stimme intern geprüft wurde (z. B. „Stimme vs. Known-Voice Screening“).

6) Damage-Control: Was tun, wenn jemand reklamiert?

  • Sofortnutzung einstellen (cease & desist).
  • Screenshots, Videos und Kommentar-Threads sichern.
  • Versicherungscheck: Deckt eine Media-Liability-Police (falls vorhanden) den Fall?
  • Verhandle eine Lizenznachzahlung / Vergleich — das kann günstig sein gegenüber einem Prozess. Bei Lehmann wurden fiktive Honorare festgesetzt; ein schneller Vergleich spart oft Nerven & Geld.

7) Kosten-Nutzen-Rechnung: kalkuliere das Risiko

  • Es gibt Fälle, in denen wirtschaftlich einstellbare „Kost Risiken“ bestehen: kleine Videos, virale Hoffnung, geringe Margen — die fiktiven Honorare wären kleiner als ein möglicher Ertrag. Das ist eine absichtlich nüchterne wirtschaftliche Entscheidung.
  • Wichtig: Dokumentiere deine Risikoabwägung (beispielsweise Budgetentscheidung, Rechtsberatung, Indemnity), falls es später um Vorsatz/Leichtfertigkeit geht.

Einordnung: Können bekannte Stimmen überhaupt „schützen“ lassen?

Ja. Der Schutz kann sich stützen auf das allgemeine Persönlichkeitsrecht (Art. 2 I i. V. m. Art. 1 GG), das Recht am eigenen Bild/Name und speziell in Fällen von Stimmwiedergabe auf die Rechtsprechung zu Stimme und Klangbild. Auch das Wettbewerbsrecht bzw. das Recht gegen unlautere Ausnutzung von Kennzeichen kann greifen, wenn es um die wirtschaftliche Verwertung und Irreführung des Publikums geht.

Der BGH hat bereits früher fiktive Lizenzforderungen bei rechtswidriger Bildnutzung akzeptiert; genau dieses System hat das LG Berlin II analog auf Stimmfälle angewandt. Ergebnis: wirtschaftliche Bewertung ist möglich — nicht nur Unterlassung.


Was ist mit Satire? Reicht das als Schutz?

Satire ist ein starkes Mittel der Kunst- und Meinungsfreiheit — aber keine Allzweck-Antwort. Der Schutz gilt, wenn das satirische Element erkennbar und gerechtfertigt ist. Ist die Stimme jedoch in erster Linie Mittel zur Reichweitensteigerung oder werblichen Verwertung (Affiliate, Warenverkauf, Shopverlinkungen), wird die Abwägung meist zugunsten des Betroffenen ausfallen. Kurz: Satire ist kein Freifahrtschein, wenn die Nutzung der Stimme kommerziell instrumentalisiert wird.


Die Falle „random KI voice“ — warum das besonders tückisch ist

KI-Voice-Generatoren bieten hunderte (oder tausende) Stimmen. Du klickst auf „random“, nimmst eine Stimme, die dir gefällt — und denkst: „Ist doch nur eine Maschine.“ Problem: Manche der generierten Stimmen sind zufällig so nah an realen Stimmen, dass Dritte eine Identifikation vornehmen. Du hättest keine böse Absicht — aber das schützt nicht vor Unterlassungsansprüchen oder fiktiven Lizenzforderungen. Deshalb gilt:

  • Don’t gamble. Gerade bei kommerziellem Einsatz: keine Zufallsauswahl ohne Screening.
  • Screening: Vor Veröffentlichung eine einfache Prüfung machen: Team-Check, „Does this voice trigger recognition?“ oder Tools, die Stimmen mit bekannten Samples vergleichen. Das reduziert Risiko erheblich.

Beispiele, was passieren kann (Worst- & Best-Case)

  • Worst Case: Viral-Clip mit KI-Stimme, Promoteshop, ein prominenter Sprecher klagt, Gericht setzt fiktives Honorar plus Anwaltskosten fest, Abmahnungen, Markenschaden. Gesamtkosten >> Ertrag.
  • Best Case: Du kaufst eine lizensierte Voice, nutzt klare Kennzeichnung, hältst Indemnity-Klauseln — du bist rechtssicher und kannst Inhalte skalieren.

Checkliste: Minimal-Schritte vor Veröffentlichung (sofort umsetzbar)

  1. War die Stimme gelistet/licensed? (ja/nein)
  2. Liegt eine Freistellung vom Provider vor? (ja/nein)
  3. Wurde intern geprüft, ob die Stimme einer Person ähnlich ist? (ja/nein)
  4. Ist die Nutzung kommerziell (Affiliate, Produktlink)? (ja/nein)
  5. Kennzeichnung als „KI-Voice“ im Video/Beschreibung? (ja/nein)
  6. Vertragliche Absicherung mit Agenturen/Creators? (ja/nein)
  7. Budget für mögliche Nachlizenz/Schadenersatz eingeplant? (ja/nein)

Wenn du bei 1–3 oder 4 „nein“ ankreuzt: Stopp. Risiko prüfen.


Fazit — nüchternes Urteil und ökonomische Realität

Das Urteil des LG Berlin II ist wichtig: KI macht Nachahmen leichter — das Recht bleibt streng. Die Imitation bekannter Stimmen ist rechtlich gefährlich und kann zu fiktiven Lizenzansprüchen führen. Gleichzeitig ist die wirtschaftliche Realität nicht schwarz-weiß: In Einzelfällen kann ein kalkuliertes Rechtsrisiko vertretbar sein — etwa bei kleinen Clips mit überschaubarem Ertrag, wenn die zu erwartende Lizenzforderung niedriger ist als der potenzielle Gewinn. Das ist eine betriebswirtschaftliche Entscheidung — aber eine, die bewusst und dokumentiert getroffen werden muss.

Kurz zusammengefasst:

  • KI-Stimmen ohne Absicherung = hohes Risiko.
  • Lizenzierte Stimmen + Freistellung + Kennzeichnung = beste Praxis.
  • Satire schützt nicht automatisch, wenn der kommerzielle Nutzen dominiert.
  • Random-Stimmen sind keine Ausrede — Screening ist Pflicht.
  • Kalkuliere das Risiko schriftlich, sichere Verträge und Indemnities.

AI-Voice Policy & Usage Log

1) AI-Voice Policy (Kurzversion)
# AI-Voice Policy (Stand: September 2025)

## 1. Grundprinzip
- Keine Nutzung von Stimmen, die realen Personen ähneln, ohne Einwilligung.
- Jede Stimme muss von einem geprüften Provider stammen (Lizenz + Freistellung).
- Alle KI-Stimmen werden klar als „Voice by AI“ gekennzeichnet.

## 2. Provider-Check
- Provider muss zusichern, dass keine Rechte Dritter verletzt werden.
- AGB prüfen: kommerzielle Nutzung muss erlaubt sein.

## 3. Pre-Publish Checklist
[ ] Lizenz vorhanden (Screenshot/Vertrag)
[ ] Provider-Freistellung gesichert
[ ] Check: keine erkennbare Ähnlichkeit zu Promis
[ ] Prompt/Voice-ID im Usage Log eingetragen
[ ] Kennzeichnung im Video/Content

## 4. Dokumentation
- Prompts, Voice-ID, Provider und Lizenzinfos im Usage Log festhalten.
- Aufbewahrung: mind. 3 Jahre.

## 5. Eskalation
- Bei Beschwerden sofort stoppen, Beweise sichern.
- Innerhalb 24h Rechtsabteilung/Leitung informieren.

## 6. Risikomanagement
- Budget-Puffer für Nachlizenzierung/Schadenersatz vorsehen.
- Bei Unsicherheit: Stop & Review.
  
2) Usage Log Template (CSV/Excel)
Project,Date,Creator,Voice Provider,Voice ID/Name,Prompt Used,Output File,License Type,Provider Warranty (Y/N),Checked for Similarity (Y/N),Marked as "AI-Voice" (Y/N),Notes
"Werbeclip",2025-09-16,Team A,Play.ht,Voice_123,"Deep heroic male voice",voice1.mp3,"Commercial",Y,Y,Y,"OK"
"Satire-Video",2025-09-18,Team B,ElevenLabs,Voice_XYZ,"Middle-aged German voice",voice2.wav,"Standard",Y,N,Y,"Klang wie Promi X → gestoppt"
"Produktvideo",2025-09-20,Team C,Resemble.ai,Voice_456,"Friendly female voice",voice3.mp3,"Commercial",Y,Y,Y,"OK – released"
  

Konkreter Vorschlag für eine Policy, die du als Creator/Agentur sofort einführen kannst

  1. Pre-Publish Checklist (siehe oben).
  2. Approved Voice Registry: Liste geprüfter, lizensierter Stimmen mit Provider-Kontakt, Lizenzart, Indemnity-Status.
  3. Prompt & Usage Log: Speichere Prompts, Voice-ID, Dateinamen, projektbezogene Lizenzen.
  4. Legal Escalation Flow: Wer kontaktiert wird, wenn jemand reklamiert (Rechtsabteilung/Agentur/Versicherung).
  5. Budget-Reserve: 1–3 Monatsumsatz als Risikopuffer bei viralem Content.

QR Code für die Wortfilter Händler Facebook-Gruppe
Komm in die Wortfilter Community auf Facebook und diskutiere mit

FAQ: KI-Stimmen, Persönlichkeitsrecht & das Urteil Lehmann

Stand: September 2025
Darf ich KI-Stimmen frei nutzen?
Nein. Auch KI-generierte Stimmen können Persönlichkeitsrechte verletzen, wenn sie realen Personen ähneln oder vom Publikum als solche erkannt werden. Das Urteil des LG Berlin II bestätigt: KI ändert die Rechtslage nicht.
Wem gehört eigentlich eine Stimme?
Die Stimme ist Teil des allgemeinen Persönlichkeitsrechts. Jeder Mensch hat ein Recht an seiner eigenen Stimme. Das umfasst auch Schutz vor täuschend ähnlichen Imitationen durch KI oder Imitatoren.
Was bedeutet „fiktives Honorar“?
Wenn jemand ohne Erlaubnis eine Stimme nutzt, kann das Gericht eine fiktive Lizenzgebühr zusprechen. Dabei orientiert es sich an üblichen Marktpreisen. Im Fall Lehmann wurden 2.000 € pro Video angesetzt.
Reicht ein Hinweis „Voice by AI“ zur Absicherung?
Nein. Transparenz ist gut, schützt aber nicht automatisch. Wenn Zuschauer glauben, eine bekannte Stimme zu hören, kann trotzdem eine Rechtsverletzung vorliegen.
Was passiert, wenn ich eine „random KI-Stimme“ auswähle?
Auch Zufall schützt nicht. Wenn die Stimme zufällig einer realen Person ähnelt und erkannt wird, trägst du die Verantwortung. Deshalb: Vor Veröffentlichung prüfen lassen.
Welche Risiken habe ich konkret als Creator oder Händler?
– Abmahnungen durch Betroffene – Schadensersatzforderungen (fiktive Honorare) – Unterlassungsansprüche (Content muss gelöscht werden) – Rufschaden, wenn Betroffene mit Inhalten in Verbindung gebracht werden
Hilft Satire als Verteidigung?
Nur bedingt. Satire ist geschützt, wenn sie erkennbar und nicht primär kommerziell genutzt wird. Nutzt du eine bekannte Stimme aber zur Reichweitensteigerung oder für Werbung, überwiegt das Persönlichkeitsrecht.
Wie kann ich mich absichern?
– Stimmen nur von Anbietern mit klarer Lizenz nutzen – Freistellungsklausel vom Provider einholen – Interner Check: klingt die Stimme wie jemand Bekanntes? – Dokumentation (Prompt, Voice-ID, Lizenz) führen – Inhalte mit „Voice by AI“ kennzeichnen
Kann es sich wirtschaftlich trotzdem lohnen, das Risiko einzugehen?
Ja, rein betriebswirtschaftlich kann man das Risiko kalkulieren. Wenn ein fiktives Honorar niedriger ist als die erwarteten Einnahmen, könnte es lohnend sein. Aber: Das ist riskant und sollte bewusst dokumentiert werden.
Was tun, wenn ich eine Abmahnung bekomme?
– Sofort Nutzung stoppen – Beweise sichern (Prompts, Dateien, Screenshots) – Rechtsberatung einschalten – Vergleich oder Nachlizenzierung prüfen – Für die Zukunft Prozesse anpassen

➡️Melde dich zum wöchentlichen Newsletter an!⬅️