KI-Nachahmung verletzt das Recht an der eigenen Stimme: Urteil des LG Berlin II (Az. 2 O 202/24) und seine Bedeutung

Guido Kluck, LL.M. | 8. September 2025

Die Klonung einer Stimme durch Künstliche Intelligenz kann mehr sein als eine technische Spielerei: Sie kann die grundrechtlich geschützte Persönlichkeit verletzen und zivilrechtliche Ansprüche auslösen. Das Landgericht Berlin II hat mit Urteil vom 20. August 2025 (Az. 2 O 202/24) entschieden, dass die Verwendung einer per KI erzeugten Stimme, die der bekannten Synchronstimme des Schauspielers Manfred Lehmann stark ähnelt, das Recht an der eigenen Stimme verletzt und einen Anspruch auf Zahlung einer fiktiven Lizenzgebühr begründet. In diesem Beitrag erläutern wir den zugrunde liegenden Sachverhalt, die rechtliche Einordnung, die Entscheidungsgründe des Gerichts sowie die praktischen Folgen für Creator, Unternehmen und Stimmschutzbetroffene. Am Ende finden Sie konkrete Handlungsempfehlungen, wie Sie rechtssicher mit synthetischen Stimmen umgehen und welche Unterstützung LEGAL SMART bieten kann.

Inhaltsübersicht

Sachverhalt und Verfahrensstand (LG Berlin II, Az. 2 O 202/24)

Der bekannte deutsche Synchronsprecher Manfred Lehmann, u. a. deutsche Stimme von Bruce Willis, entdeckte in zwei YouTube-Videos eines Kanals mit rund 190.000 Abonnenten seine Stimme wieder — oder besser: eine Stimme, die ihr so sehr ähnelte, dass zahlreiche Zuschauerinnen und Zuschauer in den Kommentaren Lehmann als Sprecher identifizierten. Der Betreiber des Kanals verwendete für die Vertonung nicht eine Originalaufnahme Lehmanns, sondern eine von einer KI-Software erzeugte Nachahmung der Stimme. Es gab keine Kennzeichnung als KI-Generierung und keine Einwilligung von Lehmann.

Lehmann ließ abmahnen und forderte neben Unterlassung die Zahlung einer fiktiven Lizenzgebühr in Höhe von 2.000 Euro pro Clip sowie Ersatz der außergerichtlichen Anwaltskosten. Nachdem der Beklagte eine Unterlassungserklärung abgegeben, aber die Zahlung verweigert hatte, klagte Lehmann vor dem Landgericht Berlin II. Das Gericht gab dem Kläger weitgehend Recht und verurteilte den Kanalbetreiber zur Zahlung von insgesamt 4.000 Euro sowie zur Erstattung außergerichtlicher Rechtsanwaltskosten. Der Entscheidung lag das Urteil des LG Berlin II vom 20.08.2025, Az. 2 O 202/24 zugrunde.

Rechtliche Einordnung: Das Recht an der eigenen Stimme

In Deutschland ist die Stimme nicht ausdrücklich in einem Gesetz als eigenständiges Schutzrechtsgut normiert. Schutz zieht sich hier aus dem allgemeinen Persönlichkeitsrecht, das Art. 1 Abs. 1 i. V. m. Art. 2 Abs. 1 Grundgesetz (GG) gewährt. Dieses Rahmenrecht schützt die individuelle Identität und die persönliche Sphäre einer Person — dazu gehören auch kennzeichnende Merkmale wie Name, Bild und Stimme. Die Rechtsprechung sieht in der Stimme ein identifizierbares Persönlichkeitsmerkmal: Schon frühere Entscheidungen, etwa des OLG Hamburg (Beschluss vom 8. Mai 1989, Az. 3 W 45/89), erkannten bei Stimmenimitationen eine mögliche Verletzung des Persönlichkeitsrechts.

Die juristische Dogmatik bleibt vielfach offen: Gerichte ziehen unterschiedliche Herleitungen heran — analoger Schutz nach §§ 22 ff. Kunsturhebergesetz (KUG), besondere Ausprägung des allgemeinen Persönlichkeitsrechts oder Schutz über § 823 Abs. 1 BGB als „sonstiges Recht“. Der Bundesgerichtshof (BGH) hat klargestellt, dass das Persönlichkeitsrecht auch vermögenswerte Interessen schützt: Bildnis- und Namensnutzung für kommerzielle Zwecke können Wertersatzansprüche begründen (u. a. BGH, Urteil 1 ZR 49/97). Diese Erwägungen haben Bedeutung, wenn es um fiktive Lizenzgebühren als Ausgleich für die unbefugte Nutzung eines Persönlichkeitsmerkmals geht.

Die Entscheidung des Landgerichts Berlin II und ihre Begründung

Das LG Berlin II stellte in seinem Urteil vom 20.08.2025 (Az. 2 O 202/24) mehrere zentrale Feststellungen auf: Erstens umfasst das allgemeine Persönlichkeitsrecht auch das Recht an der eigenen Stimme. Zweitens ist es unerheblich, ob die Stimme im Original verwendet, von einem Stimmenimitator nachgemacht oder von einer KI generiert wurde. Entscheidend ist, ob beim angesprochenen Publikum eine Zuordnungsverwirrung entsteht, also der Eindruck, die betroffene Person habe der Verwendung zugestimmt oder die Äußerung selbst gemacht.

Im konkreten Fall war für das Gericht maßgeblich, dass ein nicht unerheblicher Teil des Publikums die Stimme als die des Synchronsprechers identifizierte. Die Kommentare unter den Videos belegten dies. Die Verwendung der KI-Stimme diente nicht primär einer künstlerischen Auseinandersetzung mit Lehmann oder seiner Stimme, sondern verfolgte kommerzielle Zwecke: Die Videos sollten Reichweite generieren und den angeschlossenen Online-Shop bewerben. Diese werblichen Motive sprachen gegen eine Rechtfertigung aus Meinungs- oder Kunstfreiheit. Weiterhin stellte das Gericht fest, dass eine Kennzeichnung als KI-generierte Stimme fehlte und durch die Zuordnung zu Lehmann der Eindruck entstehen konnte, Lehmann identifiziere sich mit den politisch ausgerichteten Inhalten des Kanalbetreibers, was seinem Ruf schaden könne.

Als materielle Rechtsgrundlage für den Ersatz verpflichtete das Gericht den Beklagten nach den Regeln des Bereicherungsrechts (§ 812 Abs. 1 Satz 1 Fall 2, § 818 Abs. 2 BGB). Wer sich ohne Rechtsgrund einen vermögenswerten Vorteil durch Nutzung der Persönlichkeit eines anderen verschafft, hat Wertersatz zu leisten. Zur Bemessung zog das Gericht die Praxis bei unberechtigter Bildnnisnutzung und die üblichen Sprecherhonorare heran und setzte eine fiktive Lizenzgebühr von 2.000 Euro pro Video fest. Da zwei Clips betroffen waren, ergab sich ein Betrag von 4.000 Euro. Zudem sprach das Gericht die Erstattung außergerichtlicher Anwaltskosten zu.

Rechtsfolgen und praktische Konsequenzen

Die Entscheidung des LG Berlin II hat mehrere unmittelbare und mittelbare Auswirkungen. Erstens bestätigt sie einen klaren Schutzumfang des Persönlichkeitsrechts gegenüber KI-basierten Nachahmungen: Eine synthetische Stimme kann genauso schutzwürdig sein wie eine menschliche Imitation. Das heißt: Das bloße Argument, die Stimme sei „nur“ künstlich gefertigt, entschärft nicht die Rechtsverletzung, wenn eine Zuordnung zum Betroffenen möglich ist und kommerzielle Zwecke verfolgt werden.

Zweitens zeigt das Urteil, dass Wertersatz in Form fiktiver Lizenzgebühren durchsetzbar ist. Für prominente Sprecherinnen und Sprecher, aber auch für andere Personen mit wiedererkennbaren Stimmen, hat das einen wirtschaftlichen Schutznutzen: Ihre Stimme kann nicht ohne Entgelt für Werbung, Reichweitengenerierung oder kommerzielle Produktpromotion genutzt werden. Drittens beeinflusst die Entscheidung das Geschäftsmodell von Content-Creators und Plattformbetreibern: Für die rechtssichere Nutzung synthetischer Stimmen ist künftig die Einholung einer Einwilligung der betroffenen Person — oder die Verwendung eindeutig eigenständiger, nicht an bekannte Stimmen angelehnter synthetischer Stimmen — erforderlich.

Viertens lenkt das Urteil die Aufmerksamkeit auf die Kennzeichnungspflicht von KI-generierten Inhalten. Das LG bemängelte die fehlende Kennzeichnung; künftig kann das Fehlen eines Hinweises auf KI-Erstellung als weiterer Umstand gegen eine Rechtfertigung sprechen und die Beurteilung einer Rechtsverletzung verschärfen. Fünftens hat die Entscheidung auch eine Signalwirkung für die Zulässigkeit von Stimmklonen in politischen Kontexten: Wenn die Verwendung einer geklonten Stimme den Eindruck erwecken kann, eine Person unterstütze bestimmte politische Inhalte, überwiegt regelmäßig das Interesse der betroffenen Person am Schutz ihres Ansehens gegenüber der Meinungsfreiheit des Verwenders, insbesondere bei kommerzieller Nutzung.

Praktische Empfehlungen für Creator, Unternehmen und Entwickler

Für alle Player im digitalen Ökosystem ergeben sich aus dem Urteil konkrete Handlungspflichten und Vorsichtsmaßnahmen. Content-Creator sollten bereits in der Konzeptionsphase prüfen, ob verwendete Stimmen einem erkennbaren Menschen zugeordnet werden können. Wenn Zweifel bestehen, ist die risikoarme Lösung die Einholung einer ausdrücklichen Einwilligung der betroffenen Person. Eine Einwilligung muss spezifisch, informiert und idealerweise dokumentiert erfolgen. Das bloße Bezahlen einer Lizenz an den KI-Anbieter reicht nicht aus, wenn dieser nicht die Einwilligung der nachgeahmten Person nachweisen kann.

Unternehmen, die Stimmen in Werbung, Erklärvideos oder für Sprachassistenten einsetzen wollen, sollten ihre internen Prozesse anpassen: Vertragsketten mit KI-Anbietern müssen Transparenz über die Herkunft der Trainingsdaten enthalten. Einkäufer sollten verlangen, dass Anbieter belegen, dass die verwendeten Stimmmodelle auf rechtmäßig erworbenen oder freigegebenen Daten basieren und dass eine Nutzung für kommerzielle Zwecke zulässig ist. Bei Unsicherheit ist die Entwicklung eigener, klar als fiktiv gekennzeichneter Stimmen oder die Beauftragung professioneller Sprecherinnen und Sprecher die sicherere Alternative.

Für Entwickler von KI-Stimmen sind technische und organisatorische Maßnahmen empfehlenswert: Watermarking synthetischer Stimmen, verpflichtende Labeling-Funktionen, die bei Export automatisch einen Hinweis erzeugen, und ein offenes Protokoll, das die Herkunft und Nutzungsrechte dokumentiert. Weiterhin ist die Implementierung von Missbrauchsschutzmechanismen sinnvoll: Prüfungen gegen Prominentenstimmen oder Blacklists, automatisierte Alerts, wenn ein Modell einer bekannten Stimme zu sehr ähnelt, sowie Möglichkeiten zur Verifikation von Einwilligungen. Solche Maßnahmen reduzieren das rechtliche Risiko und erhöhen das Vertrauen von Kundenseite.

Datenschutzrechtliche Aspekte

Neben dem Persönlichkeitsrecht spielt Datenschutz eine Rolle. Stimmen können biometrische Merkmale enthalten und zur Identifizierung einer Person genutzt werden. Die Datenschutz-Grundverordnung (DSGVO) differenziert biometrische Daten als besondere Kategorien personenbezogener Daten. Standpunktabhängig kann eine synthetische Stimme, die eindeutig einer realen Person zugeordnet werden kann, als Verarbeitung personenbezogener Daten zu qualifizieren sein. Ist dies der Fall, ist die Verarbeitung nur mit einer wirksamen Rechtsgrundlage zulässig; eine Einwilligung der betroffenen Person wäre die sicherste rechtliche Basis.

Das LG Berlin II hat auch diese Perspektive kurz aufgegriffen: Selbst wenn man die KI-Stimme als personenbezogenes Datum einordne, fehle es an einer legitimen Einwilligung und an einem gesetzlichen Erlaubnistatbestand. Die Interessen der betroffenen Person überwögen. Für Unternehmen bedeutet dies: Datenschutzrechtliche Prüfungen sind erforderlich, wenn Stimmen analysiert, verarbeitet oder rekonstruiert werden. Unternehmen sollten zudem Data Protection Impact Assessments (DPIAs) bei der Entwicklung und dem Einsatz von Voice-Cloning-Tools durchführen und sicherstellen, dass Verarbeitungsgrundlagen dokumentiert sind.

Ausblick: Gesetzgeberische Entwicklungen und Anforderungen

Die Entscheidung des LG Berlin II ist ein wichtiges Signal, ersetzt aber nicht das Bedürfnis nach klaren gesetzlichen Regelungen. In Deutschland fehlt bisher ein explizites „Recht an der Stimme“. Die Debatte in Wissenschaft und Praxis fordert zunehmend eine gesetzliche Verankerung des Stimmrechts, ähnlich dem Right of Publicity in angloamerikanischen Systemen, um Rechtssicherheit zu schaffen. Parallel dazu ist auf EU-Ebene die geplante KI-Verordnung (AI Act) relevant: Vorgesehen sind dort Transparenzpflichten und Kennzeichnungspflichten für KI-generierte Inhalte, die Missbrauch durch Deepfakes und Voice-Cloning eindämmen sollen.

Bis zu einer gesetzgeberischen Klarstellung sind die Gerichte die wichtigste Instanz, die den Schutzrahmen auslegt. Die aktuelle Praxis zeigt, dass Gerichte bereit sind, moderne Technologien in vorhandene Persönlichkeitsrechtsdogmen einzupassen, um Betroffene zu schützen. Gleichwohl bleibt Rechtsunsicherheit in Randbereichen: Wann genau ist eine synthetische Stimme „identifizierbar“? Wie intensiv muss die kommerzielle Nutzung sein, damit eine Rechtfertigung scheitert? Diese Fragen werden künftige Entscheidungen präzisieren.

Schlussfolgerung

Das Urteil des Landgerichts Berlin II (Az. 2 O 202/24) macht deutlich: Die Stimme ist ein schutzwürdiges Persönlichkeitsmerkmal — auch in künstlicher Nachahmung. Wer eine KI-generierte Stimme verwendet, die eindeutig einer realen Person zugeordnet werden kann, handelt nicht nur unsensibel gegenüber der betroffenen Person, sondern riskiert rechtliche Konsequenzen. Der Ersatzanspruch in Form einer fiktiven Lizenzgebühr ist ein effektives Mittel, den wirtschaftlichen Wert einer Stimme zu schützen. Für Creator, Unternehmen und Entwickler heißt das: Vorsicht ist geboten. Rechtssichere Verfahren, Einwilligungen und technische Kennzeichnungen sind keine Option, sondern Notwendigkeit.

Handlungsaufruf (LEGAL SMART)

Stehen Sie vor einer Entscheidung zur Verwendung synthetischer Stimmen oder sind bereits betroffene von einer unerlaubten Stimmverwendung? LEGAL SMART unterstützt Unternehmen, Creator und betroffene Personen mit maßgeschneiderter Rechtsberatung: Wir prüfen Ihre Inhalte, gestalten rechtskonforme Einwilligungs- und Lizenzverträge, begleiten die Implementierung rechtssicherer Prozesse und vertreten Ihre Interessen außer- oder gerichtlich. Kontaktieren Sie LEGAL SMART für eine Erstberatung und eine Risikoanalyse — frühzeitiges Handeln schützt vor hohen Schadensersatzforderungen und Imageschäden.

Jetzt teilen:

Guido Kluck, LL.M.

Rechtsanwalt Guido Kluck LL.M. ist Partner der Kanzlei LEGAL SMART am Standort Berlin. Er ist Ansprechpartner für das Recht der neuen Medien sowie für die Bereiche Wettbewerbsrecht, Markenrecht, Urheberrecht, IT-Recht, Vertragsrecht und das Datenschutzrecht (DSGVO).

ÜBER DIESEN AUTOR ARTIKEL VON DIESEM AUTOR

Das könnte Sie auch interessieren

Holen Sie sich Unterstützung

SIE HABEN NOCH FRAGEN?

Online Termin vereinbaren

Buchen Sie direkt online Ihren Termin für eine kostenlose Erstberatung. Der für Sie zuständige Rechtsanwalt wird Sie dann zu dem von Ihnen ausgewählten Termin anrufen.

Antworten per WhatsApp

LEGAL SMART beantwortet rechtliche Fragen auch per WhatsApp. Schreiben Sie uns einfach an und stellen Sie Ihre Frage. Antworten gibt es anschließend direkt auf Ihr Handy.

LEGAL SMART Anwaltshotline

Viele Fragen lassen sich mit einem Profi in einem kurzen Gespräch rechtssicher klären. Mit der LEGAL SMART Anwaltshotline steht Ihnen unser Anwaltsteam für Ihre Fragen zur Verfügung. Bundesweite Beratung über die kostenlose Anwaltshotline unter 030 - 62 93 77 980.

LEGAL SMART RECHTSPRODUKTE

ANWALTLICHE LEISTUNG ZUM FESTPREIS

LEGAL SMART Rechtsprodukt DSGVO Website Update
249,00 €

DSGVO Website Update

Das Update für Ihre Website nach den Anforderungen der DSGVO und haben Sie keine Angst vor Abmahnungen oder Bußgeldern.

LEGAL SMART Rechtsprodukt Markenanmeldung EU
899,00 €

Markenanmeldung EU

Mit der EU Marke ist Ihre Marke europaweit geschützt und sichert Sie und Ihre Marke vor parallelen Marken in anderen europäischen Staaten. Nutzen Sie jetzt Ihre Chance auf Ihre EU Marke

LEGAL SMART Rechtsprodukt Markenanmeldung DE
299,00 €

Markenanmeldung DE

Schützen Sie Ihren Namen oder Ihr Produkt oder Dienstleistung durch eine Eintragung im Markenregister mit Ihrer eigenen Marke

MEHR PRODUKTE Anwaltliche Leistung zum Festpreis

LEGAL SMART Rechtsanwaltsgesellschaft mbH

LEGAL SMART ist die Legal Tech Kanzlei für wirtschaftsrechtliche Themen. Durch konsequente Prozessoptimierung interner und externer Prozesse bieten wir neue Lösungen für verschiedene Fragestellungen. So ist das Recht für jeden zugänglich; schnell, digital und trotzdem mit der Expertise und Kompetenz einer erfahrenen Wirtschaftsrechtskanzlei. Denn Legal Tech ist mehr als nur der Einsatz von Technologie. Legal Tech ist die Bereitstellung juristischer Kompetenz.