Risikoklassifizierung von KI-Anwendungsfällen - AI Act Best Practices
Zum Webinar anmelden

Transparenzpflichten nach Art. 50 KI-VO verstehen und umsetzen: was Sie jetzt wissen müssen (2026)

Ab August 2026 greifen mit Art. 50 der KI-Verordnung (KI-VO) neue verbindliche Transparenz- und Kennzeichnungspflichten für KI-generierte oder KI-veränderte Inhalte. Unternehmen müssen künftig klären, wann und wie Inhalte als KI-generiert gekennzeichnet werden müssen und was das für ihre Website, Chatbots oder Marketingmaterialien bedeutet.

In diesem Beitrag gibt Ihnen Leah Klees eine kompakte Orientierung darüber, welche Systeme betroffen sind, wer die Verantwortung trägt und wie Unternehmen sich jetzt vorbereiten können.
Kategorie:
22. Januar 2026
12 Minuten
Symbolbild zu Transparenzpflichten für Betreiber und Anbieter im Rahmen der KI-VO
von Leah Klees, Legal Content & Compliance Specialist

Welche KI-Inhalte unterliegen der Kennzeichnungspflicht?

Art. 50 betrifft KI-Systeme, deren Ausgaben von Menschen wahrgenommen werden und eine Verwechslungs- oder Täuschungsgefahr besteht. 

Erfasst werden insbesondere Systeme, die:

  • direkt mit Menschen interagieren (z. B. Chatbots oder Sprachassistenten)
  • synthetische Inhalte erzeugen, die wie reale Inhalte wirken (Text, Bild, Audio, Video)
  • realitätsnahe Manipulationen oder Fälschungen erzeugen (sog. Deepfakes)
  • Inhalte produzieren, die der öffentlichen Information dienen

Zudem bestehen Vorgaben für Systeme, die Emotionserkennung oder biometrische Kategorisierung einsetzen, auch wenn diese in typischen Unternehmenskontexten weniger relevant sind.

Übersicht der Transparenzpflichten inkl. Beispielen:

Kategorie Pflicht für: Beispiele
Direkte Interaktion (Abs. 1) Anbieter Chatbot im Kundenservice
Erzeugung synthetischer Inhalte (Abs. 2) Anbieter KI-generierte Bilder
Emotionserkennung & biometrische Kategorisierung (Abs. 3) Betreiber Gesichtserkennung
Deepfakes (Abs. 4) Betreiber KI-generiertes Video einer realen Person
Texte zur Information der Öffentlichkeit (Abs. 4) Betreiber KI-generierte Pressemitteilung

Der Gesetzgeber verfolgt damit ein klares Ziel: Täuschung, Identitätsmissbrauch und die Manipulation der öffentlichen Meinung sollen verhindert werden.

Damit Unternehmen die Pflichten effektiv umsetzen können, gibt Ihnen dieser Beitrag eine strukturierte Übersicht über die Transparenzanforderungen und erläutert die wichtigsten Anwendungsfälle im Detail. 

Einen umfassenden Einstieg in die Anforderungen der KI-VO finden Sie hier.

Interaktive KI-Systeme: Kennzeichnung bei Mensch-Maschine-Interaktion (Art. 50 Abs. 1 AI Act)

Was gilt als direkte Interaktion?

Direkte Interaktion liegt vor, wenn ein KI-System so ausgestaltet ist, dass Menschen mit ihm kommunizieren und dabei den Eindruck gewinnen könnten, mit einer echten Person zu sprechen.

Dazu gehören:

  • textbasierte Chatbots, 
  • Sprachassistenten, 
  • Social Bots,
  • Roboter, die auf menschliche Eingaben reagieren.

Entscheidend ist hierbei nicht die konkrete technische Architektur, sondern wie die Interaktion auf Nutzer wirkt. Sobald der Anschein einer menschlichen Kommunikation entstehen kann, greift die Transparenzpflicht.

Wer ist für die Kennzeichnung verantwortlich?

Verantwortlich ist in der Regel der Anbieter des interaktiven KI-Systems. Lässt ein Unternehmen jedoch ein System von Dritten entwickeln oder betreibt es unter eigener Marke, kann die Verantwortung ebenfalls bei ihm liegen.

Wie muss gekennzeichnet werden?

Die Kennzeichnung muss zu Beginn der Interaktion erfolgen und es muss klar erkennbar sein, dass es sich um ein KI-System handelt. Dies kann schriftlich, visuell oder akustisch geschehen. Beispiele sind:

  • „Sie kommunizieren mit einem KI-basierten Assistenten.“
  • ein kurzer Audiohinweis zu Beginn eines Sprachdialogs
  • ein sichtbarer Text in der Benutzeroberfläche

Wichtig: Die Kennzeichnung muss jederzeit wahrnehmbar und barrierefrei gestaltet sein.

Gibt es Ausnahmen?

Die einzige relevante Ausnahme besteht, wenn eindeutig und für durchschnittlich informierte und aufmerksame Personen klar erkennbar ist, dass das System künstlich ist. 

Eine offensichtlich synthetische Stimme oder eine klar unnatürliche Figur in einer App kann hierfür ausreichen. Sobald jedoch eine Verwechslungsgefahr besteht, ist die Kennzeichnung verpflichtend.

Synthetische Inhalte: Wenn KI realistisch wirkende Medien erzeugt (Art. 50 Abs. 2 AI Act)

Welche Inhalte sind konkret betroffen?

Synthetische Inhalte sind Medien, die ganz oder teilweise von einem KI-System erzeugt wurden und so realistisch wirken, dass sie mit menschlich erstellten Inhalten verwechselt werden könnten.

Beispiele hierfür sind KI-generierte

  • Texte (z. B. mit ChatGPT), 
  • Bilder (z. B. mit Midjourney),
  • Videos (z. B. mit Veo 3) und
  • KI-generierte Stimmen.

Auch virtuelle Influencer oder Avatare, die einen realistischen Eindruck vermitteln, fallen in diesen Bereich.

Wer ist für die Kennzeichnung verantwortlich?

Verantwortlich ist in der Regel der Anbieter des KI-Systems, das die Inhalte erzeugt.

Wie müssen KI-generierte Inhalte gekennzeichnet werden?

Die Kennzeichnung muss so erfolgen, dass die Ausgaben des KI-Systems

  • in maschinenlesbarer Form gekennzeichnet ist und
  • als künstlich erzeugt oder manipuliert erkennbar sind.

Die technischen Lösungen müssen dabei wirksam, zuverlässig, interoperabel und belastbar sein und den Besonderheiten des jeweiligen Inhalts sowie dem Stand der Technik entsprechen.

Die Kennzeichnung muss für Menschen klar wahrnehmbar sein, etwa durch einen sichtbaren Hinweis beim Bild oder Video oder einen kurzen Hinweistext bei Text- oder Audioinhalten.

Beispiele:

  • „Dieses Bild wurde mit KI erstellt.“
  • „Dieser Text wurde mit Unterstützung eines KI-Systems verfasst.“

Wichtig: Die Kennzeichnung muss barrierefrei gestaltet werden.

Wann entfällt die Transparenzpflicht?

Die Kennzeichnungspflicht für synthetische Inhalte entfällt für Unternehmen, wenn das KI-System

  • nur unterstützend arbeitet, etwa Korrekturen oder technische Optimierungen vornimmt,
  • die bereitgestellten Inhalte oder deren Bedeutung nicht wesentlich verändert.

In allen anderen Fällen müssen synthetisch erzeugte oder manipulierte Inhalte klar als solche erkennbar sein.

Deepfakes: Realitätsnahe Fälschungen kennzeichnen (Art. 50 Abs. 4 AI Act)

Was sind Deepfakes?

Deepfakes sind Inhalte, die durch KI so erzeugt oder verändert werden, dass sie reale Personen, Gegenstände, Orte, Einrichtungen oder Ereignisse imitieren, obwohl die dargestellten Szenen nicht echt sind. 

Beispiele dafür sind: 

  • Ein KI-generiertes Video, das eine Ansprache des Geschäftsführers eines Unternehmens zeigt
  • Ein manipuliertes Bild oder Foto einer Protestveranstaltung, die aber nie stattgefunden hat 
  • Eine Tonaufnahme mit der Stimme eines Politikers

Der entscheidende Faktor ist, dass der Inhalt geeignet ist, einen Betrachter zu täuschen.

Wer ist für die Kennzeichnung verantwortlich?

Verantwortlich ist der Betreiber, der den Deepfake erstellt, veröffentlicht oder weiterverbreitet. Diese tragen deshalb die Verantwortung, selbstgenerierte oder veröffentlichte Deepfakes klar zu kennzeichnen.

Wie kennzeichnet ein Betreiber ein Deepfake?

Die Kennzeichnung muss eindeutig und klar erkennbar sein. Bei Videos sollte sie gut sichtbar im Bild platziert oder laufend eingeblendet werden. Bei Audioinhalten ist ein Hinweis zu Beginn ausreichend. Beispiele sind:

  • „Dieses Video wurde künstlich erzeugt.“
  • „Die dargestellte Stimme wurde durch ein KI-System generiert.“

Wann sind Ausnahmen möglich?

Ausnahmen bestehen vor allem im künstlerischen oder satirischen Kontext. Selbst dort muss geprüft werden, ob eine reale Täuschungsgefahr besteht. Wenn Nutzer den Inhalt als echt interpretieren könnten, ist eine Kennzeichnung dennoch notwendig.

Öffentlichkeitsrelevante Texte: Transparenz bei der Meinungsbildung (Art. 50 Abs. 4 AI Act)

Welche Inhalte sind gemeint?

Diese Kategorie betrifft Texte, die mithilfe von KI erstellt oder verändert wurden und die für die öffentliche Meinungsbildung relevant sind. Dazu gehören politische, gesellschaftliche, kulturelle oder wirtschaftliche Themen, die über öffentlich zugängliche Kanäle verbreitet werden.

Beispiele sind Social Media Posts, Pressemitteilungen, Blogartikel zu öffentlichen Themen oder Online-Kommentare.

Wer ist für die Kennzeichnung verantwortlich?

Verantwortlich ist der Betreiber, der den Text veröffentlicht oder verbreitet.

Wie muss der Betreiber die Kennzeichnung gestalten?

Die Kennzeichnung muss am Anfang im Text erfolgen und den Barrierefreiheitsanforderungen entsprechen. 

Formulierungen wie „Dieser Text wurde ganz oder teilweise mit KI erstellt“ sind ausreichend, solange sie gut wahrnehmbar sind.

Wann entfällt die Kennzeichnungspflicht?

Ausnahmen gelten für Inhalte, die nicht öffentlich verbreitet werden, etwa interne Dokumente oder private Kommunikation. 

Ebenso besteht keine Kennzeichnungspflicht, wenn eine menschliche Überprüfung der KI-generierten Texte stattfindet und eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.

Zeitplan: Ab wann gelten die neuen Transparenzpflichten?

Grundsätzlich gelten die Transparenzpflichten nach Art. 50 KI-Verordnung ab dem 2. August 2026. 

Hinweis: Nach dem aktuellen Entwurf der Omnibus-Verordnung der EU-Kommission zur KI-Regulierung sollen die Kennzeichnungspflichten für synthetische Inhalte gemäß Art. 50 Abs. 2 KI-VO erst ab dem 2. Dezember 2027 Anwendung finden.

Handlungsempfehlungen für Betreiber inkl. Vorlage für eine Transparenzpflichten-Richtlinie

Als Betreiber von KI-Anwendungen sind Transparenzpflichten für Deepfakes sowie für Texte zur öffentlichen Information relevant. In diesem Zusammenhang sind vor allem Marketing- und Kommunikationsabteilungen in Unternehmen die zentralen Stakeholder, wenn es darum geht, die Transparenz- und Kennzeichnungspflichten umzusetzen.

Dabei gilt es bei der Umsetzung folgende Punkte zu beachten:

  • Bestandsaufnahme: Unternehmen sollten alle KI-gestützten Tools in der Marketing- bzw. Kommunikationsabteilung in einem zentralen KI-Register erfassen.
  • Anwendungsbereich prüfen: Werden Inhalte generiert, die als Deepfakes oder als Information der Öffentlichkeit im Sinne des Art. 50 Abs. 4 gelten?
  • Ausnahmetatbestände klären: Insofern eine redaktionelle Prüfung der Texte erfolgt und eine natürliche oder juristische Person die inhaltliche Verantwortung übernimmt, kann die Kennzeichnungspflicht entfallen.
  • KI-Richtlinie für die Kommunikation erstellen: Erstellen Sie eine klare Richtlinie für die Marketing- und Kommunikationsabteilung, die Kennzeichnungspflichten und Ausnahmeregelungen erklärt.
  • Standardisierte Kennzeichnungen festlegen: Falls eine Kennzeichnungspflicht besteht, bereiten Sie standardisierte Texte und Hinweisformulare vor und setzen die Platzierung im Text bzw. in den Deepfake-Medien fest.

Wir haben zu diesem Zweck eine Vorlage für eine interne Richtlinie zur Nutzung von KI in den Bereichen Marketing und Kommunikation erstellt, die Sie bei der Einhaltung der Transparenzpflichten unterstützt.

Jetzt herunterladen und die Umsetzung der Kennzeichnungspflichten vorbereiten:

Umsetzungshinweise für Betreiber herunterladen – inklusive Newsletter-Abo

Treten Sie unserer Community bei:

  • Nur relevante News
  • Monatlich
  • 2.000+ Abonnent:innen lesen ihn bereits

Über die Autorin

Leah Klees
Legal Content & Compliance Specialist bei caralegal
Leah Klees ist Unternehmensjuristin bei der caralegal GmbH mit Schwerpunkt auf KI-Governance und Datenschutzrecht. Sie spezialisiert sich darauf, komplexe regulatorische Anforderungen in umsetzbare, praxisnahe Maßnahmen zu übersetzen.

Diesen Beitrag teilen

Teilen Sie die interessantesten Neuigkeiten aus der Welt 
des Datenrechts mit FreundInnen und KollegInnen.
linked-in-logo

Ähnliche Beiträge

Entdecke weitere Beiträge zu diesem Thema:
Informationspflichten nach der KI-VO Wichtige Informationen für Betreiber Überschrift
Informationspflichten für Betreiber von Hochrisiko-KI-Systemen
Mehr erfahren
Übersicht zu Pflichten von Hochrisiko-KI im Betreiberkontext.
Alle 17 Pflichten für Betreiber von Hochrisiko-KI-Systemen
Mehr erfahren
Überblick über den KI-Standard ISO 42001 und dessen Bedeutung für die Compliance.
ISO 42001: Der neue KI-Standard im Überblick
Mehr erfahren

Dafür fehlt mir
die Zeit caralegal

caralegal live testen
In 2 Tagen startklar
64% Zeitersparnis
20 Jahre Datenschutzerfahrung
We make the legal way the lighter way
Wir glauben, dass Verordnungen dazu da sind, die Welt zu lenken. Nicht sie auszubremsen. Deshalb verändern wir, wie Unternehmen datenrechtliche Anforderungen erfüllen: intuitiv, dank intelligenter Technologie.
Wissen sichern - keine News mehr verpassen
Jetzt Newsletter abonnieren
Zum Newsletter anmelden
Unsere Partner
© 2025 caralegal GmbH
DatenschutzerklärungImpressum