orgaMAX Blog | Mehr Wissen für Ihren Büroalltag

Kennzeichnungspflicht von KI-Inhalten: Was gilt konkret ab Sommer 2026?

Geschrieben von orgaMAX Redaktionsteam | 25.03.26 08:15

Nutzt Ihr Unternehmen von KI generierte Bilder und Texte, zum Beispiel in der Werbung, für Präsentationen oder Social Media? Ab August 2026 müssen Sie das in vielen Fällen deutlich machen. Lesen Sie, in welchem Fall die KI-Kennzeichnungspflicht gilt und wie sie sich sinnvoll umsetzen lässt.

Wo steht, dass man KI-Inhalte kennzeichnen muss? Ab wann gilt das?

Die Vorschrift ist Teil der EU-Verordnung 2024/1689. Die wird oft als AI Act bezeichnet und sorgt EU-weit für einheitliche Regeln beim Einsatz künstlicher Intelligenz.

Die Kennzeichnungspflicht steht in Artikel 50. Sie ist ein Teil der Transparenzpflichten und tritt am 02. August 2026 in Kraft. Andere Teile der Vorschrift gelten bereits, manche treten noch später in Kraft. Eine offizielle Übersicht zeigt den zeitlichen Ablauf.

Für Unternehmen, die KI nutzen, ergibt sich damit Handlungsbedarf. Sie sollten prüfen, ob sie bestimmte Inhalte selbst kennzeichnen müssen, und in welcher Form das sinnvoll geschehen kann.


Dass diese Grafik mit KI (Canva) generiert wurde, ist leicht erkennbar.

Was ist der Sinn der Regelung?

Das zentrale Anliegen der Vorschrift: Wenn das Risiko besteht, dass KI-erstellte Inhalte mit der Realität verwechselt werden, soll die künstliche Erstellung kenntlich gemacht werden. Für bestimmte Anwendungsformen ist deshalb ab August 2026 der Hinweis vorgeschrieben, dass die Worte, Bilder oder Töne von einem KI-System produziert wurden.

Dafür, dass diese Verwechslungsgefahr real ist, gibt es genug Beispiele. Die Sozialen Medien sind voller Videos und Stimmaufzeichnungen, die realistisch wirken, ohne etwas mit der Realität zu tun haben. Und es gibt massenhaft KI-generierten Text, der Menschen zugeschrieben wird.

Was besagen die Vorschriften zur KI-Kennzeichnungspflicht?

Der AI Act verlangt nicht in jedem Fall einen Hinweis auf die Erstellung oder Bearbeitung mit künstlicher Intelligenz. Es lohnt sich also, die Vorschriften genauer zu betrachten. Schließlich sollte klar sein, ob man von der Kennzeichnungspflicht selbst betroffen ist.

Außerdem können je nach Fall entweder der Anbieter oder die verschiedenen Betreiber verantwortlich sein. „Anbieter“ sind in diesem Sprachgebrauch Unternehmen, die KI-Technologie auf den Markt bringen: zum Beispiel OpenAI, Meta, Google oder Anthropic. Dagegen sind Betreiber alle Personen und Unternehmen, die KI-Anwendungen wie ChatGPT, Gemini, Claude oder Canva für ihre Zwecke einsetzen.

Leicht vereinfacht lassen sich die wichtigsten Regelungen aus Artikel 50 des AI Act wie folgt wiedergeben:

  • KI-erzeugte Bilder, Texte und Töne sind vom Anbieter der Technologie generell maschinenlesbar als KI-Produkte zu kennzeichnen. Wenn ein KI-System „synthetische Audio-, Bild-, Video- oder Textinhalte“ erzeugt oder echte Inhalte verändert, muss der Content entsprechend gekennzeichnet sein. Als Kennzeichnung genügt eine technisch auslesbare Markierung wie zum Beispiel ein Wasserzeichen. Sie soll dem „anerkannten Stand der Technik“ entsprechen sowie „interoperabel, belastbar und zuverlässig“ sein. Für den Menschen muss diese Kennzeichnung nicht wahrnehmbar sein.

    Verändert die automatische Bearbeitung den Inhalt nicht wesentlich, wie etwa bei einem automatischen Schärfefilter für Fotos, kann der Hinweis entfallen.

    Zuständig sind nicht die Nutzer des KI-Systems, sondern dessen Anbieter, also zum Beispiel OpenAI, Google oder Anthropic.

  • Für Deep Fakes gilt eine besondere Kennzeichnungspflicht, dafür müssen auch die Anwender und Anwenderinnen sorgen. Können mit KI erzeugte oder veränderte Inhalte mit der Realität verwechselt werden? Kann man im jeweiligen Kontext für eine Darstellung oder Aufnahme echter Personen, Objekte, Orte, Einrichtungen oder Ereignisse halten? Dann müssen sie einen Hinweis auf die Erstellung oder Bearbeitung mittels KI erhalten, in einer von Menschen wahrnehmbaren Form.

    Bei einem „offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen“ Inhalt gelten erleichterte Hinweispflichten. Dann kann die KI-Kennzeichnung so erfolgen, dass sie „den Genuss des Werks nicht beeinträchtigt“.

    Anders als die generelle Kennzeichnungspflicht von KI-Content betrifft diese Hinweispflicht bei Deep Fakes die Betreiber und nicht die Anbieter. Verantwortlich sind also die Nutzer der Technik.

  • Dasselbe gilt für KI-generierte Texte, wenn diese die Öffentlichkeit über „Angelegenheiten von öffentlichem Interesse“ informieren. Davon erfasst sind beispielsweise per KI geschaffene Zitate, Artikel oder Berichte zu Themen von Neuigkeitswert. Auch in diesem Fall sind die Betreiber für die Kennzeichnung zuständig.

    Was alles unter „Angelegenheiten von öffentlichem Interesse“ fällt, ist auslegungsbedürftig. Dieses Kriterium ist angesichts fehlender Rechtsprechung derzeit noch recht unklar.

    Wenn Menschen den Text redaktionell prüfen und die redaktionelle Verantwortung übernehmen, ist der KI-Hinweis überflüssig. Das gilt nur bei Texten, im Unterschied zu Deep Fakes in grafischer oder Audio-Form.

  • Wer mit einer KI chattet, soll das wissen. Ist ein bestimmtes KI-System dazu gedacht, mit Menschen zu interagieren? Dann muss grundsätzlich offengelegt werden, dass der Gesprächspartner keine echte Person ist. Nur wenn dies einer „angemessen informierten, aufmerksamen und verständigen“ Person direkt klar ist, darf man darauf verzichten.

    Das bedeutet praktisch: KI-Agenten, AI Companions, KI-Chatbots und ähnliche Anwendungen dürfen bei Kundinnen und Kunden, Angestellten und anderen Nutzern keinesfalls den Eindruck erwecken, sie würden mit einem Menschen kommunizieren.

    Die Pflicht trifft in diesem Fall die Anbieter der Technologie, nicht ihre Nutzer. Betroffen ist also das Unternehmen, das den Chatbot oder den KI-Agenten auf den Markt bringt, nicht dasjenige, das diese Technologie verwendet. Trotzdem kann eine Kennzeichnung auch aus Sinn der Anwender vorteilhaft sein, zum Beispiel mit Blick auf Haftung und Gewährleistung.

 

Wie müssen die Hinweise praktisch gestaltet sein?

Die Kennzeichnung von KI muss bereits bei der ersten Interaktion oder Wahrnehmung und in klarer und eindeutiger Weise erfolgen. So will es die EU-Verordnung.

KI-Anbieter wie OpenAI oder Google müssen deshalb ab dem Sommer 2026 Wasserzeichen, akustische Signaturen, Metadaten oder andere technisch auslesbare Hinweise integrieren, so dass die mit ihrer KI erzeugten Inhalte automatisch erkennbar sind. Bei Texten werden unsichtbare Unicode-Steuerzeichen als versteckte Wasserzeichen genutzt.

Für Selbstständige und Unternehmen, die KI nutzen, sind die Pflichten überschaubarer. Immer dann, wenn ein Foto, ein Video, ein Gesprächsmitschnitt oder eine Audioaufnahme in Wirklichkeit künstlich erstellt oder in prägender Form mit KI verändert wurde und das nicht direkt erkennbar ist, wird ein Hinweis erforderlich. Wenn die KI nur die Bearbeitung von Texten, Bildern und Audio erleichtert, ohne dass sie die Inhalte wesentlich ändert, kann die Hinweispflicht wegfallen. Das gilt zum Beispiel für optische Retuschen, Rechtschreibprüfungen oder das Entfernen von Störgeräuschen.

Grundsätzlich genügen Formulierungen wie „Bild mit KI generiert“, „Die Stimmen wurden mit KI erstellt“, „Video mit KI bearbeitet“, „Teile dieses Artikels wurden mit KI geschrieben“ oder ähnliches mehr.

Dieser Hinweis sollte sofort erscheinen und gut erkennbar sein. Es darf nicht in Meta-Daten wie dem „Alt“-Tag versteckt oder durch kaum wahrnehmbare Schriftgrößen getarnt werden. Der KI-Hinweis muss allerdings auch nicht so prominent platziert sein, dass der Inhalt selbst dahinter verschwindet. Bei künstlerischen, kreativen, satirischen oder fiktionalen Werken darf der Hinweis so angebracht werden, dass der „Genuss des Werks“ nicht beeinträchtigt wird. Bei einem solchen Film, Video oder Podcast genügt damit ein Hinweis am Anfang, er muss nicht durchgehend eingeblendet werden.

Gut möglich, dass die Gerichte die Kennzeichnungspflicht noch genauer festlegen. Bisher gibt es noch keine Rechtsprechung dazu.

Was ist bis August 2026 zu tun?

Sie sollten bis zum Inkrafttreten der neuen Regeln am 02. August 2026 folgende Schritte unternehmen:

Prüfen: besteht Handlungsbedarf?

  • Sind Deep Fakes bei Ihnen relevant? Wird bei Ihnen KI so eingesetzt, dass die Ergebnisse möglicherweise authentisch erscheinen?

  • Veröffentlichen Sie mit KI erstellte Texte, die „über Angelegenheiten von öffentlichem Interesse“ informieren?

  • Kommen bei Ihnen Chatbots oder andere KI-Anwendungen zum Einsatz, die bei Kunden, Nutzern oder Besucher möglicherweise zu dem Eindruck führen, sie würden mit Menschen kommunizieren?

In den ersten beiden Fällen sind Sie als Nutzer der KI-Systeme demnächst zur Kennzeichnung verpflichtet. Im dritten Fall könnte der Hinweis von Vorteil sein.

Wenn Handlungsbedarf besteht, planen:

  • Wer kümmert sich um die Erfüllung der Hinweispflicht?

  • Wo wird er eingebunden?

  • Wie soll er formuliert oder gestaltet sein?

Urheberrecht und Persönlichkeitsrecht gelten weiterhin

Sie haben ein Foto Ihrer Mitarbeiterin am Schreibtisch. Das würde doch viel schöner aussehen, wenn sie in einer schönen Landschaft sitzt … aber Vorsicht: Selbst wenn Sie ein mit KI bearbeitetes Foto korrekt kennzeichnen, ist damit nicht automatisch alles in Ordnung.

  • Hat die abgebildete Person ihre Einwilligung gegeben, dass das Foto erstens verändert und zweitens so veröffentlicht wird? Wenn nicht, steht eine Verletzung ihres Persönlichkeitsrechts im Raum. Dann drohen eine Unterlassungserklärung und Schadenersatzpflichten.

  • Haben der Fotograf oder die Fotografin die Veröffentlichung der Aufnahme in bearbeiteter Form gestattet? Die Bearbeitung mit KI hebt die Urheberrechte an der ursprünglichen Aufnahme nicht auf.

Entsprechende Einschränkungen gelten auch für den Umgang mit Audio-Dateien und Texten.

 

Dieses Bild zeigt keinen echten Menschen und wurde auch von keinem Menschen aufgenommen. Sonst wäre deren Einwilligung erforderlich.

Anmerkung: biometrische und Emotionserfassung

Wird KI zur biometrischen Erfassung und für Emotionserkennung genutzt, müssen die Betroffenen darüber informiert werden. Zusätzlich gelten die Datenschutzvorschriften gemäß DSGVO. Auch das steht in Artikel 50 des AI Act.

Diese Pflicht trifft nicht die Anbieter, sondern die Betreiber – also jedes Unternehmen, das entsprechende Technologie im Einsatz hat. Für Anwendungen wie Zugangskontrolle durch Gesichtserkennung ebenso wie für die automatisierte Interpretation von Tonfall oder Gesichtsausdruck bestehen in Deutschland enge Grenzen. Hier müssen das Persönlichkeitsrecht und der Arbeitnehmerdatenschutz beachtet werden. In den USA ist mehr möglich: Dort testet die Fastfood-Kette Burger King beispielsweise eine KI, die unter anderem Höflichkeit und Freundlichkeit der Angestellten gegenüber Kundinnen und Kunden überwacht.

Vorgaben und Leitfäden

  • Das offizielle KI-Büro der EU soll Praxisleitfäden zur Kennzeichnungspflicht veröffentlichen. Außerdem können verbindlichen Durchführungsvorschriften erlassen werden. Beides liegt bisher nicht vor.

  • Dagegen haben verschiedene Social-Media-Plattformen Funktionen und Regeln zur KI-Kennzeichnung entwickelt. Dazu gehören unter anderem Google (YouTube), Meta (Facebook, Instagram) und ByteDance (TikTok).

  • Die meisten fordern in den Nutzungsbedingungen, dass zumindest Deep Fakes entsprechend markiert werden, so zum Beispiel TikTok und Meta. YouTube verlangt eine Kennzeichnung, sobald Gesichter ausgetauscht werden. Die Anwendung von Beauty-Filtern ist dagegen nicht kennzeichnungspflichtig. Eine von KI erstellte Animation einer Rakete darf ohne Hinweis verwendet werden. Ist das KI-Bild realistisch, muss seine Herkunft offengelegt werden. Das entspricht der EU-Regelung.

  • Auch bei Microsoft 365 soll es in Kürze die Möglichkeit geben, KI-erstellte Medien mit einem Wasserzeichen zu versehen.

  • LinkedIn beschränkt sich bisher auf die Empfehlung, KI-Inhalte mit Hinweisen zu versehen.

Weiterlesen: Schulungspflichten rund um KI

Schon seit Februar 2025 sind Arbeitgeber verpflichtet, ihre Mitarbeiterinnen und Mitarbeiter zu schulen, wenn im Betrieb Künstliche Intelligenz verwendet wird. Dafür genügt, dass Marketing-Texte oder Antworten an Kunden mit ChatGPT vorformuliert werden oder Grafiken von Canva im Newsletter erscheinen.

Mehr verraten die Beiträge „AI Act: EU-Verordnung für Unternehmen, die KI nutzen“ und „KI-Nutzung im Unternehmen: Schulungspflicht für Mitarbeitende“.

Lektüretipps

Weiterführende Informationen zu Rechts- und Businessthemen finden Sie im orgaMAX-Blog und im Newsletter-Archiv: