Auf einen Blick: Art. 50 KI-VO greift am 02.08.2026. Synthetische oder manipulierte Bilder, Audios, Videos und bestimmte Textarten muessen als KI-Output erkennbar sein. Für Werbeagenturen, Content-Teams und KMU mit eigenem Marketing heißt das: Eine klare Kennzeichnungs-Konvention, abgestimmt mit dem Datenschutz und dem UWG-Risiko. Wer es ignoriert, riskiert Bussgelder bis 15 Mio EUR oder 3% des Jahresumsatzes nach Art. 99 KI-VO.
Der EU AI Act hat zwei große August-2026-Themen. Das eine sind die Hochrisiko-Pflichten aus Art. 6 ff. Das andere ist Art. 50: die Transparenz- und Kennzeichnungspflichten für KI-Inhalte. Beide gelten ab dem 02.08.2026. Waehrend die Hochrisiko-Pflichten nur einen Teil der Unternehmen treffen, ist Art. 50 für fast jeden relevant, der heute KI im Marketing einsetzt.
Die Regel ist eigentlich einfach. Wer KI-generierte oder KI-manipulierte Inhalte veröffentlicht, muss das kenntlich machen. Wer KI im direkten Kundenkontakt einsetzt (Chatbots), muss informieren, dass der Nutzer mit einer Maschine kommuniziert. Wer Emotionen erkennt oder biometrisch klassifiziert, muss informieren. So weit, so trivial. Die Komplikation liegt im Detail.
Was Art. 50 KI-VO konkret verlangt
Die Verordnung unterscheidet vier Fälle.
Fall 1: Chatbots und Sprach-Assistenten (Art. 50 Abs. 1). Wer ein KI-System einsetzt, das direkt mit natuerlichen Personen interagiert, muss diese darueber informieren, dass sie es mit einer KI zu tun haben. Ausnahme: Wenn es aus dem Kontext für einen verstaendigen Nutzer offensichtlich ist.
In der Praxis heißt das für KMU mit Website-Chatbot: Ein kleiner Hinweis am Anfang des Chats reicht ("Ich bin ein KI-Assistent. Du kannst jederzeit auf einen Menschen umstellen."). Wer einen VAPI-Anruf-Bot einsetzt, sagt das in der Begruessung. Wer einen WhatsApp-Bot betreibt, schreibt es in die erste Auto-Reply.
Fall 2: Synthetische Inhalte (Art. 50 Abs. 2). Anbieter von Systemen, die synthetische Bilder, Audios, Videos oder Texte erzeugen, muessen technisch sicherstellen, dass die Outputs als KI-generiert maschinenlesbar markiert sind (z.B. Wasserzeichen, Metadaten). Diese Pflicht liegt bei den Anbietern (OpenAI, Anthropic, Stability AI), nicht bei dir als Nutzer. Praktisch bedeutet das aber, dass viele KI-Outputs ab August einen unsichtbaren Marker tragen, den Plattformen lesen können.
Fall 3: Deepfakes und manipulierte Bilder/Videos (Art. 50 Abs. 4). Wer einen Deepfake (also realistisch aussehende manipulierte Person oder reales Ereignis) veröffentlicht, muss das offen kenntlich machen. Das gilt auch für KI-generierte Bilder, die echte Szenen oder Personen vortaeuschen. Ausnahmen gibt es nur für offensichtliche Kunst oder Satire.
Fall 4: Texte für öffentliche Information (Art. 50 Abs. 4 Satz 2). Wer einen Text veröffentlicht, der die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse informieren soll und der von KI generiert oder manipuliert wurde, muss das offenlegen. Ausnahme: Wenn der Text einer menschlichen Prüfung und redaktionellen Verantwortung unterliegt.
Letzterer Punkt ist der unklarste. Was ist "öffentliches Interesse" in der Verordnung? Die Auslegung wird sich erst durch die ersten Auseinandersetzungen entwickeln. Konservative Lesart: Newsroom-Inhalte, Pressemitteilungen, journalistische Beitraege fallen darunter. Werbung im engeren Sinn nicht. Aber die Grenze ist unscharf.
Was Marketing-Teams jetzt ändern muessen
Ich gehe die typischen Marketing-Outputs einmal durch.
Social-Media-Posts mit KI-generierten Bildern. Wenn das Bild deutlich als Illustration erkennbar ist (Comic-Stil, abstrakt), brauchst du nichts machen. Wenn das Bild aussieht wie ein echtes Foto und reale Personen zeigt (auch fiktive Personen, die wie echt aussehen), brauchst du einen Hinweis. Eine Konvention, die sich abzeichnet: Ein kleines Symbol oder ein Hashtag wie #KIgeneriert im Caption. Manche Plattformen (Instagram, LinkedIn) bauen eigene Label-Optionen ein.
Blog-Artikel, die mit KI-Hilfe geschrieben wurden. Hier wird es entspannt. Wenn ein Mensch den Text inhaltlich verantwortet, redigiert und faktenpruef, dann ist er nicht "KI-generiert" im Sinne von Art. 50 Abs. 4. Eine pauschale Pflicht, jeden Blog mit KI-Hilfe zu kennzeichnen, gibt es nicht. Saubere Praxis: Du hast eine Redaktions-Policy, die KI-Nutzung dokumentiert, und du nennst Autoren namentlich.
Werbeanzeigen mit KI-generierten Models. Hier ist der Spagat: Klassisches Werbe-Bildmaterial fällt nicht unter "öffentliches Interesse" und wird damit nicht zwingend pflichtig. Aber: Wer KI-Models nutzt, die wie echte Personen aussehen, sollte zumindest in den AGB oder in einer Datenschutz-Information offenlegen, dass synthetische Models eingesetzt werden. Sonst kommt aus dem UWG-Eck der Vorwurf der Irrefuehrung nach § 5 UWG.
Produkt-Fotos mit KI-Veraenderung. Wenn ein KI-Tool nur das Licht korrigiert oder den Hintergrund austauscht, ist das wie klassisches Retusche-Werk. Kein KI-Inhalt im Sinne von Art. 50. Wenn ein KI-Tool aber das Produkt selbst veraendert (z.B. eine Farbe darstellt, die das echte Produkt nicht hat), ist das eine Manipulation. Im Bilanz UWG plus AI Act wird es kritisch.
Voice-Cloning für Telefon-Bot. Wenn dein Telefon-Bot mit der gecloneten Stimme deines CEO spricht, ist das ein Deepfake. Du brauchst einen offenen Hinweis am Anfang des Anrufs.
Welche Praxis-Lösung sich abzeichnet
Eine pragmatische Konvention, die sich in DE-Agenturen herauskristallisiert:
- In Bild und Video: Ein kleines Wasserzeichen oder Label "KI-generiert" oder "synthetisch" im unteren rechten Eck. Bei Social Media ein Hashtag #KIgeneriert oder #AIgenerated in der Caption.
- In Audio: Ansage am Anfang ("Diese Nachricht wurde mit KI-Unterstützung erstellt") oder ein kurzer Jingle, der als KI-Marker erkennbar ist.
- Bei Chatbots: Begruessung mit Hinweis auf KI-Natur, Option auf Mensch-Übergabe sichtbar.
- In Text: Autoren-Name und Redaktions-Policy mit KI-Nutzungs-Disclosure. Bei rein generierten Texten ohne menschliche Prüfung: Klare Kennzeichnung.
Ob diese Konventionen den Auslegungs-Test bestehen werden, ist noch offen. Die DSA-Auslegung der EU-Kommission und die ersten Gerichtsentscheidungen werden das schaerfen.
UWG-Risiken neben Art. 50
Art. 50 ist nicht die einzige Quelle für Aerger. § 5 UWG verbietet irrefuehrende geschäftliche Handlungen. Wer eine KI-generierte Person als "echte Kundin" in einer Werbung darstellt, kann auch ohne den AI Act eine Abmahnung kassieren. Wer KI-generierte Testimonials einsetzt ("Maria aus Hamburg sagt: ..."), bewegt sich auf duennem Eis, schon heute.
Plus § 5a UWG: Wesentliche Informationen dürfen Verbrauchern nicht vorenthalten werden. Die Tatsache, dass ein Werbe-Inhalt KI-generiert ist, kann eine wesentliche Information sein, wenn der Verbraucher sie für seine Kaufentscheidung braucht. Das ist im Lebensmittel- und Beauty-Bereich besonders heikel.
Wer ist Adressat
Art. 50 trifft drei Gruppen.
Anbieter der generativen Systeme (OpenAI, Anthropic, Stability AI etc.) muessen den technischen Marker einbauen. Das ist nicht dein Problem als KMU.
Deployer (also du, wenn du KI-Inhalte einsetzt) muessen die Inhalte gegenüber den Empfaengern kennzeichnen, wo das die Verordnung verlangt.
Plattformen (Social Media, Suchmaschinen) bekommen über den Digital Services Act zusaetzliche Pflichten, KI-Inhalte zu erkennen und zu kennzeichnen.
Für deine Marketing-Abteilung heißt das: Du bist Deployer. Die Pflicht liegt bei dir.
Was du im Mai und Juni vorbereiten solltest
Bestandsaufnahme. Liste alle Kanaele auf, in denen ihr KI-Inhalte einsetzt. Social Media, Newsletter, Blog, Werbung, Website, Chatbots, Telefon-Bot. Pro Kanal: Welche KI-Outputs, welche Plattform, wer ist Verantwortlich.
Policy schreiben. Eine ein- bis zweiseitige Policy, die festhaelt: Welche KI-Inhalte werden gekennzeichnet, wie, wer prüft. Diese Policy ist die Grundlage für Schulungen und für den Compliance-Nachweis.
Schulung. Das Marketing-Team bekommt eine 60-minuetige Einweisung. Inhalt: Was Art. 50 verlangt, welche Konvention bei euch gilt, welche Tools welche Marker einbauen. Teilnahme dokumentieren.
Templates anpassen. Eure Caption-Templates für Social Media, eure Newsletter-Footer, eure Bildunterschriften bekommen die Kennzeichnungs-Option fest eingebaut. Es ist einfacher, eine Variable zu setzen als jedes Mal manuell zu schreiben.
FAQ
Muss ich jeden Blog-Artikel kennzeichnen, der mit ChatGPT geschrieben wurde?
Nein, nicht pauschal. Art. 50 Abs. 4 betrifft Texte zu Themen von öffentlichem Interesse, die ohne menschliche Prüfung veröffentlicht werden. Wenn dein Blog-Artikel von einem Mitarbeiter inhaltlich verantwortet, redigiert und faktenpruef ist (du also die "redaktionelle Verantwortung" traegst), fällt er aus der Pflicht. Saubere Praxis ist eine interne Redaktions-Policy mit KI-Disclosure, aber keine Pflicht-Markierung jedes Textes.
Was muss in den Chatbot-Hinweis genau rein?
Knapper Hinweis, dass das Gegenüber eine KI ist, plus eine Option, einen Menschen zu erreichen. Beispiel: "Ich bin Lisa, ein KI-Assistent. Wenn du lieber mit einem Menschen sprechen willst, schreib einfach 'Mensch' oder ruf uns an unter ...". Der Hinweis muss klar sein, nicht versteckt im Footer. Pflicht ist die einmalige Information am Beginn der Interaktion, nicht in jeder einzelnen Nachricht.
Wer haftet, wenn ein KI-Bild ohne Kennzeichnung viral geht?
Die Haftung liegt beim Deployer, also dem, der das Bild veröffentlicht hat. Das ist im Werbeumfeld typischerweise der Werbetreibende, nicht die Agentur, es sei denn, das ist im Vertrag anders geregelt. Bei einer Bussgeld-Sanktion nach Art. 99 KI-VO trifft die Marktueberwachungsbehoerde die Entscheidung, gegen wen sie vorgeht. Bei zusaetzlichen wettbewerbsrechtlichen Streitigkeiten (UWG) kann die Konkurrenz oder ein Verband abmahnen, das ist dann ein zivilrechtlicher Streit.
Wie wirkt das mit dem deutschen Heilmittelwerbegesetz oder LMIV zusammen?
Wer in regulierten Sektoren (Heilmittel, Lebensmittel, Finanzdienstleistungen) wirbt, hat ohnehin strengere Transparenz-Pflichten. Art. 50 KI-VO kommt obendrauf, nicht statt. In der Heilmittelwerbung gilt das HWG mit seinen Strenge-Regeln, in der Lebensmittelinformation die LMIV. Beide kennen schon das Konzept der "Information über wesentliche Eigenschaften". Wenn ein Werbe-Bild im Heilmittelbereich KI-generiert ist, ist das wahrscheinlich eine wesentliche Information, die offengelegt werden muss. Im Zweifel mit Fachanwalt für Wettbewerbsrecht abstimmen.
Zuletzt geprüft am 17.05.2026.
Du baust dein Marketing-Team auf den AI Act um? Im kostenlosen KI-Schnupperkurs bekommst du die Art.-4-Grundlagen. Für eine tiefere Schulung mit Förderung lohnt sich unser DigiMan-Kurs mit Bildungsgutschein, der KI-Marketing, Compliance und Praxis-Workflows in 16 Wochen kombiniert.
Über den Autor
Dr. Jens Aichinger ist promovierter Wirtschaftspaedagoge, Gruender von SkillSprinters und seit über zehn Jahren in der digitalen Bildung tätig. Mit dem DEKRA-zertifizierten Bildungstraeger SkillSprinters betreut er bundesweit KMU bei KI-Marketing und EU-AI-Act-Compliance. Mehr unter skill-sprinters.de/autor/jens-aichinger/.
Bereit für deinen nächsten Karriereschritt?
Lass dich kostenlos beraten. Wir finden die passende Weiterbildung und Förderung für dich.