Am 2. August 2026 greift die nächste Stufe des EU AI Act. Ab diesem Stichtag gelten die Hochrisiko-Pflichten nach Annex III für KI-Systeme, die in Bereichen wie Recruiting, Bildungsbewertung oder Kreditvergabe eingesetzt werden. Stand April 2026 ist der Termin verbindlich, auch wenn die EU-Kommission über eine Verschiebung beraten lässt. Wer sich darauf verlässt, dass es später wird, riskiert teuer zu werden.

Auf einen Blick: Stand April 2026 greifen am 2. August 2026 die Hochrisiko-Pflichten des EU AI Act (Annex III). Betroffen sind nur Anbieter und Betreiber von Hochrisiko-KI in Recruiting, Bildung, Kreditscoring, Strafverfolgung, Gesundheit, Justiz, Migration. Bußgelder bis 35 Mio EUR oder 7 Prozent Jahresumsatz. Reine ChatGPT-Nutzung im Büro ist KEIN Hochrisiko.

Für die meisten Mittelständler ist die Lage entspannter, als die Schlagzeilen vermuten lassen. Der Pflichtenkatalog trifft nicht jeden, der KI im Büro hat. Er trifft Unternehmen, die ein Hochrisiko-System bauen, anbieten oder im operativen Geschäft einsetzen. Wer ChatGPT für Texte nutzt oder Copilot in Excel laufen lässt, fällt nicht automatisch in diese Kategorie.

Das ist der Punkt, an dem in der Praxis die meisten Unsicherheiten entstehen. Geschäftsführer hören "EU AI Act" und fühlen sich pauschal angesprochen. Die ehrliche Antwort: Der Großteil der KMU muss prüfen, nicht handeln. Aber prüfen muss er.

Was am 2. August 2026 konkret startet

Der EU AI Act läuft in mehreren Stufen aus. Die Verbote nach Artikel 5 (Social Scoring durch Behörden, manipulative KI, Emotionserkennung am Arbeitsplatz, Echtzeit-Gesichtserkennung) gelten bereits seit 2. Februar 2025. Die KI-Kompetenzpflicht nach Artikel 4 ebenfalls seit diesem Stichtag.

Ab 2. August 2026 kommt die nächste Welle. Sie betrifft Hochrisiko-Systeme nach Annex III. Das sind acht Bereiche, die der Gesetzgeber als besonders sensibel einstuft: biometrische Fernidentifikation, kritische Infrastruktur, allgemeine und berufliche Bildung, Beschäftigung und Personalmanagement, Zugang zu wesentlichen privaten und öffentlichen Diensten, Strafverfolgung, Migrations- und Grenzkontrolle, Justiz und demokratische Prozesse.

Für Hochrisiko-Systeme aus Annex I, also KI in regulierten Produkten wie Medizingeräten oder Maschinen mit CE-Pflicht, gilt eine längere Frist. Diese Pflichten greifen erst am 2. August 2027.

Wer am 2. August 2026 im Annex-III-Bereich aktiv ist, muss bis dahin Konformitätsbewertung, technische Dokumentation, CE-Markierung und Registrierung in der EU-Datenbank erledigt haben.

Wer ist betroffen, wer nicht

Das ist die entscheidende Frage. Die Verordnung unterscheidet zwischen Anbieter, Betreiber, Importeur und Distributor. Anbieter ist, wer ein KI-System entwickelt oder unter eigenem Namen in den Markt bringt. Betreiber ist, wer das System in eigener Verantwortung im Geschäft einsetzt.

Beispiele aus der Praxis:

Ein Steuerberater, der ChatGPT für Mandantenkommunikation einsetzt, ist weder Anbieter noch Betreiber eines Hochrisiko-Systems. ChatGPT in dieser Form fällt nicht unter Annex III. Hier gilt höchstens die KI-Kompetenzpflicht aus Artikel 4 plus die üblichen DSGVO-Anforderungen.

Eine Personalabteilung, die ein KI-Tool zum Lebenslauf-Screening und Matching einsetzt, ist Betreiber eines Hochrisiko-Systems nach Annex III Punkt 4 (Beschäftigung). Hier greifen die vollen Pflichten am 2. August 2026.

Eine Sparkasse, die KI für Bonitätsprüfung im Kreditgeschäft nutzt, fällt unter Annex III Punkt 5 (Zugang zu wesentlichen Diensten). Auch hier: volle Pflichten ab August 2026.

Ein Maschinenbauer, der eine KI-gesteuerte Qualitätsprüfung in seine Produkte einbaut, fällt unter Annex I. Dafür hat er bis August 2027 Zeit.

Ein Reinigungsunternehmen, das mit Microsoft Copilot Angebote schreibt, fällt unter keine dieser Kategorien.

In der Praxis sehen wir bei Beratungsgesprächen mit Mittelständlern regelmäßig, dass die Aufregung größer ist als der tatsächliche Pflichtenkreis. Wer das systematisch durchgeht, landet in 80 Prozent der Fälle bei "nicht Hochrisiko". Die übrigen 20 Prozent müssen aber wirklich liefern.

Konkrete Pflichten ab August 2026

Wer sich als Anbieter oder Betreiber eines Hochrisiko-Systems identifiziert, hat eine konkrete Liste abzuarbeiten. Sie steht in Artikel 9 bis 15 des AI Act.

Risikomanagementsystem über den gesamten Lebenszyklus. Datenqualitätsmanagement und Trainingsdaten-Governance. Technische Dokumentation, die nachvollziehbar macht, wie das System arbeitet. Aufzeichnungspflicht für die Logs des Systems. Transparenz gegenüber Nutzern und Betroffenen. Menschliche Aufsicht, die echte Eingriffsmöglichkeiten hat. Genauigkeit, Robustheit und Cybersicherheit. Konformitätsbewertung vor Inverkehrbringen. CE-Kennzeichnung. Eintrag in die EU-Datenbank für Hochrisiko-Systeme.

Das klingt nach viel Papier. Das ist es auch. Vor allem die technische Dokumentation und die menschliche Aufsicht sind in der Praxis das, woran Unternehmen länger arbeiten als sie geplant haben. Wir sehen bei Compliance-Projekten, dass realistisch sechs bis neun Monate vergehen, bis ein bisher informell betriebenes KI-Recruiting-Tool sauber dokumentiert und gegen die Vorgaben gehärtet ist.

Bußgelder und warum die jetzt zählen

Die Strafrahmen sind bewusst hoch angesetzt. Bei Verstoß gegen die Hochrisiko-Vorschriften drohen Bußgelder von bis zu 15 Mio EUR oder 3 Prozent des weltweiten Jahresumsatzes. Bei Einsatz verbotener KI-Praktiken nach Artikel 5 sind es bis zu 35 Mio EUR oder 7 Prozent. Das ist der höhere Wert, der jeweils greift.

Für ein Unternehmen mit 50 Mio EUR Umsatz wäre das im Worst Case eine Strafe von 3,5 Mio EUR. Das ist nicht das übliche Datenschutz-Bußgeld in vierstelliger Höhe. Das ist existenziell.

Stand April 2026 ist noch unklar, wie aggressiv die nationalen Aufsichtsbehörden in den ersten Monaten nach dem 2. August prüfen werden. Das Beispiel DSGVO 2018 zeigt, dass die ersten zwölf Monate oft mit Hinweisen und Aufforderungen verbracht werden, bevor die ersten echten Sanktionen folgen. Verlassen sollte man sich darauf nicht.

Pragmatische Selbstprüfung in fünf Schritten

Wer wissen will, wo er steht, geht systematisch durch den eigenen KI-Stack. Folgende Reihenfolge hat sich in der Praxis bewährt.

Erstens: Inventarliste. Jedes Tool, das KI nutzt, kommt auf eine Liste. ChatGPT, Copilot, Claude, branchenspezifische SaaS-Lösungen, Eigenentwicklungen. Auch Funktionen in Bestandssoftware, die als KI vermarktet werden, gehören dazu. Wer das nicht weiß, fragt seinen IT-Dienstleister oder den Anbieter direkt.

Zweitens: Use Case zu jedem Tool. Wofür wird es eingesetzt, wer benutzt es, welche Daten gehen rein, welche Entscheidungen kommen raus.

Drittens: Annex-III-Check. Trifft einer der acht Bereiche zu? Wenn ja, ist das System vermutlich Hochrisiko. Wenn nein, gelten weiter die normalen Pflichten (DSGVO, Artikel 4 Kompetenz, Transparenzpflicht nach Artikel 50 für GenAI-Outputs).

Viertens: Rolle bestimmen. Sind Sie Anbieter (Sie bauen oder vermarkten das System), Betreiber (Sie nutzen es im eigenen Geschäft), oder beides? Anbieter haben mehr Pflichten als Betreiber.

Fünftens: Zeitplan. Wenn Hochrisiko und Annex III: 2. August 2026. Wenn Annex I (regulierte Produkte): 2. August 2027. Davon sechs Monate für Dokumentation und Konformitätsbewertung abziehen. Das ist der späteste Startpunkt.

Artikel 50 nicht vergessen

Neben Annex III gibt es eine Pflicht, die fast jeden mit GenAI im Einsatz betrifft: Artikel 50, Transparenzpflicht für KI-generierte Inhalte. Wer Texte, Bilder, Audio oder Video von KI erzeugen lässt und veröffentlicht, muss sie als KI-generiert kennzeichnen. Diese Pflicht greift ebenfalls am 2. August 2026.

Für KMU heißt das praktisch: Marketing-Texte, die mit ChatGPT geschrieben werden, müssen nicht zwingend einen "KI"-Hinweis tragen, solange ein Mensch redaktionell bearbeitet hat. Vollautomatisch generierte und veröffentlichte Inhalte (etwa eine Social-Media-Pipeline ohne menschliche Endkontrolle) brauchen den Hinweis. Bilder, die mit Midjourney oder Flux erzeugt wurden, brauchen ihn ebenfalls, wenn sie als realistisch wahrnehmbar sind.

Das ist in der Praxis oft ein größeres Thema, als es auf dem Papier wirkt, weil Marketing-Abteilungen in vielen KMU mittlerweile mit gemischten Workflows arbeiten und die Kennzeichnungsgrenze nicht trennscharf ist.

Was wir KMU in der Beratung empfehlen

Wer noch nichts gemacht hat, fängt nicht beim Bußgeld an. Er fängt bei der Inventarliste an. Eine halbe Stunde Tool-Erfassung mit der Geschäftsführung und dem IT-Verantwortlichen klärt 80 Prozent der Fragen.

Im DigiMan-Kurs, den wir im SkillSprinters-Programm anbieten, ist genau dieses systematische Vorgehen Teil des Compliance-Moduls. Teilnehmer lernen, KI-Tools zu klassifizieren und die Pflichten dem konkreten Anwendungsfall zuzuordnen. Wer im eigenen Unternehmen den Hut für KI-Governance aufhat, kommt um diese Sortierarbeit nicht herum.

Wer das Thema im Unternehmen verankern will, ohne externe Beratung einzukaufen, kann sich oder einen Mitarbeiter zum Digitalisierungsmanager qualifizieren lassen. Der Kurs ist über den Bildungsgutschein der Agentur für Arbeit förderfähig und deckt EU AI Act, DSGVO und KI-Implementierung ab.

Die häufigsten Missverständnisse in der Praxis

Drei Punkte hören wir in jedem zweiten Beratungsgespräch.

Erstens: "Wir sind zu klein für den AI Act." Falsch. Der AI Act unterscheidet nicht nach Unternehmensgröße. Ein Mittelständler mit 30 Mitarbeitern, der ein Hochrisiko-Recruiting-Tool einsetzt, hat dieselben Pflichten wie ein Konzern. Es gibt für KMU einzelne Erleichterungen (vereinfachte technische Dokumentation, Sandbox-Zugang), aber keine Befreiung.

Zweitens: "ChatGPT ist Hochrisiko, weil es mit allen Daten trainiert wird." Falsch in dieser Pauschalität. ChatGPT als Allzweck-KI fällt unter die GPAI-Regelungen (General Purpose AI), nicht automatisch unter Annex III. Erst der konkrete Einsatzzweck entscheidet. Wer ChatGPT zur Mandantenkommunikation nutzt: kein Hochrisiko. Wer ChatGPT als Backbone für eine Bewerbervorauswahl baut: sehr wohl Hochrisiko.

Drittens: "Wir warten erst mal die Verschiebung ab." Stand April 2026 ist die Verschiebung über den Digital Omnibus on AI vorgeschlagen, aber nicht beschlossen. Der Vorschlag liegt im Trilog zwischen EU-Kommission, Parlament und Rat. Bis das durch ist, gilt der 2. August 2026. Wer abwartet, hat im Worst Case acht Wochen für ein Projekt, das sechs Monate dauert.

Häufige Fragen

Gilt der EU AI Act auch für mein 15-Mann-Unternehmen?

Ja. Der AI Act gilt für alle Unternehmen, unabhängig von der Größe, sobald ein KI-System in den Anwendungsbereich fällt. Es gibt KMU-Erleichterungen (vereinfachte Dokumentation, kostenfreier Sandbox-Zugang), aber keine generelle Ausnahme. Praktisch heißt das: prüfen, ob ein Hochrisiko-System eingesetzt wird. Wenn nein, gelten nur Artikel 4 (KI-Kompetenz) und Artikel 50 (Transparenz). Wenn ja: voller Pflichtenkatalog ab 2. August 2026.

Reicht es, wenn ich ChatGPT-Outputs einfach als KI-generiert kennzeichne?

Bei Marketingtexten, die ein Mensch redaktionell bearbeitet, ist eine Kennzeichnung nach Artikel 50 nicht zwingend. Bei vollautomatisch erzeugten und veröffentlichten Inhalten (etwa Newsletter, die ohne menschliche Endkontrolle rausgehen) und bei realistisch wirkenden Bildern, Audio- oder Videoinhalten ist die Kennzeichnung Pflicht ab 2. August 2026. Die Kennzeichnung muss klar erkennbar sein, ein Hinweis im Impressum reicht nicht.

Was passiert, wenn die Verschiebung durch den Digital Omnibus kommt?

Wenn der Vorschlag durchgeht, würden die Hochrisiko-Pflichten 16 bis 24 Monate später greifen, also frühestens Ende 2027. Stand Ende April 2026 ist das im Trilog, nicht beschlossen. Auf eine Verschiebung zu setzen, ist riskant. Wer jetzt mit der Compliance-Arbeit anfängt, verliert nichts, falls die Verschiebung kommt. Wer wartet und sie kommt nicht, hat ein echtes Problem.

Wer prüft das in Deutschland und wo melde ich mein Hochrisiko-System an?

Die nationale Aufsichtsbehörde wird laut aktuellem Stand bei der Bundesnetzagentur angesiedelt. Die Registrierung von Hochrisiko-Systemen läuft über eine zentrale EU-Datenbank, die von der EU-Kommission betrieben wird. Anbieter und Behörden tragen Systeme dort vor Inbetriebnahme ein. Stand April 2026 ist die Datenbank im Aufbau, die finalen Prozesse werden bis Sommer 2026 erwartet.

Quellen

Bereit für deinen nächsten Karriereschritt?

Lass dich kostenlos beraten. Wir finden die passende Weiterbildung und Förderung für dich.

Weiterbildung ansehen WhatsApp