Der 2. August 2026 ist der Stichtag, an dem die Hochrisiko-Pflichten aus Anhang III des EU AI Act vollziehbar werden. Für Personalabteilungen ist das kein abstraktes Recht, sondern ein operatives Problem. KI-Anwendungen im Recruiting, in der Performance-Bewertung und in der Aufgaben-Allokation fallen unter Anhang III Punkt 4 (Beschäftigung und Personalmanagement) und brauchen ab August 2026 menschliche Aufsicht, Logging, Vorfall-Meldewege und gegebenenfalls eine Datenschutzfolgenabschätzung. Wer das im Mittelstand jetzt nicht vorbereitet, riskiert ab Q4 2026 echte Bußgeldverfahren.

Auf einen Blick: Stand Mai 2026 sind drei HR-Anwendungen im Mittelstand klar Hochrisiko nach Anhang III EU AI Act: CV-Screening und Kandidaten-Matching, Performance-Bewertung mit KI-Komponente, automatisierte Aufgaben-Allokation. Pflichten ab 2. August 2026: menschliche Aufsicht, Logging, Vorfall-Meldewege, Datenschutzfolgenabschätzung. Bußgelder bis 15 Millionen Euro oder 3 Prozent des weltweiten Jahresumsatzes. Drei Monate Sprint reichen, wenn jetzt gestartet wird.

Der EU AI Act ist im August 2024 in Kraft getreten, in Stufen. Die KI-Kompetenzpflicht aus Artikel 4 gilt seit 2. Februar 2025, die Verbote aus Artikel 5 ebenfalls. Die Hochrisiko-Pflichten aus Anhang III sind ab 2. August 2026 vollziehbar. Wer die Bezeichnung Hochrisiko hört und automatisch an militärische Anwendungen oder kritische Infrastrukturen denkt, übersieht den größten Anwendungsfall im Mittelstand: HR.

Anhang III Punkt 4 listet ausdrücklich Beschäftigung, Arbeitskräftemanagement und Zugang zu Selbstständigkeit auf. Konkret: Vorsortieren von Bewerbungen, Matching von Kandidaten zu Stellen, Performance-Bewertung, Beförderungs- und Kündigungsentscheidungen, Aufgabenzuweisung. Wer ein KI-Tool in einem dieser Bereiche einsetzt, ist Anwender (Deployer) eines Hochrisiko-Systems.

Welche HR-Tools im Mittelstand jetzt geprüft werden müssen

Drei Kategorien von Tools sind im typischen Mittelstand betroffen.

Erstens spezialisierte ATS-Systeme mit KI-Modul. Workday Recruiting, SmartRecruiters, Personio mit KI-Add-on, branchenspezifische Bewerber-Management-Systeme. Sobald die Software Bewerbungen rankt oder ein Match-Score erstellt, fällt sie unter Anhang III Punkt 4. Auch wenn die Endentscheidung beim Recruiter bleibt, ist das Vorsortieren KI-Hochrisiko.

Zweitens KI-Module im HR-Kernsystem. SAP SuccessFactors mit Joule, Microsoft Viva mit Copilot, Workday mit AI-Features. Diese Module bieten typischerweise Performance-Insights, Kompetenz-Empfehlungen, Lerngruppen-Zuordnung. Sobald diese KI in Beförderungsentscheidungen oder in Kündigungsempfehlungen einfließt, ist Anhang III Punkt 4 erfüllt.

Drittens Generic-AI-Tools, die Personaler privat nutzen. Wer als Recruiter ChatGPT, Claude oder Gemini nutzt, um Bewerbungsunterlagen zu analysieren, hat ein doppeltes Problem. DSGVO-Verstoß durch Übermittlung personenbezogener Daten ohne Auftragsverarbeitungsvertrag. Plus: Wenn das Ergebnis in eine HR-Entscheidung einfließt, ist das KI-Hochrisiko. Selbst wenn das Tool nicht offiziell von der Firma freigegeben ist.

Diese dritte Kategorie ist die gefährlichste, weil sie unter dem Radar läuft. Personalabteilungen müssen jetzt klären, ob Mitarbeiter solche Tools privat nutzen und welche Konsequenzen das hat.

Was die Hochrisiko-Pflichten konkret bedeuten

Sechs Pflichten kommen ab 2. August 2026 auf den Anwender (Deployer) zu.

Erstens menschliche Aufsicht. Eine HR-Entscheidung, die KI-gestützt zustande kommt, muss durch einen Menschen ratifiziert werden. Das ist mehr als nur ein Häkchen setzen. Der Mensch muss in der Lage sein, die KI-Empfehlung zu hinterfragen, zu ergänzen oder zu verwerfen. Im Recruiting heißt das, dass die KI-Vorsortierung nicht automatisch zu einer Absage führen darf. Ein Recruiter muss die Entscheidung übernehmen.

Zweitens Logging. Alle KI-Entscheidungen müssen für mindestens 6 Monate dokumentiert werden. Wer wurde gerankt, mit welchem Score, mit welchen Eingangsdaten? Bei einem Beschwerdeverfahren oder einer Datenschutz-Anfrage muss diese Information lückenlos abrufbar sein.

Drittens Datenschutzfolgenabschätzung. Wer eine KI im HR-Bereich neu einsetzt, braucht eine DSFA nach Artikel 35 DSGVO. Diese Pflicht gilt parallel zum EU AI Act und ist nicht neu, wird aber durch die Hochrisiko-Klassifizierung in vielen Fällen erstmals aktiv. Bei laufenden Tools ist nachzuprüfen, ob eine DSFA vorliegt und ob sie den HR-Anwendungsfall abdeckt.

Viertens Vorfall-Meldewege. Wenn ein KI-System einen schwerwiegenden Vorfall verursacht, etwa eine diskriminierende Entscheidung oder ein Datenleck, muss das gemeldet werden. Der Meldeweg läuft über die Bundesnetzagentur als zuständige deutsche KI-Aufsicht.

Fünftens Konformitätsprüfung beim Anbieter. Der Anwender muss sich vergewissern, dass das eingesetzte KI-System den Hochrisiko-Anforderungen entspricht. Das ist primär die Pflicht des Anbieters, aber der Anwender muss dokumentieren können, dass er auf eine ordnungsgemäße Konformitätserklärung gestützt hat.

Sechstens Information der betroffenen Personen. Bewerber und Mitarbeiter müssen wissen, ob KI in der Entscheidung mitwirkt und welche Rechte sie haben. Das ist Teil der Transparenzpflicht aus dem AI Act und ergänzt die DSGVO-Informationspflicht.

Wie ein praktischer Compliance-Sprint aussieht

Drei Monate sind knapp, aber machbar. Ein Sprint-Plan für die nächsten Wochen.

Mai 2026: Inventur. Welche HR-Tools sind im Einsatz? Welche davon haben KI-Komponenten? Bei welchen ist unklar, ob die Funktion produktiv genutzt wird? Eine Liste mit Tool, Anbieter, KI-Funktion, Verantwortlichem im Haus.

Juni 2026: Klassifizierung. Welche Tools sind Hochrisiko nach Anhang III Punkt 4? Hier hilft der Blick auf die offizielle Anbieter-Dokumentation. Ein gutes Anhaltspunkt: Wenn der Anbieter bereits eine Konformitätserklärung nach EU AI Act hat oder ankündigt, ist das System wahrscheinlich Hochrisiko.

Juli 2026: Umsetzung. Pro Hochrisiko-System: menschliche Aufsicht etablieren, Logging-Pipelines aktivieren, DSFA durchführen, Meldewege definieren, Mitarbeiter informieren. Bei den meisten Systemen ist das eine Konfigurationsfrage, keine Code-Änderung.

Vor 2. August 2026: Letzter Check. Sind alle Mitarbeiter geschult? Liegt die Dokumentation an einem Ort, der bei einer Prüfung der Bundesnetzagentur abrufbar ist? Sind die Bewerber-Hinweise in der Stellenausschreibung und im Bewerber-Portal aktualisiert?

Was Mitarbeiter-Schulung mit dem AI Act zu tun hat

Artikel 4 des EU AI Act schreibt seit Februar 2025 vor, dass Personen, die KI-Systeme bedienen oder ihre Ergebnisse interpretieren, ausreichende KI-Kompetenz haben müssen. Im HR-Bereich heißt das konkret: Recruiter müssen verstehen, wie das ATS-Ranking entsteht und wo seine Grenzen liegen. Compliance-Beauftragte müssen die Hochrisiko-Logik kennen. Datenschutzbeauftragte müssen mit den HR-spezifischen Anforderungen umgehen können.

Eine Mitarbeiter-Schulung, die das alles abdeckt, ist keine Luxusinvestition. Sie ist Pflicht. Und sie ist über das Qualifizierungschancengesetz förderbar. Bei Kleinbetrieben unter 10 Mitarbeitern bis zu 100 Prozent der Lehrgangskosten plus bis zu 100 Prozent Lohnzuschuss während der Schulung. Bei Betrieben mit 10 bis 249 Mitarbeitern sind es 50 bis 100 Prozent.

Die DigiMan-Weiterbildung deckt KI-Kompetenz und Compliance-Wissen in einer abschlussorientierten Maßnahme ab. AZAV-Maßnahmenzertifikat 723/0097/2026 (DEKRA), 720 UE über 16 Wochen, komplett online. Wer einen HR-Mitarbeiter zur KI-Compliance-Verantwortung qualifizieren will, hat hier einen tragenden Rahmen.

Für einen ersten Eindruck ohne Anmeldebindung gibt es den kostenlosen Schnupperkurs.

Was bei Verstößen droht

Die Bußgeldhöhen aus Artikel 99 EU AI Act sind beträchtlich. Bei Verstößen gegen die Anwender-Pflichten der Hochrisiko-KI bis zu 15 Millionen Euro oder 3 Prozent des weltweiten Jahresumsatzes, der höhere Wert gilt. Im typischen Mittelstand mit 50 Millionen Euro Jahresumsatz bedeutet das eine theoretische Höchststrafe von 1,5 Millionen Euro.

In der Praxis werden die ersten Verfahren wahrscheinlich gegen Großunternehmen mit auffälligen HR-Vorfällen laufen. Aber mittelständische Firmen mit dokumentiert fehlender Compliance haben spätestens dann ein Problem, wenn ein Bewerber oder Mitarbeiter Beschwerde einreicht. Das gilt insbesondere bei diskriminierenden Entscheidungen, die rückwirkend mit dem KI-Tool zusammengebracht werden.

Reputationswirkung kommt dazu. Im Recruiting ist die Aussage "diese Firma nutzt unkontrollierte KI im Bewerbungsprozess" kein Verkaufsargument für offene Stellen. Wer als Arbeitgeber Vertrauen will, dokumentiert die KI-Nutzung im Bewerbungsprozess transparent.

Was die Bundesnetzagentur erwartet

Die Bundesnetzagentur als zentrale KI-Aufsicht prüft ab August 2026 die Einhaltung der Hochrisiko-Pflichten. Das Service Desk ist bereits aktiv und beantwortet Auslegungsfragen. Wer unsicher ist, ob ein konkretes HR-Tool unter Anhang III fällt, kann dort schriftlich oder telefonisch anfragen. Das ist kein Anwaltsersatz, aber eine niedrigschwellige erste Anlaufstelle.

Die Aufsicht wird nicht jede Firma einzeln auditieren. Aber sobald eine Beschwerde eines Bewerbers oder Mitarbeiters eingeht, kommen alle KI-Tools im HR-Bereich auf den Prüfstand. Wer dann saubere Dokumentation hat, ist im Verfahren auf der sicheren Seite.

Häufige Fragen

Sind ALLE HR-Tools mit KI-Komponente Hochrisiko?

Nein. Hochrisiko ist die Anwendung, nicht das Tool an sich. Eine KI, die Bewerbungsunterlagen vorsortiert, ist Hochrisiko. Eine KI, die nur Standardtexte für Stellenausschreibungen generiert, ist es nicht. Im Zweifel hilft die Anbieter-Dokumentation oder eine Anfrage an das Service Desk der Bundesnetzagentur.

Was bedeutet "menschliche Aufsicht" praktisch?

Ein Mensch muss die KI-Entscheidung qualifiziert übernehmen können. Das heißt nicht, dass der Mensch bei jeder einzelnen Entscheidung sitzt, sondern dass er in der Lage ist, die Entscheidungslogik zu verstehen, zu hinterfragen und gegebenenfalls zu korrigieren. Im Recruiting bedeutet das oft, dass der Recruiter die KI-Vorsortierung als Hilfe nimmt, aber selbst entscheidet, wer eingeladen wird.

Brauche ich eine neue DSFA, wenn ich schon eine habe?

Wenn die bestehende DSFA den Hochrisiko-KI-Aspekt explizit abdeckt: nein. Wenn die DSFA nur die DSGVO-Aspekte adressiert: ja, eine Aktualisierung ist sinnvoll. Praktisch heißt das oft eine Erweiterung um den AI-Act-Risikoabschnitt, nicht eine komplett neue DSFA.

Wer haftet bei einem Vorfall: Anbieter oder Anwender?

Beide, in unterschiedlichen Bereichen. Der Anbieter (z.B. Personio mit KI-Add-on) haftet für die Konformität des Systems, die Konformitätsbewertung und die technische Dokumentation. Der Anwender (z.B. die Personalabteilung des Mittelständlers) haftet für die ordnungsgemäße Bedienung, die menschliche Aufsicht und die Logging-Dokumentation. Bei einem Vorfall werden beide Seiten geprüft.

Was kostet die Compliance-Vorbereitung pro Tool?

Bei einem Standardsystem mit klar dokumentierter Konformitätserklärung: 5 bis 20 Stunden interner Aufwand plus eventuell 500 bis 2.000 Euro für externe Beratung. Bei selbstgebauten oder integrierten KI-Tools: deutlich mehr, oft 5.000 bis 20.000 Euro. Mit Förderung über das QCG kann ein Teil der Schulungskosten erstattet werden.

Wer in der HR-Compliance-Vorbereitung Unterstützung braucht, findet unter skill-sprinters.de/termin einen kurzen Telefontermin.

Bereit für deinen nächsten Karriereschritt?

Lass dich kostenlos beraten. Wir finden die passende Weiterbildung und Förderung für dich.

Weiterbildung ansehen WhatsApp