Am 2. August 2026 werden KI-Systeme im Recruiting in der EU formell zu Hochrisiko-Anwendungen. So steht es in Anhang III Punkt 4 der Verordnung (EU) 2024/1689. Selbst wenn der Trilog die Frist im Mai 2026 noch auf den 2. Dezember 2027 verschiebt, bleibt die Substanz gleich: Wer KI in Bewerber-Screening, Lebenslauf-Parsing oder Leistungsbewertung einsetzt, muss ein Risikomanagementsystem, Logging, menschliche Aufsicht und Transparenz nachweisen. Bei Verstößen drohen bis zu 15 Millionen Euro oder 3 Prozent vom weltweiten Jahresumsatz.
Das betrifft fast jede HR-Abteilung in Deutschland. Lebenslauf-Parser, Active-Sourcing-Tools, Skills-Assessments, Video-Interview-Analyse, Bewerber-Matching, automatische Vorauswahl: alles Anhang III Punkt 4. Auch wenn du nur die Standardfunktionen deines Bewerbermanagement-Systems nutzt.
Dieser Artikel zeigt dir, was im Wortlaut steht, welche Tools betroffen sind, was du ab August 2026 dokumentieren musst und wie eine HR-Abteilung mittlerer Größe das in den Griff bekommt, ohne ein eigenes Compliance-Team aufzubauen.
Was Anhang III Punkt 4 wirklich sagt
Der Wortlaut der Verordnung ist eindeutig. Hochrisiko sind KI-Systeme, die "für die Einstellung oder Auswahl natürlicher Personen genutzt werden, insbesondere zur Schaltung gezielter Stellenanzeigen, zur Auswertung und Filterung von Bewerbungen sowie zur Bewertung von Bewerbern". Genauso betroffen: KI-Systeme, "die zur Entscheidung über die Bedingungen von Arbeitsverhältnissen, über Beförderung oder über die Beendigung von Arbeitsverhältnissen, zur Zuweisung von Aufgaben aufgrund individuellen Verhaltens oder zur Beobachtung und Bewertung der Leistung und des Verhaltens von Personen in solchen Beschäftigungsverhältnissen genutzt werden".
Das ist eine sehr breite Definition. Sie umfasst nicht nur die offensichtlichen Recruiting-Tools, sondern auch Systeme, die Schichten optimieren, Beförderungsempfehlungen generieren oder Mitarbeiter-Performance scoren.
Der Ratgeber-Spruch "wir nutzen ja gar keine KI" hilft nicht. Wenn dein Bewerbermanagement-System Lebensläufe automatisch nach Stichworten filtert, Bewerber rankt oder Matching-Scores ausspielt, liegt der Hochrisiko-Fall vor. Die meisten modernen Systeme tun das.
Welche Tools konkret betroffen sind
In deutschen HR-Abteilungen sind aktuell unter anderem im Einsatz: Personio, Workday, SAP SuccessFactors, softgarden, rexx Systems, BeeSite Recruiting, HireVue, Retorio, LinkedIn Recruiter, Indeed Resume, JobToolkit, Eightfold, hiretual. Die meisten dieser Anbieter haben mittlerweile KI-Funktionen für Matching, Scoring oder Vorauswahl integriert.
Auch ChatGPT-Enterprise oder Microsoft Copilot, wenn sie für Lebenslauf-Zusammenfassungen oder Stellenausschreibungen verwendet werden, fallen in den Anwendungsbereich. Sobald die Ausgabe in eine Personalentscheidung einfließt, ist sie relevant.
Welche Pflichten ab August 2026 gelten
Sobald die Anhang-III-Pflichten greifen, brauchst du sechs Bausteine, sauber dokumentiert.
Risikomanagementsystem nach Art. 9. Kein einmaliges Audit, sondern ein laufender Prozess. Du identifizierst Risiken (Diskriminierung, Bias, Fehlentscheidungen), bewertest sie, definierst Maßnahmen, prüfst nach. Über den gesamten Lebenszyklus des Systems.
Daten-Governance nach Art. 10. Trainings- und Validierungsdaten müssen relevant, repräsentativ und möglichst fehlerfrei sein. Bei extern eingekaufter KI heißt das: Du brauchst belastbare Zusicherungen vom Anbieter. Lass dir das schriftlich geben.
Technische Dokumentation nach Art. 11. Eine vollständige technische Akte, die einer Prüfbehörde zeigt, dass dein System konform ist. Die führt der Anbieter, du brauchst aber Zugriff darauf.
Logging nach Art. 12. Das System muss automatisch Ereignisse aufzeichnen. Wer hat es wann mit welchem Input genutzt, welcher Output kam heraus. Aufbewahrung mindestens sechs Monate, häufig länger.
Transparenz nach Art. 13. Bewerber und Mitarbeiter müssen wissen, wenn KI im Einsatz ist. Das geht über die DSGVO-Hinweise hinaus. Konkret: in Stellenanzeigen, in Bewerbungsformularen, in Mitarbeiter-Apps.
Menschliche Aufsicht nach Art. 14. Wer immer das System operativ nutzt, muss in der Lage sein, Output zu hinterfragen, das System zu unterbrechen, automatische Empfehlungen zu überstimmen und Automatisierungsbias zu erkennen. Das ist eine Schulungspflicht.
Hinzu kommen Konformitätsbewertung, CE-Kennzeichnung und EU-Datenbank-Registrierung. Diese drei Dinge sind primär die Aufgabe des Anbieters, aber der Betreiber muss sie verifizieren können.
Welche zusätzlichen Pflichten aus deutschem Recht greifen
Die KI-VO ersetzt nicht das deutsche Arbeitsrecht. Sie kommt obendrauf.
DSGVO Art. 22. Eine ausschließlich automatisierte Entscheidung mit rechtlicher Wirkung ist verboten. Eine KI darf vorsortieren, eine KI darf scoren, eine Einstellung oder Ablehnung darf sie nicht alleine treffen. Bei Kündigungen gilt das genauso. Die finale Entscheidung gehört zwingend in Menschenhand, nachvollziehbar dokumentiert.
BDSG § 26. Beschäftigtendatenschutz. KI-Tools, die Bewerber-Daten verarbeiten, brauchen eine saubere Rechtsgrundlage. Bei Recruiting reicht oft die Vertragsanbahnung, bei laufenden Arbeitsverhältnissen wird es heikler.
BetrVG § 87 Abs. 1 Nr. 6. Mitbestimmungspflicht bei jeder technischen Einrichtung, die zur Verhaltens- oder Leistungsüberwachung geeignet ist. Das BAG hat in mehreren Entscheidungen klargestellt, dass die objektive Eignung reicht. Du musst das Tool nicht zur Überwachung nutzen, es muss nur dazu fähig sein. Praktisch jedes KI-Recruiting-System fällt darunter.
Das heißt: Bevor du ein neues Tool einführst, brauchst du eine Betriebsvereinbarung. Wer das überspringt, riskiert Unterlassungsansprüche und macht den Roll-out im Zweifel rückgängig. Der Bundestag hat in seiner Reaktion auf die KI-VO 2025 die Mitbestimmungsrechte bei digitalen Personalwerkzeugen explizit bekräftigt.
Was die Bußgelder konkret bedeuten
Die Zahlen sind oft zitiert, selten richtig eingeordnet.
Bei Verstößen gegen verbotene KI-Praktiken nach Art. 5: bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes, je nachdem was höher ist. Bei Verstößen gegen Hochrisiko-Pflichten (also Anhang III Punkt 4 Recruiting): bis zu 15 Millionen Euro oder 3 Prozent. Bei falschen Angaben gegenüber Behörden: bis zu 7,5 Millionen Euro oder 1 Prozent.
Für KMU und Start-ups gilt jeweils der niedrigere der beiden Werte. Ein Mittelständler mit 80 Millionen Euro Jahresumsatz haftet im Worst Case mit 2,4 Millionen Euro für eine Hochrisiko-Verletzung. Das ist genug, um die Existenz zu gefährden.
Die deutschen Aufsichtsbehörden werden voraussichtlich ab dem Geltungsdatum prüfen. Die Bundesnetzagentur baut die Marktaufsicht aus, die Datenschutzaufsichten der Länder werden flankierend tätig. Wer dann keine technische Dokumentation vorzeigen kann, hat ein Problem.
Praxisbeispiel: Mittelständler mit 80 Mitarbeitern
Die fiktive Hartmann GmbH in Bayreuth ist ein produzierender Mittelständler mit 80 Mitarbeitern. Drei Personen in HR, eine davon Personalleiterin Frau Becker. Recruiting läuft über Personio. Active Sourcing zusätzlich über LinkedIn Recruiter. Für Stellenausschreibungen wird seit einem Jahr ChatGPT genutzt.
Was steht ab August 2026 auf Frau Beckers To-do-Liste?
Schritt eins: Bestandsaufnahme. Welche Tools werden eingesetzt, welche davon haben KI-Komponenten? Sie spricht mit Personio (KI-Matching ja, Anbieter ist Bereitsteller im Sinne der KI-VO) und LinkedIn (Recruiter mit Skills-Suggestions ja). Sie listet ChatGPT separat auf, weil dessen Output direkt in Stellenanzeigen einfließt.
Schritt zwei: Anbieter-Compliance einfordern. Sie schreibt beide Anbieter an und fragt nach: technischer Dokumentation, CE-Kennzeichnung (oder Roadmap dorthin), Logging-Funktion, Bias-Audit-Bericht. Personio liefert ein Compliance-Statement, LinkedIn verweist auf die laufende KI-VO-Vorbereitung. Beide Antworten landen in der Akte.
Schritt drei: Risikomanagement aufbauen. Mit der externen Datenschutzbeauftragten erstellt sie eine Risikoanalyse pro Tool. Ergebnis: Bei Personio mittleres Bias-Risiko durch Matching, Maßnahme menschliche Endkontrolle bei jeder Vorauswahl. Bei ChatGPT geringes Risiko bei Stellenanzeigen, Maßnahme Vier-Augen-Prinzip vor Veröffentlichung.
Schritt vier: Betriebsvereinbarung. Frau Becker setzt sich mit dem Betriebsrat zusammen. Es gibt eine Vereinbarung zu Personio aus 2023, die KI-Klauseln fehlen. Nachverhandeln. LinkedIn-Recruiter ist neu, braucht eine eigene Vereinbarung. Beides läuft parallel.
Schritt fünf: Schulung. Alle drei HR-Mitarbeiter und die Geschäftsführung absolvieren eine KI-Kompetenz-Schulung. Die Pflicht aus Art. 4 KI-VO gilt seit dem 2. Februar 2025, viele Mittelständler haben sie noch nicht abgehakt.
Schritt sechs: Transparenz. Stellenanzeigen werden um einen kurzen Hinweis ergänzt: "Wir nutzen KI-gestützte Software bei der Vorauswahl. Die finale Entscheidung trifft ein Mensch." Bewerbungsformulare bekommen einen Datenschutz-Hinweis mit Verweis auf Art. 22 DSGVO.
Schritt sieben: Logging und Monitoring. Personio loggt automatisch, das wird konfiguriert. Bei ChatGPT führt Frau Becker manuell ein einfaches Protokoll: Welche Anzeige wurde wann mit welchem Prompt erzeugt, wer hat freigegeben.
Aufwand insgesamt: rund vier Wochen verteilte Arbeit, hochgerechnet etwa 60 Stunden inklusive externer Beratung. Kosten: zwischen 6.000 und 12.000 Euro je nachdem, wie viel die Datenschutzbeauftragte berechnet. Das ist viel weniger als ein einziges Bußgeld.
Was wir aus der Praxis sehen
Die meisten Mittelständler unterschätzen den Mitbestimmungsteil. Die Bewerbermanagement-Software ist seit drei Jahren im Einsatz, der Betriebsrat war nie sauber eingebunden, und niemand hat das je groß gestört. Spätestens wenn jetzt eine Betriebsvereinbarung nachgezogen werden muss, kommt der Betriebsrat mit einer eigenen Liste an Anliegen. Das dauert nicht zwei Wochen, das dauert zwei Quartale.
Zweite häufige Stolperfalle: Tools, die irgendwann mal jemand in einem Team eigenmächtig eingeführt hat. Der Vertriebsleiter hat sich für seine Sourcing-Recherche bei einem KI-Tool eingeschrieben. Der Recruiter nutzt ein zweites Tool für Skills-Tests, ohne dass HR davon weiß. Bei einer ehrlichen Bestandsaufnahme tauchen häufig drei bis fünf solcher Schatten-Tools auf. Die müssen zuerst inventarisiert werden, dann compliance-gemacht oder abgeschaltet.
Wer das unterschätzt, fängt im Juli 2026 hektisch an und schafft es nicht rechtzeitig.
Was du jetzt konkret tun solltest
Drei Prioritäten für die nächsten 90 Tage.
Erstens: Inventar. Liste aller HR-Tools mit KI-Komponenten, Stand heute, ehrlich erfasst. Inklusive der Schatten-Tools, die einzelne Mitarbeiter eingeführt haben.
Zweitens: Anbieter-Anfragen rausschicken. Jeder Bereitsteller muss dir technische Dokumentation, CE-Status und Compliance-Roadmap zusichern. Wer das nicht liefert, fliegt mittelfristig raus.
Drittens: Schulungen. Sowohl Art. 4 KI-Kompetenzpflicht (gilt seit 02.02.2025, ist ohnehin überfällig) als auch die Hochrisiko-spezifische menschliche Aufsicht nach Art. 14. Eine sauber dokumentierte Schulung ist später dein bester Compliance-Nachweis.
Wer ab August 2026 ohne Risikomanagement, ohne Logging und ohne menschliche Aufsicht arbeitet, riskiert nicht nur Bußgelder. Er riskiert auch, dass Bewerber die DSGVO-Auskunftsrechte aus Art. 15 nutzen und Begründungen für Ablehnungen einfordern. Wer dann keine nachvollziehbare Dokumentation hat, steht in jedem Verfahren vor dem Arbeitsgericht schlecht da.
Verwandte Themen
Wer tiefer einsteigen will: Wir haben in den letzten Wochen zwei verwandte Hochrisiko-Bereiche aufgearbeitet. Bei KI in der Kreditvergabe nach Anhang III Punkt 5 gelten ähnliche Pflichten für Banken und FinTechs. Und KI in der Versicherungsrisikobewertung spielt bei Lebens- und Krankenversicherungen die gleiche Rolle.
Eine systematische Einordnung des KI-Themas im Mittelstand findest du in unserer Pillar-Seite zum Digitalisierungsmanager, die KI-Compliance, Prozessoptimierung und Karriereperspektiven zusammenführt.
FAQ
Gilt der EU AI Act auch für kleine Unternehmen ohne eigene KI?
Ja. Der EU AI Act unterscheidet zwischen Anbietern (Hersteller von KI) und Betreibern (Unternehmen, die KI einsetzen). Auch ein 10-Mitarbeiter-Betrieb, der Personio mit KI-Matching nutzt, ist Betreiber im Sinne der Verordnung. Für KMU gibt es Erleichterungen bei Bußgeldhöhen und Dokumentationsanforderungen, aber keine Befreiung.
Was ist mit ChatGPT, wenn ich es nur für Stellenanzeigen nutze?
Reine Texterstellung ist erstmal kein Hochrisiko-Fall. Sobald der Output aber in eine Personalentscheidung einfließt (zum Beispiel automatisch generierte Absage-Begründungen), wird es kritisch. Sicher ist: Du brauchst Schulung deiner Mitarbeiter zur KI-Kompetenz nach Art. 4, und du musst Bewerbern transparent machen, wenn KI im Spiel war.
Wenn der Trilog die Frist verschiebt, kann ich abwarten?
Nein. Die aktuelle Verschiebungsdiskussion (Trilog 28.04.2026 gescheitert, nächster Termin Mitte Mai 2026) zielt auf den 2. Dezember 2027. Selbst dann bleibt die Frist eng. Außerdem gilt die KI-Kompetenzpflicht aus Art. 4 unabhängig vom Trilog seit dem 2. Februar 2025. Und die deutsche Mitbestimmungspflicht gilt sowieso. Wer abwartet, schafft sich Stress.
Brauche ich einen externen Datenschutzbeauftragten dafür?
Nicht zwingend, aber meist sinnvoll. Die Verzahnung von DSGVO, BDSG, BetrVG und KI-VO ist für eine HR-Abteilung allein schwer zu bewältigen. Eine externe Datenschutzbeauftragte mit KI-Erfahrung ist je nach Größe für 800 bis 3.000 Euro im Monat als Retainer machbar. Im Vergleich zum Bußgeldrisiko ist das günstig.
Wer haftet bei einem Compliance-Verstoß persönlich?
Die Verordnung zielt auf das Unternehmen. In Deutschland kann nach allgemeinen Grundsätzen aber auch die Geschäftsführung in Anspruch genommen werden, etwa bei grober Vernachlässigung der Aufsichtspflicht (§ 130 OWiG). Eine ordentlich dokumentierte Compliance-Struktur ist deshalb auch persönlicher Schutz für die Geschäftsführung.
Über den Autor
Dr. Jens Aichinger ist promovierter Wirtschaftspädagoge und Gründer von SkillSprinters, einem DEKRA-zertifizierten Bildungsträger in Bayreuth. Er hat über 70 Sachbücher auf Amazon KDP veröffentlicht, betreut die KI-Stack-Architektur seines eigenen Unternehmens und berät Mittelständler bei der Einführung KI-gestützter Prozesse. Sein Schwerpunkt liegt auf der Schnittstelle zwischen geltendem Recht (DSGVO, BetrVG, KI-VO) und praktischer Umsetzung in deutschen KMU.
Brauchst du Klarheit für deine HR-Compliance?
Buch dir 10 Minuten mit Jens unter skill-sprinters.de/termin oder schau dir unser Schnupperkurs-Format an. Wir zeigen dir, wie du dein KI-Inventar erstellst, Schulungsnachweise dokumentierst und Betriebsvereinbarungen sauber aufsetzt, ohne dass dein HR-Team daran zerbricht.
Zuletzt geprüft am 10. Mai 2026.
Bereit für deinen nächsten Karriereschritt?
Lass dich kostenlos beraten. Wir finden die passende Weiterbildung und Förderung für dich.