Der EU AI Act reguliert KI-Systeme nach ihrem Risikopotenzial. Je höher das Risiko, desto strenger die Auflagen. Für Unternehmen ist die zentrale Frage: In welche Risikoklasse fallen die KI-Tools, die wir einsetzen?

Das Wichtigste in Kürze

Schnellcheck: Nutzen Sie KI-Software im Recruiting, die eigenständig Bewerber filtert? Dann haben Sie wahrscheinlich ein Hochrisiko-System. Details und den vollständigen Entscheidungsbaum finden Sie weiter unten.

Stufe 1: Inakzeptables Risiko (verboten)

Social Scoring, manipulative KI, Emotionserkennung am Arbeitsplatz, biometrische Echtzeit-Fernidentifikation im öffentlichen Raum. Diese Systeme sind seit Februar 2025 in der EU verboten. Für die meisten Unternehmen irrelevant.

Stufe 2: Hohes Risiko (strenge Pflichten)

KI-Systeme in sensiblen Bereichen:

BereichBeispiele
Beschäftigung/PersonalBewerber-Screening, KI-gestützte Personalauswahl, Leistungsbewertung
Kritische InfrastrukturKI in Energie, Wasser, Verkehr
BildungZugangsentscheidungen, Leistungsbewertung, Prüfungsüberwachung
FinanzdienstleistungenKreditwürdigkeitsprüfung, Risikobewertung bei Versicherungen

Pflichten für Betreiber: System gemäß Gebrauchsanweisung betreiben, menschliche Aufsicht durch qualifiziertes Personal, Eingabedaten prüfen, Betrieb überwachen, Protokolle mindestens 6 Monate aufbewahren, Betroffene informieren.

Stufe 3: Begrenztes Risiko (Transparenzpflichten)

Chatbots müssen als KI-System erkennbar sein. KI-generierte Inhalte bei Veröffentlichung kennzeichnen. Emotionserkennung und biometrische Kategorisierung erfordern Information der Betroffenen.

Stufe 4: Minimales Risiko (keine besonderen Pflichten)

Die große Mehrheit aller KI-Anwendungen: Textgenerierung (ChatGPT, Claude), Übersetzungen (DeepL), Datenanalyse, Automatisierung (n8n, Zapier), Coding-Assistenten (GitHub Copilot). Keine spezifischen Pflichten, aber Artikel 4 (KI-Kompetenz) und DSGVO gelten weiterhin.

Praxisbeispiele: Typische KI-Tools einstufen

KI-SystemEinsatzzweckRisikoklasse
ChatGPT TeamMarketing-Texte, RechercheMinimal
Microsoft CopilotE-Mails, DokumenteMinimal
Website-ChatbotKundenanfragenBegrenzt
HireVue / Personio AIBewerber-VorauswahlHoch
KI-KreditscoringBonitätsprüfungHoch
n8n + ClaudeRechnungsverarbeitungMinimal
DeepLÜbersetzungenMinimal

Entscheidungsbaum: So stufen Sie Ihre KI-Systeme ein

  1. Nutzt das System verbotene Praktiken? → Nicht einsetzen.
  2. Ist es eine Sicherheitskomponente in einem regulierten Produkt? → Hochrisiko (ab August 2027).
  3. Wird es in einem Hochrisiko-Bereich nach Anhang III eingesetzt? → Prüfen, ob Ausnahme greift. Falls nicht: Hochrisiko.
  4. Interagiert es mit Personen oder erzeugt synthetische Inhalte? → Begrenztes Risiko.
  5. Keine der obigen Fragen trifft zu? → Minimales Risiko.

Was Unternehmen jetzt tun sollten

1. KI-Inventar erstellen. Alle KI-Systeme auflisten, auch die, die einzelne Mitarbeiter auf eigene Initiative nutzen.

2. Risikoklasse bestimmen. Den Entscheidungsbaum oben für jedes System durchgehen.

3. Handlungsbedarf ableiten. Für Hochrisiko-Systeme: Compliance-Anforderungen umsetzen. Für alle: KI-Kompetenz sicherstellen.

4. Schulung planen. Die Weiterbildung zum Digitalisierungsmanager (IHK) vermittelt praxisnah, wie Sie KI-Systeme klassifizieren und Compliance-Prozesse aufsetzen. DEKRA-zertifiziert, 4 Monate, komplett online.

Häufige Fragen

Gilt die Risikoklassifizierung auch für KI-Systeme aus den USA?
Ja. Der EU AI Act gilt für alle KI-Systeme, die in der EU eingesetzt werden, unabhängig davon, wo sie entwickelt wurden. Wenn Sie ein KI-Tool eines amerikanischen Anbieters nutzen, müssen Sie als Betreiber die jeweiligen Pflichten einhalten.
Kann sich die Risikoklasse eines KI-Systems ändern?
Ja. Wenn Sie ein KI-System in einem neuen Kontext einsetzen, kann sich die Einstufung ändern. Beispiel: ChatGPT für Marketingtexte ist minimales Risiko. Wenn Sie ChatGPT aber über eine API in ein System integrieren, das eigenständig Bewerber filtert, wird es zum Hochrisiko-System.
Was passiert, wenn ich ein Hochrisiko-System nutze, ohne die Pflichten zu erfüllen?
Ab August 2026 drohen Geldbußen von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes. Für KMU gelten reduzierte Obergrenzen. Neben den Bußgeldern riskieren Sie Marktüberwachungsmaßnahmen, die den Einsatz des Systems untersagen können.
Muss ich ein KI-Register führen?
Ja, wenn Sie Hochrisiko-KI-Systeme einsetzen. Als Betreiber sind Sie verpflichtet, den Einsatz zu dokumentieren und Protokolle aufzubewahren. Auch für Nicht-Hochrisiko-Systeme empfiehlt sich ein internes KI-Register als Best Practice.

KI-Kompetenz für Ihr Team aufbauen?

Die Weiterbildung zum Digitalisierungsmanager (IHK) erfüllt die Anforderungen des EU AI Act Artikel 4. DEKRA-zertifiziert, 100 % förderbar.

Weiterbildung ansehen WhatsApp