Die KI-Risikoklassen des EU AI Act entscheiden darüber, welche Pflichten Ihr Unternehmen beim Einsatz eines KI-Tools treffen. Je nach Klassifikation reicht eine kurze Transparenznotiz, oder es greift das volle Pflichtenpaket mit Konformitätsbewertung. Dieser Beitrag erklärt die vier Stufen, ordnet konkrete Tools wie ChatGPT, Microsoft Copilot, Recruiting-Software und Bonitätsbewertung praxisnah ein und zeigt, wie Sie Ihre eigene Risikoeinstufung dokumentieren.

Das Wichtigste in Kürze

Die vier Risikoklassen im Detail

Der EU AI Act baut auf einem risikobasierten Ansatz auf. Je höher das Risiko für Grundrechte, Gesundheit und Sicherheit, desto strenger die Pflichten. Die vier Klassen sind klar voneinander abgegrenzt.

Stufe 1: Unannehmbares Risiko (verboten)

In diese Kategorie fallen KI-Praktiken, die als so gefährlich gelten, dass sie EU-weit verboten sind. Beispiele aus Art. 5 EU AI Act:

Diese Verbote gelten seit dem 02. Februar 2025. Wer ein solches System einsetzt oder anbietet, riskiert die höchsten Sanktionen.

Stufe 2: Hohes Risiko

Hochrisiko-Systeme sind erlaubt, aber an strenge Pflichten gebunden. Anhang III der Verordnung listet die Bereiche konkret auf. Dazu gehören:

Pflichten für Hochrisiko-Systeme sind unter anderem: Konformitätsbewertung, Risikomanagement-System, Datenqualitäts-Management, technische Dokumentation, Logging, Transparenz, menschliche Aufsicht, Genauigkeits- und Robustheitsanforderungen.

Stufe 3: Begrenztes Risiko

Hier greifen vor allem Transparenzpflichten. Wer einen Chatbot einsetzt, muss den Nutzer informieren, dass er mit einem KI-System spricht. Wer KI-generierte Inhalte verbreitet (Texte, Bilder, Videos), muss diese als KI-generiert kennzeichnen. Wer Deepfakes erzeugt, muss klar machen, dass es sich nicht um echtes Material handelt.

Stufe 4: Minimales Risiko

Die meisten KI-Anwendungen fallen in diese Kategorie. Spam-Filter, Empfehlungsalgorithmen, KI-Funktionen in Videospielen, Übersetzungstools für interne Zwecke. Hier gelten keine besonderen Pflichten, mit einer Ausnahme: Auch hier müssen Mitarbeiter, die solche Tools einsetzen, KI-Kompetenz nach Art. 4 nachweisen.

Praxisbeispiele: So ordnen Sie reale Tools ein

Tool / Anwendung Risikoklasse Begründung
ChatGPT für Mailentwürfe Begrenzt Generative KI mit Transparenzpflicht
Microsoft Copilot in Word Begrenzt Generative KI in Office-Kontext
Recruiting-KI für CV-Screening Hoch Personalentscheidung, Anhang III
Bonitäts-Score für Konsumentenkredit Hoch Kreditvergabe, Anhang III
KI-gestützte Übersetzung interner Mails Minimal Keine Außenwirkung, keine Personenentscheidung
Chatbot auf Webseite Begrenzt Transparenzpflicht: Hinweis auf KI
KI-Sentiment-Analyse Mitarbeiterumfrage Hoch (Tendenz) Emotionserkennung im Arbeitskontext, ggf. verboten
Videoanalyse zur Mitarbeiterüberwachung Unannehmbar / Hoch Emotionserkennung am Arbeitsplatz weitgehend verboten
Spam-Filter im E-Mail-Server Minimal Keine Personenbewertung
Predictive Maintenance in der Produktion Minimal Wartungsoptimierung ohne Personenbezug
KI-gestützte Krebsdiagnose in der Radiologie Hoch Medizinprodukt, Anhang III
Übersetzungs-API für Kundensupport-Tickets Begrenzt bis minimal Abhängig vom Personenbezug

Die Tabelle zeigt die wichtigste Faustregel: Es gibt keine pauschale Antwort. Dasselbe Tool kann je nach Einsatzkontext unterschiedlich eingeordnet werden. ChatGPT für interne Notizen ist begrenzt, ChatGPT zur automatisierten Bewerber-Vorauswahl wird Hochrisiko.

Wie Sie Ihre eigene Klassifikation dokumentieren

Eine pragmatische Risikoklassifikation pro System sollte folgende Punkte enthalten:

  1. System-Bezeichnung und Anbieter: ChatGPT Team von OpenAI, Microsoft Copilot M365, etc.
  2. Einsatzzweck: Wofür wird das System konkret im Unternehmen verwendet
  3. Verarbeitete Daten: Welche Datenarten gehen in das System hinein
  4. Wer ist betroffen: Mitarbeiter, Kunden, Bewerber, Dritte
  5. Risikoklasse: Eine der vier Stufen
  6. Begründung: Warum diese Einordnung, mit Verweis auf Art. 5 oder Anhang III
  7. Pflichten: Welche Maßnahmen ergeben sich aus der Klasse
  8. Datum und Verantwortlicher: Wer hat wann klassifiziert

Ein einfaches Tabellen-Dokument oder ein Eintrag im KI-Inventar ist ausreichend. Wichtig ist die schriftliche Form, nicht das Format.

Häufige Fehler bei der Risikoklassifikation

In der Praxis tauchen drei Fehler immer wieder auf:

Was eine saubere Risikobewertung kostet

Die gute Nachricht: Eine erste Risikoklassifikation für ein mittelständisches Unternehmen mit fünf bis fünfzehn KI-Tools ist in zwei bis vier Stunden erledigt. Dafür brauchen Sie keine externe Beratung, sondern nur einen halben Vormittag mit einem klaren Kopf und der Verordnung im Hintergrund.

Realistischer Aufwand:

Bei zehn Tools landen Sie bei drei bis fünf Stunden Gesamtaufwand. Das ist überschaubar. Schwieriger wird es bei Hochrisiko-Systemen, weil dann zusätzlich Konformitätsbewertung, technische Dokumentation und ein Risikomanagement-System nötig sind. Dafür sollten Sie externe Unterstützung einplanen, weil die Anforderungen aus Anhang VIII der Verordnung detailliert und juristisch geprägt sind.

Wer die Klassifikation einmal sauber gemacht hat, braucht später nur noch Updates. Pro neuem Tool oder pro Versionsupdate eines bestehenden Tools etwa 30 Minuten. Über ein ganzes Jahr verteilt ist das ein deutlich geringerer Aufwand als die meisten DSGVO-Pflichten und auch deutlich weniger als die laufende Buchführung. Trotzdem ist die Klassifikation der wichtigste Schritt, weil sie die Grundlage für alles Weitere ist.

Häufige Fragen

Wer entscheidet über die Risikoklasse meiner Tools?

Sie als Anbieter oder Betreiber sind selbst für die Einordnung verantwortlich. Aufsichtsbehörden geben Leitlinien heraus, die finale Klassifikation trifft aber Ihr Unternehmen. Bei Unklarheiten empfiehlt sich eine externe Rechtsberatung, insbesondere bei Tools, die in Grenzbereichen zwischen Hochrisiko und begrenztem Risiko liegen.

Was passiert, wenn ich ein Tool falsch klassifiziere?

Eine fahrlässig falsche Klassifikation kann zu Bußgeldern führen, wenn dadurch Hochrisiko-Pflichten umgangen wurden. Vorsätzlich falsche Angaben gegenüber Behörden sind eigenständig sanktionierbar mit bis zu 7,5 Millionen Euro oder 1 Prozent Jahresumsatz. Eine sorgfältige, dokumentierte Einschätzung mit nachvollziehbarer Begründung schützt vor dem Vorwurf der Fahrlässigkeit.

Können kostenfreie Tools wie ChatGPT Free auch Hochrisiko sein?

Theoretisch ja, wenn sie im Hochrisiko-Kontext eingesetzt werden. Praktisch sind kostenfreie Tools in der Regel nicht freigegeben, weil sie Datenschutz- und Trainingsprobleme aufwerfen. Die saubere Lösung: Solche Tools per KI-Richtlinie für den Geschäftseinsatz verbieten und ausschließlich kostenpflichtige Business-Versionen nutzen.

Sind Open-Source-Modelle wie Llama auch erfasst?

Ja, der EU AI Act unterscheidet nicht zwischen kommerziellen und Open-Source-Systemen, wenn es um den Einsatz im Geschäftskontext geht. Wer ein Llama-Modell für die Bewerber-Vorauswahl einsetzt, hat dieselben Hochrisiko-Pflichten wie bei einem kommerziellen Anbieter. Es gibt jedoch Erleichterungen für den reinen Forschungseinsatz.

Was ist mit KI in der Produktion oder im Vertrieb?

Predictive Maintenance, Qualitätskontrolle und Bedarfsprognosen ohne Personenbezug fallen in der Regel in die Klasse minimales Risiko. Sobald ein System aber Mitarbeiter bewertet oder Kundenentscheidungen automatisiert trifft (zum Beispiel automatisches Pricing für Einzelpersonen), kann sich die Klassifikation verschieben.

Muss ich die Risikoklassifikation der Aufsichtsbehörde melden?

Eine aktive Meldung ist nicht in allen Fällen vorgesehen. Für Hochrisiko-Systeme gibt es ein EU-weites Register, in dem bestimmte Anbieter ihre Systeme registrieren müssen. Für reine Betreiber gibt es keine pauschale Registrierungspflicht. Stand April 2026, prüfen Sie aktuelle Werte bei der zuständigen Stelle.

Fazit

Die KI-Risikoklassifikation ist das Fundament Ihrer Compliance-Arbeit. Ohne klare Einordnung wissen Sie nicht, welche Pflichten Sie überhaupt treffen, und ohne dokumentierte Begründung können Sie sich bei einer Prüfung nicht verteidigen. Beginnen Sie mit einer einfachen Liste aller eingesetzten KI-Tools, ordnen Sie jedem System eine der vier Klassen zu und schreiben Sie einen Satz Begründung dazu. Diese Übung dauert für ein mittleres Unternehmen einen halben Tag und ist die wichtigste Vorbereitung auf den August 2026.

SkillSprinters unterstützt Unternehmen dabei, ihre KI-Tools rechtssicher einzuordnen und die Mitarbeiter entsprechend zu schulen. KI-Compliance-Beratung anfragen.

Weiterführende Artikel im Compliance-Hub: - EU AI Act Deadline August 2026 - KI-Richtlinie Muster zum Download - KI-Haftung bei Mitarbeiterfehlern

Bereit für deinen nächsten Karriereschritt?

Lass dich kostenlos beraten. Wir finden die passende Weiterbildung und Förderung für dich.

Weiterbildung ansehen WhatsApp