Die KI-Verordnung kennt vier Risikoklassen: verboten, hochrisiko, begrenzt, minimal. Ein 12-Fragen-Entscheidungsbaum klassifiziert jedes KI-System im Unternehmen. Art. 4 KI-Kompetenzpflicht gilt seit 02.02.2025 für alle Klassen, auch minimales Risiko.
Die EU-KI-Verordnung teilt KI-Systeme in vier Risikoklassen ein. Welche Klasse dein Tool trifft, entscheidet über Dokumentationspflichten, Zertifizierungsaufwand und Bussgeldrisiko. In diesem Artikel bekommst du einen praktischen Entscheidungsbaum mit zwoelf Fragen, der dir für jedes im Mittelstand übliche KI-Tool die richtige Klasse zuordnet. Plus eine Inventur-Vorlage, mit der du sofort loslegen kannst.
Die vier Risikoklassen der KI-Verordnung
Artikel 5 bis 6 sowie Artikel 50 der KI-VO definieren vier Stufen:
| Klasse | Beispiele | Rechtsfolge |
|---|---|---|
| Verboten (Artikel 5) | Social Scoring, manipulatives Unterbewusstsein-Targeting, Predictive Policing ohne konkrete Verdachtsgruende, Emotion Recognition am Arbeitsplatz (mit Ausnahmen), biometrische Echtzeit-Fernidentifikation im öffentlichen Raum | Seit 2. Februar 2025 komplett untersagt, Bussgelder bis 35 Mio. Euro oder 7 Prozent Weltumsatz |
| Hochrisiko (Artikel 6, Anhang III) | HR-Screening, Kreditwuerdigkeitsbewertung, Zugang zu Bildung, kritische Infrastruktur, Justizanwendungen, Migrationsverfahren, Sicherheitskomponenten in Produkten | Umfassende Pflichten ab August 2026 (mit Vorbehalt der Digital-Omnibus-Verschiebung auf 2027), Zertifizierung, Dokumentation, menschliche Aufsicht, Risikomanagement, Datenqualitaet, Cybersicherheit |
| Begrenztes Risiko (Artikel 50) | Chatbots, Deepfakes, Emotion-Recognition-Systeme, biometrische Kategorisierungssysteme, KI-generierte Inhalte im öffentlichen Interesse | Transparenz- und Kennzeichnungspflicht, seit 2. August 2026 vollständig anwendbar |
| Minimales Risiko | Spamfilter, KI in Videospielen, Empfehlungen ohne Personenbezug, interne Textbausteine, Übersetzer | Keine neuen Pflichten, aber Artikel 4 KI-Kompetenz und allgemeine Sorgfaltspflichten gelten trotzdem |
Wichtig vor dem Entscheidungsbaum: Artikel 4 gilt immer
Unabhängig von der Risikoklasse gilt seit 2. Februar 2025 die KI-Kompetenzpflicht nach Artikel 4 KI-VO. Wer KI-Systeme einsetzt, muss sicherstellen, dass Personal, das diese Systeme nutzt, über ausreichende Kompetenz verfügt. Das bedeutet: Selbst wenn dein Tool als minimales Risiko eingestuft wird, musst du Schulung und Dokumentation nachweisen können. Die Risikoklasse ist also eine Zusatzdimension, keine Freistellung.
Der 12-Fragen-Entscheidungsbaum
Diesen Baum arbeitest du für jedes KI-System in deinem Unternehmen einzeln durch. Anfangen mit Frage 1, so lange weiter, bis eine Frage mit Ja beantwortet wird. Die Antwort bestimmt die Klasse.
Frage 1: Dient das KI-System Social Scoring, manipulativer Werbung auf vulnerablen Gruppen, Echtzeit-Biometrie im öffentlichen Raum oder Predictive Policing ohne konkreten Verdacht?
Wenn Ja: Verboten (Artikel 5). Das System darf nicht in der EU betrieben werden. Sofortiger Einsatzstopp.
Frage 2: Setzt das KI-System Emotion Recognition oder biometrische Kategorisierung am Arbeitsplatz oder in Bildungseinrichtungen ein?
Wenn Ja: Verboten (Artikel 5), mit engen Ausnahmen für medizinische oder Sicherheitsgruende. Praktisch heisst: Finger weg.
Frage 3: Wird das KI-System als Sicherheitskomponente eines Produkts eingesetzt, das unter EU-Harmonisierungsvorschriften faellt (Maschinenrichtlinie, Medizinprodukte, Aufzuege, Spielzeug, Funkanlagen, etc.)?
Wenn Ja: Hochrisiko (Artikel 6 Absatz 1). Volle Pflichten ab August 2026 (vorbehaltlich Digital-Omnibus).
Frage 4: Dient das KI-System der biometrischen Fernidentifikation, biometrischen Kategorisierung oder Emotionserkennung ausserhalb der Ausnahmen?
Wenn Ja: Hochrisiko (Anhang III Nummer 1).
Frage 5: Wird das KI-System für kritische Infrastruktur genutzt (Energieverteilung, Verkehr, Wasser, Gas, digitale Infrastruktur)?
Wenn Ja: Hochrisiko (Anhang III Nummer 2).
Frage 6: Trifft oder beeinflusst das KI-System Entscheidungen über Zugang zu Bildung oder die Bewertung von Prüfungsergebnissen?
Wenn Ja: Hochrisiko (Anhang III Nummer 3).
Frage 7: Sortiert, filtert, bewertet oder schlaegt das KI-System Bewerbungen vor, trifft es Entscheidungen über Einstellung, Befoerderung, Beendigung, Aufgabenzuweisung oder Leistungsueberwachung von Arbeitnehmern?
Wenn Ja: Hochrisiko (Anhang III Nummer 4). Besonders wichtig für den Mittelstand, da HR-Tools mit KI-Komponenten zunehmend verbreitet sind.
Frage 8: Entscheidet das KI-System über Zugang zu oder Genuss wesentlicher privater oder öffentlicher Dienste (Kreditwuerdigkeit, Versicherungspraemien Leben/Kranken, Prioritaetensetzung bei Notrufen)?
Wenn Ja: Hochrisiko (Anhang III Nummer 5).
Frage 9: Wird das KI-System in der Strafverfolgung, Migration, Asyl, Grenzkontrolle oder Justiz eingesetzt?
Wenn Ja: Hochrisiko (Anhang III Nummer 6-8).
Frage 10: Interagiert das KI-System direkt mit natuerlichen Personen (Chatbot, Sprachassistent)?
Wenn Ja: Begrenztes Risiko (Artikel 50 Absatz 1). Transparenzpflicht: Nutzer müssen wissen, dass sie mit KI kommunizieren.
Frage 11: Erzeugt das KI-System synthetische Audio-, Bild-, Video- oder Textinhalte, die Personen zeigen oder imitieren (Deepfake-Technologie)?
Wenn Ja: Begrenztes Risiko (Artikel 50 Absatz 4). Kennzeichnungspflicht als künstlich erzeugt.
Frage 12: Nutzt das System Emotion Recognition oder biometrische Kategorisierung ausserhalb der verbotenen Anwendungsfaelle?
Wenn Ja: Begrenztes Risiko (Artikel 50 Absatz 3). Betroffene müssen informiert werden.
Wenn keine der Fragen 1 bis 12 mit Ja beantwortet wurde: Minimales Risiko. Keine neuen Pflichten durch KI-VO, aber Artikel 4 (Kompetenzpflicht), DSGVO, allgemeine Sorgfalts- und Produkthaftungspflichten gelten weiterhin.
Wo typische Mittelstands-Tools landen
| Tool / Anwendung | Klasse | Begruendung |
|---|---|---|
| Google Gemini in Gmail (Zusammenfassung, Formulierungshilfe) | Minimal | Keine Interaktion mit Externen, kein Hochrisiko-Bereich |
| Claude für interne Vertragstexte | Minimal (mit Vorsicht) | Output muss menschlich geprüft werden, Artikel 4 greift |
| Sales-Chatbot auf Firmenwebseite | Begrenzt (Artikel 50) | Kennzeichnungspflicht, Nutzer muss wissen, dass er mit KI spricht |
| HR-Screening-Tool, das Lebenslaeufe sortiert | Hochrisiko (Anhang III Nr. 4) | Beeinflusst Einstellungsentscheidung |
| KI-gestuetzte Schadenmeldung im Versicherungsbereich | Minimal bis Hochrisiko | Abhängig davon, ob Lebens-/Krankenversicherung betroffen |
| Marketing-Bildgenerierung mit Personenmotiv | Begrenzt (Artikel 50) | Synthetische Inhalte mit Personen sind kennzeichnungspflichtig |
| Microsoft Copilot in Office-Dokumenten | Minimal | Interne Produktivitaet, keine Hochrisiko-Nutzung |
| DeepL Pro für Übersetzungen | Minimal | Keine Rechtsfolge jenseits Artikel 4 |
| Predictive Maintenance für Maschinen | Minimal bis Hochrisiko | Hochrisiko, wenn Sicherheitskomponente eines Produkts |
| KI-gestuetzte Mitarbeiterueberwachung (Productivity Tracker) | Hochrisiko bis Verboten | Leistungsueberwachung ist Hochrisiko, Emotion Recognition verboten |
Dokumentationspflichten pro Klasse
Minimales Risiko
- Artikel 4 Schulungsnachweis
- Interne KI-Richtlinie mit Erwaehnung des Tools
- Datenschutz-Folgenabschaetzung, wenn personenbezogene Daten verarbeitet werden
Begrenztes Risiko (Artikel 50)
- Wie oben, zusätzlich
- Transparenzhinweis im User Interface
- Kennzeichnung synthetischer Inhalte
- Dokumentation, wie und wo die Kennzeichnung erfolgt
Hochrisiko (Artikel 6ff)
- Risikomanagementsystem
- Daten-Governance (Qualitaet, Biasvermeidung)
- Technische Dokumentation (Modell, Training, Leistung)
- Automatische Protokollierung (Logs für mindestens 6 Monate)
- Transparenz gegenueber Nutzern
- Menschliche Aufsicht mit Eingriffmoeglichkeit
- Genauigkeit, Robustheit, Cybersicherheit
- Registrierung in der EU-Datenbank für Hochrisiko-KI
- Konformitaetsbewertung vor Inverkehrbringen
- Laufende Überwachung nach Inverkehrbringen
Was jetzt, was ab August 2026
| Seit 2. Februar 2025 | Seit 2. August 2025 | Ab 2. August 2026 | Ab 2. August 2027 |
|---|---|---|---|
| Artikel 4 (KI-Kompetenz), Artikel 5 (Verbote) in Kraft | Bussgelder für Verstoesse gegen Artikel 5 möglich, GPAI-Regeln (General Purpose AI) | Artikel 6ff Hochrisiko-Pflichten (mit Digital-Omnibus-Trilog-Vorbehalt 28. April 2026 auf 2027) | Volle Anwendbarkeit aller Regeln der KI-VO |
Das Zeitfenster ist knapp. Wer heute ein Hochrisiko-System einsetzt, muss die Konformitaetsbewertung bis Sommer 2026 abgeschlossen haben. Bei externen Anbietern bedeutet das, jetzt Freigaben und Dokumentationen einzufordern.
Hands-on: Die Inventur-Vorlage
Beginne mit einer strukturierten KI-Inventur. Pro KI-System erfasst du folgende Felder:
- Name des Tools und Anbieter
- Abteilung und verantwortliche Person
- Zweck / Anwendungsfall
- Welche Daten werden verarbeitet (Datenklassifikation)
- Antwort auf jede der 12 Entscheidungsfragen
- Resultierende Risikoklasse
- Status der Dokumentation (fehlt, teilweise, vollständig)
- Nachweis des Auftragsverarbeitungsvertrags (ja/nein/n.a.)
- Schulungsstatus der Anwender
- Verantwortliche Führungskraft für Freigabe
- Nächster Review-Termin
- Anmerkungen
Eine einfache Tabelle in Excel oder Airtable reicht als Start. Bei mehr als 20 KI-Systemen lohnt sich ein Tool wie Notion oder ein dediziertes Governance-System.
Typische Fallen im Mittelstand
- Unterschaetzung von HR-Tools: Viele HR-Software-Pakete haben KI-Komponenten in CV-Matching, Talent Scoring oder Performance Monitoring. Das ist Hochrisiko, auch wenn der Anbieter das im Marketing nicht erwaehnt.
- Chatbots ohne Kennzeichnung: Beliebter Fehler. Artikel 50 Transparenzpflicht ist seit 2. August 2026 vollständig anwendbar.
- "Wir nutzen nur ChatGPT": Auch ein General-Purpose-Modell wird zur Hochrisiko-KI, wenn du es in einem Hochrisiko-Kontext einsetzt. Die Klassifikation richtet sich nach dem Anwendungsfall, nicht nach dem Basismodell.
- Schatten-KI nicht erfassen: Ohne Inventur weisst du nicht, was deine Mitarbeiter privat nutzen. Eine anonyme Umfrage ist der erste Schritt.
- Outsourcing entbindet nicht: Auch wenn der Anbieter die KI betreibt, bleibst du als Betreiber verantwortlich.
Was du diese Woche tun solltest
- Montag: Leite eine anonyme Umfrage an alle Abteilungen: "Welche KI-Tools nutzt du beruflich?"
- Dienstag: Konsolidiere die Antworten zu einer ersten Tool-Liste.
- Mittwoch: Arbeite für die Top 10 Tools den Entscheidungsbaum durch.
- Donnerstag: Identifiziere Hochrisiko-Kandidaten und eskaliere an Geschäftsleitung.
- Freitag: Dokumentationsstatus pro Tool vermerken, Nächste-Schritte-Liste.
Die Risikoklassifikation ist der Dreh- und Angelpunkt deiner KI-Compliance. Ohne Klassifikation weisst du nicht, welche Pflichten greifen, welches Budget du brauchst und welche Risiken du eingehst. Die zwoelf Fragen aus diesem Artikel geben dir eine praktikable Struktur, um in wenigen Tagen Klarheit zu bekommen. Und wenn am Ende einzelne Tools doch komplizierter sind, hast du zumindest den Kandidaten-Kreis für eine anwaltliche Tiefenpruefung sauber eingegrenzt.
Häufige Fragen
Welche vier Risikoklassen unterscheidet die KI-Verordnung?
Verboten (Art. 5): Social Scoring, Emotion Recognition am Arbeitsplatz, Predictive Policing ohne Verdacht, Echtzeit-Biometrie im oeffentlichen Raum. Hochrisiko (Art. 6, Anhang III): HR-Screening, Kreditwürdigkeit, kritische Infrastruktur. Begrenztes Risiko (Art. 50): Chatbots, Deepfakes, synthetische Medien mit Transparenzpflicht. Minimales Risiko: Spamfilter, Übersetzer, interne Textbausteine.
Wie klassifiziere ich ein eigenes KI-System?
Durch einen 12-Fragen-Entscheidungsbaum. Start mit Frage 1 (verboten), dann Hochrisiko-Fragen 3-9 (Sicherheitskomponente in Produkten, biometrische Fernidentifikation, kritische Infrastruktur, Bildungszugang, HR-Entscheidungen, Kreditwürdigkeit, Strafverfolgung), dann Art.-50-Fragen 10-12 (Chatbot, Deepfake, Emotion Recognition). Wer keine Frage mit Ja beantwortet, landet bei minimalem Risiko.
Welche Dokumentation verlangt welche Risikoklasse?
Minimal: Art. 4 Schulungsnachweis, interne KI-Richtlinie, ggf. DSFA. Begrenzt: zusätzlich Transparenzhinweis im UI und Kennzeichnung synthetischer Inhalte. Hochrisiko: Risikomanagementsystem, Daten-Governance, technische Dokumentation, automatische Protokollierung (Logs mindestens 6 Monate), Transparenz gegenüber Nutzern, menschliche Aufsicht, Konformitätsbewertung.
Wo landen typische Mittelstands-Tools?
Minimal: Google Gemini in Gmail, Claude für interne Texte, Microsoft Copilot in Office, DeepL Pro. Begrenzt (Art. 50): Sales-Chatbot auf der Firmenwebseite, Marketing-Bildgenerierung mit Personen. Hochrisiko (Anhang III Nr. 4): HR-Screening-Tools, die Lebensläufe sortieren. Verboten: KI-gestützte Mitarbeiterüberwachung mit Emotion Recognition.
KI richtig einstufen statt blind einsetzen?
DigiMan-Weiterbildung deckt Risikoklassifikation, Art. 4 Schulungspflicht und Dokumentation ab. 100 % über QCG förderfähig. 15 Minuten kostenloses Erstgespräch.