Auf einen Blick

Die KI-Verordnung kennt vier Risikoklassen: verboten, hochrisiko, begrenzt, minimal. Ein 12-Fragen-Entscheidungsbaum klassifiziert jedes KI-System im Unternehmen. Art. 4 KI-Kompetenzpflicht gilt seit 02.02.2025 für alle Klassen, auch minimales Risiko.

Die EU-KI-Verordnung teilt KI-Systeme in vier Risikoklassen ein. Welche Klasse dein Tool trifft, entscheidet über Dokumentationspflichten, Zertifizierungsaufwand und Bussgeldrisiko. In diesem Artikel bekommst du einen praktischen Entscheidungsbaum mit zwoelf Fragen, der dir für jedes im Mittelstand übliche KI-Tool die richtige Klasse zuordnet. Plus eine Inventur-Vorlage, mit der du sofort loslegen kannst.

Die vier Risikoklassen der KI-Verordnung

Artikel 5 bis 6 sowie Artikel 50 der KI-VO definieren vier Stufen:

KlasseBeispieleRechtsfolge
Verboten (Artikel 5)Social Scoring, manipulatives Unterbewusstsein-Targeting, Predictive Policing ohne konkrete Verdachtsgruende, Emotion Recognition am Arbeitsplatz (mit Ausnahmen), biometrische Echtzeit-Fernidentifikation im öffentlichen RaumSeit 2. Februar 2025 komplett untersagt, Bussgelder bis 35 Mio. Euro oder 7 Prozent Weltumsatz
Hochrisiko (Artikel 6, Anhang III)HR-Screening, Kreditwuerdigkeitsbewertung, Zugang zu Bildung, kritische Infrastruktur, Justizanwendungen, Migrationsverfahren, Sicherheitskomponenten in ProduktenUmfassende Pflichten ab August 2026 (mit Vorbehalt der Digital-Omnibus-Verschiebung auf 2027), Zertifizierung, Dokumentation, menschliche Aufsicht, Risikomanagement, Datenqualitaet, Cybersicherheit
Begrenztes Risiko (Artikel 50)Chatbots, Deepfakes, Emotion-Recognition-Systeme, biometrische Kategorisierungssysteme, KI-generierte Inhalte im öffentlichen InteresseTransparenz- und Kennzeichnungspflicht, seit 2. August 2026 vollständig anwendbar
Minimales RisikoSpamfilter, KI in Videospielen, Empfehlungen ohne Personenbezug, interne Textbausteine, ÜbersetzerKeine neuen Pflichten, aber Artikel 4 KI-Kompetenz und allgemeine Sorgfaltspflichten gelten trotzdem

Wichtig vor dem Entscheidungsbaum: Artikel 4 gilt immer

Unabhängig von der Risikoklasse gilt seit 2. Februar 2025 die KI-Kompetenzpflicht nach Artikel 4 KI-VO. Wer KI-Systeme einsetzt, muss sicherstellen, dass Personal, das diese Systeme nutzt, über ausreichende Kompetenz verfügt. Das bedeutet: Selbst wenn dein Tool als minimales Risiko eingestuft wird, musst du Schulung und Dokumentation nachweisen können. Die Risikoklasse ist also eine Zusatzdimension, keine Freistellung.

Der 12-Fragen-Entscheidungsbaum

Diesen Baum arbeitest du für jedes KI-System in deinem Unternehmen einzeln durch. Anfangen mit Frage 1, so lange weiter, bis eine Frage mit Ja beantwortet wird. Die Antwort bestimmt die Klasse.

Frage 1: Dient das KI-System Social Scoring, manipulativer Werbung auf vulnerablen Gruppen, Echtzeit-Biometrie im öffentlichen Raum oder Predictive Policing ohne konkreten Verdacht?

Wenn Ja: Verboten (Artikel 5). Das System darf nicht in der EU betrieben werden. Sofortiger Einsatzstopp.

Frage 2: Setzt das KI-System Emotion Recognition oder biometrische Kategorisierung am Arbeitsplatz oder in Bildungseinrichtungen ein?

Wenn Ja: Verboten (Artikel 5), mit engen Ausnahmen für medizinische oder Sicherheitsgruende. Praktisch heisst: Finger weg.

Frage 3: Wird das KI-System als Sicherheitskomponente eines Produkts eingesetzt, das unter EU-Harmonisierungsvorschriften faellt (Maschinenrichtlinie, Medizinprodukte, Aufzuege, Spielzeug, Funkanlagen, etc.)?

Wenn Ja: Hochrisiko (Artikel 6 Absatz 1). Volle Pflichten ab August 2026 (vorbehaltlich Digital-Omnibus).

Frage 4: Dient das KI-System der biometrischen Fernidentifikation, biometrischen Kategorisierung oder Emotionserkennung ausserhalb der Ausnahmen?

Wenn Ja: Hochrisiko (Anhang III Nummer 1).

Frage 5: Wird das KI-System für kritische Infrastruktur genutzt (Energieverteilung, Verkehr, Wasser, Gas, digitale Infrastruktur)?

Wenn Ja: Hochrisiko (Anhang III Nummer 2).

Frage 6: Trifft oder beeinflusst das KI-System Entscheidungen über Zugang zu Bildung oder die Bewertung von Prüfungsergebnissen?

Wenn Ja: Hochrisiko (Anhang III Nummer 3).

Frage 7: Sortiert, filtert, bewertet oder schlaegt das KI-System Bewerbungen vor, trifft es Entscheidungen über Einstellung, Befoerderung, Beendigung, Aufgabenzuweisung oder Leistungsueberwachung von Arbeitnehmern?

Wenn Ja: Hochrisiko (Anhang III Nummer 4). Besonders wichtig für den Mittelstand, da HR-Tools mit KI-Komponenten zunehmend verbreitet sind.

Frage 8: Entscheidet das KI-System über Zugang zu oder Genuss wesentlicher privater oder öffentlicher Dienste (Kreditwuerdigkeit, Versicherungspraemien Leben/Kranken, Prioritaetensetzung bei Notrufen)?

Wenn Ja: Hochrisiko (Anhang III Nummer 5).

Frage 9: Wird das KI-System in der Strafverfolgung, Migration, Asyl, Grenzkontrolle oder Justiz eingesetzt?

Wenn Ja: Hochrisiko (Anhang III Nummer 6-8).

Frage 10: Interagiert das KI-System direkt mit natuerlichen Personen (Chatbot, Sprachassistent)?

Wenn Ja: Begrenztes Risiko (Artikel 50 Absatz 1). Transparenzpflicht: Nutzer müssen wissen, dass sie mit KI kommunizieren.

Frage 11: Erzeugt das KI-System synthetische Audio-, Bild-, Video- oder Textinhalte, die Personen zeigen oder imitieren (Deepfake-Technologie)?

Wenn Ja: Begrenztes Risiko (Artikel 50 Absatz 4). Kennzeichnungspflicht als künstlich erzeugt.

Frage 12: Nutzt das System Emotion Recognition oder biometrische Kategorisierung ausserhalb der verbotenen Anwendungsfaelle?

Wenn Ja: Begrenztes Risiko (Artikel 50 Absatz 3). Betroffene müssen informiert werden.

Wenn keine der Fragen 1 bis 12 mit Ja beantwortet wurde: Minimales Risiko. Keine neuen Pflichten durch KI-VO, aber Artikel 4 (Kompetenzpflicht), DSGVO, allgemeine Sorgfalts- und Produkthaftungspflichten gelten weiterhin.

Wo typische Mittelstands-Tools landen

Tool / AnwendungKlasseBegruendung
Google Gemini in Gmail (Zusammenfassung, Formulierungshilfe)MinimalKeine Interaktion mit Externen, kein Hochrisiko-Bereich
Claude für interne VertragstexteMinimal (mit Vorsicht)Output muss menschlich geprüft werden, Artikel 4 greift
Sales-Chatbot auf FirmenwebseiteBegrenzt (Artikel 50)Kennzeichnungspflicht, Nutzer muss wissen, dass er mit KI spricht
HR-Screening-Tool, das Lebenslaeufe sortiertHochrisiko (Anhang III Nr. 4)Beeinflusst Einstellungsentscheidung
KI-gestuetzte Schadenmeldung im VersicherungsbereichMinimal bis HochrisikoAbhängig davon, ob Lebens-/Krankenversicherung betroffen
Marketing-Bildgenerierung mit PersonenmotivBegrenzt (Artikel 50)Synthetische Inhalte mit Personen sind kennzeichnungspflichtig
Microsoft Copilot in Office-DokumentenMinimalInterne Produktivitaet, keine Hochrisiko-Nutzung
DeepL Pro für ÜbersetzungenMinimalKeine Rechtsfolge jenseits Artikel 4
Predictive Maintenance für MaschinenMinimal bis HochrisikoHochrisiko, wenn Sicherheitskomponente eines Produkts
KI-gestuetzte Mitarbeiterueberwachung (Productivity Tracker)Hochrisiko bis VerbotenLeistungsueberwachung ist Hochrisiko, Emotion Recognition verboten

Dokumentationspflichten pro Klasse

Minimales Risiko

Begrenztes Risiko (Artikel 50)

Hochrisiko (Artikel 6ff)

Was jetzt, was ab August 2026

Seit 2. Februar 2025Seit 2. August 2025Ab 2. August 2026Ab 2. August 2027
Artikel 4 (KI-Kompetenz), Artikel 5 (Verbote) in KraftBussgelder für Verstoesse gegen Artikel 5 möglich, GPAI-Regeln (General Purpose AI)Artikel 6ff Hochrisiko-Pflichten (mit Digital-Omnibus-Trilog-Vorbehalt 28. April 2026 auf 2027)Volle Anwendbarkeit aller Regeln der KI-VO

Das Zeitfenster ist knapp. Wer heute ein Hochrisiko-System einsetzt, muss die Konformitaetsbewertung bis Sommer 2026 abgeschlossen haben. Bei externen Anbietern bedeutet das, jetzt Freigaben und Dokumentationen einzufordern.

Hands-on: Die Inventur-Vorlage

Beginne mit einer strukturierten KI-Inventur. Pro KI-System erfasst du folgende Felder:

  1. Name des Tools und Anbieter
  2. Abteilung und verantwortliche Person
  3. Zweck / Anwendungsfall
  4. Welche Daten werden verarbeitet (Datenklassifikation)
  5. Antwort auf jede der 12 Entscheidungsfragen
  6. Resultierende Risikoklasse
  7. Status der Dokumentation (fehlt, teilweise, vollständig)
  8. Nachweis des Auftragsverarbeitungsvertrags (ja/nein/n.a.)
  9. Schulungsstatus der Anwender
  10. Verantwortliche Führungskraft für Freigabe
  11. Nächster Review-Termin
  12. Anmerkungen

Eine einfache Tabelle in Excel oder Airtable reicht als Start. Bei mehr als 20 KI-Systemen lohnt sich ein Tool wie Notion oder ein dediziertes Governance-System.

Typische Fallen im Mittelstand

Was du diese Woche tun solltest

  1. Montag: Leite eine anonyme Umfrage an alle Abteilungen: "Welche KI-Tools nutzt du beruflich?"
  2. Dienstag: Konsolidiere die Antworten zu einer ersten Tool-Liste.
  3. Mittwoch: Arbeite für die Top 10 Tools den Entscheidungsbaum durch.
  4. Donnerstag: Identifiziere Hochrisiko-Kandidaten und eskaliere an Geschäftsleitung.
  5. Freitag: Dokumentationsstatus pro Tool vermerken, Nächste-Schritte-Liste.

Die Risikoklassifikation ist der Dreh- und Angelpunkt deiner KI-Compliance. Ohne Klassifikation weisst du nicht, welche Pflichten greifen, welches Budget du brauchst und welche Risiken du eingehst. Die zwoelf Fragen aus diesem Artikel geben dir eine praktikable Struktur, um in wenigen Tagen Klarheit zu bekommen. Und wenn am Ende einzelne Tools doch komplizierter sind, hast du zumindest den Kandidaten-Kreis für eine anwaltliche Tiefenpruefung sauber eingegrenzt.

Häufige Fragen

Welche vier Risikoklassen unterscheidet die KI-Verordnung?

Verboten (Art. 5): Social Scoring, Emotion Recognition am Arbeitsplatz, Predictive Policing ohne Verdacht, Echtzeit-Biometrie im oeffentlichen Raum. Hochrisiko (Art. 6, Anhang III): HR-Screening, Kreditwürdigkeit, kritische Infrastruktur. Begrenztes Risiko (Art. 50): Chatbots, Deepfakes, synthetische Medien mit Transparenzpflicht. Minimales Risiko: Spamfilter, Übersetzer, interne Textbausteine.

Wie klassifiziere ich ein eigenes KI-System?

Durch einen 12-Fragen-Entscheidungsbaum. Start mit Frage 1 (verboten), dann Hochrisiko-Fragen 3-9 (Sicherheitskomponente in Produkten, biometrische Fernidentifikation, kritische Infrastruktur, Bildungszugang, HR-Entscheidungen, Kreditwürdigkeit, Strafverfolgung), dann Art.-50-Fragen 10-12 (Chatbot, Deepfake, Emotion Recognition). Wer keine Frage mit Ja beantwortet, landet bei minimalem Risiko.

Welche Dokumentation verlangt welche Risikoklasse?

Minimal: Art. 4 Schulungsnachweis, interne KI-Richtlinie, ggf. DSFA. Begrenzt: zusätzlich Transparenzhinweis im UI und Kennzeichnung synthetischer Inhalte. Hochrisiko: Risikomanagementsystem, Daten-Governance, technische Dokumentation, automatische Protokollierung (Logs mindestens 6 Monate), Transparenz gegenüber Nutzern, menschliche Aufsicht, Konformitätsbewertung.

Wo landen typische Mittelstands-Tools?

Minimal: Google Gemini in Gmail, Claude für interne Texte, Microsoft Copilot in Office, DeepL Pro. Begrenzt (Art. 50): Sales-Chatbot auf der Firmenwebseite, Marketing-Bildgenerierung mit Personen. Hochrisiko (Anhang III Nr. 4): HR-Screening-Tools, die Lebensläufe sortieren. Verboten: KI-gestützte Mitarbeiterüberwachung mit Emotion Recognition.

KI richtig einstufen statt blind einsetzen?

DigiMan-Weiterbildung deckt Risikoklassifikation, Art. 4 Schulungspflicht und Dokumentation ab. 100 % über QCG förderfähig. 15 Minuten kostenloses Erstgespräch.

DigiMan-Weiterbildung ansehen WhatsApp