Der EU AI Act (Verordnung (EU) 2024/1689) ist das weltweit erste umfassende Gesetz zur Regulierung Künstlicher Intelligenz. Er betrifft jedes Unternehmen in der EU, das KI-Systeme entwickelt, vertreibt oder nutzt. Seit dem 1. August 2024 ist die Verordnung in Kraft. Seitdem werden schrittweise verschiedene Pflichten wirksam.

Dieser Artikel gibt Ihnen einen vollständigen Überblick: Welche Risikoklassen gibt es? Was ist verboten? Welche Pflichten gelten für Hochrisiko-KI? Und welche Bußgelder drohen bei Verstößen?

Das Vier-Stufen-Modell: Risikoklassen im EU AI Act

Der EU AI Act verfolgt einen risikobasierten Ansatz. Je höher das Risiko eines KI-Systems, desto strenger die Anforderungen. Vier Stufen werden unterschieden:

Stufe 1: Unannehmbares Risiko (verboten)

KI-Systeme, die grundlegende Rechte und Werte der EU verletzen, sind vollständig verboten. Das Verbot gilt seit dem 2. Februar 2025. Dazu gehören:

Stufe 2: Hohes Risiko (streng reguliert)

Hochrisiko-KI-Systeme werden in sensiblen Bereichen eingesetzt, in denen Fehler erhebliche Auswirkungen auf Menschen haben können. Beispiele:

Für Hochrisiko-KI gelten umfangreiche Pflichten (siehe nächster Abschnitt).

Stufe 3: Begrenztes Risiko (Transparenzpflichten)

KI-Systeme mit begrenztem Risiko unterliegen Transparenzpflichten. Nutzer müssen wissen, dass sie mit KI interagieren. Betroffen sind:

Stufe 4: Minimales/kein Risiko (keine besonderen Pflichten)

Die Mehrheit der KI-Systeme fällt in diese Kategorie: Spamfilter, Rechtschreibprüfung, Empfehlungssysteme, KI-gestützte Suchfunktionen. Hier gelten keine spezifischen Pflichten aus dem AI Act. Allerdings greift seit Februar 2025 die allgemeine KI-Kompetenzpflicht nach Art. 4 für alle Risikostufen.

Was müssen Unternehmen bei Hochrisiko-KI beachten?

Die Pflichten für Hochrisiko-KI-Systeme sind umfangreich und richten sich sowohl an Anbieter (Entwickler) als auch an Betreiber (Nutzer). Ab dem 2. August 2026 gelten die vollständigen Anforderungen.

Pflichten für Anbieter (Entwickler, Hersteller)

PflichtWas konkret zu tun ist
RisikomanagementsystemÜber den gesamten Lebenszyklus: Risiken identifizieren, bewerten und minimieren
DatenqualitätTrainings-, Validierungs- und Testdaten müssen relevant, repräsentativ und fehlerfrei sein
Technische DokumentationDetaillierte Beschreibung des Systems, seiner Funktionsweise und Leistungsgrenzen
ProtokollierungAutomatische Aufzeichnung relevanter Ereignisse (Logging) für Rückverfolgbarkeit
TransparenzGebrauchsanweisung für Betreiber mit verständlichen Informationen zu Fähigkeiten und Grenzen
Menschliche AufsichtSystem muss so gestaltet sein, dass Menschen es wirksam überwachen können
Genauigkeit, Robustheit, CybersicherheitAngemessene Leistungsfähigkeit über den gesamten Lebenszyklus
KonformitätsbewertungVor dem Inverkehrbringen: Nachweis, dass alle Anforderungen erfüllt sind
CE-KennzeichnungNach erfolgreicher Konformitätsbewertung
EU-Datenbank-RegistrierungEintragung in die öffentliche EU-Datenbank für Hochrisiko-KI

Pflichten für Betreiber (Unternehmen, die Hochrisiko-KI einsetzen)

Auch wenn Sie ein Hochrisiko-KI-System nur nutzen und nicht selbst entwickeln, haben Sie Pflichten:

Art. 4: KI-Kompetenzpflicht gilt für alle

Unabhängig von der Risikoklasse gilt seit dem 2. Februar 2025 die allgemeine KI-Kompetenzpflicht nach Artikel 4. Jedes Unternehmen, das KI-Systeme nutzt, muss sicherstellen, dass die betroffenen Mitarbeiter über ausreichende KI-Kenntnisse verfügen.

Wichtig: Art. 4 ist nicht bußgeldbewehrt. Es gibt keine direkte Strafe bei Verstößen. Allerdings entsteht ein Haftungsrisiko: Wenn ein Schaden durch fehlerhafte Bedienung eines KI-Systems entsteht und das Unternehmen keine ausreichende Schulung nachweisen kann, kann dies als Verletzung der Sorgfaltspflicht gewertet werden.

Wir haben die praktische Umsetzung der KI-Kompetenzpflicht in einem separaten Artikel detailliert beschrieben: KI-Schulungspflicht: 7 konkrete Schritte für Geschäftsführer.

Pflicht zur KI-Kompetenz? In unserem kostenlosen KI-Schnupperkurs erleben Sie in 60 Minuten, wie KI in der Praxis funktioniert. Ohne Anmeldung.

Bußgelder: Dreistufiges Sanktionsmodell

Der EU AI Act sieht in Artikel 99 gestaffelte Bußgelder vor. Maßgeblich ist jeweils der höhere Betrag: der Festbetrag oder der Prozentsatz vom weltweiten Jahresumsatz.

VerstoßBußgeld
Verbotene KI-Praktiken (Art. 5)Bis zu 35 Mio. EUR oder 7 % des weltweiten Jahresumsatzes
Hochrisiko-KI-PflichtenBis zu 15 Mio. EUR oder 3 % des weltweiten Jahresumsatzes
Falsche oder unvollständige Angaben gegenüber BehördenBis zu 7,5 Mio. EUR oder 1,5 % des weltweiten Jahresumsatzes

Sonderregelungen für KMU und Startups

Der Gesetzgeber hat erkannt, dass die regulären Obergrenzen für kleine Unternehmen existenzbedrohend sein könnten. Für KMU und Startups gelten daher niedrigere Schwellenwerte. Bei Verstößen wird der jeweils niedrigere Betrag (Festbetrag oder Umsatzprozentsatz) als Obergrenze herangezogen.

Verhältnismäßigkeit

Die Bußgelder sollen wirksam, verhältnismäßig und abschreckend sein. Bei der Bemessung werden unter anderem berücksichtigt:

Timeline: Was gilt wann?

DatumWas passiert
1. August 2024EU AI Act tritt in Kraft
2. Februar 2025Verbote (Art. 5) und KI-Kompetenzpflicht (Art. 4) gelten
2. August 2025Pflichten für KI-Modelle mit allgemeinem Verwendungszweck (GPAI), z.B. Transparenzanforderungen an Foundation Models
2. August 2026Vollständige Anwendbarkeit: Hochrisiko-Pflichten, Konformitätsbewertungen, Transparenzpflichten, Sanktionen
2. August 2027Übergangsfristen für bestimmte Hochrisiko-KI-Systeme, die bereits auf dem Markt sind, laufen aus

Was bedeutet das konkret für KMU?

Die meisten kleinen und mittleren Unternehmen nutzen KI-Systeme der Stufe 3 (begrenztes Risiko) oder Stufe 4 (minimales Risiko). ChatGPT, Copilot, KI-gestützte Buchhaltung, Marketing-Automatisierung: All das fällt in der Regel nicht unter Hochrisiko.

Trotzdem haben auch KMU Pflichten:

  1. KI-Kompetenz sicherstellen (seit Feb. 2025): Mitarbeiter, die KI-Systeme nutzen, müssen geschult sein. Kein Pflichtzertifikat nötig, aber Dokumentation der Maßnahmen empfohlen.
  2. Transparenz (ab Aug. 2026): Wenn Sie Chatbots, KI-generierte Inhalte oder Deepfakes einsetzen, müssen Sie dies kennzeichnen.
  3. Prüfen, ob Hochrisiko vorliegt: Nutzen Sie KI im Recruiting (automatisierte Bewerberauswahl)? Setzen Sie KI für Kreditentscheidungen ein? Dann fallen diese Systeme potenziell unter Hochrisiko.
  4. Nutzungsrichtlinie erstellen: Klare interne Regeln, welche KI-Tools erlaubt sind, welche Daten eingegeben werden dürfen und wie KI-Ergebnisse geprüft werden müssen.

Checkliste: 5 Sofortmaßnahmen für Unternehmen

KI-Kompetenz aufbauen: Der erste Schritt

Der EU AI Act macht deutlich: KI-Kompetenz ist nicht optional, sondern Pflicht. Unternehmen, die ihre Mitarbeiter frühzeitig schulen, reduzieren nicht nur rechtliche Risiken, sondern nutzen KI auch produktiver.

Unser kostenloser KI-Assistent zeigt Ihnen in 30 Minuten, welche KI-Anwendungen für Ihr Unternehmen relevant sind und wie Sie die Kompetenzpflicht praktisch umsetzen können.

Jetzt den kostenlosen KI-Assistenten testen

Oder buchen Sie direkt einen Beratungstermin, wenn Sie Unterstützung bei der Umsetzung brauchen:

Beratungstermin vereinbaren

KI-Kompetenz für Ihr Team aufbauen?

Lassen Sie sich kostenlos beraten. Wir finden die passende Weiterbildung und Förderung für Ihr Unternehmen.

Weiterbildung ansehen WhatsApp