Am 02.08.2026 schaltet die EU-Kommission die volle Anwendbarkeit der Hochrisiko-Pflichten aus Anhang III des KI-Verordnungstextes scharf. Wer als Bank oder Sparkasse KI-gestützte Kreditwürdigkeitsprüfung einsetzt, fällt unter Punkt 5b und muss ab diesem Datum dokumentieren, dass das System Risikomanagement, Daten-Governance, menschliche Aufsicht und eine Konformitätsbewertung erfüllt. Konkret betrifft das Schufa-ähnliche Score-Verfahren, automatisierte Bonitätsmodelle in der Privatkreditvergabe und KI-Komponenten in Firmenkundenrating-Systemen. Die Frist hat zwei Schichten, eine europäische und eine deutsche, und die deutsche ist gerade in Bewegung.

Was Anhang III Punkt 5b konkret regelt

Der Originalwortlaut von Anhang III, Punkt 5, Buchstabe b der Verordnung (EU) 2024/1689 erfasst „KI-Systeme, die bestimmungsgemäß zur Bewertung der Kreditwürdigkeit natürlicher Personen oder zur Erstellung ihrer Kreditpunktebewertung verwendet werden sollen, mit Ausnahme von KI-Systemen, die zur Aufdeckung von Finanzbetrug verwendet werden". Die Einstufung als Hochrisiko gilt unabhängig davon, ob das einsetzende Institut bereits unter europäisches oder nationales Bankenrecht fällt.

Der Geltungsbereich ist enger gefasst, als es auf den ersten Blick wirkt. Punkt 5b zielt auf die Kreditwürdigkeitsbewertung am Punkt der Kreditvergabe für natürliche Personen ab, also Privatkredite, Konsumentenkredite, Baufinanzierung an Verbraucher. Reine Betrugserkennung ist explizit ausgenommen.

Was nicht ausgenommen ist: das Bonitätsscoring im Vorfeld der Kreditentscheidung. Auch wenn am Ende ein Mensch unterschreibt, gilt das KI-System als hochrisikorelevant, sobald es die Kreditwürdigkeitsbewertung wesentlich vorbereitet oder beeinflusst. Diese Lesart ist in den Erwägungsgründen der Verordnung verankert und wird von der EU-Kommission in den Service-Desk-Erläuterungen bestätigt.

Die Klassifikation hat Konsequenzen für die gesamte Wertschöpfungskette. Anbieter, also Hersteller des KI-Modells, müssen die Konformitätsbewertung durchführen, das System in der EU-Datenbank registrieren und ein Qualitätsmanagement nach Artikel 17 nachweisen. Betreiber, also Banken und Sparkassen, die das Modell einsetzen, haften zusätzlich für die korrekte Verwendung, das Monitoring und die menschliche Aufsicht im laufenden Betrieb.

Bußgelder bei Verstößen liegen bei bis zu 15 Mio Euro oder 3 Prozent des weltweiten Jahresumsatzes, je nachdem, welcher Betrag höher ist. Falsche Angaben gegenüber Behörden kosten bis zu 7,5 Mio Euro oder 1 Prozent.

Welche Pflichten ab 02.08.2026 für Banken gelten

Die operativen Anforderungen aus Kapitel III der KI-Verordnung greifen komplett. Sechs Bereiche sind besonders relevant.

Risikomanagement-System nach Artikel 9. Das Institut muss einen kontinuierlichen Risikomanagement-Prozess für jedes Hochrisiko-KI-System aufsetzen. Dazu gehören die Identifikation absehbarer Risiken, eine Bewertung der Restrisiken nach Schutzmaßnahmen und ein Test des Systems unter realistischen Bedingungen vor Inbetriebnahme.

Daten-Governance nach Artikel 10. Trainings-, Validierungs- und Testdaten müssen relevant, repräsentativ, fehlerfrei und vollständig sein. Banken müssen dokumentieren, woher die Daten stammen, wie sie aufbereitet wurden und welche Bias-Prüfungen stattgefunden haben. Bei Bonitätsdaten kommt erschwerend hinzu, dass historische Datensätze geschlechts- und herkunftsbezogene Verzerrungen enthalten können, die im Modell fortgeschrieben werden.

Technische Dokumentation nach Artikel 11 und Logs nach Artikel 12. Die Dokumentation muss so detailliert sein, dass eine Aufsichtsbehörde die Funktionsweise des Systems nachvollziehen kann. Logs müssen automatisch generiert werden und ermöglichen, einzelne Entscheidungen rückwirkend zu prüfen. Aufbewahrungsfrist nach unserem Recherchestand mindestens sechs Monate, bei Kreditakten greifen daneben die längeren Fristen aus § 257 HGB.

Menschliche Aufsicht nach Artikel 14. Es muss möglich sein, dass eine geschulte Person die KI-Ausgabe versteht, Vertrauen kalibriert und im Zweifel überstimmt. „Rubber-Stamping", also reines Abnicken, reicht nicht. Die DSGVO verschärft das zusätzlich. Artikel 22 verbietet ausschließlich automatisierte Entscheidungen mit rechtlicher Wirkung, und eine Kreditablehnung hat eine solche.

Genauigkeit, Robustheit, Cybersicherheit nach Artikel 15. Das System muss seine angegebenen Genauigkeitsmetriken im Realbetrieb halten. Modell-Drift, also schleichende Veränderung der Vorhersagequalität durch wechselnde Datenmuster, muss erkannt werden. Adversarielle Angriffe, etwa manipulierte Eingabedaten, müssen abgewehrt werden.

Konformitätsbewertung und CE-Kennzeichnung nach Artikel 43. Vor Inbetriebnahme oder spätestens mit Wirksamkeit am 02.08.2026 muss eine Konformitätsbewertung vorliegen. Bei vielen Hochrisiko-Systemen reicht eine interne Bewertung, in einigen Konstellationen ist eine benannte Stelle einzuschalten.

Hinzu kommen Pflichten aus Artikel 26 für Betreiber: Anweisungen des Anbieters einhalten, menschliche Aufsicht durch geschultes Personal sicherstellen, Eingangsdaten auf Eignung prüfen, das System überwachen und Vorfälle dem Anbieter melden.

Wo BaFin-Vorgaben (MaRisk, BAIT) und AI Act sich überschneiden, und wo nicht

Die BaFin reguliert das Risikomanagement von Banken seit Jahren über zwei zentrale Regelwerke. Die Mindestanforderungen an das Risikomanagement (MaRisk) konkretisieren § 25a KWG und schreiben vor, wie Risikomessung, Steuerung und Governance auszusehen haben. Die Bankaufsichtlichen Anforderungen an die IT (BAIT) regeln IT-Sicherheit, IT-Auslagerung und IT-Governance.

Mit der 9. MaRisk-Novelle, die seit 01.04.2026 als Konsultationsentwurf vorliegt und deren Konsultationsphase am 08.05.2026 endete, kommt erstmals ein eigenes Modul für Modelle und KI-Systeme: AT 4.3.4. Es deckt Kreditrisikomodelle, Risikoklassifizierungsverfahren, Stresstest-Modelle und Bewertungsmodelle ab. Institute müssen Governance-Regelungen für den Einsatz automatisierter Modelle in der Kreditvergabe etablieren und Prozesse zur Minimierung von Betrugsrisiken implementieren.

Die EBA-Leitlinie für Kreditvergabe und Überwachung (EBA/GL/2020/06) ist seit 30.06.2021 in Kraft und mit der 7. MaRisk-Novelle 2023 in das deutsche Aufsichtsrecht integriert worden. Sie schreibt unter anderem Anforderungen an Datenqualität, Bonitätsbeurteilung und Pricing-Methodik fest.

Wo überlappt sich das mit dem AI Act? Bei Daten-Governance, Risikomanagement und Dokumentation sind die Anforderungen sehr ähnlich. Wer schon MaRisk-Anforderungen erfüllt, hat einen großen Teil der KI-Verordnung-Pflichten auch abgedeckt. Aber: Der AI Act fordert zusätzlich eine Konformitätsbewertung, eine CE-Kennzeichnung, eine Registrierung in der EU-Datenbank und eine spezifische Form von Logs, die auf einzelne Entscheidungen zurückführbar sind. Diese Schichten gibt es in MaRisk und BAIT in dieser Form nicht.

Die BaFin hat angekündigt, dass die sektorspezifischen IT-Rundschreiben BAIT, VAIT, KAIT und ZAIT künftig an DORA angepasst werden. Bereiche, die DORA umfassend regelt, werden aus den xAIT herausgenommen, um Doppelregulierung zu vermeiden. Für KI-Systeme bedeutet das: Die operativen IT-Anforderungen werden zunehmend über DORA abgewickelt, die KI-spezifischen Pflichten kommen aus dem AI Act, und MaRisk bleibt für die übergeordnete Governance verantwortlich.

In der Praxis sehen wir: Banken, die bisher auf separate Workstreams für MaRisk-Compliance und KI-Themen gesetzt haben, müssen das jetzt integrieren. Wer das nicht tut, baut redundante Strukturen auf und verbrennt Beraterzeit für die gleiche Anforderung doppelt.

Praxis-Beispiel: Volksbank Bayreuth nutzt KI-Scoring

Stell dir eine mittelgroße Volksbank vor mit etwa 80 000 Privatkunden, die seit 2024 ein KI-gestütztes Bonitätsscoring im Privatkreditgeschäft einsetzt. Das Modell wurde von einem externen Anbieter beschafft, läuft auf einem deutschen Cloud-Hosting und liefert dem Kreditsachbearbeiter eine Score-Empfehlung, die er übernimmt oder überschreibt.

Was muss diese Volksbank ab 02.08.2026 nachweisen?

Sie muss erstens prüfen, ob ihr Anbieter die Konformitätsbewertung durchgeführt und das System in der EU-Datenbank registriert hat. Wenn nicht, kann sie das System ab dem Stichtag nicht mehr rechtskonform betreiben. Das ist in der Regel Teil des Vertragswerks mit dem Anbieter, sollte aber explizit verifiziert werden.

Zweitens muss sie die eigenen Pflichten als Betreiber erfüllen. Der Sachbearbeiter, der mit dem System arbeitet, braucht eine dokumentierte Schulung zur menschlichen Aufsicht. Die Bank muss schriftlich festhalten, dass die Score-Empfehlung nicht alleinige Grundlage der Kreditentscheidung ist und dass ein Vier-Augen-Prinzip greift. Sie muss Logs aufbewahren, die zeigen, welche Eingabedaten das System bekommen hat und welche Empfehlung daraus wurde.

Drittens muss sie die DSGVO-Anforderungen abdecken. Bei jeder Kreditablehnung, die wesentlich auf dem KI-Score beruht, hat der Antragsteller nach Artikel 22 DSGVO einen Anspruch auf eine echte menschliche Überprüfung. Die Bank muss im Antragsformular oder in den Datenschutzhinweisen darauf hinweisen.

Viertens kommen die nationalen Aufsichtspflichten dazu. § 25a KWG und MaRisk verlangen ohnehin schon ein wirksames Risikomanagement, mit der 9. MaRisk-Novelle wird das speziell für KI-Modelle weiter konkretisiert. § 18 KWG schreibt die Bonitätsprüfung als Pflicht vor, lässt aber offen, mit welchen Methoden sie durchgeführt wird.

Fünftens wird der Datenschutzbeauftragte involviert. Bei Hochrisiko-KI-Systemen ist eine Datenschutz-Folgenabschätzung praktisch immer notwendig.

Was passiert, wenn die Volksbank das nicht hinbekommt? Sie hat zwei Optionen. Sie kann das KI-System bis zum 02.08.2026 abschalten und auf manuelles Scoring zurückgehen, was Bearbeitungszeiten und Kosten erhöht. Oder sie investiert in die Compliance-Infrastruktur, was je nach Ausgangslage zwischen 50 000 und 300 000 Euro Implementierungsaufwand bedeuten kann. Hinzu kommen laufende Kosten für Monitoring und Audits.

Wer jetzt nicht handelt, riskiert nicht nur Bußgelder. Er riskiert auch, dass eigene Kunden Auskunfts- und Löschanträge stellen, die mangels Dokumentation nicht beantwortet werden können, was wiederum Datenschutz-Beschwerden nach sich ziehen kann.

FAQ

Gilt der AI Act auch für Sparkassen und Genossenschaftsbanken?

Ja. Die KI-Verordnung gilt für alle Anbieter und Betreiber von Hochrisiko-KI-Systemen in der EU, unabhängig von der Rechtsform. Sparkassen, Volksbanken, Genossenschaftsbanken und Privatbanken sind gleichermaßen betroffen, sobald sie KI für Kreditwürdigkeitsprüfung an natürlichen Personen einsetzen.

Reicht es, dass der externe KI-Anbieter die Konformitätsbewertung macht?

Nein. Der Anbieter ist für seine Pflichten zuständig, der Betreiber für die seinen. Die Bank muss als Betreiber zusätzlich Schulungen, menschliche Aufsicht, Eingangsdatenprüfung, Monitoring und Vorfallsmeldungen sicherstellen. Eine Bank kann sich nicht aus der Verantwortung herausziehen, indem sie auf den Anbieter verweist.

Was passiert mit bestehenden KI-Scoring-Systemen, die bereits vor August 2026 laufen?

Hochrisiko-KI-Systeme, die vor dem 02.08.2026 in Verkehr gebracht oder in Betrieb genommen wurden, müssen die Anforderungen erfüllen, sobald sie nach diesem Stichtag wesentlich verändert werden. Bestandssysteme ohne Änderung haben eine Übergangsfrist bis zum 02.08.2030. Das ist eine wichtige Erleichterung, betrifft aber nur unveränderte Bestandsmodelle.

Wie verhält sich das zur möglichen Verschiebung der Hochrisiko-Pflichten?

Stand der Recherche 09.05.2026: Der EU-Industrieausschuss hat im April 2026 vorgeschlagen, die Durchsetzung der Hochrisiko-Pflichten um ein Jahr auf den 02.08.2027 zu verschieben. Der Rat der EU muss dem noch zustimmen, der Trilog läuft. Banken sollten unabhängig vom politischen Ausgang die Vorbereitung jetzt fortsetzen, weil ein eventueller Aufschub maximal Zeit verschafft, aber keine Pflicht aufhebt. Mehr dazu in unserem Beitrag zur Trilog-Verschiebung im Mai 2026.

Zuletzt geprüft am 9. Mai 2026.

Stand der Recherche: 9. Mai 2026. Die rechtliche und politische Lage ist volatil. Die 9. MaRisk-Novelle befindet sich in Konsultation, der EU-Trilog zur möglichen Verschiebung der Hochrisiko-Pflichten ist nicht abgeschlossen. Vor operativen Entscheidungen den aktuellen Stand bei BaFin, EBA und EU-Kommission prüfen.


Über den Autor

Dr. Jens Aichinger ist promovierter Wirtschaftspädagoge, Erwachsenenbildner und Geschäftsführer von SkillSprinters. Er bildet seit über 15 Jahren Berufstätige und Quereinsteiger weiter, davon 5 Jahre in der staatlich geförderten Weiterbildung mit AZAV-zertifizierten Maßnahmen. SkillSprinters ist DEKRA-zertifizierter Bildungsträger. Mehr als 70 Sachbücher zu Weiterbildung, KI und Karriere auf Amazon KDP.

Bereit für den nächsten Schritt? Wir zeigen dir in einem persönlichen Gespräch, wie deine Bank oder Sparkasse die Compliance-Anforderungen aus AI Act, MaRisk und DORA mit qualifizierten Mitarbeitern abdeckt. QCG fördert die Weiterbildung deiner Fachkräfte mit bis zu 100 Prozent. Termin buchen oder Kostenlos reinschnuppern.

Bereit für deinen nächsten Karriereschritt?

Lass dich kostenlos beraten. Wir finden die passende Weiterbildung und Förderung für dich.

Weiterbildung ansehen WhatsApp