Dein Unternehmen setzt ChatGPT, Copilot oder eine KI-gestützte Kundensegmentierung ein? Dann stellt sich eine Frage, die viele Datenschutzbeauftragte nachts wach hält: Brauchst du dafür eine Datenschutz-Folgenabschätzung (DSFA)? Die Antwort ist in vielen Fällen: Ja. Dieser Artikel zeigt dir, wann eine DSFA bei KI-Systemen Pflicht ist, wie du sie in 7 Schritten durchführst und welche typischen Risiken du dokumentieren musst.

Das Wichtigste in Kürze

Wann ist eine DSFA Pflicht? Art. 35 DSGVO im Kontext von KI

Art. 35 Abs. 1 DSGVO schreibt eine DSFA vor, wenn eine Verarbeitung personenbezogener Daten "voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat". Klingt abstrakt. Wird aber konkret, wenn du dir die drei Regelbeispiele in Art. 35 Abs. 3 anschaust:

  1. Systematische und umfassende Bewertung persönlicher Aspekte auf Grundlage automatisierter Verarbeitung einschließlich Profiling, auf deren Basis Entscheidungen getroffen werden, die Personen gegenüber Rechtswirkung entfalten (Art. 35 Abs. 3 lit. a).
  2. Umfangreiche Verarbeitung besonderer Kategorien personenbezogener Daten (Art. 9) oder von Daten über strafrechtliche Verurteilungen (Art. 10).
  3. Systematische umfangreiche Überwachung öffentlich zugänglicher Bereiche.

KI-Systeme, die personenbezogene Daten verarbeiten, fallen regelmäßig unter Punkt 1. Ein Chatbot, der Kundendaten analysiert, ein KI-basiertes Bewerber-Screening oder eine automatisierte Kreditwürdigkeitsprüfung: Alles klassische DSFA-Fälle.

Dazu kommen die Positivlisten der Aufsichtsbehörden. Die deutsche Datenschutzkonferenz (DSK) hat eine Liste veröffentlicht, auf der unter anderem stehen:

Praktisch bedeutet das: Wenn du ein KI-System einsetzt, das personenbezogene Daten verarbeitet, brauchst du mit hoher Wahrscheinlichkeit eine DSFA.

Schwellwertanalyse: Wann KI eine DSFA auslöst

Bevor du eine vollständige DSFA durchführst, prüfst du mit der Schwellwertanalyse, ob sie überhaupt nötig ist. Die Artikel-29-Datenschutzgruppe (jetzt EDSA) hat in der Leitlinie WP 248 Rev.01 neun Kriterien definiert. Treffen zwei oder mehr zu, ist die DSFA Pflicht.

Nr. Kriterium Typischer KI-Bezug
1 Bewertung oder Scoring Kundensegmentierung, Lead-Scoring, Kreditwürdigkeit
2 Automatisierte Einzelentscheidung mit Rechtswirkung Bewerber-Ablehnung, Vertragsautomatisierung
3 Systematische Überwachung Videoanalyse, Mitarbeiter-Monitoring
4 Sensible Daten (Art. 9) Gesundheitsdaten in KI-Diagnostik, biometrische Daten
5 Umfangreiche Datenverarbeitung LLM-Training mit Millionen Datensätzen
6 Abgleich oder Zusammenführung von Datensätzen CRM-Daten + Social Media + Kaufhistorie
7 Daten schutzbedürftiger Personen Bewerber, Patienten, Minderjährige
8 Innovative Technologie Jedes KI-System wird als "neue Technologie" eingestuft
9 Verhinderung der Rechtsausübung Automatisierte Zugangsverweigerung

Beispiel: Du setzt ein KI-Tool zur Bewerbervorauswahl ein. Es bewertet Personen automatisch (Kriterium 1), trifft eine Entscheidung über den Fortgang im Bewerbungsprozess (Kriterium 2), verarbeitet Daten schutzbedürftiger Personen, nämlich Bewerber (Kriterium 7), und nutzt innovative Technologie (Kriterium 8). Vier Kriterien erfüllt. DSFA ist Pflicht.

Ergebnis der Schwellwertanalyse dokumentieren. Auch wenn du zu dem Schluss kommst, dass keine DSFA nötig ist, halte die Gründe schriftlich fest. Aufsichtsbehörden erwarten eine nachvollziehbare Begründung.

Die 7-Schritte-Anleitung für eine KI-DSFA

Schritt 1: Verarbeitung systematisch beschreiben

Beschreibe die geplante Datenverarbeitung durch das KI-System vollständig:

Bei KI-Systemen ist besonders wichtig: Werden die Eingabedaten zum Training des Modells verwendet? Bei vielen Cloud-KI-Diensten ist das der Fall, wenn du es nicht aktiv deaktivierst.

Schritt 2: Notwendigkeit und Verhältnismäßigkeit prüfen

Art. 35 Abs. 7 lit. b DSGVO verlangt eine Bewertung der Notwendigkeit und Verhältnismäßigkeit:

Praxistipp: Dokumentiere hier auch, warum du dich für ein bestimmtes KI-Tool entschieden hast und welche Alternativen du geprüft hast.

Schritt 3: Risiken für Betroffene identifizieren

Das Herzstück der DSFA. Identifiziere systematisch, welche Risiken das KI-System für die Rechte und Freiheiten der betroffenen Personen mit sich bringt. Typische KI-Risiken findest du weiter unten in der Tabelle "Typische KI-Risiken".

Bewerte jedes Risiko nach:

Die Kombination ergibt das Risikoniveau.

Schritt 4: Technische und organisatorische Maßnahmen (TOM) festlegen

Für jedes identifizierte Risiko definierst du Gegenmaßnahmen:

Schritt 5: Auftragsverarbeitung und Drittlandtransfer bewerten

Dieser Schritt wird bei KI oft unterschätzt. Die meisten KI-Tools sind Cloud-Dienste. Das bedeutet:

KI-Anbieter AVV verfügbar DPF-zertifiziert Trainingsklausel (API)
OpenAI Ja (DPA) Ja Kein Training mit API-Daten (Standard)
Microsoft (Azure OpenAI) Ja (DPA/OST) Ja Kein Training mit Kundendaten
Google (Gemini/Vertex) Ja (DPA) Ja Kein Training bei Paid Workspace
Anthropic (Claude) Ja (DPA) Ja Kein Training mit API-Daten

Alle Angaben Stand April 2026. Prüfe die aktuellen DPA-Dokumente der Anbieter, da sich Bedingungen ändern können.

Schritt 6: Stellungnahme des Datenschutzbeauftragten einholen

Art. 35 Abs. 2 DSGVO: Der Verantwortliche holt bei der DSFA den Rat des Datenschutzbeauftragten ein, sofern ein solcher benannt wurde. Das ist keine Formalie. Der DSB sollte:

Schritt 7: Restrisiken dokumentieren und entscheiden

Nach Umsetzung aller Maßnahmen bleiben in der Regel Restrisiken. Dokumentiere sie ehrlich:

Wenn das Restrisiko weiterhin hoch ist, musst du vor Beginn der Verarbeitung die zuständige Aufsichtsbehörde konsultieren (Art. 36 DSGVO, sogenannte vorherige Konsultation). In Bayern ist das Bayerische Landesamt für Datenschutzaufsicht (BayLDA) zuständig.

Muster-Gliederung einer DSFA für KI-Systeme

Diese Gliederung kannst du als Vorlage für deine eigene DSFA verwenden:

1. Deckblatt und Versionierung - Name des KI-Systems, verantwortliche Stelle, Version der DSFA, Datum

2. Beschreibung der Verarbeitung - Zweck und Kontext des KI-Einsatzes - Art der personenbezogenen Daten - Betroffene Personengruppen - Datenflüsse (Eingabe, Verarbeitung, Ausgabe, Speicherung) - Rechtsgrundlage nach Art. 6 DSGVO - Beteiligte Parteien und Auftragsverarbeiter

3. Schwellwertanalyse - Prüfung der 9 Kriterien (WP 248 Rev.01) - Ergebnis und Begründung

4. Notwendigkeit und Verhältnismäßigkeit - Eignung des KI-Systems für den Zweck - Datenminimierung - Speicherbegrenzung - Alternativenprüfung

5. Risikobewertung - Identifizierte Risiken (Tabelle mit Eintrittswahrscheinlichkeit und Schwere) - Risikomatrix

6. Maßnahmen - Technische Maßnahmen - Organisatorische Maßnahmen - Vertragliche Maßnahmen (AVV, SCCs)

7. Auftragsverarbeitung und Drittlandtransfer - Anbieter, Standorte, Rechtsgrundlage für den Transfer - Sub-Auftragsverarbeiter - Trainingsklausel

8. Stellungnahme des Datenschutzbeauftragten

9. Restrisiken und Entscheidung - Bewertung der Restrisiken nach Maßnahmen - Akzeptanz oder vorherige Konsultation nach Art. 36

10. Anhänge - AVV, DPA, technische Dokumentation des KI-Systems, Schulungsnachweise

Typische KI-Risiken, die dokumentiert werden müssen

Die folgende Tabelle zeigt Risiken, die bei KI-Systemen regelmäßig auftreten und in der DSFA adressiert werden müssen:

Risiko Beschreibung Typische Gegenmaßnahme
Bias und Diskriminierung KI-Modelle können Vorurteile aus Trainingsdaten reproduzieren, z. B. bei Bewerber-Screening Bias-Audits, diverse Trainingsdaten, Human-in-the-Loop
Mangelnde Transparenz (Black Box) Betroffene können nicht nachvollziehen, wie eine KI-Entscheidung zustande kam Erklärbare KI (XAI), Dokumentation der Entscheidungslogik, Informationspflichten nach Art. 13/14
Halluzinationen LLMs generieren plausibel klingende, aber falsche Informationen Faktenprüfung, Retrieval-Augmented Generation (RAG), Warnhinweise
Datenleck an den KI-Anbieter Personenbezogene Daten gelangen über Prompts an den Anbieter und werden möglicherweise zum Training genutzt Opt-out für Training, API statt Webinterface, Pseudonymisierung der Eingaben
Übermäßige Datensammlung KI-Systeme speichern mehr Daten als für den Zweck erforderlich Datenminimierung, automatische Löschfristen, regelmäßige Überprüfung
Fehlende menschliche Kontrolle Automatisierte Entscheidungen ohne menschliche Überprüfung Art. 22 DSGVO beachten, Human-in-the-Loop, Eskalationsprozesse
Zweckentfremdung Daten, die für einen Zweck erhoben wurden, werden für KI-Training oder andere Analysen verwendet Strenge Zweckbindung, technische Trennung, vertragliche Regelungen
Unzureichende Löschung Personenbezogene Daten in KI-Modellen oder Logfiles werden nicht fristgerecht gelöscht Löschkonzept, automatische Bereinigung, vertragliche Löschpflichten im AVV

Auftragsverarbeitung bei KI-Tools: Was du beachten musst

Die Auftragsverarbeitung verdient einen eigenen Abschnitt, weil hier die meisten Fehler passieren.

Wann liegt Auftragsverarbeitung vor? Immer dann, wenn ein externer KI-Anbieter personenbezogene Daten in deinem Auftrag verarbeitet. Das betrifft praktisch jede Cloud-KI: OpenAI, Microsoft, Google, Anthropic, aber auch spezialisierte Anbieter wie HubSpot (KI-Funktionen), Salesforce Einstein oder KI-basierte HR-Tools.

Was muss der AVV regeln?

Praxistipp: Die großen KI-Anbieter stellen DPAs (Data Processing Agreements) bereit, die du annehmen oder verhandeln kannst. Prüfe insbesondere die Klauseln zum Training mit Kundendaten und zur Liste der Sub-Auftragsverarbeiter.

Wenn dein Unternehmen ChatGPT DSGVO-konform einsetzen will, ist der AVV der erste Schritt. Ohne gültigen AVV ist die Nutzung von Cloud-KI mit personenbezogenen Daten rechtswidrig.

Häufige Fehler bei der KI-DSFA

  1. DSFA wird erst nach Go-Live erstellt. Art. 35 Abs. 1 DSGVO sagt "vor der Verarbeitung". Eine nachträgliche DSFA ist besser als keine, aber sie erfüllt die gesetzliche Vorgabe nicht.
  2. Schwellwertanalyse fehlt. Auch wenn du entscheidest, dass keine DSFA nötig ist, musst du die Schwellwertanalyse dokumentieren.
  3. Auftragsverarbeitung wird ignoriert. Viele Unternehmen behandeln ChatGPT wie ein Werkzeug, nicht wie einen Auftragsverarbeiter. Das ist ein Compliance-Risiko.
  4. DSFA wird einmalig erstellt und nie aktualisiert. Art. 35 Abs. 11 DSGVO verlangt eine Überprüfung, wenn sich die Risiken ändern. Bei KI passiert das regelmäßig (Modell-Updates, neue Funktionen, geänderte Nutzungsbedingungen).
  5. Stellungnahme des DSB fehlt. Art. 35 Abs. 2 DSGVO verpflichtet zur Einholung.

DSFA und KI-Governance verbinden

Eine einzelne DSFA löst nicht alle Compliance-Fragen rund um KI. Sie ist ein Baustein in einem größeren KI-Governance-Framework. Die DSFA adressiert den Datenschutz. Daneben brauchst du:

Die DSFA sollte kein isoliertes Dokument sein, sondern in dein Gesamtkonzept eingebettet werden.

FAQ

Brauche ich für jedes KI-Tool eine eigene DSFA? Nicht zwingend. Du kannst ähnliche Verarbeitungen in einer DSFA zusammenfassen, wenn Zweck, Datenarten und Risiken vergleichbar sind. Ein einzelner ChatGPT-Einsatz für interne Textgenerierung und ein KI-basiertes Bewerber-Screening sollten aber getrennt bewertet werden, da die Risikoprofile sehr unterschiedlich sind.

Wer ist für die DSFA verantwortlich? Der Verantwortliche im Sinne von Art. 4 Nr. 7 DSGVO. In der Praxis bedeutet das: die Geschäftsführung. Sie kann die Durchführung delegieren, bleibt aber verantwortlich.

Was passiert, wenn ich keine DSFA durchführe? Art. 83 Abs. 4 DSGVO: Geldbußen von bis zu 10 Millionen Euro oder 2 % des weltweiten Jahresumsatzes. Das BayLDA prüft aktiv und hat in der Vergangenheit Bußgelder wegen fehlender DSFAs verhängt.

Muss ich die DSFA veröffentlichen? Nein. Die DSFA ist ein internes Dokument. Du musst sie aber auf Anfrage der Aufsichtsbehörde vorlegen können (Art. 36 Abs. 1 DSGVO).

Wie oft muss die DSFA aktualisiert werden? Art. 35 Abs. 11 DSGVO verlangt eine Überprüfung, wenn sich die Verarbeitungsvorgänge ändern. Bei KI-Systemen empfiehlt sich ein fester Review-Zyklus: mindestens jährlich und zusätzlich bei jedem größeren Modell-Update oder bei Änderungen an den Nutzungsbedingungen des Anbieters.

Zählt eine DSFA auch als Dokumentation für den EU AI Act? Teilweise. Die DSFA adressiert den Datenschutz, nicht alle Anforderungen des EU AI Act. Aber es gibt erhebliche Überschneidungen, insbesondere bei Hochrisiko-KI: Risikobewertung, Transparenz, menschliche Aufsicht. Eine gut gemachte DSFA liefert Bausteine für die AI-Act-Dokumentation.

KI-Compliance braucht geschulte Mitarbeiter

Eine DSFA lebt davon, dass die beteiligten Personen verstehen, was sie dokumentieren. Datenschutzbeauftragte, IT-Leiter und Fachabteilungen müssen die Funktionsweise von KI-Systemen und die daraus resultierenden Datenschutzrisiken einschätzen können.

SkillSprinters bietet als DEKRA-zertifizierter Bildungsträger aus Bayreuth die Weiterbildung zum Digitalisierungsmanager für Prozessautomatisierung und KI an. In 4 Monaten, komplett online, mit eigenem Modul zu Datenschutz, Sicherheit und Compliance. Die Weiterbildung ist zu 100 % über den Bildungsgutschein förderbar.

Jetzt informieren und Beratungstermin buchen

Bereit für deinen nächsten Karriereschritt?

Lass dich kostenlos beraten. Wir finden die passende Weiterbildung und Förderung für dich.

Weiterbildung ansehen WhatsApp