Dein Unternehmen setzt ChatGPT, Copilot oder eine KI-gestützte Kundensegmentierung ein? Dann stellt sich eine Frage, die viele Datenschutzbeauftragte nachts wach hält: Brauchst du dafür eine Datenschutz-Folgenabschätzung (DSFA)? Die Antwort ist in vielen Fällen: Ja. Dieser Artikel zeigt dir, wann eine DSFA bei KI-Systemen Pflicht ist, wie du sie in 7 Schritten durchführst und welche typischen Risiken du dokumentieren musst.
Das Wichtigste in Kürze
- Eine DSFA ist Pflicht, wenn die Verarbeitung personenbezogener Daten durch KI voraussichtlich ein hohes Risiko für Betroffene birgt (Art. 35 DSGVO).
- Die Schwellwertanalyse entscheidet, ob eine DSFA nötig ist. Zwei oder mehr Kriterien aus der Leitlinie der Artikel-29-Datenschutzgruppe (WP 248 Rev.01) lösen die Pflicht aus.
- KI-Systeme erfüllen fast immer mindestens ein Kriterium (automatisierte Entscheidung, Profiling, neue Technologie). Deshalb ist die DSFA bei KI-Einsatz der Regelfall, nicht die Ausnahme.
- Die 7-Schritte-Anleitung in diesem Artikel deckt den vollständigen DSFA-Prozess ab: von der Schwellwertanalyse bis zur Restrisiko-Dokumentation.
- Auftragsverarbeitung (Art. 28 DSGVO) ist bei fast allen KI-Cloud-Diensten relevant und muss in der DSFA berücksichtigt werden.
- Wer intern DSFA-Kompetenz aufbauen will, kann das über eine geförderte Weiterbildung zum Digitalisierungsmanager tun, die Datenschutz und KI-Compliance als eigenes Modul abdeckt.
Wann ist eine DSFA Pflicht? Art. 35 DSGVO im Kontext von KI
Art. 35 Abs. 1 DSGVO schreibt eine DSFA vor, wenn eine Verarbeitung personenbezogener Daten "voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat". Klingt abstrakt. Wird aber konkret, wenn du dir die drei Regelbeispiele in Art. 35 Abs. 3 anschaust:
- Systematische und umfassende Bewertung persönlicher Aspekte auf Grundlage automatisierter Verarbeitung einschließlich Profiling, auf deren Basis Entscheidungen getroffen werden, die Personen gegenüber Rechtswirkung entfalten (Art. 35 Abs. 3 lit. a).
- Umfangreiche Verarbeitung besonderer Kategorien personenbezogener Daten (Art. 9) oder von Daten über strafrechtliche Verurteilungen (Art. 10).
- Systematische umfangreiche Überwachung öffentlich zugänglicher Bereiche.
KI-Systeme, die personenbezogene Daten verarbeiten, fallen regelmäßig unter Punkt 1. Ein Chatbot, der Kundendaten analysiert, ein KI-basiertes Bewerber-Screening oder eine automatisierte Kreditwürdigkeitsprüfung: Alles klassische DSFA-Fälle.
Dazu kommen die Positivlisten der Aufsichtsbehörden. Die deutsche Datenschutzkonferenz (DSK) hat eine Liste veröffentlicht, auf der unter anderem stehen:
- KI-gestützte Verarbeitung zur Verhaltens- oder Leistungsbewertung
- Scoring und Profilbildung
- Einsatz neuer Technologien in Kombination mit personenbezogenen Daten
Praktisch bedeutet das: Wenn du ein KI-System einsetzt, das personenbezogene Daten verarbeitet, brauchst du mit hoher Wahrscheinlichkeit eine DSFA.
Schwellwertanalyse: Wann KI eine DSFA auslöst
Bevor du eine vollständige DSFA durchführst, prüfst du mit der Schwellwertanalyse, ob sie überhaupt nötig ist. Die Artikel-29-Datenschutzgruppe (jetzt EDSA) hat in der Leitlinie WP 248 Rev.01 neun Kriterien definiert. Treffen zwei oder mehr zu, ist die DSFA Pflicht.
| Nr. | Kriterium | Typischer KI-Bezug |
|---|---|---|
| 1 | Bewertung oder Scoring | Kundensegmentierung, Lead-Scoring, Kreditwürdigkeit |
| 2 | Automatisierte Einzelentscheidung mit Rechtswirkung | Bewerber-Ablehnung, Vertragsautomatisierung |
| 3 | Systematische Überwachung | Videoanalyse, Mitarbeiter-Monitoring |
| 4 | Sensible Daten (Art. 9) | Gesundheitsdaten in KI-Diagnostik, biometrische Daten |
| 5 | Umfangreiche Datenverarbeitung | LLM-Training mit Millionen Datensätzen |
| 6 | Abgleich oder Zusammenführung von Datensätzen | CRM-Daten + Social Media + Kaufhistorie |
| 7 | Daten schutzbedürftiger Personen | Bewerber, Patienten, Minderjährige |
| 8 | Innovative Technologie | Jedes KI-System wird als "neue Technologie" eingestuft |
| 9 | Verhinderung der Rechtsausübung | Automatisierte Zugangsverweigerung |
Beispiel: Du setzt ein KI-Tool zur Bewerbervorauswahl ein. Es bewertet Personen automatisch (Kriterium 1), trifft eine Entscheidung über den Fortgang im Bewerbungsprozess (Kriterium 2), verarbeitet Daten schutzbedürftiger Personen, nämlich Bewerber (Kriterium 7), und nutzt innovative Technologie (Kriterium 8). Vier Kriterien erfüllt. DSFA ist Pflicht.
Ergebnis der Schwellwertanalyse dokumentieren. Auch wenn du zu dem Schluss kommst, dass keine DSFA nötig ist, halte die Gründe schriftlich fest. Aufsichtsbehörden erwarten eine nachvollziehbare Begründung.
Die 7-Schritte-Anleitung für eine KI-DSFA
Schritt 1: Verarbeitung systematisch beschreiben
Beschreibe die geplante Datenverarbeitung durch das KI-System vollständig:
- Zweck: Wozu wird das KI-System eingesetzt?
- Rechtsgrundlage: Art. 6 Abs. 1 DSGVO (z. B. berechtigtes Interesse lit. f, Einwilligung lit. a, Vertrag lit. b)
- Kategorien personenbezogener Daten: Name, E-Mail, Verhaltensdaten, biometrische Daten?
- Betroffene: Kunden, Mitarbeiter, Bewerber, Websitebesucher?
- Datenflüsse: Woher kommen die Daten? Wo werden sie verarbeitet? Wer hat Zugriff?
- Speicherdauer: Wie lange werden Daten im KI-System und beim Anbieter gespeichert?
- Beteiligte Parteien: Interner Verantwortlicher, KI-Anbieter als Auftragsverarbeiter, Sub-Auftragsverarbeiter
Bei KI-Systemen ist besonders wichtig: Werden die Eingabedaten zum Training des Modells verwendet? Bei vielen Cloud-KI-Diensten ist das der Fall, wenn du es nicht aktiv deaktivierst.
Schritt 2: Notwendigkeit und Verhältnismäßigkeit prüfen
Art. 35 Abs. 7 lit. b DSGVO verlangt eine Bewertung der Notwendigkeit und Verhältnismäßigkeit:
- Ist der Einsatz von KI für diesen Zweck erforderlich, oder gibt es datenschutzfreundlichere Alternativen?
- Werden nur die Daten verarbeitet, die tatsächlich nötig sind (Datenminimierung, Art. 5 Abs. 1 lit. c)?
- Ist die Rechtsgrundlage tragfähig? Berechtigtes Interesse allein reicht bei Profiling mit KI selten aus.
- Werden Betroffenenrechte (Auskunft, Löschung, Widerspruch) gewährleistet?
Praxistipp: Dokumentiere hier auch, warum du dich für ein bestimmtes KI-Tool entschieden hast und welche Alternativen du geprüft hast.
Schritt 3: Risiken für Betroffene identifizieren
Das Herzstück der DSFA. Identifiziere systematisch, welche Risiken das KI-System für die Rechte und Freiheiten der betroffenen Personen mit sich bringt. Typische KI-Risiken findest du weiter unten in der Tabelle "Typische KI-Risiken".
Bewerte jedes Risiko nach:
- Eintrittswahrscheinlichkeit (gering / mittel / hoch)
- Schwere des Schadens (gering / mittel / hoch)
Die Kombination ergibt das Risikoniveau.
Schritt 4: Technische und organisatorische Maßnahmen (TOM) festlegen
Für jedes identifizierte Risiko definierst du Gegenmaßnahmen:
- Technische Maßnahmen: Verschlüsselung, Pseudonymisierung, Zugriffskontrollen, Opt-out für Trainingsdaten, Logging
- Organisatorische Maßnahmen: Schulungen, Richtlinien zur KI-Nutzung, regelmäßige Audits, Human-in-the-Loop bei automatisierten Entscheidungen
- Vertragliche Maßnahmen: Auftragsverarbeitungsvertrag (AVV), Standardvertragsklauseln bei Drittlandtransfer, Data Processing Addendum
Schritt 5: Auftragsverarbeitung und Drittlandtransfer bewerten
Dieser Schritt wird bei KI oft unterschätzt. Die meisten KI-Tools sind Cloud-Dienste. Das bedeutet:
- Der KI-Anbieter ist in der Regel Auftragsverarbeiter nach Art. 28 DSGVO.
- Du brauchst einen AVV (Auftragsverarbeitungsvertrag) mit dem Anbieter.
- Bei US-Anbietern (OpenAI, Anthropic, Google) kommt Drittlandtransfer hinzu. Aktuell gilt das EU-US Data Privacy Framework als Rechtsgrundlage (Angemessenheitsbeschluss C(2023) 4745), sofern der Anbieter DPF-zertifiziert ist.
- Prüfe Sub-Auftragsverarbeiter: Nutzt der KI-Anbieter seinerseits Cloud-Infrastruktur (Azure, AWS, GCP)?
- Kläre die Trainingsklausel: Werden Eingabedaten zum Modelltraining verwendet? Bei OpenAI API-Nutzung standardmäßig nicht, bei ChatGPT Free/Plus standardmäßig ja.
| KI-Anbieter | AVV verfügbar | DPF-zertifiziert | Trainingsklausel (API) |
|---|---|---|---|
| OpenAI | Ja (DPA) | Ja | Kein Training mit API-Daten (Standard) |
| Microsoft (Azure OpenAI) | Ja (DPA/OST) | Ja | Kein Training mit Kundendaten |
| Google (Gemini/Vertex) | Ja (DPA) | Ja | Kein Training bei Paid Workspace |
| Anthropic (Claude) | Ja (DPA) | Ja | Kein Training mit API-Daten |
Alle Angaben Stand April 2026. Prüfe die aktuellen DPA-Dokumente der Anbieter, da sich Bedingungen ändern können.
Schritt 6: Stellungnahme des Datenschutzbeauftragten einholen
Art. 35 Abs. 2 DSGVO: Der Verantwortliche holt bei der DSFA den Rat des Datenschutzbeauftragten ein, sofern ein solcher benannt wurde. Das ist keine Formalie. Der DSB sollte:
- Die Schwellwertanalyse bewerten
- Die Risikobewertung prüfen
- Die Angemessenheit der TOM einschätzen
- Eine schriftliche Stellungnahme abgeben, die Teil der DSFA-Dokumentation wird
Schritt 7: Restrisiken dokumentieren und entscheiden
Nach Umsetzung aller Maßnahmen bleiben in der Regel Restrisiken. Dokumentiere sie ehrlich:
- Welche Risiken bestehen trotz der getroffenen Maßnahmen?
- Wie hoch ist das verbleibende Risiko?
- Ist das Restrisiko akzeptabel?
Wenn das Restrisiko weiterhin hoch ist, musst du vor Beginn der Verarbeitung die zuständige Aufsichtsbehörde konsultieren (Art. 36 DSGVO, sogenannte vorherige Konsultation). In Bayern ist das Bayerische Landesamt für Datenschutzaufsicht (BayLDA) zuständig.
Muster-Gliederung einer DSFA für KI-Systeme
Diese Gliederung kannst du als Vorlage für deine eigene DSFA verwenden:
1. Deckblatt und Versionierung - Name des KI-Systems, verantwortliche Stelle, Version der DSFA, Datum
2. Beschreibung der Verarbeitung - Zweck und Kontext des KI-Einsatzes - Art der personenbezogenen Daten - Betroffene Personengruppen - Datenflüsse (Eingabe, Verarbeitung, Ausgabe, Speicherung) - Rechtsgrundlage nach Art. 6 DSGVO - Beteiligte Parteien und Auftragsverarbeiter
3. Schwellwertanalyse - Prüfung der 9 Kriterien (WP 248 Rev.01) - Ergebnis und Begründung
4. Notwendigkeit und Verhältnismäßigkeit - Eignung des KI-Systems für den Zweck - Datenminimierung - Speicherbegrenzung - Alternativenprüfung
5. Risikobewertung - Identifizierte Risiken (Tabelle mit Eintrittswahrscheinlichkeit und Schwere) - Risikomatrix
6. Maßnahmen - Technische Maßnahmen - Organisatorische Maßnahmen - Vertragliche Maßnahmen (AVV, SCCs)
7. Auftragsverarbeitung und Drittlandtransfer - Anbieter, Standorte, Rechtsgrundlage für den Transfer - Sub-Auftragsverarbeiter - Trainingsklausel
8. Stellungnahme des Datenschutzbeauftragten
9. Restrisiken und Entscheidung - Bewertung der Restrisiken nach Maßnahmen - Akzeptanz oder vorherige Konsultation nach Art. 36
10. Anhänge - AVV, DPA, technische Dokumentation des KI-Systems, Schulungsnachweise
Typische KI-Risiken, die dokumentiert werden müssen
Die folgende Tabelle zeigt Risiken, die bei KI-Systemen regelmäßig auftreten und in der DSFA adressiert werden müssen:
| Risiko | Beschreibung | Typische Gegenmaßnahme |
|---|---|---|
| Bias und Diskriminierung | KI-Modelle können Vorurteile aus Trainingsdaten reproduzieren, z. B. bei Bewerber-Screening | Bias-Audits, diverse Trainingsdaten, Human-in-the-Loop |
| Mangelnde Transparenz (Black Box) | Betroffene können nicht nachvollziehen, wie eine KI-Entscheidung zustande kam | Erklärbare KI (XAI), Dokumentation der Entscheidungslogik, Informationspflichten nach Art. 13/14 |
| Halluzinationen | LLMs generieren plausibel klingende, aber falsche Informationen | Faktenprüfung, Retrieval-Augmented Generation (RAG), Warnhinweise |
| Datenleck an den KI-Anbieter | Personenbezogene Daten gelangen über Prompts an den Anbieter und werden möglicherweise zum Training genutzt | Opt-out für Training, API statt Webinterface, Pseudonymisierung der Eingaben |
| Übermäßige Datensammlung | KI-Systeme speichern mehr Daten als für den Zweck erforderlich | Datenminimierung, automatische Löschfristen, regelmäßige Überprüfung |
| Fehlende menschliche Kontrolle | Automatisierte Entscheidungen ohne menschliche Überprüfung | Art. 22 DSGVO beachten, Human-in-the-Loop, Eskalationsprozesse |
| Zweckentfremdung | Daten, die für einen Zweck erhoben wurden, werden für KI-Training oder andere Analysen verwendet | Strenge Zweckbindung, technische Trennung, vertragliche Regelungen |
| Unzureichende Löschung | Personenbezogene Daten in KI-Modellen oder Logfiles werden nicht fristgerecht gelöscht | Löschkonzept, automatische Bereinigung, vertragliche Löschpflichten im AVV |
Auftragsverarbeitung bei KI-Tools: Was du beachten musst
Die Auftragsverarbeitung verdient einen eigenen Abschnitt, weil hier die meisten Fehler passieren.
Wann liegt Auftragsverarbeitung vor? Immer dann, wenn ein externer KI-Anbieter personenbezogene Daten in deinem Auftrag verarbeitet. Das betrifft praktisch jede Cloud-KI: OpenAI, Microsoft, Google, Anthropic, aber auch spezialisierte Anbieter wie HubSpot (KI-Funktionen), Salesforce Einstein oder KI-basierte HR-Tools.
Was muss der AVV regeln?
- Gegenstand und Dauer der Verarbeitung
- Art und Zweck der Verarbeitung
- Art der personenbezogenen Daten und betroffene Personenkategorien
- Pflichten und Rechte des Verantwortlichen
- Weisungsgebundenheit des Auftragsverarbeiters
- TOMs des Auftragsverarbeiters
- Sub-Auftragsverarbeiter (mit Genehmigungsvorbehalt)
- Unterstützung bei Betroffenenanfragen und Meldepflichten
- Löschung oder Rückgabe der Daten nach Ende der Verarbeitung
Praxistipp: Die großen KI-Anbieter stellen DPAs (Data Processing Agreements) bereit, die du annehmen oder verhandeln kannst. Prüfe insbesondere die Klauseln zum Training mit Kundendaten und zur Liste der Sub-Auftragsverarbeiter.
Wenn dein Unternehmen ChatGPT DSGVO-konform einsetzen will, ist der AVV der erste Schritt. Ohne gültigen AVV ist die Nutzung von Cloud-KI mit personenbezogenen Daten rechtswidrig.
Häufige Fehler bei der KI-DSFA
- DSFA wird erst nach Go-Live erstellt. Art. 35 Abs. 1 DSGVO sagt "vor der Verarbeitung". Eine nachträgliche DSFA ist besser als keine, aber sie erfüllt die gesetzliche Vorgabe nicht.
- Schwellwertanalyse fehlt. Auch wenn du entscheidest, dass keine DSFA nötig ist, musst du die Schwellwertanalyse dokumentieren.
- Auftragsverarbeitung wird ignoriert. Viele Unternehmen behandeln ChatGPT wie ein Werkzeug, nicht wie einen Auftragsverarbeiter. Das ist ein Compliance-Risiko.
- DSFA wird einmalig erstellt und nie aktualisiert. Art. 35 Abs. 11 DSGVO verlangt eine Überprüfung, wenn sich die Risiken ändern. Bei KI passiert das regelmäßig (Modell-Updates, neue Funktionen, geänderte Nutzungsbedingungen).
- Stellungnahme des DSB fehlt. Art. 35 Abs. 2 DSGVO verpflichtet zur Einholung.
DSFA und KI-Governance verbinden
Eine einzelne DSFA löst nicht alle Compliance-Fragen rund um KI. Sie ist ein Baustein in einem größeren KI-Governance-Framework. Die DSFA adressiert den Datenschutz. Daneben brauchst du:
- Ein KI-Inventar (welche Systeme sind im Einsatz?)
- Nutzungsrichtlinien (wer darf was mit welchem KI-Tool?)
- Schulungsnachweise (Art. 4 EU AI Act, KI-Kompetenz)
- Regelmäßige Audits (funktionieren die Maßnahmen?)
Die DSFA sollte kein isoliertes Dokument sein, sondern in dein Gesamtkonzept eingebettet werden.
FAQ
Brauche ich für jedes KI-Tool eine eigene DSFA? Nicht zwingend. Du kannst ähnliche Verarbeitungen in einer DSFA zusammenfassen, wenn Zweck, Datenarten und Risiken vergleichbar sind. Ein einzelner ChatGPT-Einsatz für interne Textgenerierung und ein KI-basiertes Bewerber-Screening sollten aber getrennt bewertet werden, da die Risikoprofile sehr unterschiedlich sind.
Wer ist für die DSFA verantwortlich? Der Verantwortliche im Sinne von Art. 4 Nr. 7 DSGVO. In der Praxis bedeutet das: die Geschäftsführung. Sie kann die Durchführung delegieren, bleibt aber verantwortlich.
Was passiert, wenn ich keine DSFA durchführe? Art. 83 Abs. 4 DSGVO: Geldbußen von bis zu 10 Millionen Euro oder 2 % des weltweiten Jahresumsatzes. Das BayLDA prüft aktiv und hat in der Vergangenheit Bußgelder wegen fehlender DSFAs verhängt.
Muss ich die DSFA veröffentlichen? Nein. Die DSFA ist ein internes Dokument. Du musst sie aber auf Anfrage der Aufsichtsbehörde vorlegen können (Art. 36 Abs. 1 DSGVO).
Wie oft muss die DSFA aktualisiert werden? Art. 35 Abs. 11 DSGVO verlangt eine Überprüfung, wenn sich die Verarbeitungsvorgänge ändern. Bei KI-Systemen empfiehlt sich ein fester Review-Zyklus: mindestens jährlich und zusätzlich bei jedem größeren Modell-Update oder bei Änderungen an den Nutzungsbedingungen des Anbieters.
Zählt eine DSFA auch als Dokumentation für den EU AI Act? Teilweise. Die DSFA adressiert den Datenschutz, nicht alle Anforderungen des EU AI Act. Aber es gibt erhebliche Überschneidungen, insbesondere bei Hochrisiko-KI: Risikobewertung, Transparenz, menschliche Aufsicht. Eine gut gemachte DSFA liefert Bausteine für die AI-Act-Dokumentation.
KI-Compliance braucht geschulte Mitarbeiter
Eine DSFA lebt davon, dass die beteiligten Personen verstehen, was sie dokumentieren. Datenschutzbeauftragte, IT-Leiter und Fachabteilungen müssen die Funktionsweise von KI-Systemen und die daraus resultierenden Datenschutzrisiken einschätzen können.
SkillSprinters bietet als DEKRA-zertifizierter Bildungsträger aus Bayreuth die Weiterbildung zum Digitalisierungsmanager für Prozessautomatisierung und KI an. In 4 Monaten, komplett online, mit eigenem Modul zu Datenschutz, Sicherheit und Compliance. Die Weiterbildung ist zu 100 % über den Bildungsgutschein förderbar.
Jetzt informieren und Beratungstermin buchen
Bereit für deinen nächsten Karriereschritt?
Lass dich kostenlos beraten. Wir finden die passende Weiterbildung und Förderung für dich.