Auf einen Blick: Vor jedem produktiven KI-Tool-Einsatz im KMU steht eine DSGVO-Prüfung. Sieben Punkte gehören in jede Prüfung: Zweck und Rechtsgrundlage, Datenkategorien, Auftragsverarbeitung nach Art. 28 DSGVO, Drittlandtransfer, technische Maßnahmen, Betroffenenrechte, Verzeichnis nach Art. 30. Wer alle sieben strukturiert dokumentiert, hat im Audit ein gutes Bild. Wer einen Punkt auslaesst, riskiert vermeidbare Bussgelder oder zumindest aufwendige Nachforderungen.
KMU-Verantwortliche unterschaetzen oft, was eine ordentliche DSGVO-Prüfung für ein KI-Tool umfasst. Die Versuchung ist groß, die Auftragsverarbeitungsvereinbarung des Anbieters zu unterschreiben und das Tool zu starten. Das reicht in fast keinem Fall. Was wirklich nötig ist, sind sieben strukturierte Punkte, die du dokumentierst und im Verzeichnis ablegst. Bei einer Aufsichts-Prüfung oder einem Audit ist diese Doku die Basis. Wer sie hat, ist im Geschäft. Wer sie nicht hat, kommt in Erklaerungsnot.
Die folgende Liste ist die Prüfung, die wir bei SkillSprinters bei jedem neuen KI-Tool durchgehen, bevor wir es in unsere Verarbeitungs-Landschaft aufnehmen. Sie funktioniert für Chat-Tools (ChatGPT, Claude), Office-Add-ins, branchenspezifische KI-Lösungen und Automatisierungs-Plattformen wie n8n mit KI-Nodes.
Punkt 1: Zweck und Rechtsgrundlage klaeren
Bevor du irgendwas einrichtest, beantwortest du eine klare Frage: Wofuer setze ich das KI-Tool ein und auf welche Rechtsgrundlage stuetze ich die Verarbeitung?
Bei Mitarbeiterdaten ist die Rechtsgrundlage meistens Art. 6 Abs. 1 lit. b DSGVO (Vertragserfuellung) oder lit. f (berechtigtes Interesse). Bei Bewerberdaten ist es Art. 88 DSGVO i.V.m. § 26 BDSG. Bei Kundendaten ist es Art. 6 Abs. 1 lit. b (Vertragserfuellung) oder Einwilligung nach Art. 6 Abs. 1 lit. a.
Sobald du die Rechtsgrundlage benannt hast, schreibst du den Zweck konkret auf: "Automatische Vorab-Klassifikation eingehender Kundenanfragen zur schnelleren Bearbeitung." Nicht: "Einsatz von KI im Kundenservice." Der zweite Satz ist zu unbestimmt, im Audit reicht das nicht.
Punkt 2: Datenkategorien inventarisieren
Pro KI-Tool listest du auf, welche Datenkategorien verarbeitet werden. Strukturiert in:
- Stammdaten (Name, Adresse, E-Mail, Telefon)
- Vertragsdaten (Vertragsnummer, Laufzeit, Konditionen)
- Inhaltsdaten (E-Mail-Texte, Dokumente, Chat-Verlaeufe)
- Verhaltensdaten (Klicks, Logs, Nutzungsmuster)
- Besondere Kategorien nach Art. 9 DSGVO (Gesundheit, Religion, ethnische Herkunft, sexuelle Orientierung, biometrische Daten)
Bei besonderen Kategorien wird es strenger. Du brauchst eine eigene Rechtsgrundlage nach Art. 9 Abs. 2 DSGVO und meistens eine Datenschutz-Folgenabschaetzung nach Art. 35 DSGVO. Wer Krankenakten in ein KI-Tool gibt, hat hohe Huerden. Wer das übersieht, riskiert Bussgelder im hohen sechsstelligen Bereich.
Punkt 3: Auftragsverarbeitung nach Art. 28 DSGVO
Sobald ein KI-Tool extern gehostet ist (das sind praktisch alle), verarbeitet ein Dritter personenbezogene Daten in deinem Auftrag. Du brauchst eine Auftragsverarbeitungsvereinbarung nach Art. 28 DSGVO. Die meisten Anbieter (OpenAI, Anthropic, Microsoft, Google) stellen ein Template bereit.
Prüfen musst du:
- Sind alle Pflichtinhalte nach Art. 28 Abs. 3 DSGVO drin? Gegenstand der Verarbeitung, Dauer, Art und Zweck, Kategorien betroffener Personen, Verpflichtungen des Auftragnehmers.
- Subunternehmer-Regelungen. Welche Subunternehmer setzt der Anbieter ein, wie informiert er über Änderungen, hast du ein Einspruchsrecht.
- Auditrechte. Kannst du im Zweifel prüfen oder prüfen lassen, ob der Anbieter die Vorgaben einhaelt.
- Löschung am Vertragsende. Was passiert mit deinen Daten, wenn ihr den Vertrag beendet.
Wenn der Anbieter kein DPA hat oder das DPA zentrale Pflichten nicht erfüllt, ist das ein Show-Stopper. Du darfst nicht produktiv gehen.
Punkt 4: Drittlandtransfer prüfen
Die meisten großen KI-Anbieter sind US-amerikanisch. Damit findet ein Transfer in ein Drittland statt. Nach Art. 44 ff. DSGVO ist das nur unter bestimmten Voraussetzungen erlaubt.
Aktuell stuetzen die meisten Anbieter den Transfer auf den EU-US Data Privacy Framework (Angemessenheitsbeschluss der EU-Kommission vom Juli 2023). Prüfen musst du:
- Ist der Anbieter unter dem DPF zertifiziert? Liste unter dataprivacyframework.gov.
- Was wenn der DPF kippt? Du brauchst einen Plan-B (Standardvertragsklauseln, BCRs, ggf. Anbieter-Wechsel).
- Welche Daten gehen konkret in die USA? Bei manchen Anbietern lassen sich europaeische Rechenzentren waehlen (Anthropic, OpenAI bieten das für Enterprise-Plaene).
Bei besonders sensiblen Daten lohnt sich ein europaeisches Hosting (Mistral mit Le Chat Pro, Aleph Alpha) oder ein selbst gehosteter Open-Source-Stack.
Punkt 5: Technische und organisatorische Maßnahmen (TOM)
Nach Art. 32 DSGVO musst du sicherstellen, dass die Verarbeitung dem Risiko angemessen geschuetzt ist. Pro KI-Tool dokumentierst du:
- Verschluesselung in Transit und at Rest. Bei modernen Cloud-Anbietern Standard, trotzdem prüfen.
- Zugriffskontrolle. Wer in deinem Unternehmen darf das Tool benutzen, wie ist der Zugriff geregelt, gibt es Rollen/Berechtigungen.
- Logging und Audit-Trails. Welche Aktivitäten werden geloggt, wie lange aufbewahrt, wer darf Logs sehen.
- Backup-Konzept. Was passiert bei Datenverlust auf Anbieter-Seite.
- Incident-Response. Was tut der Anbieter im Fall eines Datenlecks, wie informiert er dich, wie schnell.
Das TOM-Dokument ist meist 1-3 Seiten pro Tool. Vorlagen gibt es vom BfDI oder bei den Landesdatenschutzbehoerden.
Punkt 6: Betroffenenrechte umsetzbar machen
Personen, deren Daten ein KI-Tool verarbeitet, haben Rechte nach Kapitel III DSGVO. Du musst sicherstellen, dass diese Rechte praktisch umsetzbar sind:
- Auskunft nach Art. 15 DSGVO. Kannst du auf Anfrage sagen, welche Daten eines Betroffenen das KI-Tool verarbeitet?
- Berichtigung nach Art. 16. Wenn die Daten falsch sind, können sie korrigiert werden?
- Löschung nach Art. 17. Wenn ein Betroffener die Löschung verlangt, kannst du seine Daten aus dem KI-Tool entfernen lassen?
- Datenuebertragbarkeit nach Art. 20. Bei bestimmten Konstellationen muss das KI-Tool die Daten exportierbar bereitstellen.
- Widerspruch nach Art. 21. Bei automatisierten Entscheidungen muss ein Mensch dazwischen.
Wenn das KI-Tool diese Anfragen nicht beantworten kann (z.B. weil es keinen User-spezifischen Lösch-Mechanismus hat), hast du ein Problem. In dem Fall: Mit dem Anbieter klaeren oder das Tool anders einsetzen (z.B. nur pseudonymisierte Daten).
Punkt 7: Verzeichnis nach Art. 30 DSGVO
Jedes KI-Tool, das personenbezogene Daten verarbeitet, kommt in dein Verarbeitungsverzeichnis nach Art. 30 DSGVO. Mindestinhalte:
- Bezeichnung der Verarbeitungs-Tätigkeit
- Zweck und Rechtsgrundlage
- Kategorien betroffener Personen
- Kategorien personenbezogener Daten
- Empfaenger (also der KI-Anbieter und seine Subunternehmer)
- Drittlandtransfer und Schutz-Mechanismus
- Loeschfristen
- TOM (Verweis auf das separate TOM-Dokument)
Das Verzeichnis ist Pflicht und muss auf Anfrage der Aufsichtsbehoerde vorgelegt werden. Wer es nicht hat, kassiert nach Art. 83 Abs. 4 DSGVO bis zu 10 Mio EUR oder 2 Prozent Jahresumsatz Bussgeld.
Wann zusaetzlich eine Datenschutz-Folgenabschaetzung nötig ist
Eine DSFA nach Art. 35 DSGVO ist Pflicht, wenn die Verarbeitung "voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natuerlicher Personen" zur Folge hat. Bei KI-Tools triggert das mehrere Konstellationen:
- Verarbeitung besonderer Datenkategorien (Art. 9 DSGVO)
- Umfangreiches Profiling oder automatisierte Entscheidungen
- Systematische Überwachung
- Innovativer Einsatz neuer Technologien (KI ist hier oft genannt)
Die jeweilige Landesdatenschutzbehoerde hat eine "Muss-Liste" und eine "Soll-Liste". Auf der Muss-Liste sind z.B. Tools zur Bewerber-Vorauswahl, KI-basierte Bonitaetspruefung, biometrische Identifikation. Wer in der Muss-Liste ist, muss DSFA machen, ohne Wenn und Aber.
Aufwand für eine DSFA: 8-30 Stunden, je nach Komplexitaet. Wer das selbst macht, braucht eine Vorlage (gibt es bei BfDI und LfDIs). Wer extern beauftragt, zahlt 1.500-6.000 EUR.
Was wenn du Punkt 1-7 nicht abdecken kannst
Es gibt Konstellationen, in denen ein KI-Tool die DSGVO-Prüfung nicht besteht. Typisch:
- Anbieter ohne DPA
- Anbieter mit DPA, das zentrale Pflichten weglaesst
- Drittland-Transfer ohne ausreichenden Schutz und ohne EU-Hosting-Option
- Lösch-Mechanismen, die nicht funktionieren
In diesen Fällen hast du drei Optionen: Auf den Anbieter Druck machen und Nachbesserung verlangen, Alternative finden, oder das Tool nicht einsetzen. Was du auf keinen Fall machen darfst: trotzdem starten und hoffen, dass es nicht auffällt. Das Risiko (Bussgelder + Reputationsschaden) ist es nicht wert.
Vorlagen, die wirklich helfen
- DPA-Templates: Anthropic, OpenAI, Microsoft, Google stellen DPAs bereit, die in den meisten Fällen den Mindestanforderungen genügen.
- Verzeichnis-Vorlage: Die LfDIs (z.B. LfDI Baden-Wuerttemberg, BayLDA) bieten kostenfreie Templates.
- TOM-Vorlage: BfDI bietet eine generische TOM-Vorlage, die als Startpunkt taugt.
- DSFA-Vorlage: DSK (Datenschutzkonferenz) hat 2024 ein 25-seitiges Standardwerk veröffentlicht, dass die meisten Fälle abdeckt.
FAQ
Brauche ich für jedes KI-Tool einen eigenen Verzeichnis-Eintrag?
Ja, pro Tool und pro Verarbeitungs-Tätigkeit ein Eintrag. Wenn du ChatGPT für Marketing-Texte UND für Kunden-Anfragen-Beantwortung nutzt, sind das zwei Verzeichnis-Eintraege, weil unterschiedliche Zwecke und unterschiedliche Datenkategorien. Wenn du nur einen Eintrag mit "diverse Marketing- und Kundenanfragen" machst, ist das im Audit zu vage.
Reicht die DPA des Anbieters allein?
Nein. Die DPA ist die rechtliche Grundlage für die Auftragsverarbeitung. Du brauchst zusaetzlich deine eigene Doku: Verzeichnis-Eintrag, TOM-Dokument, Risiko-Bewertung, ggf. DSFA. Die DPA regelt das Verhältnis zwischen dir und dem Anbieter. Sie ersetzt nicht deine Verantwortung als Verantwortlicher gegenüber den Betroffenen.
Was mache ich, wenn ein Mitarbeiter heimlich ChatGPT nutzt?
Das ist Schatten-IT und stellt ein DSGVO-Risiko dar. Lösung: Klare Policy ("Welche Tools sind erlaubt, welche nicht"), in der Personalakte dokumentierte Schulung, plus eine pragmatische Alternative. Wenn ein Mitarbeiter ChatGPT nutzt, weil er sonst die Routine nicht schafft, hilft kein Verbot. Stattdessen: ChatGPT Pro oder Claude Pro offiziell lizenzieren, DSGVO-Prüfung machen, Policy festlegen welche Daten rein gehören. Lieber legal mit Prüfung als heimlich ohne.
Wie lange dauert eine vollstaendige DSGVO-Prüfung für ein KI-Tool realistisch?
Bei einem Standard-Tool ohne besondere Daten und mit etabliertem Anbieter: 4-8 Stunden internes Arbeiten. Bei einem Tool mit besonderen Datenkategorien plus DSFA: 30-50 Stunden. Wer es selbst macht, lernt mit jedem Tool dazu. Wer es regelmäßig outsourct, zahlt 800-3.000 EUR pro Tool an einen externen Datenschutz-Beauftragten. Für KMU ohne eigenen DSB ist die Mischform pragmatisch: ein externer DSB im Rahmenvertrag mit 4-8 Stunden im Monat für 600-1.200 EUR Monatspauschale.
Zuletzt geprüft am 17.05.2026.
Du brauchst Unterstützung bei der DSGVO-Prüfung deiner KI-Tools, mit Förderung für die Mitarbeiterqualifizierung? Im kostenlosen KI-Schnupperkurs zeigen wir dir die Grundlagen. Für eine umfassende Schulung mit Bildungsgutschein oder QCG-Förderung lohnt sich unser DigiMan-Kurs, der Datenschutz, KI-Compliance und Praxis-Workflows in 16 Wochen kombiniert.
Über den Autor
Dr. Jens Aichinger ist promovierter Wirtschaftspaedagoge, Gruender von SkillSprinters und seit über zehn Jahren in der digitalen Bildung tätig. Mit dem DEKRA-zertifizierten Bildungstraeger SkillSprinters betreut er bundesweit KMU bei der DSGVO-konformen KI-Einfuehrung. Mehr unter skill-sprinters.de/autor/jens-aichinger/.
Bereit für deinen nächsten Karriereschritt?
Lass dich kostenlos beraten. Wir finden die passende Weiterbildung und Förderung für dich.