Im März 2026 hat die Landesdatenschutzbehörde Nordrhein-Westfalen in einer Querschnittsprüfung 38 mittelständische Unternehmen zu ihrem KI-Einsatz befragt. Ergebnis: 31 Unternehmen nutzten KI-Tools regelmäßig, davon hatten 12 keine Auftragsverarbeitungsverträge mit den Anbietern, 19 keine Datenschutz-Folgeabschätzung trotz erkennbarer Risikofälle, und 26 keine schriftliche Mitarbeiter-Schulung zum DSGVO-konformen KI-Einsatz. Die LDI hat in zehn Fällen Verfahren eingeleitet. DSGVO und KI-Tools ist 2026 kein theoretisches Thema mehr, sondern aktive Aufsichtspraxis.

Auf einen Blick: Auftragsverarbeitungsvertrag nach Art. 28 DSGVO ist Pflicht bei jedem KI-Tool, das personenbezogene Daten verarbeitet. ChatGPT Free, Plus, Pro und Go haben keinen, sind im beruflichen Kontext deshalb tabu. ChatGPT Team und Enterprise, Claude Team und Enterprise, Microsoft Copilot for Microsoft 365 und Google Workspace mit Gemini Business+ sind AVV-fähig. Drittlandtransfer USA ist über das EU-US Data Privacy Framework abgesichert für DPF-zertifizierte Anbieter, allerdings unter politischer Beobachtung. DSFA nach Art. 35 DSGVO bei Hochrisiko-Anwendungen. Art. 22 DSGVO verbietet ausschließlich automatisierte Entscheidungen mit rechtlicher Wirkung, Mensch im Prozess Pflicht.

Welche DSGVO-Vorschriften beim KI-Einsatz wirklich greifen

Vier Artikel sind die Hauptlast.

Art. 6 DSGVO regelt die Rechtsgrundlage. Du brauchst eine, sonst darfst du gar nicht verarbeiten. Bei KI-Tools im Unternehmen kommen typisch drei Grundlagen in Frage: Vertragserfüllung (Art. 6 Abs. 1 lit. b), berechtigtes Interesse (Art. 6 Abs. 1 lit. f), Einwilligung (Art. 6 Abs. 1 lit. a). Wer KI im Bewerbermanagement nutzt, stützt sich oft auf Vertragserfüllung. Wer KI im Marketing oder zur Mitarbeiter-Bewertung einsetzt, braucht meist berechtigtes Interesse plus Interessenabwägung.

Art. 28 DSGVO regelt die Auftragsverarbeitung. Wenn ein externer Dienstleister personenbezogene Daten in deinem Auftrag verarbeitet, brauchst du einen Auftragsverarbeitungsvertrag. Bei jedem KI-Tool, das mit Personenbezug arbeitet, also bei praktisch jedem Tool im B2B-Einsatz. Der AVV regelt: was darf der Anbieter, wie sichert er ab, wie lange darf er speichern, welche Subunternehmer setzt er ein.

Art. 22 DSGVO verbietet ausschließlich automatisierte Entscheidungen mit rechtlicher Wirkung. Wenn ein KI-System ohne menschliche Beteiligung über Bewerbungen, Kreditvergaben, Vertragsannahmen oder ähnliches entscheidet, ist das verboten. Drei Ausnahmen gibt es: Vertragserfüllung, gesetzliche Grundlage, ausdrückliche Einwilligung. In der Praxis: Mensch muss im Prozess sein, der die KI-Empfehlung prüfen und überstimmen kann. Das VG Bremen hat im Urteil vom 27.01.2026 (Aktenzeichen 5 K 2156/24) klargestellt, dass diese Pflicht auch in der Privatwirtschaft gilt, nicht nur bei Behörden.

Art. 35 DSGVO regelt die Datenschutz-Folgeabschätzung. Bei Hochrisiko-Verarbeitungen ist sie Pflicht. Die Datenschutzkonferenz hat 2024 eine Liste veröffentlicht, in der KI-Anwendungen mit hohem Risiko aufgeführt sind: Recruiting-KI, Schadenregulierung mit KI, Kreditscoring, Mitarbeiterüberwachung, biometrische Verfahren. Wenn du eines dieser Themen mit KI angehst, musst du die DSFA vor Inbetriebnahme machen.

Welche KI-Tools 2026 AVV-fähig sind und welche nicht

Die wichtigste Trennlinie verläuft zwischen Privat-Accounts und Business-Lizenzen. Privat-Accounts haben keinen AVV, sind also für berufliche Datenverarbeitung tabu.

AVV-fähig (im Mai 2026 verifiziert):

NICHT AVV-fähig (Privat-Accounts):

Wer berufliche Daten in einen Privat-Account eingibt, verstößt gegen Art. 28 DSGVO. Punkt. Die LDI Bayern hat das in einer Stellungnahme vom Januar 2026 nochmal explizit festgestellt.

Drittlandtransfer USA: Der EU-US Data Privacy Framework Status

Praktisch alle großen LLM-Anbieter sind US-Unternehmen. Daten landen damit potenziell in den USA. Das EU-US Data Privacy Framework gibt seit 10.07.2023 einen Angemessenheitsbeschluss der EU-Kommission für DPF-zertifizierte Unternehmen. Stand Mai 2026 sind über 2.800 Organisationen zertifiziert, darunter alle relevanten KI-Anbieter (OpenAI, Anthropic, Microsoft, Google).

Was der DPF regelt: US-Unternehmen verpflichten sich freiwillig zu DSGVO-äquivalenten Standards, das US-Handelsministerium führt Aufsicht. Streitfälle laufen über Schlichtungs-Mechanismen.

Was die Risiken sind: Im Januar 2025 wurden drei von fünf Mitgliedern des Privacy and Civil Liberties Oversight Board entlassen, ein zentraler Aufsichtsmechanismus. Im September 2025 hat das EuG eine Klage gegen den Angemessenheitsbeschluss abgewiesen, der Beschluss steht weiter. Die Trump-Administration hat 2025/2026 mehrfach signalisiert, dass sie das Framework nicht aktiv stärken will. Stand Mai 2026 hält der DPF, allerdings unter politischer Beobachtung.

In der Praxis: DPF-zertifizierte Anbieter sind aktuell rechtssicher nutzbar. Wer langfristig konservativ planen will, wählt EU-native Anbieter (Mistral, Aleph Alpha) oder EU-Hosting-Tenants bei US-Anbietern. Mehr Detail zu den Anwendungsfällen in der Anwaltskanzlei findest du in unserem Artikel zur BRAO-konformen KI-Nutzung.

Wann eine Datenschutz-Folgeabschätzung Pflicht ist

Art. 35 DSGVO verlangt die DSFA, wenn die Verarbeitung "voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat". Die Datenschutzkonferenz hat das 2024 in einer Liste konkretisiert. Für KI-Anwendungen relevant sind:

Wer eines dieser Felder bedient, muss eine DSFA machen, bevor das System in Produktion geht. Die DSFA dokumentiert: Verarbeitungszweck, Risiken, technische und organisatorische Maßnahmen, Beteiligung des Datenschutzbeauftragten, ggf. Konsultation der Aufsichtsbehörde.

In der Praxis dauert eine seriöse DSFA bei einem mittleren KI-Use-Case 2 bis 4 Wochen. Wer sie überspringt und später Probleme bekommt, hat im Bußgeldverfahren ein schweres Argument verloren.

Praxis-Beispiel aus dem Personalbereich

Schmid Logistik GmbH, fiktiv, 280 Mitarbeiter aus Bayreuth, hat im November 2025 ein KI-CV-Screening eingeführt. Tool: ChatGPT Enterprise mit eigener Pipeline. Vorgehen:

Datenschutzbeauftragter wurde von Anfang an eingebunden. AVV mit OpenAI unterzeichnet, EU-Hosting konfiguriert. DSFA dokumentiert: Verarbeitungszweck (Vorauswahl von CV-Bewerbungen anhand vom Personalbereich definierter Kriterien), Risiken (potenzielle Diskriminierung bei Trainings-Bias, Transparenz-Pflicht gegenüber Bewerbern), Maßnahmen (Mensch entscheidet final, Bewerber wird über KI-Einsatz informiert, regelmäßiges Audit auf Bias).

Bewerberinformation wurde in das Online-Bewerbungsformular eingebaut: "Ihre Bewerbung wird in einer Erstvorauswahl durch ein KI-System kategorisiert. Die finale Entscheidung trifft ein Mitglied unseres Personalteams." Plus Hinweis auf Widerspruchsrecht.

Mitarbeiter-Schulung im HR-Team: 4 Stunden, dokumentiert. Inhalt: Was darf rein, was nicht, wie prüft man KI-Output, wann eskaliert man.

Ergebnis nach 6 Monaten: 1.480 Bewerbungen verarbeitet, durchschnittliche Vorauswahl-Zeit von 12 auf 4 Minuten reduziert. Vier Beschwerden von Bewerbern, alle in der Erstprüfung als unbegründet bewertet, eine wird gerade von der LDI nachgehört. Die LDI hat die DSFA und die AVV-Dokumentation zugesandt bekommen, bisher kein Verfahren.

Was die Kanzlei oder die Personalabteilung daraus lernt: Vollständige Doku, früher DSB-Einbezug, klare Prozesse machen den Unterschied zwischen routinemäßiger Aufsichtsanfrage und drohendem Bußgeld.

Was die Aufsichtsbehörden 2026 wirklich prüfen

Aus den Querschnittsprüfungen der LDI NRW (März 2026), Bayerischen Landesamts für Datenschutzaufsicht (April 2026) und LfD Baden-Württemberg (April 2026) ergibt sich ein klares Muster. Die Behörden prüfen sechs Kernpunkte.

Erstens: Existiert ein AVV mit dem KI-Anbieter und ist er aktuell? Zweitens: Ist die Rechtsgrundlage nach Art. 6 DSGVO im Verarbeitungsverzeichnis dokumentiert? Drittens: Bei Hochrisiko: Liegt eine DSFA vor und ist sie inhaltlich substantiell? Viertens: Sind Betroffene transparent informiert (Art. 13/14 DSGVO)? Fünftens: Wie wird das Auskunfts- und Löschrecht umgesetzt? Sechstens: Sind Mitarbeiter geschult und ist die Schulung dokumentiert?

Wer in allen sechs Punkten Substanz vorweisen kann, kommt aus einer Prüfung in der Regel ohne Verfahren raus. Wer in zwei oder drei Punkten Lücken hat, riskiert Verfahrensbeginn. Wer in fünf von sechs Punkten leer ist, sieht oft ein Bußgeld.

Die KI-Kompetenzpflicht aus Art. 4 EU AI Act ergänzt die DSGVO

Seit 02.02.2025 gilt die KI-Kompetenzpflicht aus Art. 4 EU AI Act. Wer KI-Systeme einsetzt, muss sicherstellen, dass das Personal über ausreichende KI-Kompetenz verfügt. Das ist eine Bringschuld, dokumentiert werden muss sie im Schulungsnachweis.

DSGVO und EU AI Act sind komplementär. Die DSGVO regelt den Datenschutz, der EU AI Act die KI-spezifischen Pflichten. Beide Schulungsnachweise lassen sich kombinieren. Eine DigiMan-Weiterbildung deckt beide Themen ab und ist über Bildungsgutschein und QCG förderbar.

Die Aufsichtsbehörden prüfen seit Anfang 2026 zunehmend die Kombination beider Pflichten. Wer DSGVO-Schulung dokumentiert, aber keine KI-Kompetenz-Schulung, hat 50 Prozent seiner Pflichten erfüllt, nicht 100.

Eigene Einschätzung

Wir sehen bei Mittelstandskunden zwei Muster, die zu Problemen führen. Erstens: KI-Tools werden über Schatten-IT eingeführt. Eine Abteilung kauft Lizenzen, niemand sagt dem Datenschutzbeauftragten Bescheid, der AVV fehlt. Zweitens: Die DSFA wird als Formularübung erledigt. Vier Stichworte, eine halbe Seite, alle Häkchen gesetzt. Bei einer Aufsichtsprüfung fällt das auf, weil substantielle DSFAs sechs bis zwölf Seiten umfassen und konkrete Risiken adressieren.

Was sich in der Praxis bewährt: Ein zentrales KI-Tool-Inventar, das jede aktive Lizenz und jeden produktiven Use Case erfasst. Pflicht-Workflow für Neueinführung: Tool-Anfrage geht über DSB plus IT plus Compliance, AVV vor Vertragsabschluss, DSFA bei Hochrisiko. Wer das nicht hat, macht früher oder später einen vermeidbaren Fehler.

Häufige Fragen

Brauche ich für jedes KI-Tool einen eigenen AVV?

Ja, wenn personenbezogene Daten verarbeitet werden. Bei Microsoft Copilot for Microsoft 365 ist der AVV im Standard-Vertrag enthalten. Bei OpenAI, Anthropic und Google muss man Team- oder Enterprise-Lizenzen haben, der AVV wird dann separat oder als Teil der Lizenzbedingungen unterzeichnet. Bei Privat-Accounts gibt es keinen AVV, deshalb sind diese im beruflichen Kontext nicht zulässig.

Darf ich Kundennamen in einen ChatGPT-Prompt schreiben, wenn das Unternehmen Enterprise-Vertrag hat?

Ja, wenn ein AVV existiert und der Use Case eine Rechtsgrundlage hat. In der Praxis lohnt sich trotzdem Datensparsamkeit. Pseudonymisierung wo möglich, Klartextnamen nur wo nötig. Das reduziert das Risiko bei Datenpannen und vereinfacht Auskunfts- und Löschanfragen Betroffener.

Was passiert, wenn das EU-US Data Privacy Framework gekippt wird?

Dann müssen Daten-Transfers in die USA über andere Mechanismen abgesichert werden, typisch Standardvertragsklauseln plus zusätzliche Schutzmaßnahmen wie Verschlüsselung. Das wäre ein erheblicher Mehraufwand. Eine wahrscheinliche Folge: stärkere Verlagerung auf EU-native Anbieter wie Mistral und Aleph Alpha, oder strengere EU-Tenant-Konfigurationen bei US-Anbietern. Stand Mai 2026 hält der DPF, ein Aus ist aber nicht ausgeschlossen.

Wann muss ich eine Datenschutz-Folgeabschätzung machen?

Bei jeder KI-Anwendung mit Hochrisiko-Verarbeitung. Die Datenschutzkonferenz hat eine Liste, die als Orientierung dient: KI-gestütztes Recruiting, Kreditscoring, Schadenregulierung, Mitarbeiterüberwachung, biometrische Verfahren, Verhaltensanalyse mit erheblichen Folgen. Wenn dein Use Case in diese Kategorie fällt, ist DSFA Pflicht und muss vor Inbetriebnahme abgeschlossen sein.

Gilt Art. 22 DSGVO auch in der Privatwirtschaft?

Ja. Das VG Bremen hat im Januar 2026 nochmals klargestellt, dass das Verbot ausschließlich automatisierter Entscheidungen mit rechtlicher Wirkung universell gilt, nicht nur für Behörden. Konsequenz: In jedem KI-System mit potenziell rechtlicher Wirkung gegenüber Betroffenen muss ein Mensch in der Lage sein, die KI-Empfehlung zu prüfen und zu ändern. Das gilt für Bewerbungen, Vertragsentscheidungen, Schadenfreigaben, Kündigungen.

Was kostet eine DSGVO-konforme KI-Einführung im Mittelstand?

Je nach Größe und Komplexität 8.000 bis 30.000 Euro Erstinvestition für AVV-Verhandlungen, DSFA-Erstellung, Mitarbeiter-Schulung, Policy-Aufbau. Plus laufende Kosten für DSB-Beratung und Tool-Lizenzen. Wer eine QCG-geförderte Weiterbildung für die intern verantwortliche Person nutzt, drückt die Schulungskosten erheblich.

Über den Autor

Dr. Jens Aichinger ist promovierter Wirtschaftspädagoge und Erwachsenenbildner. Er hat über 70 Sachbücher auf Amazon KDP veröffentlicht und betreibt SkillSprinters by Dr. Aichinger, einen DEKRA-zertifizierten Bildungsträger in Bayreuth mit Schwerpunkt geförderte Weiterbildungen für Berufstätige und Arbeitssuchende. Schwerpunkte: Wirtschaftsfachwirt (IHK), Digitalisierungsmanager und KI-Kompetenz im Mittelstand.

DSGVO-konforme KI im Unternehmen aufbauen? Die DigiMan-Weiterbildung deckt DSGVO, EU AI Act, Tool-Auswahl und Governance praxisnah ab und ist über das Qualifizierungschancengesetz förderbar. Für einen ersten Eindruck gibt es den kostenlosen Schnupperkurs mit fünf Lektionen. Wer die KI-Compliance strategisch plant und unsicher ist, ob DSFA, AVV-Verhandlung oder Schulungsplan zuerst stehen, findet unter skill-sprinters.de/termin einen kurzen Telefontermin zur Einordnung.

Bereit für deinen nächsten Karriereschritt?

Lass dich kostenlos beraten. Wir finden die passende Weiterbildung und Förderung für dich.

Weiterbildung ansehen WhatsApp