Viele Unternehmen nutzen ChatGPT bereits im Arbeitsalltag. Gleichzeitig herrscht Unsicherheit, ob der Einsatz mit der DSGVO vereinbar ist. Die kurze Antwort: Ja, aber nur unter bestimmten Bedingungen. Die kostenlose Version von ChatGPT ist für Unternehmen praktisch nicht DSGVO-konform einsetzbar, sobald personenbezogene Daten verarbeitet werden. Ab der Team-Lizenz sieht es anders aus. Dieser Artikel erklärt, welche Lizenz Sie brauchen, welche Verträge geschlossen werden müssen und welche Pflichten bestehen.

Warum die kostenlose Version für Unternehmen problematisch ist

Bei ChatGPT Free und Plus werden Eingaben und Ausgaben standardmäßig zum Training der KI-Modelle verwendet. Das bedeutet: Wenn ein Mitarbeiter personenbezogene Daten in den Chat eingibt (Kundennamen, E-Mail-Adressen, Vertragsdaten), fließen diese potenziell in das Trainingsmaterial von OpenAI ein.

Das BayLDA (Bayerisches Landesamt für Datenschutzaufsicht) stellt in seiner KI-Checkliste klar: Der Anwendungsbereich der DSGVO wird nicht erst geöffnet, wenn personenbezogene Daten bei der produktiven Nutzung eingegeben werden. Schon die Tatsache, dass die Trainingsdaten personenbezogen sein können, ist datenschutzrechtlich relevant.

Für Unternehmen bedeutet das: Ohne Auftragsverarbeitungsvertrag (AVV) und ohne Kontrolle über die Datenverwendung fehlt die Rechtsgrundlage nach Art. 6 DSGVO.

Welche Lizenz für Unternehmen geeignet ist

OpenAI bietet vier Lizenzmodelle an. Nur drei davon sind für den Unternehmenseinsatz mit personenbezogenen Daten geeignet:

LizenzAVV möglichKein Training mit DatenEU-SpeicherungPreis (ca.)
Free / PlusNeinNein (opt-out möglich)Nein0 / 20 USD/Monat
TeamJaJa (Standard)Nein25 USD/Nutzer/Monat
APIJaJa (Standard)NeinNutzungsbasiert
EnterpriseJaJa (Standard)Ja (seit 2025)Individuell

Bei den Lizenzen Team, API und Enterprise verzichtet OpenAI standardmäßig darauf, Eingaben und Ausgaben zum Training zu verwenden. Zusätzlich bietet OpenAI für diese Lizenzen einen Auftragsverarbeitungsvertrag an.

EU Data Residency (nur Enterprise)

Seit Februar 2025 bietet OpenAI für Enterprise-Kunden EU Data Residency an. Seit Januar 2026 ist zusätzlich EU Inference Residency verfügbar. Das bedeutet: Gespräche, hochgeladene Dateien und Modellausgaben werden verschlüsselt in der EU gespeichert. Mit aktivierter Inference Residency läuft auch die GPU-Verarbeitung in der EU.

Für Unternehmen, die besonders sensible Daten verarbeiten (Gesundheitsdaten, Finanzdaten, Personalakten), ist Enterprise die sicherste Option.

Auftragsverarbeitungsvertrag (AVV) abschließen

Sobald Ihr Unternehmen ChatGPT Team, API oder Enterprise nutzt, müssen Sie einen AVV mit OpenAI abschließen. OpenAI stellt diesen online bereit:

  1. Besuchen Sie die Seite openai.com/policies/data-processing-addendum/
  2. Scrollen Sie zum Link "Execute Data Processing Agreement"
  3. Füllen Sie die Angaben zu Ihrem Unternehmen aus
  4. Bestätigen Sie den Vertrag

Der AVV regelt, dass OpenAI als Auftragsverarbeiter im Sinne des Art. 28 DSGVO handelt und die Daten nur nach Weisung Ihres Unternehmens verarbeitet.

Die BayLDA-Checkliste: Was Aufsichtsbehörden erwarten

Das BayLDA hat eine KI-Checkliste (Konsultationsstand v0.9) veröffentlicht, die als Orientierung für den DSGVO-konformen Einsatz von KI-Tools dient. Die Checkliste enthält Prüfpunkte in drei Bereichen:

1. Verzeichnis der Verarbeitungstätigkeiten (Art. 30 DSGVO)

Der Einsatz von ChatGPT muss in Ihrem Verzeichnis der Verarbeitungstätigkeiten dokumentiert sein. Halten Sie fest:

2. Datenschutz-Folgenabschätzung (DSFA)

Prüfen Sie, ob eine DSFA nach Art. 35 DSGVO erforderlich ist. Bei systematischer Verarbeitung personenbezogener Daten durch KI ist das in der Regel der Fall. Die DSFA sollte enthalten:

3. Technische und organisatorische Maßnahmen

Drittlandtransfer: USA und das EU-US Data Privacy Framework

ChatGPT verarbeitet Daten in den USA. Für den Transfer personenbezogener Daten in die USA brauchen Sie eine Rechtsgrundlage. Aktuell ist das der Angemessenheitsbeschluss der EU-Kommission zum EU-US Data Privacy Framework (DPF) vom 10. Juli 2023.

OpenAI ist unter dem DPF zertifiziert. Damit ist der Datentransfer grundsätzlich zulässig. Allerdings steht das DPF unter politischem Druck (Stand März 2026). Unternehmen sollten daher:

Praktische Umsetzung: 6 Schritte zum DSGVO-konformen ChatGPT-Einsatz

1. Lizenz upgraden

Wechseln Sie von Free/Plus auf mindestens Team. Kosten: etwa 25 USD pro Nutzer und Monat.

2. AVV abschließen

Schließen Sie den Auftragsverarbeitungsvertrag auf der OpenAI-Website ab. Dauert 10 Minuten.

3. Interne KI-Nutzungsrichtlinie erstellen

Definieren Sie klare Regeln:

4. Verarbeitungsverzeichnis aktualisieren

Tragen Sie ChatGPT als Verarbeitungstätigkeit ein. Dokumentieren Sie Zweck, Datenarten, Empfänger und Rechtsgrundlage.

5. Mitarbeiter schulen

Schulen Sie alle Mitarbeiter, die ChatGPT nutzen, zu den internen Richtlinien und den datenschutzrechtlichen Grundlagen. Seit dem 2. Februar 2025 besteht durch Art. 4 der EU-KI-Verordnung ohnehin eine Pflicht zur KI-Kompetenzschulung.

6. Datenschutz-Folgenabschätzung durchführen

Bei systematischer Nutzung von ChatGPT mit personenbezogenen Daten ist eine DSFA in der Regel erforderlich. Binden Sie Ihren Datenschutzbeauftragten ein.

Typische Verstöße und ihre Konsequenzen

Um das Thema greifbar zu machen: Hier sind vier Szenarien aus der Praxis, die in vielen Unternehmen täglich vorkommen.

Szenario 1: Vertriebsmitarbeiter gibt Kundenliste ein
Ein Mitarbeiter kopiert eine Kundenliste mit Namen, E-Mail-Adressen und Bestellhistorie in ChatGPT Free, um eine Auswertung zu erstellen. Problem: Die Daten werden zum Training verwendet, ein AVV fehlt, es gibt keine Rechtsgrundlage. Das ist ein meldepflichtiger Verstoß.

Szenario 2: HR nutzt ChatGPT für Bewerbungen
Die Personalabteilung lädt Bewerbungsunterlagen in ChatGPT hoch, um Zusammenfassungen zu erstellen. Problem: Bewerberdaten sind besonders schutzbedürftige personenbezogene Daten. Ohne AVV, DSFA und Information der Bewerber fehlen mehrere Rechtsgrundlagen.

Szenario 3: Geschäftsführer diktiert Strategiepapier
Der Geschäftsführer nutzt ChatGPT, um ein internes Strategiepapier mit Umsatzzahlen und Markteinschätzungen zu erstellen. Problem: Auch wenn keine personenbezogenen Daten betroffen sind, fließen Geschäftsgeheimnisse in das Training. Datenschutzrechtlich nicht relevant, aber ein Risiko für den Geheimnisschutz.

Szenario 4: Team nutzt ChatGPT Team korrekt
Das Marketingteam nutzt ChatGPT Team mit AVV und interner Richtlinie. Eingaben enthalten keine personenbezogenen Daten. Die KI erstellt Entwürfe für Blogbeiträge und Social-Media-Posts. Die Ergebnisse werden vor Veröffentlichung geprüft. Das ist DSGVO-konform.

Was bei einer Prüfung durch die Aufsichtsbehörde passiert

Das BayLDA und andere Landesbehörden prüfen zunehmend den KI-Einsatz in Unternehmen. Bei einer Prüfung wird typischerweise gefragt:

  1. Welche KI-Tools werden eingesetzt? (Bestandsaufnahme)
  2. Gibt es einen AVV mit dem Anbieter? (Vertragsgrundlage)
  3. Ist der KI-Einsatz im Verarbeitungsverzeichnis dokumentiert? (Art. 30 DSGVO)
  4. Wurde eine DSFA durchgeführt? (Art. 35 DSGVO)
  5. Sind die Mitarbeiter geschult? (Nachweispflicht)
  6. Gibt es eine interne Nutzungsrichtlinie? (Organisatorische Maßnahme)

Wer diese sechs Punkte abdeckt, ist auf eine Prüfung vorbereitet. Wer keinen einzigen davon umgesetzt hat, riskiert ein Bußgeld nach Art. 83 DSGVO (bis zu 20 Mio. EUR oder 4 % des Jahresumsatzes, wobei die Praxis in Deutschland deutlich niedrigere Beträge zeigt).

Alternativen: Wenn ChatGPT nicht passt

Nicht jedes Unternehmen möchte Daten an einen US-Anbieter übermitteln. Alternativen mit Fokus auf EU-Datenschutz:

AlternativeVorteilNachteil
Claude (Anthropic)EU-Datenverarbeitung für API, starke TextqualitätUS-Unternehmen
Open-Source-Modelle (Llama, Mistral)Vollständige Kontrolle, selbst gehostetIT-Aufwand, eigene Infrastruktur nötig
Microsoft Copilot (Azure)AVV über Microsoft, EU-RechenzentrenKosten, Microsoft-Ökosystem nötig
DeepSeekGünstig, leistungsfähigChinesischer Anbieter, DSGVO-Konformität ungeklärt

Open-Source-Modelle wie Llama oder Mistral können auf eigenen Servern oder in EU-Rechenzentren betrieben werden. In diesem Fall verlassen die Daten nie die Kontrolle des Unternehmens. Das ist die datenschutzrechtlich sicherste Lösung, erfordert aber technisches Know-how.

Checkliste: DSGVO-konformer ChatGPT-Einsatz auf einen Blick

Zum Ausdrucken und Abhaken:

Häufige Fragen

Dürfen Mitarbeiter ChatGPT Free privat nutzen und die Ergebnisse im Unternehmen verwenden?
Solange keine personenbezogenen Daten eingegeben werden, ist die Nutzung datenschutzrechtlich unproblematisch. Allerdings sollte die interne Richtlinie klar regeln, dass geschäftliche Eingaben nur über die Unternehmens-Lizenz erfolgen.
Brauche ich einen Datenschutzbeauftragten für den Einsatz von ChatGPT?
Wenn Ihr Unternehmen bereits einen DSB benötigt (ab 20 Mitarbeitern, die regelmäßig personenbezogene Daten verarbeiten), muss dieser in den ChatGPT-Einsatz eingebunden werden. Die Einführung von ChatGPT allein löst keine neue DSB-Pflicht aus.
Was passiert, wenn ein Mitarbeiter versehentlich personenbezogene Daten eingibt?
Bei ChatGPT Team und Enterprise werden die Daten nicht zum Training verwendet. Dokumentieren Sie den Vorfall, prüfen Sie ob eine Meldung nach Art. 33 DSGVO erforderlich ist, und passen Sie die Schulungsmaßnahmen an.
Kann die Datenschutzaufsicht den Einsatz von ChatGPT untersagen?
Grundsätzlich ja, wenn die DSGVO-Anforderungen nicht erfüllt sind. In der Praxis setzen die Behörden (wie das BayLDA) aber auf Beratung und Checklisten. Ein Verbot ist bisher in Deutschland nicht ausgesprochen worden.
Was ist mit DeepSeek? Ist das DSGVO-konform?
DeepSeek ist ein chinesischer Anbieter. Es gibt kein Angemessenheitsbeschluss der EU für China und kein vergleichbares Abkommen wie das EU-US Data Privacy Framework. Ein AVV nach europäischem Standard ist nicht verfügbar. Für den professionellen Einsatz mit personenbezogenen Daten ist DeepSeek aktuell nicht DSGVO-konform nutzbar. Open-Source-Versionen von DeepSeek können allerdings auf eigenen Servern betrieben werden, dann gelten die gleichen Regeln wie bei anderen selbst gehosteten Modellen.
Gilt das auch für andere KI-Tools wie Midjourney, DALL-E oder Gemini?
Ja. Jedes KI-Tool, das personenbezogene Daten verarbeitet, unterliegt der DSGVO. Prüfen Sie für jedes Tool: Gibt es einen AVV? Wo werden die Daten verarbeitet? Werden Eingaben zum Training verwendet? Die hier beschriebenen Schritte gelten analog für alle KI-Werkzeuge.

Ihre Mitarbeiter sollen KI-Tools sicher und DSGVO-konform einsetzen können?

Unser kostenloser KI-Assistent zeigt in 15 Minuten, wie KI im Unternehmensalltag praktisch funktioniert.

KI-Assistenten testen WhatsApp