Update April 2026: Das EU-Parlament hat am 27.03.2026 die Verschiebung der Hochrisiko-KI-Pflichten beschlossen (Digital Omnibus, 569:45 Stimmen). Annex III tritt jetzt am 02.12.2027 in Kraft, Annex I am 02.08.2028. Der zweite Trilog ist für den 28.04.2026 angesetzt. WICHTIG: Die AI Literacy Pflicht nach Artikel 4 KI-VO bleibt unverändert ab August 2026 in Kraft. Schulungsnachweise sind also weiterhin Pflicht.

DeepSeek R1 hat Anfang 2025 die KI-Welt aufgemischt. Ein chinesisches Modell, das bei mathematischem Reasoning, Coding und komplexer Analyse mit GPT-4o und Claude mithalten kann. Zum Bruchteil der Kosten. Die API ist 10- bis 50-mal günstiger als OpenAI. Open-Source-Versionen laufen auf eigener Hardware. Kein Wunder, dass deutsche Unternehmen aufhorchen.

Dann kam die Ernüchterung. Im Januar 2025 stellte DeepSeek seine Datenschutzerklärung online. Darin steht schwarz auf weiß: Alle Daten werden auf Servern in der Volksrepublik China gespeichert. Es gilt chinesisches Recht. Und das chinesische Geheimdienstgesetz (National Intelligence Law, Art. 7) verpflichtet jede chinesische Organisation, den Nachrichtendiensten auf Verlangen Zugang zu Daten zu gewähren.

Für deutsche Unternehmen entsteht ein Dilemma: Die Technologie ist exzellent und erschwinglich. Aber die rechtliche Situation macht die Cloud-Nutzung zum Minenfeld. Dieser Artikel zeigt dir, was DeepSeek kann, wo die DSGVO-Probleme liegen, was der BfDI dazu sagt und wie du DeepSeek trotzdem legal einsetzen kannst.

Das Wichtigste in Kürze

Was ist DeepSeek? Modelle, Stärken, Grenzen

DeepSeek ist ein chinesisches KI-Unternehmen mit Sitz in Hangzhou, gegründet 2023. Hinter der Firma steht der Hedgefonds-Gründer Liang Wenfeng (High-Flyer Capital Management). In weniger als zwei Jahren hat DeepSeek Modelle veröffentlicht, die mit den besten westlichen Modellen konkurrieren.

DeepSeek R1: Reasoning-Spezialist

DeepSeek R1 ist ein Reasoning-Modell, vergleichbar mit OpenAIs o1. Es denkt in Schritten, zeigt seine Überlegungskette und löst komplexe Aufgaben in Mathematik, Logik und Programmierung. Auf der AIME-2024-Benchmark (Mathematik-Wettbewerb) erreicht R1 79,8 %. Zum Vergleich: GPT-4o erreicht 74,6 %, Claude 3.5 Sonnet 67,9 %.

R1 ist seit Januar 2025 vollständig Open Source unter der MIT-Lizenz verfügbar. Du kannst es herunterladen, modifizieren und kommerziell nutzen. Es gibt quantisierte Versionen von 1,5 Milliarden bis 671 Milliarden Parametern.

DeepSeek V3: Allzweck-Modell

DeepSeek V3 ist das General-Purpose-Modell. 671 Milliarden Parameter, trainiert auf 14,8 Billionen Tokens. Die Besonderheit: V3 nutzt eine Mixture-of-Experts-Architektur (MoE). Nicht alle 671 Milliarden Parameter werden bei jeder Anfrage aktiviert, sondern nur etwa 37 Milliarden. Das macht das Modell effizient.

V3 konkurriert mit GPT-4o und Claude Sonnet in den meisten Benchmarks. Bei Coding-Tasks und chinesischsprachigen Aufgaben liegt es vorn. Bei deutschsprachigen Aufgaben und kulturellem Kontext ist es schwächer als westliche Modelle.

Preisvergleich: DeepSeek Cloud-API vs. Wettbewerb

| Modell | Input-Preis (pro 1 Mio. Tokens) | Output-Preis (pro 1 Mio. Tokens) | Stärke | |--------|----------------------------------|-------------------------------------|--------| | DeepSeek V3 (API) | 0,27 $ | 1,10 $ | Allzweck, extrem günstig | | DeepSeek R1 (API) | 0,55 $ | 2,19 $ | Reasoning, Mathe, Coding | | GPT-4o (OpenAI) | 2,50 $ | 10,00 $ | Allzweck, breite Integration | | Claude Sonnet (Anthropic) | 3,00 $ | 15,00 $ | Analyse, Texte, Instruktionstreue | | Llama 3.1 70B (Self-Hosted) | Hardwarekosten | Hardwarekosten | Volle Datenkontrolle |

Die API-Preise von DeepSeek liegen bei 5 bis 15 % dessen, was OpenAI oder Anthropic verlangen. Das macht es verlockend. Aber der Preis ist nicht der einzige Faktor.

Datenverarbeitung in China: Warum es kein "EU-China Data Privacy Framework" gibt

Bei US-Anbietern wie OpenAI, Google und Anthropic hast du eine Rechtsgrundlage für den Datentransfer: das EU-US Data Privacy Framework (DPF). Die EU-Kommission hat per Angemessenheitsbeschluss festgestellt, dass DPF-zertifizierte US-Unternehmen ein angemessenes Datenschutzniveau bieten. Das DPF steht politisch unter Druck, ist aber im April 2026 gültig (Details dazu im Cloud-KI-DSGVO-Leitfaden).

Für China existiert kein solcher Beschluss. Es gibt keinen Angemessenheitsbeschluss, kein laufendes Verfahren und keine realistische Aussicht, dass einer kommt. China hat zwar 2021 das Personal Information Protection Law (PIPL) verabschiedet, das der DSGVO oberflächlich ähnelt. Aber drei fundamentale Unterschiede machen eine Anerkennung unmöglich:

1. Kein unabhängiger Rechtsbehelf

Die DSGVO verlangt, dass betroffene Personen ihre Rechte vor einem unabhängigen Gericht durchsetzen können (Art. 45 Abs. 2 lit. a DSGVO). In China gibt es keine unabhängige Justiz im westlichen Sinne. Die Kommunistische Partei steht über dem Rechtssystem.

2. Das Geheimdienstgesetz (Art. 7 NIL)

Artikel 7 des chinesischen National Intelligence Law von 2017 lautet sinngemäß: "Jede Organisation und jeder Bürger soll die nationale Geheimdienstarbeit unterstützen, mit ihr kooperieren und dabei mitwirken." Es gibt keine Möglichkeit für ein Unternehmen wie DeepSeek, einen solchen Datenzugriff zu verweigern. Es gibt kein Widerspruchsrecht, keinen Transparenzbericht und kein unabhängiges Aufsichtsgremium.

3. Kein funktionierendes Gegenstück zum PCLOB

In den USA überwacht (formal) das Privacy and Civil Liberties Oversight Board die Einhaltung der Verhältnismäßigkeit bei Geheimdienstzugriffen. Dieser Mechanismus war entscheidend für den DPF-Angemessenheitsbeschluss. In China existiert kein vergleichbares Organ. Nicht formal, nicht informell, nicht geplant.

DSGVO-Probleme bei der Cloud-Nutzung von DeepSeek

Wenn du die DeepSeek-Cloud-API nutzt, sendest du Daten an Server in China. Das löst eine Kette von DSGVO-Verpflichtungen aus, die bei chinesischen Empfängern praktisch nicht erfüllbar sind.

Problem 1: Keine Rechtsgrundlage nach Art. 44-49 DSGVO

Ohne Angemessenheitsbeschluss brauchst du eine alternative Rechtsgrundlage. In der Praxis kommen nur Standardvertragsklauseln (SCCs) nach Art. 46 Abs. 2 lit. c DSGVO in Frage. Aber: Seit dem Schrems-II-Urteil des EuGH reichen SCCs allein nicht. Du musst durch ein Transfer Impact Assessment (TIA) nachweisen, dass die Gesetze des Empfängerlandes die SCCs nicht aushöhlen. Bei China scheitert das am Geheimdienstgesetz.

Problem 2: Supplementary Measures versagen

Die ergänzenden Maßnahmen (Supplementary Measures nach EDPB-Empfehlung 01/2020) sollen den Schutz wiederherstellen, wenn die SCCs allein nicht reichen. Bei Cloud-Verarbeitung in China gibt es keine technische Maßnahme, die den Zugriff chinesischer Behörden auf entschlüsselte Daten verhindert. Verschlüsselung hilft nur, wenn der Schlüssel beim europäischen Verantwortlichen bleibt und der Verarbeiter keinen Zugriff auf Klartextdaten hat. DeepSeek muss aber Klartextdaten verarbeiten, um Anfragen zu beantworten.

Problem 3: Informationspflichten und Betroffenenrechte

Nach Art. 13-22 DSGVO hast du Auskunfts-, Löschungs- und Berichtigungspflichten. Du musst sicherstellen, dass DeepSeek diese Rechte technisch umsetzen kann. DeepSeeks Datenschutzerklärung bietet keine Mechanismen für die Durchsetzung europäischer Betroffenenrechte.

Problem 4: Datenschutzfolgenabschätzung (DSFA) kaum bestehbar

Art. 35 DSGVO verlangt eine DSFA bei hohem Risiko. Der Transfer personenbezogener Daten nach China bei gleichzeitiger Verarbeitung durch KI-Systeme erfüllt beide Risikoindikatoren (Drittlandtransfer + automatisierte Verarbeitung). Eine ehrliche DSFA wird bei Cloud-Nutzung von DeepSeek zu dem Ergebnis kommen, dass die Risiken nicht angemessen gemindert werden können. Mehr dazu in der DSFA-Schritt-für-Schritt-Anleitung.

BfDI und Aufsichtsbehörden: Klare Warnsignale

Die Datenschutzaufsichtsbehörden haben sich nicht um eine Positionierung gedrückt.

DSK (Datenschutzkonferenz), April 2025: Die Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder veröffentlichte eine Orientierungshilfe zu KI-Diensten aus Drittstaaten. Darin heißt es sinngemäß: Cloud-Dienste aus Staaten ohne Angemessenheitsbeschluss dürfen nur genutzt werden, wenn die Schutzmaßnahmen nachweislich den Zugriff ausländischer Behörden verhindern. Bei chinesischen Anbietern sei dies "nach derzeitigem Kenntnisstand nicht darstellbar".

BfDI (Bundesbeauftragter für den Datenschutz), Februar 2025: Der BfDI verwies in seiner Stellungnahme zur DeepSeek-Debatte darauf, dass Unternehmen vor der Nutzung eine DSFA durchführen müssen und das Ergebnis dokumentiert vorliegen muss. Eine pauschale Freigabe sei nicht möglich.

LfDI Baden-Württemberg, März 2025: Die Landesbeauftragte empfahl, DeepSeek nur in der lokalen Variante einzusetzen. Die Cloud-Nutzung sei "mit den Grundsätzen der DSGVO nicht vereinbar, solange keine wirksamen technischen Schutzmaßnahmen gegen staatlichen Zugriff nachgewiesen werden können."

Die Lösung: DeepSeek lokal hosten

DeepSeek R1 und V3 sind Open Source (MIT-Lizenz). Du kannst sie herunterladen und auf eigener Infrastruktur betreiben. Damit umgehst du alle Drittlandtransfer-Probleme, weil keine Daten China oder die EU verlassen.

Technische Optionen

Ollama ist der einfachste Einstieg. Eine einzige Kommandozeile installiert und startet ein Modell:

ollama run deepseek-r1:32b

Damit läuft DeepSeek R1 mit 32 Milliarden Parametern auf deinem Rechner oder Server. Ollama übernimmt Download, Quantisierung und Serving. Für Einzelnutzer und kleine Teams reicht ein aktueller Rechner mit 32 GB RAM.

vLLM ist die professionelle Option für Teams. Es bietet eine OpenAI-kompatible API, Batching und höheren Durchsatz. Ideal, wenn mehrere Mitarbeiter gleichzeitig auf das Modell zugreifen.

LiteLLM ist eine Middleware, die verschiedene Modell-Backends (Ollama, vLLM, OpenAI, Anthropic) hinter einer einheitlichen API bündelt. Damit kannst du lokal gehostetes DeepSeek und Cloud-APIs parallel betreiben und je nach Datenklassifikation routen.

Mehr Details zu Hardware-Anforderungen und Setup findest du im Leitfaden zum Self-Hosting von Open-Source-KI.

Hardware-Anforderungen

| Modell | Parameter | VRAM (quantisiert) | Geeignet für | Geschätzte Kosten (Hetzner Dedicated) | |--------|-----------|---------------------|--------------|---------------------------------------| | DeepSeek R1 1.5B | 1,5 Mrd. | 2 GB | Tests, Prototypen | Laptop reicht | | DeepSeek R1 7B | 7 Mrd. | 6 GB | Einzelnutzer, einfache Aufgaben | ab 50 Euro/Monat | | DeepSeek R1 32B | 32 Mrd. | 20 GB | Teams bis 10 Personen, anspruchsvolle Aufgaben | ab 180 Euro/Monat | | DeepSeek R1 70B | 70 Mrd. | 40 GB | Abteilungen, produktiver Einsatz | ab 350 Euro/Monat | | DeepSeek V3 (voll) | 671 Mrd. | 320+ GB | Enterprise, Multi-GPU-Setup | ab 2.000 Euro/Monat |

Die 32B-Variante trifft für die meisten KMU den Sweet Spot. Sie liefert 85-90 % der Reasoning-Leistung des vollen R1-Modells, läuft auf einer einzelnen professionellen GPU und kostet weniger als zehn ChatGPT-Enterprise-Lizenzen.

Cloud vs. lokal vs. US-Anbieter: Entscheidungsmatrix

| Kriterium | DeepSeek Cloud (China) | US-Anbieter Cloud (OpenAI, Anthropic) | DeepSeek lokal (EU-Server) | |-----------|------------------------|----------------------------------------|----------------------------| | DSGVO-Konformität | Praktisch nicht erreichbar | Erreichbar (DPF + AVV + SCCs) | Vollständig gegeben | | Angemessenheitsbeschluss | Keiner | EU-US DPF (gültig, instabil) | Nicht relevant (kein Transfer) | | Staatlicher Zugriff Risiko | Hoch (Art. 7 NIL) | Mittel (CLOUD Act) | Keins (eigene Infrastruktur) | | AVV nötig | Ja (nicht verfügbar in DE-Standard) | Ja (verfügbar) | Nein (kein Auftragsverarbeiter) | | DSFA-Ergebnis | Negativ (Risiken nicht mitigierbar) | Bedingt positiv (mit Maßnahmen) | Positiv (minimale Risiken) | | API-Kosten | Sehr niedrig (0,27-2,19 $/Mio. Tokens) | Mittel (2,50-15 $/Mio. Tokens) | Hardware-Fixkosten | | Modellqualität | Sehr gut (R1 Reasoning, V3 Allzweck) | Sehr gut bis exzellent | Identisch mit Cloud (Open Source) | | Setup-Aufwand | Gering (API-Key) | Gering (API-Key) | Mittel (Server, Ollama/vLLM) | | Vendor Lock-in | Niedrig (Open Source verfügbar) | Mittel bis hoch | Keins | | Skalierung | Unbegrenzt | Unbegrenzt | Hardware-begrenzt |

Die Tabelle zeigt: Wenn du DeepSeek nutzen willst, ist der lokale Weg nicht nur die sicherste, sondern auch die wirtschaftlich sinnvollste Option ab einer gewissen Nutzungsintensität. Du bekommst die gleiche Modellqualität, ohne dich auf eine chinesische Cloud-Infrastruktur zu verlassen.

Praxisempfehlung: So setzt du DeepSeek DSGVO-konform ein

Schritt 1: Datenklassifikation durchführen

Bevor du ein KI-Modell auswählst, kläre, welche Daten verarbeitet werden. Personenbezogene Daten (Kundennamen, E-Mail-Adressen, Verträge, Patientendaten) dürfen unter keinen Umständen an die DeepSeek-Cloud-API gesendet werden. Für rein interne, nicht-personenbezogene Daten (anonymisierte Statistiken, öffentlich verfügbare Informationen) ist das Risiko geringer, aber die rechtliche Grauzone bleibt.

Schritt 2: Lokales Hosting einrichten

Setze DeepSeek R1 32B oder 70B auf einem europäischen Server auf. Hetzner, OVHcloud oder IONOS bieten dedizierte GPU-Server mit Standort Deutschland. Installiere Ollama oder vLLM, verbinde das Modell mit deiner bestehenden Infrastruktur (z. B. über LiteLLM als Proxy). Das gesamte Setup dauert wenige Stunden.

Schritt 3: DSFA erstellen

Auch bei lokalem Hosting ist eine DSFA ratsam, wenn du personenbezogene Daten verarbeitest. Das Ergebnis wird deutlich positiver ausfallen als bei Cloud-Nutzung, weil kein Drittlandtransfer stattfindet. Dokumentiere die technischen und organisatorischen Maßnahmen: Verschlüsselung at rest, Zugriffskontrolle, Logging, Löschroutinen.

Schritt 4: KI-Nutzungsrichtlinie erstellen

Definiere, welche Mitarbeiter welches Modell für welche Daten nutzen dürfen. Beispiel: DeepSeek lokal für interne Analysen, Claude API für allgemeine Textaufgaben ohne sensible Daten, kein Cloud-KI-Dienst für Kundendaten mit Gesundheitsbezug.

Schritt 5: Mitarbeiter schulen

Ab August 2026 verlangt Art. 4 des EU AI Act, dass alle Mitarbeiter, die mit KI-Systemen arbeiten, über ausreichende KI-Kompetenz verfügen. Das bedeutet: Sie müssen verstehen, warum bestimmte Daten nicht in bestimmte Tools gehören. Und sie müssen wissen, wie sie das lokale DeepSeek-Modell nutzen.

In der Weiterbildung zum Digitalisierungsmanager lernst du und dein Team, wie KI-Systeme datenschutzkonform eingerichtet, betrieben und in bestehende Prozesse integriert werden. Der Kurs ist DEKRA-zertifiziert, dauert 4 Monate, läuft komplett online und ist mit Bildungsgutschein zu 100 % gefördert.

FAQ

Darf ich die DeepSeek-Cloud-API für nicht-personenbezogene Daten nutzen?

Rein rechtlich greift die DSGVO nur bei personenbezogenen Daten. Wenn du garantieren kannst, dass keinerlei personenbezogene Daten in die API fließen, fällt der Drittlandtransfer nicht unter Art. 44 DSGVO. In der Praxis ist diese Trennung schwer sicherzustellen. Eine versehentlich eingegebene E-Mail-Adresse reicht für einen Verstoß. Die sicherere Option ist lokales Hosting.

Ist DeepSeek R1 wirklich so gut wie GPT-4o?

Bei Reasoning-Aufgaben (Mathematik, Logik, Coding): Ja, teils besser. Bei deutschsprachiger Textgenerierung, kulturellem Kontext und Instruktionstreue: GPT-4o und Claude sind stärker. Für Unternehmen, die DeepSeek primär für Analyse, Coding und strukturierte Aufgaben einsetzen, ist die Qualität mehr als ausreichend.

Was kostet lokales Hosting realistisch?

Ein Hetzner Dedicated GPU-Server mit NVIDIA A100 40 GB kostet ab 350 Euro pro Monat. Damit betreibst du DeepSeek R1 70B für unbegrenzt viele Anfragen. Zum Vergleich: 20 ChatGPT-Enterprise-Lizenzen kosten mindestens 1.200 Euro pro Monat. Ab etwa 10 regelmäßigen Nutzern ist lokales Hosting günstiger.

Kann die chinesische Regierung auf mein lokal gehostetes Modell zugreifen?

Nein. Wenn du das Open-Source-Modell herunterlädst und auf deinem eigenen Server betreibst, besteht keine Verbindung zu DeepSeek oder chinesischen Servern. Die Gewichte sind statische Dateien. Sie telefonieren nicht nach Hause. Du betreibst das Modell genauso wie jede andere Open-Source-Software.

Gibt es europäische Alternativen zu DeepSeek?

Ja. Mistral (Frankreich) bietet leistungsfähige Open-Source-Modelle mit EU-Hauptsitz. Llama 3 von Meta ist ebenfalls Open Source und wird von europäischen Hostern angeboten. Allerdings erreicht aktuell kein Open-Source-Modell die Reasoning-Leistung von DeepSeek R1 auf seinem Niveau. Die Wahl hängt von deinem konkreten Anwendungsfall ab.

Brauche ich einen Auftragsverarbeitungsvertrag, wenn ich DeepSeek lokal hoste?

Nein. Bei lokalem Hosting bist du Verantwortlicher und Verarbeiter in einer Person. Es gibt keinen Auftragsverarbeiter, weil kein Dritter Zugang zu den Daten hat. Wenn du allerdings einen Managed-GPU-Dienst nutzt (z. B. Hetzner Cloud), ist der Hoster dein Auftragsverarbeiter, und du brauchst einen AVV mit ihm. Hetzner und andere deutsche Hoster bieten standardmäßig einen AVV an.

Fazit: Technologie nutzen, Risiko eliminieren

DeepSeek hat bewiesen, dass chinesische KI-Forschung auf Weltklasse-Niveau operiert. Die Modelle sind leistungsfähig, kosteneffizient und vollständig Open Source. Das ist die gute Nachricht.

Die schlechte Nachricht: Die Cloud-API ist für deutsche Unternehmen ein Compliance-Risiko, das sich mit den aktuellen Instrumenten der DSGVO nicht auflösen lässt. Kein Angemessenheitsbeschluss, kein wirksamer Rechtsbehelf, kein unabhängiges Aufsichtsgremium in China.

Die Lösung ist einfach: Lade das Modell herunter. Betreibe es auf europäischer Infrastruktur. Dann bekommst du die Leistung ohne das Risiko. Das ist kein Workaround, sondern die vom LfDI BW empfohlene Vorgehensweise.

Wenn du verstehen willst, wie du KI-Modelle professionell aufsetzt, in Geschäftsprozesse integrierst und datenschutzkonform betreibst: Die Weiterbildung zum Digitalisierungsmanager bei SkillSprinters deckt genau das ab. 4 Monate, komplett online, DEKRA-zertifiziert in Bayreuth. Mit Bildungsgutschein kostenlos.

Bereit für deinen nächsten Karriereschritt?

Lass dich kostenlos beraten. Wir finden die passende Weiterbildung und Förderung für dich.

Weiterbildung ansehen WhatsApp