Mistral Medium 3 ist das erste KI-Modell, bei dem du als deutscher KMU nicht erst einen halben Tag Datenschutzanwalt lesen musst, bevor du es produktiv einsetzen darfst. Der Anbieter sitzt in Paris, der Hosting-Stack läuft wahlweise in Frankfurt, Paris oder auf deinem eigenen Server. Kein Transfer in die USA, kein DPF-Disclaimer, keine wackelige Angemessenheitsentscheidung im Hintergrund. Für Firmen mit Personaldaten, Patientendaten oder Mandantenakten ist das ein echter Unterschied.

Das Wichtigste in Kürze

Warum EU-Hosting für dein KMU plötzlich wieder ein Thema ist

Die Angemessenheitsentscheidung zwischen EU und USA (Data Privacy Framework) steht seit Anfang 2025 unter politischem Druck. Wenn die Entscheidung kippt, sind Übermittlungen an OpenAI, Google oder Anthropic ohne zusätzliche Schutzmaßnahmen rechtlich schwierig. Das gilt nicht erst wenn es passiert, sondern schon jetzt in der Risikobewertung.

Für viele KMU ist das ein theoretisches Problem, solange sie KI nur für Marketing-Texte oder Code-Reviews nutzen. Sobald aber Mitarbeiterdaten, Kundendaten oder Gesundheitsdaten durchs Modell laufen, wird es konkret. Der Datenschutzbeauftragte fragt, der Betriebsrat fragt, und ab einer gewissen Größe fragt auch die Aufsichtsbehörde.

Mistral löst das Problem auf der Infrastruktur-Ebene. Der Anbieter ist in der EU, die Server stehen in der EU, das anwendbare Recht ist EU-Recht. Du brauchst keinen Transfer-Impact-Assessment und keine Standardvertragsklauseln mit Side-Letter. Du brauchst nur einen Auftragsverarbeitungsvertrag nach Art. 28 DSGVO und musst das Tool in dein Verarbeitungsverzeichnis aufnehmen.

Was Medium 3 technisch leistet

Medium 3 ist kein Frontier-Modell im Sinne von Claude Opus 4.7 oder GPT-5.4. Die Benchmark-Zahlen liegen eine Klasse darunter. Für 80 Prozent der KMU-Use-Cases ist das völlig egal. E-Mail-Entwürfe, Produktbeschreibungen, Zusammenfassungen von Meeting-Notizen, einfache Auswertungen von Support-Tickets, Übersetzungen zwischen den großen EU-Sprachen, all das läuft mit Medium 3 solide.

128k Token Context heißt: Du kannst einen 200-Seiten-Vertrag reinladen und präzise Fragen stellen. Du kannst die letzten drei Monate Kundenkommunikation anhängen und das Modell bitten, Muster zu finden. Du kannst die komplette Fachkonzept-Doku eines Projekts einbauen und dann ein neues Feature dagegen reviewen lassen.

Preislich ist Medium 3 aggressiv positioniert. 0,40 USD pro Million Input-Tokens ist günstiger als die meisten US-Anbieter im Mid-Tier. Bei deutschen Texten kommt der Mistral-Tokenizer in etwa auf 3,5 bis 4 Zeichen pro Token, was die effektiven Kosten pro Brief, E-Mail oder Vertrag sehr gut kalkulierbar macht.

Large 3 für Spezialaufgaben

Wenn Medium 3 nicht reicht, gibt es seit Dezember 2025 Large 3. Das ist ein Mixture-of-Experts-Modell mit 41 Milliarden aktiven Parametern von insgesamt 675 Milliarden. Praktisch bedeutet MoE: Bei jeder Anfrage wird nur ein Bruchteil des Modells aktiviert. Das hält die Inferenz-Kosten erträglich, während die Modellbreite sehr groß bleibt.

Large 3 ist die richtige Wahl für längere Reasoning-Ketten, komplexe Analysen oder Fälle, in denen du domänenspezifisches Wissen brauchst. Für die meisten KMU ist es der Notnagel, wenn Medium 3 ein konkretes Problem nicht zuverlässig löst. Erst Medium probieren, dann gezielt auf Large heben.

Hosting-Varianten im Vergleich

Mistral Cloud in Paris ist der einfachste Einstieg. Du registrierst dich, bekommst einen API-Key, rufst den Endpoint auf und fertig. Die Konditionen stehen offen auf der Website, der AVV ist standardisiert. Für Firmen mit moderaten Volumen die schnellste Variante.

AWS Bedrock Frankfurt ist die Option für Unternehmen, die ohnehin tief im AWS-Stack sind. Du rufst Mistral über die Bedrock-API auf, die Daten bleiben in der eu-central-1-Region, die AWS-EU-Verträge greifen. Abrechnung läuft über AWS. Vorteil: Security-Groups, VPC-Endpoints und IAM-Rollen sind bereits etabliert. Nachteil: Du hast jetzt zwei Verträge im Spiel, Mistral für das Modell und AWS für die Infrastruktur.

Azure AI EU funktioniert analog. Wer Microsoft 365 und Entra ID sowieso schon im Haus hat, kann Mistral direkt an bestehende Identity-Flows hängen.

Self-hosted ist die anspruchsvollste, aber sauberste Variante. Du lädst das Modell runter, stellst es auf deine eigenen GPUs und garantierst damit, dass kein Byte je deine Infrastruktur verlässt. Für Kanzleien, Arztpraxen-IT-Dienstleister oder MedTech ist das oft der einzig gangbare Weg. Kostet aber Hardware und Betreuung, und es ist nichts für ein Zwei-Personen-KMU.

Wo der DSGVO-Vorteil nicht magisch alles löst

Ein häufiges Missverständnis: "EU-Hosting heißt DSGVO-konform." Das stimmt nicht. EU-Hosting ist eine Voraussetzung, nicht die Lösung. Du brauchst trotzdem ein Verarbeitungsverzeichnis, einen AVV, ggf. eine Datenschutz-Folgenabschätzung, eine Rechtsgrundlage für jede Art von Daten, die du durch das Modell schickst, und ein Löschkonzept.

In der Praxis sehen wir, dass Firmen Mistral einführen, drei Monate später einen DSGVO-Audit haben und feststellen, dass nie jemand die Verarbeitung ins Verzeichnis eingetragen hat. Das Tool ist datenschutzfreundlich, aber es ersetzt den Prozess nicht. Wer das unterschätzt, hat bei einer Beschwerde genau das gleiche Problem wie mit einem US-Tool.

Wann Mistral die richtige Wahl ist

Wenn du eine dieser Situationen hast, fang mit Mistral an, bevor du zu OpenAI oder Anthropic greifst.

Personaldaten gehen durchs Modell. Beispiel: Bewerbungen anonymisieren, Beurteilungen vorformulieren, Zeugnis-Entwürfe schreiben. Mandantendaten, Patientendaten, Klientendaten. Berufsgeheimnisträger haben zusätzliche Pflichten (§ 203 StGB), und EU-Hosting entschärft einen Teil der Diskussion.

Kunden oder Geschäftspartner fragen explizit nach EU-AI. Das passiert im öffentlichen Sektor, in der Versicherung und bei Banken-Zulieferern inzwischen regelmäßig. Mit Mistral kannst du es direkt beantworten.

Du willst einen zweiten Anbieter neben OpenAI oder Anthropic haben, um Lock-in zu vermeiden. Mistral ist die naheliegende Wahl, weil APIs und Prompting-Verhalten nah genug an den US-Anbietern sind, dass du bestehende Integrationen in ein paar Tagen portieren kannst.

Wo Mistral noch nicht reicht

Für anspruchsvolle Coding-Aufgaben, komplexe Agentic Workflows oder Use Cases, bei denen du die letzte Prozent Genauigkeit brauchst, ist Claude Opus 4.7 oder GPT-5.4 oft noch überlegen. Für multimodale Aufgaben mit Video-Input bist du bei Google mit Gemini besser aufgehoben. Und wenn du ein sehr spezifisches Fine-Tuning brauchst, sind die Tooling-Optionen bei den US-Anbietern reichhaltiger.

Die Faustregel, die sich bei uns in Projekten herauskristallisiert hat: Mistral Medium als Default für alles Europäische mit sensiblen Daten. Claude oder GPT für Coding und komplexe Reasoning-Aufgaben. Gemini für multimodale Fälle. So behältst du Flexibilität und minimierst gleichzeitig das Datenschutzrisiko.

FAQ

Ist Mistral automatisch DSGVO-konform?

Nein. Mistral bietet die technische Voraussetzung, indem alle Daten in der EU verarbeitet werden und kein Drittland-Transfer stattfindet. Du musst aber trotzdem einen Auftragsverarbeitungsvertrag abschließen, die Verarbeitung ins Verzeichnis eintragen und bei sensiblen Daten ggf. eine Datenschutz-Folgenabschätzung machen. Das Tool erleichtert die Compliance, ersetzt aber nicht den Prozess.

Was kostet Mistral Medium 3?

0,40 USD pro Million Input-Tokens und 2,00 USD pro Million Output-Tokens auf der offiziellen Mistral Cloud. Bei AWS Bedrock oder Azure kommen zusätzliche Infrastrukturgebühren dazu. Für ein typisches KMU mit moderatem Volumen liegt das Monatsbudget meist im zwei- bis dreistelligen Euro-Bereich.

Kann ich Mistral Medium 3 auch für Kundendaten nutzen?

Grundsätzlich ja, wenn du einen Auftragsverarbeitungsvertrag abgeschlossen, die Rechtsgrundlage geklärt und die betroffenen Personen informiert hast. Für besondere Kategorien nach Art. 9 DSGVO (Gesundheitsdaten, Gewerkschaftszugehörigkeit, biometrische Daten) brauchst du zusätzlich eine Datenschutz-Folgenabschätzung und eine strenge Rechtsgrundlage. Berufsgeheimnisträger sollten Self-hosted in Betracht ziehen.

Wo liegt der Unterschied zwischen Medium 3 und Large 3?

Medium 3 ist das Allround-Modell für 80 Prozent der KMU-Use-Cases. Large 3 ist ein Mixture-of-Experts-Modell mit deutlich mehr Parametern und besserer Leistung bei komplexem Reasoning, langen Analysen und domänenspezifischen Aufgaben. Large 3 ist teurer im Betrieb. Die Empfehlung ist, mit Medium zu starten und nur dann auf Large zu wechseln, wenn ein konkreter Use Case mit Medium nicht zuverlässig läuft.

Bereit für deinen nächsten Karriereschritt?

Lass dich kostenlos beraten. Wir finden die passende Weiterbildung und Förderung für dich.

Weiterbildung ansehen WhatsApp