Der Claude Mythos Unauthorized Access ist am 21. April 2026 öffentlich geworden, und die Geschichte ist für KMU spannender als sie auf den ersten Blick wirkt. Eine Discord-Gruppe hat über einen Drittanbieter Zugang zu einem Anthropic-Modell bekommen, das der Rest der Welt gar nicht benutzen darf. Das zeigt, wie schnell Lieferketten im AI-Stack brechen können, und genau das ist auch in deinem Betrieb ein Risiko.

Das Wichtigste in Kürze

Was passiert ist

Die veröffentlichten Details sind überschaubar. Anthropic bestätigt, dass eine nicht autorisierte Gruppe Zugriff auf Mythos-Endpoints hatte. Die Gruppe hat sich über einen Discord-Kanal organisiert. Der Einstieg kam nicht durch das Hacken von Anthropic, sondern durch einen Drittanbieter, der legitimen Zugang hatte und dessen Infrastruktur zum Einfallstor wurde.

Interessant ist der technische Weg. Die Gruppe hat laut Gizmodo interne Namenskonventionen der Anthropic-API reverse-engineered. Das heißt: Sie haben beobachtet, wie bestimmte Model-Namen, Endpoints und Parameter aufgebaut sind, und daraus abgeleitet, wie der Model-Name des Mythos-Endpoints wahrscheinlich lautet. Mit dem Namen plus einem legitimen Drittanbieter-Token kamen sie rein.

Anthropic hat laut eigenen Angaben die Endpoints gesperrt, die betroffenen Drittanbieter-Accounts deaktiviert und eine Untersuchung gestartet. Öffentlich ist bisher nicht bekannt, wie lange der Zugang bestand oder was genau die Gruppe mit dem Modell gemacht hat.

Warum Discord-Gruppen für AI-Zugang nicht die Ausnahme sind

Seit Jahren gibt es eine lebendige Underground-Szene, die neue AI-Modelle vor dem offiziellen Release testet. Das passiert manchmal legitim, etwa über öffentliche Beta-Programme. Oft läuft es aber über Grauzonen: geleakte API-Keys, Drittanbieter-Accounts, geteilte Credentials.

Die Motivation ist meist nicht kriminell im klassischen Sinn. Sie ist Neugier, gemischt mit dem Wettlauf, als Erster die Fähigkeiten eines neuen Modells zu dokumentieren. Der Jailbreak-Markt hat sich rund um diese Szene aufgebaut.

Das Problem: Was als harmlose Neugier anfängt, wird zu einem echten Sicherheitsthema, sobald Modelle mit Cyber-Fähigkeiten wie Mythos im Spiel sind. Ein Modell, das Tausende von Zero-Days findet, gehört nicht in eine Discord-Gruppe mit uneingeschränktem Zugang.

Der Drittanbieter-Aspekt

Genau hier wird es für KMU relevant. Nicht, weil dein Betrieb direkt betroffen ist. Sondern weil das gleiche Muster bei deinen AI-Tools genauso existiert.

Denk mal kurz nach. Welche Dienste nutzt dein Unternehmen, die im Hintergrund auf große AI-Provider zurückgreifen? Fast alle CRM-Tools haben inzwischen AI-Features. Buchhaltungs-Software, Dokumentenmanagement, Kundenkommunikation, Recruiting-Plattformen. Fast alle greifen auf OpenAI, Anthropic, Google oder Mistral im Hintergrund zu.

Das heißt: Du hast keine direkte Beziehung zu diesen AI-Anbietern. Du hast eine Beziehung zu deinem Software-Lieferanten, und der hat eine Beziehung zum AI-Anbieter. Wenn bei deinem Software-Lieferanten ein API-Key leakt, fließen deine Daten plötzlich durch eine nicht autorisierte Quelle, ohne dass du es merkst.

Was das mit Compliance zu tun hat

Die DSGVO kennt den Begriff der Auftragsverarbeitung. Wenn du einen Software-Anbieter nutzt, der deine Daten verarbeitet, brauchst du einen Auftragsverarbeitungsvertrag. Wenn dieser Anbieter Subunternehmer einsetzt, etwa einen AI-Provider, müssen die ebenfalls im Vertrag stehen.

In der Praxis sehen wir, dass viele KMU hier schlampig arbeiten. Der Auftragsverarbeitungsvertrag wird einmal unterschrieben und nie wieder angeschaut. Dass dein CRM-Anbieter seit letztem Jahr heimlich OpenAI als Subprozessor eingeführt hat, steht zwar in einem PDF-Anhang irgendwo. Gelesen hat es niemand.

Das ist keine neue Pflicht durch Mythos. Das ist die DSGVO, die seit 2018 gilt. Der Mythos-Vorfall zeigt nur, wie schnell solche Ketten brechen können, wenn einer in der Kette schlampig mit Credentials umgeht.

Was du konkret prüfen solltest

Vier Punkte, die in den nächsten Wochen auf deine Liste gehören.

Mach eine Inventur deiner AI-Tools. Nicht nur die, die du bewusst einsetzt, sondern auch die AI-Features, die deine bestehende Software im Hintergrund nutzt. Frag bei jedem Anbieter konkret: "Welche AI-Provider nutzt ihr? Wie sichert ihr eure API-Keys? Was passiert bei einem Incident?"

Schau in deine Auftragsverarbeitungsverträge. Wenn dort AI-Subprozessoren fehlen, obwohl die Software AI-Features hat, ist der Vertrag veraltet. Nachforderung ist die normale DSGVO-Pflicht.

Prüfe deine eigenen API-Keys und Credentials. Wo liegen die? Im Code? Im Git? In einer .env-Datei, die versehentlich mitsynchronisiert wird? Die Discord-Gruppe im Mythos-Fall kam rein, weil ein Drittanbieter-Key auftauchte. Dein API-Key kann genauso leaken.

Überlege, ob kritische Prozesse wirklich externe AI brauchen. Für Standard-Aufgaben wie Textzusammenfassungen oder Klassifikation sind self-hosted Modelle wie Llama oder Mistral mittlerweile ausreichend. Je weniger externe Abhängigkeiten, desto kleiner die Angriffsfläche.

Die Eskalationskette im Anthropic-Umfeld

Der Unauthorized Access ist nicht der einzige Vorfall im April 2026. In derselben Woche wurden zwei weitere Geschichten öffentlich: ein Sandbox Escape während interner Tests und ein Datenleak mit rund 3000 Files bei Anthropic. Jeder Vorfall für sich ist erklärbar. Alle drei zusammen zeigen, dass selbst einer der führenden AI-Safety-Anbieter operativ kämpft.

Das ist kein Vorwurf. Das ist der Zustand eines sich schnell entwickelnden Felds. Wichtig für dich: Wenn Anthropic, mit Tausenden Ingenieuren und einem Fokus auf Sicherheit, diese Probleme hat, dann hat dein Software-Stack sie mit hoher Wahrscheinlichkeit auch.

Was nicht passieren sollte

Die Reaktion "Dann machen wir AI eben gar nicht" ist falsch. AI-Tools bringen in KMU mess- und spürbare Produktivitätsgewinne. Wer 2026 komplett verzichtet, verliert im Wettbewerb gegen Betriebe, die damit arbeiten.

Die richtige Reaktion ist nicht Verzicht, sondern informiertes Nutzen. Das heißt: wissen, wer deine Daten verarbeitet. Wissen, welche Provider in der Kette hängen. Wissen, wie du im Incident-Fall reagierst. Genau darum geht es bei den praktischen Schritten im 5-Schritte-Leitfaden für KMU.

In unserer Arbeit bei SkillSprinters sehen wir, dass Mittelständler dort ins Straucheln kommen, wo der Überblick über die eigene Lieferkette fehlt. Das Problem ist fast nie das AI-Modell selbst. Es ist die Frage "Wer hat eigentlich Zugriff auf was?".

Wenn du verstehen willst, warum Mythos so abgeschirmt wird, ist der Hintergrund in Project Glasswing beschrieben. Dort steht auch, warum Anthropic diese Modellklasse nicht einfach an alle ausliefert.

Mehr zu diesem Thema

FAQ

Wer steckt hinter dem unautorisierten Zugriff auf Claude Mythos?

Laut Berichten von TechCrunch und Engadget handelt es sich um eine Discord-Gruppe, die sich um AI-Modelle und deren Fähigkeiten organisiert. Der Name der Gruppe und die Identitäten der Mitglieder sind öffentlich nicht bekannt. Anthropic ermittelt gemeinsam mit den Drittanbietern, über deren Infrastruktur der Zugang ermöglicht wurde.

Wie kam die Gruppe ohne offiziellen Anthropic-Zugang an Mythos?

Der Weg lief über einen Drittanbieter, der legitimen Zugang zu den Anthropic-Endpoints hatte. Die Gruppe hat zusätzlich die internen Namenskonventionen der API reverse-engineered und so den korrekten Model-Namen ermittelt. Mit gültigen Drittanbieter-Credentials plus dem richtigen Model-Namen war der Zugang technisch möglich. Anthropic hat die Endpoints nach Bekanntwerden gesperrt.

Betrifft mich als KMU ein solcher Vorfall direkt?

Nein, nicht direkt. Mythos ist für dich ohnehin nicht verfügbar. Indirekt ist das Muster aber relevant: Wenn einer in deiner Software-Lieferkette einen API-Key leakt, können deine Daten in Quellen fließen, die du nicht kontrollierst. Prüfe deine Auftragsverarbeitungsverträge und die AI-Subprozessoren deiner Software-Anbieter.

Was sollte ich im Umgang mit meinen eigenen AI-API-Keys beachten?

API-Keys gehören nie in den Quellcode, nie ins Git-Repository und nie in E-Mail-Anhänge. Nutze stattdessen Secret-Management-Systeme, rotiere Keys regelmäßig, protokolliere Zugriffe und beschränke Keys auf die minimal nötigen Rechte. Für KMU reicht oft schon ein Passwort-Manager mit Team-Funktion, etwa Bitwarden oder 1Password Business. Wichtig ist die Disziplin, nicht das teuerste Tool.

Bereit für deinen nächsten Karriereschritt?

Lass dich kostenlos beraten. Wir finden die passende Weiterbildung und Förderung für dich.

Weiterbildung ansehen WhatsApp