Anthropic hat Mitte April 2026 Claude Opus 4.7 veröffentlicht. Pricing bleibt identisch zu Opus 4.6, das Context Window wächst auf 1 Million Token, der Output auf 128.000 Token. Wer Claude bisher per API genutzt hat, bemerkt zwei Breaking Changes, die im Migrationsplan stehen müssen: Extended Thinking ist entfernt, Sampling-Parameter sind weg. Dieser Artikel beschreibt, was sich ändert und für wen das April-Release relevant ist.

Auf einen Blick: Claude Opus 4.7 (Mitte April 2026) bringt 1M Context, 128k Output, Pricing identisch zu 4.6 ($15/$75 pro Mio Token), neuen Tokenizer (1.0-1.35x mehr Tokens) und Task Budgets in Beta. Verfügbar via Anthropic API, Claude Code, Claude.ai, AWS Bedrock und GCP Vertex AI.

Was ist neu

Das Headliner-Feature ist das Context Window. Eine Million Token reicht aus, um einen mittelgroßen Code-Repo, einen Geschäftsbericht plus alle Anhänge oder zwölf Quartalsberichte gleichzeitig in den Prompt zu packen. Wer bisher mit Chunking und Vector-Stores gearbeitet hat, kann viele dieser Architekturen vereinfachen. Nicht alle. Bei sehr großen Datenbeständen bleibt RAG sinnvoll. Aber die Schwelle, ab der Chunking nötig wird, ist deutlich nach oben gerückt.

Der Output wächst auf 128.000 Token. Das ist relevant für lange Dokumentengenerierung. Verträge, Whitepapers, mehrseitige technische Spezifikationen kommen jetzt in einem Stück aus dem Modell, ohne dass man sie chunkweise zusammensetzen muss.

Pricing bleibt bei 15 Dollar pro Million Input-Tokens und 75 Dollar pro Million Output-Tokens. Das ist identisch zu Opus 4.6. Der Effekt der Tokenizer-Änderung kommt allerdings dazu. Der neue Tokenizer produziert je nach Inhalt 1.0 bis 1.35 mal mehr Tokens als 4.6. Wer 4.6-Kosten hochrechnet, sollte 10 bis 35 Prozent als Toleranz einplanen, bis erste Reports aus dem Produktivbetrieb vorliegen.

Neu ist außerdem das xhigh-Effort-Level. Adaptive Thinking, das einzige verbleibende Thinking-Modell, kann jetzt mit fünf Effort-Stufen konfiguriert werden. Niedrige Effort-Stufen für schnelle Antworten, xhigh für Aufgaben, bei denen das Modell tief denken soll. Die Kosten skalieren mit dem Effort-Level, weil mehr Thinking-Token verbraucht werden.

Vision wurde auf 2576 Pixel beziehungsweise 3.75 Megapixel aufgewertet. Hochauflösende Screenshots, technische Zeichnungen, Diagramme aus Berichten lassen sich jetzt mit deutlich weniger Qualitätsverlust analysieren.

Die Breaking Changes

Wer ein Produkt auf Claude 4.6 gebaut hat, muss zwei Stellen anpassen.

Erstens: Extended Thinking ist entfernt. In 4.6 gab es zwei Modi, klassisch und mit Extended Thinking, das ein größeres Reasoning-Token-Budget freigegeben hat. In 4.7 bleibt nur Adaptive Thinking. Das Modell entscheidet selbst, wie viel Thinking ein Prompt braucht. Wer Extended Thinking aktiv eingesetzt hat, weil bestimmte Aufgaben das brauchten, muss die neuen Effort-Levels evaluieren. xhigh ist der Ersatz, aber das Verhalten ist nicht eins zu eins identisch.

Zweitens: Sampling-Parameter sind weg. Temperature, top_p, top_k werden nicht mehr akzeptiert. Wer per API darauf gesetzt hat, um deterministischere oder kreativere Antworten zu erzeugen, bekommt jetzt entweder eine Fehlermeldung oder die Parameter werden ignoriert. Anthropic argumentiert, dass das interne Sampling besser ist als jede manuelle Einstellung. Praktisch heißt das: Code-Pfade, die mit temperature=0 deterministische Outputs erzwingen wollten, müssen umgebaut werden. Determinismus erreicht man jetzt über andere Wege, etwa Prompt-Caching plus identische Inputs.

Dritter Punkt im Kleingedruckten: Thinking-Content wird standardmäßig nicht mehr im Output ausgegeben. Wer den Reasoning-Verlauf weiterverarbeiten oder anzeigen will, muss das explizit aktivieren. Das ist sinnvoll, weil viele Anwendungen den Thinking-Block nie verwendet haben, aber Bandwidth dafür gezahlt haben.

Task Budgets als Beta-Header

Anthropic führt mit 4.7 das Task-Budgets-Konzept ein, aktuell als Beta unter dem Header task-budgets-2026-03-13. Idee: man definiert pro API-Aufruf ein Token-Budget, innerhalb dessen das Modell seine Antwort liefern muss. Überschreitet es das Budget, bricht es kontrolliert ab. Das ist relevant für Anwendungen, die ein hartes Kosten-Cap pro Anfrage brauchen. Etwa wenn ein Endkunde eine Frage stellt, die das System nicht mit unbegrenztem Budget beantworten soll.

In Beta bedeutet: noch nicht produktiv stabil, kann sich ändern, sollte vor Live-Einsatz getestet werden. Wer Task Budgets evaluiert, sollte das Feedback an Anthropic geben. Solche Beta-Phasen profitieren stark davon.

Verfügbarkeit

Claude Opus 4.7 ist über fünf Wege erreichbar. Anthropic API direkt mit eigenem API-Key. Claude Code, das Coding-CLI von Anthropic, das automatisch mit der neusten Version arbeitet. Claude.ai für Pro, Team und Enterprise-Subscriber, mit dem Web-Interface und integriertem Workspace. AWS Bedrock für Kunden mit AWS-Verträgen und EU-Hosting-Anforderungen. GCP Vertex AI für Google-Cloud-zentrierte Setups.

Für DSGVO-relevante Verarbeitungen ist die Wahl der Plattform nicht egal. Anthropic API direkt geht über US-Server, sofern nicht explizit ein EU-Routing aktiviert ist. AWS Bedrock erlaubt EU-Region-Hosting. GCP Vertex AI ebenfalls. Wer in Deutschland mit personenbezogenen Daten arbeitet, sollte das Routing im Datenschutzkonzept festhalten und einen Auftragsverarbeitungsvertrag abschließen.

Was das für Entwickler-Teams bedeutet

Wir sehen in den Praxisprojekten unserer Teilnehmer regelmäßig, dass der Sprung von 4.6 auf 4.7 nicht trivial ist, wenn das Produkt produktiv läuft. Drei typische Migrationsfallen.

Erste Falle: bestehender Code mit fest verdrahteter temperature=0. Der Code wirft Fehler oder verhält sich unerwartet, weil das Modell trotz nominell identischer Inputs leichte Variation produziert. Das ist kein Bug, sondern die neue Realität. Tests müssen entsprechend toleranter werden, oder es muss auf Caching umgestellt werden.

Zweite Falle: bestehender Code, der Extended Thinking aktiv nutzt. Hier muss evaluiert werden, ob xhigh als Ersatz reicht oder ob die Aufgabe besser auf einem dedizierten Reasoning-Modell läuft. Manche Workloads, etwa komplexe Beweisführung in mathematischen Domänen, profitieren von Modellen, die explizit auf Reasoning trainiert sind.

Dritte Falle: Token-Budget-Schätzungen. Wer für 4.6 monatliche Kosten kalkuliert hat, sollte in den ersten Wochen mit 4.7 ein Auge auf die tatsächlichen Token-Counts haben. 1.0 bis 1.35x Mehrverbrauch ist die offizielle Spanne. In der Praxis fanden erste Tester eher 1.15 bis 1.25x bei deutschsprachigem Input.

Wer Opus überhaupt braucht

Nicht jeder. Opus ist das Top-Modell von Anthropic, mit den höchsten Pricing-Punkten und dem stärksten Reasoning. Für viele Anwendungen reicht Sonnet oder Haiku vollkommen. Wer Standard-Klassifikation, einfache Textgenerierung, Zusammenfassungen unter zehntausend Token oder Standard-Code-Vervollständigung macht, fährt mit Sonnet günstiger.

Opus rechnet sich, wenn die Aufgabe mehrstufiges Reasoning erfordert. Komplexe Analyse großer Dokumentenmengen. Schwierige Code-Probleme mit Debugging über mehrere Dateien. Verhandlungs- oder Vertragsprüfung mit vielen Quervergleichen. Tiefes Recherche-Briefing mit mehreren Quellen.

Wer in einem deutschen Mittelständler mit der Frage rangeht, ob KI integriert werden soll, sollte erst Sonnet ausprobieren, bevor Opus überhaupt zur Diskussion steht. Die meisten echten Aufgaben sind keine Opus-Aufgaben. Diese Unterscheidung ist auch Inhalt der Weiterbildung zum Digitalisierungsmanager, weil Tool-Wahl ein Kernthema im Lehrplan ist.

Performance gegenüber 4.6

Anthropic veröffentlicht Benchmark-Zahlen, die einen Sprung in spezifischen Aufgabengebieten zeigen. Auf typischen Coding-Benchmarks wie SWE-Bench und HumanEval ist 4.7 spürbar besser als 4.6. Auf Long-Context-Aufgaben mit mehreren hunderttausend Token Input bleibt das Modell konsistent, was bei 4.6 nicht immer der Fall war. Die Halluzinationsrate bei sehr langen Inputs ist messbar gesunken.

Im praktischen Einsatz gilt: Benchmarks sind nicht der Alltag. Für die meisten Anwendungen sind die Unterschiede zwischen 4.6 und 4.7 nicht spektakulär. Wer 4.6 produktiv nutzt und mit der Qualität zufrieden ist, kann sich Zeit lassen mit der Migration. Wer neue Anwendungen baut, beginnt direkt mit 4.7.

Ein konkreter Bereich, wo 4.7 deutlich besser performt: Code-Reviews bei mittelgroßen Diffs. Wo 4.6 bei 500 Zeilen Diff schon mal Subtilitäten übersehen hat, fängt 4.7 mehr davon ab. Das hängt vermutlich am stärkeren Reasoning, das jetzt durch Adaptive Thinking automatisch zugeschaltet wird, ohne dass der Entwickler einen Modus auswählen muss.

Anthropic im April 2026

Anthropic kommuniziert eine annualisierte Run-Rate von über 30 Milliarden Dollar. Die Firma ist in den vergangenen 18 Monaten von einer Forschungs-Boutique zu einem ernsthaften Konkurrenten von OpenAI gewachsen. Claude Code wird bei Großkunden wie Deloitte über 470.000 Mitarbeiter ausgerollt. Das ist die größte bekannte Enterprise-AI-Bereitstellung weltweit. Das gibt dem Release-Zyklus von Anthropic einen anderen Druck als noch 2024. Stabilität wird wichtiger, Breaking Changes werden teurer, Migration-Pfade werden Pflichtprogramm.

Für KMU-Kunden in Deutschland heißt das: Anthropic ist nicht mehr Random-Startup, sondern ein Anbieter, mit dem ernsthafte Verträge geschlossen werden können. Auftragsverarbeitungsverträge, EU-Hosting, Trainings-Opt-out, all das ist verfügbar. Wer noch zögert, weil das alles "neu" wirkt, hat den Stand 2024 im Kopf, nicht den Stand 2026.

Häufige Fragen

Was kostet Claude Opus 4.7 pro Million Token?

15 Dollar für Input, 75 Dollar für Output. Identisch zu Opus 4.6. Der neue Tokenizer produziert allerdings 1.0 bis 1.35 mal mehr Tokens als 4.6, weshalb die effektiven Kosten leicht steigen. Realistisch sind 10 bis 25 Prozent Mehrkosten bei deutschsprachigen Inputs.

Welche Sampling-Parameter funktionieren in 4.7 noch?

Keine. Temperature, top_p und top_k werden ignoriert oder werfen Fehler. Anthropic begründet das mit besseren internen Heuristiken. Wer deterministische Outputs braucht, setzt jetzt auf Prompt-Caching mit identischen Inputs oder lebt mit minimaler Variation und passt Tests an.

Ist Claude 4.7 EU-DSGVO-konform nutzbar?

Über die Anthropic API mit Standard-Routing nicht automatisch, weil dann US-Server beteiligt sind. Über AWS Bedrock oder GCP Vertex AI mit expliziter EU-Region und Auftragsverarbeitungsvertrag ist eine DSGVO-konforme Nutzung möglich. Datenschutzbeauftragter sollte das Setup vor Produktiveinsatz freigeben.

Was ist Adaptive Thinking?

Das einzige verbleibende Thinking-Modell in 4.7. Das Modell entscheidet selbst, wie viel Reasoning ein Prompt braucht. Über das Effort-Level, von niedrig bis xhigh, lässt sich die Tiefe steuern. Extended Thinking aus 4.6 ist entfallen. Bei reasoning-schweren Aufgaben ist xhigh der Ersatz, allerdings nicht eins zu eins äquivalent.

Quellen

Bereit für deinen nächsten Karriereschritt?

Lass dich kostenlos beraten. Wir finden die passende Weiterbildung und Förderung für dich.

Weiterbildung ansehen WhatsApp