n8n hat sich 2026 als das offene Workflow-Tool für den deutschen Mittelstand etabliert. Selbst gehostet, Open Source, mit AI-Nodes für alle wichtigen LLM-Anbieter. Wer eine wiederholbare Aufgabe automatisieren will, ohne sich an Zapier zu binden, landet mit hoher Wahrscheinlichkeit bei n8n.

Was viele unterschaetzen: Die LLM-Anbindung in n8n ist nicht nur ein simpler API-Wrapper. Die AI-Nodes haben Tool-Calling, strukturierte Output-Validierung, Memory und in vielen Faellen automatische Token-Kostenabrechnung eingebaut. Hier ist die ehrliche Übersicht der nativ unterstuetzten LLMs in n8n 2026.

OpenAI-Node: Standard für den Schnellstart

Der OpenAI-Node ist der aelteste und am breitesten genutzte AI-Node in n8n. Er unterstützt die ganze GPT-Familie inklusive GPT-5, GPT-5 Mini und GPT-4o (das ältere Mainstream-Modell).

Was geht: Chat Completion, Funktion-Calling, Vision (Bild-Input), Audio (Whisper Transkription, TTS Voice-Synthese), Bildgenerierung (DALL-E 3 oder direkt Sora-Image für Standbild-Output), Embeddings.

Token-Preise Mai 2026 (Brutto in EUR, Schaetzung, Verfuegbarkeit ohne Gewaehr):

Anwendungsfall: Allrounder. Wer mit n8n und LLM startet, kommt mit dem OpenAI-Node am schnellsten weit. Funktion-Calling ist robust dokumentiert.

Anthropic-Node: Praezision und lange Kontexte

Der Anthropic-Node deckt Claude Opus 4.7, Claude Sonnet 4.6 und Claude Haiku 4.5 ab.

Was geht: Chat Completion, sehr stabile Funktion-Calls, Vision, lange Kontexte (1 Million Token bei Opus 4.7 mit speziellem Beta-Flag), Memory über separates State-Management.

Token-Preise Mai 2026:

Anwendungsfall: Praezise Aufgaben, lange Dokumente, kompliziertes Reasoning. Wer eine 100-Seiten-PDF analysieren will, bekommt mit Sonnet 4.6 oder Opus 4.7 oft bessere Ergebnisse als mit GPT-5. Funktion-Calling ist 2026 sehr stabil.

Google-Node: Gemini für Multimodal

Der Google AI-Node unterstützt Gemini 2.5 Pro, Gemini 2.5 Flash und Gemma 3 (Open Source).

Was geht: Chat Completion, Funktion-Calling, Multimodal (Bild plus Text plus Audio plus Video), Cache-Kontext (eine 2025 eingefuehrte Funktion zur Token-Kostenreduktion).

Token-Preise Mai 2026:

Anwendungsfall: Wenn Multimodal-Verarbeitung im Workflow steckt (Video-Verarbeitung, Audio-Transkription mit Sprecher-Identifikation), ist Gemini ueberlegen. Bei reinen Text-Aufgaben tendenziell ebenburtig zu OpenAI.

DeepSeek-Node: Preis-Leistungs-Sieger

DeepSeek hat 2026 einen eigenen offiziellen n8n-Node bekommen (vorher musste man HTTP-Request nehmen). Unterstuetzt DeepSeek V4, V4 Flash und V4 Pro.

Was geht: Chat Completion, Reasoning-Modus mit sichtbarer Denkkette, Funktion-Calling.

Token-Preise Mai 2026:

Das ist rund ein Zehntel der OpenAI-Preise. Anwendungsfall: Wer hochvolumige Klassifikations- oder Routing-Tasks hat, bei denen es nicht auf das letzte Quaentchen Qualitaet ankommt, spart hier dramatisch. Compliance-Hinweis: Cloud-API läuft in China, für DSGVO-kritische Daten lokales Hosting via Ollama-Node nutzen.

Mistral-Node: EU-Anbieter

Der Mistral-Node unterstützt die ganze Mistral-Familie: Magistral, Mistral Large 2, Mistral Small 3.

Was geht: Chat Completion, Funktion-Calling, Reasoning (mit Magistral). Datenresidenz in Frankreich, was DSGVO-rechtlich oft das Killer-Argument ist.

Token-Preise Mai 2026:

Anwendungsfall: Wenn ein Auftraggeber EU-Datenresidenz fordert. Mistral Small 3 ist preislich sehr attraktiv und qualitativ für Routine-Aufgaben gut genug.

Ollama-Node: Lokal hosten

Der Ollama-Node ist der Schlüssel zur lokalen LLM-Nutzung in n8n. Er spricht jeden lokal laufenden Ollama-Server an und unterstützt alle Modelle, die Ollama zieht (Llama 3.3, Llama 4, Mistral, DeepSeek, Qwen, Gemma, Phi).

Was geht: Chat Completion, Funktion-Calling (modellabhaengig), volle Kontrolle über Ressourcennutzung.

Kosten: Nur Hardware und Strom. Keine API-Kosten.

Anwendungsfall: Hochsensible Daten, regulierte Branchen (Medizin, Recht, Behoerden), oder einfach Kostenoptimierung bei hochvolumigen Workflows. Setup-Aufwand hoeher (Hardware, Modell-Auswahl, Ollama-Konfiguration), aber nach dem Setup sehr gunstige Betriebskosten.

Welcher Node für welchen Workflow

Anwendungsfall Empfehlung
Allrounder für mittlere Workflows OpenAI GPT-5 Mini oder Anthropic Sonnet 4.6
Lange Dokumente analysieren Anthropic Claude Opus 4.7
Multimodal (Video, Audio) Google Gemini 2.5 Pro
Massenroutine (>10.000 Aufrufe pro Tag) DeepSeek V4 Flash oder lokal via Ollama
EU-Datenresidenz Pflicht Mistral Small 3 oder Mistral Large 2
Sensible interne Daten Ollama mit Mistral Small 3 oder Llama 3.3 lokal
Reasoning-intensive Aufgaben Magistral, DeepSeek V4 Pro oder Claude Opus 4.7
Bildgenerierung OpenAI (DALL-E 3 oder Sora-Image)
Voice-Output OpenAI TTS oder ElevenLabs (eigener Node)

Konfigurations-Tipps aus der Praxis

Token-Limits in der Node-Konfiguration setzen. Sonst kann ein einzelner Workflow-Lauf bei einem Bug 100.000 Token verbraten und Kosten sammeln. Wir setzen pro Node ein realistisches Maximum (zum Beispiel 4.000 Output-Token), das für den Normalfall reicht.

Retry-Logik einbauen. AI-Nodes scheitern manchmal bei Rate-Limits oder Timeouts. Ein automatischer Retry mit exponentiellem Backoff ist Pflicht in produktiven Workflows. n8n hat das eingebaut, aber muss aktiviert werden.

Keine Konversations-Memory über externe State-Stores. Wer mehrstufige Konversationen baut, sollte den State in einem Datenbank-Node speichern (Postgres, Redis), nicht in einem internen n8n-State. Sonst leaked das bei mehreren parallelen Workflows.

Strukturierten Output erzwingen. Bei Aufgaben, die JSON liefern sollen, das Schema im Prompt mitgeben und mit der Response-Validierung im Node arbeiten. Spart Stunden Fehlersuche, wenn das LLM mal kreativ wird.

Was wir bei eigenem Setup gelernt haben

Wir haben in unserem CRM-System den OpenAI-Node für eingehende E-Mail-Klassifikation. Pro Tag laufen 200 bis 400 E-Mails durch, Aufgabe ist Spam-Erkennung, Sentiment-Klassifikation und Routing. Mit GPT-4o kostete das rund 30 Euro pro Monat, mit Wechsel auf DeepSeek V4 Flash sind wir auf rund 4 Euro runter, ohne erkennbare Qualitaetsverluste.

Bei Lead-Personalisierung (laenger Briefing, mehr Kontext, kreatives Schreiben) bleiben wir bei Claude Sonnet 4.6. Hier merkt man den Qualitaetsunterschied.

Lokales Hosting über Ollama nutzen wir für einen einzigen Workflow: Anonymisierung von Mandantenmails vor der eigentlichen LLM-Verarbeitung. Hier landen die Daten zuerst auf dem lokalen Llama-3.3-Modell, das alle PII durch Platzhalter ersetzt. Erst der bereinigte Text geht dann an Claude in der Cloud.

Empfehlung 2026

Du startest mit n8n und LLM ohne Vorerfahrung: OpenAI-Node mit GPT-5 Mini. Schnellste Lernkurve, brauchbare Qualitaet, niedriger Token-Preis.

Du brauchst hochvolumige Workflows: DeepSeek V4 Flash via offiziellem Node oder Ollama-lokal mit Llama 3.3.

Du arbeitest mit langen Dokumenten oder hoher Praezision: Anthropic-Node mit Claude Sonnet 4.6.

Du musst EU-Datenresidenz garantieren: Mistral-Node mit Mistral Small 3.

Haeufige Fragen

Kann ich mehrere LLM-Anbieter im selben Workflow mischen? Ja, sogar empfohlen. Eine typische Pipeline: GPT-5 Mini für schnelle Klassifikation, Claude Sonnet für praezise Generierung, Whisper für Transkription. n8n verbindet das problemlos.

Werden die Daten ans Trainingsset weitergegeben? Bei OpenAI API, Anthropic API, Google AI, Mistral und DeepSeek nicht (laut AGB). Bei Cloud-Versionen mit Free-Tier teilweise schon. Pruefen vor produktivem Einsatz.

Brauche ich einen kostenpflichtigen n8n-Plan? Selbstgehostetes n8n ist kostenlos. Die kostenpflichtigen Plaene (n8n Cloud, n8n Enterprise) bieten managed Hosting, Team-Funktionen und Support. Für den Einzelnutzer reicht selbstgehostet.

Wie hoch sind die monatlichen LLM-Kosten realistisch? Stark vom Volumen abhängig. Ein einzelner Wissensarbeiter mit 50 LLM-Aufrufen pro Tag kommt auf rund 5 bis 30 Euro. Ein automatisierter Workflow mit 1.000 Aufrufen pro Tag schnell auf 100 bis 500 Euro. Genau messen ist Pflicht.

Bereit für deinen nächsten Karriereschritt?

Lass dich kostenlos beraten. Wir finden die passende Weiterbildung und Förderung für dich.

Weiterbildung ansehen WhatsApp