Das Wichtigste in Kürze
- Prompt Engineering lernen geht weit über einfache Fragen an ChatGPT hinaus. Fortgeschrittene Techniken wie Chain-of-Thought, Few-Shot Prompting und System Prompts liefern messbar bessere Ergebnisse.
- Chain-of-Thought Prompting verbessert die Antwortqualität bei komplexen Aufgaben um bis zu 19 Prozentpunkte (Quelle: MMLU-Pro Benchmark).
- Few-Shot Prompting mit 3 bis 5 Beispielen erzwingt konsistente Formate und reduziert Nacharbeit auf ein Minimum.
- System Prompts definieren Verhalten, Tonalität und Regeln dauerhaft. Damit erstellst du wiederverwendbare KI-Assistenten.
- Profi-Frameworks wie RICE (Role, Instructions, Context, Examples) geben dir eine Struktur, die sofort funktioniert.
- In der Weiterbildung zum Digitalisierungsmanager/in (IHK) lernst du diese Techniken praxisnah in 4 Monaten.
Warum reichen einfache Prompts nicht aus?
Prompt Engineering lernen beginnt für die meisten mit einer einfachen Frage an ChatGPT. Und oft bleibt es dabei. Aber wer KI-Tools beruflich nutzt, stellt schnell fest: Einfache Prompts liefern mittelmäßige Ergebnisse. Die KI antwortet zu allgemein, weicht vom Thema ab oder liefert ein Format, das nicht passt.
Das Problem ist nicht die KI. Das Problem ist der Prompt.
Fortgeschrittene Techniken lösen genau diese Schwächen. Sie geben dem Modell mehr Kontext, eine klare Denkstruktur und konkrete Formatvorgaben. Das Ergebnis: Antworten, die du direkt verwenden kannst.
Die gute Nachricht: Du brauchst dafür keine Programmierkenntnisse. Du brauchst nur ein Verständnis für die Mechanismen hinter den Modellen und ein paar bewährte Frameworks.
Was ist Chain-of-Thought Prompting und wann brauchst du es?
Chain-of-Thought (CoT) Prompting bringt die KI dazu, Schritt für Schritt zu denken, statt sofort eine Antwort zu liefern. Das verbessert die Qualität besonders bei Aufgaben, die Logik, Analyse oder Rechnen erfordern.
So funktioniert CoT
Statt nur die Aufgabe zu stellen, forderst du die KI auf, ihren Denkweg zu zeigen. Das Modell zerlegt das Problem in Teilschritte und kommt dadurch zu besseren Ergebnissen.
Ohne CoT (schlecht):
Unser Webshop hatte im Januar 12.500 Besucher und 380 Bestellungen.
Im Februar waren es 11.200 Besucher und 410 Bestellungen.
Welcher Monat war besser?
Die KI antwortet hier oft nur "Februar hatte mehr Bestellungen". Das ist oberflächlich.
Mit CoT (besser):
Unser Webshop hatte im Januar 12.500 Besucher und 380 Bestellungen.
Im Februar waren es 11.200 Besucher und 410 Bestellungen.
Analysiere, welcher Monat besser performt hat. Gehe dabei Schritt für Schritt vor:
1. Berechne die Conversion Rate für jeden Monat.
2. Vergleiche beide Werte.
3. Bewerte, was die Zahlen über die Shop-Performance aussagen.
4. Gib eine Handlungsempfehlung.
Jetzt berechnet die KI die Conversion Rate (3,04 % vs. 3,66 %), erkennt den Rückgang im Traffic, aber die Verbesserung in der Conversion, und liefert eine differenzierte Bewertung.
Drei Varianten von Chain-of-Thought
| Variante | Prompt-Zusatz | Wann einsetzen |
|---|---|---|
| Zero-Shot CoT | "Denke Schritt für Schritt." | Schnelle Analysen, einzelne Fragen |
| Manual CoT | Schritte explizit vorgeben (1. 2. 3.) | Komplexe mehrstufige Aufgaben |
| Tree of Thoughts | "Entwickle 3 verschiedene Lösungsansätze. Bewerte jeden." | Strategische Entscheidungen, kreative Probleme |
Wichtig: CoT funktioniert am besten bei großen Sprachmodellen (GPT-4, Claude, Gemini Pro). Bei kleineren Modellen kann es zu fehlerhaften Zwischenschritten führen. Und bei sogenannten Reasoning-Modellen (wie GPT-o1 oder Claude Extended Thinking) ist CoT bereits eingebaut. Dort reicht eine klare Aufgabenstellung.
Wie setzt du Few-Shot Prompting richtig ein?
Few-Shot Prompting ist die wirksamste Technik, um konsistente Ergebnisse zu erzwingen. Du gibst dem Modell 2 bis 5 Beispiele und zeigst damit exakt, welches Format, welchen Stil und welche Tiefe du erwartest.
Warum Few-Shot so gut funktioniert
Sprachmodelle lernen aus Mustern. Wenn du ihnen Beispiele gibst, erkennen sie das Muster und wenden es auf neue Eingaben an. Das Entscheidende: Die Struktur der Beispiele zählt mehr als die inhaltliche Korrektheit. Selbst mit fiktiven Beispielen liefert die KI das richtige Format.
Praxisbeispiel: Kundenfeedback klassifizieren
Klassifiziere Kundenbewertungen in die Kategorien:
Positiv, Neutral, Negativ. Nenne den Hauptgrund.
Beispiel 1:
Bewertung: "Super schnelle Lieferung, alles top verpackt!"
Kategorie: Positiv
Hauptgrund: Lieferung
Beispiel 2:
Bewertung: "Das Produkt ist okay, aber der Preis ist zu hoch."
Kategorie: Neutral
Hauptgrund: Preis-Leistung
Beispiel 3:
Bewertung: "Zweimal falsch geliefert, Support reagiert nicht."
Kategorie: Negativ
Hauptgrund: Service
Jetzt klassifiziere:
Bewertung: "Gute Qualität, aber Rücksendung war kompliziert."
Die KI antwortet jetzt exakt im vorgegebenen Format: Kategorie, Hauptgrund, fertig. Ohne Umschweife, ohne zusätzlichen Text.
Few-Shot Tipps für bessere Prompts
- 3 bis 5 Beispiele sind optimal. Weniger reicht für einfache Aufgaben, mehr bringt kaum Verbesserung.
- Vielfalt zeigen. Deine Beispiele sollten verschiedene Fälle abdecken (positiv, negativ, Grenzfälle).
- Format exakt vorleben. Willst du Tabellen, Bullets oder JSON? Zeig es in den Beispielen.
- Edge Cases einbauen. Ein schwieriges Beispiel hilft der KI, Grenzfälle richtig zu behandeln.
Few-Shot Prompting ist besonders wertvoll für wiederkehrende Aufgaben: Textklassifikation, Datenextraktion, Formatierung von Reports, Bewertung von Bewerbungen. Überall dort, wo Konsistenz wichtiger ist als Kreativität.
Wenn du bessere Prompts schreiben willst, starte mit Few-Shot. Es ist die Technik mit dem besten Aufwand-Ergebnis-Verhältnis.
Wie nutzt du System Prompts als Geheimwaffe?
System Prompts sind Anweisungen, die das Verhalten der KI grundlegend steuern. Sie stehen vor dem eigentlichen Gespräch und definieren Rolle, Tonalität, Regeln und Einschränkungen. Jede professionelle KI-Anwendung nutzt System Prompts.
Was ein System Prompt enthält
Ein guter System Prompt hat vier Bestandteile:
- Rolle: Wer ist die KI? (Experte, Assistent, Berater)
- Verhalten: Wie soll sie antworten? (kurz, ausführlich, mit Rückfragen)
- Regeln: Was darf sie nicht? (keine Preise nennen, keine Konkurrenten empfehlen)
- Format: Wie soll die Ausgabe aussehen? (Bullets, Tabelle, Fließtext)
Praxisbeispiel: System Prompt für einen Marketing-Assistenten
Du bist ein Marketing-Assistent für ein mittelständisches B2B-Unternehmen
in der Fertigungsindustrie.
Verhalten:
- Antworte immer auf Deutsch.
- Verwende die Du-Ansprache.
- Halte Antworten unter 200 Wörter, es sei denn der Nutzer fragt explizit
nach mehr.
- Verwende konkrete Zahlen und Beispiele statt allgemeiner Aussagen.
Regeln:
- Empfehle keine Konkurrenzprodukte.
- Nenne keine konkreten Budgets ohne Rückfrage.
- Bei Unsicherheit stelle eine Rückfrage, statt zu raten.
Format:
- Überschriften fett markieren.
- Handlungsempfehlungen als nummerierte Liste.
- Am Ende jeder Antwort: "Soll ich hier tiefer einsteigen?"
Dieser System Prompt verwandelt ChatGPT oder Claude in einen spezialisierten Assistenten. Jede Antwort folgt den Vorgaben. Das spart dir das wiederholte Erklären bei jedem neuen Prompt.
System Prompts vs. Rollen-Prompts
| System Prompt | Rollen-Prompt | |
|---|---|---|
| Wo | Eigenes Feld (API, Custom GPTs) | Im normalen Chat |
| Dauer | Gilt für die gesamte Konversation | Kann vergessen werden |
| Tiefe | Detaillierte Verhaltensregeln | Meist nur Rollenbeschreibung |
| Einsatz | Produktive Anwendungen, Workflows | Einzelne Aufgaben |
Wenn du KI-Tools im Unternehmen einsetzt, kommst du an System Prompts nicht vorbei. Sie sind die Grundlage für Custom GPTs, KI-Chatbots und automatisierte Prozesse mit Tools wie n8n.
Welche Prompt-Frameworks nutzen Profis?
Professionelle Prompt Engineers arbeiten nicht aus dem Bauch heraus. Sie nutzen Frameworks. Ein Framework gibt dir eine feste Struktur, an der du dich bei jedem Prompt orientierst. Das macht deine Ergebnisse vorhersagbar und wiederholbar.
Das RICE-Framework
RICE steht für Role, Instructions, Context, Examples. Es deckt die vier wichtigsten Elemente eines guten Prompts ab.
| Element | Frage | Beispiel |
|---|---|---|
| R (Role) | Wer soll die KI sein? | "Du bist ein erfahrener Projektmanager." |
| I (Instructions) | Was genau soll sie tun? | "Erstelle einen Projektzeitplan." |
| C (Context) | Was muss sie wissen? | "Budget: 50.000 EUR, Team: 4 Personen, Deadline: 3 Monate." |
| E (Examples) | Wie soll das Ergebnis aussehen? | "Hier ein Beispiel-Zeitplan: ..." |
RICE in der Praxis:
[Role] Du bist ein erfahrener Content-Stratege für B2B-Unternehmen.
[Instructions] Erstelle 5 Blog-Themen für ein Unternehmen, das
Automatisierungssoftware verkauft. Jedes Thema mit: Arbeitstitel,
Zielgruppe, Hauptkeyword, geschätzte Suchintention.
[Context] Das Unternehmen hat 50 Mitarbeiter, verkauft an den
deutschen Mittelstand, Hauptkonkurrenten sind SAP und Microsoft
Power Automate. Budget für Content: 3 Artikel pro Monat.
[Examples]
Thema 1:
- Titel: "5 Prozesse, die jeder Mittelständler automatisieren sollte"
- Zielgruppe: Geschäftsführer KMU
- Keyword: "Prozesse automatisieren"
- Intention: Informational
Das Constraint-Framework
Manchmal ist es wirkungsvoller, der KI zu sagen, was sie NICHT tun soll. Constraints begrenzen den Spielraum und verhindern typische KI-Schwächen.
Beispiel:
Schreibe eine Produktbeschreibung für unseren Online-Kurs.
Constraints:
- Maximal 150 Wörter.
- Keine Superlative ("bester", "einzigartiger").
- Keine Phrasen wie "in der heutigen Zeit" oder "die Zukunft gehört".
- Mindestens 2 konkrete Zahlen nennen.
- Kein Passiv.
Constraints sind besonders hilfreich, wenn du bessere Prompts schreiben willst, die nicht nach generischem KI-Text klingen. Die KI tendiert zu Floskeln. Constraints brechen dieses Muster.
Prompt Chaining: Mehrere Prompts verketten
Für komplexe Aufgaben reicht ein einzelner Prompt oft nicht. Prompt Chaining teilt die Aufgabe in mehrere Schritte auf. Jeder Schritt baut auf dem Ergebnis des vorherigen auf.
Beispiel: Wettbewerbsanalyse in 3 Schritten
Prompt 1: "Liste die 5 größten Anbieter für Online-Weiterbildung in Deutschland auf. Nenne zu jedem: Stärken, Schwächen, Preismodell."
Prompt 2: "Basierend auf dieser Analyse: Wo hat ein kleiner Anbieter mit max. 18 Teilnehmern pro Kurs und persönlicher Betreuung die größten Chancen? Nenne 3 Differenzierungsmerkmale."
Prompt 3: "Formuliere aus diesen 3 Merkmalen je einen Marketingtext (max. 50 Wörter), der den Vorteil für den Kunden klar macht."
Jeder Prompt ist einfach. Zusammen liefern sie ein Ergebnis, das ein einzelner komplexer Prompt nie erreicht hätte.
Wie vermeidest du die häufigsten Fehler bei fortgeschrittenem Prompting?
Auch erfahrene Nutzer machen Fehler. Hier die fünf häufigsten Probleme bei fortgeschrittenem Prompt Engineering und wie du sie löst.
1. Zu viele Anweisungen in einem Prompt
Wenn dein Prompt länger als 300 Wörter ist, wird die KI Teile davon ignorieren. Besonders Anweisungen in der Mitte gehen verloren (der sogenannte "Lost in the Middle" Effekt).
Lösung: Nutze Prompt Chaining. Teile den Prompt in 2 bis 3 kleinere Prompts auf. Oder verwende XML-Tags (<instructions>, <context>, <examples>), um Abschnitte klar zu trennen. Gerade bei Claude funktioniert XML-Strukturierung besonders gut.
2. Widersprüchliche Anweisungen
"Sei kreativ und halte dich genau an das Beispiel." Das ist ein Widerspruch. Die KI entscheidet dann zufällig, welche Anweisung sie priorisiert.
Lösung: Prioritäten setzen. "Halte dich an das Format des Beispiels. Innerhalb dieses Formats darfst du kreativ formulieren."
3. Halluzinationen nicht abfangen
KI-Modelle erfinden Fakten, wenn sie unsicher sind. Bei fortgeschrittenen Prompts wird das riskanter, weil die Aufgaben komplexer sind.
Lösung: Baue Constraints ein: "Wenn du dir bei einer Information nicht sicher bist, schreibe 'Nicht verifiziert' dahinter." Oder: "Nenne nur Zahlen, die du mit einer Quelle belegen kannst."
4. CoT bei einfachen Aufgaben erzwingen
Nicht jede Aufgabe braucht Chain-of-Thought. Bei einfachen Übersetzungen, kurzen Texten oder Formatierungen verlangsamt CoT das Ergebnis, ohne es zu verbessern.
Lösung: CoT nur bei Aufgaben einsetzen, die Logik, Berechnung oder mehrstufige Analyse erfordern. Für alles andere reicht Zero-Shot oder Few-Shot.
5. Prompts nicht versionieren
Du hast einen guten Prompt gefunden. Zwei Wochen später änderst du ihn. Das Ergebnis wird schlechter. Aber du weißt nicht mehr, wie der alte Prompt aussah.
Lösung: Speichere funktionierende Prompts mit Datum, Modell und Ergebnis-Bewertung. Behandle Prompts wie Code: Versioniert, dokumentiert, getestet.
Welche Prompt-Engineering-Techniken passen zu welcher Aufgabe?
Die richtige Technik hängt von der Aufgabe ab. Hier eine Entscheidungshilfe:
| Aufgabe | Beste Technik | Warum |
|---|---|---|
| Kurzen Text schreiben | Zero-Shot + Constraints | Einfache Aufgabe, Constraints verhindern Floskeln |
| Berichte standardisieren | Few-Shot (3 bis 5 Beispiele) | Format muss identisch sein |
| Daten analysieren | Chain-of-Thought (manuell) | Schritt-für-Schritt-Logik nötig |
| Strategie entwickeln | Tree of Thoughts + Chaining | Mehrere Perspektiven, dann zusammenführen |
| Chatbot bauen | System Prompt + Few-Shot | Dauerhaftes Verhalten + konsistentes Format |
| Texte klassifizieren | Few-Shot (mit Edge Cases) | Muster erkennen, Grenzfälle abdecken |
| Brainstorming | Zero-Shot + Rollen-Prompt | Kreativität braucht wenig Einschränkung |
| Komplexe Berechnung | CoT + Constraint ("Zeige Rechenweg") | Nachvollziehbarkeit, Fehler erkennen |
Die Faustregel: Je komplexer die Aufgabe, desto mehr Struktur braucht der Prompt. Und je häufiger du die Aufgabe wiederholst, desto mehr lohnt sich ein System Prompt mit Few-Shot Beispielen.
In der Praxis kombinierst du fast immer mehrere Techniken. Ein Produktions-Prompt für einen Marketing-Report nutzt zum Beispiel einen System Prompt (Rolle und Regeln), Few-Shot (Format), CoT (Analyse) und Constraints (keine Floskeln, max. Länge). Genau diesen Hybrid-Ansatz lernst du in einer strukturierten KI-Weiterbildung.
ChatGPT Prompts schreiben: 3 fortgeschrittene Praxisbeispiele
Die folgenden Beispiele zeigen, wie du die Techniken aus diesem Artikel kombinierst. Jedes Beispiel nutzt mindestens zwei fortgeschrittene Techniken gleichzeitig.
Beispiel 1: Wettbewerbsanalyse (CoT + Constraints)
Analysiere die Wettbewerbssituation im deutschen Markt für
KI-Weiterbildungen. Gehe Schritt für Schritt vor:
1. Nenne die 5 größten Anbieter mit Kursformat und Preismodell.
2. Identifiziere 3 Marktlücken, die ein kleiner Anbieter
(max. 18 Teilnehmer, persönliche Betreuung) nutzen könnte.
3. Bewerte jede Lücke: Potenzial (hoch/mittel/niedrig), Aufwand,
erwartete Wirkung.
Constraints:
- Nenne nur Anbieter, die du verifizieren kannst.
- Keine Phrasen wie "in der heutigen schnelllebigen Welt".
- Ergebnisse als Tabelle darstellen.
Beispiel 2: Content-Produktion (System Prompt + Few-Shot)
System: Du bist ein Social-Media-Texter für einen Bildungsträger.
Deine Texte sind direkt, nutzen die Du-Ansprache und enthalten
immer eine konkrete Zahl oder Fakt. Keine Floskeln, kein Passiv,
maximal 120 Wörter.
Beispiel 1:
Thema: Bildungsgutschein
Text: "Wusstest du, dass der Bildungsgutschein 100 % deiner
Weiterbildungskosten deckt? Die Agentur für Arbeit bezahlt alles.
Du brauchst nur einen Termin bei deinem Berater.
Mehr als 500.000 Menschen nutzen das jedes Jahr."
Beispiel 2:
Thema: Gehalt nach Weiterbildung
Text: "48.000 bis 65.000 EUR. So viel verdienen
Digitalisierungsmanager in Deutschland laut Stepstone.
Und du brauchst dafür keine Programmierkenntnisse.
4 Monate Weiterbildung reichen."
Jetzt schreibe einen Text zum Thema: Prompt Engineering im Job
Beispiel 3: Prozessoptimierung (Chaining, 3 Schritte)
Schritt 1:
"Beschreibe den typischen Ablauf einer Kundenreklamation in einem
Online-Shop. 8 bis 10 Schritte, von der Beschwerde bis zur Lösung."
Schritt 2:
"Welche dieser Schritte lassen sich mit KI automatisieren?
Bewerte jeden Schritt: voll automatisierbar / teilweise / manuell.
Nenne für jeden automatisierbaren Schritt ein konkretes Tool."
Schritt 3:
"Erstelle einen Projektplan für die Automatisierung der 3
wichtigsten Schritte. Format: Aufgabe, Verantwortlicher,
Zeitaufwand, benötigte Tools, erwartete Zeitersparnis pro Monat."
Diese Beispiele zeigen: Gute ChatGPT Prompts sind keine Kunst. Sie folgen klaren Strukturen. Wer die Frameworks verinnerlicht, schreibt in Sekunden Prompts, die professionelle Ergebnisse liefern.
Häufige Fragen
Was bringt Chain-of-Thought Prompting?
Chain-of-Thought Prompting verbessert die Antwortqualität bei komplexen Aufgaben um bis zu 19 Prozentpunkte (MMLU-Pro Benchmark). Es zwingt die KI, Schritt für Schritt zu denken, statt eine oberflächliche Antwort zu geben. Besonders wirksam bei Analysen, Berechnungen und mehrstufigen Entscheidungen.
Wie viele Beispiele brauche ich für Few-Shot Prompting?
3 bis 5 Beispiele sind optimal. Weniger reicht für einfache Formate (z.B. Klassifikation), mehr bringt kaum zusätzliche Verbesserung. Wichtiger als die Anzahl ist die Vielfalt: Deine Beispiele sollten verschiedene Fälle abdecken, inklusive Grenzfälle.
Funktioniert Prompt Engineering bei allen KI-Modellen gleich?
Nein. Die Grundtechniken (Few-Shot, CoT, System Prompts) funktionieren bei allen großen Modellen (GPT-4, Claude, Gemini). Aber jedes Modell hat Eigenheiten. Claude reagiert besonders gut auf XML-Strukturierung. GPT-4 ist stark bei kreativen Aufgaben. Reasoning-Modelle wie GPT-o1 brauchen kein explizites CoT, weil sie intern bereits schrittweise denken.
Was ist der Unterschied zwischen System Prompt und Rollen-Prompt?
Ein System Prompt steht in einem eigenen Feld (z.B. in der API oder bei Custom GPTs) und gilt für die gesamte Konversation. Ein Rollen-Prompt steht im normalen Chat und kann von der KI nach einigen Nachrichten vergessen werden. Für produktive Anwendungen sind System Prompts die bessere Wahl.
Wie verhindere ich, dass die KI Fakten erfindet?
Baue Constraints in deinen Prompt ein. Zum Beispiel: "Wenn du eine Information nicht verifizieren kannst, schreibe 'nicht verifiziert' dahinter." Oder: "Antworte nur basierend auf den bereitgestellten Daten. Erfinde keine zusätzlichen Fakten." Zusätzlich hilft es, die KI nach Quellen fragen zu lassen.
Kann ich Prompt Engineering beruflich einsetzen?
Ja. Prompt Engineering ist eine Kernkompetenz in Rollen wie Digitalisierungsmanagement, Marketing, HR und Projektmanagement. Der Gehaltsbereich für Digitalisierungsmanager liegt bei 48.000 bis 65.000 EUR brutto pro Jahr (Stepstone/Gehalt.de). Eine Weiterbildung mit IHK-Zertifikat macht diese Kompetenz nachweisbar.
Was ist Prompt Chaining?
Prompt Chaining bedeutet, eine komplexe Aufgabe in mehrere einzelne Prompts aufzuteilen. Das Ergebnis von Prompt 1 wird als Input für Prompt 2 verwendet, und so weiter. Das liefert bessere Ergebnisse als ein einzelner langer Prompt, weil jeder Schritt fokussiert bleibt.
Gibt es eine Weiterbildung, die Prompt Engineering und KI abdeckt?
Ja. Die Weiterbildung zum Digitalisierungsmanager/in (IHK) bei SkillSprinters umfasst Prompt Engineering, Prozessautomatisierung und KI-Strategie. 4 Monate, komplett online, DEKRA-zertifiziert, AZAV-zugelassen. Mit Bildungsgutschein der Agentur für Arbeit 100 % kostenlos.
Du willst Prompt Engineering auf Profi-Niveau beherrschen? Die Weiterbildung zum Digitalisierungsmanager/in (IHK) bei SkillSprinters bringt dir nicht nur Prompts bei, sondern das komplette KI-Toolkit: Automatisierung, Datenanalyse, Strategie. 4 Monate, komplett online, max. 18 Teilnehmer. Mit Bildungsgutschein 100 % kostenlos. Jetzt informieren
Bereit für deinen nächsten Karriereschritt?
Lass dich kostenlos beraten. Wir finden die passende Weiterbildung und Förderung für dich.