Kontext vs. Prompt
Warum der richtige Kontext wichtiger ist als der perfekte Prompt
Du feilst an deinen Prompts, aber die KI liefert trotzdem generische Ergebnisse? Das Problem liegt selten am Prompt. Es liegt am fehlenden Kontext.

Das Wichtigste in Kürze
- →Kontext vor Prompt – Ein mittlerer Prompt mit gutem Kontext schlägt einen perfekten Prompt ohne Kontext.
- →Context Engineering – Wer seine Hintergrundinformationen in Dateien festhält, holt mehr aus jeder KI.
- →Kontext-Dateien erstellen – Identität, Kontext, Stil und Prozess: Vier Dateien, die jede KI besser machen.
- →ChatGPT & Claude – Beide Tools bieten eigene Funktionen, um Kontext dauerhaft zu hinterlegen.
Warum guter Kontext bessere Ergebnisse liefert
Ein Reddit-Post in r/PromptEngineering brachte es auf den Punkt: "Your prompt can only be as good as your context." Über 270 Upvotes, hunderte Kommentare. Die These traf einen Nerv, weil sie ein Muster beschreibt, das viele kennen: Man optimiert Prompts stundenlang, aber die Ergebnisse bleiben mittelmäßig.
Die KI-Modelle von heute sind leistungsfähig genug für die meisten Aufgaben. Wenn die Ergebnisse trotzdem nicht überzeugen, liegt das selten am Tool. Es liegt daran, dass die KI zu wenig über dich, dein Projekt und deine Erwartungen weiß. Wer schreibt "Formuliere diese E-Mail professioneller", lässt die KI raten: An wen geht die E-Mail? In welcher Branche? Locker oder formell? Ohne diese Angaben bleibt das Ergebnis generisch.
"Context engineering is the delicate art of filling the context window with just the right information for the next step."
(Frei übersetzt: "Context Engineering ist die Kunst, dem Kontextfenster genau die richtigen Informationen für den nächsten Schritt mitzugeben.")
– Andrej Karpathy, ehem. KI-Chef bei Tesla
Ein Beispiel macht den Unterschied greifbar. Der Prompt ist beide Male identisch:
Prompt ohne hinterlegten Kontext:
"Schreib einen LinkedIn-Post über unser neues Feature."
Ergebnis: Generischer Marketing-Post mit Floskeln wie "Wir freuen uns, euch unser neuestes Feature vorzustellen". Kein konkreter Bezug, austauschbarer Ton.
Gleicher Prompt, aber mit hinterlegtem Kontext:
"Schreib einen LinkedIn-Post über unser neues Feature."
Die KI kennt bereits (aus hinterlegten Dateien):
- •Identität: B2B-SaaS für Handwerksbetriebe, 12 Mitarbeiter, Gründer schreibt selbst
- •Stil: Direkt, keine Floskeln, Beispiele aus dem Handwerk, duzt die Zielgruppe
- •Kontext: Neues Feature: automatische Rechnungserstellung nach Auftragsabschluss
Ergebnis: Ein Post, der klingt wie vom Gründer geschrieben. Konkretes Feature, passender Ton, Bezug zur Zielgruppe. Gleicher Prompt, völlig anderes Ergebnis.
Der Prompt hat sich nicht verändert. Was sich verändert hat, sind die Informationen, die der KI im Hintergrund zur Verfügung stehen. Genau das ist der Unterschied zwischen Prompt Engineering und Context Engineering.
Was ist Context Engineering?
Context Engineering beschreibt die Fähigkeit, einer KI gezielt die Hintergrundinformationen zu geben, die sie für eine bestimmte Aufgabe braucht. Der Begriff grenzt sich von Prompt Engineering ab: Während ein Prompt die konkrete Anweisung ist ("Was soll die KI tun?"), liefert der Kontext das Wissen drumherum ("Wer fragt, in welcher Situation, nach welchen Regeln?").
"I really like the term context engineering over prompt engineering."
(Frei übersetzt: "Ich finde den Begriff Context Engineering deutlich treffender als Prompt Engineering.")
– Tobi Lütke, CEO von Shopify
Gartner stuft Context Engineering 2026 als eine der wichtigsten technischen Prioritäten ein. Laut dem State of Agent Engineering Report von LangChain arbeiten 57 % der befragten Unternehmen bereits mit KI-Agenten. 32 % nennen die Qualität der Ergebnisse als größte Hürde. In vielen Fällen liegt das nicht am Modell, sondern am fehlenden oder unstrukturierten Kontext.
Wichtig: Context Engineering ersetzt Prompt Engineering nicht. Es erweitert es. Saubere, präzise Prompts bleiben entscheidend. Aber ohne den passenden Kontext kann selbst die beste Anweisung nur generische Ergebnisse liefern. Die besten Ergebnisse entstehen, wenn beides zusammenspielt: ein klarer Prompt auf dem Fundament von gut aufbereitetem Kontext.
Kontext-Dateien: So gibst du einer KI das richtige Wissen
Die Idee ist einfach: Du schreibst dein Wissen in Dateien, bevor du die KI um etwas bittest. Das kann eine einfache Textdatei sein (.txt), ein Word-Dokument (.docx) oder eine Markdown-Datei (.md). Entscheidend ist nicht das Format, sondern dass du dein Wissen einmal festhältst und dann bei jeder KI-Anfrage mitgibst.
Vier Kontext-Dateien haben sich als Startpunkt bewährt:
1. Identität – Wer bist du?
Deine Rolle, dein Hintergrund, deine Ziele und Einschränkungen. Diese Datei bleibt über Projekte hinweg gleich. Erstelle eine Datei wie identitaet.txt und beschreibe darin, mit wem die KI arbeitet.
Beispiel (identitaet.txt):
"Ich bin Marketing-Managerin in einem Mittelstands-Unternehmen (B2B, Maschinenbau) mit 50 Mitarbeitern. Mein Team besteht aus drei Personen: eine Grafikerin, ein Texter und ich.
Ich berichte an die Geschäftsführung und verantworte alle organischen Kanäle (Website, LinkedIn, Newsletter). Mein Ziel: mehr qualifizierte Leads über Inhalte, die Fachkompetenz zeigen.
Einschränkung: Kein Budget für Paid Ads. Alles muss über organische Reichweite funktionieren."
2. Kontext – Was ist die Situation?
Projektspezifische Informationen, Fachwissen und Hintergründe. Diese Datei ändert sich von Projekt zu Projekt. In einer projekt-kontext.txt sammelst du alles, was die KI über die aktuelle Aufgabe wissen muss.
Beispiel (projekt-kontext.txt):
"Wir starten im Q2 ein neues Shopsystem für kleine Online-Händler. Die Zielgruppe sind Einzelhändler ohne eigenes Technik-Team, die bisher über Marktplätze verkaufen.
Budget für den Launch: 5.000 Euro. Wettbewerber: Shopify (international, englischer Support), Jimdo (einfach, aber eingeschränkt). Unser Vorteil: persönlicher Support auf Deutsch und Einrichtung in unter 30 Minuten.
Ton der Kommunikation: pragmatisch, nicht technisch. Die Zielgruppe denkt in Umsatz, nicht in Funktionen."
3. Stil – Wie soll kommuniziert werden?
Tonfall, Formatierung und Sprachregeln. Einmal festgehalten sorgt diese Datei dafür, dass die KI konsistent in deinem Stil schreibt. Lege eine stil.txt an mit Beispielen, die zeigen, was guter Output für dich bedeutet.
Beispiel (stil.txt):
"Schreibe sachlich und direkt. Keine Superlative, keine Marketing-Floskeln. Sätze kurz halten, maximal 20 Wörter.
Fachbegriffe beim ersten Mal in einem Halbsatz erklären. Beispiel: ‚RAG (eine Methode, bei der die KI vor der Antwort relevante Dokumente durchsucht)'.
Guter Output klingt so: ‚Das Tool durchsucht deine Dokumente und fasst die relevanten Stellen zusammen. Du bekommst eine Antwort mit Quellenangabe.'
Schlechter Output klingt so: ‚Dieses revolutionäre Tool bietet zahlreiche Möglichkeiten zur effizienten Dokumentenanalyse.'"
4. Prozess – Welche Schritte?
Workflows, Checklisten und Abläufe. Besonders nützlich bei wiederkehrenden Aufgaben: Die KI kennt die einzelnen Schritte und arbeitet sie in der richtigen Reihenfolge ab. Eine workflow.txt spart dir die Erklärung bei jeder Anfrage.
Beispiel (workflow.txt):
Blog-Artikel-Workflow:
- Recherchiere die Top-5 Google-Ergebnisse zum Thema. Notiere, welche Fragen die Artikel beantworten und wo Lücken sind.
- Erstelle eine Gliederung mit H2-Überschriften. Jede H2 beantwortet eine konkrete Frage der Zielgruppe.
- Schreibe den Artikel mit einer Einleitung, die das Problem benennt. Keine allgemeinen Einstiege wie ‚In der heutigen Zeit'.
- Prüfe alle Fakten, ergänze Quellen und kennzeichne Preise mit Stand (Monat + Jahr).
- Lies den fertigen Text laut vor. Klingt ein Satz holprig, kürze ihn.
Für Fortgeschrittene: 3 weitere Dateitypen
- →Gelerntes – Was hat funktioniert, was nicht? Welche Entscheidungen wurden getroffen und warum? Diese Datei verhindert, dass die KI bereits verworfene Ideen erneut vorschlägt, und baut auf deinen Erfahrungen auf.
- →Musterdatei – Gelungene Beispiele und typische Fehler als Referenz. Zeigt der KI konkret, wie guter Output in deinem Fall aussieht. Besonders nützlich für wiederkehrende Formate wie E-Mails, Reports oder Social-Media-Posts.
- →Übergabedatei – Zusammenfassung am Ende einer Sitzung: Was wurde erledigt, was steht noch aus, welche Fragen sind offen? Damit die KI in der nächsten Sitzung dort weitermacht, wo du aufgehört hast.
Du brauchst nicht alle Dateien auf einmal. Starte mit einer Identitätsdatei und einer Stildatei. Allein diese beiden verändern die Qualität der Ergebnisse spürbar, weil die KI nicht mehr raten muss, wer du bist und wie du kommunizierst.
Kontext in ChatGPT und Claude einrichten
Beide großen KI-Tools bieten Funktionen, um Kontext dauerhaft zu hinterlegen. So musst du nicht bei jeder Unterhaltung von vorne anfangen.
ChatGPT Projekte
Mit ChatGPT Projekte legst du eigene Arbeitsbereiche an. Jedes Projekt hat eigene Custom Instructions und hochgeladene Dateien. Chats innerhalb eines Projekts greifen automatisch auf diesen Kontext zu. Die Funktion ist bereits im kostenlosen Tarif verfügbar.
Claude Projekte
Claude Projekte funktioniert ähnlich: Du erstellst Projekte mit einer Wissensbasis, eigenen Anweisungen und hochgeladenen Dokumenten. Claude durchsucht diese Wissensbasis bei jeder Anfrage automatisch (RAG). Die Funktion ist bereits im kostenlosen Tarif verfügbar.
Fazit
Wenn KI-Ergebnisse nicht überzeugen, liegt es selten am Modell. Es fehlen Informationen. Context Engineering schließt diese Lücke: Wer bist du, in welcher Situation arbeitest du, welchen Stil erwartest du?
Starte mit zwei Dateien: einer Identitätsdatei (wer du bist) und einer Stildatei (wie du kommunizierst). Lade sie in ein ChatGPT- oder Claude-Projekt hoch. Zusammen mit sauberen Prompts liefern sie die Grundlage, auf der gute Ergebnisse entstehen.
Wenn du deine Prompts selbst verbessern willst, findest du getestete Vorlagen in unseren ChatGPT Prompt-Beispielen. Und wenn du die Grundlagen des Promptings nochmal auffrischen willst, hilft der Prompting Guide.
Häufige Fragen
Was ist Context Engineering?
Context Engineering beschreibt die Fähigkeit, einer KI genau die Hintergrundinformationen zu geben, die sie für eine Aufgabe braucht. Dazu gehören Rolle, Situation, Stil und Arbeitsschritte. Der Begriff wurde 2025 von Andrej Karpathy geprägt und von Shopify-CEO Tobi Lütke popularisiert.
Was ist der Unterschied zwischen Prompt und Kontext?
Ein Prompt ist die konkrete Anweisung an die KI, also was sie tun soll. Der Kontext liefert das Hintergrundwissen: Wer fragt, in welcher Situation, in welchem Stil und nach welchem Ablauf. Ohne Kontext kann selbst ein guter Prompt nur generische Ergebnisse liefern.
Wie gebe ich ChatGPT Kontext?
Am einfachsten über ChatGPT Projekte: Dort legst du Custom Instructions und Dateien pro Projekt an. Die Funktion ist bereits im kostenlosen Tarif verfügbar.
Ist Prompt Engineering tot?
Nein. Context Engineering erweitert Prompt Engineering, ersetzt es aber nicht. Du brauchst weiterhin klare Anweisungen. Der Kontext sorgt dafür, dass diese Anweisungen auf einer soliden Grundlage stehen.
Über den Autor

Datenanalyst mit über 7 Jahren Erfahrung. Zeigt wie KI den Arbeitsalltag effizienter macht – mit echten Workflows aus der Praxis.
Mehr über das Team →Teil des Guides: Prompting
Prompting Guide 2026: So holst du das Maximum aus KI heraus




