KI Grundlagen: Tokens, Prompts & Context Window verstehen
Drei Begriffe, die du kennen musst, um KI wirklich zu verstehen. Hier erfährst du, was Tokens, Prompts und das Context Window sind - und warum das für dich wichtig ist.

📍 Part 1 von 4 im KI-Lernpfad "KI meistern 2026" – Hier lernst du die Grundlagen, die du für alles Weitere brauchst.
Wenn du ChatGPT, Claude oder andere KI-Tools nutzt, stößt du schnell auf Begriffe wie "Tokens", "Context Window" oder "Prompt". Was bedeutet das alles? Und warum sollte dich das interessieren?
Aus meiner täglichen Arbeit mit KI-Tools weiß ich: Wer diese drei Begriffe beherrscht, kann KI gezielter einsetzen und versteht, warum manche Dinge funktionieren und andere nicht. Ohne technischen Ballast, mit praktischen Beispielen.
Das Wichtigste in Kürze
- →Tokens = kleinste Texteinheiten, die eine KI verarbeitet (nicht ganze Wörter)
- →Prompts = deine Anweisung an die KI (Frage, Aufgabe, Kontext)
- →Context Window = der "Arbeitsspeicher" der KI (begrenzt, wie viel sie gleichzeitig verarbeiten kann)
- →Der Zusammenhang: Dein Prompt besteht aus Tokens, die das Context Window füllen
- →Vergleichstabelle: Context Windows von ChatGPT, Claude & Gemini
Was sind Tokens?
Ein Token ist die kleinste Einheit, die eine KI verarbeitet. Stell dir Tokens wie Legosteine vor: Die KI zerlegt jeden Text in diese kleinen Bausteine, um ihn zu verstehen.
Wichtig: Ein Token ist nicht gleich ein Wort. Je nach Sprache und Wort kann ein Token ein ganzes Wort sein, ein Wortteil oder sogar nur ein Zeichen.
Beispiele für Tokens
- →
Hallo= ~1 Token (häufiges, kurzes Wort) - →
Donaudampfschifffahrt= ~3-5 Tokens (wird in Subword-Teile zerlegt) - →
😊= ~1-2 Tokens (Unicode-Zeichen) - →
2026= ~1-2 Tokens (kann als "20" + "26" zerlegt werden)
Hinweis: Die exakte Token-Anzahl hängt vom Modell und dessen Tokenizer ab. ChatGPT, Claude und Gemini verwenden unterschiedliche Tokenizer.
Warum sind Tokens wichtig für dich?
Tokens bestimmen zwei Dinge:
- ✓Kosten: Bei API-Nutzung zahlst du pro Token (ca. 0,001-0,01 Cent pro Token)
- ✓Limits: Das Context Window (dazu gleich mehr) wird in Tokens gemessen
Faustregeln: 100 Tokens entsprechen etwa 60-80 deutschen Wörtern. Ein typischer Prompt hat 50-500 Tokens, eine längere Antwort 500-2000 Tokens. Wichtig: Lange deutsche Komposita, Sonderzeichen und Code erhöhen die Token-Dichte – ineffiziente Prompts kosten mehr und verbrauchen wertvollen Kontext.
Was sind Prompts?
Ein Prompt (deutsch: Eingabeaufforderung) ist deine Anweisung an die KI – das wichtigste Werkzeug in der Kommunikation mit Large Language Models (LLMs) wie ChatGPT oder Claude. Alles, was du in das Eingabefeld schreibst, ist ein Prompt: eine Frage, eine Aufgabe oder eine komplexe Anweisung mit Kontext und Beispielen.
Prompt-Beispiele
Einfacher Prompt:
"Was ist die Hauptstadt von Frankreich?"
Besserer Prompt:
"Erkläre einem 10-Jährigen, was Photosynthese ist. Maximal 3 Sätze, mit einem Alltagsbeispiel."
Je präziser dein Prompt, desto besser das Ergebnis. Gute Prompts enthalten:
- ✓Kontext: Wer bist du, wofür brauchst du das?
- ✓Aufgabe: Was genau soll die KI tun?
- ✓Format: Wie soll die Antwort aussehen? (Liste, Fließtext, kurz/lang)
Wenn du tiefer einsteigen willst, findest du die 7 wichtigsten Prompting-Techniken im ausführlichen Guide.
Was ist das Context Window?
Das Context Window ist der "Arbeitsspeicher" der KI. Es bestimmt, wie viel Text die KI gleichzeitig "im Kopf" haben kann - also deinen Prompt, den bisherigen Chatverlauf und ihre eigene Antwort.
Stell dir das so vor:
Das Context Window ist wie ein Schreibtisch mit begrenztem Platz. Alles, was du der KI gibst (Fragen, Dokumente, Chatverlauf), liegt auf diesem Schreibtisch. Wenn er voll ist, fallen ältere Sachen runter – sie sind nicht mehr verfügbar.
GPT-5.2 hat ein Context Window von 400.000 Tokens – das entspricht grob 600 Seiten Text. Klingt viel, aber bei langen Gesprächen oder großen Dokumenten ist auch das irgendwann erreicht.
Was passiert, wenn das Context Window voll ist?
Informationen außerhalb des Context Windows sind nicht mehr verfügbar – die KI kann nicht mehr darauf zugreifen. Das merkst du daran, dass sie plötzlich Dinge nicht mehr weiß, die du ihr vorher gesagt hast.
Lösungen: Neues Gespräch starten, eine kurze Zusammenfassung des bisherigen Kontexts posten, oder die wichtigsten Parameter und Ziele explizit wiederholen.
Wie Tokens, Prompts und Context zusammenhängen
Jetzt kommt der Aha-Moment: Diese drei Konzepte sind direkt verbunden.
- 1.Du schreibst einen Prompt - das ist deine Anweisung an die KI
- 2.Der Prompt wird in Tokens zerlegt - die KI verarbeitet ihn in kleinen Einheiten
- 3.Die Tokens füllen das Context Window - zusammen mit dem Chatverlauf
- 4.Die KI antwortet - ihre Antwort besteht auch aus Tokens und füllt das Context weiter
Praktisches Beispiel
Du nutzt ChatGPT (GPT-5.2) mit 400.000 Tokens Context Window:
- • Dein erster Prompt: 200 Tokens
- • ChatGPT-Antwort: 500 Tokens
- • Deine Nachfrage: 100 Tokens
- • Zweite Antwort: 800 Tokens
- • Verbraucht: 1.600 von 400.000 Tokens
Bei kurzen Gesprächen kein Problem. Aber wenn du ein 100-seitiges PDF hochlädst (ca. 100.000 Tokens), schrumpft der verfügbare Platz schnell.
Context Windows 2026: Die wichtigsten KI-Modelle im Vergleich
Nicht jede KI hat das gleiche Context Window. Hier ein Überblick der aktuellen Modelle:
| Modell | Context Window | Entspricht ca. |
|---|---|---|
| GPT-5.2 (ChatGPT) | 400.000 Tokens | ~600 Seiten |
| Claude Sonnet 4 | 200.000 Tokens | ~300 Seiten |
| Claude Opus 4.6 | 1.000.000 Tokens (Beta) | ~1.500 Seiten |
| Gemini 3 Pro | 1.048.576 Tokens | ~1.500 Seiten |
| Gemini 2.5 Flash | 1.048.576 Tokens | ~1.500 Seiten |
*Claude Sonnet 4.5 unterstützt bis zu 1M Tokens im Beta für höhere API-Tiers.
Stand: Januar 2026. Context Windows ändern sich regelmäßig mit neuen Modell-Versionen.
Was bedeutet das für dich?
- ✓Lange Dokumente analysieren: Gemini hat das größte Context Window
- ✓Alltägliche Nutzung: ChatGPT und Claude reichen für die meisten Aufgaben
- ✓Kostenlos mit Limits: Kostenlose Versionen haben oft kleinere Context Windows
Mehr zu den Unterschieden findest du im ChatGPT vs Claude Vergleich.
Zusammenfassung
Du kennst jetzt die drei wichtigsten KI-Grundbegriffe:
- 1.Tokens = die kleinen Textbausteine, aus denen alles besteht
- 2.Prompts = deine Anweisung an die KI (je präziser, desto besser)
- 3.Context Window = der begrenzte Arbeitsspeicher der KI
Mit diesem Wissen verstehst du, warum manche Prompts besser funktionieren als andere und warum die KI bei langen Gesprächen manchmal "vergisst".
Der KI-Lernpfad: Alle 4 Parts
- ✓Part 1: Tokens, Prompts & Context Window (dieser Artikel)
- →Part 2: KI mit eigenen Daten (RAG, System Prompts)
- →Part 3: AI Agents & Automationen
- →Part 4: Advanced KI (Fine-Tuning, RLHF)
📍 Zurück zur Übersicht: KI meistern 2026 – Der komplette Lernpfad
Häufige Fragen
Wie viel kostet ein Token?
Bei ChatGPT Plus, Claude Pro oder Gemini Advanced: nichts extra – du zahlst einen Festpreis pro Monat (ca. 20 €). Bei API-Nutzung zahlst du pro Token: typischerweise 0,001-0,01 Cent pro Token, je nach Modell. Für Gelegenheitsnutzer ist das vernachlässigbar. Für Unternehmen, die eigene KI-Anwendungen skalieren, ist Token-Effizienz jedoch ein kritischer Kostenfaktor.
Wie kann ich Tokens zählen?
OpenAI bietet einen kostenlosen Tokenizer auf ihrer Website. Dort kannst du Text einfügen und siehst, wie viele Tokens er hat. Als Faustregel: 100 Tokens ≈ 60-80 deutsche Wörter.
Reicht das kostenlose ChatGPT für längere Gespräche?
Ja, für die meisten Alltagsaufgaben. Das Context Window ist auch in der kostenlosen Version groß genug. Limits merkst du eher bei der Anzahl der Nachrichten pro Stunde oder bei großen Datei-Uploads.
Was ist besser: Großes Context Window oder kurze Prompts?
Beides hat seinen Platz. Kurze, präzise Prompts sind oft effektiver als lange, weil die KI sich auf das Wesentliche konzentriert. Ein großes Context Window brauchst du vor allem, wenn du lange Dokumente analysierst oder komplexe, mehrstufige Aufgaben hast.
Warum "vergisst" die KI nichts aktiv?
Technisch gesehen "vergisst" die KI nichts. Informationen außerhalb des Context Windows sind einfach nicht mehr verfügbar – sie werden nicht aktiv gelöscht, sondern sind schlicht nicht mehr Teil dessen, was die KI verarbeiten kann. Der Unterschied ist subtil, aber wichtig: Die KI hat kein Langzeitgedächtnis, sie arbeitet nur mit dem aktuellen Context.
Über den Autor

Testet und erklärt KI-Tools, damit du sie sofort einsetzen kannst. Begeistert sich für Web Development und KI-Automatisierungen.
Mehr über das Team →Teil des Guides: grundlagen
KI meistern 2026: Der 4-Phasen-Lernpfad




