Technologie

Context Window erklärt: Warum 200K Tokens bei Claude einen Unterschied machen

GPT-4o: 128K Tokens (~90 Seiten). Claude: 200K (~140 Seiten). Gemini: 1M Tokens (~700 Seiten)! Context Window entscheidet, ob Sie 100-Seiten-PDFs auf einmal analysieren können oder in Teile splitten müssen. Dieser technische Deep-Dive erklärt, was Context Window ist und wann es wichtig ist.

Niklas Coors
Niklas Coors
CEO & Co-Founder
3. Oktober 2025
13 Min. Lesezeit

Sie wollen ein 100-seitiges Vertragswerk analysieren lassen. GPT-4o sagt: "Das ist zu lang, bitte in 2 Teile aufteilen." Claude sagt: "Kein Problem, ich verarbeite alles auf einmal." Gemini sagt: "100 Seiten? Das sind nur 10% meiner Kapazität."

Der Unterschied? Context Window. GPT-4o hat 128K Tokens (~90 Seiten), Claude hat 200K (~140 Seiten), Gemini hat 1M Tokens (~700 Seiten). Das ist ein 7,8× Unterschied zwischen kleinstem und größtem.

Aber wann ist Context Window wirklich wichtig? Und wann verschwendet man Geld für ungenutzten Platz? Dieser technische Deep-Dive erklärt, was Context Window ist, wie es funktioniert, und gibt konkrete Empfehlungen: Wann reichen 128K, wann brauchen Sie 1M?

Context Window in Zahlen: GPT-4o: 128K Tokens (~90 Seiten). Claude: 200K (~140 Seiten). Gemini: 1M Tokens (~700 Seiten = ganzes Buch!). 1 Token ≈ 0,75 Wörter. Wichtig für: Lange Dokumente, große Codebasen, Kontext-intensive Aufgaben. Unwichtig für: Kurze Chats, FAQs.

Was ist Context Window?

Definition:

Das Context Window (auch: Context Length) ist die maximale Anzahl an Tokens, die ein KI-Modell gleichzeitig verarbeiten kann - Input UND Output zusammen.

Vereinfacht:

  • Stellen Sie sich Context Window als "Arbeitsspeicher" der KI vor
  • Je größer, desto mehr Text kann die KI "im Kopf behalten"
  • Überschreitung → KI vergisst Anfang oder lehnt ab

Technisch: Context Window = Max. Input-Tokens + Max. Output-Tokens

Beispiel GPT-4o:

  • Context Window: 128.000 Tokens gesamt
  • Max. Input: ~120.000 Tokens
  • Max. Output: ~8.000 Tokens (wird vom Context Window "abgezogen")

Was bedeutet das praktisch?

Bei 128K Context Window:

  • Sie können ein 90-Seiten-Dokument hochladen
  • KI kann es komplett lesen
  • Und eine 6-Seiten-Zusammenfassung generieren
  • Gesamt: 96 Seiten = passt in 128K

Warum Context Window wichtig ist:

Szenario 1: Vertragsanalyse (80 Seiten)

Mit ausreichendem Context Window (200K):

  • ✅ Gesamter Vertrag auf einmal hochladen
  • ✅ KI liest alles, behält Kontext
  • ✅ Kann Bezüge zwischen Seite 5 und Seite 75 herstellen
  • ✅ Findet Widersprüche
  • ✅ Dauer: 2 Minuten

Ohne ausreichendes Context Window (128K → reicht nicht):

  • ❌ Vertrag muss in 2 Teile gesplittet werden
  • ❌ KI sieht nur Teil 1, dann nur Teil 2
  • ❌ Verliert Kontext zwischen Teilen
  • ❌ Kann keine Teil-übergreifenden Bezüge herstellen
  • ❌ Dauer: 5 Minuten + schlechtere Qualität

Der Unterschied: Mit größerem Context Window bekommen Sie bessere Ergebnisse in kürzerer Zeit.

Context Window-Vergleich aller Modelle

Modell Context Window ≈ Seiten A4 ≈ Wörter
GPT-3.5 Turbo 16K ~11 Seiten 12.000
GPT-4o 128K ~90 Seiten 96.000
GPT-4 Turbo 128K ~90 Seiten 96.000
Claude 3.5 Sonnet 200K ~140 Seiten 150.000
Claude 3.5 Opus 200K ~140 Seiten 150.000
Gemini 1.5 Pro 1M 🏆 ~700 Seiten 750.000
Gemini 1.5 Ultra 1M 🏆 ~700 Seiten 750.000
Gemini 1.5 Flash 1M 🏆 ~700 Seiten 750.000

Die Spreizung:

  • Kleinstes: GPT-3.5 Turbo (16K = 11 Seiten)
  • Standard: GPT-4o (128K = 90 Seiten)
  • Groß: Claude (200K = 140 Seiten)
  • Riesig: Gemini (1M = 700 Seiten!)

Faktor: 62,5× Unterschied zwischen kleinstem und größtem!

Wann ist Context Window wichtig?

Use Case #1: Lange Dokumente analysieren

Beispiele:

  • Verträge (50-200 Seiten)
  • Due Diligence-Dokumente (100-1.000 Seiten)
  • Technische Handbücher (100-500 Seiten)
  • Forschungsberichte (50-200 Seiten)
  • Bücher (200-500 Seiten)

Beispiel: 150-Seiten-Vertrag

Mit GPT-4o (128K ≈ 90 Seiten):

  • ❌ Vertrag passt NICHT komplett
  • Lösung: In 2 Teile splitten
    • Teil 1: Seite 1-90
    • Teil 2: Seite 91-150
  • Problem: KI sieht nicht beide Teile gleichzeitig
  • Qualität: ⭐⭐⭐ (okay, aber suboptimal)

Mit Claude (200K ≈ 140 Seiten):

  • ⚠️ Vertrag passt knapp NICHT
  • Lösung: Leicht komprimieren oder splitten

Mit Gemini (1M ≈ 700 Seiten):

  • ✅ Vertrag passt locker
  • KI sieht alles auf einmal
  • Kann Bezüge zwischen allen Seiten herstellen
  • Qualität: ⭐⭐⭐⭐⭐

Empfehlung: Für Dokumente >100 Seiten nutzen Sie Gemini.

Use Case #2: Große Codebasen analysieren

Problem: Legacy-Code-Analyse

Sie haben eine 50.000-Zeilen-Codebase und wollen:

  • Architektur-Überblick
  • Refactoring-Vorschläge
  • Security-Audit

Rechnung:

  • 50.000 Zeilen Code
  • Durchschnittlich 50 Zeichen/Zeile
  • = 2,5 Mio. Zeichen
  • = ~625.000 Tokens

Welches Modell passt?

  • GPT-4o (128K): ❌ Nur ~12% der Codebase
  • Claude (200K): ❌ Nur ~20% der Codebase
  • Gemini (1M): ✅ ~60% der Codebase auf einmal

Empfehlung: Für große Codebasen (>30.000 Zeilen) nutzen Sie Gemini - oder teilen Sie in Module.

Use Case #3: Multi-Dokument-Kontext

Beispiel: M&A Due Diligence

Sie müssen 20 Dokumente gleichzeitig analysieren:

  • Jahresabschlüsse (5× 30 Seiten = 150 Seiten)
  • Verträge (10× 20 Seiten = 200 Seiten)
  • Org-Charts, Strategien (5× 10 Seiten = 50 Seiten)
  • Gesamt: 400 Seiten

Context Window-Anforderung:

  • 400 Seiten ≈ 570.000 Tokens

Welches Modell?

  • GPT-4o: ❌ Nur 90 Seiten = muss in 5 Teile splitten
  • Claude: ❌ Nur 140 Seiten = muss in 3 Teile splitten
  • Gemini: ✅ 700 Seiten = passt komplett

Vorteil Gemini: Alle Dokumente gleichzeitig im Kontext → bessere Cross-Document-Analyse

Wann Context Window NICHT wichtig ist

Use Case #1: Kurze Chats & FAQs

Typische Nutzung:

  • "Was sind Ihre Öffnungszeiten?"
  • "Wie kann ich Passwort zurücksetzen?"
  • "Erstelle einen LinkedIn-Post"

Token-Volumen:

  • Input: 10-100 Tokens
  • Output: 50-500 Tokens
  • Gesamt: <1.000 Tokens

Welches Modell?

  • Alle Modelle: ✅ Völlig egal, 128K reicht locker

Empfehlung: Wählen Sie nach Qualität/Preis, nicht Context Window

Use Case #2: Wiederholte Aufgaben

Beispiel: 100 Produktbeschreibungen erstellen

Jede Anfrage:

  • Input: 200 Tokens (Produkt-Specs)
  • Output: 300 Tokens (Beschreibung)
  • Gesamt: 500 Tokens

Welches Modell?

  • Alle: ✅ Context Window spielt keine Rolle

Empfehlung: Wählen Sie günstigstes Modell (Gemini Flash)

Use Case #3: Code-Generierung (kleine Scripts)

Beispiel: "Erstelle eine Python-Funktion für CSV-Import"

  • Input: 50 Tokens
  • Output: 500 Tokens (Code + Kommentare)
  • Gesamt: 550 Tokens

Welches Modell?

  • Alle: ✅ Context Window egal

Empfehlung: Wählen Sie nach Code-Qualität (Claude) oder Preis (Gemini Flash)

Der Context Window-Rechner

Wie viele Tokens hat Ihr Dokument?

Faustregeln:

  • 1 Seite A4 (Times New Roman, 12pt) ≈ 500 Wörter ≈ 667 Tokens
  • 1 Wort (Deutsch) ≈ 1,33 Tokens
  • 1 Zeichen ≈ 0,25 Tokens

Rechenbeispiele:

Dokument-Größen in Tokens

10-Seiten-Dokument: 10 × 667 = ~6.700 Tokens

50-Seiten-Vertrag: 50 × 667 = ~33.350 Tokens

100-Seiten-Handbuch: 100 × 667 = ~66.700 Tokens

200-Seiten-Report: 200 × 667 = ~133.400 Tokens

500-Seiten-Buch: 500 × 667 = ~333.500 Tokens

Welches Modell passt?

GPT-4o (128K): Bis 90 Seiten

Claude (200K): Bis 140 Seiten

Gemini (1M): Bis 700 Seiten

Tool-Tipp:

Nutzen Sie einen Token-Counter:

  • OpenAI Tokenizer: platform.openai.com/tokenizer
  • Gibt exakte Token-Anzahl für Ihren Text

Workflow:

  1. Text/Dokument in Tokenizer pasten
  2. Token-Anzahl ablesen
  3. Mit Context Window vergleichen
  4. Modell wählen

Die Kosten-Frage: Bezahlen Sie für ungenutzten Context?

Gute Nachricht: Nein!

Token-Pricing ist Pay-per-Use:

  • Sie zahlen nur für tatsächlich genutzte Tokens
  • Nicht für Context Window-Größe

Beispiel:

Sie nutzen Gemini (1M Context Window) für eine 10-Seiten-Anfrage:

  • Dokument: 10 Seiten = 6.700 Tokens
  • Output: 500 Tokens
  • Sie zahlen: 7.200 Tokens (nicht 1M!)
  • Kosten: 7.200 × $0,35/1M = $0,00252

Fazit: Großes Context Window kostet nicht extra - aber ermöglicht größere Aufgaben.

Aber: Es gibt einen indirekten Kosten-Faktor:

Bei teuren Modellen mit großem Context Window:

Claude Opus (200K, aber teuer: $15/$75):

  • Gleiche Anfrage (7.200 Tokens)
  • Kosten: 6.700 × $15/1M + 500 × $75/1M = $0,10 + $0,04 = $0,14

40× teurer als Gemini Flash - aber nicht wegen Context Window, sondern wegen allgemeinem Preis.

Empfehlung: Wählen Sie Modell nach Aufgabe, nicht nach "größer ist besser".

Praktische Empfehlungen

Empfehlung #1: Für 90% der Aufgaben reicht GPT-4o (128K)

Realität:

  • Die meisten Unternehmensanfragen sind <10.000 Tokens
  • E-Mails, Texte, Analysen, Code
  • 128K = ~90 Seiten ist mehr als genug

Wann GPT-4o ausreicht:

  • ✅ Dokumente <80 Seiten
  • ✅ Standard-Unternehmensanwendungen
  • ✅ E-Mails, Texte, Chats
  • ✅ Code-Generierung (kleine Scripts)

Empfehlung #2: Für lange Dokumente (>100 Seiten) nutzen Sie Gemini

Beispiele:

  • Verträge >100 Seiten
  • M&A Due Diligence
  • Technische Handbücher
  • Bücher, Forschungsberichte
  • Große Codebasen (>30.000 Zeilen)

Vorteil:

  • Alles auf einmal verarbeiten
  • Keine Splits, kein Kontextverlust
  • Bessere Qualität

Kosten:

  • Gemini Flash: Super günstig ($0,35/$1,05)
  • Gemini Pro: Mittel ($3/$12)
  • Gemini Ultra: Teuer ($15/$45)

Best Practice: Starten Sie mit Gemini Flash, upgraden nur wenn nötig

Empfehlung #3: Claude (200K) ist der Sweet Spot

Positionierung:

  • Größer als GPT-4o (200K vs. 128K)
  • Kleiner als Gemini (200K vs. 1M)
  • Aber: Beste Qualität bei Reasoning & Code

Wann Claude trotz kleinerem Context Window als Gemini?

  • ✅ Dokumente 90-140 Seiten (passt perfekt)
  • ✅ Code-Qualität wichtiger als Context-Größe
  • ✅ Reasoning-Tasks (Business-Analysen)

Beispiel: 100-Seiten-Vertrag analysieren:

  • Claude: ✅ Passt, beste Analyse-Qualität
  • Gemini: ✅ Passt auch, aber günstig

Empfehlung: Claude für Qualität, Gemini für Budget

Gemini's 1M Context Window: Was ist damit möglich?

1 Million Tokens = revolutionär

Was passt in 1M Tokens?

  • 📄 ~700 Seiten Text (A4)
  • 📚 Ganzes Buch (z.B. "Sapiens" von Harari, 450 Seiten)
  • 🎥 11 Stunden Audio/Video (transkribiert)
  • 💻 ~50.000 Zeilen Code

Praktische Beispiele:

Beispiel #1: Ganzes Buch analysieren

Aufgabe: "Analysiere das Buch 'Sapiens' (450 Seiten) und erstelle eine 10-Seiten-Zusammenfassung"

Mit Gemini:

  • ✅ Komplettes Buch hochladen (1× PDF, 333K Tokens)
  • ✅ KI liest alles, behält Kontext
  • ✅ Kann Kapitel 1 mit Kapitel 30 in Beziehung setzen
  • ✅ Findet Widersprüche im gesamten Buch
  • ✅ Dauer: 3 Minuten

Mit GPT-4o:

  • ❌ Muss in 5 Teile gesplittet werden
  • ❌ KI sieht nur 1/5 gleichzeitig
  • ❌ Verliert Gesamt-Kontext

Beispiel #2: 2-Stunden-Webinar transkribieren

Aufgabe: Webinar-Video analysieren, Zusammenfassung erstellen

Mit Gemini:

  • ✅ 2h Video hochladen
  • ✅ Automatische Transkription
  • ✅ Analyse des gesamten Inhalts
  • ✅ Kapitelmarken, Sprecher-Identifikation

Mit GPT-4o:

  • ❌ Video-Upload nicht supported
  • ❌ Oder: Transkript zu lang

Beispiel #3: Gesamte Projektdokumentation

Sie wollen alle Projekt-Dokumente gleichzeitig analysieren:

  • 10× Meeting-Notizen (je 5 Seiten = 50 Seiten)
  • 5× Spezifikationen (je 20 Seiten = 100 Seiten)
  • 3× Berichte (je 30 Seiten = 90 Seiten)
  • Gesamt: 240 Seiten ≈ 160K Tokens

Mit GPT-4o:

  • ⚠️ Passt knapp (128K)

Mit Claude:

  • ✅ Passt locker (200K)

Mit Gemini:

  • ✅ Passt mühelos (1M)

Empfehlung: Claude oder Gemini

Die Grenzen: Auch 1M ist nicht unbegrenzt

Auch Gemini hat Limits:

Was passt NICHT in 1M Tokens:

  • 1.000-Seiten-Dissertation (zu lang)
  • Gesamte Enterprise-Codebase (100.000+ Zeilen)
  • 10 Stunden Video (zu lang)

Lösung bei >1M Tokens:

Option 1: Intelligentes Chunking

  • Dokument in logische Teile aufteilen
  • Jedes Teil separat verarbeiten
  • Ergebnisse zusammenführen

Option 2: Extraktion

  • Nur relevante Teile nutzen
  • Beispiel: Bei 1.000 Seiten → relevante Kapitel identifizieren → nur diese analysieren

Option 3: Summarization-Pipeline

  • Schritt 1: Dokument in 10 Teile à 100 Seiten
  • Schritt 2: Jedes Teil zusammenfassen (10× Query)
  • Schritt 3: 10 Zusammenfassungen zu Gesamt-Summary (1× Query)

Praxis: Selbst bei 1M Context Window braucht man manchmal kreative Lösungen.

Entscheidungshilfe: Welches Context Window brauchen Sie?

Context Window Decision Tree

→ Ihre Dokumente sind <80 Seiten?

✅ GPT-4o (128K) reicht völlig

Vorteil: Bestes Preis-Leistungs-Verhältnis

→ Ihre Dokumente sind 80-140 Seiten?

✅ Claude (200K) ist perfekt

Vorteil: Beste Analyse-Qualität

→ Ihre Dokumente sind >140 Seiten?

✅ Gemini (1M) ist Pflicht

Vorteil: Größtes Context Window

→ Sie brauchen Video-Analyse?

✅ Nur Gemini kann Video nativ verarbeiten

Vorteil: 11h Video = 1M Tokens

Context Window Demo

Live-Test: 100-Seiten-Dokument mit allen drei Modellen analysieren. Sehen Sie den Unterschied selbst!

Demo buchen →

Fazit: Context Window ist wichtig - aber nicht für alle

Context Window ist ein wichtiges Differenzierungsmerkmal - aber nur für bestimmte Use Cases.

Wann Context Window entscheidend ist:

  • ✅ Lange Dokumente (>50 Seiten)
  • ✅ Große Codebasen (>20.000 Zeilen)
  • ✅ Multi-Dokument-Analysen
  • ✅ Video-Analyse (nur Gemini)
  • ✅ Kontext-intensive Aufgaben

Wann Context Window egal ist:

  • ✅ Kurze Chats, FAQs
  • ✅ Content-Erstellung
  • ✅ Kleine Code-Snippets
  • ✅ Standard-Anfragen

Die Modell-Empfehlung:

  • Standard-Nutzung (90%): GPT-4o (128K reicht)
  • Lange Dokumente (9%): Gemini (1M)
  • Höchste Qualität (1%): Claude (200K, aber beste Analyse)

Die Multi-Model-Strategie: Plotdesk bietet alle drei - automatische Auswahl je nach Dokumentgröße:

  • <80 Seiten → GPT-4o
  • 80-140 Seiten → Claude
  • 140 Seiten → Gemini

Das Ergebnis: Optimale Qualität bei niedrigsten Kosten - automatisch.

Bereit, Ihre
KI-Transformation zu starten?

Lassen Sie uns in einem kostenlosen Gespräch analysieren, wie Plotdesk Ihr Unternehmen produktiver macht.

30 Tage kostenlos testen
Setup in unter einer Woche
100% DSGVO-konform

Vertraut von führenden Unternehmen

Plotdesk Kunde Plotdesk Kunde Plotdesk Kunde
+10k
Bereits über 10.000 Nutzer arbeiten täglich mit Plotdesk