Was ist ein „Token“ ?

Wer sich mit KI-Tools wie ChatGPT, Claude oder Gemini beschäftigt, stößt früher oder später auf den Begriff „Token“. Besonders bei Fragen wie: „Wie lang darf mein Prompt sein?“ oder „Wieso wurde mein Text abgeschnitten?“ spielt das eine zentrale Rolle. Doch was genau ist eigentlich ein Token – und warum sind Tokens das Herzstück moderner Sprach-KI?

Token – die Bausteine der KI-Sprache

Ein Token ist die kleinste Informationseinheit, mit der ein Sprachmodell arbeitet. Dabei handelt es sich nicht unbedingt um ein ganzes Wort. Vielmehr kann ein Token:

  • ein vollständiges Wort sein (z. B. Haus)
  • ein Teil eines Wortes (z. B. „Un-„, „glaub-„, „lich“)
  • oder auch Satzzeichen und Leerzeichen umfassen.

Beispiel: Der Satz „Das ist unglaublich!“ besteht aus etwa 4–5 Tokens, je nachdem, wie das Modell tokenisiert (also zerlegt). Das englische Pendant „This is unbelievable!“ wären eher 6–7 Tokens, weil „unbelievable“ in mehrere Wortteile aufgesplittet wird.

Warum Tokens so wichtig sind

Jedes KI-Sprachmodell – egal ob GPT, LLaMA oder Claude, etc. – hat ein TokenLimit, das angibt, wie viele Tokens es gleichzeitig „verarbeiten“ kann. Dieses Limit betrifft sowohl:

  1. den Prompt (also die Eingabe), als auch
  2. die Ausgabe (also die Antwort der KI).

Wer z. B. ein Modell mit einem Limit von 4.000 Tokens nutzt und eine 3.500 Token lange Eingabe vorgibt, so bleiben nur 500 Tokens für die Antwort. Klingt nach wenig? Das ist es auch. Deshalb achten viele KI-Profis bewusst auf die Token-Anzahl bei langen Prompts.

Token ≠ Wortanzahl

Wichtig: Tokens sind nicht dasselbe wie Wörter. Die Faustregel lautet:

  • 1.000 Tokens = ca. 750 Wörter auf Englisch
  • Auf Deutsch kann es mehr sein, weil Wörter oft länger zusammengesetzt sind

Die genaue Umrechnung hängt stark von Sprache, Stil und Modell ab.

Tokens und Kosten

Bei vielen kommerziellen KI-Tools wie z.B. OpenAI, Anthropic oder Google Cloud AI werden Tokens auch für die Abrechnung genutzt. Man bezahlt nicht „pro Anfrage“, sondern:

  • pro 1.000 Tokens
  • und zwar getrennt für Input-Tokens (Prompt) und Output-Tokens (Antwort)

Das bedeutet: Je länger das Prompt oder je ausführlicher die Antwort, desto mehr Tokens werden verbraucht – und desto mehr kostet es.

KI-Chat-ToolToken-Limit EingabeToken-Limit Ausgabe
ChatGPT (GPT-4)128.0004.096
Google Gemini32.7688.192
Meta Llama 3131.0004.096
Microsoft Copilot32.0002.000
Claude100.0004.096
Perplexity AI50.0002.000
YouChat32.0002.000
Jasper Chat20.0001.000
Replika10.0001.000
Poe20.0002.000
Stand: 20.04.2025 – Token-Limits verändern sich oftmals. Prüfen Sie Ihr KI-Tool Anfangs in regelmäßigen Abständen. Die hier aufgeführte Liste zeigt beispielhaft nur wenige KI-Tools und ist nicht vollständig.

Tokens in der Praxis

Die Kenntnis über Tokens helfen konkret dabei:

  • lange Texte effizient in Prompts zu verpacken
  • nicht versehentlich Antworten abzuschneiden
  • bei bezahlten Tools Kosten zu kontrollieren
  • bessere Prompts zu schreiben (Prompt Engineering)

Viele KI-Plattformen bieten mittlerweile Token-Zähler an, z. B. in der Entwicklerkonsole oder als Plug-in für IDEs oder Browser.

Tokens sind die Währung der Sprach-KI. Sie bestimmen, wie viel Text ein Modell verarbeiten kann, wie schnell es antwortet, und was es kostet. Wer versteht, wie Tokens funktionieren, kann nicht nur effizienter mit KI-Tools arbeiten, sondern auch gezielter bessere Ergebnisse erzielen – und bares Geld sparen.