Modelle

Verfügbare KI-Modelle auf AllToken durchsuchen und vergleichen.

Verfügbare Modelle

AllToken bündelt mehr als 300 Modelle von über 60 Anbietern über eine einheitliche API. Jedes Modell unterscheidet sich hinsichtlich Kosten, Geschwindigkeit, Kontextfenster und Funktionsumfang.

Durchsuchen Sie den vollständigen Katalog auf der Modellseite oder fragen Sie ihn programmatisch über die Modell-API ab.

Modell-ID

Jedes Modell hat eine eindeutige ID, die im Parameter model einer API-Anfrage verwendet wird:

Beispiel
1const completion = await client.chat.completions.create({
2 model: 'claude-sonnet-4', // Modell-ID
3 messages: [{ role: 'user', content: 'Hallo' }],
4});

Häufig verwendete Modell-IDs:

  • gpt-4o — OpenAI GPT-4o (multimodal, schnell)
  • claude-sonnet-4 — Anthropic Claude Sonnet 4 (Reasoning, Programmierung)
  • deepseek-chat — DeepSeek Chat (sehr kostengünstig)
  • deepseek-reasoner — DeepSeek Reasoner (erweitertes Denken)
  • gemini-2.5-flash — Google Gemini 2.5 Flash (schnell, multimodal)

Funktionen

Verschiedene Modelle unterstützen unterschiedliche Funktionen:

  • Text — Standardmäßige Textgenerierung (alle Modelle)
  • Multimodal — Bilder und Text als Eingabe
  • Reasoning — Erweitertes Denken / Gedankenkette
  • Funktionsaufrufe — Strukturierte Werkzeugnutzung
  • Websuche — Echtzeitzugriff auf Internetinformationen
  • JSON-Modus — Garantierte JSON-Ausgabe
  • Streaming — Token-weise SSE-Antworten

Filtern Sie auf der Modellseite nach Funktionen oder rufen Sie die Modelldetailseite für die vollständige Liste auf.

Preise

Modelle werden pro Million Tokens abgerechnet (Eingabe und Ausgabe separat). Die Preise variieren je nach Modell und Anbieter:

  • Günstig (DeepSeek Chat) — ab $0,07 / $0,28 pro Million Tokens
  • Mittelklasse (Claude Haiku, GPT-4o mini) — $0,25–$1,00 pro Million Tokens
  • Spitzenklasse (Claude Opus, GPT-4o) — $2,50–$15,00 pro Million Tokens
  • Kostenlos — Einige Modelle sind mit Ratenbegrenzung kostenlos verfügbar

Aktuelle Preise finden Sie auf der jeweiligen Modelldetailseite. Nutzen Sie die Kostenverfolgung, um Ihre Ausgaben zu überwachen.

Kontextfenster

Das Kontextfenster gibt die maximale Anzahl von Tokens an, die ein Modell in einer einzelnen Anfrage verarbeiten kann (Eingabe + Ausgabe). Typische Größen:

  • 128K Tokens — GPT-4o, Claude Sonnet 4, DeepSeek Chat
  • 200K Tokens — Claude Haiku 4.5, Claude Opus 4
  • 1M Tokens — Claude Opus 4.6, Gemini 2.5 Pro

Übersteigt die Eingabe das Kontextfenster, gibt die API einen Fehler zurück. Planen Sie die Prompt-Länge sorgfältig oder verwenden Sie Zusammenfassungsstrategien für lange Dokumente.