Modèles
Parcourez et comparez les modèles d'IA disponibles sur AllToken.
Modèles disponibles
AllToken agrège plus de 300 modèles provenant de plus de 60 fournisseurs, tous accessibles via une API unique. Chaque modèle se distingue par son coût, sa vitesse, sa fenêtre de contexte et ses fonctionnalités.
Parcourez le catalogue complet sur la page Modèles ou interrogez-le par programmation via l'API Modèles.
Identifiant de modèle
Chaque modèle possède un identifiant unique à utiliser dans le paramètre model de vos requêtes API :
| 1 | const completion = await client.chat.completions.create({ |
| 2 | model: 'claude-sonnet-4', // identifiant du modèle |
| 3 | messages: [{ role: 'user', content: 'Bonjour' }], |
| 4 | }); |
Identifiants de modèles courants :
gpt-4o— OpenAI GPT-4o (multimodal, rapide)claude-sonnet-4— Anthropic Claude Sonnet 4 (raisonnement, programmation)deepseek-chat— DeepSeek Chat (excellent rapport qualité/prix)deepseek-reasoner— DeepSeek Reasoner (réflexion étendue)gemini-2.5-flash— Google Gemini 2.5 Flash (rapide, multimodal)
Fonctionnalités
Les modèles prennent en charge différentes fonctionnalités :
- Texte — génération de texte standard (tous les modèles)
- Multimodal — accepte des images et du texte en entrée
- Raisonnement — réflexion étendue / chaîne de pensée
- Appel de fonctions — utilisation structurée d'outils
- Recherche web — accès en temps réel aux informations d'internet
- Mode JSON — garantit une sortie au format JSON
- Streaming — réponses SSE token par token
Filtrez par fonctionnalité sur la page Modèles ou consultez la page de détail d'un modèle pour la liste complète.
Tarification
Les modèles sont facturés au million de tokens (entrée et sortie facturées séparément). Les prix varient selon le modèle et le fournisseur :
- Économique (DeepSeek Chat) — à partir de 0,07 $ / 0,28 $ par million de tokens
- Milieu de gamme (Claude Haiku, GPT-4o mini) — 0,25 $–1,00 $ par million de tokens
- Haut de gamme (Claude Opus, GPT-4o) — 2,50 $–15,00 $ par million de tokens
- Niveau gratuit — certains modèles sont utilisables gratuitement avec des limites de débit
Consultez la page de détail de chaque modèle pour les prix en temps réel, ou utilisez la fonctionnalité Suivi des coûts pour surveiller vos dépenses.
Fenêtres de contexte
La fenêtre de contexte correspond au nombre maximum de tokens (entrée + sortie) qu'un modèle peut traiter dans une seule requête. Tailles courantes :
- 128K tokens — GPT-4o, Claude Sonnet 4, DeepSeek Chat
- 200K tokens — Claude Haiku 4.5, Claude Opus 4
- 1M tokens — Claude Opus 4.6, Gemini 2.5 Pro
Si l'entrée dépasse la fenêtre de contexte, la requête retourne une erreur. Planifiez soigneusement la longueur de vos prompts, ou utilisez une stratégie de résumé pour les longs documents.