Démarrage rapide
Commencez à utiliser AllToken.
Introduction
AllToken fournit une API unifiée vous permettant d'accéder à des centaines de modèles d'IA via une interface unique, tout en gérant automatiquement le basculement et en sélectionnant l'option la plus rentable.
En quelques lignes de code, vous pouvez commencer à effectuer des appels avec votre SDK ou votre framework préféré.
Base URL : https://api.alltoken.ai/v1
Authentification : Bearer API Key
Compatibilité : API compatible OpenAI
Obtenir une clé API
Avant de commencer, créez une clé API :
- Rendez-vous dans Paramètres → Clés API
- Cliquez sur Créer une nouvelle clé
- Copiez et conservez la clé en lieu sûr — elle ne sera affichée qu'une seule fois
Gardez votre clé API confidentielle. Ne l'exposez pas dans du code côté client ni dans des dépôts publics.
Installer le SDK
AllToken est entièrement compatible avec le SDK OpenAI. Installez-le avec votre gestionnaire de paquets préféré :
$ npm install openaiPuis définissez la variable d'environnement :
$ export ALLTOKEN_API_KEY="your_alltoken_api_key"Envoyer votre première requête
Créez un client, choisissez un modèle et envoyez une requête de chat :
| 1 | import OpenAI from 'openai'; |
| 2 | |
| 3 | const client = new OpenAI({ |
| 4 | apiKey: process.env.ALLTOKEN_API_KEY, |
| 5 | baseURL: 'https://api.alltoken.ai/v1', |
| 6 | }); |
| 7 | |
| 8 | const completion = await client.chat.completions.create({ |
| 9 | model: 'deepseek-chat', |
| 10 | messages: [ |
| 11 | { |
| 12 | role: 'user', |
| 13 | content: 'Quel est le sens de la vie ?', |
| 14 | }, |
| 15 | ], |
| 16 | }); |
| 17 | |
| 18 | console.log(completion.choices[0]?.message?.content); |
Exemple Python
| 1 | from openai import OpenAI |
| 2 | import os |
| 3 | |
| 4 | client = OpenAI( |
| 5 | api_key=os.environ.get("ALLTOKEN_API_KEY"), |
| 6 | base_url="https://api.alltoken.ai/v1", |
| 7 | ) |
| 8 | |
| 9 | completion = client.chat.completions.create( |
| 10 | model="deepseek-chat", |
| 11 | messages=[ |
| 12 | {"role": "user", "content": "Quel est le sens de la vie ?"} |
| 13 | ], |
| 14 | ) |
| 15 | |
| 16 | print(completion.choices[0].message.content) |
Appel direct à l'API
Vous pouvez également appeler l'API directement avec cURL ou tout autre client HTTP :
| 1 | curl https://api.alltoken.ai/v1/chat/completions \ |
| 2 | -H "Authorization: Bearer $ALLTOKEN_API_KEY" \ |
| 3 | -H "Content-Type: application/json" \ |
| 4 | -d '{ |
| 5 | "model": "deepseek-chat", |
| 6 | "messages": [ |
| 7 | {"role": "user", "content": "Bonjour !"} |
| 8 | ] |
| 9 | }' |
Réponses en streaming
Ajoutez stream: true pour recevoir les tokens au fur et à mesure via Server-Sent Events :
| 1 | const stream = await client.chat.completions.create({ |
| 2 | model: 'deepseek-chat', |
| 3 | messages: [{ role: 'user', content: 'Raconte-moi une histoire' }], |
| 4 | stream: true, |
| 5 | }); |
| 6 | |
| 7 | for await (const chunk of stream) { |
| 8 | const content = chunk.choices[0]?.delta?.content; |
| 9 | if (content) process.stdout.write(content); |
| 10 | } |
Consultez la documentation Streaming pour plus de détails.
Prochaines étapes
- Parcourir les modèles disponibles — comparer les prix, les fonctionnalités et les fenêtres de contexte
- Authentification — gestion et sécurité des clés API
- Streaming — traitement des réponses en temps réel
- Routage des modèles — sélection automatique du fournisseur et basculement
- Référence API — documentation complète de l'API Chat Completions