Complétions de chat
Générez des réponses de modèle pour des conversations.
Point de terminaison
POST
$ POST https://api.alltoken.ai/v1/chat/completionsCorps de la requête
JSON
| 1 | { |
| 2 | "model": "deepseek-chat", |
| 3 | "messages": [ |
| 4 | { "role": "system", "content": "Vous êtes un assistant utile." }, |
| 5 | { "role": "user", "content": "Bonjour !" } |
| 6 | ], |
| 7 | "stream": false, |
| 8 | "temperature": 0.7, |
| 9 | "max_tokens": 1024 |
| 10 | } |
Paramètres
model(obligatoire) — identifiant du modèle (ex."deepseek-chat")messages(obligatoire) — tableau d'objets messages avecroleetcontentstream—truepour activer le streaming SSE,falsepour une réponse complète (défaut : false)temperature— température d'échantillonnage, 0–2 (défaut : 1)top_p— nucleus sampling, 0–1 (défaut : 1)max_tokens— nombre maximum de tokens à générerfrequency_penalty— pénalité de fréquence, -2 à 2 (défaut : 0)presence_penalty— pénalité de présence, -2 à 2 (défaut : 0)tools— tableau de définitions d'outils/fonctionsresponse_format—{"type": "json_object"}pour garantir une sortie JSONweb_search—truepour activer la recherche web (selon le modèle)
Rôles des messages
system— définit le comportement et le contexte du modèleuser— message de l'utilisateurassistant— réponse précédente du modèle (pour les conversations multi-tours)tool— résultat d'un appel de fonction (avectool_call_id)
Réponse
JSON
| 1 | { |
| 2 | "id": "chatcmpl-abc123", |
| 3 | "object": "chat.completion", |
| 4 | "created": 1700000000, |
| 5 | "model": "deepseek-chat", |
| 6 | "choices": [ |
| 7 | { |
| 8 | "index": 0, |
| 9 | "message": { |
| 10 | "role": "assistant", |
| 11 | "content": "Bonjour ! Comment puis-je vous aider ?" |
| 12 | }, |
| 13 | "finish_reason": "stop" |
| 14 | } |
| 15 | ], |
| 16 | "usage": { |
| 17 | "prompt_tokens": 12, |
| 18 | "completion_tokens": 10, |
| 19 | "total_tokens": 22 |
| 20 | } |
| 21 | } |