Complétions de chat

Générez des réponses de modèle pour des conversations.

Point de terminaison

POST
$ POST https://api.alltoken.ai/v1/chat/completions

Corps de la requête

JSON
1{
2 "model": "deepseek-chat",
3 "messages": [
4 { "role": "system", "content": "Vous êtes un assistant utile." },
5 { "role": "user", "content": "Bonjour !" }
6 ],
7 "stream": false,
8 "temperature": 0.7,
9 "max_tokens": 1024
10}

Paramètres

  • model (obligatoire) — identifiant du modèle (ex. "deepseek-chat")
  • messages (obligatoire) — tableau d'objets messages avec role et content
  • streamtrue pour activer le streaming SSE, false pour une réponse complète (défaut : false)
  • temperature — température d'échantillonnage, 0–2 (défaut : 1)
  • top_p — nucleus sampling, 0–1 (défaut : 1)
  • max_tokens — nombre maximum de tokens à générer
  • frequency_penalty — pénalité de fréquence, -2 à 2 (défaut : 0)
  • presence_penalty — pénalité de présence, -2 à 2 (défaut : 0)
  • tools — tableau de définitions d'outils/fonctions
  • response_format{"type": "json_object"} pour garantir une sortie JSON
  • web_searchtrue pour activer la recherche web (selon le modèle)

Rôles des messages

  • system — définit le comportement et le contexte du modèle
  • user — message de l'utilisateur
  • assistant — réponse précédente du modèle (pour les conversations multi-tours)
  • tool — résultat d'un appel de fonction (avec tool_call_id)

Réponse

JSON
1{
2 "id": "chatcmpl-abc123",
3 "object": "chat.completion",
4 "created": 1700000000,
5 "model": "deepseek-chat",
6 "choices": [
7 {
8 "index": 0,
9 "message": {
10 "role": "assistant",
11 "content": "Bonjour ! Comment puis-je vous aider ?"
12 },
13 "finish_reason": "stop"
14 }
15 ],
16 "usage": {
17 "prompt_tokens": 12,
18 "completion_tokens": 10,
19 "total_tokens": 22
20 }
21}