チャット補完

会話に対するモデルのレスポンスを生成する。

エンドポイント

POST
$ POST https://api.alltoken.ai/v1/chat/completions

リクエストボディ

JSON
1{
2 "model": "deepseek-chat",
3 "messages": [
4 { "role": "system", "content": "あなたは役立つアシスタントです。" },
5 { "role": "user", "content": "こんにちは!" }
6 ],
7 "stream": false,
8 "temperature": 0.7,
9 "max_tokens": 1024
10}

パラメーター

  • model (必須) — モデル ID(例:"deepseek-chat"
  • messages (必須)rolecontent を含むメッセージオブジェクトの配列
  • streamtrue で SSE ストリーミングを有効化、false で完全なレスポンスを返す(デフォルト:false)
  • temperature — サンプリング温度、0〜2(デフォルト:1)
  • top_p — 核サンプリング、0〜1(デフォルト:1)
  • max_tokens — 生成する最大トークン数
  • frequency_penalty — 頻度ペナルティ、-2〜2(デフォルト:0)
  • presence_penalty — 存在ペナルティ、-2〜2(デフォルト:0)
  • tools — ツール/関数定義の配列
  • response_format{"type": "json_object"} で JSON 出力を保証
  • web_searchtrue でウェブ検索を有効化(モデルによって異なります)

メッセージロール

  • system — モデルの動作とコンテキストを設定する
  • user — ユーザーメッセージ
  • assistant — モデルの以前の返答(マルチターン会話に使用)
  • tool — 関数呼び出しの結果(tool_call_id 付き)

レスポンス

JSON
1{
2 "id": "chatcmpl-abc123",
3 "object": "chat.completion",
4 "created": 1700000000,
5 "model": "deepseek-chat",
6 "choices": [
7 {
8 "index": 0,
9 "message": {
10 "role": "assistant",
11 "content": "こんにちは!何かお手伝いできますか?"
12 },
13 "finish_reason": "stop"
14 }
15 ],
16 "usage": {
17 "prompt_tokens": 12,
18 "completion_tokens": 10,
19 "total_tokens": 22
20 }
21}