チャット補完
会話に対するモデルのレスポンスを生成する。
エンドポイント
POST
$ POST https://api.alltoken.ai/v1/chat/completionsリクエストボディ
JSON
| 1 | { |
| 2 | "model": "deepseek-chat", |
| 3 | "messages": [ |
| 4 | { "role": "system", "content": "あなたは役立つアシスタントです。" }, |
| 5 | { "role": "user", "content": "こんにちは!" } |
| 6 | ], |
| 7 | "stream": false, |
| 8 | "temperature": 0.7, |
| 9 | "max_tokens": 1024 |
| 10 | } |
パラメーター
model(必須) — モデル ID(例:"deepseek-chat")messages(必須) —roleとcontentを含むメッセージオブジェクトの配列stream—trueで SSE ストリーミングを有効化、falseで完全なレスポンスを返す(デフォルト:false)temperature— サンプリング温度、0〜2(デフォルト:1)top_p— 核サンプリング、0〜1(デフォルト:1)max_tokens— 生成する最大トークン数frequency_penalty— 頻度ペナルティ、-2〜2(デフォルト:0)presence_penalty— 存在ペナルティ、-2〜2(デフォルト:0)tools— ツール/関数定義の配列response_format—{"type": "json_object"}で JSON 出力を保証web_search—trueでウェブ検索を有効化(モデルによって異なります)
メッセージロール
system— モデルの動作とコンテキストを設定するuser— ユーザーメッセージassistant— モデルの以前の返答(マルチターン会話に使用)tool— 関数呼び出しの結果(tool_call_id付き)
レスポンス
JSON
| 1 | { |
| 2 | "id": "chatcmpl-abc123", |
| 3 | "object": "chat.completion", |
| 4 | "created": 1700000000, |
| 5 | "model": "deepseek-chat", |
| 6 | "choices": [ |
| 7 | { |
| 8 | "index": 0, |
| 9 | "message": { |
| 10 | "role": "assistant", |
| 11 | "content": "こんにちは!何かお手伝いできますか?" |
| 12 | }, |
| 13 | "finish_reason": "stop" |
| 14 | } |
| 15 | ], |
| 16 | "usage": { |
| 17 | "prompt_tokens": 12, |
| 18 | "completion_tokens": 10, |
| 19 | "total_tokens": 22 |
| 20 | } |
| 21 | } |