クイックスタート
AllToken を使い始めましょう。
はじめに
AllToken は統一された API を提供し、単一のインターフェースから数百の AI モデルにアクセスできます。自動フェイルオーバーと最もコスト効率の高いオプションの選択を自動で処理します。
数行のコードで、お好みの SDK やフレームワークを使って呼び出しを開始できます。
Base URL: https://api.alltoken.ai/v1
認証方式: Bearer API Key
互換性: OpenAI 互換 API
API Key の取得
始める前に、API Key を作成してください:
- 設定 → API Keys に移動します
- 新しい Key を作成 をクリックします
- Key をコピーして安全に保管してください — 一度しか表示されません
API Key は厳重に管理し、クライアントコードや公開リポジトリには絶対に公開しないでください。
SDK のインストール
AllToken は OpenAI SDK と完全に互換性があります。お好みのパッケージマネージャーでインストールしてください:
npm
$ npm install openai次に環境変数を設定します:
Shell
$ export ALLTOKEN_API_KEY="your_alltoken_api_key"最初のリクエストを送信する
クライアントを作成し、モデルを選択して、チャットリクエストを送信します:
TypeScript
| 1 | import OpenAI from 'openai'; |
| 2 | |
| 3 | const client = new OpenAI({ |
| 4 | apiKey: process.env.ALLTOKEN_API_KEY, |
| 5 | baseURL: 'https://api.alltoken.ai/v1', |
| 6 | }); |
| 7 | |
| 8 | const completion = await client.chat.completions.create({ |
| 9 | model: 'deepseek-chat', |
| 10 | messages: [ |
| 11 | { |
| 12 | role: 'user', |
| 13 | content: '人生の意味とは何ですか?', |
| 14 | }, |
| 15 | ], |
| 16 | }); |
| 17 | |
| 18 | console.log(completion.choices[0]?.message?.content); |
Python の例
Python
| 1 | from openai import OpenAI |
| 2 | import os |
| 3 | |
| 4 | client = OpenAI( |
| 5 | api_key=os.environ.get("ALLTOKEN_API_KEY"), |
| 6 | base_url="https://api.alltoken.ai/v1", |
| 7 | ) |
| 8 | |
| 9 | completion = client.chat.completions.create( |
| 10 | model="deepseek-chat", |
| 11 | messages=[ |
| 12 | {"role": "user", "content": "人生の意味とは何ですか?"} |
| 13 | ], |
| 14 | ) |
| 15 | |
| 16 | print(completion.choices[0].message.content) |
API を直接呼び出す
cURL や任意の HTTP クライアントを使って API を直接呼び出すこともできます:
cURL
| 1 | curl https://api.alltoken.ai/v1/chat/completions \ |
| 2 | -H "Authorization: Bearer $ALLTOKEN_API_KEY" \ |
| 3 | -H "Content-Type: application/json" \ |
| 4 | -d '{ |
| 5 | "model": "deepseek-chat", |
| 6 | "messages": [ |
| 7 | {"role": "user", "content": "こんにちは!"} |
| 8 | ] |
| 9 | }' |
ストリーミングレスポンス
stream: true を追加すると、Server-Sent Events 経由でトークンを逐次受け取ることができます:
TypeScript
| 1 | const stream = await client.chat.completions.create({ |
| 2 | model: 'deepseek-chat', |
| 3 | messages: [{ role: 'user', content: '物語を聞かせてください' }], |
| 4 | stream: true, |
| 5 | }); |
| 6 | |
| 7 | for await (const chunk of stream) { |
| 8 | const content = chunk.choices[0]?.delta?.content; |
| 9 | if (content) process.stdout.write(content); |
| 10 | } |
詳細なストリーミングドキュメントは ストリーミングレスポンス を参照してください。
次のステップ
- 利用可能なモデルを見る — 価格、機能、コンテキストウィンドウを比較する
- 認証 — API Key の管理とセキュリティ
- ストリーミングレスポンス — リアルタイムレスポンス処理
- モデルルーティング — 自動プロバイダー選択とフェイルオーバー
- API リファレンス — Chat Completions API の完全なドキュメント