メインコンテンツへスキップ

プロバイダー一覧

ARouter は以下のプロバイダーをサポートしています。すべてのプロバイダーは OpenAI 互換の /v1/chat/completions エンドポイントから provider/model 形式でアクセスできます。
Provider ID: openai
モデル説明
gpt-5.4フラッグシップマルチモーダルモデル
gpt-5.4-mini高速かつコスト効率が高い
gpt-5.4-nano超軽量、分類・抽出に最適
o4-mini最新のコンパクト推論モデル
o3高度な推論モデル
response = client.chat.completions.create(
    model="openai/gpt-5.4",
    messages=[{"role": "user", "content": "Hello!"}],
)
Provider ID: anthropic
モデル説明
claude-sonnet-4.6最新 Sonnet — 最もバランスの取れた性能
claude-opus-4.6最も高性能な Claude モデル
claude-haiku-4.5高速かつ軽量
OpenAI 互換エンドポイントと Anthropic ネイティブエンドポイントの両方に対応:
# OpenAI SDK 経由
response = client.chat.completions.create(
    model="anthropic/claude-sonnet-4.6", ...
)

# Anthropic SDK 経由(ネイティブ)
message = anthropic_client.messages.create(
    model="claude-sonnet-4.6", ...
)
Provider ID: google
モデル説明
gemini-2.5-flash思考機能内蔵の高速マルチモーダルモデル
gemini-2.5-pro最も高性能な Gemini モデル、1M コンテキスト対応
OpenAI 互換エンドポイントと Gemini ネイティブエンドポイントの両方に対応:
# OpenAI SDK 経由
response = client.chat.completions.create(
    model="google/gemini-2.5-flash", ...
)

# Gemini SDK 経由(ネイティブ)
model = genai.GenerativeModel("gemini-2.5-flash")
response = model.generate_content("Hello!")
Provider ID: deepseek
モデル説明
deepseek-v3.2フラッグシップ汎用モデル — GPT-5 クラスを低コストで実現
deepseek-r1Chain-of-Thought 推論モデル
response = client.chat.completions.create(
    model="deepseek/deepseek-v3.2", ...
)
Provider ID: x-ai
モデル説明
grok-4.20最新フラッグシップモデル、最低幻覚率
grok-4.1-fast超高速モデル、2M コンテキストウィンドウ対応
response = client.chat.completions.create(
    model="x-ai/grok-4.20", ...
)
Provider ID: mistralai
モデル説明
mistral-large-2512Mistral Large 3 — 最も高性能な Mistral モデル
mistral-medium-3.1性能とコストのバランス
codestral-2508コード生成に最適化
response = client.chat.completions.create(
    model="mistralai/mistral-large-2512", ...
)
Provider ID: groq
モデル説明
meta-llama/llama-4-maverickGroq 上の Llama 4 Maverick — マルチモーダル、超高速
meta-llama/llama-4-scoutGroq 上の Llama 4 Scout — 1000 万コンテキストウィンドウ
response = client.chat.completions.create(
    model="groq/meta-llama/llama-4-maverick", ...
)
Provider ID: moonshotai
モデル説明
kimi-k2.5最新 Kimi フラッグシップ — ビジョン対応マルチモーダル
response = client.chat.completions.create(
    model="moonshotai/kimi-k2.5", ...
)
Provider ID: minimax
モデル説明
minimax-m2.7最新フラッグシップ — 長文コンテキスト推論
MiniMax ネイティブエンドポイントにも対応:
response = client.chat.completions.create(
    model="minimax/minimax-m2.7", ...
)
Provider ID: meta-llama
モデル説明
llama-4-maverickLlama 4 フラッグシップ — ネイティブマルチモーダル、128K コンテキスト
llama-4-scoutLlama 4 Scout — 1000 万コンテキストウィンドウ、単一 GPU で効率的
response = client.chat.completions.create(
    model="meta-llama/llama-4-maverick", ...
)
Provider ID: qwen
モデル説明
qwen3.5-397b-a17bQwen 3.5 フラッグシップ — 動画理解対応マルチモーダル
qwen3-coder4800 億パラメータのコーディング専門モデル
response = client.chat.completions.create(
    model="qwen/qwen3.5-397b-a17b", ...
)

利用可能なモデルの一覧取得

models エンドポイントを使用して、現在の API key でアクセスできるすべてのモデルを確認できます:
curl https://api.arouter.ai/v1/models \
  -H "Authorization: Bearer lr_live_xxxx"
レスポンス例:
{
  "object": "list",
  "data": [
    {
      "id": "openai/gpt-5.4",
      "object": "model",
      "owned_by": "openai"
    },
    {
      "id": "anthropic/claude-sonnet-4.6",
      "object": "model",
      "owned_by": "anthropic"
    }
  ]
}
モデル一覧は API key の allowed_providers 設定に基づいてフィルタリングされます。 key でプロバイダーが制限されている場合、許可されたプロバイダーのモデルのみが表示されます。