跳转到主要内容

提供商列表

ARouter 支持以下提供商。所有提供商均可通过 OpenAI 兼容的 /v1/chat/completions 接口,使用 provider/model 格式进行访问。
Provider ID: openai
模型描述
gpt-5.4旗舰多模态模型
gpt-5.4-mini快速且成本高效
gpt-5.4-nano超轻量级,适合分类与提取任务
o4-mini最新紧凑推理模型
o3高级推理模型
response = client.chat.completions.create(
    model="openai/gpt-5.4",
    messages=[{"role": "user", "content": "Hello!"}],
)
Provider ID: anthropic
模型描述
claude-sonnet-4.6最新 Sonnet — 最佳均衡性能
claude-opus-4.6最强 Claude 模型
claude-haiku-4.5快速轻量
同时支持 OpenAI 兼容接口和 Anthropic 原生接口:
# 通过 OpenAI SDK
response = client.chat.completions.create(
    model="anthropic/claude-sonnet-4.6", ...
)

# 通过 Anthropic SDK(原生)
message = anthropic_client.messages.create(
    model="claude-sonnet-4.6", ...
)
Provider ID: google
模型描述
gemini-2.5-flash快速多模态模型,内置思维链
gemini-2.5-pro最强 Gemini 模型,支持 1M 上下文
同时支持 OpenAI 兼容接口和 Gemini 原生接口:
# 通过 OpenAI SDK
response = client.chat.completions.create(
    model="google/gemini-2.5-flash", ...
)

# 通过 Gemini SDK(原生)
model = genai.GenerativeModel("gemini-2.5-flash")
response = model.generate_content("Hello!")
Provider ID: deepseek
模型描述
deepseek-v3.2旗舰通用模型 — GPT-5 级别,成本仅为其零头
deepseek-r1思维链推理模型
response = client.chat.completions.create(
    model="deepseek/deepseek-v3.2", ...
)
Provider ID: x-ai
模型描述
grok-4.20最新旗舰模型,幻觉率最低
grok-4.1-fast超快模型,支持 2M 上下文窗口
response = client.chat.completions.create(
    model="x-ai/grok-4.20", ...
)
Provider ID: mistralai
模型描述
mistral-large-2512Mistral Large 3 — 最强 Mistral 模型
mistral-medium-3.1性能与成本均衡
codestral-2508专为代码生成优化
response = client.chat.completions.create(
    model="mistralai/mistral-large-2512", ...
)
Provider ID: groq
模型描述
meta-llama/llama-4-maverickGroq 上的 Llama 4 Maverick — 多模态,超快速
meta-llama/llama-4-scoutGroq 上的 Llama 4 Scout — 支持 10M 上下文窗口
response = client.chat.completions.create(
    model="groq/meta-llama/llama-4-maverick", ...
)
Provider ID: moonshotai
模型描述
kimi-k2.5最新 Kimi 旗舰 — 多模态,支持视觉
response = client.chat.completions.create(
    model="moonshotai/kimi-k2.5", ...
)
Provider ID: minimax
模型描述
minimax-m2.7最新旗舰 — 长上下文推理
同时支持 MiniMax 原生接口:
response = client.chat.completions.create(
    model="minimax/minimax-m2.7", ...
)
Provider ID: meta-llama
模型描述
llama-4-maverickLlama 4 旗舰 — 原生多模态,128K 上下文
llama-4-scoutLlama 4 Scout — 10M 上下文窗口,单 GPU 高效运行
response = client.chat.completions.create(
    model="meta-llama/llama-4-maverick", ...
)
Provider ID: qwen
模型描述
qwen3.5-397b-a17bQwen 3.5 旗舰 — 多模态,支持视频理解
qwen3-coder480B 代码专家模型
response = client.chat.completions.create(
    model="qwen/qwen3.5-397b-a17b", ...
)

列出可用模型

使用 models 接口查看当前 API key 可访问的所有模型:
curl https://api.arouter.ai/v1/models \
  -H "Authorization: Bearer lr_live_xxxx"
响应示例:
{
  "object": "list",
  "data": [
    {
      "id": "openai/gpt-5.4",
      "object": "model",
      "owned_by": "openai"
    },
    {
      "id": "anthropic/claude-sonnet-4.6",
      "object": "model",
      "owned_by": "anthropic"
    }
  ]
}
模型列表会根据您的 API key 的 allowed_providers 设置进行过滤。 如果您的 key 限制了提供商,则只有来自允许提供商的模型会显示。