メインコンテンツへスキップ

OpenAI SDK

OpenAI Python SDK はそのまま ARouter と連携できます。

インストール

pip install openai

基本的な使い方

from openai import OpenAI

client = OpenAI(
    base_url="https://api.arouter.ai/v1",
    api_key="lr_live_xxxx",
)

response = client.chat.completions.create(
    model="openai/gpt-5.4",
    messages=[{"role": "user", "content": "量子コンピューティングを一文で説明してください。"}],
)
print(response.choices[0].message.content)

マルチプロバイダールーティング

モデル文字列を変更してプロバイダーを切り替えます:
# OpenAI SDK 経由で Anthropic を使用
response = client.chat.completions.create(
    model="anthropic/claude-sonnet-4.6",
    messages=[{"role": "user", "content": "Hello!"}],
)

# OpenAI SDK 経由で DeepSeek を使用
response = client.chat.completions.create(
    model="deepseek/deepseek-v3.2",
    messages=[{"role": "user", "content": "Hello!"}],
)

# OpenAI SDK 経由で Gemini を使用
response = client.chat.completions.create(
    model="google/gemini-2.5-flash",
    messages=[{"role": "user", "content": "Hello!"}],
)

ストリーミング

stream = client.chat.completions.create(
    model="openai/gpt-5.4",
    messages=[{"role": "user", "content": "コードについての俳句を書いてください。"}],
    stream=True,
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="")

非同期

import asyncio
from openai import AsyncOpenAI

client = AsyncOpenAI(
    base_url="https://api.arouter.ai/v1",
    api_key="lr_live_xxxx",
)

async def main():
    response = await client.chat.completions.create(
        model="openai/gpt-5.4",
        messages=[{"role": "user", "content": "Hello!"}],
    )
    print(response.choices[0].message.content)

asyncio.run(main())

エンベディング

response = client.embeddings.create(
    model="openai/text-embedding-3-small",
    input="The quick brown fox jumps over the lazy dog",
)
print(response.data[0].embedding[:5])

Anthropic SDK

Anthropic Python SDK はそのまま使用できます。

インストール

pip install anthropic

基本的な使い方

import anthropic

client = anthropic.Anthropic(
    base_url="https://api.arouter.ai",
    api_key="lr_live_xxxx",
)

message = client.messages.create(
    model="claude-sonnet-4.6",
    max_tokens=1024,
    messages=[{"role": "user", "content": "Hello!"}],
)
print(message.content[0].text)
Anthropic SDK を使用する場合、base_urlhttps://api.arouter.ai/v1 なし)に設定してください。 SDK が自動的に /v1/messages を追加します。

ストリーミング

with client.messages.stream(
    model="claude-sonnet-4.6",
    max_tokens=1024,
    messages=[{"role": "user", "content": "物語を書いてください。"}],
) as stream:
    for text in stream.text_stream:
        print(text, end="")

Gemini SDK

Google Generative AI Python SDK は API エンドポイントを設定することで使用できます。

インストール

pip install google-generativeai

基本的な使い方

import google.generativeai as genai

genai.configure(
    api_key="lr_live_xxxx",
    transport="rest",
    client_options={"api_endpoint": "https://api.arouter.ai"},
)

model = genai.GenerativeModel("gemini-2.5-flash")
response = model.generate_content("Hello!")
print(response.text)
transport="rest" パラメータは必須です。Gemini SDK はデフォルトで gRPC を使用しますが、 ARouter は gRPC をサポートしていません。