OpenAI SDK
OpenAI Python SDK はそのまま ARouter と連携できます。インストール
pip install openai
基本的な使い方
from openai import OpenAI
client = OpenAI(
base_url="https://api.arouter.ai/v1",
api_key="lr_live_xxxx",
)
response = client.chat.completions.create(
model="openai/gpt-5.4",
messages=[{"role": "user", "content": "量子コンピューティングを一文で説明してください。"}],
)
print(response.choices[0].message.content)
マルチプロバイダールーティング
モデル文字列を変更してプロバイダーを切り替えます:# OpenAI SDK 経由で Anthropic を使用
response = client.chat.completions.create(
model="anthropic/claude-sonnet-4.6",
messages=[{"role": "user", "content": "Hello!"}],
)
# OpenAI SDK 経由で DeepSeek を使用
response = client.chat.completions.create(
model="deepseek/deepseek-v3.2",
messages=[{"role": "user", "content": "Hello!"}],
)
# OpenAI SDK 経由で Gemini を使用
response = client.chat.completions.create(
model="google/gemini-2.5-flash",
messages=[{"role": "user", "content": "Hello!"}],
)
ストリーミング
stream = client.chat.completions.create(
model="openai/gpt-5.4",
messages=[{"role": "user", "content": "コードについての俳句を書いてください。"}],
stream=True,
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")
非同期
import asyncio
from openai import AsyncOpenAI
client = AsyncOpenAI(
base_url="https://api.arouter.ai/v1",
api_key="lr_live_xxxx",
)
async def main():
response = await client.chat.completions.create(
model="openai/gpt-5.4",
messages=[{"role": "user", "content": "Hello!"}],
)
print(response.choices[0].message.content)
asyncio.run(main())
エンベディング
response = client.embeddings.create(
model="openai/text-embedding-3-small",
input="The quick brown fox jumps over the lazy dog",
)
print(response.data[0].embedding[:5])
Anthropic SDK
Anthropic Python SDK はそのまま使用できます。インストール
pip install anthropic
基本的な使い方
import anthropic
client = anthropic.Anthropic(
base_url="https://api.arouter.ai",
api_key="lr_live_xxxx",
)
message = client.messages.create(
model="claude-sonnet-4.6",
max_tokens=1024,
messages=[{"role": "user", "content": "Hello!"}],
)
print(message.content[0].text)
Anthropic SDK を使用する場合、
base_url は https://api.arouter.ai(/v1 なし)に設定してください。
SDK が自動的に /v1/messages を追加します。ストリーミング
with client.messages.stream(
model="claude-sonnet-4.6",
max_tokens=1024,
messages=[{"role": "user", "content": "物語を書いてください。"}],
) as stream:
for text in stream.text_stream:
print(text, end="")
Gemini SDK
Google Generative AI Python SDK は API エンドポイントを設定することで使用できます。インストール
pip install google-generativeai
基本的な使い方
import google.generativeai as genai
genai.configure(
api_key="lr_live_xxxx",
transport="rest",
client_options={"api_endpoint": "https://api.arouter.ai"},
)
model = genai.GenerativeModel("gemini-2.5-flash")
response = model.generate_content("Hello!")
print(response.text)
transport="rest" パラメータは必須です。Gemini SDK はデフォルトで gRPC を使用しますが、
ARouter は gRPC をサポートしていません。