Documentation Index
Fetch the complete documentation index at: https://wb-21fd5541-john-wbdocs-2044-rename-serverless-products.mintlify.app/llms.txt
Use this file to discover all available pages before exploring further.
Openrouter.ai は、多数の LLM 向けの統一インターフェースです。OpenAI GPT-4、Anthropic Claude、Google Gemini などの基盤モデルに加え、Llama-3、Mixtral、さらにそのほか多数のオープンソースモデルもサポートしています。一部のモデルは無料で提供されています。
OpenRouter は REST API と OpenAI SDK との互換性 (ドキュメント) を提供しており、Weave はこれを自動的に検出して統合します (詳細は OpenRouter のクイックスタートを参照してください) 。
OpenAI SDK のコードを OpenRouter に切り替えるには、APIキーを自分の OpenRouter API キーに、base_url を https://openrouter.ai/api/v1 に、モデルを多数あるチャットモデルのいずれかに変更してください。weave.init() を呼び出すときは、トレース用のプロジェクト名を指定してください。指定しない場合は、デフォルトの entity が使用されます。デフォルトの entity を検索または更新するには、W&B Models ドキュメントの User Settings を参照してください。
import os
import openai
import weave
weave.init('openrouter-weave')
system_content = "You are a travel agent. Be descriptive and helpful."
user_content = "Tell me about San Francisco"
client = openai.OpenAI(
api_key=os.environ.get("OPENROUTER_API_KEY"),
base_url="https://openrouter.ai/api/v1",
)
chat_completion = client.chat.completions.create(
extra_headers={
"HTTP-Referer": $YOUR_SITE_URL, # 省略可能。openrouter.ai のランキングにアプリを掲載する場合に使用します。
"X-Title": $YOUR_APP_NAME, # 省略可能。openrouter.ai のランキングに表示されます。
},
model="meta-llama/llama-3.1-8b-instruct:free",
messages=[
{"role": "system", "content": system_content},
{"role": "user", "content": user_content},
],
temperature=0.7,
max_tokens=1024,
)
response = chat_completion.choices[0].message.content
print("モデルの応答:\n", response)
これは使い始めるための簡単な例ですが、より複雑なユースケースで独自の関数を Weave と統合する方法の詳細については、OpenAI ガイドを参照してください。