W&B Weave は、主要な LLM プロバイダーやオーケストレーションフレームワーク向けの logging インテグレーションを提供します。これらのインテグレーションを使用すると、さまざまなライブラリ経由で行われる calls をシームレスにトレースでき、AI application の監視や分析をより効果的に行えます。 application で LLM プロバイダーのライブラリ (OpenAI、Anthropic、Cohere、Mistral など) を使用している場合、それらの API calls を、inputs、outputs、レイテンシ、token usage、コストを含むトレース済みの Calls として W&B Weave に表示したいはずです。こうした支援がなければ、すべてのDocumentation Index
Fetch the complete documentation index at: https://wb-21fd5541-john-wbdocs-2044-rename-serverless-products.mintlify.app/llms.txt
Use this file to discover all available pages before exploring further.
client.chat.completions.create() (または同等のもの) を @weave.op または手動インストルメンテーションでラップする必要があり、手間がかかるうえに見落としも起きがちです。
Weave は、サポートされる LLM クライアントライブラリを自動的にインターセプト (パッチ適用) します。application のコードはそのままで、通常どおりプロバイダー SDK を使用するだけで、各 request が Weave Call として記録されます。最小限の setup で完全なトレースを実現できます。
LLM プロバイダー
- W&B Inference Service
- Amazon Bedrock
- Anthropic
- Cerebras
- Cohere
- Groq
- Hugging Face Hub
- LiteLLM
- Microsoft Azure
- MistralAI
- NVIDIA NIM
- OpenAI
- OpenRouter
- Together AI
フレームワーク
- OpenAI Agents SDK
- LangChain
- LlamaIndex
- DSPy
- Instructor
- CrewAI
- Smolagents
- PydanticAI
- Google Agent Development Kit (ADK)
- AutoGen
- Verdict
- TypeScript SDK
- Vercel AI SDK
- Agno
- Koog