W&B Weave propose des intégrations de logging pour les fournisseurs de LLM et les frameworks d’orchestration les plus courants. Ces intégrations vous permettent de tracer facilement les appels effectués via différentes bibliothèques, ce qui améliore votre capacité à surveiller et analyser vos applications d’IA. Si vous utilisez dans votre application des bibliothèques de fournisseurs de LLM (comme OpenAI, Anthropic, Cohere ou Mistral), vous voulez que ces appels d’API apparaissent dans W&B Weave comme des appels tracés : entrées, sorties, latence, utilisation des tokens et coût. Sans cela, vous devriez encapsuler chaqueDocumentation Index
Fetch the complete documentation index at: https://wb-21fd5541-john-wbdocs-2044-rename-serverless-products.mintlify.app/llms.txt
Use this file to discover all available pages before exploring further.
client.chat.completions.create() (ou équivalent) dans @weave.op ou recourir à une instrumentation manuelle, ce qui est fastidieux et il est facile d’oublier quelque chose.
Weave intercepte automatiquement (patche) les bibliothèques clientes LLM prises en charge. Le code de votre application reste inchangé : vous utilisez le SDK du fournisseur comme d’habitude, et chaque requête est enregistrée comme un appel Weave. Vous bénéficiez d’un tracing complet avec une configuration minimale.
Fournisseurs de LLM
- W&B Inference Service
- Amazon Bedrock
- Anthropic
- Cerebras
- Cohere
- Groq
- Hugging Face Hub
- LiteLLM
- Microsoft Azure
- MistralAI
- NVIDIA NIM
- OpenAI
- OpenRouter
- Together AI
Frameworks
- OpenAI Agents SDK
- LangChain
- LlamaIndex
- DSPy
- Instructor
- CrewAI
- Smolagents
- PydanticAI
- Google Agent Development Kit (ADK)
- AutoGen
- Verdict
- TypeScript SDK
- Vercel AI SDK
- Agno
- Koog