W&B Weave는 널리 사용되는 LLM 제공업체와 오케스트레이션 프레임워크를 위한 로깅 인테그레이션을 제공합니다. 이러한 인테그레이션을 사용하면 다양한 라이브러리를 통해 이루어지는 호출을 원활하게 트레이스할 수 있어, AI 애플리케이션을 모니터링하고 분석하는 능력을 높일 수 있습니다. 애플리케이션에서 LLM 제공업체 라이브러리(OpenAI, Anthropic, Cohere, Mistral 등)를 사용하는 경우, 해당 API 호출이 W&B Weave에 트레이스된 Calls로 표시되기를 원할 것입니다. 여기에는 inputs, outputs, 지연 시간, token 사용량, 비용이 포함됩니다. 이를 지원하는 기능이 없으면 모든Documentation Index
Fetch the complete documentation index at: https://wb-21fd5541-john-wbdocs-2044-rename-serverless-products.mintlify.app/llms.txt
Use this file to discover all available pages before exploring further.
client.chat.completions.create()(또는 이에 해당하는 호출)를 @weave.op 또는 수동 계측으로 감싸야 하며, 이는 번거롭고 빠뜨리기 쉽습니다.
Weave는 지원되는 LLM 클라이언트 라이브러리를 자동으로 가로채(패치)합니다. 애플리케이션 코드는 변경되지 않습니다. 평소처럼 제공업체 SDK를 사용하면 각 요청이 Weave Call로 기록됩니다. 최소한의 설정으로 전체 트레이싱을 이용할 수 있습니다.
LLM 제공업체
- W&B Inference Service
- Amazon Bedrock
- Anthropic
- Cerebras
- Cohere
- Groq
- Hugging Face Hub
- LiteLLM
- Microsoft Azure
- MistralAI
- NVIDIA NIM
- OpenAI
- OpenRouter
- Together AI
프레임워크
- OpenAI Agents SDK
- LangChain
- LlamaIndex
- DSPy
- Instructor
- CrewAI
- Smolagents
- PydanticAI
- Google Agent Development Kit (ADK)
- AutoGen
- Verdict
- TypeScript SDK
- Vercel AI SDK
- Agno
- Koog