W&B Inference는 여러 오픈 소스 파운데이션 모델에 대한 액세스를 제공합니다. 각 모델은 서로 다른 강점과 사용 사례를 갖고 있습니다.Documentation Index
Fetch the complete documentation index at: https://wb-21fd5541-john-wbdocs-2044-rename-serverless-products.mintlify.app/llms.txt
Use this file to discover all available pages before exploring further.
정식 출시된 모델
| 모델 | 모델 ID(API 사용 시) | 유형 | 컨텍스트 윈도우 | 파라미터 | 설명 |
|---|---|---|---|---|---|
| DeepSeek V3.1 | deepseek-ai/DeepSeek-V3.1 | 텍스트 | 161k | 37B-671B (활성-전체) | 프롬프트 템플릿을 통해 추론 모드와 비추론 모드를 모두 지원하는 대규모 하이브리드 모델입니다. |
| Google Gemma 4 31B | google/gemma-4-31B-it | 텍스트, 비전 | 262k | 310억 개(총계) | Gemma 4 31B Dense는 고급 추론, 에이전트 워크플로, 긴 컨텍스트 처리를 위해 설계되었으며, 140개 이상의 언어로 처음부터 학습되었습니다. |
| Meta Llama 3.3 70B | meta-llama/Llama-3.3-70B-Instruct | 텍스트 | 128k | 700억 개(총계) | 대화형 작업, 세부 지침 준수, 코딩에 뛰어난 다국어 모델입니다. |
| Meta Llama 3.1 70B | meta-llama/Llama-3.1-70B-Instruct | 텍스트 | 128k | 70B (전체) | 응답성이 뛰어난 다국어 챗봇 상호작용에 최적화된 효율적인 대화형 모델입니다. |
| Meta Llama 3.1 8B | meta-llama/Llama-3.1-8B-Instruct | 텍스트 | 128k | 8B (총계) | 빠르게 응답하는 다국어 챗봇 상호작용에 최적화된 효율적인 대화형 모델입니다. |
| Microsoft Phi 4 Mini 3.8B | microsoft/Phi-4-mini-instruct | 텍스트 | 128k | 3.8B (총합) | 컴팩트하고 효율적인 모델로, 자원이 제한된 환경에서 빠르게 응답하는 데 적합합니다. |
| MiniMax M2.5 | MiniMaxAI/MiniMax-M2.5 | 텍스트 | 197k | 10B-230B (Active-Total) | 강력한 코딩 성능을 제공하며, 높은 처리량과 낮은 지연 시간을 위해 설계된 고희소성 아키텍처의 MoE 모델. |
| Moonshot AI Kimi K2.5 | moonshotai/Kimi-K2.5 | 텍스트, 비전 | 262k | 32B-1T (활성-전체) | Kimi K2.5는 활성화된 파라미터 320억 개와 총 1조 개의 파라미터를 갖춘 멀티모달 Mixture-of-Experts 언어 모델입니다. |
| NVIDIA Nemotron 3 Super 120B | nvidia/NVIDIA-Nemotron-3-Super-120B-A12B-FP8 | 텍스트 | 262k | 12B-120B (활성-총합) | Nemotron 3는 강력한 에이전트 기반 작업, 추론, 대화 기능을 제공하도록 설계된 LatentMoE 모델입니다. |
| OpenAI GPT OSS 120B | openai/gpt-oss-120b | 텍스트 | 131k | 5.1B-117B (활성-전체) | 높은 추론 성능, 에이전트형, 그리고 범용 사용 사례를 위해 설계된 효율적인 Mixture-of-Experts 모델입니다. |
| OpenAI GPT OSS 20B | openai/gpt-oss-20b | 텍스트 | 131k | 3.6B-20B (활성-전체) | 추론 기능을 갖춘 OpenAI의 Harmony 응답 형식으로 트레이닝된, 지연 시간이 짧은 Mixture-of-Experts 모델. |
| OpenPipe Qwen3 14B Instruct | OpenPipe/Qwen3-14B-Instruct | 텍스트 | 32.8k | 14.8B (전체) | OpenPipe가 파인튜닝 기반 에이전트 구축에 맞춰 최적화한 효율적인 다국어 밀집형 지시 튜닝 모델입니다. |
| Qwen3.5 35B A3B | Qwen/Qwen3.5-35B-A3B | 텍스트, 이미지 | 262k | 3B-35B (활성-전체) | Qwen3.5-35B-A3B는 채팅, 추론, agent 작업 전반에서 효율적이고 높은 처리량의 Inference를 위해 설계된 오픈 웨이트 멀티모달 MoE 모델입니다. |
| Qwen3 235B A22B Thinking-2507 | Qwen/Qwen3-235B-A22B-Thinking-2507 | 텍스트 | 262k | 22B-235B (활성-총계) | 구조화된 추론, 수학, 장문 생성에 최적화된 고성능 MoE 모델입니다. |
| Qwen3 235B A22B-2507 | Qwen/Qwen3-235B-A22B-Instruct-2507 | 텍스트 | 262k | 22B-235B (활성-총계) | 논리적 추론에 최적화된 효율적인 다국어 MoE 지시 튜닝 모델. |
| Qwen3 30B A3B | Qwen/Qwen3-30B-A3B-Instruct-2507 | 텍스트 | 262k | 3.3B-30.5B (활성-총계) | Qwen3-30B-A3B-Instruct-2507은 추론, 코딩, 장문 컨텍스트 이해 능력이 강화된 30.5B MoE 지시 튜닝 모델입니다. |
| Qwen3 Coder 480B A35B | Qwen/Qwen3-Coder-480B-A35B-Instruct | 텍스트 | 262k | 35B-480B (활성-총계) | 함수 call, 도구 사용, 긴 컨텍스트 추론과 같은 에이전트형 코딩 작업에 최적화된 MoE(전문가 혼합) 모델. |
| Z.AI GLM 5.1 | zai-org/GLM-5.1 | 텍스트 | 203k | 40B-744B (활성-전체) | 장기적 에이전트 엔지니어링과 고급 추론에 강력한 성능을 발휘하는 MoE 모델입니다. |
실험 단계 모델
사용 중단된 모델
| 모델 | 모델 ID (API 사용 시) | 유형 | 컨텍스트 윈도우 | 파라미터 | 설명 |
|---|---|---|---|---|---|
| Z.AI GLM 5 | zai-org/GLM-5-FP8 | 텍스트 | 200k | 40B-744B (Active-Total) | 추론 및 코딩에서 뛰어난 성능을 보이며, 장기적 에이전트형 작업에 적합한 Mixture-of-Experts 모델입니다. |
모델 ID 사용하기
Model ID로 모델을 지정합니다. 예를 들면 다음과 같습니다:
다음 단계
- 각 모델의 사용 한도 및 가격을 확인하세요
- 이 모델을 사용하는 방법은 API 레퍼런스를 참조하세요
- W&B 플레이그라운드에서 모델을 사용해 보세요