NVIDIA Build模型汇总
/ 2 min read
截至 2026年3月,NVIDIA Build 平台(build.nvidia.com)开放了一批完全免费的 LLM 端点,覆盖 Qwen、DeepSeek、Kimi、GLM 等主流开源模型,且全部兼容 OpenAI SDK,接入成本极低。
接入端点
所有模型统一走以下 Base URL:
https://integrate.api.nvidia.com/v1
API Key 在 build.nvidia.com 注册账号后即可获取。
OpenAI 兼容接入
由于 NVIDIA Build 完全兼容 OpenAI 接口协议,你可以直接用 openai Python 包或任何支持 OpenAI 格式的客户端无缝切换,只需替换 base_url 和 api_key:
from openai import OpenAI
client = OpenAI( base_url="https://integrate.api.nvidia.com/v1", api_key="your_nvidia_api_key")
response = client.chat.completions.create( model="qwen/qwen3.5-122b-a10b", # 换成下表任意模型 ID messages=[{"role": "user", "content": "你好!"}])print(response.choices[0].message.content)对于支持 tool_use 的模型,tools 参数传法和 OpenAI 完全一致,无需额外适配。
15 个模型一览
| # | 完整模型 ID | 参数规模 | 核心能力 |
|---|---|---|---|
| 1 | qwen/qwen3.5-122b-a10b | 122B MoE(10B active) | 编程、推理、多模态、Agent |
| 2 | minimaxai/minimax-m2.1 | 230B MoE(10B active) | 多语言编程、Web/App 开发、Agent |
| 3 | stepfun-ai/step-3.5-flash | 200B MoE | 前沿推理、Agentic AI |
| 4 | z-ai/glm-4.7 | 358B MoE(32B active) | 多语言 Agent 编程、工具调用、UI |
| 5 | deepseek-ai/deepseek-v3.2 | 685B MoE | 推理、长上下文、Agent 工具 |
| 6 | moonshotai/kimi-k2-thinking | 1T MoE(32B active) | 深度推理、256K 上下文、工具调用 |
| 7 | deepseek-ai/deepseek-v3.1-terminus | 671B MoE(37B active) | Think/Non-Think 混合、128K、函数调用 |
| 8 | moonshotai/kimi-k2-instruct-0905 | 1T MoE(32B active) | 长上下文、增强推理 |
| 9 | bytedance/seed-oss-36b-instruct | 36B 密集架构 | 长上下文 512K、推理、Agentic |
| 10 | qwen/qwen3-coder-480b-a35b-instruct | 480B MoE(35B active) | Agentic 编程、浏览器使用、256K 上下文 |
| 11 | deepseek-ai/deepseek-v3.1 | 671B MoE(37B active) | 快速推理、128K、强工具调用 |
| 12 | moonshotai/kimi-k2-instruct | 1T MoE(32B active) | 推理、编程、Agentic |
| 13 | qwen/qwq-32b | 32B 密集架构 | 深度推理、数学、难题 |
| 14 | qwen/qwen2.5-coder-7b-instruct | 7B 密集架构 | 多语言代码补全、32K 上下文 |
| 15 | qwen/qwen2-7b-instruct | 7B 密集架构 | 中英文通用、编程、数学、推理 |