模型发布 综合自 4 个来源

NVIDIA发布超级模型 260亿投资开源AI

要点

  • Nemotron 3 Super: 1.2万亿参数,1200亿活跃,100万上下文
  • 吞吐量提升5倍,准确率提升2倍
  • 采用混合Mamba-Transformer MoE架构
  • 被Perplexity、CodeRabbit、Palantir、Siemens采用
  • NVIDIA AI-Q登顶DeepResearch Bench榜单
  • 英伟达260亿美元投资开源AI模型
参考来源 (4)
  1. [1] NVIDIA Nemotron 3 Super发布,推理吞吐量提升5倍 — NVIDIA AI Blog
  2. [2] NVIDIA GTC 2026:AI未来动态实时更新 — NVIDIA AI Blog
  3. [3] 英伟达将投资260亿美元开发开源权重AI模型 与OpenAI、Anthropic竞争 — Wired AI
  4. [4] Nemotron 3 Super发布:面向代理推理的开源混合Mamba-Transformer MoE — NVIDIA Technical Blog

英伟达发布Nemotron 3 Super,这是一款具有1.2万亿参数的开源模型,专为大规模代理AI系统设计。该模型实现5倍更高吞吐量,推理准确率提升2倍,标志着企业AI能力的重大突破。

技术突破

Nemotron 3 Super采用创新的混合Mamba-Transformer专家混合(MoE)架构,包含1200亿活跃参数和100万token上下文窗口。这一设计直接解决了多代理工作流中的核心挑战:上下文爆炸。根据英伟达官方技术文档,多代理系统生成的token是标准聊天的15倍,每轮交互都需要重新发送历史上下文、工具输出和推理步骤。

英伟达在官方博客中表示:“该模型专为需要在推理、编码和长上下文分析方面具备深度专业化,同时保持足够高效以大规模运行的代理系统而设计。”

企业采用

多家科技巨头已部署Nemotron 3 Super用于生产环境。PerplexityCodeRabbitPalantirSiemens成为早期采用者,将该模型用于高级AI应用。此外,NVIDIA AI-Q在DeepResearch Bench基准测试中排名第一,展现了卓越的研究和推理能力。

260亿美元战略投资

英伟达同时宣布将投资260亿美元开发开源权重AI模型,这一战略举措将英伟达定位为OpenAIAnthropic和中国DeepSeek的直接竞争对手。

监管文件披露的投资金额标志着英伟达的重大战略转型——从传统的AI基础设施供应商转变为全面的AI模型开发商。

市场影响

双重公告凸显了英伟达在AI生态系统多线布局的战略意图:同时提供运行AI智能模型的计算基础设施和智能模型本身。随着代理AI日益被视为企业自动化的下一个前沿,Nemotron 3 Super在多代理系统方面的专业化架构将使英伟达在快速增长的AI代理市场中占据有利地位。

0:00