NVIDIA发布Nemotron 3 Super模型,瞄准企业AI代理市场
NVIDIA推出1200亿参数的Nemotron 3 Super,性能提升5倍
NVIDIA发布了拥有1200亿参数的Nemotron 3 Super模型,该模型在代理AI应用中实现了5倍的吞吐量提升。包括西门子和Palantir在内的多家大型企业已经开始部署。
NVIDIA于2026年3月11日推出了其Nemotron 3 Super模型,这是一款拥有1200亿参数的开源AI系统,声称比其前代产品具有5倍的更高吞吐量。此时正值NVDA股票交易价格为185.49美元,当日上涨0.40%,公司正进一步深入企业AI代理市场。
解决多代理AI部署中的关键问题
该模型解决了困扰多代理AI部署的两个主要问题:上下文爆炸和NVIDIA称之为“思考税”的现象。多代理工作流生成的标记数量比标准聊天机器人多出15倍,因为每次交互都需要重新发送完整的对话历史、工具输出和推理链。这使得成本迅速增加。
百万标记上下文窗口的优势
Nemotron 3 Super的答案是一个百万标记的上下文窗口,使代理能够将整个工作流状态保存在内存中。在实际应用中,软件开发代理可以一次性加载完整的代码库。金融分析师可以处理数千页的报告,而无需在碎片化的对话中重新推理。
架构选择的重要性
混合专家设计(MoE)在推理过程中仅激活120亿参数中的12亿参数。NVIDIA引入了一种称为Latent MoE的技术,以一个专家的计算成本激活四个专家。结合多标记预测——同时生成多个单词——该公司声称推理速度提高了3倍。
根据NVIDIA的基准测试,在运行NVFP4精度的Blackwell硬件上,推理速度比上一代Hopper硬件上的FP8快4倍,且没有精度损失。
企业采用已开始
此次发布的公告读起来就像一份客户名单。Perplexity正在为用户提供搜索访问权限,并将其作为其20模型编排系统的一部分。软件开发平台CodeRabbit、Factory和Greptile正在将其集成到他们的AI编码代理中。
更重型的工业应用来自西门子、达索系统和Cadence,用于制造和半导体设计自动化。Palantir和Amdocs分别将其部署于网络安全和电信工作流。
云可用性覆盖了Google Cloud的Vertex AI、Oracle Cloud Infrastructure,Amazon Bedrock和Microsoft Azure也即将上线。推理服务提供商包括Fireworks AI、DeepInfra和CloudFlare已经在提供该模型。
开源策略
NVIDIA在宽松许可下发布了该模型的开放权重,同时还提供了超过10万亿个标记的训练数据和15个强化学习环境。这是对主导前沿AI开发的封闭模型方法的重大偏离。
该模型在Artificial Analysis效率排行榜上名列前茅,并助力NVIDIA的AI-Q研究代理在DeepResearch Bench排行榜上获得第一,这些测试衡量了跨大文档集的多步骤研究能力。
NVIDIA的战略意义
对于关注这家市值4.51万亿美元公司的NVIDIA投资者而言,Nemotron 3 Super代表了其推动硬件在企业AI部署中不可或缺的又一次努力。真正的考验将是这些企业集成是否能转化为2026年持续的Blackwell芯片需求。






