黄仁勋最新播客:AI正从「模型时代」走向「系统时代」
视频与作者信息
视频标题:Jensen Huang: Nvidia's Future, Physical AI, Rise of the Agent, Inference Explosion, AI PR Crisis
视频作者:All-In Podcast
编译:Peggy,BlockBeats
编者按
在 AI 叙事持续升温的当下,市场讨论的焦点,正在从「模型有多强」转向「系统如何落地」。过去两年,行业先后经历了大模型能力突破、训练算力竞赛和生成式应用扩张。但当这些阶段逐渐成为共识,新的问题也随之浮现:当 AI 不再只是回答问题,而是开始执行任务、嵌入企业流程、进入物理世界,支撑它继续向前推进的底层条件究竟是什么?
节目主持人介绍
- Jason Calacanis,早期互联网创业者与天使投资人,因投资 Uber、Robinhood 等公司而广为人知;
- Chamath Palihapitiya,Social Capital 创始人,前 Facebook 高管,曾投资 Slack、Box 等多家科技公司;
- David Sacks,Craft Ventures 合伙人,「PayPal 黑帮」成员之一,创办 Yammer 并以约 12 亿美元出售给 Microsoft,同时也是 Airbnb、Uber 的早期投资人;
- David Friedberg,The Production Board 创始人,专注农业、气候与生命科学领域投资,曾创办 The Climate Corporation(后被 Monsanto 收购)。
本期嘉宾
本期嘉宾为黄仁勋(Jensen Huang),NVIDIA 联合创始人兼 CEO,被视为当前 AI 基础设施浪潮中最关键的推动者之一。

从左往右依次是 David Friedberg、Chamath Palihapitiya、David Sacks、黄仁勋(Jensen Huang)、Jason Calacanis
访谈概述
整场访谈大致可以概括为三个层次。
AI基础设施的变化
首先,是 AI 基础设施正在发生变化。过去的市场对 AI 的理解,很大程度上建立在更强的 GPU、更多的数据中心之上。但黄仁勋强调的是,未来的竞争不再只是单一芯片的竞争,而是整套系统的竞争。随着推理需求上升、模型种类增多、agent 开始处理更复杂的任务,AI 计算正在从过去相对单一的模式,转向更复杂、更分工化的系统协作。NVIDIA 也因此试图把自己的角色,从一家芯片公司,进一步推向「AI 工厂」的建设者。
AI从生成内容到完成任务
其次,是 AI 正从「生成内容」走向「完成任务」。这是这场访谈里最关键的一条线索。ChatGPT 让大众第一次直观感受到 AI 的能力,但在黄仁勋看来,真正更大的变化,是 AI 开始以 agent 的形式进入工作流:它不只是回答问题,而是能够调用工具、拆解任务、协同执行,最终把事情真正做完。也正因如此,用户愿意为 AI 付费的对象,也会从「获得一个答案」,逐步转向「获得一个结果」。这背后意味着更大的推理需求、更高的系统复杂度,也意味着软件开发、组织管理和知识工作的方式都可能随之改写。
AI从数字世界向现实世界延伸
最后,是 AI 正在从数字世界向现实世界延伸。访谈中,无论谈到自动驾驶、机器人、医疗、数字生物学,还是黄仁勋口中的 Physical AI,本质上都指向同一个趋势:AI 的价值不只体现在屏幕之内,也将越来越多地体现在工厂、医院、汽车、终端设备和日常生活中。但这也意味着,AI 接下来面对的将不再只是技术挑战,还包括供应链、政策、监管、制造能力与地缘政治等更复杂的现实约束。换句话说,AI 的下一轮扩张,将是一场真正意义上的产业化过程。
总结
从这个角度看,这场对谈最值得关注的,其实不是某个具体产品,或某个乐观数字,而是黄仁勋反复传递的一个判断:AI 正在从「模型时代」走向「系统时代」。未来的竞争,不只是比谁的模型更大、算力更强,而是比谁更懂行业、谁能把 AI 更深地嵌入真实流程、谁能把这些能力组织成一套可运行、可扩展的系统。
这也让本文讨论的对象,超出了 NVIDIA 本身。它真正试图回答的问题是:当 AI 逐渐成为基础设施,下一轮产业重构会如何展开,新的价值又将在哪里形成。
TL;DR
- AI 基础设施正在从「单一 GPU」走向解耦式架构。不同计算任务将由 GPU、CPU、网络芯片以及 Groq 等推理芯片协同完成。
- NVIDIA 正从一家 GPU 公司,转型为一家提供完整系统的「AI 工厂公司」。卖的是整套基础设施,而不是单一芯片。
- 衡量 AI 成本的关键,不是数据中心造价,而是 token 成本与吞吐效率。更贵的系统,反而可能更便宜。
- AI 正从生成式模型走向 Agent 时代。用户真正愿意为「把事情做完」付费,而不只是获取答案。
- 计算需求正在爆炸式增长。从生成到推理再到 agent,短时间内可能已扩大 1 万倍以上,且仍在加速。
- 未来软件开发将发生变化。工程师不再只是写代码,而是定义问题、设计架构、与 agent 协作。
- 长期来看,最大的机会在于垂直领域的深度专门化,而不是通用模型本身。谁更懂行业,谁更有护城河。
访谈原文
以下为原文内容(为便于阅读理解,原内容有所整编):
TL;DR
- AI 基础设施正在从「单一 GPU」走向解耦式架构。不同计算任务将由 GPU、CPU、网络芯片以及 Groq 等推理芯片协同完成。
- NVIDIA 正从一家 GPU 公司,转型为一家提供完整系统的「AI 工厂公司」。卖的是整套基础设施,而不是单一芯片。
- 衡量 AI 成本的关键,不是数据中心造价,而是 token 成本与吞吐效率。更贵的系统,反而可能更便宜。
- AI 正从生成式模型走向 Agent 时代。用户真正愿意为「把事情做完」付费,而不只是获取答案。
- 计算需求正在爆炸式增长。从生成到推理再到 agent,短时间内可能已扩大 1 万倍以上,且仍在加速。
- 未来软件开发将发生变化。工程师不再只是写代码,而是定义问题、设计架构、与 agent 协作。
- 长期来看,最大的机会在于垂直领域的深度专门化,而不是通用模型本身。谁更懂行业,谁更有护城河。
访谈原文
Jason Calacanis(知名天使投资人|All-In Podcast 主持人|早期投资 Uber):
这周是一期特别节目。我们让每周的常规节目「让路」,而这种待遇,我们通常只会给三种人:特朗普总统、耶稣,还有黄仁勋(NVIDIA 的创始人兼 CEO)。至于这三位该怎么排,你们自己决定。你最近这段时间势头太猛了,这次 GTC 也办得非常成功。
黄仁勋(Jensen Huang,英伟达 CEO):
整个行业都来了。所有科技公司、所有 AI 公司几乎都到了。
Jason Calacanis:
太不可思议了,真的不同凡响。过去一年里最重大的发布之一,就是 Groq。你们收购 Groq 的时候,有没有意识到,这会让 Chamath 变得多么「让人受不了」?
注:Groq 不是 Grok。前者是一家做 AI 推理芯片和推理云的公司,后者则是 xAI 的聊天机器人。2025 年底,Groq 与 NVIDIA 达成一项非独家的推理技术授权协议,官方未披露交易金额;但外界曾有约 170 亿至 200 亿美元的报道与猜测。到 GTC 2026,黄仁勋又进一步展示了基于 Groq 技术整合进 NVIDIA 平台的推理系统。
这里提到的 Chamath,指的是 Chamath Palihapitiya(Social Capital 创始人|前 Facebook 高管|All-In 主持人)。他既是 All-In 的四位主持人之一,也曾是 Groq 的早期投资人和董事会成员之一。因此,当 NVIDIA 与 Groq 的重大交易浮出水面后,这也被视为 Chamath 又一次押中了关键项目。
黄仁勋:
我隐约有预感。
Jason Calacanis:
我们每周都得和他打交道。
黄仁勋:
我知道。你们还得陪他熬完整整六周的交割期。
Jason Calacanis:
没错。
从 GPU 公司到「AI 工厂」公司
黄仁勋:
其实,我们很多战略都会提前好几年在 GTC 上公开讲出来。两年半前,我就介绍过 AI 工厂的操作系统,它叫 Dynamo。
你也知道,dynamo 原本是一种装置,是西门子发明的,它能把水的能量转化为电能,推动了上一次工业革命中的工厂体系。所以我觉得,这个名字非常适合作为下一次工业革命中「工厂操作系统」的名称。而在 Dynamo 里面,最核心的技术之一,就是解耦式推理(disaggregated inference)。
Jason Calacanis:
Jensen,我知道你特别懂技术。来吧,你来定义一下。我可不想抢你风头。
黄仁勋:
谢谢。所谓解耦式推理,意思是:推理的整个处理流水线极其复杂,甚至可能是今天最复杂的一类计算问题。
它的规模惊人,里面包含大量不同形式、不同规模的数学计算。我们的想法,是把整个处理流程拆开,让其中一部分运行在某一类 GPU 上,另一部分运行在另一类 GPU 上。进一步讲,这也让我们意识到,也许解耦式计算本身就是合理的方向:我们完全可以让不同类型、不同性质的计算资源协同工作。
同样的思路,后来也引导我们走向了 Mellanox。你看今天,NVIDIA 的计算早已分布在 GPU、CPU、交换机、纵向扩展交换机、横向扩展交换机以及网络处理器之上。现在,我们还要把 Groq 加进来。
我们的目标,就是把合适的工作负载放到合适的芯片上。换句话说,我们已经从一家 GPU 公司,进化成了一家 AI 工厂公司。
David Sacks(Craft Ventures 合伙人|前 PayPal COO|All-In 主持人):
对我来说,这大概是最重要的启发。你现在看到的是一种根本性的「解耦」。过去只有 GPU 这一种选择,而现在开始出现越来越多不同的计算形态,而且这些选择未来都会共存。
你在台上提到一点,我觉得所有做高价值推理的人都应该认真听:你说,数据中心里大约 25% 的空间应该配置给 Groq 的 LPU。
注: LPU 是 Language Processing Unit 的缩写。这是 Groq 提出的一个芯片类别,核心定位不是训练,而是推理
黄仁勋:
是的,在数据中心里,大概可以让 Groq 占 Vera Rubin 系统大约 25% 的比重。
注:Vera Rubin 是 NVIDIA 的下一代 AI 平台架构。它不是单一芯片,而是一套面向 AI 工厂的系统级基础设施平台。
David Sacks:
那你能不能讲讲,行业现在是怎么看这个方向的?本质上,你是在打造下一代的解耦架构:prefill、decode 分离,推理流程被拆分。你觉得大家会如何反应?
黄仁勋:
先退一步来看。我们当时往系统里加入这个能力,是因为整个行业已经从大语言模型处理,转向 Agentic Processing,也就是智能体式处理。
当你运行一个 agent 的时候,它会访问工作记忆、长期记忆、调用工具,这对存储的压力非常大。你还会看到 agent 与 agent 协作。有些 agent 用的是超大模型,有些是小模型;有些是 diffusion 模型,有些是自回归模型。也就是说,在这个数据中心内部,会同时存在各种各样完全不同类型的模型。我们打造 Vera Rubin,就是为了应对这种极度多样化的负载。
所以,过去我们是一家「有一个的机架」的公司,现在又新增了四种机架。换句话说,NVIDIA 的 TAM,也就是可服务市场,一下子扩大了,大约比以前高出 33% 到 50%。
而这新增的 33% 到 50% 里面,很大一部分会是存储处理器,也就是 BlueField;一部分,我个人非常希望是一大部分,会是 Groq 处理器;还有一部分会是 CPU;当然,也会有很多网络处理器。所有这些加在一起,最终都在运行 AI 革命中的那台「新型计算机」,也就是 agents。它就是现代工业的操作系统。
Chamath Palihapitiya(Social Capital 创始人|前 Facebook 高管|All-In 主持人):
那嵌入式应用呢?比如我女儿家里的泰迪熊,如果它想跟她说话,里面装的会是什么?是定制 ASIC 吗?还是说,未来在边缘和嵌入式场景里,会出现一个更广泛的 TAM,不同场景配不同工具?
注:ASIC 指 Application-Specific Integrated Circuit(专用集成电路),TAM 指 Total Addressable Market(总可服务市场)
黄仁勋:
我们认为,这个问题里其实有三台计算机。
第一台,在最大尺度上,是用来训练 AI 模型、开发 AI、创造 AI 的计算机。
第二台,是用来评估 AI 的计算机。比如你看看周围,到处都是机器人、汽车这类东西。你必须先把它们放进一个能够代表物理世界的虚拟环境里进行评估。也就是说,这个软件本身必须遵守物理定律。我们把这个系统叫做 Omniverse。
第三台,是部署在边缘侧的计算机,也就是机器人计算机。它可以是一辆自动驾驶汽车,也可以是一台机器人,甚至可以是一个小小的泰迪熊。
对于泰迪熊这种设备,其中一个非常重要的方向,是我们正在做的:把电信基站变成 AI 基础设施的一部分。这样一来,整个两万亿美元规模的电信产业,未来都会逐步变成 AI 基础设施的延伸。所以,无线电设备会变成边缘设备,工厂会变成边缘设备,仓库也一样。
总之,这三类基础计算机,全部都必不可少。
David Friedberg(The Production Board 创始人|All-In Podcast 主持人):
Jensen,去年我就觉得你比全世界都看得更早。你当时说,推理需求的增长不会只是 1000 倍。
黄仁勋:
我是不是把自己给坑了?
David Friedberg:
而是会增长 100 万倍?10 亿倍?对吧?
我觉得那时候很多人都认为这太夸张了,因为当时全世界都还盯着训练扩容。但现在你看,推理已经真正爆发了,而且开始变成「推理受限」。你现在又发布了一座「推理工厂」,吞吐量会比下一代工厂高出 10 倍。
可如果你去看外界的讨论,很多人会说:你的推理工厂要花 400 亿到 500 亿美元,而那些替代方案,例如定制 ASIC、AMD 等等,只要 250 亿到 300 亿美元,所以你会丢掉市场份额。
那你不如直接告诉我们:你到底看到了什么?你怎么看市场份额?这些客户花接近两倍的溢价,到底值不值得?
为什么更贵的系统,反而能生产更便宜的 token?
黄仁勋:
最重要的一点、最核心的一点是:不要把工厂的价格,等同于 token 的价格,也不要把它等同于 token 的成本。
很有可能,而且我可以证明,那座 500 亿美元的工厂,反而能生产出成本最低的 token。原因在于,我们生成这些 token 的效率高得惊人,能高出 10 倍。
你看,500 亿美元和 200 亿美元之间的差额,很多其实只是土地、电力和厂房外壳而已。除此之外,你本来就要买存储、网络、CPU、服务器、散热系统。所以,GPU 本身是原价还是半价,并不会让总成本从 500 亿直接降到 300 亿。你随便取一个自己喜欢的数字吧,更现实一点,可能只是从 500 亿降到 400 亿。
而如果一座 500 亿美元的数据中心,吞吐量却高出 10 倍,那么这点差价其实并不算什么。
Jason Calacanis:明白了。
黄仁勋:
这也是为什么我一直说:即使对很多芯片来说,如果你跟不上技术前沿、跟不上我们推进的速度,那哪怕芯片白送,也还是不够便宜。
David Sacks:
我想问一个更宏观的战略问题。你现在运营着全球最有价值的公司。明年收入可能超过 3500 亿美元,自由现金流 2000 亿美元,而且还在以疯狂的速度复利增长。
你到底是怎么做决策的?你怎么获取信息?大家现在都知道你那套著名的邮件体系,但你真正是怎么形成直觉、塑造市场、决定哪里该重注、哪里该收缩、哪里该进入新领域的?这些信息是怎么传递到你这里的?你又怎么做最终判断?
黄仁勋:
那就是 CEO 的工作。
David Sacks:
对。
黄仁勋:
我们的职责,就是定义愿景、定义战略。当然,我们会从公司里那些杰出的计算机科学家、技术专家,以及无数优秀员工那里得到启发和信息,但最终,塑造未来是我们的责任。
其中一部分判断标准是:这件事是不是难到离谱?如果不够难,我们就应该离它远一点。原因很简单,如果一件事很容易做,那竞争者一定会一大堆。
它是不是一件从未有人做过、而且难到离谱的事情?它是不是恰好又能调动我们公司独有的「超能力」?所以我得去寻找这样一个交汇点:它必须同时符合这些标准。
而且最后你还得知道,做这种事情一定会伴随着大量痛苦和折磨。没有任何伟大的发明,是因为它太简单、第一次就轻松成功。
如果一件事超级难、从来没人做过,那基本就意味着你会经历很多痛苦和磨难。所以你最好享受这个过程。
David Sacks:
你能不能挑三四个更「长尾」的业务讲讲?比如你说的数据中心上太空、ADAS 和汽车,还有生物方向。给我们一点感觉:这些曲线什么时候会开始向上拐点?这些长期业务你怎么看?
注:ADAS 指 Advanced Driver Assistance Systems(高级驾驶辅助系统)
黄仁勋:
当然。Physical AI(物理 AI) 是一个很大的类别。我刚才说过,我们有三种计算系统,以及建立在其上的所有软件平台。Physical AI 是科技行业第一次真正有机会去服务一个 50 万亿美元规模、过去几乎没有被技术深度改造的产业。为了做到这一点,我们必须把全部所需技术重新发明出来。
我一直觉得这是一段 10 年旅程。我们 10 年前就开始了,现在终于看到它开始拐点向上。对我们来说,这已经是一项数十亿美元级业务了,现在的规模已经接近每年 100 亿美元。所以它已经是一个很大的生意,而且还在指数级增长。这是第一点。
第二个方向,我觉得在数字生物学上,我们真的已经非常接近它的 ChatGPT 时刻了。
我们正在逐步学会如何表示和理解基因、蛋白质、细胞。化学物质,我们已经知道怎么处理了。所以,能够表示并理解生物学的基本构件及其动态行为,这件事我认为大概会在两三年到五年内发生。五年之内,我非常相信,数字生物学会对整个医疗健康行业造成巨大冲击。
这些都是非常重要的方向。农业也是其中之一。
Chamath Palihapitiya:
已经开始发生了。
黄仁勋:
毫无疑问。
Jason Calacanis:
我想把话题从数据中心拉回桌面端。公司早期很大程度上就是建立在爱好者、游戏玩家以及显卡用户之上的。你今天在台上、面对大概一万名观众时,提到了 Claude Code、OpenClaw,还有 agent 带来的革命。
尤其是爱好者群体,我们看到现在大量能量和创新其实都在他们那里爆发,很多突破都发生在桌面端。你这次也发布了一台桌面设备,我记得是 Dell 60800?这是一台非常强大的工作站,可以跑本地模型,拥有 750GB 内存。现在 Mac Studio 到处都卖断货了。我们公司现在全面转向 OpenClaw。Friedberg 在用,Chamath 也在用,大家都非常痴迷。
从爱好者开始的这种开源 agent 运动、桌面端开源生态,对你意味着什么?它会走向哪里?
Agent 时代来了:计算需求为什么会再膨胀一万倍
黄仁勋:
首先,退一步看。过去两年,我们其实看到了三次拐点。
第一次是生成式 AI。ChatGPT 把 AI 带入大众视野,让每个人都意识到它的重要性。其实这项技术在 ChatGPT 出现前几个月,就已经清清楚楚地摆在那里了。只是直到 ChatGPT 给它套上了一个人人都能使用的界面,生成式 AI 才真正爆发。
而生成式 AI,正如你所知,会生成 token,既供内部消费,也供外部消费。内部消费,本质上就是「思考」,而这进一步推动了推理的发展。
接着,越来越多接地气、基于真实信息的能力开始出现,让 AI 不再只是回答问题,而是能给出更可靠、更有用的答案。你也开始看到 OpenAI 的收入和商业模式出现拐点式上扬。
然后,第三次拐点一开始其实只在行业内部可见,那就是 Claude Code。这是第一个真正非常有用的 agentic 系统,极具革命性。
但在 Claude Code 之前,这套能力主要只面向企业,很多圈外人根本没见过。直到 OpenClaw 把「AI agent 到底能做什么」带进大众视野。
所以,OpenClaw 在文化层面的重要性就在于:它第一次真正让公众意识到 agent 的能力。
它之所以重要的第二个原因,是因为 OpenClaw 是开放的。
更关键的是,它构造出了一种全新的计算模型,几乎是在重新发明计算本身。它有记忆系统:scratch 是短期记忆,文件系统是长期资源;它有调度能力;可以跑 cron job;可以生成新的 agent;可以分解任务、进行因果推理、解决问题;它还有 I/O 子系统,可以输入、输出、连接 WhatsApp;它还有一套 API,可以运行不同类型的应用,也就是所谓的 skills。
而这四个元素,本质上就定义了一台计算机。所以,我们现在实际上第一次拥有了:个人人工智能计算机。
而且它是开源的,真正开源,几乎可以运行在任何地方。这就是现代计算的蓝图。从某种意义上说,它已经是现代计算的操作系统,而且未来会无处不在。
当然,我们还必须帮它解决一件事:只要你拥有 agentic 软件,它就可能接触敏感信息、执行代码、对外通信。所以我们必须确保:这一切都要受到治理,要足够安全,要有策略约束,让这些 agent 可以拥有三种能力中的两种,但不能同时拥有全部三种。
在治理这一块,我们也做了贡献。Peter Steinberger 今天也在场。我们有很多很棒的工程师在和他合作,帮助把这个系统做得更安全、更稳健,让它既能保护隐私,也能保护安全。
Chamath Palihapitiya:
Jensen,这种范式转移,是不是已经让美国各地过去通过的很多 AI 监管法案开始显得过时了?
很多提案原本都是建立在旧模型上的。你能不能谈谈,这种范式变化有多快地让一大批原有的监管思路失效?现在 AI 监管已经成了美国政治里一个非常热门的话题。
黄仁勋:
这一部分,我们必须始终走在政策制定者前面,你在这方面做得非常好。我们必须主动走到他们面前,告诉他们现在技术发展到了什么阶段,它是什么、又不是什么。它不是生命体,不是外星人,没有意识。它是计算机软件。
还有,我们经常会听到「我们根本完全不理解






