
2025 年 11 月 19 日,美国东部时间下午 5 点,英伟达发布2026 财年第三季度财报。
这一季的数据很夸张:营收 570 亿美元,同比增长 62%,环比多了整整 100 亿美元(+22%),数据中心业务继续飞奔,网络、计算、汽车、专业可视化全部双位数增长。但比数字更值得编译和整理的,是管理层在电话会里给出的那套逻辑:
他们几乎把所有关于“AI泡沫”的质疑,重新改写成了一场“三次平台大迁移 + 十年基础设施周期”的故事。
基于这份电话会议记录,本文对管理层的核心观点做了一次系统的编译和梳理。
1
一、成绩单:570 亿美元的大头,几乎都来自 AI 工厂
先把关键数字捋清楚:
总收入:
570 亿美元,同比 +62%,环比增加 100 亿美元(+22%)。
数据中心收入:
510 亿美元,同比 +66%,再创新高,几乎就是整家公司。
网络收入:
82 亿美元,同比飙升 162%,靠的是 NVLink、InfiniBand 和 Spectrum X 以太网。
计算部门:
同比 +56%,核心驱动力来自 GB300 GPU 的放量,Hopper 平台本季仍贡献了约 20 亿美元收入。
游戏业务:
43 亿美元,同比 +30%,主要是游戏玩家和本地 AI 需求的叠加。
专业可视化:
7.6 亿美元,同比 +56%,DGX Spark 被点名是关键贡献者。
汽车业务:
5.92 亿美元,同比 +32%,自动驾驶解决方案是主力。
盈利能力同样“变态”:
GAAP 毛利率:
73.4%,
Non-GAAP 毛利率:
73.6%, 都比之前的指引更高。Colette Kress 解释,主要得益于数据中心产品组合、生产周期时间改善以及成本结构优化。
但也不是全是甜蜜,电话会一上来就坦白了三点风险:
中国收入被“掐断”:
由于地缘政治和本地竞争,本季度原本计划的大额订单没有落地,直接影响了高端数据中心计算产品对中国的出货。Colette 还明确表示,在 Q4 的指引里,“我们没有假设来自中国的任何数据中心计算收入”。
投入成本在上升:
面向 2027 财年,内存等关键元件价格抬头,系统复杂度也在增加。公司一边加大采购锁价,一边强调,仍会努力把毛利率“压在 70% 中段”。
库存和供应承诺同步上扬:
库存环比增加 32%,供应承诺环比增加 63%。管理层的态度是:这是主动为未来更大规模的增长“铺货”,而不是需求不行的被动堆库存。
展望第四季度,指引同样激进:
Q4 收入指引:
650 亿美元,上下浮动 2%,按中值算环比还要再涨 14%,主要由 Blackwell 架构继续放量带动。
毛利率指引:
GAAP 和 Non-GAAP 都预计维持在 70% 中段,尽管投入成本上涨。
从这张“财务快照”可以看出一个核心事实:
英伟达现在的财报,其实就是一张全球 AI 工厂建设进度表。
1
二、CFO 的视角:三大平台转型 + 5000 亿 Blackwell/Rubin 收入蓝图
在财务数字之后,CFO Colette Kress 用相当长的一段话,把这季的增长放进了一个更大的框架里:
“三大平台转型”还在早期
她强调,客户现在集中在三条主线做投入:
向加速计算迁移:
从传统 CPU 通用计算,转向 GPU 加速计算,把原本跑在 CPU 上的大量数据处理、科学计算工作负载搬到 CUDA 平台上。
向大模型/生成式AI迁移:
搜索、推荐、内容理解、广告排序,从传统机器学习体系切换到大模型,重写生产线。
向智能体(Agent)应用迁移:
自主推理、规划、调用工具的“智能代理 AI”,开始渗透到编程、医疗、金融、运营等业务线。
她的判断是:这三件事都还在早期阶段,“会波及所有行业”。
Blackwell + Rubin:到 2026 年底要拿下 5000 亿美元营收
Colette 给了一个颇具争议、但已经被资本市场广泛引用的数字:
从今年开始到 2026 年年底,Blackwell 和 Rubin 两代平台,合计营收目标是 5000 亿美元。
电话会记录里,她再次确认这一目标“正在推进”:
部分收入已经在过去几个季度确认;
接下来还有几个季度会持续兑现;
而且,这 5000 亿本身还有“上调空间”:比如当天刚刚宣布的与沙特的合作,未来三年新增 40–60 万块 GPU;和 Anthropic 的协议,同样是原先规划之外的增量计算需求。
在她的叙事里,英伟达的角色很明确:
要在未来十年走向年均 3–4 万亿美元规模的全球 AI 基础设施建设里,做“首选平台”。
“云已售罄”:GPU 安装基础完全被吃满
Colette 多次重复一个说法:“云服务已售罄(clouds are sold out)”;Blackwell、Hopper、Ampere 等几代 GPU 的安装基础“全部在满负荷运行”。第三季度数据中心收入 510 亿美元,就是在这样的高稼动率之上做出来的。配合这点,她给出了一串“案例库”,说明这些算力在被用在什么地方:
互联网平台:
Meta 用基于 GPU 集群训练的 Gem 广告推荐基础模型,让 Instagram 广告转化率 +5%,Facebook 信息流 +3%;用户在 Facebook、Threads 等应用上花的时间明显上升。
基础模型公司:
OpenAI:周活用户 8 亿,企业客户超过 100 万,毛利率保持健康;Anthropic:年化营收从年初的 10 亿美元,涨到 70 亿美元。其他名字还包括 Mistral、Reflection、Safe Superintelligence、xAI 等。
垂直场景:
RBC 用智能体 AI 把分析师写报告的时间,从几小时压缩到几分钟;联合利华通过 AI + 数字孪生,让内容创作效率提升 2 倍、成本下降 55%;Salesforce 工程团队使用 Cursor 后,新代码开发效率至少提升 30%。
这些例子共同指向一个判断:
AI 基础设施的投入,已经开始在真实业务里“找回报”,而不止停留在“创新预算”。
五百万 GPU 的 AI 工厂计划
本季英伟达还宣布了一串 AI 工厂和基础设施项目,总量涉及约 500 万块GPU,覆盖:
公有云 CSP、主权国家数据中心;
制药、制造等行业的“AI 工厂”;
标志性项目包括:xAI 的 Colossus 2 —— 全球首个千兆瓦级数据中心;礼来(Eli Lilly)的 AI 工厂,用于药物研发;AWS + Humane 的扩展合作:部署多达 15 万台 AI 加速器(包括 GB300),以及一座 500 兆瓦的旗舰 GPU 数据中心。
在这套叙事下,“570 亿营收”只是起点,真正让市场紧张的是:
未来两三年,这家公司打算吃下多大一块 AI 基建蛋糕。
1
三、黄仁勋的“反泡沫”故事:三次平台大迁移
轮到黄仁勋发言时,他没有先谈估值,而是直接回应了“泡沫”这个词:
“关于人工智能泡沫的讨论很多。 从我们的角度来看,我们看到的是截然不同的情况。 ”
他的核心论点,可以浓缩成一句话:
世界正在同时经历三次巨大的平台级迁移,而英伟达刚好站在这三次迁移的交叉点。

第一次迁移:从 CPU 到 GPU 的加速计算
摩尔定律放缓,传统 CPU 性能/成本的提升越来越难;
大量原本跑在 CPU 上的非 AI 工作负载——数据处理、科学与工程仿真等——正向 CUDA GPU 迁移;
这一层迁移,本质上是为了延续“算力通缩”:用更低的单位成本获得更多计算。
黄仁勋把这部分定义为“基础且必要的转型”:
“在后摩尔定律时代,这是至关重要的。”
第二次迁移:从传统机器学习到生成式 AI
第二层,是我们熟悉的那波浪潮:
搜索排序、推荐系统、广告投放、内容审核等,正在从传统 ML/深度学习体系,迁移到基于大模型与生成式 AI 的范式;
Meta 的 Gem 模型就是典型案例:依托大规模 GPU 集群训练,把广告推荐效果实打实抬高了几个百分点,这直接体现在收入上。
在这层上,AI 不再只是“节约成本”的工具,而是直接带来营收增量的引擎。
第三次迁移:向智能体和物理 AI
第三层,是“智能体 AI”和“物理 AI”:
这类系统具备推理、规划和使用工具的能力;
从代码助手(Cursor、Claude Code、GitHub Copilot),到医疗放射影像助手(iDoc)、法律助手(Harvey),再到自动驾驶司机(Tesla FSD、Waymo),都被他归类为“智能代理 AI”;
更往下,是与机器人、工厂、车队、城市基础设施深度耦合的“物理 AI”:利用 Omniverse 做数字孪生工厂的台积电、丰田、富士康、Lucid 等;用 Jetson 平台和 Cosmos 世界模型做人形/移动机器人开发的 Agility Robotics、Amazon Robotics、Figure 等。
在他看来,这一层会带来全新的应用、产品、公司和服务,是最具颠覆性的一层。
英伟达如何把三次迁移“捏”在一起?
黄仁勋的自我定位是非常“野心家”的:
在加速计算的迁移中
,CUDA + GPU 是最成熟的方案;
在生成式AI迁移中
,英伟达在训练、后训练(推理前的强化、微调)和推理三个阶段,都有一整套软件栈和硬件组合;
在智能体和物理AI
,从数据中心到机器人边缘设备,一条链路都在用同一套架构。
他说得很直白:
“无论是 AI 的每个阶段,还是各种不同的计算需求, 我们的架构都是通用的。 你可以投资一种架构,然后在所有这些阶段和工作负载上放心使用。”
这就是他对“泡沫”质疑的整体回应:
资本市场看的是市值曲线,而他强调的是: 三条不同性质的迁移曲线,正在同时发生,且都压在英伟达的 GPU 上。
1
四、关键问答:5000 亿订单、供给瓶颈与中国风险
电话会议的 Q&A 部分,补足了很多关键信息。挑几个重点说。
5000 亿 Blackwell + Rubin 收入,还靠谱吗?
摩根士丹利的 Joseph Moore 追问:
GTC 上提的2025–2026 年 Blackwell + Rubin 5000 亿美元收入预期,现在还有没有变化?
Colette 的回答是:
目标没变,“我们正在按这个路径执行”;
5000 亿中已经有一部分在前几个季度确认;
接下来到 2026 年底,还有几个季度会持续贡献;
而且,“这个数字有上调可能”:和沙特的协议,在未来三年新增 40–60 万块 GPU;与 Anthropic 的合作,则带来了高达 1 吉瓦算力承诺。
——这些,都还没算在最初的 5000 亿里。
供应能不能赶上需求?ROI 会不会撑不住?
Cantor Fitzgerald 的 C.J. Muse 问了一个所有人都在想的现实问题:
一边是大家担心 AI 基础设施建设太烧钱、ROI 与融资能力成问题; 另一边是你们自己又在说“GPU 全部售罄、云都卖空了”。 那么未来 12–18 个月里,供应会赶上需求吗?
黄仁勋的回答重点有三:
供应链规划
英伟达的供应链覆盖台积电及其封装、内存供应商、系统 ODM 等,“我们和他们做了非常长周期的规划”;“我们原本就计划迎来一个大年”,而现在的需求增长,印证了他们对三个转型的判断。
需求结构:
不仅仅是“聊天机器人”在用 GPU,从数据处理到推荐系统,从生成式 AI 到各种 agent 工具,哪一层都在吃 GPU,且增速都很快。
ROI
一部分投资来自通用计算迁移,本质上是为了延续“算力通缩”;一部分投资来自生成式AI提升现有业务收入;还有一部分来自全新的 agentic & 物理AI应用。
换句话说,他认为需求是真实且多层次的,而不是单一领域炒作。
每吉瓦能卖多少钱硬件?谁来为三四万亿 AI 基建买单?
BofA 的 Vivek Arya 问得很具体:
在你口中的 5000 亿里,你假设的“每 1 吉瓦数据中心对应多少美元硬件”是多少?
到 2030 年,全球数据中心 3–4 万亿美元投资中,有多少需要靠供应商融资,有多少可以由客户自己现金流支持?
黄仁勋给出了一组有参考意义的量级(非精确指引):
在 Hopper 这一代,一个 1 吉瓦数据中心,相当于大约20–25 亿美元的英伟达数据中心产品;
到 Grace Blackwell/GB200,可能来到30 亿美元以上;
Rubin 一代会更高,因为每瓦性能进一步提升。
关键句是这句:
“一个吉瓦数据中心就是一个吉瓦功率。 你的每瓦性能,几乎直接决定你的收入上限。 ”
这背后的逻辑是:
电力是刚性约束:一个园区就是 1 吉瓦电进来,不会无限扩张;
在同样的 1 吉瓦电、同样的机房面积下,谁的架构性能/瓦更高,谁就能卖出更多的硬件票面;
因此,架构效率不只是技术指标,而是收入天花板。
至于“谁来为 3–4 万亿买单”,他的回答更宏观:
不能只盯着美国几大云厂商;
每个国家都会为自己的 AI 基础设施买单;
大多数行业的 agentic AI、物理 AI 才刚刚开始,未来会有一波又一波新的融资主体加入。
中国市场:短期清零,长期仍想“留门”
关于中国,Colette 的表态比较直接:
本季度原计划的大额订单并未落地,H20 销售额仅约 5000 万美元;
原因是地缘政治 + 中国本地竞争加剧;
因此公司在 Q4 指引中,假设来自中国的数据中心计算收入为 0。
但黄仁勋也强调,英伟达会持续同中美两国政府沟通,长期目标仍然是:
“要在包括中国在内的所有商业企业中,成为开发者和企业的首选平台。”
这意味着,当前对华高端芯片出口的限制,英伟达视为“节奏问题”,而不是长期放弃的市场。
ASIC vs GPU:为什么英伟达认为自己“不可替代”?
Wells Fargo 的 Aaron Rakers 问到定制 AI ASIC 的竞争,问黄仁勋是否改变了看法。
他的回答可以总结为“五个维度的护城河”:
覆盖所有转型阶段:
从通用加速计算,到生成式 AI,再到代理式 / 物理 AI,同一套架构都能胜任。
覆盖AI的每个阶段:
预训练、后训练、推理这三步都极其复杂,尤其是链式思维等推理型推理,“事实证明推理是最难的”,而英伟达在三阶段都有很强的系统方案。
覆盖所有主流模型:
自回归、扩散、专家混合(MoE)、各种生物/物理模型—— “我们是唯一一个能把所有这些模型跑在一个平台上的架构。”
覆盖所有云和边缘形态:
从公有云、私有云,到本地 DGX Spark 再到机器人和 PC,一套 CUDA 生态贯穿始终,这大幅降低了开发者的心智成本。
带来真正的需求与多样性:
对云厂商、新创云(CoreWeave、Lambda 等)乃至新公司(Humane)来说,把 GPU 算力“挂上架”后,背后是庞大的模型生态和开发者需求,而不是一个“孤立的 ASIC”。
他最后的总结是:
“这不是简单往数据中心里塞一个随机 ASIC 的问题。需求从哪来?多样性从哪来?韧性从哪来? 英伟达的生态系统,已经证明它能把这些全部带给客户。 ”
这一次,泡沫没有破裂。音乐继续。
点个“爱心”,再走 吧