Jensen Huang – Will Nvidia’s moat persist?

TL;DR

Jensen 系统反驳”Nvidia 护城河 = 供应链锁定 + CUDA 锁定”的简化论:他认为护城河是把”electrons → tokens”全栈 co-design 做透。全场最值得记的一句话:“Anthropic 是 unique instance, not a trend——没有 Anthropic,TPU/Trainium 增长是零。” 后半段与主持人就对华售芯激烈交锋(37 分钟),Jensen 全程进攻”绝对化思维”,主张限制反而加速对手生态成型。

术语速查

给金融受众用的,访谈中出现的半导体/AI 术语。

术语简释
CoWoSTSMC 的 2.5D 先进封装技术,把 GPU die 和 HBM 内存堆在一片基板上。一度是 AI 芯片最大瓶颈
HBMHigh Bandwidth Memory,专门给 GPU 用的高带宽内存,主要供应商 SK Hynix、Micron、Samsung
N3 / N7 / N2TSMC 的工艺节点(3nm/7nm/2nm),数字越小越先进
EUV极紫外光刻机,由 ASML 垄断;造 5nm 以下芯片必需,已被禁运中国
TPUGoogle 自研的 AI 专用芯片(ASIC 类型),Gemini/Claude 部分训练在上面
TrainiumAWS 自研的 AI 训练 ASIC,Anthropic 部分用
ASICApplication-Specific IC,针对特定任务的专用芯片,非通用
CUDANvidia 的 GPU 编程平台和软件生态,护城河核心
NVLink / NVL72Nvidia 的 GPU 互联技术 / 把 72 张 GPU 连成一个超大计算单元的机柜
Hopper / Blackwell / Vera Rubin / FeynmanNvidia 一年一代的 GPU 架构:H100 (2023) → B200 (2024) → 今年 → 明年 → 后年
MoE / SSMMixture of Experts(稀疏激活的大模型架构)/ State-Space Model(替代 Transformer 的新架构候选)
TTFTTime To First Token,推理时第一个输出 token 的延迟,决定交互体验
KV cache推理时把已计算的注意力中间结果缓存下来,避免重复计算
silicon photonics用光(而非电)在芯片间传数据,长距离低损耗,Nvidia 多年提前布局
hyperscaler超大规模云服务商:Google/AWS/Azure/OCI/Meta
neocloud新一代纯 GPU 云:CoreWeave、Crusoe、Lambda、Nscale、Nebius,被 Nvidia 扶持
ASPAverage Selling Price,平均售价
TCOTotal Cost of Ownership,总拥有成本(含电力、维护等)

全篇主线

Dwarkesh 提了五个互相关联的”质疑”:(1) Nvidia 护城河是不是只有供应链锁定?(2) TPU 会不会破护城河?(3) Nvidia 现金流这么大,为什么不自己当云?(4) 该不该卖芯片给中国?(5) 为什么不并行多种芯片架构?Jensen 的统一回答框架是「electrons-to-tokens 全栈 co-design」+「do as much as needed, as little as possible」哲学。整场最热闹的是第 4 段——Jensen 把”边际算力都是危险的”这套限制论比作”扼杀美国电信业重演”,反而强调中国已远超威胁阈值,限制只会加速对手生态。

1. 供应链锁定是 Nvidia 的护城河吗? [00:00–16:25]

核心论点:护城河不是采购合同,而是 Nvidia 能把”电子转换成有价值 token”全链路 co-design 这件极难的事做透——别人复制不了。

Dwarkesh 抛出一个”幼稚版本”假设:Nvidia 只是把 GDS2 文件发给 TSMC,TSMC 造逻辑芯片,SK Hynix/Micron/Samsung 供 HBM,台湾 ODM 装机柜——所以 Nvidia 本质是软件公司,软件被商品化时 Nvidia 也会被商品化。Jensen 反驳的核心:「终归要有人把电子转换成 token」,这件事不可能被商品化——背后的工艺、工程、科学远未成熟。他还提出反向论点——软件商品化反而推动工具使用爆炸:当 agent 数量指数级增长,Excel/Cadence/Synopsys 这些工具的实例数也会跟着暴涨,软件公司不会被消灭。

关于供应链 lock-in 的具体机制:财报里**$100B** 显式采购承诺只是一部分,更大量是隐式——Jensen 跟 TSMC、Micron、ASML 等上游 CEO 做”informing/inspiring/aligning”,让他们基于 Nvidia 的下游需求规模做投资。“为什么他们愿意为我投而不为别人投?因为只有 Nvidia 有承接得下的下游需求”。SemiAnalysis 估这部分总规模到 $250B

“GTC 演讲里有一段几乎像教学——那其实是在做整个 supply chain 的 alignment。”

谈到现在 Nvidia 已经吃掉 TSMC N3 节点 60%、明年 86%,怎么继续 2x。Jensen 列了 4 步逻辑:

  1. 当前瞬时需求 > 总供给是产业好状态,反例(供给过剩)才糟
  2. 局部缺口产业会”swarm”。两年前 CoWoS 是大问题,Nvidia 连续翻倍后现在已不是瓶颈,HBM 同理
  3. 5 年前他说的话现在都在兑现——早期信他的(如 Micron 的 Sanjay)赚翻了
  4. 真正的瓶颈不是芯片,是基建——能源、水管工、电工。“反工业化倾向(能源政策卡 EV/机器人/AI factory 建设)才是结构性问题”

关键数字

  • $100B 显式采购承诺,SemiAnalysis 估总 $250B([04:26])
  • 收入每年 2x,flops 每年 3x+([08:32])
  • AI 占 TSMC N3 节点:今年 60%,明年 86%(来源:SemiAnalysis)([09:00])
  • Hopper → Blackwell 能效跃迁 30-50x(首发说 35x,Dylan Patel 称 sandbag,实际 50x)([15:12])
  • 供应链瓶颈 timeline:每个具体瓶颈 2-3 年就能解决([15:04])

2. TPU 会不会破护城河? [16:25–41:06]

核心论点:TPU 是 ASIC、Nvidia 卖的是 accelerated computing;可编程性 + CUDA + 跨云安装基数让 Nvidia 能跨多次算法革命持续兑现 30-50x 代际跃迁,而 ASIC 受 Moore’s Law 限制每年只能 25%。

Dwarkesh 起手提示:top 3 模型有 2 个(Claude、Gemini)训练在 TPU 上,潜台词是 Nvidia 不可替代性受质疑。Jensen 的区分很硬:TPU 是 systolic array,只擅长 matmul;Nvidia 卖的是全用途加速计算,从分子动力学、量子色动力学、流体、粒子物理,到结构化数据处理,再到 AI——AI 只是其中一项。架构层面:TPU/Trainium 是 self-operated 的 ASIC(要自己当 operator),Nvidia 系统是让别人能 operate的——所以遍布 Google/AWS/Azure/OCI/on-prem,xAI、Lilly 制药超算都能直接用。

关于”matmul 才是 AI 主体,TPU 理论更优”——Jensen 列的反例:新 attention 机制、SSM、diffusion-AR 混合都需要可编程架构。Moore’s Law 25%/年是上限,Nvidia 30-50x 的代际跃迁靠的是算法-硬件 co-design:MoE 并行化、CUDA kernel 重写、把计算下放到 NVLink/Spectrum-X fabric。“没 CUDA 就根本无法 co-design”。

关于”hyperscaler 自己能写 kernel,CUDA 还重要吗”:Jensen 的回答跳出了”performance”维度——CUDA 真正价值是 install base:开发者写一次,几亿张 GPU 上都能跑(A10/A100/H100/H200/L 系/P 系),还能跨云。Nvidia 派工程师驻场每个 frontier lab,模型加速 2x 直接 = 客户收入翻倍。

“CPU 是 Cadillac,谁都开 100 mph。GPU 是 F1——懂的人能再榨 2-3x。”

谈到 benchmark 透明度,Jensen 直接 cue Dylan Patel 的 InferenceMAX 公开摆着,TPU/Trainium 都不来;MLPerf 同理。“他们口口声声 40% 优势,但拒绝公开 benchmark 验证”。

谈到 Anthropic 用 TPU——Jensen 强调”Anthropic 是 unique instance, not a trend”。“没有 Anthropic,TPU/Trainium 增长是零”。OpenAI 跟 AMD 合作 + 自研 Titan 加速器,“绝大部分仍是 Nvidia”。

最后他给了一段坦诚的认错:当年 Anthropic 来找投资,Nvidia “没那个体量做 multi-billion 投资”——VC 也不可能投 5-10B。“我没深刻理解他们没别的选择” + “I’m not going to make that same mistake again”。这就是为什么现在已投 OpenAI ~$30B、Anthropic $10B。

“你应该选什么架构?最丰富的、安装基数最大的、生态最深的——这个叫 flywheel。”

关键数字

  • Nvidia 利润率 ~70%,ASIC(含 Broadcom)~65%——所谓”省钱”省得有限([38:39])
  • Hopper → Blackwell 能效 35x(首发)→ 50x(实际,Dylan Patel 实测)([22:23]、[44:42])
  • 投资规模:OpenAI ~$30B,Anthropic $10B([41:15])
  • 全球累计 Nvidia GPU:数亿块,覆盖每个 cloud([28:02])
  • 60% 收入来自 top 5 hyperscaler,但这部分算力多数租给外部客户([33:27])

3. 为什么 Nvidia 不当 hyperscaler? [41:06–57:36]

核心论点:哲学是”do as much as needed, as little as possible”——该做的别人不会做(CUDA、NVLink、cuLitho 这些 20 年的硬骨头),别人能做的让别人做(云不缺玩家)。

Dwarkesh 提议:Nvidia 现金流这么强、又在背刺 CoreWeave $6.3B 担保 + $2B 投资,干嘛不自己当云。Jensen 的回答完全是哲学层面:

“我们做的事,如果不做,没人会做。NVLink、CUDA 20 年(多数年份亏损)、cuLitho(计算光刻)、CUDA-X 各 domain 库——‘如果我们不做,没人会做’。但云有人做,进去只是替代别人。”

为什么不挑赢家?——这是 Jensen 自己讲的最有 humility 的一段。“Nvidia 当年是 60 家 3D 图形公司里最不可能赢的——架构方向’不止有点错,是精确地错’。“这种历史让他选择投资所有 frontier lab而不是赌一个,扶持所有 neocloud(CoreWeave/Nscale/Nebius)让生态存在。

GPU 分配规则——这段他态度很硬,反驳”Nvidia 在切割市场”的提法:先做 forecast,按 PO 顺序 + 数据中心是否就绪分配,绝不按出价拍卖。“我报你一个价就是这个价,需求爆了也是这个价”。Jensen 主动否认”Larry Ellison/Elon Musk 晚餐乞求 GPU”的传闻——晚餐有,“乞求”没有。

跟 TSMC 的关系——他自己抛出来佐证”靠 dependability 而非合同”:30 年合作无法律合同,靠”rough justice”和互信。然后转到 Nvidia 自己的承诺:

“Vera Rubin 今年、Vera Rubin Ultra 明年、Feynman 后年、再后年还有未公布。你要买 $1B AI factory?OK。$100B?OK。一张显卡?OK。”

关键数字

  • 投资 CoreWeave:$6.3B 担保 + $2B 直投([44:03])
  • Nvidia 节奏承诺:每年一代架构,连续到 Feynman 之后([55:37])
  • Nvidia 跟 TSMC 30 年合作,无法律合同([55:02])

4. 该不该卖 AI 芯片给中国? [57:36–01:35:06]

核心论点(Jensen 一边):限制只会逼中国构建非美国技术栈;中国 50% 全球 AI 研究者、60% 主流芯片产能、能源充足,已远超威胁阈值,封锁不阻止只加速对手生态成型。

全场 37 分钟,最激烈的辩论。下面分三层拆。

4.1 Dwarkesh 的论点框架

主持人用 Anthropic Mythos 模型作为楔子:这个模型 Anthropic 没公开发布,因为它发现了成千上万跨平台 high-severity 漏洞,包括 OpenBSD 一个存在 27 年的 0-day。Dwarkesh 的逻辑:算力是输入 → 输入决定模型能力上限 → 美国先到 Mythos 级 → 留出修补窗口 → 再放开。中国 7nm + 没 EUV,flops 仅约美国 1/10——这个差距是窗口的来源。“any marginal compute helps”——边际算力都是有害的。Tesla/iPhone 在中国没造成锁定的反例不适用——AI 不一样。

4.2 Jensen 的反击(5 条线)

线 1:中国已远超”威胁阈值”。Mythos 训练用的是”非常普通”算力,中国完全够。中国占全球 AI 研究者 50%、主流芯片产能 60%+、能源过剩到有”鬼数据中心”基建空置。7nm 等于 Hopper,今天大部分模型本来也跑在 Hopper 上。能源充足时不需要 perf/W,可以用 NVL72 式 silicon photonics 把多个 7nm 芯片堆成大集群。算法补硬件——MoE、attention 优化能再榨 10x 性能;“算法是真正的 lever”。

线 2:算力 ≠ 浓缩铀

“比作 enriched uranium 是 lunacy。芯片是芯片,他们自己能造。微处理器、DRAM 同样的逻辑,但都没禁。”

线 3:限制的真实代价。AI 是 5 层 cake,每层都要赢,最重要的是应用层。限制只让中国构建非美国技术栈——50% 开发者在中国,逼他们用 Huawei 等于把开源生态推过去。中国是全球开源软件最大贡献者开源模型最大贡献者——一旦下一代 DeepSeek 首发在 Huawei 上而不是 Nvidia 上,“对美国是国家级灾难”。

线 4:电信业前车之鉴。Jensen 反复回到这个比喻——美国对华电信制裁的政策导致美国电信业被赶出全球市场,“我们现在连自己的电信都不掌控”。“Not too late, but it has happened”——已经在 AI 赛道复制电信业的灾难。

线 5:你说话太绝对

“Speak in absolutes is childish. ‘any marginal compute helps’ 这个论点要求中国 0 算力才成立——但他们不是 0。“

4.3 最后的 crux

Dwarkesh 的最后一击:

“你同时说两件矛盾的事——一边说我们能赢 Huawei 因为 Nvidia 更好;一边说就算我们不卖中国也会做出一样的东西。怎么同时为真?”

Jensen 的回应:

“完全合理。没有更好的选择时,他们用唯一的选择。 Nvidia chip 更好——更易编程、生态更好。当然要卖给他们。这样美国技术领导力才能传播。”

Jensen 留了一个未来核对的画面

“几年后我们想把美国技术栈推向印度、中东、非洲、东南亚时,你会发现今天这套政策让美国白白让出第二大市场。我们到时候再做这场对话。”

关键数字

  • 中国占全球 AI 研究者 ~50%([59:23])
  • 中国占全球主流芯片产能 60%+([59:08])
  • 中国是全球科技产业 ~40%([83:46])
  • 美国数据中心算力是其他任何地区的 100x(Jensen 自述,[75:48])
  • Huawei 910C vs H200:flops/带宽/内存约 1/3 - 1/2([72:46])
  • 中国 flops 仅约美国 1/10(Dwarkesh 估算,[63:38])
  • Anthropic Mythos:发现成千上万漏洞,OpenBSD 一个 27 年老 0-day
  • Huawei 单年出货 数百万颗——Jensen 强调”远超 Anthropic 总量”

5. 为什么不并行多种芯片架构? [01:35:06–end]

核心论点:能做但模拟器证明都更差所以不做;唯一例外是 Groq——因为 token 价值上升催生了 high-ASP 低吞吐的新 segment。

Dwarkesh 列了候选方案:Cerebras 风格 wafer-scale、Dojo 风格大封装、no-CUDA 实验,Nvidia 资源充足应该并行尝试。Jensen 直答:

“We could. It’s just we don’t have a better idea. We simulate it all in our simulator, proveably worse. So we wouldn’t do it.”

唯一例外是最近 Groq 被纳入 CUDA 生态——这是 Jensen 第一次承认 inference 市场要分层。触发因素是 token 价值上升:以前 token 要么免费要么便宜得无所谓,现在不同客户要不同响应时间。软件工程师拿到极快响应的 token 能更高产,公司愿意为此付高价。所以 Pareto frontier 扩张:从”throughput 越高越好”扩到”throughput 较低但 ASP 更高也成立”。Groq 低延迟特性正好补上这段。

关于”回 N7 用旧节点造廉价 Hopper”——Jensen 说没必要:架构远不止 transistor scale,packaging、numerics、system architecture 都是 R&D 资产,“回去用 7nm 做新设计”R&D 成本无法承受。但他给了反事实承诺:“如果世界从此再无新产能,我会立刻回去用 7nm。”

最后一个反事实问题:没有 AI 的 Nvidia 是什么?Jensen:仍然很大——general-purpose computing 已经走到尽头,唯一出路是 domain-specific acceleration。早期应用:分子动力学、地震处理(油气勘探)、计算光刻、量子化学。“看 GTC 开头那部分,全是非 AI 的”。

全篇数字汇总

类别指标数值时间戳
Nvidia 财务财报采购承诺~$100B[04:26]
Nvidia 财务SemiAnalysis 估总采购$250B[04:26]
Nvidia 财务利润率~70%(vs ASIC 65%)[38:39]
Nvidia 财务投资 OpenAI~$30B[41:15]
Nvidia 财务投资 Anthropic$10B[41:15]
Nvidia 财务担保 + 投资 CoreWeave$6.3B + $2B[44:03]
增长率收入每年 2x[08:32]
增长率flops 供给每年 3x+[08:32]
性能跃迁Hopper → Blackwell 能效35-50x[22:23]
性能跃迁Moore’s Law 上限25%/年[22:00]
性能跃迁算法重构额外贡献10x[69:39]
产业占比AI 占 TSMC N3 节点今年 60%、明年 86%[09:00]
产业占比中国占全球 AI 研究者~50%[59:23]
产业占比中国占全球主流芯片产能60%+[59:08]
产业占比中国占全球科技产业~40%[83:46]
产业占比美国数据中心算力 vs 其它地区100x[75:48]
中美芯片对比Huawei 910C vs H200(flops/带宽/内存)1/3–1/2[72:46]
中美芯片对比中国 flops vs 美国(Dwarkesh 估)1/10[63:38]
安全Anthropic Mythos 发现 OpenBSD 0-day存在 27 年[58:09]

人物与机构索引

名字角色 / 在访谈中的语境出现章节
TSMC30 年战略伙伴,无法律合同;CoUPE 共同发明;Nvidia N3 主要客户1, 3
SK Hynix / Micron / SamsungHBM 三巨头;Sanjay(Micron)5 年前就 all-in HBM1
ASMLEUV 唯一供应商,受 Nvidia 通过 TSMC 间接传导需求1
Lumentum / Coherentsilicon photonics 生态,Nvidia 多年前就开始扶持1
Cadence / SynopsysEDA 工具厂,Jensen 看好(agent 爆炸 → 工具实例数爆炸)1
OpenAINvidia 已投 ~$30B;自研 Titan accelerator,但绝大部分仍 Nvidia2
AnthropicNvidia 当年没投是 Jensen 自认 miss;现在已投 $10B;目前算力主要是 TPU+Trainium2, 4
GoogleTPU 自研者,Anthropic 投资人;Nvidia 视 TPU 为非威胁2
AWSTrainium 自研者,Anthropic 早期投资人2
xAI(Elon)Nvidia 直接帮其搭超算2
CoreWeaveNvidia 担保 $6.3B + 投资 $2B 的 neocloud3
Crusoe访谈赞助商,做集群级 KV cache(10x TTFT、5x 吞吐 vs vLLM)2
Nscale / NebiusNvidia 扶持的 neocloud3
Larry Ellison / Elon MuskJensen 否认晚餐”乞求 GPU”传闻3
Huawei单年出货数百万颗,“远超 Anthropic 总量”4
SMIC中国晶圆厂,7nm,无 EUV4
DeepSeek / Qwen中国开源模型代表4
Dario AmodeiAnthropic CEO,前期访谈持限制对华出口立场,被 Jensen 多次反驳4
Dylan Patel / SemiAnalysisInferenceMAX 公开 benchmark,被 Jensen 直接 cue1, 2
Groq最近被纳入 CUDA 生态,补 high-ASP 低延迟 segment5
MellanoxNvidia 网络业务核心收购,今天反复强调”networking matters”5
Sanjay(Micron)HBM 早期信徒,Jensen 公开点名感谢1

争议点 / 我没听清楚的地方

  • Dwarkesh 的核心 disagreement:边际算力是输入决定上限——Jensen 反复以”绝对化思维”为由拒绝接受这个 framing,但没有正面回答”如果敌方先到 Mythos 级且立刻部署”的情景
  • Anthropic Mythos vs Jensen 论调的张力:Mythos 这种”发现 27 年 0-day”的能力,连 Anthropic 自己都不敢公开发布;Jensen 把它列为”AI 应该做的事”,回避了 timing 风险
  • 60% hyperscaler 收入但”绝大部分租给外部”:Jensen 强调的细分数字没有给出具体百分比拆解,值得后续验证
  • CUDA 生态护城河 vs hyperscaler 自研栈:Jensen 承认 Anthropic 模型现在 GPU/TPU/Trainium 都跑得起来,分歧只在迁移成本曲线,不是”是否可移植”

后续可追踪

  • InferenceMAX(Dylan Patel / SemiAnalysis)公开 benchmark:是否有 TPU/Trainium 提交后续?
  • Nvidia 投资全名单:Jensen 说”投所有 frontier lab”——查 13F 里的全名单
  • Vera Rubin 实际交付节奏 vs Crusoe “今年内部署” 承诺
  • Groq 整合进 CUDA 后实际 perf/$:是否真的扩张了 Pareto frontier
  • Anthropic-Google-Broadcom 多 GW TPU 协议金额细节:Jensen 说 Anthropic 是”unique”,但金额规模值得交叉验证
  • Huawei 单年出货”数百万颗”:与 SMIC 公开产能数据交叉验证
  • AI 占 TSMC N3 60% / 明年 86%(SemiAnalysis):晶圆厂供给侧硬约束如何兑现

相关笔记

基于共享的人物 / 机构 / 标签自动生成(每次 publish 时刷新)。

原始 Transcript

展开查看完整转写

完整 transcript(YouTube 自动字幕,已按段落合并便于阅读):transcripts/Hrbq66XqtCo.txt