Jensen Huang – Will Nvidia’s moat persist?

TL;DR

Jensen 系统反驳”Nvidia 护城河 = 供应链锁定 + CUDA 锁定”的简化论:他认为护城河是把”electrons → tokens”全栈 co-design 做透。全场反复出现的核心论证模式:对方提一个”理论上 X 应该削弱 Nvidia”的论点,Jensen 不直接驳论点本身,而是把场景扩到更大维度——把”算力对比”扩到”全栈生态对比”、把”中国少 1/10 算力”扩到”中国 50% 研究者 + 60% 制造 + 充足能源”——让原论点在新尺度上失去意义。后半段与主持人就对华售芯激烈交锋 37 分钟,Jensen 全程把”any marginal compute helps”的限制论扩展到归谬场景(“那你也该禁电力”),同时提出对称威胁——“DeepSeek 哪天首发在 Huawei 上就是国家级灾难”。

术语速查

术语简释
CoWoSTSMC 的 2.5D 先进封装技术,把 GPU die 和 HBM 内存堆在一片基板上。一度是 AI 芯片最大瓶颈
HBMHigh Bandwidth Memory,专门给 GPU 用的高带宽内存,主要供应商 SK Hynix、Micron、Samsung
HBM2上一代 HBM。比当前最新(HBM3e/HBM4)带宽低约一个数量级——是中国能用 7nm 时可获得的版本
N3 / N7 / N2 / 1.6nmTSMC 的工艺节点。数字越小越先进。中国 SMIC 目前停在 N7
EUV极紫外光刻机,由 ASML 垄断;造 5nm 以下芯片必需,已被禁运中国
TPUGoogle 自研的 AI 专用芯片(ASIC 类型),Gemini/Claude 部分训练在上面
TrainiumAWS 自研的 AI 训练 ASIC,Anthropic 部分用
ASICApplication-Specific IC,针对特定任务的专用芯片,非通用
systolic arrayTPU 内部的硬件结构,专门擅长 matrix multiply 但不擅长其他
CUDANvidia 的 GPU 编程平台和软件生态,护城河核心
Triton / vLLM / SGLang / verl / NeMo RL开源 AI 框架,多数底层调 CUDA
NVLink / Spectrum-X / NVL72Nvidia 的 GPU 互联技术 / 网络 / 把 72 张 GPU 连成一个超大计算单元的机柜
Hopper / Blackwell / Vera Rubin / FeynmanNvidia 一年一代的 GPU 架构:H100 (2023) → B200 (2024) → 今年 → 明年 → 后年
MoE / SSMMixture of Experts(稀疏激活的大模型架构)/ State-Space Model(替代 Transformer 的新架构候选)
TTFTTime To First Token,推理时第一个输出 token 的延迟
KV cache推理时把已计算的注意力中间结果缓存下来
silicon photonics用光(而非电)在芯片间传数据,长距离低损耗
hyperscaler超大规模云服务商:Google/AWS/Azure/OCI/Meta
neocloud新一代纯 GPU 云:CoreWeave、Crusoe、Lambda、Nscale、Nebius,被 Nvidia 扶持
cuLithoNvidia 开发的计算光刻库,加速半导体制造
co-designNvidia 的核心方法论:硬件 + 软件 + 算法同时设计优化,无法被纯硬件公司复制
ASP / TCOAverage Selling Price 平均售价 / Total Cost of Ownership 总拥有成本

全篇主线

Dwarkesh 沿着五个互锁的”反 Nvidia”假设递进提问:(1) 护城河只是供应链锁定?(2) TPU 等 ASIC 会侵蚀份额?(3) Nvidia 为什么不当自己的云?(4) 该不该卖芯片给中国?(5) 为什么不并行多个芯片架构?Jensen 的统一回答框架是 “electrons-to-tokens 全栈 co-design” + “do as much as needed, as little as possible” 哲学。第 4 段对华售芯是最长、最激烈的辩论——Jensen 把整场对话从”美国领先 vs 中国追赶”重新 frame 成”美国技术栈覆盖世界 vs 让位给中国技术栈”,用美国电信业被赶出全球市场作为前车之鉴。

1. 供应链锁定是 Nvidia 的护城河吗? [00:00–16:25]

核心论点:护城河不是采购合同的金额,而是把”电子→token”全链路 co-design 这件极难的事做透——别人无法复制 Nvidia 在 supply chain CEO 间做”informing + aligning”的对话权。供应链瓶颈最多 2-3 年解决,真正长期瓶颈是能源 + 基建劳动力(“plumbers and electricians”)。

1.1 [00:00–08:30] “Nvidia 只是软件公司,所以会被软件商品化” 的反驳

Dwarkesh 开局抛了个”幼稚版”假设:Nvidia 实际上只是把 GDS2 文件 发给 TSMC,TSMC 造逻辑 die,SK Hynix/Micron/Samsung 供 HBM,台湾 ODM 装机柜——所以 Nvidia 本质上是个软件公司。如果”软件会被 AI 商品化”是当前 SaaS 估值崩盘的逻辑,那 Nvidia 自己也会被同样的逻辑吞噬。

Jensen 不接这个 framing,反而把它扩到更高维度。他的核心 push back 是:“电子转换成 token 这件事必须有人做——它不是个软件抽象,是真正的物理工程”。他用了一个有意思的措辞:“making one token more valuable than another token, like making one molecule more valuable than another molecule”——把 token 经济学跟分子合成的难度类比。背后的工艺、工程、科学远未成熟。

然后他展开第二条 reasoning chain——软件商品化不是 Nvidia 的威胁,反而是 Nvidia 的机会。他的推论:当 agent 数量指数级增长,工具使用量也指数级增长。Excel、PowerPoint、Cadence、Synopsys 这些都是”tool”——agent 多了,每个 agent 都要用工具,所以工具公司的实例数会”skyrocket”。他特别点 Synopsys Design Compiler 作为类比——agent 帮工程师做 floor planner、design rule checker 工作,所以这些工具被调用的次数会爆炸。

他的 mental model:「输入是电子,输出是 token,中间是 Nvidia。我们的工作是 do as much as necessary and as little as possible」——这句话是后面很多对话的解释基础(Ch3 也会回到这个哲学)。

关于供应链锁定(Dwarkesh 提到的财报 $100B 采购承诺和 SemiAnalysis 估的 $250B 总规模),Jensen 的解释超出了”显式合同金额”层面。显式承诺只是一部分,更大量是隐式——他亲自跟 TSMC、Micron、ASML 等上游 CEO 谈未来需求规模,让他们基于 Nvidia 的下游 demand 做大投资。“为什么他们愿意为我投而不为别人投?因为只有 Nvidia 有承接得下的下游需求规模。” 这是 GTC 演讲那段”教学似的部分”的真正功能——做 supply chain 的 alignment。

“Some people always say, ‘Jensen, in most keynotes, it’s one announcement after another.’ With our keynotes, there’s always a part that’s a little torturous in the sense that it almost comes across like education. That’s exactly on my mind. I need to make sure the entire supply chain understands what is coming at us, why it’s coming, when it’s coming, how big it’s going to be.”

这 10 分钟提到的具体内容

  • 数字:财报 ~$100B 显式采购承诺;SemiAnalysis 估总 $250B([04:26]);预测未来 trillion-dollar 规模供应链可承受([07:40])
  • 提到的公司:TSMC, SK Hynix, Micron, Samsung(HBM 三巨头), ODM 在台湾
  • 工具公司类比:Excel, PowerPoint, Cadence, Synopsys, Synopsys Design Compiler([02:53–03:49])
  • 没有提到的反方:Dwarkesh 没正面挑战”软件商品化 = 工具公司爆发”这个推论的反例(如果 agent 之间直接用 API 调用而不通过 GUI 工具呢?)

1.2 [08:30–16:25] 为什么 60% N3 占有率下还能继续 2x,瓶颈到底在哪

Dwarkesh 提出一个有数学约束力的质疑:Nvidia 多年保持收入年 2x、flops 年 3x。当前 AI 已占 TSMC N3 节点 60%、明年预计 86%(SemiAnalysis 数据)——理论上已经接近上限,没法继续翻倍。这意味着上游约束会让增长率不得不下降。

Jensen 不直接回答”如何 build 2x more fabs”,而是把质疑分解成 4 层逻辑:

第一层——他主动把”瞬时需求 > 供给”重新 frame 为好状态。“You want an industry where instantaneous demand is greater than total supply of the industry. The opposite is obviously less good.” 这是个看似废话但实际很关键的 framing 转换——把 Dwarkesh 的”上游约束 = 问题”框架转成”我故意保持的产业状态”。

第二层——产业”swarm”机制。当一个具体瓶颈太突出,整个产业会蜂拥而上把它解决。例子:两年前 CoWoS 是大问题,Nvidia 连续翻倍后现在已不再是话题——“people aren’t talking very much about CoWoS anymore”。HBM、silicon photonics 也是同样路径。Jensen 解释这种 swarm 机制为什么对 Nvidia 偏心——因为他 5 年前就跟 Micron 的 Sanjay 等关键人物把 thesis 说清楚了,他们提前 5 年做了 capacity 投资,今天兑现。

第三层——Nvidia 的 supply chain pre-fetching 已经在做。他列了具体例子:Lumentum、Coherent 的 silicon photonics 生态、跟 TSMC 联合发明的 CoUPE 封装技术(专利还 license 给整个 supply chain 让生态开放)、double-sided probing 这种新测试设备。这些都是几年前播种、现在收获。

第四层(也是 reasoning chain 的核心)——真正的瓶颈不是 chip capacity,是 plumbers 和 electricians。他用这个反直觉的回答把整个 frame 又扩了一层。能源 + 基建建设的人手限制,比逻辑芯片产能限制严重得多。“chip capacity 是 2-3 年问题、CoWoS 是 2-3 年问题——但能源政策、反工业化倾向”才是真正长期 structural 限制。

这段 Jensen 借机做了一段产业 advocacy:诅咒人不要做软件工程师、不要做 radiologist 的论调是错的——10 年前同样有人说”radiology 必死”,今天美国缺的就是 radiologist。这一段在 Ch4 [88:37] 还会回归,作为”AI 不会消灭工作”论的 anchor。

“More chip capacity, that’s a 2-3 year problem. More CoWoS capacity, 2-3 year problem. None of those things worry me. It’s the stuff that’s downstream from us. Energy policies that prevent energy from… You can’t create an industry without energy.

Dwarkesh 这里有个诚实的承认:“I feel like I have guests tell me the exact opposite thing sometimes. In this case, I just don’t have the technical knowledge to adjudicate.”——Jensen 用幽默回应:“The beautiful thing is you’re talking to the expert.”

这 10 分钟提到的具体内容

  • 数字:AI 占 TSMC N3 60%(今年)/ 86%(明年)([08:44–09:03]);瓶颈 timeline 2-3 年([15:04]);Hopper → Blackwell 30-50x 能效跃迁([14:55])
  • 公司:Sanjay 和 Micron 团队(5 年前 all-in HBM)([11:09]);Lumentum、Coherent(silicon photonics);ASML(间接传导 EUV 需求)([14:32])
  • 反方:Dwarkesh 引用”其他嘉宾说相反的事”——Jensen 没在这里点名是谁,但实际指向 SemiAnalysis 等供给侧分析师

2. TPU 会不会破护城河? [16:25–41:06]

核心论点:TPU 是 systolic array 的 ASIC,只擅长 matmul;Nvidia 卖的是”accelerated computing”——能跨多次算法革命(MoE/SSM/diffusion-AR/attention 变种)持续兑现 30-50x 代际跃迁。ASIC 受 Moore’s Law 限制每年只能 25%,可编程性 + CUDA + 跨云安装基数让 Nvidia 在 systemic 层面无法被替代。

2.1 [16:25–25:00] “TPU 在 matmul 上理论更优”vs Jensen 的可编程性反驳

Dwarkesh 提的具体技术 case:Claude 和 Gemini(top 3 模型有 2 个)训练在 TPU 上。他援引 AI researcher 朋友的说法——“TPU 是为了 matmul 优化的 systolic array,不浪费 die area 在 warp scheduler、threads、memory bank switching 上”,意思是 GPU 的灵活性在 AI 训练上是浪费。

Jensen 的反驳分两层:

第一层——AI 不只是 matmul。他列了几个”新算法”作为反例:新 attention mechanism、SSM (state-space model)、hybrid SSM、diffusion 跟 autoregressive 融合的新架构——这些需要”generally programmable”的硬件。TPU 不能跑新 attention。

第二层(reasoning chain 的关键)——为什么 Hopper → Blackwell 能做 50x?。Jensen 引用 Dylan Patel 的实测:“首发我说 Hopper → Blackwell 35x 能效提升,发布后 Dylan 写文章说我’sandbagged’——实际是 50x”。然后他展开为什么这种代际跃迁不可能纯靠 transistor 改进:

“TPUs, like anything else, are impacted by Moore’s Law, which is increasing by about 25% per year. The only way to really get 10x or 100x leaps is to fundamentally change the algorithm and how it’s computed every single year.

50x 是怎么来的?Jensen 拆解:MoE 模型 + 跨多个计算系统 disaggregated + 新 kernel + 把计算下放到 NVLink fabric + Spectrum-X 网络层 + 算法层同时优化——“co-design across processors, system, fabric, libraries, algorithm simultaneously”。这是 Nvidia 自称”extreme co-design company”的具体含义。Jensen 用了一句很重的话:“Without CUDA to do that, I wouldn’t even know where to start”——意味着没有 CUDA 的 ASIC 厂商根本不可能做这种 5 层同时优化。

这段还插了一个 Crusoe 广告读稿,但有个数据点值得记:Crusoe 用集群级 KV cache(不只是单用户)→ 10x faster TTFT、5x throughput vs vLLM——这是 agentic system 用长 prefix 的关键场景。

这 10 分钟提到的具体内容

  • 数字:Moore’s Law 25%/年([21:52]);Hopper → Blackwell 50x(Dylan Patel 实测,[22:23–22:49]);Crusoe KV cache 10x TTFT / 5x throughput vs vLLM([24:17–24:32])
  • 算法:MoE、SSM、hybrid SSM、diffusion-AR 混合、新 attention 机制([20:53–21:23])
  • 公司:Google、Amazon (AWS)、Azure、OCI、xAI (Elon)、Lilly(Nvidia 跨云全覆盖案例);Crusoe
  • 反方:Dwarkesh 的 “TPU 不浪费 die area” 论点 Jensen 没正面反驳”TPU matmul 单位面积更高”——他绕开这点专攻”matmul ≠ AI 全部”

2.2 [25:00–33:00] “Hyperscaler 自己能写 kernel” → CUDA 的真正价值在 install base,不在 perf

Dwarkesh 给出一个更刁钻的版本——CUDA 的护城河可能只对小客户起效,但 Nvidia 60% 收入来自能自己写 kernel 的 hyperscaler。OpenAI 用 Triton 而不是 cuBLAS;Anthropic、Google 主要用 TPU/Trainium 自己的栈。如果 hyperscaler 能在 spec 层面跟 Nvidia 看齐(“flops/$ + memory bandwidth/$”),Nvidia 70%+ 的利润率不可持续。

Jensen 的回答完全跳出”performance”维度——CUDA 的真正价值是 install base + 跨云 这种 systemic 优势:

论点 1:开发者要 install base。“You’re not building software just for yourself. You’re building it for your fleet or everybody else’s fleet because you’re a framework builder.” Nvidia 有数亿张 GPU 在外面(A10、A100、H100、H200、L 系、P 系),每个 cloud 都有,甚至机器人里也有 CUDA stack。写 CUDA 代码意味着写一次到处跑——hyperscaler ASIC 写一次只在那一个 hyperscaler 跑。

论点 2:跨云一致性。“If you’re an AI company or developer, you’re not exactly sure which cloud service provider you’re going to partner with.”Nvidia 在每个 cloud 都有 → 开发者选 Nvidia 等于”选了所有 cloud”。

论点 3(F1 vs Cadillac 类比)——这是最有 punchline 的段落:

“A CPU is kind of like a Cadillac. It’s a nice cruiser. Everybody drives it pretty well. But Nvidia’s GPUs are like F1 racers. Everybody’s able to drive it at 100 mph, but it takes quite a bit of expertise to push it to the limit. We use a ton of AI to create the kernels we have.”

意思:hyperscaler 自己写的 kernel 跟 Nvidia 团队驻场优化的 kernel 差距是 2-3x。Jensen 给了具体数字——Nvidia 工程师驻场每个 frontier lab 后通常能再榨 2x、3x、50%。考虑到 Hoppers + Blackwells 总 fleet 的体量,提速 2x = 客户收入直接翻倍。这是个自我维持的 incentive 循环:客户越用 Nvidia 越赚 → 越愿意为 Nvidia 工程师驻场买单。

Jensen 还反向 dare:Dylan Patel 的 InferenceMAX 基准摆着,TPU/Trainium 都不来。Trainium 口口声声”40% 优势”但拒绝公开基准验证。MLPerf 同理。“Nobody wants to show up. It’s really hard.”

这 10 分钟提到的具体内容

  • 数字:Nvidia 利润率 70%+([30:16]);驻场工程师能再榨 2-3x kernel 性能([31:34–31:52])
  • 框架:Triton、vLLM、SGLang、verl、NeMo RL([26:33–26:38])
  • 基准:InferenceMAX (Dylan Patel)、MLPerf([32:24–32:55])
  • ASIC 厂:Trainium 自称 40% 优势但不公开验证([33:04])
  • 反方:Dwarkesh 的”hyperscaler 能 RL 调 kernel”假设——Jensen 没否认 RL 能调,但论点是”调到接近 Nvidia 但不超过、且只在自家硬件上能用”

2.3 [33:00–41:06] Anthropic 在 TPU 上是孤例不是趋势 + Jensen 的认错

Dwarkesh 再追:如果 Nvidia 真的全方位优势,为什么 Anthropic 几天前刚宣布跟 Broadcom/Google 多 GW TPU 协议、且 majority of compute on TPU?Google 自家 Gemini 也是 majority TPU。

Jensen 的反击 framing 很关键:“Anthropic is a unique instance, not a trend. Without Anthropic, why would there be any TPU growth at all? It’s 100% Anthropic. Without Anthropic, why would there be Trainium growth at all? It’s 100% Anthropic.” 意思是 ASIC 阵营的”成功”不能 generalize 到趋势——它依赖一家特定客户。然后他给具体证据——OpenAI 跟 AMD 合作 + 自研 Titan accelerator,但”vastly Nvidia”。

关于”为什么不挑战 Nvidia 利润率”的反驳,Jensen 引出一个有意思的金融论证——ASIC 阵营利润率也很高。Nvidia margin ~70%,ASIC 阵营(Broadcom 帮造)~65%。“What are you really saving? They believe in their incredible ASIC margins too.”——意思是客户用 ASIC 不是因为便宜,是因为别的(比如 Anthropic 因为投资关系不得不用)。

这段最有信息量的是 Jensen 的认错段落——这是访谈罕见的 candid moment:

当年 Anthropic 来找 Nvidia 投资,Nvidia 因体量不够没接。他说”my mistake is I didn’t deeply internalize that they really had no other options”——他以为 Anthropic 能从 VC 融到 5-10B(实际不可能)。“We had never invested outside the company at the time. I didn’t realize we needed to.”

关键 turning point:“I’m not going to make that same mistake again”——所以现在已投 OpenAI ~$30B、Anthropic $10B。即使 Anthropic 因为当年 deal 现在主算力还在 Trainium/TPU,Jensen 也”delighted to be an investor”。

这段还有个 framing 值得记——Jensen 把”投资 frontier lab”normalize 成 supplier 责任,类似 Google/AWS 当年投 Anthropic 是因为他们 cloud 业务需要它。VC 模式做不到这种规模,所以 supplier 必须填这个空。

这 10 分钟提到的具体内容

  • 数字:Nvidia ~70% margin、ASIC ~65% margin([38:34–38:57]);Nvidia 投资 OpenAI ~$30B、Anthropic $10B([41:15–41:22])
  • 公司:Anthropic(unique instance)、OpenAI + AMD + Titan accelerator、Google TPU、Broadcom
  • 反方观点:Dwarkesh 的”Anthropic 是趋势开端”假设 Jensen 用”如果你删掉 Anthropic 这一家,TPU/Trainium 增长就是 0”反驳
  • 自我修正:Jensen 公开认错没投 Anthropic 的过去 → 现在补救

3. 为什么 Nvidia 不当 hyperscaler? [41:06–57:36]

核心论点:哲学是 “do as much as needed, as little as possible”——CUDA、NVLink、cuLitho 等”如果 Nvidia 不做,没人会做”的事必须做;cloud 已经有人做,进去只是替代。不挑赢家是因为 Nvidia 自己当年是 60 家 3D 图形公司里”最不可能赢的那个”,这种 humility 让他选择投资所有 frontier lab 和扶持所有 neocloud。

3.1 [41:06–50:00] “Nvidia 现金这么多干嘛不当 cloud” → 哲学反驳 + 不挑赢家

Dwarkesh 提的金融论点很尖锐——Nvidia 已经在背刺 CoreWeave $6.3B 担保 + $2B 直投,本质就是借钱给 cloud 公司买 Nvidia chip。既然这个 middleman 必须存在,Nvidia 自己当这个 middleman 不是更赚?

Jensen 没有从金融维度回答,而是搬出 “do as much as needed, as little as possible” 哲学。reasoning chain 是:

第一步——Nvidia 应该做的事:那些”如果我们不做,没人会做”的事。具体例子:

  • NVLink 的设计(高 risk,无人做)
  • 20 年 CUDA 投入(多数年份亏损)
  • CUDA-X 各 domain library——15 年前就开始做 ray tracing、image generation、AI、data processing、vector data processing 的 domain library。“if we didn’t create them, nobody would. I am completely certain of that.
  • cuLitho(计算光刻库)——“if we didn’t create it, nobody would have”

第二步——Nvidia 不应该做的事:cloud。“the world has lots of clouds. If I didn’t do it, somebody would show up.” 这是哲学的对仗——别人会做的事 Nvidia 不做。

第三步:用同一哲学解释 neocloud 投资。CoreWeave、Nscale、Nebius “wouldn’t exist if we didn’t support them”——这跟”cloud 已经有人做”看似矛盾,但 Jensen 区分:hyperscaler 已经存在,但 GPU-only 的 specialized cloud 没人专门做,Nvidia 必须催生这层生态

不挑赢家的部分是 Jensen 全场最 humble 的段落:

“When Nvidia first started, there were 60 3D graphics companies. We are the only one that survived. If you would have taken those 60 graphics companies and asked yourself which one was going to make it, Nvidia would be at the top of that list NOT to make it. Nvidia’s graphics architecture was precisely wrong. It’s not a little bit wrong. We created an architecture that was precisely wrong, and it was an impossible thing for developers to support. It was never going to make it.

意思:连他自己都不能事前判断谁能赢,所以策略是”投所有 frontier lab,扶持所有 neocloud”。当 Dwarkesh 反问”那为什么你又点名说 CoreWeave/Nscale/Nebius 没有 Nvidia 不行”,Jensen 给了一个二阶反驳——他们必须先有 will to exist 和自己的 business plan,Nvidia 只是在他们已经决定要做时提供 financing。“Our goal is to focus on what we do, keep our business model as simple as possible. We’re not in the financing business.”

这 10 分钟提到的具体内容

  • 数字:CoreWeave $6.3B 担保 + $2B 直投([43:53]);20 年 CUDA 投入([44:31]);CUDA-X 15 年前启动([44:52])
  • 公司:CoreWeave、Nscale、Nebius(被扶持的 neocloud);OpenAI($30B 投资因为”the world needs them to exist”)
  • 哲学:do as much as needed, as little as possible([44:13])
  • 历史 anchor:60 家 3D graphics 公司、Nvidia 当年”precisely wrong”的架构([47:29–48:13])

3.2 [50:00–57:36] GPU 分配机制 + 跟 TSMC 30 年合作的范式

Dwarkesh 抛了一个流传很广的传闻——Nvidia 在 GPU 紧缺时不按 high bidder 分配,而是给”Hey 我们想让 neoclouds 存在所以分一些给 CoreWeave、Crusoe、Lambda”。意思是 Jensen 在”切割市场”,扭曲了价格信号。

Jensen 直接否认这个 characterization——“No. No. Your premise is just wrong.”。他给的实际机制是:

  1. 跟客户做 forecast 是 job number one(因为 datacenter 建设需要数年提前量)
  2. 实际分配按 first in, first out(PO 顺序)
  3. 例外:如果某客户数据中心未就绪,会先 serve 别的客户——但这是”maximizing throughput of our own factory”,不是政治分配
  4. 绝不按出价拍卖——“that’s a bad business practice”

关于”不竞价”的原则,他给出 reasoning:“I prefer to be dependable, to be the foundation of the industry. You don’t need to second-guess. If I quoted you a price, we quoted you a price. If demand goes through the roof, so be it.” 这是个 reputational moat 论证——靠谱 = 长期信任 = 客户敢在 supply chain 层面 commit。

Jensen 主动否认 Larry Ellison + Elon Musk “晚餐乞求 GPU” 的传闻:晚餐有过,“begged” 没有。“They just had to place an order.”

跟 TSMC 关系作为 dependability 的旁证——30 年合作,没有 legal contract。“There’s always some rough justice. Sometimes I got a better deal, sometimes worse. But overall the relationship is incredible. I can completely trust them.”——这是 Jensen 用 TSMC 关系来 anchor 他对自己客户也想做到这种关系的承诺。

然后转到 Nvidia 自己的节奏承诺——这是访谈里最有 forward-looking 信号的段落:

“Vera Rubin is going to be incredible this year. Next year, Vera Rubin Ultra. The year after that, Feynman. The year after that, I haven’t introduced the name yet. Every single year you can count on us. Your token cost will decrease by an order of magnitude every single year. I can count on it like I can count on the clock.”

这是 4 年 roadmap 的公开承诺——比业内任何 ASIC 队伍都 aggressive。最后他给了一个 scaling 承诺:“$1B AI factory 没问题、$100M 没问题、$10M 没问题、一张显卡也没问题、$100B 也没问题”——意思是 Nvidia 是世界上唯一对所有 scale 都接得住的公司。

这 10 分钟提到的具体内容

  • 分配机制:forecast → PO 顺序 → 数据中心就绪程度([52:30–53:16])
  • 否认的传闻:Larry/Elon 晚餐”乞求 GPU”([53:35])
  • 节奏:Vera Rubin (今年) → Vera Rubin Ultra (明年) → Feynman (后年) → 未公布([55:37])
  • TSMC 30 年合作无 legal contract([55:14])
  • Scale 承诺:从 1 张显卡到 $100B AI factory 都接得住([56:31–56:58])

4. 该不该卖 AI 芯片给中国? [57:36–01:35:06]

核心论点(Jensen 一边):限制只会逼中国构建非美国技术栈;中国 50% 全球 AI 研究者、60% 主流芯片产能、能源充足,已远超威胁阈值,封锁不阻止只加速对手生态成型。Jensen 的核心 framing 转换是反复把”美国领先 vs 中国追赶”重新 frame 成”美国技术栈覆盖世界 vs 让位给中国技术栈”

全场 37 分钟,最激烈的辩论。4 个子段拆开。

4.1 [57:36–01:07:00] Mythos 起手 + Jensen 的”中国已超阈值”反驳

Dwarkesh 用 Anthropic Mythos 作楔子——这个模型 Anthropic 没公开发布,因为它发现了成千上万跨平台 high-severity 漏洞,包括 OpenBSD 一个存在 27 年的 0-day。OpenBSD 是专门为”无 0-day”设计的操作系统,被攻破 27 年老漏洞意味着 AI 攻击能力实际上比 Anthropic 公开承认的还可怕。Dwarkesh 的推论:如果中国能用 AI 芯片训练 Mythos 级模型并大规模部署,对美国是国家安全级威胁。

Jensen 不进入”是否构成威胁”的辩论,而是把场景扩到更大维度:

第一波反驳——Mythos 训练用的算力本身就是 “mundane”。“The amount of capacity and the type of compute it was trained on is abundantly available in China.” 他然后列了中国已有的资产:60% 全球主流芯片制造、50% 全球 AI researchers(“most of the AI researchers in all of these AI labs are Chinese”)、能源过剩。在这套数据集面前,“美国卖不卖几颗 chip”已经不是有意义的杠杆。

第二波——他把问题从”compute”扩到”layer cake”。 Jensen 引入 5 层 cake 概念(在 Ch1 也出现过):能源 → chip → system → model → application。最底层是能源——“if you have abundance of energy, it makes up for chips. If abundance of chips, makes up for energy.”

然后他给一个具体物理推论——美国能源稀缺所以必须 perf/W 最大化(“throughput per watt is off the charts”),但中国能源充足时不需要 perf/W。“What do you care about performance per watt for? You can use old chips to do.” 关键 punchline:“7nm chips are essentially Hopper. Today’s models are largely trained on Hopper generation. So 7nm chips are plenty good.”

这一段他还给了几个关于中国制造能力的具体证据——Huawei 单年出货数百万颗,“way more than Anthropic has”。SMIC 有充足的 logic capacity 和 HBM2 内存供应。

对开源生态,他给了一个反直觉的 framing:“Open source ecosystem needs to thrive. A lot of that is coming out of China. We ought to not suffocate that.” 意思:限制中国 = 切断美国受益的开源贡献流。

Jensen 提出一个风险对称论作为 anchor——“We want everybody developing on American tech stack. It would be extremely foolish to create two ecosystems: open source on foreign stack, closed on American stack. That would be horrible for the United States.

这 10 分钟提到的具体内容

  • Mythos:thousands of high-severity vulnerabilities,OpenBSD 一个 27 年 0-day([58:05–58:20])
  • 中国数据:60% 主流芯片制造、50% AI researchers、能源充足([59:14–59:39])
  • Huawei 单年出货数百万颗、“way more than Anthropic”([1:08:18])
  • 7nm = Hopper 等价([1:07:51])
  • 公司:Huawei, SMIC, HBM2

4.2 [01:07:00–01:17:00] “中国 flops 仅美国 1/10” 的归谬反驳 + “DeepSeek on Huawei 灾难” 论

Dwarkesh 把数据更精确化——中国 7nm + 没 EUV,实际 flops 仅美国 1/10。Anthropic 之类先到 Mythos 级 → 有窗口期修补漏洞 → 再放开。这是个”美国先发 + 中国追赶”的简单 timeline 模型。

Jensen 走的是双线反驳——一线是”中国 1/10 还是足够”,另一线是”美国限制中国会反过来害美国”。

第一线(量化反驳):能源 + 算法都能补硬件差距。算法层面他给了具体数字——“Moore’s Law 25%/年但算法演进每年 10x”。例子:MoE 是巨大发明、attention mechanism 的各种优化大幅降低 compute 需求。“Most of the advances in AI came from algorithm advances, not raw hardware. Their army of AI researchers is their fundamental advantage.”

DeepSeek 是 anchor 例子:

The day that DeepSeek comes out on Huawei first, that is a horrible outcome for our nation.

Dwarkesh 试图反驳:“DeepSeek 现在开源 → 任何 accelerator 能跑”——Jensen 接住反 framing:“suppose it’s optimized for Huawei specifically”。一旦中国开源模型先优化非美国硬件,再”在 Nvidia 上跑得不那么好”,全球非美国 AI 工业就站到非美国硬件这边

第二线(risk symmetry):他展开”美国电信业前车之鉴”。“The policies you’re advocating resulted in American telecommunications industry being policied out of basically the world. We don’t control our own telecommunications anymore.” 这个类比是关键——美国 1990s-2000s 在电信领域用类似的”防 Huawei”框架,结果是美国电信业失去全球市场,到今天美国连自家电信都不掌控。

Dwarkesh 试图把问题简化成”Nvidia 卖给中国就让他们能做 Mythos 攻美国”——Jensen 反 frame 成”如果你不卖,中国在 Huawei 上做同样的 Mythos 也能攻美国,只是这次连 Nvidia 客户基础都失去了”。这是个对称威胁论:阻止不了威胁本身,只是改变 host 平台。

最有意思的是 Jensen 的”歪比”反驳——当 Dario 把 AI 类比 enriched uranium 时,Jensen 直接说**“It’s a lousy analogy. It’s an illogical analogy.”**——他坚持 AI chip 跟 microprocessor/DRAM/electricity 是一类东西,不是核武器。

这 10 分钟提到的具体内容

  • 中国 vs 美国 flops 比例:~1/10(Dwarkesh 估算)([1:03:38])
  • 算法 vs Moore’s Law:算法 10x 演进 vs Moore’s 25%/年([1:09:39])
  • 公司:DeepSeek(“on Huawei first”灾难场景);Qwen
  • 历史 anchor:美国电信业被政策赶出世界市场([1:25:30])
  • 类比对比:Jensen 反驳 enriched uranium 类比([1:17:44])

4.3 [01:17:00–01:27:00] “any marginal compute helps” 的归谬 + Jensen 的市场让出代价论

Dwarkesh 退一步把论点收紧——不是说”全禁”,而是”any marginal sales of chips to China = 边际增加他们的能力 = 应该最小化”

Jensen 把这个论点归谬到极端

“The logic that you use, you might as well say it to microprocessors and DRAMs. You might as well say it to electricity.

意思——如果”边际加成都是坏的”,应该把 DRAM、CPU、电力都禁。但 DRAM/CPU 是允许卖到中国的(实际上有针对 DRAM 制造技术的部分管控)。所以”边际论”的边界本身是任意划的。

接着 Jensen 把 Dwarkesh 的论点的内在矛盾揪出来——“You’re making two different statements that can’t both be true:一是说我们能赢 Huawei 因为 Nvidia 更好;二是说就算我们不卖中国也会做出一样的东西。怎么同时为真?”

Jensen 自己回答:“It’s obviously true. In the absence of a better choice, you’ll take the only choice you have. Nvidia chip is better—easier to program, better ecosystem. Of course we’re going to send them compute. So what? We get to benefit.

接着他扩展”卖给中国”的实际收益:美国技术栈的扩散。“developers working on American tech stack” → “as AI models diffuse out into the rest of the world, the American tech stack is therefore the best for it”。如果不卖,中国构建自己生态,未来 AI 扩散到印度、中东、非洲、东南亚时,标准会是中国的不是美国的。

接着他给具体市场数字——Nvidia 在中国市场份额 95% → 0%;中国占全球科技产业 ~40%。“To concede that market is a disservice to our country, to our national security, to our technology leadership, all for the benefit of one company.” 这里”one company”是指 Anthropic(限制对华出口的主要推动者)——Jensen 在用商业利益对立的方式描绘 Anthropic 的立场。

最后 Jensen 给了一个未来核对画面——“几年后我们想把美国技术栈推向印度、中东、非洲、东南亚时,你会发现今天这套政策让美国白白让出第二大市场。我们到时候再做这场对话。”

这 10 分钟提到的具体内容

  • 类比反驳:DRAM、CPU、electricity([1:22:35])
  • 市场份额:Nvidia 在中国 95% → 0%(implicit reference)
  • 中国占全球科技产业 ~40%([1:23:50])
  • 美国技术栈目标扩散区域:印度、中东、非洲、东南亚([1:30:14])

4.4 [01:27:00–01:35:06] Jensen 的最后总结:5 层 cake + 反 doomerism + 未来回看

Jensen 在 Ch4 末尾把对华讨论收尾,转入更宏观的 framing:

第一波AI 是 5 层 cake,每层都要赢。“The chip industry is part of American technology leadership. We want the United States to win at every single layer, including the chip layer.” 这是个明确的产业政策建议——不能为了赢”AI model 层”而让出”chip 层”。

第二波(信息密度大):他把对华政策跟”反 doomerism”绑在一起。“If we scare this country into thinking AI is somehow a nuclear bomb, so that everybody hates AI and everybody’s afraid of AI, I don’t know how you’re helping the United States.” 这一段他列了几个具体反例:

  • 软件工程师恐吓:“如果吓退所有软件工程师,结果是没人做”
  • Radiologist 反预言(在 Ch1 已经预告过):“computer vision 完全集成进 radiology 平台后,radiologist 数量反而暴涨”——因为扫描快了 → 更多扫描 → 更多病人 → 医院多赚 → 雇更多 radiologist

他用 task vs job 区分作为 anchor:“The job of a radiologist is patient care. The task is to read a scan.” 把 task 替代掉不会消灭 job。

第三波:“We should always have the best technology here, the most technology here, and the first. But we should also try to compete and win around the world. Both can simultaneously happen. It requires nuance, maturity instead of absolutes.” ——这是他对整场辩论的总结。

最后他给一个 specific 反驳 Dwarkesh 的”Blackwell vs Hopper 制程”假设——Dwarkesh 暗示制程差距决定一切,Jensen 反驳:“Is Blackwell 50 times more advanced lithography than Hopper? Not even close. From transistors themselves, call it 75%. Blackwell is 50 times Hopper. My point is, architecture matters. Computer science matters.” ——意思:单纯 lithography 比较(中国 7nm vs 美国 1.6nm)忽略了”computing stack 的飞跃 > 物理工艺的飞跃”。

“It’s not too late, but nonetheless it has already happened.” ——指美国对华政策已经在迫使中国 AI 生态聚焦自己的架构。

这 10 分钟提到的具体内容

  • Framework: 5 层 cake,每层都要赢([1:28:09])
  • 反预言:radiology 数量增长而非减少([1:28:59])
  • task vs job 区分([1:29:19])
  • Blackwell 50x Hopper(架构)vs 75% transistor 改进([1:32:32])
  • Mellanox:Nvidia 收购的网络芯片公司([1:34:40])

5. 为什么 Nvidia 不并行多种芯片架构? [01:35:06–01:43:09]

核心论点:能做但模拟器证明都更差所以不做;唯一例外是 Groq——因为 token 价值上升催生了 high-ASP 低吞吐的新 inference segment。反事实承诺:“如果世界从此再无新产能,我立刻回去用 7nm”。

Dwarkesh 列了候选架构方案:Cerebras 风格 wafer-scale、Dojo 风格大封装、no-CUDA 实验——Nvidia 资源充足应该并行尝试。

Jensen 直答:“We could. It’s just we don’t have a better idea. We simulate it all in our simulator, proveably worse. So we wouldn’t do it.” 这是个 humility 论——Nvidia 不是没考虑过 alternative,是模拟测下来 alternative 都更差。

但他承认 inference 市场的 segmentation 让 Groq 整合成为合理选择。具体推论链:

  • 过去 token 价值低 → 同一架构 throughput 最大化即可
  • 现在 software engineer 用 token 创造的价值高 → 客户愿意为 “faster response time” 付更高 ASP
  • Nvidia 之前的 Pareto frontier 假设”throughput 越高越好” → 现在被打破
  • Groq 的低延迟特性补这一段 → 整合进 CUDA stack 让 Nvidia 覆盖整个 Pareto frontier

关于”回 N7 用旧节点造廉价 Hopper”——Jensen 拒绝:架构远不止 transistor scale,packaging、numerics、system architecture 都是 R&D 资产,“回去做新设计的 R&D 成本无法承受”。但他给反事实承诺——“if the world simply says we’re never going to have more capacity ever again, would I go back and use 7nm? In a heartbeat, of course I would.

最后一个反事实问题——没有 AI 的 Nvidia 会是什么?Jensen:仍然很大。“General purpose computing has largely run its course. The only way is through domain-specific acceleration.” 早期应用:分子动力学、地震处理(油气勘探)、计算光刻、量子化学。“If you watch GTC, the beginning part of it. None of it’s AI.

最后的告别有点伤感:“If there were no AI, I would be very sad. But because of the advances we made, we democratized deep learning.”

这 8 分钟提到的具体内容

  • 备选架构:Cerebras wafer-scale、Dojo 大封装、no-CUDA([1:36:36–1:36:53])
  • Groq 整合理由:token 价值上升 → inference 市场 segment([1:37:32])
  • 反事实:worst-case 会回 N7([1:36:36])
  • 没 AI 的 Nvidia 仍然在做:molecular dynamics、seismic、CFD、image processing、computational lithography、quantum chemistry([1:40:48])

全篇数字汇总

类别指标数值时间戳
Nvidia 财务财报采购承诺~$100B[04:26]
Nvidia 财务SemiAnalysis 估总采购$250B[04:26]
Nvidia 财务利润率~70%(vs ASIC 65%)[38:39]
Nvidia 财务投资 OpenAI~$30B[41:15]
Nvidia 财务投资 Anthropic$10B[41:22]
Nvidia 财务担保 + 投资 CoreWeave$6.3B + $2B[43:53]
增长率收入每年 2x[08:32]
增长率flops 供给每年 3x+[08:32]
性能跃迁Hopper → Blackwell 能效35x (首发) → 50x (实测)[22:23–22:49]
性能跃迁Moore’s Law 上限25%/年[21:52]
性能跃迁算法重构额外贡献10x[1:09:39]
性能跃迁Nvidia 工程师驻场加速2-3x(per 客户 kernel)[31:34]
性能跃迁Blackwell vs Hopper transistor75% 改进[1:32:32]
产业占比AI 占 TSMC N3 节点今年 60%、明年 86%[09:00]
产业占比中国占全球 AI 研究者~50%[59:23]
产业占比中国占全球主流芯片产能60%+[59:14]
产业占比中国占全球科技产业~40%[1:23:50]
产业占比美国数据中心算力 vs 其它地区100x[1:15:53]
中美芯片对比Huawei 910C vs H200(flops/带宽/内存)1/3–1/2[1:12:42]
中美芯片对比中国 flops vs 美国(Dwarkesh 估)1/10[1:03:38]
安全Anthropic Mythos OpenBSD 0-day 历史27 年[58:18]
CrusoeKV cache 性能 vs vLLM10x TTFT, 5x throughput[24:17–24:32]

人物与机构索引

名字角色 / 在访谈中的语境出现章节
TSMC30 年战略伙伴,无法律合同;CoUPE 共同发明的封装技术1, 3
SK Hynix / Micron / SamsungHBM 三巨头;Sanjay(Micron)5 年前 all-in HBM1
ASMLEUV 唯一供应商,受 Nvidia 通过 TSMC 间接传导需求1
Lumentum / Coherentsilicon photonics 生态,Nvidia 多年前布局1
Cadence / SynopsysEDA 工具厂,Jensen 看好(agent 爆炸 → 工具实例数爆炸)1
OpenAINvidia 投资 ~$30B;自研 Titan accelerator,但绝大部分仍 Nvidia2
AnthropicNvidia 当年没投是 Jensen 自认的 miss;现在已投 $10B;目前算力主要 TPU+Trainium2, 4
GoogleTPU 自研者,Gemini 训 TPU;Anthropic 投资人2, 4
AWSTrainium 自研者,Anthropic 早期投资人2
xAI / LillyNvidia 帮其搭超算(xAI)/ 药物发现超算(Lilly)2
CoreWeaveNvidia 担保 $6.3B + 投资 $2B 的 neocloud3
Crusoe访谈赞助商,做集群级 KV cache2
Nscale / NebiusNvidia 扶持的 neocloud3
Larry Ellison / Elon MuskJensen 否认晚餐”乞求 GPU”传闻3
Huawei单年出货数百万颗,“way more than Anthropic”4
SMIC中国晶圆厂,停在 7nm,无 EUV4
DeepSeek / Qwen中国开源模型代表;“哪天 DeepSeek 首发在 Huawei 上是灾难”4
Dario AmodeiAnthropic CEO,对华出口管制立场被 Jensen 多次反驳4
Dylan Patel / SemiAnalysisInferenceMAX 公开 benchmark + 实测 Hopper→Blackwell 50x1, 2
Groq最近被纳入 CUDA 生态,补 high-ASP 低延迟 segment5
MellanoxNvidia 网络业务核心收购,“networking matters”4
Sanjay (Micron)HBM 早期信徒,Jensen 公开点名感谢1
Ricson (Jane Street)Jane Street 后门挑战题目设计者(Jane Street 广告读稿)4

争议点 / 我没听清楚的地方

  • “如果敌方先到 Mythos 级且立刻部署”的情景:Jensen 反复用绝对化思维框架反驳”边际算力都有害”——但没有正面回答”中国先于美国到 Mythos 级”的实际风险路径。他的 implicit 答案是”那也无法阻止”,但没明说。
  • Anthropic Mythos 的训练算力数据:Jensen 说”mundane capacity”——但 Mythos 这种发现 27 年 OpenBSD 0-day 的能力,连 Anthropic 自己都不敢公开发布,说它训练算力 mundane 跟 Anthropic 自己 framing 是冲突的。
  • “60% 收入来自 top 5 hyperscaler 但绝大部分租给外部”:Jensen 强调的细分数字没有给出具体百分比拆解,值得后续从财报验证。
  • Anthropic 主算力分布:Jensen 说 “Anthropic 模型现在 GPU/TPU/Trainium 都跑得起来”,分歧只在迁移成本——但他没说 Anthropic 当前 training 是不是真的 GPU/TPU/Trainium 并行。
  • 未来增长率假设:Jensen 给 4 年架构 roadmap(Vera Rubin / Vera Rubin Ultra / Feynman / 未命名)但没给销售目标。“token cost decrease 一个数量级每年”是非常 aggressive 的承诺。

后续可追踪

  • InferenceMAX 公开 benchmark 是否有 TPU/Trainium 后续提交
  • Nvidia 投资全名单:Jensen 说”投所有 frontier lab”——查 13F 里全名单
  • Vera Rubin 实际交付节奏 vs Crusoe “今年内部署”承诺
  • Groq 整合进 CUDA 后实际 perf/$:是否真的扩张了 Pareto frontier
  • Anthropic-Google-Broadcom 多 GW TPU 协议金额细节
  • Huawei 单年出货”数百万颗”:与 SMIC 公开产能数据交叉验证
  • AI 占 TSMC N3 60% / 明年 86%(SemiAnalysis):晶圆厂供给侧硬约束兑现路径
  • DeepSeek / Qwen 是否会先在 Huawei 优化发布:Jensen 警告的”国家级灾难”是否真发生
  • 美国电信业类比的具体年份:1980s-2000s 美国对华电信制裁的 case study 值得自查

相关笔记

基于共享的人物 / 机构 / 标签自动生成(每次 publish 时刷新)。

原始 Transcript

展开查看完整转写

完整 transcript(YouTube 自动字幕,已按段落合并便于阅读):transcripts/Hrbq66XqtCo.txt

Dwarkesh 在 video description 也提供官方 transcript 链接:https://www.dwarkesh.com/p/jensen-huang