|
2026 年,大众四大科技巨头、Meta、谷歌和微软的成本支拨预计总和达到 6,000 亿好意思元。换算成数据中心的年租借价钱,大要对应 50 GW(吉瓦)的算力容量。与此同期,OpenAI 刚刚完成 1,100 亿好意思元融资,Anthropic 官宣了 300 亿好意思元的新一轮募资。钱到位了,但这些钱到底能不可酿成确切运转的芯片和数据中心? 半导体接洽机构 SemiAnalysis 独创东谈主兼 CEO Dylan Patel 近日作客 Dwarkesh Patel 的播客节目,就 AI 算力扩展的中枢瓶颈进行了一次信息量极高的深度对话。Dylan 耐久跟踪大众半导体供应链和 AI 基础设施开发,SemiAnalysis 的客户涵盖超等云厂商、AI 实验室和对冲基金,其数据和预计在行业内被庸碌援用。 ![]() 对话中枢重心如下: •6,000 亿好意思元成本支拨的真相:四大科技巨头本年的成本支拨中,大量用于明天数年的前置进入(涡轮机定金、数据中心开发、电力合同),而非本年平直上线的算力。好意思邦本年新增约 20 GW 数据中心容量。 •Anthropic 的算力窘境:收入增速远超预期(1 月 +40 亿、2 月 +60 亿 ARR),年底需要杰出 5 GW 才略知足推理和查验需求,但因此前采购过于保守,不得不吸收更高价钱或更大比例的收入分红来获取算力。OpenAI 因激进签约取得了显耀的算力先发上风。 •H100 今天比三年前更值钱:因为更强的模子(如 GPT-5.4)能从兼并颗芯片中榨取更多价值,而芯片供给永恒有限,其订价取决于芯片能产生的经济价值,而非替代品的比拟价钱。 •瓶颈已从电力转向芯片制造:2026 年最大瓶颈不再是电力或数据中心,而是半导体供应链自己,逻辑晶圆、内存和晶圆厂产能。 •ASML 是终极天花板:每 GW AI 算力需要约 3.5 台 EUV 光刻机。ASML 目客岁产约 70 台,到 2030 年最多约 100 台。大众存量加增量到 2030 年底约 700 台,表面上限约 200 GW,12 亿好意思元的光刻开拓卡住了 500 亿好意思元的数据中心投资。ASML 的供应链(蔡司透镜、Cymer 光源等)极端复杂且手工化,无法快速扩产。 •内存危急正在到来:内存厂商夙昔数年未建新厂,新产能最早 2027 年底才略上线。HBM 每晶圆面积比特数仅为普通 DRAM 的 1/4,但带宽高一个数目级,无法用 DDR 替代。内存涨价将导致智高手机出货量从 11 亿部骤降至 5-6 亿部,中低端机型首当其冲。 •回到 7 纳米不实验:诚然旧制程有存量产能,但 Hopper 与 Blackwell 在骨子推理场景中的性能差距达 20 倍(非 FLOPS 示意的 2-3 倍),因为芯片内通讯带宽、封装密度、辘集架构等上风层层重叠。 •电力不是主要瓶颈:除统一轮回燃气轮机外,还有航改燃机、往来式发动机、船用发动机、燃料电板、太阳能 + 储能等十余种本清爽线,每种可孝敬数十 GW,系数可达数百 GW。开释好意思国电网 20% 的峰值冗余容量即可取得 200+ GW。 •天外数据中心这十年不可行:芯片是最稀缺资源,部署到太缺额外延长 6 个月以上;卫星间通讯带宽远不足大地 NVLink;散热更困难;可靠性更差。唯有芯片不再是瓶颈且大地资源虚耗时,天外有筹画才有意旨。 •快时期线好意思国赢,慢时期线中国赢:如果 AI 收入和才略快速腾飞,好意思国的基础设施和模子上风在扩大;如果到 2035 年 AGI 才熟习,中国有有余时期设立完全自主的垂直整合半导体供应链。 以下是这期节目的完整编译。 为什么 H100 当今的价值比三年前更高 Dwarkesh:如果把四大科技巨头本年的成本支拨加在沿途是 6,000 亿好意思元,按每 GW 数据中心年房钱大要 130 亿好意思元来算,接近 50 GW。但咱们本年光显不可能一下子部署 50 GW,那这些成本支拨到底什么时候才略酿成确切上线的算力? 另外,AI 实验室也在猖獗融资,OpenAI 融了 1,100 亿,Anthropic 融了 300 亿。如果看它们本年骨子上线的算力,加上租借成本,这些融资似乎单独就够笼罩本年的算力支拨了,还不算它们会赚到的收入。是以第一,大型科技公司的成本支拨到底什么时候调节为上线算力?第二,实验室融这样多钱到底要干什么? Dylan:6,000 亿好意思元的超等云厂商成本支拨,加上供应链其他要害的开支,总和接近 1 万亿好意思元。其中一部分确乎平直用于本年上线的芯片和算力,但还有大量的前置性成本支拨。咱们本年在好意思国大要新增 20 GW 的增量数据中心容量,但其中不少成本支拨其实是去年花出去的。 以谷歌 1,800 亿好意思元为例,很大一块花在了 2028、2029 年的涡轮机定金,还有 2027 年的数据中心开发、耐久电力采购合同的预支款等等。、亚马逊和 Meta 亦然访佛的情况,它们花这些钱是为了后续几年的超高速扩张铺路。 而这些公司最大的客户就是 Anthropic 和 OpenAI。OpenAI 面前大要有 2 到 2.5 GW 的算力,Anthropic 大要在 1.5 GW 操纵,两家都在拚命往上扩。 如果看 Anthropic 最近几个月的收入走势,1 月新增约 40 亿好意思元 ARR(年化通俗性收入),2 月是短月,果然新增了大要 60 亿好意思元。有东谈主以致会说这个线性外推如故偏保守的。按这个速率算,明天 10 个月 Anthropic 会新增大要 600 亿好意思元的收入。 以面前媒体报谈的毛利率推算,对应大要 400 亿好意思元的算力支拨。按每 GW 约 100 亿好意思元的租借成本诡计,Anthropic 光是为了撑持推理收入增长就需要新增 4 GW。这如故假定它的研发查验集群畛域保持不变。是以 Anthropic 本年年底需要达到远超 5 GW,才略知足需求,但这对它来说将终点沉重。 Dwarkesh:是以如果 Anthropic 不可能在年底达到 5 GW,但收入的猖獗增长和下一代模子查验都需要这些算力,它该怎样办? Dylan:Dario 之前在你的播客上说过,他不会在算力上猖獗下注,因为万一收入拐点来得比预期晚,他不想公司收歇,要负职守地扩张。但骨子上,他确乎在算力采购上比 OpenAI 保守太多了。OpenAI 的计谋一直是平直签下那些看起来猖獗的大合约。结果到年底,OpenAI 的算力获取远多于 Anthropic。 Anthropic 最优质的算力供应商历来是和亚马逊,也就是天下上最大的几家公司。OpenAI 就激进得多,除了从微软拿到大量算力,还拿了谷歌、亚马逊的算力,同期跟 CoreWeave、Oracle 签了巨量合约,以致找到像 SoftBank Energy 这种从来没建过数据中心的公司来给它建数据中心。还有 N Scale 等多样新兴供应商。 是以 Anthropic 面对一个窘境。它太保守了,签合同期有意低估我方的需求,以免收歇。而 OpenAI 呢,去年下半年确乎有一段时期通盘金融阛阓都在心焦:“OpenAI 签了这样多合约,它根底没钱付”,Oracle 的股票暴跌,CoreWeave 的股票暴跌,信用阛阓也随着慌。结果当今好了,OpenAI 融到钱了,可以付了。 Dwarkesh:那我想理解的是,“临时抢算力”到底意味着什么?是 Neo Cloud(新兴云办事商)的硬件质料更差?如故说你得给云办事商额外付高额利润,因为你来得太晚了?如果 OpenAI 和 Anthropic 到 2027 年算力畛域差未几,那 OpenAI 到底得到了什么具体克己?本年年底两家各有若干 GW? Dylan:要获取额外算力,确乎有一些存量可用。不是整个的算力合约都是五年长约,也有一年、两年、六个月以致按需的短期合约。当这些合约到期时,谁最答允出高价?咱们仍是看到 H100 的价钱大幅上升,有些 AI 实验室,我就不点名了,他们在签每小时 2.4 好意思元、为期两到三年的 H100 合约。要知谈 H100 的五年部署成本大要是每小时 1.4 好意思元,而当今两年后你签的合约仍是到了 2.4 好意思元,利润率高得多。 是以你可以用高价钱把其他供应商的客户挤出去,无论是亚马逊、CoreWeave、Together AI 如故 Nebius。这些 Neo Cloud 的特质是 Hopper 占比更高(因为它们更激进地采购了),况兼好多签的是短期合约。是以如果你想要 Hopper 算力,市面上确乎还有一些。至于 Blackwell,基本上整个在本季度上线的算力都仍是卖掉了。况兼有些供应商骨子托福的量还够不上承诺的数字,因为数据中心开发有延误。 但还有一种旅途,Anthropic 无须平直持有整个算力。亚马逊可以通过 Bedrock 提供算力为 Anthropic 办事,谷歌可以通过 Vertex,微软可以通过 Foundry,然后跟 Anthropic 作念收入分红。 Dwarkesh:是以你是说,Anthropic 要么吸收 50% 的收入分红抽成,要么就得去吸收临时涨价的现货算力,如果当初早点买,就不需要多付这些钱。 Dylan:对,况兼这里面还有一个酷爱的动态。夙昔有好几个月,整个东谈主都在说“OpenAI,咱们不会跟你签合同,听起来太猖獗了,你们根底没钱”。当今呢,整个东谈主都说“咱们一直都敬佩你,赋闲签什么合同都行,因为你融到钱了”。从这个意旨上说,Anthropic 是受限的,因为阛阓上头前的增量算力大买家并未几,Anthropic 是第一个射中才略拐点、收入初始飞涨的。 不外我认为 Anthropic 通过我方的平直采购,加上通过 Bedrock、Vertex 和 Foundry 办事其居品,本年年底好像能达到 5 到 6 GW。这远超它最初的筹画。OpenAI 大致也在这个量级,可能稍高一些。 Dwarkesh:这也引出一个酷爱的问题。有东谈主一直在参议 GPU 的折旧周期。空头们说折旧应该是两年而不是四五年,因为本领高出太快了。但按你说的,如果 H100 在 2024 年价值 2 好意思元/小时,2026 年 Blackwell 普遍量部署后就只值 1 好意思元了,到 2027 年 Rubin 出来又降到 0.7 好意思元,但问题是,你造不出无穷量的最新芯片。供给是有限的。是以给芯片订价的不是“我今天能买到什么更好的替代品”,而是“这颗芯片今天能为我产生若干价值”。 Dylan:完全正确。拿 GPT-5.4 来例如。GPT-5.4 比 GPT-4 低廉得多,活跃参数更少,模子更小,不是像 GPT-4 那样的粗粒度 MoE(夹杂大众模子),再加上查验举止、RL(强化学习)、模子架构、数据质料等各方面的高出,GPT-5.4 的质料远超 GPT-4。一颗 H100 跑 GPT-5.4 能产出更多的 token,况兼每个 token 的质料更高。 想想看,GPT-4 的 token 最大 TAM(总可寻址阛阓)也许是几十亿好意思元。GPT-5.4 的 TAM 可能杰出 1,000 亿好意思元,只是选拔需要时期,况兼有竞争。如果本领高出停在这里不动了,一颗 H100 的价值就不再由 GPT-4 能从它身上榨取若干价值决定,而是由 GPT-5.4 能榨取若干价值决定,尔后者纷乱于前者。 是以一颗 H100 今天的价值确乎比三年前更高。 Dwarkesh:这太猖獗了。如果再往前推,假定咱们竟然开发出了 AGI 模子,确切收场了“办事器上的东谈主类”。一颗 H100 大要有 10^15 FLOPS,有东谈主估算东谈主脑大要亦然这个量级。如果一个东谈主类常识责任者一年能产出六位数的经济价值,一颗 H100 的价值就是在几个月内就能收回成本。 Dylan:在那种场景下,GPU 的价值只会随着时期推移不休上升。面前唯独 OpenAI 和 Anthropic 确切持有这个信念。但随着时期推移,即即是开源模子,整个东谈主都会初始看到每颗 GPU 的价值在飞涨。从这个意旨上说,你当今就应该锁定算力。 Dwarkesh:这让我意象一个经济学效应叫 Alchian-Allen 效应,如果你对两种商品同期加上一个固定成本(比如关税),其中一种质料更高、一种更低,那消费者会更倾向于取舍高质料的那种,因为相对价差收缩了。 拿一个具体例子:好苹果 2 好意思元,差苹果 1 好意思元,好苹果是差苹果的 2 倍价钱。如果对两种苹果各加 1 好意思元关税,酿成 3 好意思元和 2 好意思元,好苹果只贵 1.5 倍了。如果 GPU 越来越贵,整个东谈主都在付这个固定成本,那东谈主们就更答允多花小数钱用最佳的模子,因为归正算力仍是花了那么多钱了,不如多花小数用最强的模子。 Dylan:完全对。如果一颗 Hopper 从每小时 2 好意思元涨到 3 好意思元,而它能产出 100 万个 Opus token 或 200 万个 Sonnet token,那 Opus 和 Sonnet 之间的价差就收缩了,因为 GPU 自己贵了 1 好意思元。事实上咱们今天仍是看到,整个的使用量和收入都集结在最佳的模子上。 在算力受限的天下里,还有两件事同期发生:第一,那些早早锁定了五年长约的公司,也就是莫得“承诺怯怯症”的公司,锁定了巨大的成本上风,因为它们按三年前或两年前的价钱买的算力。第二,谁能劫夺利润?随着模子越来越有价值,云办事商能不可提价? 如果看 CoreWeave,它 98% 以上的算力合约平均期限杰出三年,是以它没法天真提价。但每年新增的算力远多于存量,Meta 本年新增的算力相称于它 2022 年通盘数据中心和诡计基础设施的总量。新增算力按新价钱成交,是以只消咱们处于腾飞阶段,OpenAI 从去年的 600 MW 到 2 GW,本年到 6 GW 以上,来岁到 12 GW,确切的成本在增量部分,不在存量耐久合约上。 那谁掌捏订价权?往上游走,最终是英伟达。它们仍是签了约 900 亿好意思元的耐久合约,正在跟内存厂商谈三年期合同。英伟达、亚马逊、谷歌(通过博通)和 AMD 这些芯片公司掌捏着主动权,因为它们锁定了产能。台积电没怎样涨价,但内存厂商在大幅涨价。至少本年,咱们会看到模子厂商的利润率大幅擢升,因为它们产能受限严重,不得欠亨过提价来扼制需求。Anthropic 不可能按面前的节律陆续增长而不扼制需求。 英伟达抢先锁定了台积电产能;谷歌正面对挤压 Dwarkesh:那咱们来具体聊聊英伟达是怎样锁定逻辑和内存产能的。据你的数据,到 2027 年英伟达将占据 N3(3 纳米)晶圆产能的 70% 以上。如果看 Neo Cloud 的买卖模式,英伟达通过给多样袖珍 Neo Cloud 分拨算力来分散互补产业、确保我方有最大的议价权。 相同,Anthropic 和 OpenAI 与数据中心供应商合营时也会有意培养一普遍供应商,不被任何一家锁定。那为什么在 3 纳米制程上,台积电就这样把产能大量给了英伟达,而不是试图分散阛阓? Dylan:先看 3 纳米的布景,去年 3 纳米的绝大部分产能是苹果。苹果当今正向 2 纳米转移,2 纳米面前只可作念移动芯片,明天 AI 芯片也会迁夙昔。内存价钱上升也在挤压苹果,要么我方吃掉成本,要么削减出货量。 台积电的算盘其实是这样的:它们更答允把产能分拨给作念 CPU 的公司。比如亚马逊既有 Trainium(AI 芯片)又有 Graviton(CPU),两者都在 3 纳米上。台积电对 Graviton 的分拨更积极,因为它们认为 CPU 业务是更理解的耐久增长。当作一家保守的公司,台积电不想过度依赖高增长阛阓的周期波动,是以优先分拨给增长更稳的阛阓。对 AMD 也一样,台积电更垂青它的 CPU 而不是 GPU。 但英伟达比拟特殊,它有 CPU、交换机、辘集开拓、NVLink、以太网,多样居品。到本年年底 Rubin 系列发布时,英伟达的大多数居品都会在 3 纳米上。况兼英伟达就是更早下手了。比谷歌早,比亚马逊早。谷歌和亚马逊还遭受了一些逶迤,某颗芯片(Trainium)延长了几个季度。 而英伟达一直在说“要更多、更多、更多”。它会去稽察通盘供应链的每个要害,去 PCB 供应商那边阐述“有莫得有余的 PCB 产能?”,去内存厂商那边阐述“谁有整个的内存产能?”,谜底是英伟达。 快乐飞艇APP官方网站酷爱和 AI 实验室锁定算力一样。谁有余敬佩 AGI,谁就敢在看起来空幻的时期表率上锁定大量产能、支付可以的利润率。英伟达在半导体供应链上作念的是相同的事。诚然我不认为英伟达像 Dario 或 Sam 那样确切敬佩 AGI,Jensen 一直说的是“加快诡计”,不是“AI 芯片”,但他比去年三季度的谷歌和亚马逊 AGI 信念强得多,也看到了更多的需求。 Dwarkesh:等一下,谷歌不是卖了大要一百万颗 V7(Ironwood)TPU 给 Anthropic 吗?如果逻辑和内存是最大瓶颈,谷歌又有 DeepMind 这个天下第三大 AI 实验室,为什么不把芯片留给我方,而是卖给 Anthropic? Dylan:这个问题确乎让 DeepMind 的东谈主很崩溃,“咱们为什么要这样作念?”但谷歌云的东谈主和谷歌高管看到的是另一套逻辑。据咱们掌捏的数据,事情是这样的:Anthropic 的算力采购团队中枢成员有两位来自谷歌,他们看到了一个窗口期,快速谈判了一笔来往,在谷歌我方反应过来之前就拿到了算力。 具体的时期线是,去年三季度初,咱们在大要六周内看到 TPU 的产能出现了显耀增长,况兼是屡次加多。谷歌以致不得不向台积电证明为什么短暂需要加多这样多产能,很大一部分就是因为要卖给 Anthropic。 然后事情发生了蜕变。谷歌推出了 Nano Bono 和 Gemini 3,用户筹画暴涨。谷歌高层短暂清醒了过来,初始说“咱们必须每六个月把算力翻一倍”之类的话。然后他们去找台积电说想要更多,但台积电说:“对不起,来岁的产能仍是卖光了。咱们可以在 2026 年多给 5% 到 10%,但确切能大幅加多得比及 2027 年。” 从供应链数据来看,比如晶圆订单、数据中心合同、Anthropic 签约的情况等,在我看来,很彰着谷歌搞砸了。从收入数据也能看出来:谷歌的 Gemini 收入在去年一季度和三季度险些为零,三季度才初始起量,四季度退出时大要到了 50 亿好意思元 ARR。说明谷歌确乎没预意象收入会暴涨。Anthropic 在收入腾飞之前就仍是有“承诺怯怯症”了,谷歌自然会更保守,谷歌的 ARR 以致还不如 Anthropic 高。 不外好音问是,从那以后谷歌仍是极端 AGI 化了。它们收购了动力公司,预支了涡轮机定金,购买了大量有电力的地盘,跟公用业绩公司谈耐久合同,在数据中心电力方面终点激进。谷歌大要在去年年底才确切醒过来,但确乎花了一些时期。 到 2030 年,ASML 将成为 AI 算力扩展的最大瓶颈 Dwarkesh:夙昔几年,每年的瓶颈都在变,客岁是 CoWoS 封装,去年是电力。本年的瓶颈是什么?五年后呢? Dylan:本年最大的瓶颈是芯片自己。瓶颈仍是从电力和数据中心切换回了半导体供应链。在芯片供应链里面,有多个瓶颈:内存、台积电的逻辑晶圆、晶圆厂自己。晶圆厂开发需要两到三年,而数据中心不到一年,亚马逊最快八个月就能建一个。差距终点大。 之前的瓶颈,包括 CoWoS 封装、电力、数据中心,都是相对短交期的东西。CoWoS 是比拟肤浅的芯片封装工艺,电力和数据中心诚然复杂但比芯片制造肤浅得多。夙昔一段时期,移动和 PC 芯片的产能在向数据中心滑动,但这种腾挪空间仍是用尽了。英伟达当今是台积电最大的客户,亦然 SK 海力士(最大的内存制造商)最大的客户。移动和 PC 行业仍是莫得更多资源可以转给 AI 了。 Dwarkesh:基于 EUV 光刻机的产量。有莫得可能算出 2030 年的一个完全 GW 天花板? Dylan:完全可以。要进一步扩大算力,本年和来岁有不同的瓶颈,但到 2028、2029 年,瓶颈最终会落到供应链的最底层——ASML。ASML 制造的是东谈主类有史以来最复杂的机器:EUV(极紫外光刻机),单台售价 3 到 4 亿好意思元。面前它每年能造大要 70 台,来岁到 80 台。即使在终点激进的供应链扩张假定下,到这个十年末它也只可到 100 台露面。 那 EUV 怎样跟 AI 算力挂钩?我来算一笔账。造一个 GW 的英伟达 Rubin 芯片数据中心容量,你需要大要 55,000 片 3 纳米晶圆、6,000 片 5 纳米晶圆和约 170,000 片 DRAM(内存)晶圆。这三种晶圆各需要不同数目的 EUV 光刻模式。一派先进的 3 纳米逻辑晶圆大要有 70 层光刻,其中 20 层是最要害的 EUV 光刻。算下来,55,000 片晶圆乘以 20 次 EUV 曝光,就是 110 万次 EUV 曝光。加上 5 纳米和内存的部分,一个 GW 总共需要大要 200 万次 EUV 曝光。 一台 EUV 光刻机大要每小时处理 75 片晶圆,开机率约 90%。算下来,大要需要 3.5 台 EUV 光刻机才略知足一个 GW 的需求。 想想这些数字的对比:一个 GW 的数据中心成本支拨大要 500 亿好意思元,而撑持它的 3.5 台 EUV 光刻机成本唯独 12 亿好意思元。500 亿好意思元以致 1,000 亿好意思元的 AI 价值链被 12 亿好意思元的光刻开拓卡住了,只是因为它的供应链无法快速扩张。 Dwarkesh:你前阵子写过,台积电夙昔三年花了 1,000 亿好意思元的成本支拨。英伟达只用了其中一小部分的 3 纳米产能,就把它酿成了每季度 400 亿好意思元的收入,年化 1,600 亿。然后再往卑劣看 ASML,12 亿好意思元的光刻机就能撑持一个 GW。Sam Altman 说他意象 2030 年每周上线一个 GW,这跟 EUV 产能兼容吗? Dylan:完全兼容。台积电和通盘生态系统面前仍是领有 250 到 300 台 EUV 光刻机的存量。再加上本年 70 台、来岁 80 台,逐渐增长到 100 台,到 2030 年底大众会有大要 700 台 EUV 光刻机。700 台除以 3.5 台/GW,如果全部分拨给 AI(自然不可能),bet365就是 200 GW 的 AI 芯片产能。 Sam 想要 52 GW/年。如果大众 AI 用掉 200 GW 的芯片产能,他拿 25% 的份额。议论到本年他可能就仍是获取了约 25% 的 Blackwell GPU 部署量,这个数字其实是很合理的。 Dwarkesh:我很诧异的是,ASML 大要从 2020 年才初始普遍量出货 EUV,到 2030 年东谈主们还在用十年前的机器? Dylan:器具确乎不是刻舟求剑的。ASML 在无间更正光刻机的几项要害筹画。第一是晶圆产出速率,一直在擢升。第二是一个叫“overlay(套刻精度)”的规格,你作念了第一层光刻和一堆千里积、蚀刻模式之后,作念第二层时,两层图案必须精确对皆在沿途,允许的偏差唯独 3 纳米量级。这项筹画也在快速改善。第三,器具的价钱确乎涨了,从最初的 1.5 亿好意思元到当今的 4 亿好意思元,但涨幅莫得性能擢升幅度大。 趁机说一句,ASML 可能是天下上最清翠的操纵公司了。它在 EUV 领域莫得任何竞争者,也许中国到本十年末会有一些,但 ASML 从来莫得像英伟达那样猖獗提价。它的价钱涨幅永恒没杰出性能擢升幅度,一直在为客户提供净价值。 Dwarkesh:如果 ASML 平直把成本支拨翻倍或翻三倍呢?为什么咱们能如斯有信心性预计,五年后它也只可造 100 台操纵? Dylan:几个原因。发轫,ASML 莫得决定全力扩产。通盘半导体供应链都莫得。它们经验过太多周期的激昂与忽视。莫得东谈主确切敬佩每年 200 GW 的 AI 芯片需求或者每年数万亿好意思元的半导体支拨。咱们不休被见知咱们的数字太高了,然后当咱们的预计被考据时,他们又说“好吧,但你来岁的数字详情如故太高了”。 其次,一台 EUV 光刻机有四个中枢组件:光源(由位于圣地亚哥的 Cymer 制造)、掩膜台(在康涅狄格州威尔明顿制造)、晶圆台和光学系统(在欧洲制造)。每个组件都有极其复杂的供应链。 我来形容一下光源是怎样责任的。它每秒开释数万个锡液滴,然后用激光精确地三次击中每个液滴,第一次射中使锡滴伸开,第二次使它扩展成完竣的阵势,第三次高功率轰击使锡滴激励出 13.5 纳米的 EUV 光。然后汇集光辉并导入透镜组。 透镜组由蔡司(Carl Zeiss)制造,这是最要害的部分。每台光刻机大要有 18 面透镜/反射镜,它们是多层反射镜,由钼和钌(如果我没记错的话)的完竣薄层轮流堆叠而成。光辉在这些镜面上精确反射。任何千里积层的弱势、任何曲率问题都会导致失败。这个制造经过终点手工化,每年只造几百到一千面这样的透镜。蔡司也莫得试图大幅扩产,因为它们也不认为需要从 60 台增长到几百台。 然后是掩膜台,这个东西通顺时承受 9 个 G 的加快度。因为光刻经过中,掩膜台和晶圆台在反地点高速移动,扫描晶圆上 26×33 毫米的区域,然后停驻来移到下一个区域,在几秒内完成。两个地点各 9 个 G。 每个组件都是化学、制造工艺、机械工程、光学工程的遗迹。全部需要大量的计量测试,因为任何偏差都会导致良率归零。况兼这台巨大的机器在荷兰埃因霍温的工场拼装好之后,要终止装上多架飞机运到客户现场,再再行拼装测试,这个经过又要好几个月。 ASML 的供应链有杰出一万家供应商。通盘系统中,每个物理通顺部件的精度都必须小于 1 纳米,因为各个要害的症结会累加,而层间套刻精度条目在 3 纳米量级。你不可能打个响指就扩大产量。 打个比喻:好意思国从 0% 的电力增长转向 2% 的电力增长,而中国仍是在 30% 了,光这一步对好意思国来说都极其困难。电力供应链相对肤浅,从业东谈主员可能有十万东谈主以上。而 ASML 职工数目有限,蔡司作念这个的可能不到 1,000 东谈主,每个东谈主都是超等专科化的。你没法在短时期内培训出这些东谈主才,也没法让通盘供应链坐窝动员起来。 咱们难谈不可平直诈欺台积电的旧晶圆厂吗? Dwarkesh:夙昔几年,每次有东谈主说“AI 算力被 X 卡住了”,你都能指出替代有筹画,电网不够?那就用厂区自备发电、燃气轮机。半导体供应链也能这样绕夙昔吗?如果 EUV 成为瓶颈,那咱们回到 7 纳米,用中国正在用的 DUV 多重曝光本领行不行?A100 是 7 纳米,到 B100 大要唯独 3 倍的 FP16 性能擢升,况兼其中一部分是架构更正而非制程更正。7 纳米有大量存量产能,即使打个 50% 的扣头,不是也能再加多 50 到 100 GW 吗? Dylan:表面上有可能走到那一步,但我认为不太可能。有几个不太自制的对比需要澄澈。 从 A100(312 TFLOPS FP16)到 Blackwell(约 1,000 TFLOPS FP16)到 Rubin(约 5,000 TFLOPS FP16),这些数字看起来只是几倍的差距,但骨子性能差距纷乱于此。因为每代芯片的设想主义不同,A100 针对 FP16 优化,Hopper 针对 FP8,Rubin 针对 FP4 和 FP6。是以单看 FLOPS 不是自制的比拟。 更要害的是,这些模子不是跑在单颗芯片上的。DeepSeek 的生产部署跑在 160 颗 GPU 上。每次跨越芯片畛域就有后果亏空,延长、功耗、带宽都受影响。芯片里面的数据传输速率是每秒数十到数百 TB,芯片之间降到每秒 TB 量级,跨机架降到每秒数百 Gb。 是以当你比拟 Hopper 和 Blackwell 在推理 DeepSeek 和 Kimi K2.5 等模子时的骨子性能差距,在 100 tokens/秒的推理场景下,差距大要是 20 倍,不是 FLOPS 数字示意的 2-3 倍。因为芯片更大了,每颗芯片的诡计密度更高,单芯片内的通讯带宽远超跨芯片通讯,是以好多通讯瓶颈被排斥了。 这个差距是累加的:每颗芯片的 FLOPS、芯片间辘集速率、单芯片上有若干 FLOPS 相对于系统、单芯片内存带宽和通盘系统的内存带宽,整个这些成分重叠在沿途。 Dwarkesh:本年 B200 仍是把两个 die 作念到一颗芯片上了,来岁 Rubin Ultra 会是 4 个 die。为什么不陆续加?一颗芯片上能放若干个 die 还能保持这种高带宽? Dylan:即便在 Blackwell 里面,兼并个 package 里跨 die 通讯也有性能亏空,诚然比跨 package 小得多。英伟达的有筹画是 CoWoS 封装。你可以回偏执看 Tesla 的 Dojo 芯片,它把 25 颗芯片作念在一整片晶圆上。它到今天可能仍然是跑最佳的芯片,只是不擅长 Transformer,因为内存和算力的阵势不相宜。华为的 Ascend 910 也在作念访佛的事,从单 die 到双 die,专注于扩展封装。 但你在 7 纳米上能作念的,在 3 纳米上也能作念。先进封装是两个维度都在激动的。 中国半导体畛域何时会超越西方? Dwarkesh:如果到 2030 年西方有起初进的制程但产能没拉满,而中国诚然制程过期但猖獗扩产,况兼整条供应链都在一个国度内,什么时候会出现交叉点? Dylan:到面前为止,中国仍然莫得完全自主的半导体供应链。中国整个的 7 纳米和 14 纳米产能都用的是 ASML 的 DUV 光刻机,ASML 无间向中国出货,但整个 EUV 收入都在中国之外。是以畛域上风面前仍在西方加台湾和日本这边。 Dwarkesh:到 2030 年,中国会有完全自主的 DUV 和 EUV 吗? Dylan:DUV 我认为详情会有。EUV 嘛,我认为他们会有能责任的器具,但不一定能大量生产。就像 ASML 在 2010 年代初就让 EUV 在实验室里责任了,但精度不够、产量不够、可靠性不够,又花了五到七年才进入大畛域量产。中国的 DUV 国产化到 2030 年可能达到每年约 100 台的产量,而 ASML 面前每年出货数百台 DUV。 Dwarkesh:我认为有一个很故道理但参议不够的问题:如果你认为 AI 的时期线是“长”的,比如 2035 年才达到某个要害才略,其时候中国在半导体上会不会仍是杰出西方了?旧金山的东谈主在以周为单元念念考,旧金山之外的东谈主根底不在想 AGI。如果 AGI 竟然到 2035 年才来,而它会带来数十万亿好意思元的经济增长,那到时候谁按捺半导体就太贫困了。 Dylan:这确乎是个终点难的问题。时期表率拉到 2035 年,症结棒变得巨大。但我的基本判断是:如果快速腾飞,不一定要敬佩 AGI,只消 AI 收入以刻下速率无间增长,那好意思国和西正派在拉开差距。 望望当今的情况:好意思邦本年大要有接近 1 万亿好意思元的成本支拨进入数据中心。Anthropic 一月新增 40 亿收入,二月新增 60 亿,而 Claude Code 的可靠性还因为算力不足而受限,如果去掉这个瓶颈,增速可能更快。这些成本支拨的投资讲述率极高。好意思国经济因此增长加快。 中国面前还莫得作念到这小数,莫得建起同等畛域的基础设施,也莫得查验出同等才略的模子来部署和产生收入。况兼 Opus 4.6 和 GPT-5.4 仍是彰着拉开了与中国模子的差距。当 AI 实验室从“卖 token 和推理链”转向“卖自动化白领责任”时,从好意思国模子蒸馏到中国模子的难度会大幅加多,因为你买的不再是展示完整推理链的 token,而是结果。 如果起赶紧度够快,好意思国在发散。如果起赶紧度慢,中国就无意期设立完全自主的垂直整合供应链。快时期线,好意思国赢;慢时期线,中国赢。 行将到来的巨大内存瓶颈 Dwarkesh:HBM(高带宽内存)由 DRAM 制造,但每单元晶圆面积的比特数唯独普通 DRAM 的三到四分之一。如果明天 AI 应用更多是 agent(智能代理),不需要同步聊天那种极低延长,能不可用普通 DRAM 代替 HBM? Dylan:表面上可以。Anthropic 以致可以推出一个“慢模式”,大幅裁汰 Opus 4.6 的价钱,可能降 4-5 倍,速率降 2 倍。但没东谈主想用慢模子。即使 agent 任务可以跑几个小时,如果模子更快的话几个小时就能酿成一个小时。最有价值的任务时时也无意期敏锐性。 更根底的问题在于带宽。一块 HBM4 芯片堆的带宽大要是 2.5 TB/s,2,048 bit 宽、10 Giga transfers/秒。相同的芯片边缘面积放 DDR5 呢?大要 64 或 128 bit 宽,传输速率 6.4-8 GT/s,带宽唯独大要 64-128 GB/s。差一个数目级。而芯片的边缘面积是有限的,die 的最大尺寸是 26×33 毫米,边缘放内存和 I/O,里面放诡计单元。你受限于带宽。 推感性能受四个敛迹:FLOPS、辘集带宽、内存带宽和内存容量。如果换成 DDR,你确乎得到了 4 倍的比特数/晶圆,但内存带宽暴跌,整个那些诡计单元就只颖慧等着,算力被虚耗了。 Dwarkesh:那回到宏不雅层面,你在 newsletter 里说 2026 年大型科技公司成本支拨的 30% 要花在内存上? Dylan:对,去掉英伟达的利润率堆叠之后,大要三分之一的成本支拨花在内存上。 内存价钱还会陆续涨。这对阛阓不同部分的影响是不同的。一部 iPhone 有 12 GB 内存,以前每 GB 大要 3-4 好意思元,是以内存成本大要 50 好意思元。当今 DDR 涨到了约 12 好意思元/GB,酿成 150 好意思元,多了 100 好意思元。苹果不太会全部我方吃掉这个成本,是以最终消费者可能要为一部 iPhone 多付大要 250 好意思元。 但这只是高端阛阓,苹果每年只卖两三亿部手机。大头在中低端阛阓。之前大众每年卖 14 亿部智高手机,当今降到 11 亿。咱们的预计是本年可能降到 8 亿,来岁 6 亿以致 5 亿。咱们在亚洲的分析师跟踪到小米和 OPPO 正在把中低端手机出货量砍半。因为低端手机内存占物料成本的比例更高,利润更薄,根底吃不下这个成本上升。 要害是,砍掉的主如果低端,每部手机内存量小,开释出来的内存产能也少。消费端仍然占大众内存需求的一半以上。开释出来的 DRAM 会流向 AI 芯片,AI 客户答允签更长的合约、付更高的价钱。 NAND 闪存也在涨价。但手机和 PC 的 NAND 占比更高,是以当消费需求被挤压时,开释的 NAND 相对更多,DRAM 涨价幅度会大于 NAND。 这好像率会让普通消费者愈加厌恶 AI。你仍是能在 PC 论坛和 Twitter 上看到多样面孔包了,“就是因为这些猫咪舞蹈视频(指 AI 查验),内存价钱翻倍了,我买不起新显卡了”。等内存价钱再翻一倍,情况只会更糟。 Dwarkesh:为什么不可多造一些内存? Dylan:按捺内存扩产的原因跟按捺逻辑芯片扩产的原因惊东谈主地相似。夙昔三四年,内存厂商根底没建新晶圆厂。2023 年内存价钱很低,厂商在亏钱,是以不建厂。阛阓逐渐规复,但直到去年价钱才确切起来。咱们一年半前就一直在说:推理意味着长凹凸文,长凹凸文意味着大 KV Cache,大 KV Cache 意味着需要大量内存,而 AI 加快器成本的一半就是内存。 但从“光显需要更多内存”到内存价钱骨子响应这个实验,花了整整一年。价钱响应之后,又过了三到六个月内存厂商才初始建新厂。而新厂开发需要两年。是以有意旨的新产能要到 2027 年底或 2028 年才略上线。 当今的情况是一些终点规操作,好意思光收购了台湾一家作念过期制程芯片的公司的晶圆厂,SK 海力士和三星也在想多样见地在现存厂房里挤坐褥能。中枢问题就是,莫得地方放开拓。晶圆厂是东谈主类建造的最复杂的建筑,开发需要两年。 在好意思国扩展电力供应不会成为问题 Dwarkesh:听起来你认为电力可以险些无穷扩展? Dylan:不是无穷,但电力不会成为主要瓶颈。 面前本年咱们大要部署 20 GW 的要害 IT 容量。需要在意,我说的 GW 是办事器插上电源的骨子功耗,但还有传输损耗、变换损耗、冷却功耗等,是以发电端要上浮 20-30%。况兼涡轮机不是 100% 运行,PJM(好意思国最大的电网之一)在模子中假定涡轮机的开机率约 90%,外加 20% 的冗余容量。是以发电端的铭牌容量永恒远高于骨子要害 IT 容量。 但电力开首不单是统一轮回燃气轮机(CCGT)。诚然大众唯独三家 CCGT 制造商,GE Vernova、三菱、西门子,但咱们跟踪了 16 家不同的自然气发电开拓制造商。还有航改型燃气轮机,把飞机引擎改成发电机,包括像 Boom Supersonic 这样的新进入者在跟 Crusoe 合营。 还有中速往来式发动机,康明斯等十几家厂商。以前柴油发动机主要用在卡车上,当今汽车产量不才降,这些厂商有产能可以转作念数据中心发电。船用发动机也可以,Nebius 在新泽西州就是用船用发动机为微软的数据中心发电。Bloom Energy 在作念燃料电板,咱们对它很看好,仍是看好一年半了。还有太阳能加储能、风电加储能,成本弧线在无间下落。 还有一个很贫困的维度:好意思国电网的容量是按用电岑岭设想的,夏天最热的那天。但那只是全年平均负荷的 10-15-20%。如果部署有余多的公用业绩级储能或调峰电厂,可以是燃气、工业燃气轮机、电板、任何上述电源,你就能开释出好意思国电网 20% 的容量给数据中心。因为大部分时期那些容量是闲置的,只在每年几天的几个小时会达到峰值。好意思国电网是太瓦级的,20% 就是 200 多 GW。 今天数据中心只占好意思国电网的 3-4%,到 2028 年会到 10%。而如果能像我说的这样开释电网容量,空间是终点充足的。这些事情阻碍易,波及大量的硬件工程和风险,但供应链比芯片肤浅太多了。 Dwarkesh:即使 CCGT 可能要 1500 好意思元/千瓦的成本支拨,其他本领成本更高也不首要? Dylan:可以高到 3,500 好意思元/千瓦。电力成本翻倍意味着什么?一颗 Hopper 的部署成本从每小时 1.4 好意思元酿成 1.5 好意思元。因为模子的边缘遵守擢升纷乱于那一毛钱的动力成本加多。 咱们跟踪的数据露馅,到这个十年末,大要一半的新增数据中心容量会是“behind the meter”(厂区自备发电)。Behind the meter 险些老是比电网接入贵,但电网有审批、互联列队等多样问题。Behind the meter 的本清爽线绝酌定样,往来式发动机、船用发动机、航改燃机、CCGT、Bloom Energy 燃料电板、太阳能加储能,每一种本领单独都能作念到数十 GW,加起来就是数百 GW。 天外 GPU 在这十年内不会收场 Dwarkesh:马斯克终点看晴天外数据中心。如果你说电力在大地不是瓶颈,那天外数据中心的事理是什么?马斯克可能会说大地的审批太难了。 Dylan:用地方面,好意思国很大,数据中心占地未几。空气排放许但是个挑战,但特朗普政府仍是裁汰了门槛,在得克萨斯州可以跳过好多这类繁文缛礼。 天外确乎动力免费,这是唯独的事理。但即便大地电力成本翻倍,它仍然只占 GPU 总成本的一小部分。 确切分袂各个云办事商的,除了软件之外,是它们部署和处置故障的才略。GPU 可靠性很差,Blackwell 大要 15% 部署后需要返修。你仍是在大地测试好了,然后要拆掉、装上火箭、送进天外、再再行上线——这至少多花六个月。而在算力受限的天下里,前六个月是算力最有价值的时候,因为当今比明天更稀缺。你延长了六个月的算力部署。大地上咱们看到有的云办事商部署 GPU 需要六个月,有的快得多。天外不可能更快。 Dwarkesh:那通讯怎样办?Starlink 卫星之间当今是 100 Gb/s 的激光链路,明天可以更高,接近 InfiniBand 的 400 Gb/s。 Dylan:但那是每颗 GPU 的带宽,不是每个机架。况兼还要乘以 72(一个 NVL72 里的 GPU 数目)。从 Hopper 到 Blackwell 到 Rubin 还分别翻倍。 更要害的是,随着模子变得越来越寥落(MoE 大众越来越多,最初模子仍是极端百以致上千个大众),你需要在成百上千颗芯片之间作念通讯。你没法把卫星作念到无穷大,是以需要卫星间的互联。这些空间激光比大地的可插拔光收发器贵得多、可靠性更差,大地的光收发器是百万级量产的,况兼仍是很不可靠了,通俗需要拔出来擦一擦再插且归。 归根结底,空间数据中心面对的是兼并个稀缺资源:咱们到本十年末每年只可造 200 GW 的芯片。无论放在大地如故天外,都不贫困。芯片是最大的瓶颈,是以你要作念的是让芯片在制造完成的那一刻就初始责任产出 token。为此,大地的东谈主们在作念多样事情来加快部署,数据中心模块化、机架模块化、以致在数据中心现场才装芯片(其他整个东西提前布好线)。这些在天外作念不到。 天外数据中心终会有意旨的那一天,但不会在这个十年,而是在更远的明天。当动力确切成为大瓶颈、当地盘和审批愈加困难、当芯片不再是瓶颈的时候。马斯克不靠 20% 的优化赢,他靠的是 10 倍的颠覆,那是 SpaceX 和 Tesla 告捷的模式。天外数据中心也许最终能提供 10 倍上风,但不是在地球资源还没用完的时候。 为什么莫得更多对冲基金进行 AGI 来往? Dwarkesh:你作念 SemiAnalysis 这些数据表格,六个月前预计了内存危急,当今在讲清洁室(洁净室)危急,明天是开拓危急。为什么唯独 Leopold Aschenbrenner(前 OpenAI 超等对皆团队接洽员,对冲基金 Situational Awareness LP 独创东谈主,专注押注 AI 基础设施供应链的公开阛阓股票。 该基金 2025 年上半年扣费后讲述率达 47%,远超同期标普 500 的 6%;结果 2025 年四季度,其公开持仓畛域从创随即的 2.25 亿好意思元增长至约 55 亿好意思元)在用你的数据赚疯了?其他东谈主在干什么? Dylan:好多东谈主在收货,只是形状不同。Leopold 开打趣说他是唯独一个告诉我“你的数字太低了”的客户,其他整个东谈主都说我的数字太高了。无论是超等云厂商如故 AI 实验室,都说“那家公司不可能有那么多”,然后咱们得而已用事实劝服他们。无意候他们要六个月到一年才吸收实验。 我大要 60% 的业务来自产业客户,AI 实验室、数据中心公司、超等云厂商、半导体公司。另外 40% 来自对冲基金。好多基金也在用咱们的数据来往。比如内存来往,一年前如果你告诉别东谈主内存价钱会翻四倍、智高手机出货量下落 40%,整个东谈主都会说你疯了。但有一些东谈主敬佩了,况兼来往了内存股票。Leopold 自然在持仓畛域和仓位构建上作念得可能比大多数东谈主好,但他毫不是唯独一个。 要害在于信念。你得确切敬佩 AI 会以这种形状爆发,才会去作念这些来往。而 Leopold 可能是整个东谈主中对 AGI 腾飞最有信念的。 台积电会将苹果踢出 N2 制程名单吗? Dwarkesh:如果英伟达、亚马逊和谷歌都答允为 N2 产能出高价,台积电会不会把苹果踢出去? Dylan:不会平直踢出去。芯片设想周期很长,杰出一年,是以更可能发生的是英伟达等预支产能扩张用度。台积电不会完全撤销苹果,但当苹果订了 X 的量时,台积电可能会说“咱们预计你只需要 X-1”,然后只给 X-1。苹果传统上老是多订 10%、然后在年中削减 10%。这个弹性空间苹果以后可能就莫得了。 本年苹果仍然占据 N2 大部分产能,AMD 也在争取一小部分来早期作念 AI 芯片和 CPU——这对 AMD 来说是个很大的赌注,因为新制程有延长风险。但随着时期推移,苹果占台积电收入的比例会越来越小。 到 A16 节点时,第一个客户仍是不是苹果而是 AI。苹果不再是台积电最亲密的伙伴了,它的业务没在增长,而台积电的成本支拨在推广。加上内存和封装成本上升挤压苹果的物料成本,苹果的出货量可能会下落,进一步酿成一个不那么贫困的客户。 机器东谈主与地缘风险 Dwarkesh:如果到 2030 年极端百万台东谈主形机器东谈主在运行,每台都需要腹地算力,这对半导体有什么影响? Dylan:不需要把整个智能都放在机器东谈主里。更高效的作念法是把大部分盘算推算和高层任务交给云表更遒劲的模子来作念,高批量推理、更大的模子。云表给出提示比如“提起阿谁杯子”,然后机器东谈主腹地的小模子处理具体的力度、分量等及时反馈。每秒或每秒十次从云表更新提示就够了。 如果把整个处理都放在开拓端,一是更贵(无法作念批量推理),二是智能不够(云表模子更大更强),三是咱们处于半导体阻拦的天下,机器东谈主需要先进制程芯片(因为功耗敏锐),你每给一台机器东谈主装一颗先进芯片,就少了一颗给 AI 数据中心的。 Dwarkesh:这其实示意了一个对于明天的酷爱事实,智能会高度集结在物理空间上。今天 80 亿东谈主的诡计是分散在每个东谈主的脑袋里的。明天即使极端百万台机器东谈主散布活着界各地,骨子的念念考和诡计仍然在集结式数据中心里完成。 Dylan:没错。我认为马斯克也遒劲到了这小数,是以他跟三星签了大合同来造机器东谈主芯片,一方面分散地缘风险,另一方面三星的 AI 芯片产能竞争没台积电那么强烈。他同期得到了地缘政事多元化和供应链多元化,况兼无须跟那些答允付“无穷”价钱的数据中心买家平直竞争。 参考府上: 1.https://www.youtube.com/watch?v=mDG_Hx3BSUE 运营/排版:何晨龙 |



备案号: