资本支出解局
本文信息来源:euclid
审视推动全经济押注 GPU 背后的假设与激励机制
两年前,红杉资本的 David Cahn 撰写了一篇文章,介绍了他所称的 AI 的 2000 亿美元问题。 他的主要观点是,AI 基础设施的资本投入与这些投资所产生的收入之间存在显著差距。他通过估算偿还在 GPU、数据中心及配套基础设施上的前期资本支出(CapEx)所需的生命周期收入来量化这一差距。当时,这一不匹配总额约为 2000 亿美元。Cahn 解释了他计算背后的数学和推理:
请考虑以下情况:每花费 1 美元购买 GPU,大约需要再花费 1 美元用于数据中心运行 GPU 的能源成本。因此,如果 Nvidia 在年底实现 500 亿美元的年度 GPU 收入(基于分析师预测的保守估计),这意味着大约 1000 亿美元的数据中心支出。GPU 的最终用户——例如 Starbucks、X、Tesla、Github Copilot 或一家新创公司——也需要赚取利润。假设他们需要获得 50% 的利润率,这意味着每年的当前 GPU 资本支出需要通过这些 GPU 产生 2000 亿美元的生命周期收入,才能收回前期资本投资。
Cahn 的观点之所以引起共鸣,是因为它清晰地揭示了许多人早已怀疑的事实:资本支出正在超越变现速度。超大规模云服务商和 AI 原生公司正在投入数十亿美元购买 GPU,期望其收入能与这些投资同步增长。自 Cahn 首次发表文章以来,AI 收入问题已扩大三倍:原本的 2000 亿美元问题,已变成 AI 的 6000 亿美元难题,而且还在持续增长。我们将 Cahn 的初步分析延伸至 2025 年和 2026 年,预测数据中心支出显示,AI 的回报金额将在明年接近 1 万亿美元。
在 Cahn 的收入分析中,他假设 Google、Microsoft、Apple 和 Meta 每年可从新的 AI 相关收入中获得 100 亿美元,此外 Oracle、ByteDance、Alibaba、Tencent、X 和 Tesla 每家可获得 50 亿美元的新 AI 收入。来自 The Information 的估算显示,AI 原生公司目前的年化收入为 185 亿美元。为了简化,我们将其四舍五入为 200 亿美元。
加总起来,大约是慷慨估算的 900 亿美元新增 AI 相关收入。因此,到了 2025 年,这意味着每一年在这种水平的资本支出(CapEx)下,AI 收入仍有大约 7800 亿美元的缺口需要填补。重申一下,这实际上相当于每年新增一万亿美元的经常性收入 ,因为预计这一缺口在 2026 年还会继续扩大。值得注意的是,今年全球在云基础设施和应用上的总支出预计约为 5000 亿美元。 好消息是,AI 收入正以惊人的速度增长,尽管在留存率方面存在不确定性,且仍有很长的路要走。坏消息是,资本支出的爆炸式增长似乎并没有放缓的迹象。
AI 数据中心支出盛宴
Renaissance Macro Research 分析师的估算显示,截至目前,2025 年 AI 数据中心支出对 GDP 增长的贡献已超过美国所有消费者支出总和 ——这是历史上的首次。另一个令人瞩目的数据 :数据中心建设支出(不包括数据中心内部所有技术的成本)预计将在今年超过办公楼建设支出。

Microsoft、Google、Amazon 和 Meta 单独就预计在 2025 年创纪录地投入 3640 亿美元的资本支出。这几乎占它们 2025 年预计收入的 50%,同时也大幅侵蚀了它们的自由现金流(FCF)。正如《华尔街日报》报道的那样:
从 2016 年至 2023 年,Alphabet、Amazon、Meta 和 Microsoft 的自由现金流和净收益大致同步增长。但自 2023 年以来,这两者开始出现分化。根据 FactSet 数据,这四家公司的合并净收入在两年后的第二季度增长了 73%,达到 910 亿美元,而自由现金流则下降了 30%,至 400 亿美元。
总体来看,摩根士丹利的分析表明,到 2030 年,AI 数据中心的总支出可能接近 3 万亿美元 。考虑到这些数字,我们对 AI 收入回本的估算甚至可能过于乐观。一位分析师指出,超大规模云服务商需要将其数据中心的当前收入翻倍, 仅仅为了覆盖基础设施建设的年度折旧成本 。而这只是按照 10 年折旧计划的一年支出。
如果这些经济状况在孤立环境中持续,我们可能会预期资本部署最终会放缓。相反,一场债务融资热潮正在助推当前周期,私人信贷市场正成为数据中心建设的重要加速器。最新报告显示, 数据中心建设资金中不到一半预计来自超大规模云服务商。剩余资金将从更传统的投资者处筹集,其中私人信贷预计将提供最大份额。瑞银估计每季度有 500 亿美元流入私人信贷市场,这还未包括传闻中的来自 Meta 等公司的 290 亿美元超级交易。
除了传统债务之外,新的数据中心正通过结构化产品融资,例如商业抵押贷款支持证券(CMBS)。与 AI 基础设施相关的 CMBS 发行量正以每年 30%的速度增长,预计在 2024 年达到 156 亿美元。 近期报告指出,今年迄今为止数据中心的发行量中,大约有一半是通过 CMBS 完成的。这一激增对于经历过全球金融危机(GFC)的人来说应当是一个令人担忧的信号——尤其是当其与潜在资产的波动性显著增加相结合时。
鉴于 GPU 本身的快速发展,甚至不清楚金融机构是如何为这些资产分配回收价值的。CoreWeave 为其设备群设定了 6 年的使用寿命。这似乎与 Massed Compute 在此的估算相差不远,该估算表明,大多数高端服务器级芯片在第一年会损失 20-30%的价值,随后几年折旧率下降至 10-15%。然而,像 Nvidia 这样的供应商的创新周期也在加快。 黄仁勋最近开玩笑说,在 Blackwell 之后,“你甚至送都送不出去 Hoppers。” 从逻辑上看,尖端芯片的淘汰时间线与依赖它们的基础模型的短暂“前沿寿命”相吻合——这些寿命已缩短至 6-15 个月。1 然而,除 CoreWeave 外,自 2023 年以来,Microsoft、Meta、Amazon、Oracle 和 Alphabet 都将其折旧时间线延长至 5.5-6 年。2 这不禁让人质疑其中的激励机制:根据 分析 由 经济学人进行的研究,如果将折旧周期调整为三年,“AI 五巨头”的企业总价值将减少 7800 亿美元。
从伊利运河到星际之门
人们常说历史会押韵。在当前 AI 数据中心的繁荣中,很难不看到过去基础设施泡沫的重复模式。 许多人指出其与电信业的相似之处——在 1990 年代末,电信公司基于流量指数级增长的假设,融资建设了大量光纤网络。
新兴的互联网热潮让投资者将资金大量投入到初创网络公司和宽带电信运营商。他们的判断是对的——互联网确实会推动生产力的提升,但他们在财务回报上的预期却是错误的。许多公司无法赚取足够的收入来覆盖开支,最终破产。在宽带领域,过剩的产能导致价格暴跌。由此引发的资本支出低迷促成了2001年的轻度经济衰退。
过去在铁路和运河的狂热中也有许多相似之处。在一次近期采访中,扎克伯格甚至直接承认了这种相似性。问题在于,这种后遗症是否不可避免:收入落后于膨胀的预期、违约率飙升、资产最终被重新定价到原值的几分之一。
如今的区别在于规模:当年光纤是一个千亿美元级别的问题,而 AI 的资本支出正朝着以万亿美元计量的方向发展。所有这些类比都很有趣,因为这些押注在技术层面上是根本正确的 。但预期和资本支出过多、过早。于是,过于激进的金融家和散户投资者损失惨重——但从长期来看,经济从关键基础设施推动的高速普及中受益。
如果今天 GPU 产能过度建设,一些人将会遭受损失。然而,我们认为这几乎可以肯定是对初创企业生态系统和整体经济的长期利好。就像以往许多基础设施狂潮一样,互联网基础设施的扩张为众多具有变革性的创新者(以及获得风险投资支持的赢家)提供了必要条件。然而,在短期内,情况可能会变得糟糕。
目前,投资者对大型科技公司的定价,仿佛它们的重资产业务会像轻资产模式一样盈利。迄今为止,“我们没有任何证据表明这一点,”凯雷集团研究主管 Jason Thomas 说道。“人们忽略的变量是时间跨度。所有这些资本支出可能会带来超乎他们想象的生产力,但却超出了股东相关的时间范围。”
我们正处于一个有趣的局面中——那些掌握权力的玩家——大型投资者、Mag7、芯片制造商——都从现金水龙头持续开启中获益。就在上周, 有报道称 ,OpenAI 计划在未来五年内花费约 1000 亿美元从云服务提供商处租用服务器。这还不包括他们此前已预测到 2030 年将在算力上花费的 3500 亿美元 。如果这些传闻属实,最终结果是 OpenAI 每年在数据中心上的支出将达到 850 亿美元。这个数字相当于 Oracle 和 Salesforce 去年合计的总收入。
就在本周,此外,Nvidia 宣布 将向 OpenAI 投资 1000 亿美元,以“帮助构建并部署至少 10 吉瓦的 Nvidia 系统”用于其 AI 数据中心。Nvidia 还宣布了与 Lambda 和 CoreWeave 的规模较小但同样引人注目的交易。虽然 Nvidia 主要将这些交易定位为客户多元化的关键,但我们不禁注意到这与互联网泡沫时代的电信和设备供应商的相似之处,当时此类交易风靡一时。Lucent 和 Nortel 因“供应商融资”而臭名昭著,他们会通过持有股权和/或投资来换取电信公司购买其设备。或许最恶劣的做法是 Global Crossing 和 WorldCom 等公司记录的“循环收入”,这涉及与其他骨干网供应商进行容量交换交易并人为夸大收入。与 OpenAI 的交易似乎是以(推测为不具约束力的)意向书形式构建的。
与此同时,Oracle 宣布已获得价值数千亿美元的合同,为 OpenAI 及其他几家大型客户提供云计算服务。此消息使其股价飙升了 30%(对于一家市值达半万亿美元的公司来说是一个令人惊讶的数字),并使联合创始人 Larry Ellison 跻身全球最富有个人的竞争行列。债务评级机构穆迪(Moody’s)以及其他分析师则质疑 OpenAI 将如何筹集资金来支付这些合同。完成这一系列内部交易循环的,正是前文提到的 Nvidia 的 1000 亿美元承诺。

类似的动态在过去的基础设施泡沫中也曾上演:提前透支增长、掩盖潜在的需求疲软,并利用相互交织的投资、融资与承诺链条来制造炒作和估值。如今的混淆程度远不及互联网泡沫时期的高峰——但我们看到的一些现象仍令人侧目。比如,许多对未来数据中心需求的估值,似乎并非基于实际的预订,而是基于购买产能的“期权”。如前所述,这些推动股价飙升的大交易,有的不过是被美化的握手协议。一旦需求遇到阻碍,谁来接盘?显然是信息最不充分的散户投资者,以及那些持有数据中心等实体资产的人,还有他们的债务提供方。
总体而言,基础设施投资的热情——由于其对企业的积极外部性——应当成为托管经济的巨大利好,通常会超过此前的投资狂潮。但当前周期中的一些因素更为脆弱。Mag7——如今占据标普 500 指数的三分之一——在损益表上对基础设施折旧有显著的暴露,供应过剩可能会带来负面影响。同样值得注意的是,尽管 CoreWeave 等在许多方面看起来像 REITs,但其底层资产的估值与房地产截然不同。虽然过时的芯片仍有用处,但它们的生产寿命远不及传统基础设施(如桥梁或电力线路)。相比 OpenAI 为其 Stargate 数据中心 项目所投入的资金,伊利运河在今天的美元价值中仅花费其一半,约十年收回成本,并在整整两个世纪后仍每年创造数十亿美元的收入。
更便宜的人工智能幻象
这场数据中心支出盛宴还有一个与初创生态系统密切相关的次要方面,我们认为许多人忽视了:AI 正在变得更便宜的假设。基础设施投资的不断增加,加上基础模型层面的进步,将会推动价格下降。
表面上看,一些数据令人振奋。入门级模型如 GPT-5 Nano 现在每百万个 token 的成本约为 10 美分,比完整版本的 GPT-5(每百万个 token 成本为 3.40 美元)便宜了几个数量级。人们很容易将此视为摩尔定律式效率推动 AI 走向可持续经济的证据。但更便宜的输入并没有转化为更低的系统级成本。事实上,情况正好相反。
推理密集型 AI 的兴起——模型会重新运行查询、搜索网络或启动小型程序来验证结果——增加了每个任务的计算需求。AI 代理会将多个动作串联起来,有时会持续工作几分钟甚至几小时。尽管每个 token 的成本下降了高达 90%,但激增的 token 需求可能导致总成本增加 10 倍。《华尔街日报》的分析生动地展示了任务复杂性的这一变化:
随着模型变得越来越“智能”,它们的需求也变得更大。我们已经在初创公司的财务数据中清楚地看到了这种动态。Notion 的 Ivan Zhao 坦言了这些挑战 :两年前,公司拥有典型的 SaaS 毛利率,大约为 90%。如今,其中约 10 个百分点的利润被用于支付模型提供商的费用,以支持 Notion 最新的 AI 功能。对于像 Notion 这样的企业来说,这并不算是灾难性的,但它反映了一个更广泛的趋势。
Cursor,一款专注于代码的 AI 助手, 据报道在 Anthropic 上的支出几乎与其收入持平,导致其毛利率为零甚至为负。这是当前 AI 世界中猖獗的交叉交易的又一迹象,Cursor 既是 Anthropic 最大的客户,也是直接竞争对手。
根据 报道 来自 The Information,热门搜索初创公司 Perplexity 在 2024 年花费了其收入的 164% 来支付 AWS、Anthropic 和 OpenAI 的账单。随着 Replit 据称增长从 2024 年 8 月的 200 万美元到 2025 年 7 月的 1.44 亿美元,驱动其智能代理的 AI 模型授权成本导致其毛利率波动剧烈,今年范围从负 14% 到最高 36%。另一位竞争对手 Loveable,据报道毛利率约为 35%。Loveable CEO Anton Osika 预计,随着模型成本下降,公司毛利率将有所改善,并补充说 AI 成本“在三年内可能会便宜数倍”。毕竟,在现代 AI 领域,三年几乎是一个世纪——但这绝不是一个明确的结论。
Box 的 Aaron Levie 从 Javon 悖论的角度阐述了这一论点。
因此,关键点并不是“AI 变得更贵了”;而是因为它变得更便宜、更强大,我们会用更多的 AI 来更好地解决问题。
AI 将会同时变得更便宜,也更昂贵。
我们认同这一观点:如果竞争和规模经济推动每个 token 的推理成本下降,但应用程序持续承担更高复杂度的任务以提升性能和能力(从而增加 token 使用量),那么 AI 就会在同一时间既变得更便宜,也变得更昂贵。
当然,也有另一种观点认为,模型公司和云服务提供商会寻求获取更多收入,而不是更少,以弥补其巨额资本投资。换句话说,由于代币成本下降带来的利润率提升,将会越来越多地被模型公司、云服务提供商和芯片制造商收回巨额资本投资的需求所抵消。我们认为,鉴于机会的巨大规模,OpenAI 等公司会非常谨慎地处理这一问题。
OpenAI 迄今为止在 API 定价上的演变方式中,可能隐藏着未来变现的线索:例如,输出/输入 CPMT(每百万 Token 成本)比例的不断提高,可能表明他们希望对最复杂的用例征收“税费”(这些用例很可能有更丰富的应用场景,也许还有更雄厚的资金实力),而不至于打击小规模的使用。我们还可以参考那些更需要证明自己、因此在变现实验上更激进的参与者来寻找线索:Perplexity 的广告和电商测试作为 AI 收入路径目前还没有获得太大进展。
初创企业面临的担忧在于它们可能陷入某种“结构性陷阱”:随着推理成本持续下降,工作负载(以及代币使用量)却不断增加。如果每个“更智能”的任务都需要数量级更多的代币,那么代币变得更便宜也无关紧要。结果可能是为了领先于竞争对手而不断承受利润率的挤压。那些需要访问 最佳 模型来留住客户的应用,可能不会如预期那样看到 AI 成本下降,软件般的利润率往往只是海市蜃楼。
我们认为来自观点的 Newcomer 很好地诠释了我们所处的独特情境:一个新的软件基础设施层正在成长起来。
亏损企业在硅谷当然是司空见惯的……稍微不那么常见的是在一个亏损企业之上再建立另一个亏损企业。通常平台本身并不是烧钱的黑洞,但在当前的 AI 时刻却并非如此。一位投资者形容,Cursor 构建在 Anthropic 之上,就像 DoorDash 构建在 Uber 之上一样。
目前基础设施层(AI 数据中心)和平台层(基础模型)均处于亏损状态,这种组合令人担忧。当然,许多最伟大的技术创新故事都需要在早期对利润空间进行创造性的思考。Uber、DoorDash、Netflix、Amazon——正如 Amazon 创始人著名所言:“你的利润空间就是我的机会。” 现实情况是,从本地部署到云软件的转变,永久性地损失了大约 10 个百分点的毛利率。如果转向 AI 原生再损失 10 个百分点——而我们关于 AI 扩大 TAM 潜力的假设即使只是大致成立——这很可能是值得付出的代价。
至少在我们 Euclid 投资的垂直生态系统中,AI 原生软件企业并不需要提供模型所能实现的所有炫酷功能。他们需要为客户解决真实问题 。鉴于通用模型能迅速追赶前沿模型,我们认为这意味着垂直 AI 的单任务成本随时间推移有较大概率显著下降。与往常一样,那些专注于效率、掌握自身单元经济、投资于闭环改进,并在具有防御性的垂直或高 ARPU 客户细分市场中构建业务的公司,将处于有利位置。
神化的代价
谷歌、微软和 Meta 的创始人最近被问及这些支出水平。他们的回答无疑揭示了他们的思考方式。Atreides Management 的首席投资官 Gavin Baker 在最近的一档播客中分享了他的观点 :
Mark Zuckerberg、Satya 和 Sundar 只是用不同的方式告诉你,我们甚至没有考虑投资回报率(ROI)。他们之所以这么说,是因为真正掌控这些公司的创始人——在谷歌和 Meta 的情况下是拥有超级投票权的股东,而在微软的情况下则是具有重大影响力的人——相信他们正在进行一场创造“数字之神”的竞赛。
Gavin 后来补充说:“Larry Page 显然在谷歌内部多次表示,‘我宁愿破产也不愿输掉这场比赛。’”在被直接问及时,Zuckerberg 也有效地确认了类似的态度,尽管更为委婉。
如果我们最终错误地花掉了几千亿美元,我认为这显然会非常不幸。但我想说的是,我实际上认为另一面的风险更高。如果你建设得太慢,而超级智能在3年内就可能实现,但你假设它会在5年后才出现并据此进行建设,那么你就会在我认为是历史上最重要的技术上处于错误的战略位置。
这种逻辑支撑了当今大量的资本流入:投资者押注,即使今天的支出看起来不可持续,最终的蛋糕规模也会足以弥补早期的损失。为了追求一个“数字化的上帝”,有什么支出水平是不能被合理化的呢?但历史提醒我们要谨慎。基础设施泡沫很少能干净地收场。我们现在正处于一半的 GDP 增长由 AI 基础设施支出驱动的阶段。电信行业的过度建设曾导致破产和资产甩卖。18 世纪的运河和 19 世纪的铁路也走过类似的轨迹。当资本密集度远远领先于收入时,仅靠时间很少能解决问题。
当大卫·卡恩在 2023 年撰写关于 AI 2000 亿美元问题的文章时,那是一个黄色警示。两年后,这种不匹配已增长到三倍(很快将达到五倍),融资方式变得更加复杂,而回报计算也变得更加艰难。
我们不禁觉得,超大规模服务商的逻辑与当今 VC 平台基金的超聚合思维之间存在着一种奇妙的对称性。几周前我们写过关于巨型基金视角的文章:
撇开回报不谈,还有一个更明显且直接的影响:资本在“资产管理人”中的集中,要求公司中也进行相应的资本集中。如果不能部署第一只基金,就无法募集下一只基金。Tiger Global 的兴衰展示了高速、低接触投资模式的陷阱。唯一的其他选择——坦率地说也是更容易的选择,毕竟项目来源和尽职调查并不会随着支票金额线性扩展——就是将资本集中在特定资产上。还有什么地方比在一个你可以辩称是“赢者通吃”的市场中押注被认为是赢家的公司更安全呢?
这一切背后都有一种原始的心理。如果你是在一个权力法则为共识观点、机会可以被描绘成“赢家通吃”的市场中做规模玩家 ,那么实际上只有一个理性的策略:不计成本、不论投资回报率,尽可能多地投入资金去赢。当然,这种逻辑既是循环的,也是自我延续的:它是一种人为制造的叙事,用来引导公众认知并吸引资本,而事实依据却很少。然而,似乎这种认知如今已成为主流叙事。在追求数字化神祇的过程中,没有任何资本规模、估值、烧钱速度或管理资产规模会被认为过高!
正如我们在之前的文章中讨论过的,这种思维方式对风险投资行业构成了系统性风险。对于每一个能够证明其价格合理的十亿美元级 AI 投资,将会有数十个无法做到这一点。危险并不在于 AI 不会改变行业——它正在并且将继续改变——而在于资本分配者将影响的必然性误认为是回报的必然性。或者,把规模误认为是成功的前兆,而风险投资相关的统计数据实际上恰恰证明了相反的结论。那么,无论是 VC 管理人还是有限合伙人,投资者该怎么办呢?
在 Euclid,我们并不从事宏观经济预测的业务。我们没有资格——也质疑是否有人真的有能力——去把握市场周期或泡沫的时机。2016 年初,Benchmark 的普通合伙人 Bill Gurley——在我们看来是业内较为冷静的风险投资评论员之一—— 撰文谈到当时虚高的估值环境 ,文章标题为《On the Road to Recap》。随后的“重置”直到六年后才发生。
在 Euclid,我们的核心原则始终未变。我们相信,垂直型人工智能——无论是在专注于现实世界应用方面,还是在相对不依赖过度资本化来取胜方面——在未来几十年都会是极具吸引力的主题。即使基础模型没有进一步显著改进,当前一代 LLMs 在各垂直市场的部署阶段本身就代表着一次跨时代的机遇。
我们押注于那些解决真实行业问题的创始人,他们依靠自己在该领域的直接经验——无论是构建、销售,还是在该垂直领域工作。我们专注于从第一天起识别并支持这些创始人,这使得 Euclid 在一定程度上远离了下游资本的狂热。这反过来又让我们有空间专注于核心投资原则:与那些(几乎零)边际成本、优势可复利增长,并且在规模化时有望降低获客成本(CAC)并提高防御性的企业合作。
在这样的时期,我们认为管理者的自律尤为重要,无论是在估值还是投资节奏方面。追逐 Beta 不会比捡便宜更有效。我们将以 David Cahn 的观点 作为结束,这个观点让我们深有共鸣:
人工智能将创造巨大的经济价值。专注于为终端用户提供价值的公司建设者将获得丰厚回报。我们正经历着一场有潜力定义一代人的技术浪潮。
投机狂潮是科技的一部分,因此不必害怕。在这一时刻保持冷静的人,有机会建立极其重要的公司。
感谢阅读 Euclid Insights!更多资料请点击这里 3。Euclid 是一家在初创阶段与 Vertical AI 创始人合作的风险投资公司。如果你的人脉网络中有人正在从事该领域的创意,我们非常希望能与他们联系。只需通过私信或在下方评论告诉我们即可。
David Cahn(红杉资本)。AI 的 2000 亿美元之问 (2023)& AI 的 6000 亿美元之问 (2024)
《金融时报》(2025)
- “绝对庞大”:为 3 万亿美元 AI 建设热潮买单的公司
- 为大型科技公司 AI 梦想提供资金的金融大佬
- 投资者看到了科技巨头在 AI 军备竞赛中巨额投入的回报曙光
- OpenAI 在美国五个地点扩展 Stargate AI 项目
《华尔街日报》(2025)。 尖端 AI 本应变得更便宜,如今却比以往更昂贵
信息(2025)
《经济学人》(2025 年)。AI 云核心的 4 万亿美元会计谜题
新秀(2025)。Cursor 的流行是有代价的。GPT-5 或许在恰当的时机到来。