返回首页
2026.03.16 05:17 约 9 分钟 AI

模型实验室盈利能力的辩护

作者:Jamin Ball, Partner @ Altimeter

模型实验室盈利能力的辩护

关于人工智能公司,似乎存在无休止的争论,它们是会拥有“倒挂的损益表”而永远亏损,还是会在未来变成摇钱树。无论是针对OpenAI和Anthropic这样的大型实验室,还是Cursor这样的初创公司,我总是听到这种说法!我不知道是看空者只是想证实他们对人工智能负面情绪的先入之见,还是看多者只是盲目天真的乐观,抑或是有人真的有基于真实分析的观点。作为一名早期风险投资人,我当然属于“永久乐观”阵营,所以你可以对这篇文章进行适当的过滤 🙂 但在这篇文章中,我想重点关注围绕大型实验室的盈利能力辩论,以及为什么我认为它们会变成利润丰厚的业务。

这场辩论主要有三个部分:1)毛利率,2)训练成本,3)留存/商品化。“人工智能实验室永远不会盈利”的人会声称实验室的毛利率结构性受限,训练越来越大的模型(无论是资本支出还是运营支出)的“仓鼠轮”将永远导致自由现金流为负的业务,并且从一个模型切换到另一个模型的成本非常低。所以(正如看空者所说),即使你能解决这三个问题中的一个,你也永远无法解决所有三个,因此这些业务永远不会盈利。

首先,我想通过分析基础设施软件公司(如Confluent、Snowflake、Mongo等以及超大规模云服务商)的盈利能力多年来的演变来为这场辩论奠定基础。这在很多方面都是一个不完美的类比,但我认为以此作为开端很有帮助。

让我们从毛利率开始,因为这是我对此辩论中最有信心的一部分(有人可能会将我的观点描述为“天真地确定” :))。几乎所有基础设施软件公司最初的毛利率都是负的,然后随着规模的扩大,毛利率会达到60-70%的范围。为什么基础设施公司通常以负/非常低的毛利率开始呢?

你以零售价购买基础设施,然后以折扣价出售。 早期你与云提供商没有规模优势。你为计算/存储支付标价(或接近标价),但你为了赢得客户而积极地为你的产品定价。这种数学设计上是倒挂的,你正在补贴采用。

利用率很差。 你为尚未拥有的客户预留了容量。你的集群以10-20%的利用率运行,但你却支付100%的费用。每个新增客户都会改善这个比例,但早期你正在消耗闲置容量。

启动新云区域的固定成本。 早期,你可能只在一个云的一个云区域提供你的产品。“AWS East。”随着时间的推移,你增加了更多的云和更多的区域。增加新区域(甚至增加更多云)有真实的固定成本。早期,你将这些成本分摊到非常少的客户身上。随着客户群的增长,你可以将这些年度固定成本分摊到更广泛的客户群中。

产品尚未优化。 早期的基础设施产品是为了快速上市而设计的,而不是为了效率。查询是浪费的,存储没有正确分层,缓存层尚不存在。工程团队专注于功能,而不是成本优化。“先让它工作,再让它快速”的循环意味着早期成本被夸大了。

还有更多,但这些是我能想到的前几个。结果呢?每家公司都解决了所有这些问题,毛利率也随之可预测地增长……如果说我在评估早期基础设施公司时几乎从不担心的一件事,那就是它们的毛利率……

现在让我们看看模型公司。早期的一个巨大打击是“它们的毛利率很糟糕!它们永远不会盈利!”但这些模型公司面临着许多与经典基础设施公司相同的挑战,而且它们已经显示出类似的扩张趋势。《The Information》最近报道称,Anthropic在2024年的毛利率为-94%,目标是2025年达到约40%的毛利率。我不会评论这些数字的有效性,但趋势应该非常清楚……实验室是如何实现这样的利润扩张的?它们的模型架构不断改进,服务变得更高效(想想添加提示缓存之类的东西)。它们在后台自动扩展和利用GPU的效率更高。总的来说,随着架构变得更高效,每个token的推理成本急剧下降。 我认为边际推理调用已经相当毛利率可观。我的合伙人Clark发布了一篇关于这方面的分析,你可以在这里找到。我还认为,实验室很有可能在未来提供更高毛利率的产品(如应用程序、广告等)。我真的不担心实验室的毛利率会结构性地低于云时代的经典基础设施公司。

关于“这些公司永远不会盈利”的第二个争论围绕着训练成本。云基础设施公司在这里没有真正的可比对象。然而,在我看来,真正的问题更多地在于收回训练成本需要多长时间。为此,我们确实有一个云基础设施公司的类比——它们的销售和营销回报(或者我喜欢称之为CAC回报)。对于CAC回报,以及从“盈利能力”角度来看什么是可持续的,我们已经很清楚什么是优秀、良好、糟糕的。为了定义这个指标,CAC回报计算为:“如果你花费x美元获取一个客户,需要多少个月才能从该客户那里产生x美元的累计毛利润。”任何少于12个月的都是极好的,12-24个月是好的,24-36个月是可以接受的,超过36个月就会变得棘手(这些是我通常适用于早期公司的一些非常普遍的经验法则。随着公司规模越来越大,这些指标的相关性会降低)。CAC回报小于24个月的公司已经显示出能够实现巨额自由现金流盈利的能力。这个指标之所以相关,是因为在你收回了获取成本之后,该客户未来的所有毛利润都应该主要直接流入利润底线(同样,这是一个大致的说法,并不完全准确,但方向上是正确的)。

因此,与实验室的正确比较是“你的预训练回报期是多少”,更重要的是,随着你发布未来的模型,这个指标的趋势如何。计算“训练回报期”的方法是查看训练模型的全部成本,然后计算需要多长时间才能产生等量的毛利润。在不涉及私人数据的情况下,我可以说实验室训练回报期的动态与基础设施公司的CAC回报期并没有太大不同。我完全相信训练回报期根本不会那么长。

对此有两点反驳。

  1. 基础设施公司的CAC回报是一次性的。你花一次钱获取一个客户,然后从中获取收入。模型公司不仅仅花一次钱预训练一个模型,它们会反复这样做。所以真正的问题是,它们能否在发布下一个模型之前收回训练成本(并产生利润)。在我看来,这是最强烈的看空论点,因此值得更深入地探讨。

首先——人们严重低估了模型的商业寿命。有一种看法是,实验室每隔几个月就会发布一个新模型,而旧模型会立即变得一文不值。事实并非如此。Sonnet 3.5作为Anthropic的主力模型已经使用了一年多。GPT-4长期以来一直是OpenAI收入的支柱。而且这些模型不会被“替换”——它们会被分层。新的前沿模型以溢价推出,旧模型则降级服务于高销量、成本敏感的层级。旧模型的收入“转移”的程度远大于“消失”的程度。因此,收回训练成本的时间窗口比看空者想象的要长。

  1. 模型世代之间的收入增长显著超过了训练成本增长。是的,训练成本每代增长约3-5倍。但实验室的年收入大致翻倍(或更多),每个新模型都解锁了全新的用例和客户群。换句话说,如果在一个10亿美元的收入基础上,你需要6个月才能收回模型A的训练成本,而模型B的训练成本是模型A的4倍,但你已经在一个30亿美元的收入基础上……那么回报期实际上会缩短。这个比例正在变好,而不是变差。

  2. 训练效率本身正在提高。实验室不仅仅是在同一个问题上投入更多的计算资源。更好的数据整理、合成数据、架构改进,所有这些都减少了达到给定能力水平所需的浮点运算次数。因此,如果按单位能力成本而不是原始支出衡量,“每代贵4-5倍”可能被夸大了。

模型寿命比人们想象的要长,收入增长超过训练成本增长,以及训练效率的提高。我很难看到训练回报期变得不可持续。如果说有什么不同的话,那就是数据表明它们正在随着时间的推移变得更好,而不是更糟。

好吧,训练回报成本并不疯狂,但模型公司仍然需要偿还CAC!!我对此的回应是,模型实验室将拥有结构性较低的CAC回报期,因为它们的市场更像是一个寡头垄断,而不是一个超级拥挤的SaaS市场。这可能是我分析中最受质疑的部分……过去有更多的大型实验室竞争者。尘埃落定后,真正突出的只有三家(它们本身就在销售推理token)。OpenAI、Anthropic和谷歌的Gemini。我认为实验室的CAC回报期将更像超大规模云服务商的CAC回报期,因为它们都像寡头垄断。随着时间的推移,新实验室将成为真正的挑战者。但我认为新实验室不会结构性地改变大型实验室的回报期。

对寡头垄断框架的明显反驳是开源。Llama、DeepSeek、Mistral。这些模型很好,而且越来越好,它们基本上是免费的。它们难道不会结构性地限制实验室的定价权吗?我不这么认为,原因有几个。开源模型非常适合实验和“足够好”的用例。但企业客户绝大多数都想要一个供应商,他们想要SLA,他们想要支持,他们想要在出现问题时可以联系的人,他们想要合规认证,他们想要一个不需要自己构建的路线图。大规模运行和提供开源模型并非免费。你仍然需要基础设施、运营团队、微调管道,所有这些。等你构建完所有这些,你基本上已经重建了一个比实验室现有产品更糟糕的版本。开源让实验室在定价上保持诚实(这是一件好事),但我不认为它从根本上打破了盈利能力论点。实验室需要“担心”的是。我确实看到一种模式,公司会使用实验室模型进行快速原型开发,然后寻找一个开源(更便宜)的模型进行大规模部署。这可能是我的论点中的一个预警信号。

最后,“实验室永远不会盈利”的人认为切换成本为零,留存率会波动,最终模型会通过提供相同的功能而商品化。首先(先说清楚),人们对超大规模云服务商(AWS、Azure、GCP)一直这么说……你猜怎么着,尽管它们一路大幅降价,但它们都利润丰厚。我几年前在这里写过这篇文章。超大规模云服务商增加了一个结构性的锁定层,这是实验室没有的——出口费用!尽管没有这个工具,但我认为实验室的切换成本正在以比人们意识到的更快的速度建立起来,并且在几年内会比看空者想象的要高得多。

想想今天实验室的严肃企业部署实际上是什么样子。你拥有基于专有数据进行微调的模型,这些模型无法转移到其他提供商。你拥有围绕特定模型行为和怪癖构建的评估套件。你的工程团队已经围绕特定的API、特定的提示模式、特定的工具使用约定建立了肌肉记忆。你已经迭代了数月的系统提示。你可能已经签订了有议价定价的承诺支出合同。而且,越来越多的功能,如内存、上下文窗口和代理工具生态系统,都是深度提供商特定的。所有这些都无法干净地移植。

而且它只会变得更具粘性。随着实验室进一步进入平台领域——托管代理、管理长期工作流、存储持久上下文、提供微调和检索基础设施——切换看起来不再像是“更换API密钥”,而更像是“从云提供商迁移”。这是一个非常不同的对话。模型本身可能正在商品化(老实说,对于许多用例来说,前沿模型是相当可互换的)。但模型周围的平台并非如此。而这正是留存率建立的地方。

了解 RecodeX 的更多信息

立即订阅以继续阅读并访问完整档案。

继续阅读