Sam Altman 谈 OpenAI 的制胜计划、AI 个性化、基础设施算账,以及不可避免的 IPO
本文信息来源:bigtechnology
OpenAI 的 CEO 做客 Big Technology,坦诚讨论了 OpenAI 的策略、产品雄心、为超 1 万亿美元基础设施买单的能力、上市计划,以及更多话题。

周二,当 Sam Altman 走进 OpenAI 旧金山总部的录音室时,整栋大楼都处于高度戒备状态。Google 令人印象深刻的 Gemini 3 模型让 OpenAI 进入了“Code Red”状态,而围绕日益动荡的 AI 基础设施建设的担忧也在不断加剧。
在这一切之中,Altman 准备就 OpenAI 的制胜策略进行回应,阐述他对未来一年产品线走向的预期、公司逾 1 万亿美元的 AI 基础设施投入为何在逻辑上成立,以及他在 AI 设备和 AI 云方面的未来规划。
Altman —— 在我们于 Big Technology Podcast 播出并在此全文发布的一次对话中 —— 勾勒出了一套清晰的战略,以确保 OpenAI 保持领先:让人们使用其产品,用最好的模型把他们留住,并通过可靠的算力满足他们想要的使用场景。随后,再向企业级和硬件等领域扩展。
以下是我们完整的对话内容,经过轻微编辑以缩减篇幅并提升清晰度。你也可以在 Apple Podcasts、Spotify 或 YouTube 上收听/观看。
Alex Kantrowitz:OpenAI 已经 10 岁了,ChatGPT 也有三年历史,但竞争正在加剧。随着 Gemini 3 的发布,OpenAI 总部进入了 Code Red。也是我记忆中第一次,这家公司似乎并没有一个明确的领先优势。OpenAI 将如何走出这一时刻,又会在什么时候?
Sam Altman:首先,关于 Code Red 这一点——我们把这些情况视为相对低风险、但会定期出现的应对措施。我认为在潜在竞争威胁出现时保持警惕并迅速行动是件好事。我们过去也经历过这种情况。今年早些时候在 DeepSeek 上就发生过一次,当时也启动了 Code Red。
关于传染病有一句话,大意是:当一场疫情开始时,你在最初采取的每一个行动,价值都远远高于你之后采取的行动,而大多数人在早期做得不够,后来才开始恐慌——我们在 COVID 疫情期间确实清楚地看到了这一点。但我某种程度上也把这种理念看作是我们如何应对竞争性威胁的方式。
Gemini 3 并没有——至少到目前为止还没有——产生我们此前担心的那种影响。但它确实和 DeepSeek 一样,暴露了我们在产品供给策略上的一些薄弱环节,而我们正在非常迅速地加以解决。我不认为我们还会处在这种 code red 状态太久。历史上来看,这类情况对我们而言通常就是六到八周的事情,但我很高兴我们在积极应对。
我们刚刚推出了一个新的图像模型,这是许多消费者非常想要的一个优秀产品。上周我们发布了 GPT 5.2,反响非常好,增长也非常迅速。接下来我们还会推出几项新东西,同时也会进行一些持续性的改进,比如提升服务速度。
我的猜测是,我们会长期这样做,每年一次,也许两次,这本质上只是为了确保我们在自己的赛道中赢下来。很多其他公司也会做得很好,我也为他们感到高兴。但 ChatGPT 依然是市场上遥遥领先、绝对占主导地位的聊天机器人,而且我预计这种领先优势会随着时间推移不断扩大,而不是缩小。
模型在各个地方都会变得足够好。但人们使用一个产品——无论是消费级还是企业级——背后的原因,远不只是模型本身。我们对此已经预期了一段时间,因此我们努力去构建一整套彼此协同的完整体系,确保我们成为人们最想使用的产品。
我认为竞争是好事,它会逼着我们变得更好。但我相信我们会在聊天领域做得非常出色,也会在企业领域做得非常出色。未来几年,在其他新的类别中,我也期待我们能同样表现出色。我认为人们真的希望只用一个 AI 平台。人们在个人生活中使用手机,也希望在工作中使用同一种类型的手机——大多数时候都是如此。我们正在 AI 领域看到同样的情况。ChatGPT 在消费端的强大优势,正在实实在在地帮助我们赢下企业市场。
当然,企业需要不同的产品形态,但人们会想:“好吧,我知道这家公司 OpenAI,也知道怎么使用这个 ChatGPT 界面。”所以策略是:打造最好的模型,围绕它构建最好的产品,并具备足够的基础设施来实现大规模服务。
ChatGPT 在今年早些时候每周活跃用户大约有 4 亿,现在已经达到 8 亿。但在另一方面,你在像 Google 这样的地方拥有分发上的优势。你认为模型会商品化吗?如果会,最重要的是什么?是分发能力吗?是你构建应用的水平吗?还是其他因素?
我不认为用“商品化”来思考模型是一个完全恰当的框架。在某些领域,不同的模型会擅长不同的事情。对于与模型聊天这类常规使用场景,可能会有很多优秀的选择。而对于科学发现,你可能需要那种站在最前沿、为科学高度优化的模型。因此,模型会具备不同的优势,而我认为,最大的经济价值将由处在前沿的模型创造。
而且我们计划在这方面保持领先。我们非常自豪 5.2 是当今世界上最强的推理模型,也是科学家取得进展最多的模型。同时我们也非常自豪,企业普遍认为它是在完成企业工作所需的所有任务上表现最好的模型。因此,在某些领域我们会领先,在另一些领域可能落后一些,但我预计整体上最智能的模型将具备巨大的价值。
即便在一个免费模型就能完成很多人们所需事务的世界里,产品依然至关重要。正如你所说,分发和品牌真的很重要。以 ChatGPT 为例,个性化具有极强的黏性。人们非常喜欢模型能够随着时间推移逐渐了解他们这一点,而你们也会看到我们在这方面投入更多、更多的努力。
人们会和这些模型产生一些体验,随后真的会与之建立一种关联。我记得曾有人跟我说过,有点像一生只选一次牙膏,然后就一直买同一款,或者至少大多数人是这样的。人们也会这样谈论——他们和 ChatGPT 有过一次神奇的体验。医疗是一个很有代表性的例子,人们会把自己的验血结果输入 ChatGPT,或者把这些症状输入进去,然后发现自己得了什么病,接着去看医生,治好了以前一直弄不明白的问题。这类用户的黏性非常高,更不用说在此之上的个性化体验了。
会有所有这些产品相关的事情。我们最近刚发布了浏览器,我认为这指向了一个新的、相当不错的潜在护城河。设备还要更远一些,但我对此非常兴奋。
所以我认为会有所有这些组成部分。而在企业端,什么构成护城河或竞争优势?我预计会有些不同。但就像在消费端,对用户的个性化非常重要一样,在企业端也会有类似的个性化概念:一家企业会与像我们这样的公司建立关系,并将他们的数据连接到其中,而你将能够使用来自不同公司的大量智能体在其上运行,这也会在很大程度上确保信息被以正确的方式处理。我也预计这会具有很强的粘性。
我知道你们大多把我们看作一家面向消费者的公司,但实际上我们拥有超过一百万的企业用户,而且 API 的采用速度非常快。今年我们的 API 业务增长速度甚至快于 ChatGPT 本身。所以,企业级业务真正是从今年开始全面展开的。
如果用“商品化”这个词不太准确,也许可以说是面向日常用户的模型能力趋于一致。在谈到 ChatGPT 的增长能力时,我就以 Google 为例吧,如果 ChatGPT 和 Gemini 在日常使用场景下建立在让人感觉相似的模型之上,那么 Google 拥有那么多可以推送 Gemini 的服务渠道,而 ChatGPT 却需要为每一个新用户而争夺,这一点到底构成多大的威胁?
我认为 Google 仍然是一个巨大的威胁,是一家极其强大的公司。假设在 2023 年的时候,Google 真的下定决心认真对待我们,那我们可能就会处在非常糟糕的境地。我觉得他们完全有能力把我们击垮,但当时他们的 AI 项目在方向上并不完全正确。从产品角度来看,他们并没有——你知道的,他们一度拉响过“code red”,但并没有真正把这件事当回事。
此外,Google 可能拥有整个科技行业中最出色的商业模式,我认为他们不会轻易放弃这一点。但把 AI 硬塞进网页搜索里——我不知道,也许我错了,也许我也被说服了——但我觉得那种做法不如从头重新构想整个体系来得有效。
我认为这其实是一个更广泛且很有意思的趋势。仅仅把 AI 强行加到现有的做事方式上,我觉得效果不会像在这种以 AI 优先的世界中重新设计一切那样好。这也是我们一开始就想做消费级设备的部分原因之一,但这一点同样适用于很多其他层面。
如果你把 AI 放进一个消息应用里,让它很好地帮你总结消息、起草回复,那确实会好一点。但我不认为那是最终形态。那并不是那种真正聪明的 AI——作为你的代理,与其他人的代理交互,判断什么时候该打扰你、什么时候不该打扰你,以及它可以自行处理哪些决策、什么时候需要来问你的那种形态。
搜索也是类似的,生产力套件也是类似的。我怀疑这件事总是会比你想象的要花更长时间,但我也怀疑我们会在各个主要品类中看到全新的产品,它们是从一开始就完全围绕 AI 构建的,而不是事后再把 AI 拼接进去。我认为这是 Google 的一个弱点,尽管他们拥有巨大的分发优势。
ChatGPT 最初推出的时候,我记得是 Benedict Evans 提出,你可能并不想把 AI 直接放进 Excel 里,而是应该重新想象你使用 Excel 的方式。但在开发过程中,人们发现的一点是,背后还是需要某种后端支持。既然如此,为什么最后不能干脆把它直接加在上面呢?
我的意思是,你当然可以把它叠加在上面,但——我一天中有很大一部分时间都在各种消息应用里,包括电子邮件、短信、Slack 等等。我认为这本身就是一种错误的交互界面。所以你可以在这些应用之上强行加上 AI,而结果也只是好那么一点点。
但我更希望的是,早上我只需要说一句:“这是我今天想完成的事情,这是我在担心的,这是我在思考的,这是我希望发生的事情。我不想一整天都在和人发消息。我不需要你给我做摘要。我也不需要你展示一堆草稿。你能处理的事情就帮我都处理掉。你了解我。你了解这些人。你知道我想完成什么。”然后,每隔几个小时,如果你需要我做什么,再集中告诉我一次。但这和现在这些应用的工作方式是完全不同的一种流程。
这就是 ChatGPT 要走的方向吗?
说实话,我原本以为到了现在这个时间点,ChatGPT 和刚发布时相比,会看起来有更大的变化。
你预期了什么?
我不知道。我当时只是觉得,聊天界面的影响力不可能发展到后来这样的程度。我的意思是,现在看起来确实更好了,但总体来说,它和最初作为研究预览上线时并没有本质区别——而那甚至都不打算成为一个产品。我们知道文本界面非常好。每个人都习惯给朋友发消息,而且他们也喜欢这样。聊天界面本身确实很棒。但我原以为,如果它要成为像现在这样规模庞大、并且被大量用于真实工作的产品,那这个界面本身必须要比现在进化得多得多。
当然现在我仍然认为它应该朝那个方向发展,但我低估了当前这种通用型界面所蕴含的力量。我认为,未来理所当然的情况是,AI 应该能够针对不同类型的任务生成不同类型的界面。所以,如果你是在讨论数据,它就应该能够用不同的方式把这些数据展示给你,并且你也能够用不同的方式与之交互。
我们已经通过 Canvas 等功能稍微实现了这一点,但它应该更加具有交互性。现在它更像是一种来回的对话。如果你只是围绕某个对象进行讨论,而它能够持续更新,那就太好了。你会有更多问题、更多想法,也会有更多信息不断涌入。随着时间推移,如果它能变得更加主动,或许能够理解你当天想完成的事情,并在后台持续为你工作,同时向你发送更新,那就更理想了。
你可以从人们使用 Codex 的方式中看到这一点,我认为这是今年发生的最令人兴奋的事情之一——Codex 真的变得非常出色,而这也指向了我希望塑造的未来将会是什么样子。
但这件事让我感到意外——我本来想说有点尴尬,但其实并不是。显然它已经取得了巨大的成功——让我意外的是,在过去三年里,ChatGPT 的变化其实并没有那么大。
界面是好用的,但我想内部机制已经发生了变化。记忆功能是真正改变局面的关键因素。我已经就一次即将到来的、包含大量规划细节的旅行和 ChatGPT 断断续续地聊了好几个星期,现在我只需要在一个新窗口里进来,说一句“好吧,我们继续聊这趟旅行”,它就能理解上下文。有多好的记忆能力才算足够好呢?
我认为我们根本没有这样的概念,因为人类存在极限——即使你拥有世界上最好的个人助理,他们也不可能记住你一生中说过的每一句话。他们不可能读过你的每一封电子邮件,也不可能读过你写过的每一份文档。他们不可能每天都看着你所有的工作,并记住每一个细微的细节。他们不可能在那种程度上成为你生活的参与者。而且,没有任何人类拥有无限而完美的记忆。
而且 AI 肯定能够做到这一点。我们其实经常讨论这个问题——目前,记忆功能仍然非常粗糙、非常早期。我们还处在记忆的 GPT-2 时代。但当它真正能够记住你整个人生中的每一个细节,并在此基础上进行全面个性化时会是什么样子?而且这不仅仅是事实层面的记忆,还有那些你可能甚至没想到要表达出来的、微小而细致的个人偏好,但 AI 却能捕捉到——我认为这将会非常强大。这是一个仍然要到 2026 年才能实现的功能,但这是我对整个方向中最感到兴奋的部分之一。
随着这些机器人确实会记住我们的想法,我们真的会与它们建立关系。我认为这是整个时刻中一个被低估的方面——人们已经开始觉得这些机器人是他们的陪伴者,会为他们着想。
当你想到人们与这些机器人之间——我不知道“亲密”这个词合不合适——但这种陪伴的程度时,是否有一个可以调节的旋钮,比如说,“哦,让我们确保人们和这些东西变得非常亲近”,或者再把旋钮往另一边转一点,让彼此保持一定的距离?如果真的存在这样一个旋钮,你该如何以正确的方式去调节它?
确实有比我原本意识到的更多的人,想要拥有——姑且称之为亲密的陪伴吧。我不知道用什么词最合适。“关系”感觉不太对,“陪伴”也不太完全贴切。我不知道该怎么称呼,但他们想要与 AI 形成某种深层的连接。在当前模型能力水平下,想要这种东西的人比我预想的要多。
我认为我们低估了这一点有很多原因,但在今年年初,说你想要那样的东西还被认为是非常奇怪的。也许现在仍有很多人不这么想。但从“揭示性偏好”来看——人们喜欢他们的 AI 聊天机器人了解自己、对自己温暖、给予支持。而这里面是有价值的,即便在某些情况下,即便是那些声称自己并不在乎这一点的人,实际上也仍然对它有所偏好。
人们喜欢他们的 AI 聊天机器人了解自己、对自己温暖、给予支持。而这里面是有价值的,即便在某些情况下,即便是那些声称自己并不在乎这一点的人,实际上也仍然对它有所偏好。
我认为其中某种形态是可以非常健康的。我也认为成年用户应该在光谱的不同位置上拥有大量选择权,决定自己想处于哪一端。当然,也确实存在一些在我看来并不健康的版本,尽管我确信很多人仍然会选择那样的方式。与此同时,也有一些人明确希望获得一个最朴素、最有效、最高效的工具。
所以我猜想,就像许多其他技术一样,我们会开展实验,发现其中存在未知的未知因素,有好有坏;而社会也会随着时间推移逐渐厘清,应该如何看待人们该把这个“调节钮”设在什么位置;最终人们将拥有巨大的选择空间,并把它设定在彼此非常不同的位置上。
所以你的想法是,让人们基本上自己来决定这一点?
是的,当然。但我认为我们还不知道它应该走到多远,或者我们应该允许它走到多远。我们会在这里给予用户相当大的个人自由。但有一些我们讨论过的例子,是其他服务可能会提供、而我们不会提供的。比如,我们不会——我们不会让我们的 AI 试图说服人们与它建立一种排他的恋爱关系。我确信其他服务会这样做。
是的,因为黏性越强,那个服务赚的钱就越多。认真深入地去想的话,这些可能性都会让人有点害怕。
完全同意。这确实是其中一个——就我个人而言,你可以看到这件事很容易在哪些地方走偏。
我们来聊聊企业级市场。上周你在纽约和一些新闻公司的编辑以及 CEO 一起吃了午餐,并且告诉他们企业级市场将成为 OpenAI 明年的一个重要优先事项 。
我很想多听你讲讲为什么这是一个优先事项,以及你怎么看 OpenAI 相对于 Anthropic 的竞争态势。我知道有人会说,这是 OpenAI 从以消费者为中心转向的一次调整。所以也请你给我们一个关于企业级市场的整体概述。
所以我们的策略一直都是消费者优先。这样做有几个原因。第一,模型在过去并不够稳健、能力也不足以满足大多数企业级用途,而现在它们正在达到这个水平。第二,我们当时清楚地看到了一个在消费者领域取胜的机会,而这样的机会非常罕见,也很难遇到。我认为,如果你在消费者市场取得成功,那么赢下企业级市场就会变得容易得多。我们现在也正在看到这一点。
但正如我之前提到的那样,这是企业增长超过消费者增长的一年。鉴于目前模型所处的阶段以及它们明年将达到的水平,我们认为现在正是可以相当迅速地构建一个真正重要的企业业务的时机。我的意思是,我认为我们已经有了这样的业务,但它还可以增长得更多。
企业似乎已经准备好了。这项技术看起来也已经成熟。编码目前是最大的例子。但还有其他正在增长的领域,其他垂直领域也在非常快速地发展。我们也开始听到企业说:“我真的只需要一个 AI 平台。”
哪个垂直领域?
金融……就我个人而言,科学是我现在对所有正在发生的事情中最兴奋的一个方向。客户支持做得非常好。
我可以问你一个关于 GDPval 的问题吗?Box 的 CEO Aaron Levy 说我应该抛出一个关于 GDPval 的问题。这是一种衡量 AI 在知识型工作任务中表现的指标。
我回头看了 GPT 5.2 的发布,并查看了 GDPval 图表。GPT-5 思考模型在 38% 的任务中击败或持平于知识工作者。GPT 5.2 思考在 70.9% 的知识工作任务中击败或持平,GPT 5.2 Pro 在 74.1% 的知识工作任务中击败或持平。这样一个现实是:这些模型能够完成如此多的知识工作,其含义是什么?
你在问关于垂直领域的问题,我觉得这是个很好的问题。但我当时脑子里在想的,也是我刚才有点磕磕绊绊的地方,是评测——我记得应该是 40 多个不同的垂直领域,是一家企业必须要做的事情。包括做一个 PowerPoint、进行法律分析、写一个小型 Web 应用,诸如此类。这个评测要回答的是:在企业需要完成的许多事情上,专家是否更偏好模型的输出,相比其他专家的输出?
当然,这些都是规模较小、边界清晰的任务,还达不到那种复杂、开放式的创造性工作——比如构思一个全新的产品;也还没有涉及大量的团队协作场景。但如果你有这样一位同事,可以给他分配一小时的任务,而在 74% 或 70% 的情况下都能交付你更满意的结果,并且你还希望为此支付更低的成本——这本身依然是非常非凡的。
如果你回到三年前 ChatGPT 刚发布的时候,说三年后我们会达到现在这样的水平,大多数人都会说绝对不可能。因此,当我们思考企业将如何整合这一切时,它已经不再只是能写代码——而是可以把各种知识型工作的任务都某种程度上外包给 AI。而企业真正理清该如何与之整合还需要一段时间,但其影响应该会相当巨大。
我知道你不是经济学家,所以我不会问你它对就业的宏观影响。不过我想给你读一段来自 Substack 上的《Blood of the Machine》 的内容。这是一位技术文案写作者写的。他说:“聊天机器人出现之后,我的工作变成了管理机器人,而不是管理一整个客服团队。”好吧,这在我看来似乎会经常发生。但接着他说:“一旦这些机器人被训练到能够提供足够好的支持,那么我就被裁掉了。”
这种情况会变得更加普遍吗?
所以我同意你的看法,很明显将来每个人都会在管理很多做不同事情的 AI。最终,就像任何优秀的管理者一样,希望你的团队会变得越来越好,而你只是承担更大的工作范围和更多的责任。
我在短期内并不是“工作末日论者”。我确实有一些担忧,我认为在某些情况下,这种转变可能会比较艰难。但我们在本能上就深深地关心他人、关心他人在做什么。我们似乎如此关注相对地位,总是想要更多,想要成为有用的存在、提供价值和服务,去表达创造精神——无论是什么在这么长时间里驱动着我们,我认为这些都不会消失。
我在短期内并不是“工作末日论者”。我确实有一些担忧,我认为在某些情况下,这种转变可能会比较艰难。但我们在本能上就深深地关心他人、关心他人在做什么。
现在,我确实认为未来的工作——或者我甚至都不知道“工作”这个词是否准确——不管到 2050 年我们每天要做的事情是什么,可能看起来都会与今天非常不同。但我并没有那种“哦,生活将会失去意义,经济将彻底崩溃”的想法。我们会找到——我希望如此——更多的意义。而经济方面,我认为会发生重大的变化。但我觉得你永远不该低估进化生物学。
我经常思考我们如何在 OpenAI 实现所有职能的自动化。甚至比这更进一步,我还会思考拥有一位 AI CEO 意味着什么。OpenAI 这件事并不会让我感到不安。我对此充满期待。我不会去对抗它。我也不想成为那个死抱着不放、说着“我能做得更好”的人。
一位 AI CEO 会不会只是做出一连串决策,把我们所有的资源都引导去为 AI 提供更多能源和算力?
我是说,不——肯定会给它加上护栏的。显然,你不会想要一个不受人类治理的 AI CEO。但如果你想一想——也许这是个疯狂的类比,不过我还是说出来——如果设想一种情形:世界上的每一个人实际上都是一家 AI 公司的董事会成员,可以告诉 AI CEO 该做什么,如果他们没有把工作做好还能将其解雇,并且对决策拥有治理权,而 AI CEO 则负责尽力执行董事会的意愿——我认为在未来的人看来,这也许会显得相当合理。
在我们结束这一关于模型和能力的章节之前,GPT-6 什么时候会到来?
我预计——我不知道我们什么时候会把某个模型称为 GPT-6——但我预计在明年第一季度会推出相比 5.2 有显著提升的新模型。
什么叫“显著提升”?是更多偏向企业端,还是——
肯定两者都有。模型在面向消费者方面会有大量改进。消费者目前最想要的并不是更高的 IQ。企业确实仍然想要更高的 IQ。因此我们会针对不同用途以不同方式改进模型,但我们的目标是打造一个所有人都会更喜欢的模型。
关于基础设施。你们大约有 1.4 万亿美元的基础设施建设承诺。我听了你关于基础设施的很多表述。其中一些你说过的话包括:“如果人们知道我们可以用算力做到什么,他们会想要更多、更多的算力。”你还说过:“我们目前能提供的东西,与拥有 10 倍算力和 100 倍算力之间的差距是巨大的。”你能否稍微展开讲讲?你们打算用如此多的算力来做什么?
我个人最兴奋的一件事,是利用 AI 和海量算力来发现新的科学。我坚信,科学发现是这个世界让每个人变得更好的最高阶因素。如果我们能把巨量算力投入到科学问题中,去发现新的知识——哪怕只是极其微小的一点点,这种事情现在已经开始发生了,仍然非常早期,目前只是很小的突破。但根据我对这个领域历史的理解,一旦那些曲线开始出现,并且稍微脱离 x 轴,我们就知道该如何把它做得越来越好。不过,这需要巨量的算力。因此,这是一大方向——投入大量 AI 去发现新的科学、治愈疾病,以及许多其他事情。
一个最近挺酷的例子是:我们使用 Codex 构建了 Sora Android 应用。他们在不到一个月的时间里就完成了。他们使用了非常大量的资源——在 OpenAI 工作的一大好处就是你在 Codex 上不会有任何限制。他们用了海量的 token,但却完成了原本需要很多人、花更长时间才能完成的工作。可以说,Codex 基本上替我们完成了这些。你可以想象这一点还能走得更远,未来整个公司都可以利用大量算力来构建他们的产品。
人们已经大量讨论过,视频模型正指向这些由实时生成的用户界面,而这类界面将消耗大量算力。希望转型业务的企业也会使用大量算力。想要提供优质、个性化医疗服务的医生,需要持续监测每一位患者能获取到的所有生命体征——可以想象,这同样会使用大量算力。
很难准确描述我们目前在全球范围内为生成 AI 输出而使用了多少算力,但这些数字都非常粗略,我也认为用这种方式来讨论并不严谨,不过我一直觉得这些心理上的思维实验多少有点用处。所以也请原谅我的不严密。
假设如今一家 AI 公司每天可能从前沿模型中生成大约 10 万亿个 token。可能还要更多,但我认为对任何人来说都还不到千万亿个 token。再假设世界上有 80 亿人,平均来说,每个人每天产生的 token 数量大约是 2 万个——我觉得这些数字肯定完全不准确。但你就可以开始这样思考——而且公平地说,我们应该拿当前模型提供商所输出的 token 来比较,而不是所有被消费的 token——你可以开始看到这样一种趋势:我们会在公司里拥有这样的模型,它们每天输出的 token 数量将超过全人类加起来的总和,然后是这个规模的 10 倍,再然后是 100 倍。
从某种意义上讲,这种对比看起来很傻,但在另一方面,它确实让人对地球上由人类大脑完成的智力计算与由 AI 大脑完成的比例规模有一个直观感受,而两者在相对生长速率上的差异也颇具意味。
你是否意识到,对这种算力的使用确实存在强烈需求?如果 OpenAI 把用于科学领域的算力提高一倍,我们是否就能获得确定性的科学突破?或者在医疗领域,我们是否就能明确地具备辅助医生的能力?在这些判断中,有多少只是对未来的假设,又有多少是基于你今天所看到的情况而形成的清晰认知,确信它一定会发生?
基于我们今天所看到的一切,结果就是这些都会发生。这并不意味着未来不可能出现某些疯狂的变数。也许有人会发现一种全新的架构,带来一万倍的效率提升,那样的话,我们很可能在一段时间内把基础设施建设得过于超前了。
但就目前我们所看到的一切而言——模型在每一个新阶段上变得多么快地更强,人们在每次我们降低成本时多么渴望使用它们,以及人们整体上对它们的使用意愿如何不断增强——所有这些都向我表明,需求会持续增长,人们会用它们来做美妙的事情,也会用来做一些傻乎乎的事情。这就是未来的形态。
不仅仅是我们每天能处理多少 token,更关键的是处理得有多快。随着这些编码模型变得越来越强大,它们可以思考很长时间,但你并不希望等待那么久。因此还会有其他维度。这将不仅仅是我们能处理的 token 数量,而是沿着少数几个轴线对智能的需求。
如果你遇到一个非常棘手的医疗健康问题,你是想用 5.2,还是想用 5.2 Pro,哪怕它会消耗多得多的 token?我会选择更好的模型。我想你也会。
让我们再深入一层来谈谈科学发现。你能举一个这样的科学家的例子吗:他说,“我有一个问题 X,如果我投入 Y 的算力来研究它,我就能把它解决——但以我现在的条件还做不到”?
今天早上在 Twitter 上有件事,一群数学家在那儿讨论——他们都在互相回复彼此的推文。他们说:“我以前非常怀疑 LLMs 是否真的能做到很好。5.2 是第一次对我来说跨过那条界线的版本。它真的做到了——在一些帮助下,它完成了这个小证明。它发现了这个小东西。但这实际上正在改变我的工作流程。”然后其他人纷纷附和,说:“是的,我也是这样。”也有人说 5.1 已经达到了,不过不多。
但这是一个非常近期的例子——这个模型才发布了大概五天——在数学研究社区里,大家似乎都在说:“好吧,一些重要的事情刚刚发生了。”
我看到 Greg Brockman 一直在他的动态里强调这些在数学、科学领域的不同用途,我觉得在这些社区中,5.2 确实触发了某种转变。接下来随着事态的发展,会发生什么就很值得关注了。
在这种规模下进行算力建设的一个困难之处在于,你必须提前很久去规划。你提到的那 1.4 万亿美元——我们会在非常长的一段时间内把它花出去。我希望我们能更快地推进,我认为如果能更快推进,是会有需求的。但建设这些项目,以及为数据中心、芯片、系统、网络以及其他一切提供运行所需的能源,都需要极其漫长的时间。所以这势必会是一个长期过程。
从一年前到现在,我们的算力大概增长了三倍。明年我们还会再把算力提升三倍,希望之后还能再来一次。收入增长得甚至略快一些,但基本上与我们的算力规模保持同步。到目前为止,我们从未遇到过无法很好地将所有算力变现的情况。如果我们现在拥有双倍的算力,我认为我们的收入也会立刻翻一倍。
我们来谈谈数字吧。收入在增长,计算支出也在增长,但计算支出仍然超过了收入增长。我认为目前的报道数据显示,OpenAI 在现在到 2028-29 年实现盈利之前,预计将亏损大约 1200 亿美元。所以能不能谈一谈这种情况将如何改变?转折点会出现在什么时候?
随着收入增长、推理在整个计算集群中所占比例越来越大,它最终会覆盖并吞没训练成本。这就是我们的计划:在训练上投入大量资金,但赚得更多。若不是我们持续大幅提高训练成本,我们本可以在非常早的时候就实现盈利。但我们做出的押注是,极其激进地投资于这些大型模型的训练。
全世界都在好奇你的收入将如何与支出相匹配。我认为今年的收入轨迹会达到 200 亿美元,而支出承诺是 1.4 万亿美元—
是在一个非常长的时间周期内。
这也是我为什么想把这个问题提出来和你讨论。我觉得一次性把这些数字从长期来看会如何运作,清楚地摆在大家面前,会非常好。
这真的很难——有一件事我肯定做不到,而且我遇到过的人里也很少有人能做到:你可以在脑子里对很多数学问题有不错的直觉,但指数增长通常很难让人快速建立一个可靠的心智框架。无论出于什么原因,进化让我们需要在脑海中擅长处理很多数学问题,但对指数增长进行建模似乎并不在其中。
因此,我们相信在相当长的一段时间内,我们能够保持收入非常陡峭的增长曲线,而我们目前看到的一切也在持续印证这一点。如果没有算力,我们是做不到的。我们在算力上受到的限制非常严重,而且这对收入曲线的影响非常大,以至于我认为,如果有一天我们手里有大量算力闲置,而无法在“按单位算力计价”的基础上实现有利润的变现,那么说一句,“好吧,这似乎有点问题——这整件事到底该怎么运作?”是完全合理的。
但我们已经从多种角度反复测算了这一点。当然,随着我们为降低算力成本所做的所有努力逐步落地,在每美元可获得的 FLOPS 方面我们也会变得更加高效。但我们看到了消费者端的增长,也看到了企业端的增长。还有一大批全新类型的业务我们甚至还没有推出,但未来都会上线。
算力确实是支撑这一切的生命线。前进过程中会有一些节点,如果我们在时间判断或数学测算上稍有偏差,仍然具备一定的灵活性。但我们始终处于算力不足的状态,这也一直限制着我们能够做到的事情。
所以实际上,训练成本在占比上是下降的。总体成本确实大幅上升,但预期是通过诸如这种面向企业的推进、用户愿意为 ChatGPT 付费,以及通过 API 等方式,OpenAI 将能够把收入增长到足以用营收来覆盖这些成本?
是的,这就是计划。
让市场感到恐慌的一点在于,债务进入了这个等式。关于债务的一般逻辑是,当事情具有可预测性时才会去举债,然后公司会借入债务、进行建设,并获得可预测的收入。但这是一种新的类别,它是不可预测的。你如何看待债务在这里进入局面的这个事实?
所以首先,我认为市场真正开始失去理智,是在今年早些时候,我们去和某家公司会面,而那家公司第二天股价就会上涨 20% 或 15%。那种情况让人感觉非常不健康。实际上,我对现在市场多了一些质疑和理性是感到高兴的,因为在我看来,当时我们似乎正完全朝着一个非常不稳定的泡沫前进。而现在我认为人们——在某种程度上有了纪律性。所以我反而觉得,事情是——我觉得之前人们有些疯狂,而现在人们变得更加理性了。
在债务方面,我认为我们大概已经知道,如果我们构建基础设施——也就是整个行业,肯定会有人从中获得价值。而且现在仍然处在非常早期的阶段,这一点我同意你的看法。但我不认为还有人会质疑 AI 基础设施不会带来价值。所以我觉得让债务进入这个市场是合理的。我也认为还会出现其他类型的金融工具。我怀疑随着人们在如何为这类事情融资上进行真正的创新,我们也会看到一些不太理性的工具。但向公司放贷以建设数据中心——在我看来这是完全没问题的。
我认为人们的担忧在于,如果事情不能继续按当前节奏推进——这里举一种情形,你可能会不同意——而是模型的进展出现饱和,那么基础设施的价值就会低于此前的预期。这样一来,确实,那些数据中心对某些人来说仍然有价值,但也有可能被清算,然后被他人以折扣价购入。
不过我确实怀疑,在这个过程中会出现一些周期性的繁荣与萧条。这类事情从来都不会完全一帆风顺。
首先,在我看来这一点非常清楚,而且我很乐意为此押上整个公司:这些模型会变得好得多、好得多。我们对这一点有着相当清晰的判断窗口。我们对此非常有信心。
即便它们并没有变得更好,我也认为世界存在很强的惯性。人们需要一段时间才能弄清楚如何去适应新事物。我认为 5.2 所代表的经济价值,相对于迄今为止全世界已经学会如何从中获取的价值而言,仍然有着巨大的“价值滞后”。大到即使你把模型冻结在 5.2 上,还有多少额外的价值可以被创造出来,从而推动多少新的收入?我敢打赌,这是一个极其庞大的数字。
事实上,这不是你问的问题,但如果我可以稍微发泄一下的话:我们过去经常讨论一个由短时间线/长时间线、慢起飞/快起飞构成的二维矩阵,以及在不同阶段我们认为概率会朝哪个方向转移。而你大致可以根据自己位于这个二维矩阵的哪个位置,来理解世界应该围绕哪些决策和策略进行优化。
在我脑海中的这个图景里,仿佛有一条 z 轴浮现出来,代表的是小规模 overhang / 大规模 overhang。我当时大概是这么想的——或者说我并没有深入思考。但现在复盘来看,我一定是默认这个 overhang 不会大到那种程度,也就是如果模型本身蕴含着大量价值,世界会相当快地搞清楚该如何将其部署出来。
但在我看来,现在这种能力过剩的情况将会非常巨大。在世界大多数地方,你会看到一些领域——比如某些程序员群体——通过采用这些工具,生产力会大幅提升。但从整体上看,你拥有的是一个极其聪明的模型,坦率地说,大多数人仍然在问着和 GPT-4 时代非常相似的问题。科学家不一样,程序员不一样,也许知识型工作也会变得不一样。但确实存在一个巨大的能力过剩,而这会给世界带来一系列非常奇怪的后果。我们还没有完全想清楚这种局面将如何全面展开,但它显然与几年前我所预期的情况大不相同。
I 我想就这种能力过剩向你提一个问题。基本上,这些模型能够做到的远比它们目前被使用的要多得多。我一直在试图弄清楚,为什么这些模型的潜力如此之大,但实际使用却远远没有发挥出来。然而,很多企业在尝试落地这些模型时,并没有获得投资回报,至少他们是这样告诉 MIT 的。
我不太确定该如何看待这个问题,因为我们听到很多企业在说:“就算你把 GPT 5.2 的价格提高 10 倍,我们仍然愿意付费。你对它的定价严重偏低了,我们从中获得了巨大的价值。”所以这在我看来并不太合理。当然,如果你去听程序员怎么说,他们会说:“这个东西——我愿意付现在价格的 100 倍,”之类的。
会不会只是官僚主义把事情搞砸了?
假设你相信 GDPval 的数据,当然你也完全有理由不信。也许它们是错的。但假设它是真的,对于这些定义明确、持续时间也不算太长的知识型工作任务,有七成的情况下,你会对 5.2 的输出同样满意,甚至更满意。那么你就应该大量使用它。然而,人们改变自己的工作流却要花这么长时间。他们已经习惯了让初级分析师去做一份演示文稿之类的事情——这种习惯的黏性比我原先想象的要强得多。即便我知道自己本可以比现在更多地使用 AI,我的工作方式到现在仍然在很大程度上保持着原样。
好吧,我们还剩下 10 分钟。我有四个问题。看看能不能快速过一遍。那么你们正在做的这个设备——我听到的说法是:手机大小、没有屏幕。为什么它不能是一个应用?
首先,我们会做一小系列设备,并不会只有单一的一款。随着时间推移——这只是投机,所以我也可能完全错了——但我认为人们使用电脑的方式会逐渐发生转变,从某种迟钝、被动的事物,变成一个非常智能、主动的存在,能够理解你整个人生、你的背景,以及你周围正在发生的一切,对你身边的人保持高度感知,无论是物理上在你附近的人,还是你通过正在使用的电脑与之互动的人。
而且我不认为现有的设备很适合那样的世界。我非常坚信,我们是在设备能力的极限下工作。你面前有一台电脑,它包含了许多设计选择。它可以是开放的,也可以是封闭的,但它做不到——不存在那种“好吧,专心听这次采访,但同时保持封闭,如果我忘了问 Sam 一个问题,就在我耳边轻声提醒我”之类的功能。或许那样会很有帮助。
有一个屏幕,这就把你限制在几十年来我们一直使用的那种图形用户界面方式里。还有一个键盘,它的设计初衷就是为了放慢你输入信息的速度。这些长期以来都被视为理所当然的前提,而且它们确实运作良好。但后来出现了一种完全全新的事物,它打开了一个全新的可能性空间,不过我不认为目前设备的形态是最优的匹配。对于我们如今拥有的这种令人惊叹的新能力来说,如果它恰好是最佳形态,那反而会显得很奇怪。
你谈到过构建云。这是我们从一位听众那里收到的一封电子邮件:“在我们公司,我们正在迁移出 Azure,直接与 OpenAI 集成,为产品中的 AI 体验提供动力。重点是在整个技术栈中注入一个由数万亿个 token 组成的流,来驱动 AI 体验。”这是你们的计划吗——以这种方式打造一个规模非常、非常庞大的云业务?
首先,数万亿个 token 是一个非常庞大的数量。你提到了对算力的需求以及我们的企业策略——企业已经非常明确地告诉我们他们希望从我们这里购买多少 token,而我们在 2026 年将再次不及格,无法满足需求。
但策略是:大多数公司似乎都希望来到像我们这样的公司,说:“我想让我的公司拥有 AI。我需要一个为我公司定制的 API。我需要为我公司定制的 ChatGPT Enterprise。我需要一个平台,能够运行所有这些智能体,并且我可以信任把数据放在上面。我需要有能力把数万亿个 token 引入我的产品中。我需要有能力让所有内部流程变得更高效。”而我们目前还没有一个很好的“一体化”方案来满足他们,我们希望打造这样的方案。
你的雄心是把它打造到与 AWS 和 Azure 这样世界级的平台并列的高度吗?
我认为这和那些是不一样的一种东西。我并没有什么野心去提供你们现在提供的那种用来托管网站的所有服务。但我觉得这个概念——我的猜测是,人们会继续保有他们所谓的“web cloud”,然后还会出现另一种东西:一家公司会说,“我需要一个 AI 平台,用来做我所有的内部事情,或者我想提供的那个服务之类的。”它在某种意义上运行在物理硬件之上,但我认为它将会是一个相当不同的产品形态。
我们快速聊一下“发现”吧。你说过一件让我觉得很有意思的事情——你认为模型,或者也许是和模型一起工作的人成,将在明年做出一些小的发现,并在五年内做出重大的发现。那是模型本身,还是与模型协作的人?以及是什么让你如此确信这会发生?
是人们在使用这些模型。那些能够自己想出要问什么问题的模型——那感觉还离得比较远。但如果这个世界因为新的知识而受益,我们应该感到非常兴奋。
我认为人类进步的整个历程就是这样:我们构建出更好的工具,人们用这些工具去做更多的事情,而在这个过程中又会构建出更多的工具。正是这种脚手架,让我们一层一层、代际相传、一次次发现地不断攀登。而且问题是由人类提出这一事实,在我看来丝毫不会削弱工具本身的价值。所以我觉得这很棒,我完全欣然接受。
今年年初的时候,我以为那些小规模的发现会在 2026 年才开始。结果它们在 2025 年已经开始了,而且是在 2025 年年底。再次强调,这些发现都非常小——我真的不想夸大其词。但对我来说,任何“有所发现”在质性上都和“什么都没有”完全不同。可以肯定的是,当我们在三年前推出 ChatGPT 时,那个模型并不会对人类知识总量做出任何新的贡献。
从现在到未来五年,这条通往重大发现的旅程——我怀疑它只是 AI 的正常“爬山式”进步。每个季度都会变得稍微好一点,然后突然有一天我们会说:“哇,被这些模型增强的人类,正在做五年前的人类根本不可能做到的事情。”至于我们把功劳主要归因于更聪明的人类还是更聪明的模型,只要我们能获得科学发现,无论哪种方式我都非常开心。
IPO——明年?
我不知道。
你想成为一家上市公司吗?你看起来可以长期以私有公司的形式运营。在融资层面,你会在真正需要之前就选择上市吗?
这里面有很多因素在起作用。我确实觉得让公开市场参与价值创造这件事很酷。从某种意义上看,如果你拿任何一家以往的公司来对比,我们上市都会算是非常晚的。作为一家私营公司真的很棒。我们需要大量资本。某个时候我们一定会触及所有的股东人数上限之类的限制。
所以我会因为要当一家上市公司的 CEO 而感到兴奋吗?0%。那我会因为 OpenAI 成为一家上市公司而感到兴奋吗?在某些方面我会,但在某些方面我觉得那会非常让人头疼。
我非常认真地听了你和 Theo Von 的那次访谈。很棒的访谈,他做了家庭作业。你当时对他说——那是在 GPT-5 发布之前不久——GPT-5 在几乎所有方面都比我们聪明。我当时觉得这就是 AGI 的定义。这难道不是 AGI 吗?如果不是,那这个词是不是已经在某种程度上变得没有意义了?
从某种原始算力的角度来看,这些模型显然极其聪明。过去几天里到处都在讨论 GPT 5.2 的内容,说它的 IQ 是 147、144 或 151,具体取决于采用谁的测验,总之是一个非常高的数值。而且你能看到各个领域的许多专家都在说,它可以完成这些惊人的事情,正在产生实际贡献,并让他们的工作效率大幅提升。还有我们之前谈到的那些 GDP-Val 相关的东西。
你现在所没有的一件事,是模型无法完成某件事情时,能够意识到自己做不到,然后自己去探索如何学习、如何在那件事情上变得擅长,学会真正理解它,并在第二天回来时把它做对。而这种持续学习的能力——幼儿是具备的。在我看来,这似乎是我们需要构建的重要组成部分。
那么,没有这一点,你还能拥有大多数人所认为的 AGI 吗?这并不清楚。我的意思是,已经有很多人会说,我们用当前的模型就已经达到了 AGI。我认为几乎所有人都会同意,如果在当前这种智能水平之上,再具备了那种能力,那就显然非常像 AGI。但也许世界上大多数人会说:“好吧,即便没有那一点,它在大多数方面都比我们更聪明地完成了大多数重要的知识性任务。我们已经到了 AGI。它正在发现一些新的、小块的科学知识。我们已经在 AGI 了。”
我认为这意味着,这个术语虽然对我们所有人来说都非常难以停止使用,但它的定义非常不明确。
我有一个候选定义——既然我们在 AGI 上搞错了,因为我们从未很好地定义过它。现在大家关注的新术语是我们何时达到 superintelligence。所以我的提议是,我们承认 AGI 好像一闪而过。它并没有那么大程度地改变世界,或者说它会在长期内改变。但好吧,行,我们在某个时间点已经构建出了 AGI。我们正处在这样一个模糊的阶段:有些人认为我们已经做到了,更多的人也认为我们做到了,然后我们就会问:“好吧,接下来是什么?”
一个关于 superintelligence 的候选定义是:当一个系统在担任美国总统、成为一家大型公司的 CEO、运营一个非常庞大的科学实验室等方面,能够比任何人类做得更好,甚至在人类借助 AI 的情况下也是如此。
这让我想起了国际象棋发展过程中的一件很有意思的事,当时国际象棋 AI 能够击败人类。我对此记忆非常清楚,就是 Deep Blue 那件事。随后有一段时间,人类与 AI 的组合比单独的 AI 更强。再后来,人类反而只是在拖后腿。最聪明的做法是完全不依赖人类的 AI,因为人类并不理解它那种卓越的智能,反而会影响它。
我认为类似这样的东西是一个关于超级智能的有趣框架。我觉得这距离实现还很遥远,但这一次我很希望能有一个更清晰的定义。
谢谢,Sam
谢谢。