人工智能革命已经到来,经济能否渡过这一转变?
本文信息来源:substack
预测 2008 年金融危机的人、Anthropic 联合创始人和领先的 AI 播客主持人在 Google 文档中展开辩论,讨论 AI 的未来——以及可能改变我们生活的前景

迈克尔·伯里在其他人都在买进时预见了次贷危机。如今,他看着数万亿资金涌入人工智能基础设施,但他持怀疑态度。 杰克·克拉克是 Anthropic 的联合创始人,该公司是领先的人工智能实验室之一,正在构建未来。 德瓦尔克什·帕特尔采访过从马克·扎克伯格到泰勒·考恩等各界人士,讨论这一切的发展方向。我们将他们放在一个 Google 文档中,由帕特里克·麦肯齐主持,并提出问题:人工智能是真正的机遇,还是我们正在目睹一场历史性的资本错配实时上演?
人工智能的故事
帕特里克·麦肯锡: 你被聘为过去几年的历史学家。简明扼要地讲述自 《Attention Is All You Need》 以来所取得的成就。2025 年的哪些事物会让 2017 年的观众感到惊讶?哪些见多识广的人的预测没有被证实?按照你会向你所在领域的人——研究、政策或市场——讲述的方式来讲述这个故事。
杰克·克拉克 :回到 2017 年,大多数人都在押注通往真正通用系统的路径将来自于从零开始训练智能体,通过一套难度逐步提高的课程来实现,从而创建一个具有通用能力的系统。这个想法出现在所有主要实验室的研究项目中,比如 DeepMind 和 OpenAI,这些项目试图在星际争霸、Dota 2 和 AlphaGo 等游戏中训练出超人类的玩家。我认为这基本上是一个"白板"下注——从一个空白智能体开始,在某个或某些环境中训练它,直到它变得聪明。
当然,正如我们现在都知道的那样,这实际上并没有导致通用人工智能的出现——但它确实在训练的任务分布范围内产生了超人类的智能体。
在这个时期,人们开始尝试一种不同的方法,对数据集进行大规模训练,并尝试构建能够预测和从这些分布生成的模型。这最终效果极好,并被两个关键因素加快了速度:
- 来自《Attention Is All You Need》的 Transformer 框架,它使这种大规模预训练效率更高。
- "Scaling Laws"的大致并行发展,或者说是基本洞见——你可以建立预训练模型的能力与投入其中的底层资源(数据、计算)之间的关系模型。
通过将 Transformers 和 Scaling Laws 的洞见相结合,少数几个人正确地押注,你可以通过大规模扩展数据和计算来获得通用系统。
现在,以一种非常有趣的方式,事情又回到了原点:人们开始再次构建代理,但这一次,它们具备了来自预训练模型的所有洞见。一个很好的例子是 DeepMind 的 SIMA 2 论文,他们在其中创建了一个通用代理来探索 3D 环境,它基于底层的预训练 Gemini 模型。另一个例子是 Claude Code,这是一个编码代理,其基础能力来自于一个大型预训练模型。
帕特里克: 由于大语言模型(LLMs)可编程且广泛可用,包括开源软件(OSS)版本在内虽然功能受限但相对于 2017 年仍然强大,我们现在处于这样一个点:AI 能力(或任何其他有趣的东西)的任何进一步开发都不需要建立在比我们目前拥有的更差的认知基质上。这种"你今天看到的是底线,而不是天花板"的想法,我认为最被业内人士理解,但最被政策制定者和更广泛的世界误解。
每个未来的星际争霸 AI 都已经用原文中文读过《孙子兵法》,除非其设计者认为这样做会让它在防守虫族冲击时变得更差。
杰克: 是的,我们在 Anthropic 经常对政策制定者说的一句话是"这将是最差的时刻!",向他们传达这最终会有多重要真的很难。另一个违反直觉的是能力改进的速度有多快——一个当前的例子是有多少人正在使用 Claude Code 中的 Opus 4.5,并说某种变化的"哇,这东西比以前好得多。"如果你上次使用 LLMs 是在 11 月,你现在对前沿技术的认知就严重偏差了。
迈克尔·伯里: 从我的角度来看,在 2017 年,AI 不是 LLMs。AI 是人工通用智能(AGI)。我认为当时人们并不认为 LLMs 是 AI。我是看科幻小说长大的,它们预测了很多东西,但没有一部把"AI"描绘成像搜索密集型聊天机器人这样的东西。
对于《Attention Is All You Need》及其引入的 transformer 模型,这些都是使用 Tensor 的 Google 工程师的成果,在中期,AI 并不是一个陌生的概念。神经网络、机器学习初创公司很常见,AI 在会议上经常被提及。Google 已经拥有大型语言模型,但它是内部的。最令我惊讶的是,考虑到 Google 在搜索和 Android 中的主导地位,无论是在芯片还是软件方面,Google 没有一直领导这一切。
另一个令我惊讶的是,我原以为应用专用集成电路(ASIC)会被更早采用,小型语言模型(SLM)也会被更早采用。NVIDIA 作为 AI 芯片在推理中持续占据主导地位到目前为止,这令人震惊。
最令我惊讶的是 ChatGPT 引发了支出热潮。ChatGPT 的用例从一开始就普遍受限——搜索、学生作弊和编码。现在有更好的 LLMs 用于编码。但正是这个聊天机器人引发了数万亿美元的支出。
说到那笔支出,我认为德瓦尔凯什与萨提亚·纳德拉的采访中最精彩的时刻之一是承认所有大型软件公司现在都是硬件公司,资本密集型公司,我甚至不确定追踪它们的分析师是否知道什么是维护资本支出。
德瓦基什·帕特尔 :很好的观点。AI 领域迄今为止领先者缺乏持久性,这确实令人惊讶。当然,在 2017 年,Google 遥遥领先。几年前,OpenAI 似乎远远领先于其他竞争者。某些因素(可能是人才挖角、谣言传播或反向工程)到目前为止已经抵消了任何单一实验室可能拥有的失控优势。相反,三大巨头每隔几个月就在领奖台周围轮转。我很好奇"递归超级智能"是否真的能够改变这一点,或者我们是否应该只是预期并接受永久的激烈竞争。
Jack: 关于递归,所有前沿实验室都在用 AI 工具加速自己的开发者,但这并不十分整洁。这似乎具有"你的速度只能和链中最薄弱的环节一样快"的特点——比如,如果你现在能生产 10 倍的代码,但你的代码评价工具只改进了 2 倍,你就看不到巨大的加速。一个重大的开放问题是是否有可能完全关闭这个循环,在这种情况下,你可能会看到某种复合的研发优势。

AI 工具是否真的能提高生产力?
Dwarkesh: 百万美元问题是 METR 生产力研究 (显示在熟悉的代码库中工作的开发者在合并编码工具的拉取请求时性能下降约 20%)还是自包含编码任务的人类等效时间范围(已经达到许多小时,并且每四到七个月翻倍)更能衡量实验室中的研究人员和工程师实际获得的加速程度。我这里没有直接经验,但我猜测更接近前者,因为没有很好的反馈核实循环,而且标准是开放式的(可维护性、品味等)。
Jack: 同意,这是一个关键问题——而且数据相互矛盾且稀缺。例如,我们对 Anthropic 的开发者进行了调查,在使用 Claude 进行工作的受访者中,有 60%自报生产力提高了 50%。但 METR 研究等似乎与此相矛盾。我们需要更好的数据,特别是需要对 AI 实验室内外的开发者进行测试,以了解实际情况。稍微放大一下视角,编码工具的大规模且前所未有的采用确实表明人们从使用它们中获得了一些重大的主观收益——如果越来越多的开发者热情洋溢地让自己的生产力下降,这将是非常违反直觉的。
Dwarkesh:不想深入探讨这个细节问题,但自我报告的生产力远高于——甚至可能反向于——真实生产力,这正是 METR 研究所预测的。
Jack: 是的,同意。不便透露太多细节,但我们在思考具体的仪器设置,以及弄清楚这里的"真实"情况,因为人们自我报告的可能最终会与现实不同。希望我们能在 2026 年拿出一些研究成果!

哪家公司正在赢?
Michael: 你认为讲台会继续轮流使用吗?从我听到的信息来看,Google 在 AWS 和 Microsoft 的开发人员中都赢得了支持。而且看起来公司内的"搜索惯性"已经被消除了。
Dwarkesh: 有意思。在我看来,竞争似乎比以往任何时候都更激烈。Twitter 上对 Opus 4.5 和 Gemini 3.5 Pro 的反响都很不错。我对哪家公司会赢没有意见,但看起来确实还未尘埃落定。
Jack: 在我看来,竞争似乎比以往任何时候都更激烈!
Dwarkesh: 我对此很感兴趣,想听听大家的看法:Anthropic 或 OpenAI 或 Google 能承受多少次失败的训练运行/模型失败?考虑到不断的融资需求(附加问题:具体为了什么?)是基于收入和市场情绪进行的。
Michael: Google 搜索的秘密始终在于它的成本有多低,这样信息搜索(这些搜索无法货币化,占比 80%或更多)就不会成为公司的损失。我认为这是当今生成式 AI 和 LLMs 的根本问题——它们成本太高了。很难理解利润模式是什么,或者任何一个模型的竞争优势会是什么——它能够收取更高的价格,还是以更低的成本运行?
或许 Google 最终能以最低成本运营,并赢得这个变成商品经济的市场。
Dwarkesh: 很好的观点。特别是如果你认为过去一年中许多或大部分的收益都来自推理扩展,这需要成本变量呈指数级增长来维持。
归根结底,某样东西的价格以替代它的成本为上限。所以基础模型公司只有在进步继续快速发展的情况下才能收取高利润(他们目前似乎是这样做的),并且按照 Jack 的观点,最终会变成自我复合增长。

为什么 AI 没有抢走我们所有的工作?
Dwarkesh: 令人惊讶的是,自动化工作和做人类做的事情涉及多少复杂性。我们已经历了许多关于 AGI 的常识性定义——图灵测试已经不值得评论了;我们拥有能够推理和解决困难的、开放式编码和数学问题的模型。如果你在 2017 年让我看到 Gemini 3 或 Claude 4.5 Opus,我会认为它会导致一半的白领工作者失业。然而,AI 对劳动力市场的影响需要用电子表格显微镜才能看到,如果确实存在的话。
我也会对 AI 私人投资的规模和速度感到惊讶。即使在几年前,人们仍在讨论 AGI 必须是一个政府级别的曼哈顿项目,因为那是你能将经济转变为计算和数据引擎的唯一方式。到目前为止,似乎古老的市场机制完全可以支撑占 GDP 多个百分比的 AI 投资。
迈克尔: 很好的观点,德瓦克什,关于图灵测试——这确实是一段时间内的讨论焦点。比如说,在过去工业革命和服务业革命期间,对劳动力的影响非常大,以至于强制教育得以实施和扩展,以使年轻人在劳动力池中停留更长时间。我们肯定还没有看到类似的东西。
杰克: 是的,德瓦克什和迈克尔,AI 社区的一个老生常谈是他们不断构建所谓困难的任务来衡量真正的智能,然后 AI 系统超越这些基准,你会发现自己得到了表面上非常有能力的东西,但仍然可能会犯任何人都会认为古怪或违反直觉的错误。最近的一个例子是 LLMs 在一系列所谓困难的认知任务上被评为"超人类",根据基准测试,但却无法在犯错时进行自我纠正。这现在正在改进,但它说明了 AI 模型的弱点可能是多么违反直觉的。你经常在取得巨大进步的同时发现这些弱点。
Dwarkesh: 我想知道反过来是否也成立——人类可靠地犯下 LLMs 会认为是奇怪或违反直觉的错误类别,哈哈。LLMs 实际上比人类更参差不齐,还是只是以不同的方式参差不齐?
Patrick: 从 Dwarkesh 的书中借用一个观察,LLMs 超越人类的一个平凡之处在于它们说的语言数量远超任何人类——这个程度令人难以想象——而且流利度几乎超过了有史以来几乎所有多语言使用者的水平。不可思议的是,这是无意间发生的,即使实验室并未特意为此进行训练。我看过最令人瞠目结舌的演示之一是,一个 LLM 在只应包含英文文档的语料库上进行训练,却能够将美国有线电视新闻网的新闻文章翻译成日语,达到专业翻译的大致水准。从那个角度来说,一个没有被训练过礼貌的 LLM 可能会说:"人类真奇怪,脾气又大;看看他们有多少人住在一个有书籍的世界里却不会说日语。"

为什么许多工人(还)没有使用 AI
Patrick: 编码似乎是 AI 广泛工业应用的前沿,Cursor 等公司的收入增长令人瞩目,具有品味的技术人员转向 Claude Code 和 OpenAI Codex 等工具,以及围绕"氛围编码"的热潮。这造成了对 AI 热情的明显不对称,因为大多数人不是编码员。下一个会改变哪个行业?什么变化会使这种改变在收益、就业或价格中可见,而不仅仅是演示中?
Jack: 编码有一个相对"闭环"的特性——你用 LLM 生成或调整代码,然后验证并将其推送到生产环境中。真正需要一套更广泛的工具的到来,才能让 LLMs 在编码以外的领域获得这种"闭环"特性——例如,网页搜索功能的创建和模型上下文协议(MCP)连接等工具的出现,使得 LLMs 能够大幅扩展其超越编码的"闭环"实用性。
举个例子,我最近一直在研究各种事物的成本曲线(比如单位质量进入轨道的成本,或太阳能每瓦的成本),这是一种在这些工具出现之前你可以用 LLMs 进行的研究,但它存在巨大的摩擦力,迫使你在 LLM 和其他所有东西之间来回切换。现在这种摩擦已经消除,你看到采用率更高了。因此,我预期我们即将看到发生在程序员身上的事情会更广泛地发生在知识工作者身上——这似乎应该以扩散但广泛的方式出现在科学研究、法律、学术界、咨询和其他领域。
Michael: 说到底,AI 必须由某个人购买。某个地方的人为商品或服务付费。那就是 GDP。这种支出以 2%到 4%的 GDP 增速增长——也许对那些具有定价权的公司有一些提升,但在 AI 的未来中这似乎不太可能。
经济体没有魔法般扩大的蛋糕。它们有算术上受限的蛋糕。没什么花哨的。整个软件蛋糕——运行各种企业和创意功能的 SaaS 软件——还不到 1 万亿美元。这就是为什么我一直回到基础设施与应用程序比率——NVIDIA 销售 4000 亿美元的芯片,而最终用户 AI 产品收入不到 1000 亿美元。
AI 必须增长生产力并创造新的消费类别,而不会蚕食其他类别。这一切都很难做到。AI 能否足够增长生产力?这是有争议的。资本支出周期是基于信念和错失恐惧症的。没有人能指出可行的数据。至少目前还没有。
有一种更简单的叙事认为 AI 会使一切变得好得多,支出会激增。但更可能的情况是 AI 会压低支出。如果 AI 将一个 500 美元的座位许可证替换为 50 美元的许可证,这对生产力来说很好,但对生产力支出来说是通货紧缩的。而且获得的生产力收益很可能会被所有竞争对手所分享。
德瓦克什: 迈克尔,这不就是"劳动力固定"谬论吗?即认为需要编写的软件数量是固定的,我们可以以此为界限来衡量 AI 对软件的影响?
迈克尔: 新市场确实会出现,但发展速度比那些积极激励的未来主义者认为的要慢。这一直如此。人口统计和总可寻址市场(TAM)往往是不符合现实的营销伎俩。中国人口在萎缩。欧洲人口在萎缩。美国是仅有的人口增长的主要西方国家,那是因为入境,但这也成为了政治议题。错失恐惧症真的很可怕。你看看 Apple 或 Microsoft 的一些评论,似乎他们意识到了这一点。
德瓦克什: 附带一提,AI 的出现恰好就在我们需要它的时候,否则我们的经济在接下来的几十年里会因为人口危机而崩溃。这很有趣。
Michael: 是的,Dwarkesh。在医学领域,存在真正的短缺,未来不可能有足够多的人类医生。优质医疗护理必须变得更便宜,技术需要用来扩大真实医学专业知识的覆盖范围和接触面。

工程师会失业吗?
Patrick: AppAmaGooFaceSoft [Apple、Amazon、Google、Facebook、Microsoft]目前雇用约 500,000 名工程师。为 2035 年给出一个数字并解释你的想法——或者辩称员工数是错误的变量,并说出你会追踪的资产负债表或生产力指标。
Michael: 从 2000 年开始,Microsoft 增加了 18,000 名员工,但股票 14 年间停滞不前。实际上,尽管股票大幅下跌,但 Cisco、Dell 和 Intel 的员工数几乎没有变化。所以我认为这是错误的变量。它无法告诉我们价值创造的情况,特别是对于现金充足的公司以及处于垄断、双寡头或寡头垄断地位的公司。我认为员工数会更低,或者不会高很多,因为我认为我们正面临一个非常长期的衰退。超级云计算公司在 2022 年股票下跌时裁员,在股票上升时又雇回了大部分员工。这一切都发生在几年内。
在说生产率创纪录增长之前,我会追踪基于股东的薪酬(SBC)的全部成本。在英伟达,我计算出其大约一半的利润被与股票相关的薪酬抵消,这些股票将价值转移给了员工。好吧,如果现在一半的员工身价 2500 万美元,那么这些员工的生产率收益是什么?更不用说,按照准确的 SBC 成本计算,利润率会低得多。
衡量一切的标准是投资资本回报率(ROIC),这些软件公司的 ROIC 曾经非常高。现在它们正在变成资本密集型硬件公司,ROIC 必然会下降,这在长期内会对股价造成压力。没有什么比 ROIC 的方向——上升或下降,以及下降的速度——更能预测市场的长期趋势。这些公司的 ROIC 现在正在快速下降,这种趋势将持续到 2035 年。
萨蒂亚·纳德拉在与德瓦克什的采访中表示,他希望通过大规模资本支出周期来维持软件的 ROIC。我看不出这一点,即使对纳德拉本人来说,这听起来也只是一种希望。
德瓦克什: 这是个天真的问题,但为什么 ROIC 比绝对收益更重要呢?我宁愿拥有一个能够持续增长的大型企业(虽然相对于投资的比例会下降),也不愿拥有一个基本上能印钞票但规模受限的小型企业。
许多大科技公司的投资资本回报率(ROIC)较低,但他们在未来二十年内的可寻址市场已从广告(年收入 4000 亿美元)扩大到劳动力(年收入数万亿美元)。
Michael: 投资资本回报率——更重要的是其发展趋势——是衡量公司还有多少机会的指标。从我的角度来看,我见过许多企业合并案例,公司主要是通过用债务收购其他公司而扩大规模。这使投资资本回报率成为了焦点。如果这些收购的回报最终低于债务成本,公司就会以类似 WorldCom 的方式失败。
在某个时点,这笔 AI 基础设施支出的投资回报率必须高于该投资成本,否则就不会产生经济价值。如果一家公司规模更大是因为借入更多债务或将所有现金流量投入到低回报项目上,这对投资者来说不是一个有吸引力的特质,其市盈率倍数就会下降。许多非科技公司正在源源不断地产生现金,却没有真正的增长前景,只能通过收购来维持,他们的交易价格约为 8 倍收益。

资金都流向哪里了?
帕特里克: 从资本周期的角度来看,你认为我们在人工智能建设中处于什么阶段——早期过度投资、周期中期调整,还是与以往科技繁荣在结构上完全不同?什么会改变你的想法?
迈克尔: 我确实认为这与以往的繁荣不同,除了一点:资本支出的生命周期异常短暂。芯片现在每年更新一次;今天的数据中心几年后将无法处理新芯片。人们几乎可以说,这些投资中的很多应该作为费用支出,而不是资本化。或者在两年、三年、四年内折旧。
私募信贷在推动这一繁荣中所起的作用与公共资本市场一样大,甚至更大。这种私募信贷是一个混乱的领域,但期限错配尤为突出——其中许多被证券化,似乎这些资产能持续二十年,而给予超大规模公司每四到五年的退出机会。这就是在自找麻烦。搁浅资产。
当然,这些支出者是地球上最富有的公司,但无论是来自现金还是资本市场,大额支出就是大额支出,计划中的支出已经超出了即使是当今最庞大的超大规模公司的资产负债表和现金流量。
此外,在建工程(CIP)现在已成为一种会计技巧,我相信已经在使用中。尚未"投入使用"的资本设备不会开始折旧,也不会计入收益。它可以永远存在那里。我想许多搁浅资产会被隐藏在在建工程中以保护收益,而我认为我们已经看到了这种可能性。
在 Dwarkesh 的采访中,Nadella 说他搁置了一些项目并放缓了建设速度,因为他不想因为某一代芯片而陷入四到五年的折旧。这是一份相当明显的证据声明。
我们现在处于周期中期——已经过了股票因进一步构建而奖励投资者的阶段,正进入真实成本和收入缺乏开始显现的时期。
在过去的周期中,股票和资本市场在中点附近见顶,其余资本支出随着对相关资产的看法逐渐变得更加悲观或更加现实而发生。
Dwarkesh: 我认为这完全取决于 AI 是否继续以快速的步伐改进。如果你真的能在 B200(英伟达的 B200 GPU)上运行人类最聪慧的头脑,那么我们显然投资严重不足。我认为迄今为止应用层的收入收益的信息量不如对 AI 能力本身进展的原始预测更具有参考价值。
Jack: 我同意这一点——近年来能力方面的进展让人印象深刻,并导致 AI 使用率大幅增长。未来可能会出现进一步的阶段性模型能力跃升,这些可能对经济产生极其重大的影响。

市场理解错误的地方
Patrick: 在 AI 供应链中,价值在哪里产生?这与最近或历史上的技术进步有何不同?你认为市场现在最看错了什么?
迈克尔: 从历史上看,各个行业的价值积累都流向那些具有持久竞争优势的企业,这种优势表现为定价权或无可匹敌的成本或分销优势。
目前还不清楚这些支出是否会导致这样的结果。
沃伦·巴菲特在1960年代末拥有一家百货公司。当街对面的百货公司装了扶梯后,他也不得不装。最后,两家都没有从那个昂贵的项目中受益。没有持久的利润改善或成本改善,双方最后都处于完全相同的位置。大多数人工智能的实施就会这样发展。
这就是为什么数万亿美元的支出而没有明确的实体经济应用途径令人担忧。大多数企业不会受益,因为它们的竞争对手会获得相同程度的收益,而双方都不会因此获得竞争优势。
我认为市场最看错的是两个 AI 的代表性公司:NVIDIA 和 Palantir。这两家公司是最幸运的。它们适应得不错,但之所以幸运,是因为在这一切开始时,两家都没有为 AI 设计产品。但它们现在却被当作这样的产品来使用。
NVIDIA 的优势不是持久的。SLM 和 ASIC 在 AI 的大多数应用中是未来的方向。如果确实必要的话,它们将向后兼容 CUDA [NVIDIA 的并行计算平台和编程模型]。NVIDIA 是一个耗电量大、不干净的解决方案,在竞争对手采用完全不同的方法之前勉强支撑着局面。
Palantir 的 CEO 因为一个我所谓的针对他公司的十亿美元赌注而把我比作[坏人]。这不是一个自信的 CEO 的表现。他正在尽力进行营销来维持这种局面,但它会衰落。在扣除基于股票的薪酬后,几乎没有收益。
Dwarkesh:AI 实验室能否从递归自我改进类型的效应中获得持久的竞争优势仍有待观察。但如果 Jack 说得对,AI 开发者应该已经看到了巨大的生产力提升,那么为什么现在的竞争比以往任何时候都更激烈呢?要么这种内部"狗食测试"无法维持竞争优势,要么 AI 带来的生产力提升比表面看起来的要小。
如果事实证明(1)AI 技术栈中没有人能获得疯狂的利润,而且(2)AI 仍然是件大事,那么显然这些价值就会流向顾客。在我听来,这听起来很不错。
Michael: 在扶梯的例子中,所有价值都流向了顾客。如果生产者或服务提供商无法收取垄断租金,结果总是这样。

什么会改变他们的想法
Patrick: 2026 年有什么科技或财务方面的头条新闻会让你感到惊讶,并促使你重新校准你对 AI 进展或估值的整体看法?回过头来看,迄今为止最大的惊喜或重新校准是什么?
迈克尔: 最大的惊喜,足以让我重新调整观点的,是自主 AI 代理在最大的公司中取代数百万个工作岗位。这会让我感到震惊,但不一定能帮助我理解持久的竞争优势在哪里。那又回到了巴菲特的电梯例子。
另一个惊喜是应用层收入因为大量杀手级应用的涌现而达到5000亿美元或更高。
现在,我们会看到以下两种情况之一:要么英伟达的芯片能用五到六年,因此人们对它们的需求会减少,要么芯片只能用两到三年,这样超大规模计算公司的收益将崩溃,私人信贷市场也会被摧毁。
回顾来看,迄今为止最大的意外是:
- Google 并未一直领先——《Attention Is All You Need》的八位作者都是 Google 员工;他们拥有搜索、Gmail、Android,甚至 LLM 和芯片,但他们搞砸了,给了竞争力远低于他们的竞争对手一个开局。Google 被迫追赶一个初创公司在 AI 领域的进展:这实在是令人震撼。
- ChatGPT——一个聊天机器人引发了数万亿美元的基础设施竞赛。这就像有人制造了一个原型机器人,世界上的每家企业都开始为机器人未来投资。
- NVIDIA 迄今为止在推理时代保持了主导地位。我原本预期专用芯片和小语言模型到现在应该已占主导,我们应该早就超越提示工程阶段了。也许对 NVIDIA 的狂热实际上阻碍了其他参与者。或者是 NVIDIA 的反竞争行为导致了这一切。
Dwarkesh: 对我来说最大的惊喜是:
- 2026 年累计 AI 实验室收入低于 400 亿美元或高于 1000 亿美元。这意味着相比我的预期,事情要么明显加速,要么明显放缓。
- 持续学习问题得到解决。不是 GPT-3"解决"上下文学习的方式,而是 GPT-5.2 实际上在从上下文中理解信息的能力方面几乎接近人类水平。如果与模型的协作就像复制一名已经与你共事六个月的熟练员工,而不是在他们工作的第一个小时获得他们的劳动,我认为这构成了 AI 能力的巨大突破。
- 我认为自 2020 年以来,通往 AGI 的时间表已大幅缩短。当时,你可以给"将 GPT-3 扩大一千倍并达到 AGI"分配某种概率,也可以给"我们完全走错了方向,必须等到本世纪末"分配某种概率。如果进展偏离趋势线,指向真正具有人类替代性的智能在未来 5 到 20 年内出现,那将是我最大的惊喜。
Jack: 如果"扩展遭遇瓶颈",那将是真正令人惊讶的事,对底层研究范式以及更广泛的 AI 经济都将产生极其重大的影响。显然,基础设施建设,包括为培训未来 AI 模型设施投入的巨额资金,表明人们的赌注恰恰相反。
另一件让我感到惊讶的事是,如果存在一种技术突破提高了分布式训练的效率,并且一些参与者集合在一起拥有足够的计算机来训练一个非常强大的系统。如果这种情况发生,这将表明你不仅可以拥有开放权重的模型,还可以拥有一种开放模型开发的形式,其中不需要一个庞大的单一实体(例如一家公司)来训练前沿模型。这将改变人工智能的政治经济学,并具有极其重要的政策影响,特别是在前沿能力的扩散方面。Epoch 对分布式训练进行了很好的分析 ,人们可能想参考。

他们如何实际使用 LLMs
Patrick: 你最后一次在专业上与 LLM 有过重要互动是什么?如果需要的话,隐去具体细节。在那次互动中,你如何与 LLM 互动的?
Michael: 我现在用 Claude 来制作所有的图表和表格。我会找到源材料,但在创建或设计专业表格、图表或可视化上我不花任何时间。我仍然不完全相信数字,需要检查它们,但创意方面对我来说已成为过去。相关地,我会特别使用 Claude 来查找源材料,因为现在很多源材料并不是简单地存在于美国证券交易委员会或主流报告中。
Patrick: 我认为金融行业外的人们不理解有多少数十亿美元被花费在雇用全球薪资最高、受教育程度最高的人才担任 Microsoft PowerPoint 和 Excel 专家上。这在目前仍然有价值,也许数据透视表和 VLOOKUP()这些行话的价值会比预期更持久,但我在英格兰银行的演示中使用了 LLMs 来制作所有图表。曾经我们让人类花费数小时仔细调整图表,这现在感觉几乎令人难以置信。
Dwarkesh: 它们现在是我的私人一对一辅导老师。我实际上尝试过为我想准备的不同科目聘请人类辅导老师,但我发现 LLMs 的延迟和速度使体验的质量要高得多。我获得了数字版本的人们愿意为 Waymo 支付高于 Uber 的巨大溢价的体验。这让我倾向于认为,许多工作中的人类溢价不仅不会很高,实际上还可能是负数。
Michael: 在这一点上,许多人指向交易职业作为防 AI 的选择。考虑到我现在有 Claude 陪伴的情况下,在电工和其他家务方面能做到多少,我不太确定。如果我是中产阶级,面临 800 美元的水管工或电工上门费用,我可能就会使用 Claude。我喜欢能够拍张照片,然后弄清楚修复所需的一切步骤。

风险、权力与塑造未来
帕特里克: 在相对了解情况的人们中,对 AI 风险的看法范围很广,从"它可能在社交媒体上造成一些不愉快"到"如果中国在这项具有潜在军事应用的非常有用的新兴技术上超越美国,那将是一个遗憾"到"下行风险包括人类珍视的一切的真正终结"。最让你夜不能寐的是什么?另外,如果你有五分钟时间与资深政策制定者交流,你会建议如何重新调整关注点和资源配置?
杰克: 我主要担心的是人们是否能成功实现"构建能构建 AI 的 AI"——完全闭合 AI 研发循环(有时称为递归自我改进 AI)。明确一点,我认为到 2026 年 1 月全球出现递归自我改进 AI 系统的可能性基本为零,但我们确实看到了 AI 在执行 AI 研究各个环节上表现越来越好的极早期迹象,从内核开发到自主微调开源权重模型都包括在内。
如果这类东西持续改进,你最终构建了一个能自我构建的 AI 系统,那么 AI 开发速度会大幅加快,可能也会变得更难让人们理解。这会产生一系列重大政策问题,也可能会导致全球经济活动出现前所未有的阶段性跃升,这种增长将归因于 AI 系统。
换句话说,如果我能有五分钟时间与决策者交谈,我基本上会对他们说:"自我改进 AI 听起来像科幻小说,但技术本身没有任何证据表明这是不可能的,如果真的发生了,那将是件大事,你们应该予以关注。你们应该要求 AI 公司在这方面完全透明,说明他们究竟观察到了什么,并确保你们拥有信任的第三方能够测试 AI 系统是否具有这些特性。"
迈克尔: 杰克,我想你应该能得到决策者的重视,我希望他们能够倾听。
就目前的情况而言,我对 AI 对人类造成的风险并不感到过分担忧。我认为聊天机器人有可能让人们变得更愚钝——医生如果过度使用它们,会开始忘记自己实际具备的医学知识。这不是好事,但也不是灾难性的。
涉及 AGI 或人工超级智能(ASI)的灾难性风险对我来说也不是太令人担忧。我在冷战期间长大,世界随时可能陷入核战争。我们参加过为此准备的学校演习。我踢足球时,直升机在我们上空喷洒杀虫剂。而我 30 多年前就看过《终结者》。《赤色黎明》似乎是可能发生的。我认为人类会适应。
如果我能向高级政策制定者献言,我会建议他们拿出一万亿美元(因为现在万亿美元像百万美元一样随意挥霍),绕过所有的抗议和监管,在全国各地建设小型核反应堆,同时为所有人建立一套全新的、最先进的电网。尽快完成这一切,并通过最先进的物理和网络安全措施保护这一切免受攻击;甚至可以创建一个专门的核防御部队来保护每个设施,由联邦政府资助。
这是唯一能获得足够电力与中国保持竞争的希望,也是我们国家唯一能实现足够增长,最终偿还债务和保证长期安全的希望,即不让电力成为制约我们创新的因素。
Jack: 我非常同意能源这一点(尽管我们在其他事项上的主观担忧程度可能不同!)。AI 将在经济中发挥有意义的作用,这从根本上取决于基础设施能否有效且低成本地为企业和消费者提供服务——这类似于过去各国决定进行大规模电气化、道路建设、污水系统建设等(大规模资本支出项目!)。我们需要紧急对能源采取同样的措施。
我还认为大规模 AI 数据中心是新型能源技术非常有用的测试客户,我特别期待看到 AI 能源需求与核技术在未来的融合(这个双关语是有意的!)。更广泛地说,我认为"经济安全就是国家安全",因此确保我们拥有适当的基础设施来发展 AI 经济将对我们的工业基础和整体抗风险能力产生积极的连锁效应。

- Michael Burry 是一位前对冲基金经理和作家,在他的 Substack 平台 《卡珊德拉释放》 上发布投资分析和市场评论。他因预测次级抵押贷款危机而闻名,这一事件被记录在《大空头》中,他最近还对 AI 驱动的市场繁荣表示了怀疑。
- 杰克·克拉克是 Anthropic 的联合创始人兼政策主管,从事 AI 安全、治理和前沿模型的社会影响工作。他还撰写 Import AI,这是一份长期运营的通讯,分析人工智能、国家权力和技术风险的最新进展。
- 德瓦尔克什·帕特尔是德瓦尔克什播客的创始人兼主持人,在该播客中他采访了在人工智能、经济学和科学进步领域的杰出思想家。他还在自己的 Substack 上发表论文和采访,重点关注长期技术轨迹、人工智能对齐和文明风险。
- Patrick McKenzie 是一位作家和软件企业家,最著名的是他的通讯 《Bits About Money》,他在其中解释金融、市场和机构。他还主持 Complex Systems 播客节目,之前曾在科技和支付领域工作过,包括在 Stripe。