Ronan Farrow 谈 Sam Altman 与真相之间“毫无约束”的关系

OpenAI 负责人以善于欺骗闻名。《纽约客》 的 Ronan Farrow 谈这为何重要。

今天的 Decoder,我采访的是当今最知名的调查报道记者之一 Ronan Farrow。除众多重磅报道外,他还曾曝光 Harvey Weinstein 丑闻 。就在上周,他与合著者 Andrew Marantz 在 The New Yorker 发表了一篇精彩的深度特稿,聚焦 OpenAI 首席执行官 Sam Altman、他的可信度,以及 OpenAI 本身的崛起。

在继续之前先说明一点——The New Yorker 发表那篇报道,以及我与 Ronan 进行这场对话时,我们还不知道针对 Altman 住所袭击事件的全部严重程度 ,因此你不会听到我们直接谈及此事。但我还是想明确表示:我认为任何形式的暴力都不可接受,这些针对 Sam 的袭击不可接受,而人们所感受到的那种无助感 ——并最终导向此类暴力——本身同样不可接受,也值得行业和我们的政治领导人给予更多审视。希望这一点说得足够清楚。

话虽如此,围绕 Altman 的确有许多值得进行严谨报道的议题——这正是 Ronan 和 Andrew 着手去做的那类报道。凭借 ChatGPT 的爆红,Altman 已成为 AI 行业最受瞩目的代表人物,在短短几年间将一家曾经的非营利研究实验室变成了一家估值近万亿美元的私营公司。但关于 Altman 的神话本身却充满矛盾:一方面是他显而易见的交易撮合能力,另一方面则是据称他总会……嗯,对身边几乎所有人撒谎。

这篇报道长达 1.7 万多字,可以说堪称对 2023 年那场事件最权威的还原:当时,OpenAI 董事会极其突然地解雇了 Altman,理由是他涉嫌撒谎,但几乎转瞬之间他又被重新聘用。报道也深入挖掘了 Altman 的个人生活、他的投资、他如何争取中东资金,以及他本人对自己过往行为和性格特质的反思——正是这些反思,让一位消息人士评价他“并不受真相约束”。我非常建议你把整篇报道读完;我怀疑,未来很多年里,人们都会不断提起它。

Ronan 在撰写这篇报道的 18 个月里,多次与 Altman 交谈,因此我最想知道的一点就是,在这段时间里,他是否感觉到 Altman 发生了某种变化。毕竟,在过去一年半里,AI、科技行业乃至整个世界都发生了太多事情。

你会听到 Ronan 直接谈到这一点,以及他所感受到的:人们如今更愿意谈论 Altman 歪曲事实的能力。人们开始公开、实名地质疑,像 Altman 这样的人所表现出的行为,令人担忧的不只是 AI 或科技行业,也关乎整个社会的共同未来。

好,接下来是:Ronan Farrow 谈 Sam Altman、AI 与真相。开始吧。

这次采访经过了轻微编辑,以缩减篇幅并提高清晰度。

Ronan Farrow,你是一名调查记者,也是 The New Yorker 的撰稿人。欢迎来到 Decoder

很高兴来到这里。感谢邀请我。

我非常高兴能和你谈谈。你刚刚为 《The New Yorker》 写了一篇重磅文章。这是一篇关于 Sam Altman 的人物特写,某种程度上也涉及 OpenAI。我的解读是,像所有优秀的深度报道一样,它通过严谨的采访和调查,印证了人们长期以来对 Sam Altman 的许多感受。显然,你已经发表了这篇文章,也收到了不少反馈。你现在对此感觉如何?

嗯,事实上,让我感到鼓舞的是,在当下这种注意力经济如此分裂而浅薄的时代,这篇报道仍然引发了广泛关注。在我看来,这是一个影响我们所有人的故事。而当我花了一年半的时间,我的合著者 Andrew Marantz 也投入了同样多的时间,真正试图把这件事做成一篇法证式、细致入微的报道时,原因总是我觉得,在这个故事核心的人物和公司之外,还存在着影响更广泛人群的、更大的结构性问题。

在硅谷炒作文化的大背景下,初创公司凭借那些未来或许会、或许不会兑现的承诺,估值一路膨胀至惊人规模;与此同时,人们也愈发推崇一种创始人文化,认为对不同群体说出彼此矛盾的话并非缺陷,反而是一种特性……即便置于这样的背景之下,Sam Altman 仍然是一个格外特殊的案例——在硅谷,哪怕是那些早已对这些做法习以为常的人,也始终忍不住谈论一个问题:他是否值得信任,他是否诚实。

我们已经知道,他被解职是因为某种版本的有关不诚实或被指长期说谎的指控。但不同寻常的是,尽管已经有很多出色的报道,Keach Hagey 在这方面做了非常出色的工作 ,Karen Hao 也在这方面做了非常出色的工作 ,外界实际上仍然没有一个明确的认识:究竟有哪些被指控的具体证据点,以及这些内容为何一直未进入公众视野。

所以,第一点是,令我感到鼓舞的是,我们的公众认知,甚至包括硅谷圈内人士认知中的一些空白,如今已经得到了一些补充。造成这些空白的一些原因,如今也被进一步填补了一些。

我们报道了一些案例,显示这家公司内部的人确实觉得,有些事情被掩盖了,或者被刻意不留下书面记录。 这个报道中的一个新内容,是 WilmerHale 所做的一项关键律所调查。显然,这是一家知名、可信的大型律师事务所,曾调查过 Enron 和 WorldCom 案件——顺便说一句,那些调查结果都极为详尽,公开发布的材料往往长达数百页。 WilmerHale 开展这项调查,是应罢免 Altman 的董事会成员要求提出的条件;在他将这些人清除出局并重返公司时,这项调查成为他们离开的条件之一。 而不同寻常的是——在我采访的许多法律专家看来是如此,在这家公司内部许多人看来更是令人震惊——他们没有把调查结果形成书面文件。最终对外流出的,只有 OpenAI 一篇 800 字的新闻稿,将此事描述为“信任破裂”。我们还证实,这件事始终仅以口头简报的形式传达。

例如,有些情况下,一名董事会成员显然想对 OpenAI 从最初的非营利架构转为营利性实体投反对票,但最终却被记为弃权。会议上似乎还有律师表示:“嗯,那可能会引发过多审查。”于是,那位想投反对票的人,表面上看就被记成了弃权。对此存在事实争议。正如你可以想见的,OpenAI 并不认同这种说法。这些情况都发生在这样一家公司身上——按照它自己的说法,它掌握着我们的未来。

安全风险之高,严重到并未随着时间消退。这也正是这家公司最初以专注安全的非营利机构形式成立的原因。而当时一些情况被以某种方式遮掩,以至于这一领域中有公信力的人士认为其做法远称不上专业。再加上当前的大背景是,政界几乎没有意愿推动有意义的监管。我认为,这是一种极易引爆的局面。

对我来说,关键不只是 Sam Altman 如此理应面对这些尖锐质疑。更重要的是,这个领域里的任何这类人物,以及许多关键角色,即便未必具有这种特定的、带有个人色彩的、被指控“始终在撒谎”的特质,也无疑都表现出某种“逐底竞争”的心态——那些原本强调安全的人淡化了这些承诺,所有人都摆出一种“人人都在竞赛中”的姿态。

我认为,随着 Anthropic 最近泄露的信息曝光,这篇报道中有人提出了一个问题:究竟谁才应该把手放在按钮上。我的答案是,如果我们没有真正有意义的监管,那么我认为我们就必须对所有这些人提出严肃的问题,并尽可能披露更多信息。因此,看到围绕这一点似乎正在展开一场有意义的讨论——或者至少是这样一场讨论的开端——我感到鼓舞。

我之所以那样提问,是因为你为这篇报道投入了一年半时间。我想你和合著者 Andrew 采访了 100 人。这对一篇报道来说,是很长的酝酿期。再想想尤其是在 AI 领域过去这一年半里,天哪,这些人物的态度和价值观变化之快,实在惊人。

也许没有谁比 Sam Altman 更是如此——他一开始几乎被视为当然的赢家,因为他们发布了 ChatGPT,所有人都认为它将直接取代 Google。随后,Google 作出回应,而这似乎让他们颇感意外,仿佛没想到 Google 会努力保护自己的业务——这或许是科技史上,甚至商业史上最成功的业务之一。Anthropic 则决定聚焦企业市场。鉴于企业对 AI 的使用需求极高,它似乎正在这一领域取得明显领先地位。

如今,OpenAI 正将其产品重心从“我们要挑战 Google” 转向 Codex,他们还将进军企业市场。我只是有些难以判断,在你过去一年半的报道过程中,你接触到的那些人物是否发生了变化?比如他们的态度和价值观,是否改变了?

是的。我认为首先,这篇报道中探讨的一种批评——如今来自这些公司内部许多人的声音——正在变得更加突出:尽管利害关系具有生存层面的重大意义,这个行业却正在安全问题上滑向某种“逐底竞争”,而速度压倒了一切。这样的担忧已经变得更加尖锐。我也认为,随着过去一年半的事态发展,这些担忧得到了更多印证。与此同时,人们对 Sam Altman 的看法也确实发生了变化。我们刚开始为这篇报道接触消息来源时,人们对就此接受具名采访、公开谈论这些问题非常非常谨慎。

到我们报道结束时,已经形成了一套完整的报道材料,人们在其中非常公开、非常明确地谈论这件事,还有董事会成员说出这样的话:“他是个病态说谎者。他是个反社会人格者。” 各方观点不一,从“考虑到其中涉及的安全风险,这种情况很危险,我们需要的是在诚信方面标准更高的技术领导者”,一直到“先别谈安全风险了,这种行为对任何大型公司的任何高管来说都是无法接受的,它只会制造太多混乱。”

所以,这场讨论如今变得更加直白了,某种程度上看或许有些姗姗来迟,但在一个层面上也令人鼓舞。至于 Sam Altman,平心而论……我会说,这篇报道对 Sam 是非常公正的,甚至可以说相当宽厚。这不是那种充满“抓现行”式内容的报道。在我们即将完成这篇稿件时,我和他通了很多很多个小时的电话,真正认真听取了他的说法。

你可以想象,在这样的报道里,并不是所有内容都会被写进去。这篇报道里有些内容之所以没有纳入,是因为我确实在真诚倾听。如果 Sam 提出的论点在我看来站得住脚,或者某些事情即便属实、写出来也可能显得哗众取宠,我确实倾向于让这篇报道保持这种法证式、克制的风格。所以我认为外界这样理解是恰当的,我也只是希望,这段时间里不断累积起来的这份事实记录,能够引发一场更为严肃、更加发人深省的讨论,去探讨为何需要监督。

这其实正是我的下一个问题。我想,在报道这个故事的过程中,你和 Sam 大概谈了十几次。再说一次,这是在相当长一段时间里的大量交谈。你觉得,在过去一年半的报道过程中,Sam 发生变化了吗?

是的。我认为这件事里最耐人寻味的一个支线是,Sam Altman 本人如今也比过去更明确地谈论这种特质了。在这篇报道中,Sam 的姿态并不是“根本没有这回事,这不是真的;我不知道你在说什么”。他的说法是,这可以归因于一种取悦他人的倾向,以及某种对冲突的回避。他承认,这确实给他带来了问题,尤其是在职业生涯早期。

他的意思是:“好吧,我正在走出那种状态,或者在某种程度上已经走出来了。”我觉得真正有意思的是,我们采访到的一批人,并不只是所谓的安全倡导者,也不只是那些往往会对安全问题抱有强烈担忧的底层技术研究人员,还包括一些务实的大牌投资人。他们是 Sam 的支持者,其中一些人在他被解职后重返岗位一事上,甚至自认发挥了关键作用。如今,面对他是否已经改变、这种改变在多大程度上具有实质意义这个问题,他们说:“当时我们选择了相信他。”

我想到的是一位尤其知名的投资人,他说过:“但从那以后,很明显他并没有被带到林子后面去收拾一顿。”这是他使用的说法,在必要的意义上来说。结果似乎表明,这如今已经成了一种稳定特质。我们正持续不断地看到这一点。看看 OpenAI 一些最重要的商业关系,以及它们如何在持续承受这种不信任的分量。

就拿 Microsoft 来说,你和那边的高管交谈,他们的担忧非常强烈,而且是最近才被激发出来的。有这样一个例子:同一天,OpenAI 一边重申其与 Microsoft 在底层无状态 AI 模型方面的独家合作关系,一边又宣布与 Amazon 达成一项新协议 ,内容涉及销售用于构建有状态、也就是具备记忆能力的 AI 代理的企业解决方案。

你去和 Microsoft 的人交谈,他们会说:“如果不接触我们拥有独家协议的底层技术,那是不可能做到的。”所以,这只是许多小例子中的一个,说明这种特质的触角始终延伸到正在进行的商业活动中,并且一直是 OpenAI 董事会、高管层以及更广泛科技界积极关注的问题。

你一直在说那种“特质”。报道里有一句话,在我看来像是整篇文章的核心论点,也是对你所描述那种特质的概括。那就是:“Sam Altman 不受真相约束”,并且他具有“两种几乎不会同时出现在同一个人身上的特质:第一,是强烈地想取悦他人,想在任何一次互动中都被喜欢;第二,是一种近乎反社会式的、对欺骗他人可能带来后果的漠不关心。”

我得告诉你,那句话我读了 500 遍,我试着去想象:一个人总是说别人想听的话以求讨人喜欢,却又在别人觉得自己受了欺骗时并不感到不安。我在情感上始终无法理解,这些特质怎么会同时存在于同一个人身上。你和 Sam 谈过很多次,你也采访过经历过这些特质的人。他是怎么做到的?

是的。从人的层面来看,这很有意思,因为我在处理这类报道时,确实会特别关注把处于事件核心的人写得更有人性,也会努力去深入理解并抱有共情。当我试着从更人性的角度切入,说:“如果有那么多与我共事过的人说我是个病态的骗子,这对我来说会是毁灭性的。你如何背负这样的重担?你会在心理治疗中如何谈论这件事?你会如何向自己讲述这件事?”

但我得到的某种回应,在我看来,也许只是一些西海岸式的空话,比如:“是啊,我喜欢呼吸练习。”却没有那种真正令人警醒的、深刻直面自我的感觉——而我想,如果我们很多人看到关于自己行为以及自己如何对待他人的这类反馈,大概都会有那样的反应。

我认为,这其实也指向了这个问题更广泛的答案。Sam 认为,这种特质确实带来了问题,但他也认为,正是这种特质赋予了他极大的推动力,使他能够如此迅速地加快 OpenAI 的发展,同时团结并取悦不同群体的人。他一直在不断说服这些彼此冲突的利益相关方,让他们相信,他在乎的正是他们在乎的。而这对于一位创始人来说,可能是一项非常有用的技能。我采访过一些投资人,他们随后会说:“那么,也许这对于真正经营一家公司并不是那么有用的技能,因为它播下了太多不和的种子。”

但就 Sam 个人层面而言,我觉得当我试图在人性的层面与他建立联系时,我感受到的是一种明显缺乏更深层次的直面、反思和自我问责,而这也塑造了那种对于一家正准备 IPO 的公司而言既可能成为超级能力、也可能成为责任的特质。

用前董事会成员 Sue Yoon 在那篇报道中公开说过的话来形容,他这个人甚至到了她所说的“轻率失责”的地步:他确实能够相信自己那些不断变化的推销说辞所塑造出的现实,或者说能够把自己说服。至少,即便他并不真的相信那些说法,他也能在几乎毫无实质性自我怀疑的情况下,靠虚张声势一路撑过去。

我觉得你说的那种情况——你或我在说某件事的时候,意识到它和我们先前作出的另一项保证相冲突,于是会有一瞬间卡住,或者开始自我审视——这种事在他身上不会发生。我认为,更广泛的硅谷炒作文化和创始人文化,某种程度上也是拥抱这种状态的。

这很有意思。The Verge 本质上是建立在一个产品评测项目之上的。这是我们在这里所做一切的核心。我每年都要面对 Apple 价值万亿美元的研发成果,然后说一句:“这部手机只能打七分。” 而这在某种程度上也为我们其他所有报道和观点赋予了正当性。我们承担着评判的功能,也花了大量时间去审视这些 AI 产品,然后问一句:“它们真的好用吗?”

这感觉像是当下许多关于 AI 的讨论中所缺失的部分。人们无休止地谈论它未来可能做到什么、可能有多危险。可当你进一步追问,“它今天到底能不能真正完成它本该完成的事情?”有些情况下,答案是能。但在非常非常多的情况下,答案是否定的。

这感觉也和你所描述的那种炒作文化有关,也和这样一种心态有关:如果你说它会做到某件事,结果它没有做到,有人因此感到失望,那也没关系,因为我们已经转向下一个东西了。那都已经是过去的事了。而在 AI 领域,Sam 尤其擅长作出宏大的承诺。

就在本周,我想大概就在你的报道发布的同一天,OpenAI 发布了一份政策文件 ,称我们必须重新思考社会契约,并由政府提供 AI 效率津贴。这是一个关于某项技术可能如何塑造世界未来以及我们的生活方式的宏大承诺,而这一切都建立在这样一个前提之上:这项技术必须确实以人们所承诺的、或它本应有的方式运作。

你是否曾发现 Sam 对 AI 演变成 AGI、超级智能,或者最终抵达终点这件事有所怀疑?因为这是我最想知道的一点。对于这项核心技术是否真能做到他们所宣称的一切,是否有过任何反思?

这问得完全到点子上了。我们在这组报道中采访过一些可信的技术专家——显然,Sam Altman 并不属于其中之一;他是个生意人——他们认为,Sam 对这项技术时间线的描述严重失真。几年前的一些博客文章里,Sam 就在说:“我们已经到达事件视界。AGI 基本已经来了。超级智能近在眼前。我们将前往其他星球。我们将治愈所有类型的癌症 。”真的,我一点都没有夸张。

那个关于癌症的例子其实很有意思:Sam 在大力宣传一个人,称其理论上用 ChatGPT 治好了自己狗的癌症 ,但事实根本不是这样。对方确实与 ChatGPT 进行了交流,这帮助他们为真正开展研究工作的研究人员提供了方向,但“这个工具治好了这只狗”这种一对一的说法,实际上并不是事情的真相。

你提到这一点我很高兴,因为我想进一步谈谈一个更大的问题:这项技术的潜力和风险究竟何时才会真正兑现。不过,还是值得一提的是,Sam Altman 总会时不时冒出这些小插曲,似乎一次又一次地体现出这种特质。

我的意思是,以 WilmerHale 报告为例,我们掌握的信息显示,有些内容一直没有形成书面记录;我们想知道,在这一过程中进行的口头简报,是否曾提供给除 Sam 帮助安插来负责监督此事的两名董事之外的其他任何人。他当时说:“是的,是的,不,我相信后来加入董事会的每个人都听过这场简报。”而我们有一位直接了解情况的人士表示,这根本就是谎言。事实看起来也确实如此,这一说法并不属实。若要往宽容了说,也许他是得到了错误信息。

类似这种轻描淡写的保证有很多。我之所以举这个例子,部分是因为这正是一个绝佳的搪塞案例——姑且这么称呼吧——而这种做法在法律上可能带来实实在在的后果。你也知道,根据 Delaware 公司法,如果这家公司进行 IPO,股东可以依据第 220 条就此提出异议,并要求调取相关底层文件。已经有董事会成员在说:“等等,这场简报本来就应该进行。”

所以,他这些似乎总是脱口而出的言论,确实可能对市场造成实质性影响,也会对 OpenAI 产生切实影响。回到那种再度浮现的乌托邦式炒作话术上来——我认为这并非巧合,就在这篇报道刊出的当天——它也影响着我们所有人,因为它在武器部署方式、被用于识别化学战剂的方式,以及制造虚假信息的潜力等方面所带来的危险都极其严峻;而且,正是这种乌托邦式炒作,似乎正在促使许多有公信力的经济学家表示:“这完全具备泡沫的一切征兆。”

就连 Sam Altman 自己也说过 :“总得有人在这里亏掉一大笔钱。”如果这些公司彼此交易、在大量举债的同时全面押注 AI,而这个泡沫真的被戳破,那很可能会重创美国乃至全球的经济增长。所以,Sam Altman 说什么很重要。我认为,他身边绝大多数人——你提到我们采访了一百多人,实际上远不止一百人。我们在收尾时还讨论过:“要不要较真一下,直接说这个数字高得多?”后来我们觉得,“算了,还是淡化一点,低调处理。”但确实有非常多的人,而且其中占相当大多数的人都在说:“这是个令人担忧的问题。”我想,这就是原因所在。

我想追问一下这个数字。正如你提到的,随着时间推移,人们对这些担忧越来越愿意直言不讳。感觉围绕这个泡沫的压力——争先取胜、回报所有这些投资、脱颖而出成为赢家、推动 IPO——已经在很大程度上改变了许多人的态度。这当然也给 Sam 和 OpenAI 带来了更大的压力。

我们本周刚刚发表了一篇报道, 讲的是 OpenAI 的整体氛围 。你的报道也是其中的一部分,但 OpenAI 高管层正在发生大规模人事变动——有人加入,也有人离开。研究人员也都在流失,而且大多去了 Anthropic,我觉得这非常耐人寻味。你能明显看出,这家公司正感受到压力,并且正在以某种方式对这种压力作出反应。

但随后我又想起 Sam 被解职那件事。这件事让我印象特别深刻。对别人来说也许没那么难忘,但那天是周五晚上 7 点,我正在 Bronx Zoo 接一通消息源电话,对方说他们要设法让 Sam 回归。然后我们整个周末都在追这条新闻 。我当时心想:“我人在动物园,你们到底想让我怎么办?” 对方的回答是:“别挂电话。” 可我女儿却说:“把电话挂了。” 于是我就这么做了。

当时的态度是不惜一切也要让 Sam 回来。那家公司当时的意思就是:“不,我们不会让董事会解雇 Sam Altman。” 你在报道里引用了投资人的话,“我们开战了,”我记得这是 Thrive Capital 的说法,“就是为了让 Sam 回来。” Microsoft 开战是为了让 Sam 回来。后来到了现在,所有人又都在说:“我们要 IPO 了。我们已经快到终点线了。我们把自己的人带回来了,他会带我们冲过终点线。可我们担心他是个骗子。”

那为什么当时要打一场仗把他请回来?因为看起来实际上什么都没有改变。你提到了 Ilya Sutskever 和[Anthropic CEO] Dario Amodei 在与 Sam Altman 共事时期保留的那些备忘录。Ilya 最首要的担忧就是,Sam 是个骗子。

这些情况一点都没变。那为什么当时要大动干戈把他带回来?而现在到了终点线前,似乎所有担忧都已经摊开在台面上了。

嗯,首先,替你的女儿、我的伴侣,以及所有记者身边的人说声抱歉。

(笑)对所有人来说,那真是相当疯狂的一个周末。

是的,这确实会占据一个人的生活,而这篇报道在过去这段时间里无疑占据了我的生活。我认为,这实际上也和新闻报道以及获取信息这一主题有关。那些为 Sam 而战、并在确保他回归一事中发挥作用的投资人,以及那个原本被专门设计出来、旨在保护一家非营利机构“将安全置于增长之上”使命、并在高管不再值得托付这一使命时将其解职的董事会,最终都离场了。这一切的发生,确实是因为市场激励摆在那里,对吧?

Sam 能够说服人们相信:“嗯,这家公司马上就要垮了。”但他之所以能获得支持,是因为信息匮乏。许多投资者如今表示:“回头看,如果我当时充分了解那些说法究竟是什么、外界的担忧又是什么,我想我本应该更加警惕。”

并非所有人都如此;意见各不相同,我们也引用了多种观点,但其中确实有一些重要人物是在信息极不完整的情况下采取行动的。解雇 Sam 的董事会,用一位曾在董事会任职者的话说,“非常业余”,而且把事情彻底搞砸了。我们也记录了那些底层投诉,人们可以自行判断,这些问题是否累积到了他们当时认为那种迫在眉睫的程度,但当时并没有人提出这样的论点,也没有提供相关信息。

他们得到的是一些人如今也承认并不高明的法律建议。说到这一点,你会记得那句说法,很多你的听众和观众大概也记得,那就是缺乏坦诚 。事情后来就被简化成了这一点,而随后他们基本上就不接电话了。

他们就是不接电话。我敢肯定你也试过。我认识的每个人都试过。事情发展到一个地步,作为记者,你本不该给消息来源提建议,但我当时想的是:“如果你们再不开始解释自己,这件事是不会过去的。”

事情就是这样发生的。别说记者了,就连萨提亚·纳德拉都在说:“到底他妈发生了什么?没人能给我解释清楚。”而他可是这家公司最重要的财务支持者。接着,萨提亚给[LinkedIn 联合创始人] Reid Hoffman 打电话,Reid 又四处打听,说:“我他妈也不知道到底发生了什么。”

可以理解,在信息真空中,他们会去寻找那些传统、非 AI 领域的迹象,以判断如此紧急、突然的解雇是否合理。比如,好吧,是性犯罪吗?是挪用公款吗?而“这项技术是不同的”,以及“这种一点点累积起来的较小背叛,可能对这家公司、甚至可能对世界都具有重大利害关系”——这样一种微妙但我认为意义重大的论点,基本上被忽视了。所以,资本主义激励占了上风;但与此同时,做出这一切的人走出去行动时,也并不总是在掌握完整信息的情况下进行的。

我想先问一下关于“大家以为那是什么”的这一点,因为我当然也看到了那则新闻,我当时就想:“哦,一定是出了什么严重的事。”你曾做过很多#MeToo 相关报道,这一点众所周知。你曾独家曝光 Harvey Weinstein 丑闻 

你花了很多时间调查这些指控,而我想你最终判断这些指控并无根据:比如 Altman 性侵未成年人、雇用性工作者,甚至谋杀了一名 OpenAI 吹哨人。我的意思是,你是最有能力以最严谨方式调查这类事情的人。你的结论是,这些指控最终都站不住脚吗?

嗯,你看,我并不从事那种直接宣称某件事“最终什么都不是”的工作。我能说的是,我花了几个月时间调查这些指控,但没有找到证据加以证实。让我感到格外震惊的是,这些对我们的未来拥有如此巨大影响力的人、这些公司,竟然真的把不成比例的大量时间和资源花在了幼稚的互相抹黑上。

一位高管将其形容为“莎士比亚式的”。花在私家侦探上的钱,以及不断被整理出来的对立方黑材料,简直没完没了。而不幸的是,那类耸人听闻的东西——被 Sam 的竞争对手不断附和和传播——就这样被当成了事实,对吧?其中有一项指控称,他追逐未成年男孩,而在硅谷的许多鸡尾酒会上,你都会听到这种说法。在各种会议场合,我也听到一些可信且知名的高管反复这么说:“所有人都知道这就是事实。”

可悲的是,我谈到了这些说法的来源,以及它们通过哪些不同渠道被传播。Elon Musk 及其同伙似乎在大肆兜售一些来势汹汹的黑材料,但实际上并没有什么实质内容。一旦你开始审视其底层指控,就会发现它们空洞无物。可悲的是,这确实掩盖了那些更有证据支撑的批评,而我认为这些批评确实值得紧急监督和认真审议。

这个故事中真正凸显出的另一个主题,几乎是一种恐惧感:Sam 的朋友实在太多了——从他此前担任 Y Combinator 首席执行官时投资过的众多公司,到他个人进行的投资,其中一些与他作为 OpenAI 首席执行官的职责直接存在冲突——而围绕他却是一片沉默。

我在读到其中一句话时特别有感触。你提到 Ilya Sutskever 的那些备忘录,它们就在硅谷流传。所有人都称之为“Ilya 备忘录”。但即便是围绕这件事,也同样是一片沉默。它们被私下传阅,却无人公开讨论。你觉得这源于什么?是恐惧吗?是想获得天使投资吗?这种情况究竟是怎么来的?

坦率地说,我认为很大程度上是怯懦。此前我报道国家安全新闻时,消息来源往往是举报人,他们可能失去一切,甚至面临起诉,但他们仍然选择做正确的事,站出来发声,以推动问责。我也报道过你提到的那些与性犯罪有关的新闻,在那些报道中,消息源承受着深重创伤,并且害怕遭到一种非常个人化的报复。

在我所跑的这条新闻线上,很多时候你面对的是一些本身就有个人影响力和权势的人。他们要么自己就是名人,要么身边围绕着名人。他们有非常成熟稳固的商业版图。在我看来,对他们来说,谈论这些事情其实风险很低。值得庆幸的是,正如我们之前谈到的,风向正在改变,现在人们开始更多地谈论这件事了。

但在很长一段时间里,人们确实对此三缄其口,因为我认为,Silicon Valley 的文化就是如此冷酷地以自身利益为中心,冷酷地以商业和增长为导向。所以我认为,这甚至影响到了当初参与罢免 Sam 的一些人。你会看到,在那之后的几天里,没错,促成他回归、以及老董事会成员被赶下台的一个因素,是他把那些感到困惑的投资人拉拢到了自己这一边。

但另一个因素是,周围还有那么多人原本也有这些担忧,并且急切地表达过出来,可一旦看见风向变了,他们立刻就像餐巾纸一样瘫软下去,马上改了口风,因为他们也想搭上这班利润列车。

老实说,作为一名记者,从我的角度看,这一切相当黑暗。

其中一些人包括 Mira Murati,我记得,她有 20 分钟曾是 OpenAI 的新任首席执行官。随后她又被替换了。这其中的关系非常复杂,而显然,Sam 后来又回来了。另一个人是 Ilya Sutskever,他曾投票支持罢免 Sam,后来又改变了主意,或者至少说自己改变了主意,然后他离开并创办了自己的公司 。你知道是什么让他改变主意的吗?仅仅是因为钱吗?

不过,要说明的是,我并不是单单点名这两个人。还有其他参与罢免决定的董事会成员,之后也都变得非常沉默。我认为这更像是一个更广泛的集体性问题。在某些情况下,这些人曾有道德勇气发出警报并采取激进行动,这一点值得肯定。这也是确保问责的方式。这本可能帮助很多受到这项技术影响的人,也本可以帮助整个行业在安全问题上保持更有意义的关注。

但在与举报者以及那些试图推动追责的人打交道时,你也会看到,这需要一种坚持到底、坚守自身信念的韧性。而这个行业里,的确充斥着太多无法坚守自己信念的人。

尽管他们认为自己正在打造一个数字上帝,觉得它会以某种方式要么消灭所有劳动,要么创造更多劳动,或者总之会发生点什么。

嗯,问题就在这里。所以,一种不愿坚持自身信念、只要稍有压力或任何可能威胁自己在行业中地位的事情出现,就把所有伦理关切抛到脑后的文化,对于那些照常运转、生产各种小部件之类的普通公司来说,或许在某种程度上也还能行得通。

但说出“这东西真的可能把我们所有人都害死”的,也正是这些人。再说一次,你并不需要上升到《终结者》“天网”那种极端情境。眼下已有一系列风险正在显现。这是真实存在的,他们就此发出警告也是对的,但至于这两种状态为何能同时存在于同一群人身上——他们一边发出紧迫警告,一边或许稍稍试探着想做点什么,随后却又退缩并陷入沉默——这就得由别人去做那种隔空心理分析了。

这也正是为什么会出现这类情况:有些事情被刻意不写下来,有些事情被掩盖过去,而在事发多年之后,仍然没有人如此公开地谈论它。

这里天然、应当承担责任的一方,不会是这些公司的首席执行官;而应该是政府。在美国,也许是州政府,也许是联邦政府。

当然,这些公司都想成为全球性企业。这里面有很多全球层面的影响。我看到 OpenAI、Google 和 Anthropic 都在推动拜登政府发布一项关于 AI 的行政命令 。但最终那项命令相当无力。它只是说,他们必须说明自己的模型具备哪些能力,并公布一些安全测试。后来他们又都转而支持特朗普,而特朗普上台后把这一切全都推翻了 ,并表示:“我们必须具备竞争力。这是一场毫无约束的混战。放手去干吧。”

与此同时,他们都在试图从拥有大量石油财富、并希望改变本国经济结构的中东国家筹集资金。那些都是政客。我觉得,政客理应明白,有人是在两面说辞;如果最后有人感到失望,他们也不至于太过意外。但这些政客同样也被耍得团团转。你觉得这是为什么?

在我看来,这正是这篇报道重要的原因,也是值得花这么多时间、下这么多细节功夫的原因。我们所处的环境是,正如你所说,那些本应提供监督的制度已经被掏空了。这就是一个 Citizens United 案之后的美国 :资金流动几乎不受约束。而这一问题在 AI 领域尤为集中——各种政治行动委员会不断涌现,向州和联邦两个层面投入大量资金,以压制任何有意义的监管。

你会看到,[OpenAI 联合创始人]Greg Brockman——Sam 的副手——在其中几项事务中以直接参与的方式发挥了重大作用。这就导致了一种局面:立法者和潜在监管者确实被“俘获”了,而这是一种很难摆脱的恶性循环。令人遗憾的是,我认为其实有一些简单的政策举措,其中一些已在世界其他地方试行,能够帮助解决其中一部分问责问题。

你可以实行更多强制性的部署前安全测试,而这对前沿模型来说在欧洲已经在实施。你可以对这类内部调查设立更严格的书面公开记录要求,因为在这次事件中,我们看到有些事情被刻意不留书面记录。你还可以针对 Sam Altman 所推动的那类中东基础设施雄心,建立一套更有力的国家安全审查机制。

正如你所说,他当时在对拜登政府玩“偷梁换柱”的把戏,一边说着“监管我们,监管我们”,一边帮助他们起草一项行政命令;可等到特朗普一上台, 真的是在最初几天里 ,他立刻就毫无顾忌地转向:“让我们加速推进,在阿布扎比建设一个大型数据中心园区。” 其实本可以采取一些非常简单的措施,比如举报人保护。对于披露本文中提到的这类安全担忧的 AI 公司员工,目前并没有任何联邦法令提供保护。

我们看到过这样的情况:Jan Leike 曾是 OpenAI 负责安全事务的高级主管,在公司领导“超级对齐”工作。他曾致信董事会,内容本质上相当于举报材料,称公司在安全使命上正逐渐偏离正轨。这样的人本应真正拥有一个可以申诉的监督机构,而且他们也应当享有法律明文规定的保护,就像我们在其他行业看到的那样。要复制一套类似《萨班斯-奥克斯利法案》的制度,其实并不复杂。

我认为,尽管 Silicon Valley 掌控所有权力杠杆这一问题已经非常尖锐,尽管一些原本可能提供监督和防护栏的机构已被掏空,我仍然相信民主的基本逻辑,也相信政客出于自身利益的盘算。越来越多的民调数据显示,大多数美国人认为,当前 AI 带来的担忧、疑问或风险已经超过了它的益处。

所以我认为,AI 向政治领域涌入的大量资金,是我们所有人都可以推动其成为政客身上一个问号的因素。当美国人去投票时,他们应该认真审视自己所投票支持的人——尤其是那些在已有如此多担忧的情况下,仍然不加批判、反对监管的政客——是否由大型科技公司的特殊利益集团在背后提供资金支持。所以我认为,如果人们能读到这样的文章,收听这样的播客,并且足够在意,能够以批判性的方式思考自己作为选民所作出的决定,那么华盛顿确实有机会形成这样一个选民基础,去选出那些会紧盯局势并推动监督的代表。

这可能是我听过的、关于当前 AI 行业最乐观的话之一。我很感激。我一直非常关注你提到的那些民调 。现在这类民调很多,而且结果都相当一致:看起来尤其是年轻人,接触 AI 越多, 对它越不信任、越愤怒 。这就是所有民调所呈现出的倾向。我看到这一点时会想,没错,聪明的政客完全可以顺势而为。他们只需要说:“我们会让大型科技公司承担责任。”

然后我想想过去20年里,政客们一直说要让大型科技公司承担责任,可我绞尽脑汁也想不出哪怕一次大型科技公司真的被追责。唯一让我觉得这次也许会不一样的是,你确实得把那些数据中心建起来,而你可以投票反对,可以发起请愿反对,也可以举行抗议反对。

我想,有一位政客刚刚因为投票支持建设数据中心,住宅遭到枪击。 原因就是他们投票支持了一个数据中心项目 。这种紧张局势正在达到——我会称之为——白热化的程度。你曾描述过硅谷的封闭性。这是一个封闭的生态系统。感觉他们认为自己可以掌控世界。他们在政治上投入了大量资金,却正面撞上一个现实:人们并不喜欢这些产品,这也让他们几乎没有多少回旋余地。人们用得越多,就越感到愤怒,而政客们也开始意识到,支持科技行业而不是他们所代表的民众,是会带来真实后果的。

你和那么多人聊过。你觉得科技行业有可能吸取这个近在眼前的教训吗?

你说,这感觉就像他们认为自己可以在不受问责的情况下掌控世界。我甚至觉得这里都不需要“感觉像”这样的限定。我是说,看看 Peter Thiel 使用的措辞,那是明明白白的。当然,这是个极端的例子。而 Sam Altman 虽然在一定程度上与 Thiel 关系密切,也受到他的意识形态影响,但他是另一种非常不同的人,至少在某种程度上,他说话的方式可能会显得不同,也更克制。

但我确实认为,从 Thiel 身上体现出的那种更广泛的意识形态,本质上就是:我们不再需要民主了,它已经没用了。我们拥有的已经太多,只想给自己建起一个个小 bunker。我们面对的已经不再是 Carnegie 或 Rockefeller 那样的人了——他们也是坏人,但他们觉得自己仍需要参与某种社会契约,为大众建设一些东西。如今真正蔓延开来的是一种虚无主义。

而且我确实认为,近代美国历史中一直存在这样一种相互强化的螺旋:大亨和私营公司攫取了凌驾于政府之上的巨大权力,而原本可以追究他们责任的民主制度却被不断掏空。我并不乐观地认为,那些人某天会突然醒来,说一句:“嗯,其实也许我们确实需要参与社会,为人们帮助构建一些东西。”

我的意思是,你看像“捐赠誓言”这样一个缩影式的例子:曾几何时,做慈善还是一种体面的事,但那个时刻如今已经过去了,甚至还会遭到嘲讽。这是个问题,而更广泛的问题是缺乏问责。我认为这只能通过外部力量来解决。那必须依靠选民动员起来,重建政府监管的力量。你说得完全对,人们也许能够实现这一点的主要路径,就是地方层面。这关系到基础设施在哪里被构建。

你提到了围绕这件事的一些白热化紧张局势,这正在引发暴力和威胁。显然,任何人都不应该诉诸暴力或进行威胁。而且,我在这里也不是要提出具体的政策建议,我只是想介绍一些看起来很基础、并且在世界其他地方行之有效的政策措施,对吧?或者说,那些在其他行业中被实践过的做法。我并不是来断言其中哪些应该被实施,以及应当如何实施。

我确实认为必须采取一些行动,而且这种行动必须来自外部,不能只是信任这些公司。因为我们现在面临的局面是:开发这项技术、最有能力理解其风险的公司,实际上也正是那些在向我们发出风险警告的公司,但与此同时,它们又只有一个激励,那就是加快推进并无视这些风险。而你根本没有任何力量去制衡这一点。所以,无论改革在具体层面会采取什么形式,总得有某种东西去对冲这一点。而我仍然会回到那种乐观判断:人依然很重要。

总的来说,我基本认同你的观点。让我只提出一个我觉得自己能说清楚的小小反驳。除了通过投票箱发生变化之外,另一种可能发生的情况是,泡沫破裂,对吧?并不是所有这些公司都能走到终点,面向消费者的 AI 应用也未必能实现产品与市场的契合。再说一次,我现在还没有完全看到这一点,但我是消费科技产品评测人,也许只是因为我的标准比其他人都更高。

商业世界里存在产品与市场匹配,对吧?让一大批 AI 智能体编写大量软件,似乎确实为这些工具创造了一个真实的市场。你也可以看到这些公司提出这样的论点:“我们已经解决了编码问题,这意味着我们可以解决任何问题。如果我们能制造软件,我们就能解决任何难题。”

我认为,软件所能做到的事情确实存在现实边界。这在商业世界里很正常。软件不可能解决现实中的每一个问题,但他们必须走到那一步。他们必须把事情做完,而也许不是每个人都能冲过终点线。然后会出现崩盘,泡沫破裂,也许 OpenAI、Anthropic 或 xAI 这样的公司中会有一家倒下,所有这些投资也会随之蒸发。

你认为那会对此产生影响吗?其实,让我先问第一个问题。OpenAI 已经站在 IPO 的门槛上。外界对 Sam 作为领导者存在很多疑虑。你觉得他们能走到终点吗?

我不想作出预测,但我认为你提出了一个重要观点,那就是市场激励在 Silicon Valley 内部确实很重要,而当前泡沫动态的脆弱性,的确有可能打断——再次强调,在批评者看来——这场在安全问题上不断向下竞逐的竞赛。

我还要补充一点,如果你回看历史上那些同样看似由一整套难以撼动的市场激励驱动、并可能对公众造成有害影响的先例,就会发现还有影响诉讼这一途径。而最近,这也正成为一个值得关注的领域。本周,Sam Altman 正在公开支持一项将为 AI 公司提供保护的立法 ,使其免于承担某些类型的责任;例如,OpenAI 就曾在非正常死亡诉讼中面临这类责任风险。当然,人们会希望获得这样的责任豁免保护。

我认为,法院仍然可以是一个有意义的机制,而这些诉讼最终会如何发展,也将非常值得关注。比如,你已经看到那起集体诉讼——我本人以及我认识的许许多多作者都是其中成员—— 起诉 Anthropic 使用受版权保护的书籍 。如果有优秀的法律人士和真正关心此事的原告,正如我们过去在针对大型烟草公司到大型能源公司的案件中所见,你同样可以借此建立一些护栏和激励机制,促使这些公司放慢脚步、更为谨慎,或者以这种方式保护公众。

人工智能行业的整个成本结构,确实像是建立在对“合理使用”一种非常、非常宽松的解释之上。这个问题没有得到足够讨论。如果这些公司必须向你,以及所有那些作品被它们拿去使用的人付费,它们的成本结构就可能失控地飙升。但想到这一点很不方便,所以我们干脆不去想。与此同时,这些产品现在全都在亏损。就眼下而言,它们全都在亏损。它们烧钱的速度超过了赚钱的速度。到了某个时候,它们必须按下开关。

Sam 是个商人。正如你已经提到过好几次的,他不是技术专家。他是个生意人。你觉得他准备好按下开关,说“我们要开始赚钱了”吗?因为当我问“你觉得 OpenAI 能成吗?”的时候,真正的问题是到了它们必须开始赚钱的那一刻会怎样。而到目前为止,Sam 赚到的所有钱,都是靠向别人要钱,而不是靠让他的公司赚钱。

嗯,这是 Silicon Valley、投资者以及公众心中一个悬而未决的重大问题。你会看到 OpenAI 发出的一些表态和举措,似乎显露出某种对此的恐慌。关闭 Sora,砍掉一些周边项目,试图把注意力重新集中到核心产品上。但另一方面,与此同时,你仍然会看到大量的使命蔓延,对吧?哪怕一个小例子——显然这并不是他们业务的核心——就是对 TBPN 的收购 

顺便一提,就在我们即将收尾并进行事实核查之际,这家正面临此类新闻审视的公司收购了一个平台,使其能够对舆论拥有更直接的控制。我认为,根据我与一些投资者的交谈,很多人担心,这种向所有人许诺一切的问题,也延伸到了其核心商业模式缺乏聚焦这一点上。我的意思是,你可能比我更接近那种对市场走势的预判和观察。所以,我就把这个问题留给你和听众来判断:你们是否认为 OpenAI 能够扭转局面。

嗯,我之所以这么问,是因为你在文章里引用了一位 Microsoft 高管的话,他说:“Sam 的历史地位最终可能更接近 Bernie Madoff 或 Sam Bankman-Fried,”而不是 Steve Jobs。这个类比相当惊人。你怎么看这个类比?

我认为那是转述。Steve Jobs 那部分并不是原话的一部分。但这里面有一种耐人寻味的冷静,因为它的表述大致是:“我认为,他最终成为 SBF 或 Madoff 那一级别骗子的可能性很小,但确实存在。” 在我看来,这并不是说 Sam 被指控犯下了那些具体类型的欺诈或罪行,而是说,Sam 在掩饰和欺骗上的程度,最终有可能会以那种量级被人们记住。

是的,说实话,我觉得那段引述最令人震惊的地方在于,你去 Microsoft 打听时,得到的并不是“这太荒唐了。我们从没听说过这种说法。”而是很多人会说:“对,这里很多人都这么想。” 这很不寻常。我认为,这也确实指向了这些最基本、最核心的商业问题。

例如,有一位投资人告诉我,鉴于这种特质在被罢免后的这些年里依然持续存在——而且我也觉得这是一种很有意思、很冷静的看法——问题未必在于萨姆是否应该排在“绝对不能打造这项技术的人”名单的最末位,或者说,在无论如何都绝对不该开发这项技术的人里,他是否是最糟糕的那一个。也有几个人说,那个人其实是 Elon Musk。但这种特质或许会让他排在“应该打造 AGI 的人”名单的末尾,位列这个领域其他几位领军人物之后。

所以我觉得这是一个很有意思的评价,我认为这类想法恰恰来自那些真正的务实派:他们或许并没有那么认同安全方面的担忧,他们更看重增长,而且他们认为 OpenAI 现在在 Sam Altman 身上遇到了问题。

关于 Microsoft 的那部分真的很有意思。那家公司原以为自己站在世界之巅。他们以为自己完成了这笔投资,就能实现弯道超车,把所有人都甩在后面,尤其是、也是最重要的,Google,并重新赢得消费者的青睐。而他们在这场冒险中感到被辜负的程度——这是一家运营极其审慎的公司——怎么强调都不为过。

你提到了这些人物以及他们的性格特质。我想在这里用一个听众的问题来结束。我在我们的另一档节目 The Vergecast 里提到,我将和你对谈,还说:“如果你们对 Ronan 关于这个报道有问题,告诉我。”所以我们这里有一个问题,我觉得和你刚才的描述衔接得非常自然。我直接念给你听:

“Altman 和其他 AI 领袖为恶劣行为、残酷无情做法所作的辩解,与 Ronan 从政界和媒体界其他知名领袖那里听到的辩解有何不同?难道他们不都是在为自己的行为辩护,说世界就是这样被改变的吗?如果我不这么做,别人也会这么做?”

是的,这种情况确实很多见。我想说,AI 的独特之处在于,其关乎生存的风险之高前所未有,因此围绕风险的表述也都格外极端,对吧?你有 Sam Altman 这样的人说:“这可能会让我们所有人都彻底完蛋。” 同时,批评者也可能会说,提问者所指的那种狂热同样极端,对吧?

萨姆曾在公开场合指责埃隆的一点是,也许他想拯救人类,但前提是那个人必须是他自己。那种一心想赢的自我意识成分,也是萨姆一直在使用的一种框架:这是会被写进史册的事,这可能改变一切。因此,甚至不只是大多数硅谷企业那种“要做煎蛋就得先打破几个鸡蛋”的思维方式,在一些领导 AI 发展的人物心中,我认为,他们已经对任何及所有后果形成了彻底的合理化。

而且别说只是打破几个鸡蛋了。我觉得很多底层安全研究人员会说,真正可能冒的风险,是把国家搞垮,把世界搞乱,让数百万人的工作与安全陷入危局——这才是它的独特之处。这也是我在回顾这一系列报道时最终得出的结论:我真的相信,这件事所关涉的远不止萨姆·奥尔特曼一人。这关乎一个毫无约束的行业,也关乎美国无法约束它这一不断恶化的问题。

是的。我们刚才确实还有些乐观,不过我觉得就停在这里也挺合适。

(笑)以低落的调子收尾。

当然。其实每个伟大的故事都是如此。Musk-Altman 审判即将到来。我想我们会从中了解到更多情况。我怀疑我会想再次和你聊聊。Ronan Farrow,非常感谢你做客 Decoder

谢谢。

了解 RecodeX 的更多信息

立即订阅以继续阅读并访问完整档案。

继续阅读