ChatGPT会说话,但OpenAI的员工却不能

为什么OpenAI的超级对齐团队正在解散?
前几天,OpenAI宣布了令人兴奋的新产品消息:ChatGPT现在可以像人类一样对话。
它有一种愉快的、略带讨好的女性声音,听起来非常自然,不像机器人,而且如果你看过2013年Spike Jonze的某部电影,可能会觉得有点熟悉。OpenAI的CEO Sam Altman在推特上提到那部电影《她》,电影中一个男人爱上了由Scarlett Johansson配音的AI助手。
但ChatGPT 4o的产品发布很快被OpenAI的更大新闻所掩盖:公司联合创始人兼首席科学家Ilya Sutskever的辞职,他还领导了公司的超对齐团队,他的联合团队负责人Jan Leike也辞职了。
这些辞职并不完全令人意外。Sutskever曾参与导致Altman去年短暂被解雇的董事会叛乱,尽管CEO很快就回到了他的职位。Sutskever公开表示后悔自己的行为,并支持Altman的回归,但从那以后他基本上就没怎么在公司出现过,即使OpenAI的政策、对齐和安全团队的其他成员也已经离开了公司。
真正引发猜测的是前员工们的沉默。Sutskever发布了一条相当典型的辞职信息,说“我相信OpenAI会建立一个既安全又有益的AGI……我对接下来的事情感到兴奋。”
Leike……没有。他的辞职消息很简单:“我辞职了。”在几天的热烈猜测之后,他在周五早上解释说他担心OpenAI已经偏离了以安全为中心的文化。
问题随之而来:他们是被迫离职的吗?这是去年秋天Altman短暂被解雇的延迟后果吗?他们是在抗议某个秘密且危险的新OpenAI项目吗?因为没有曾经在OpenAI工作过的人说话,猜测填补了这个空白。
事实证明,这有一个非常明确的原因。我看过那些极其严格的离职协议,其中包含前OpenAI员工必须遵守的保密和不贬低条款。它禁止他们在余生中批评他们的前雇主。甚至承认保密协议的存在也是违反规定的。
如果离职员工拒绝签署文件,或者违反了文件,他们可能会失去在公司期间获得的所有已归属的股权,这些股权可能价值数百万美元。一位前员工丹尼尔·科科塔约(Daniel Kokotajlo)曾发帖表示他因“对OpenAI在AGI时代的负责任行为失去信心”而辞职,他公开确认,为了在不签署文件的情况下辞职,他不得不放弃可能会成为巨额财富的股权。
虽然在竞争激烈的硅谷,保密协议并不罕见,但将员工已经归属的股权置于拒签或违反保密协议的风险中却是不同寻常的。对于像OpenAI这样的初创公司员工来说,股权是一种重要的补偿形式,可能远远超过他们的薪水。威胁到这种可能改变生活的金钱,是让前员工保持沉默的非常有效的方法。
OpenAI没有及时回应评论请求。在发布后,一位OpenAI发言人向媒体发送了以下声明:“我们从未取消过任何现任或前任员工的已归属股权,如果人们在离职时不签署豁免或不贬损协议,我们也不会这样做。”
接近该公司的人告诉媒体,他们认为这是政策的改变。当我问OpenAI发言人这是否代表政策的改变时,他们回答:“这个声明反映了现实。”
对于一家最初宣称自己是OpenAI——即承诺以透明和负责任的方式构建强大系统的公司来说,这一切都充满了讽刺意味。
很久以前,OpenAI就放弃了开源其模型的想法,理由是安全考虑。但现在,它已经失去了其安全团队中最资深和受人尊敬的成员,这应该引起一些怀疑,即OpenAI变得如此封闭的真正原因是否真的出于安全考虑。
终结所有科技公司的科技公司
OpenAI长期以来在科技和政策圈中占据着一个不寻常的位置。他们的发布,从DALL-E到ChatGPT,通常都非常酷,但它们本身几乎不会吸引到公司经常被讨论时的那种近乎宗教的狂热。
让OpenAI与众不同的是其使命的雄心:“确保人工通用智能(比人类更聪明的AI系统)造福全人类。”许多员工相信这一目标在未来十年内(甚至更短)可以实现,并且只需几万亿美元,公司就能成功开发出使大多数人类劳动变得过时的AI系统。
正如公司长期以来所说的那样,这既充满风险又令人兴奋。
OpenAI的Leike和Sutskever团队的招聘页面上写道:“超级智能将是人类发明的最具影响力的技术,可能帮助我们解决世界上许多最重要的问题。但超级智能的巨大力量也可能非常危险,可能导致人类的失权甚至人类的灭绝。虽然超级智能现在看起来还很遥远,但我们相信它可能在本十年内到来。”
自然,如果在我们有生之年实现人工超级智能是可能的(专家对此意见不一),它将对人类产生巨大的影响。历史上,OpenAI一直将自己定位为一个负责任的行为者,试图超越单纯的商业动机,为全人类的利益带来AGI。他们表示愿意这样做,即使这需要放慢发展速度、错过利润机会或允许外部监督。
OpenAI联合创始人Greg Brockman在2019年告诉媒体:“我们不认为AGI应该只是硅谷的事情(当时还是没有ChatGPT的平静日子),我们在谈论改变世界的技术。那么,如何在其中获得正确的代表性和治理呢?这实际上是我们非常重要的关注点,也是我们非常希望广泛参与的事情。”
OpenAI独特的公司结构(一个由非营利组织最终控制的有限利润公司)本应增加问责制。Altman在2023年向彭博社的Emily Chang保证:“这里不应该信任任何一个人。我没有超级投票权。我也不想要。董事会可以解雇我。我认为这很重要。”(正如董事会去年11月发现的那样,它可以解雇Altman,但无法使这一举动生效。在他被解雇后,Altman达成了一项协议,实际上将公司带到微软,最终他被重新任命,大部分董事会成员辞职。)
但没有比Sutskever和Leike这样的人担任重要角色更能表明OpenAI对其使命的承诺了,这些技术专家长期以来一直致力于安全,并显然真诚地愿意在需要时要求OpenAI改变方向。当媒体在2019年的那次采访中对Brockman说:“你们在说,‘我们要构建一个通用人工智能,’”Sutskever插话道。“我们将尽一切可能在确保安全的前提下朝这个方向努力,”他告诉我。
他们的离开并不预示着OpenAI在构建人工通用智能的使命上的改变——这一目标仍然存在。但几乎可以肯定的是,这预示着OpenAI对安全工作的兴趣发生了变化;公司还没有宣布谁,如果有的话,将领导超级对齐团队。
这也表明,OpenAI对外部监督和透明度的关注并没有那么深刻。如果你想要外部监督和让世界其他地方在你的工作中发挥作用,让前员工签署极其严格的保密协议显然不合逻辑。
在幕后改变世界
这种矛盾是让我们这些深切关心确保AI真正造福人类的人对OpenAI感到极度沮丧的核心。OpenAI是一家中型科技公司,制造一个健谈的个人助理,还是在为创建一个AI之神的万亿美元企业努力?
公司的领导层表示,他们想要改变世界,他们希望在这样做时负责任,他们欢迎世界对如何公正和明智地实现这一目标的意见。
但当涉及到真正的金钱(在争夺AI主导地位的竞赛中有惊人的巨额金钱)很明显,他们可能从未打算让世界获得太多的意见。他们的流程确保了前员工(那些最了解OpenAI内部情况的人)不能告诉世界发生了什么。
网站可能有崇高的理想,但他们的解雇协议充满了强硬的法律术语。很难对一家前员工只能说“我辞职”的公司进行问责。
ChatGPT的新可爱声音可能很迷人,但我并没有特别喜欢。
信息来源:vox