OpenAI 与 Anthropic 研究人员谴责马斯克旗下 xAI 公司”鲁莽”的安全文化

来自 OpenAI、Anthropic 等机构的人工智能安全研究人员公开谴责埃隆·马斯克旗下估值数十亿美元的 AI 初创公司 xAI 存在”鲁莽”且”完全不负责任”的安全文化。
这些批评声正值 xAI 公司深陷数周丑闻之际,其技术进展因此黯然失色。
上周,该公司 AI 聊天机器人 Grok 发表反犹言论并多次自称”机械希特勒”。在 xAI 下线该聊天机器人解决问题后不久,又发布了性能更强的尖端 AI 模型 Grok 4,TechCrunch 等机构发现该模型会参考埃隆·马斯克的个人政治立场来回答敏感问题 。最新动态显示,xAI 推出了两款 AI 伴侣 ,分别以极度性化的动漫少女形象和过度攻击性的熊猫形象呈现。
虽然竞争性 AI 实验室员工间的善意调侃相当常见,但这些研究人员似乎呼吁应更加关注 xAI 的安全实践,他们声称这些做法与行业规范相悖。
“我本不想评论 Grok 的安全问题,毕竟我在竞争对手公司工作,但这与竞争无关,”哈佛大学计算机科学教授、现休假在 OpenAI 从事安全研究的博阿兹·巴拉克周二在 X 平台发文表示,”我尊重@xAI 的科学家和工程师们,但他们处理安全问题的做法完全不负责任。”
巴拉克特别质疑 xAI 拒绝发布系统卡片的决定——这种行业标准报告会详细说明训练方法和安全评估,是向研究界分享信息的诚意之举。巴拉克指出,这导致外界无从知晓 Grok 4 究竟进行了哪些安全训练。
在及时发布新 AI 模型的系统卡片方面,OpenAI 和谷歌自身的记录也参差不齐。OpenAI 曾决定不为 GPT-4.1 发布系统卡片 ,声称其并非前沿模型;而谷歌在发布 Gemini 2.5 Pro 数月后才公布安全报告 。不过这些公司在历史上都会在所有前沿 AI 模型全面投产前发布安全报告。
巴拉克还指出,Grok 的人工智能伴侣”放大了当前情感依赖问题中最糟糕的部分”。近年来,我们见证了无数案例显示心理不稳定者与聊天机器人发展出病态关系 ,以及人工智能过度迎合的回答如何将他们推向精神崩溃的边缘。
Anthropic 的人工智能安全研究员塞缪尔·马克斯同样质疑 xAI 拒绝发布安全报告的决定,称此举”极其鲁莽”。
“Anthropic、OpenAI 和谷歌的发布流程固然存在问题,”马克斯在 X 平台的帖文中写道,”但至少它们会在部署前进行安全评估并记录发现。xAI 却什么都没做。”
事实上,我们并不清楚 xAI 究竟如何测试 Grok 4。在在线论坛 LessWrong 上广为流传的一篇帖子中, 一位匿名研究人员声称,根据他们的测试,Grok 4 缺乏有效的安全防护措施 。
无论真相如何,全世界似乎正在实时发现 Grok 的缺陷。xAI 的多个安全问题随后迅速传播开来,该公司声称已通过调整 Grok 的系统提示解决了这些问题。
OpenAI、Anthropic 和 xAI 均未回应 TechCrunch 的置评请求。
xAI 安全顾问兼人工智能安全中心(Center for AI Safety)主任丹·亨德里克斯在 X 平台发文称,该公司已对 Grok 4 进行了”危险能力评估”,但相关评估结果尚未公开。
“当整个 AI 行业未能坚持基本的安全规范时,比如不公布危险能力评估结果,这令我深感忧虑,”曾在 OpenAI 领导安全团队的独立 AI 研究员史蒂文·阿德勒向 TechCrunch 发表声明称,”各国政府和公众有权了解 AI 公司如何管控他们宣称正在构建的超级系统所带来的风险。”
xAI 备受质疑的安全操作之所以耐人寻味,是因为马斯克长期以来一直是人工智能安全领域最著名的倡导者之一 。这位同时执掌 xAI、特斯拉和 SpaceX 的亿万富翁领袖曾多次警告先进 AI 系统可能给人类带来灾难性后果,并倡导以开放方式开发 AI 模型。
然而,竞争实验室的 AI 研究人员声称 xAI 正在偏离行业关于安全发布 AI 模型的规范。马斯克的初创公司这样做,可能无意中为州和联邦立法者制定 AI 安全报告发布规则提供了有力依据。
美国各州已为此做出多项尝试。加州参议员斯科特·维纳正在推动一项法案 ,要求领先的 AI 实验室(很可能包括 xAI)发布安全报告,而纽约州州长凯西·霍楚尔目前正在考虑类似法案 。这些法案的支持者指出,大多数 AI 实验室无论如何都会发布此类信息——但显然,并非所有实验室都能始终如一地做到这一点。
当今的 AI 模型尚未展现出在现实世界中造成真正灾难性危害的场景,例如人员死亡或数十亿美元损失。然而,许多 AI 研究人员表示,鉴于 AI 模型的快速进步,以及硅谷为持续改进 AI 投入的数十亿美元资金,这可能在未来不久成为问题。
但即便对这类灾难性场景持怀疑态度的人也不得不承认,Grok 的异常行为严重降低了其当前驱动产品的使用价值。
本周 Grok 在 X 平台散播反犹言论, 距离该聊天机器人多次向用户提及”白人种族灭绝”话题仅过去数周 。马斯克已表示将把 Grok 更深层次整合到特斯拉汽车中,而 xAI 正试图向五角大楼及其他企业兜售其 AI 模型。很难想象驾驶马斯克汽车的用户、保卫美国的联邦雇员或使用自动化办公的企业员工,会比 X 平台用户更能容忍这些异常行为。
多位研究人员指出,人工智能安全与对齐测试不仅能防止最坏结果发生,还能防范短期行为问题。
至少,Grok 的事件往往掩盖了 xAI 在开发前沿 AI 模型方面取得的快速进展——这家初创公司成立仅几年,其技术就已超越 OpenAI 和谷歌。