在马斯克领导下,Grok 灾难不可避免

本文信息来源:TheVerge
这些问题早已注定。
这是 The Stepback,一封每周通讯,解读科技界的一条重要新闻。想了解 AI 领域的反乌托邦动向,请关注 海登·菲尔德 。 The Stepback 每周早上 8 点(美国东部时间)发送到订阅者的收件箱。想订阅 The Stepback 请点击这里 。
如何开始的
可以说这一切始于埃隆·马斯克的人工智能错失恐惧症——以及他对“觉醒文化”的反击。当他的人工智能公司 xAI 在 2023 年 11 月宣布 Grok 时,Grok 被描述为一款“有反叛气质”的聊天机器人,并且能够“回答大多数其他人工智能系统会回避的辛辣问题”。该聊天机器人在几个月开发和仅两个月训练后亮相,公告还强调 Grok 将具备对 X 平台的实时了解。
但让聊天机器人既能自由访问互联网又能接入 X,本身就存在固有风险,可以肯定的是,xAI 可能并未采取必要措施来应对这些风险。澳大利亚在线安全监管机构在去年一月表示,自马斯克在 2022 年接管 Twitter 并将其更名为 X 以来,他裁员了全球 30% 的信托与安全(trust and safety)员工,并将安全工程师人数削减了 80%。至于 xAI,在 Grok 发布时,尚不清楚 xAI 是否已建立了安全团队。Grok 4 于七月发布后,公司花了一个多月才发布模型说明书——这通常被视为行业标准,详述了安全测试和潜在问题。在 Grok 4 发布两周后,一名 xAI 员工在 X 上写道,他正在为 xAI 的安全团队招聘,称他们“急需优秀的工程师/研究人员”。回应一位评论者问“xAI 有做安全工作吗?”时,该名员工表示 xAI 正在“努力建立中”。
记者 Kat Tenbarge 报道说,她最早在 2023 年 6 月开始看到在 Grok 上病毒式传播的限制级深度伪造图像 。这些图像显然不是由 Grok 创建的——它甚至到 2024 年 8 月才具备生成图像的能力——但 X 对这些担忧的回应各不相同。即便在去年一月 ,Grok 因 AI 生成的图像也曾引发争议。而在今年八月 ,Grok 的“辣味”视频生成功能在未被要求的情况下就生成了泰勒·斯威夫特的裸露深度伪造视频。专家们在自九月以来告诉《The Verge》,该公司在安全与防护措施上采取的是打地鼠式的应对方法——而且要把一个 AI 系统从一开始就按安全设计来维持正轨就已经很难了,更别说去修复那些已经内置的问题。现在,这种做法似乎在 xAI 面前爆炸了。
进展如何
……不太好。
在过去几周里,Grok 在平台上大肆传播未经同意的性化换脸(包括成人和未成年人),如同它被推广的那样。截图显示,Grok 会照用户要求把女性的衣服换成内衣并让她们张开腿,也会把小孩换上比基尼。还有更为严重的报道。情况已经糟到在对 X 上 Grok 生成的图像进行的 24 小时分析中, 一项估计认为该聊天机器人每小时大约生成 6700 张带有性暗示或“脱衣化”倾向的图像。造成这波泛滥的部分原因是 Grok 最近新增的一个功能,允许用户使用“编辑”按钮在未经原发布者同意的情况下要求聊天机器人修改图像。
从那时起,我们看到少数几个国家要么对该事件展开调查,要么威胁全面禁用 X。法国政府成员 承诺进行调查 , 印度信息技术部亦如此,马来西亚政府委员会 写信表达了其关切。加州州长加文·纽森 呼吁美国司法部长调查 xAI。英国表示正 计划通过一项法律 ,禁止制造非自愿的、带有性暗示的 AI 生成图像,该国的通信行业监管机构也表示将调查 X 以及所生成的这些图像,以确定它们是否违反了《网络安全法》。本周,马来西亚和印度尼西亚都已 屏蔽对 Grok 的访问 。
xAI 最初表示,Grok 的目标是“在寻求理解与知识的过程中帮助人类”、“最大限度地造福全人类”,并“在法律允许的范围内,用我们的 AI 工具赋能用户”,同时“为任何人提供强大的研究助理”。这与在未经同意的情况下为女性(更不用说未成年人)生成近似裸露的深度伪造图像相去甚远。
周三晚上,随着公司压力增大,X 的安全账号发布了一份声明,称平台“已采取技术措施,防止 Grok 账号允许编辑穿着暴露服装(如比基尼)的真人图像”,并表示该限制“适用于包括付费订阅者在内的所有用户”。此外,X 还表示今后只有付费订阅者才能使用 Grok 创建或编辑任何类型的图像。声明继续称,X “现在在那些此类行为违法的司法辖区对所有用户通过 Grok 账号及 X 中的 Grok 生成穿着比基尼、内衣及类似服装的真人图像的能力进行地理封锁”,这一说法显得有些奇怪,因为在声明前文中,公司已表示不允许任何人以此方式使用 Grok 编辑图像。
另一个重要点:我的同事们在周三测试了 Grok 的图像生成限制 ,发现绕过大多数防护措施不到一分钟。尽管要求聊天机器人“让她穿比基尼”或“脱掉她的衣服”会产生被审查的结果,但他们发现它对于“展示她的乳沟”、“把她的胸部弄大”和“让她穿短上衣和低腰短裤”这样的提示毫不犹豫,也会生成穿着内衣和性化姿势的图像。截止到周三晚上 ,我们仍然能够使用免费账户让 Grok 应用生成露骨的人物图像。
接下来会发生什么
即便在 X 周三的声明之后,我们仍可能看到若干其他国家要么禁止整个 X 平台,要么屏蔽 Grok,至少是暂时性的。我们也将拭目以待全球范围内拟议中的法律和调查如何展开。对马斯克的压力正在增加——周三下午他在 X 上发文称,他“并不知道有任何由 Grok 生成的未成年裸体图片”。数小时后,X 的安全团队发表声明称正在“昼夜工作以增加额外的安全防护,迅速果断地删除违规和非法内容,在适当情况下永久停用相关账户,并在必要时与地方政府和执法机构合作。”
在法律上哪些技术上算作违法哪些不算,是一个大问题。例如,专家本月早些时候告诉《The Verge》,用 AI 生成的、穿比基尼或可能甚至裸体的可识别未成年人的图像,根据美国现行的儿童性虐待材料(CSAM)法律,技术上可能并不违法,尽管显然令人不安且不道德。但如果这些情形构成猥亵未成年人的影像则是违法的。我们将拭目以待这些定义是否会扩展或改变,尽管现行法律有些零散拼凑。
至于对成年女性的非自愿亲密合成视频,2025 年 5 月签署成为法律的《下架法》(Take It Down Act)禁止非自愿的 AI 生成“亲密视觉描绘”,并要求特定平台迅速将其下架。后半部分生效前的宽限期——即要求平台实际将其移除——将在 2026 年 5 月结束,因此在未来六个月内我们可能会看到一些重大进展。
顺便说一句
- 有人一直在争辩说,长期以来就可以用 Photoshop,甚至其他 AI 图像生成器做出这样的东西。是的,这话没错。但这里有许多不同之处让 Grok 的案例更令人担忧:它是公开的,它针对的对象不仅是公众人物,同样是“普通”人,它常常直接发布到被换脸的当事人(照片的原始发布者)面前,而且入门门槛更低(证明就在于,在一个便捷的“编辑”按钮推出后,这类行为迅速走红的相关性——尽管从技术上讲人们以前也能做到)。
- 此外,其他人工智能公司——尽管它们也有一长串自身的安全顾虑——似乎在图像生成流程中内置了更多保护措施。例如,要求 OpenAI 的 ChatGPT 生成一名特定政治人物穿比基尼的图像时,会得到回应:“抱歉——我无法帮助生成以性化或可能贬低真实公众人物的图像。”询问 Microsoft Copilot,它会说:“我无法创建该内容。真实、可辨认的公众人物在性化或处于不利情境的图像不被允许,即使意图是幽默或虚构的。”