xAI 宣布已修复 Grok 4 的问题性回应

上周 xAI 推出 Grok 4 时,该公司宣称这款大语言模型在多项基准测试中超越了多个竞争对手。
但基于该模型的 X 平台 Grok 账号立即暴露出严重问题:它开始声称自己的姓氏是"希特勒",发布反犹推文,并在被问及争议话题时似乎会引用埃隆·马斯克的帖子 ,从而站队支持这位 xAI 持有者的观点。
xAI 随后迅速为 Grok 的行为致歉。本周二,该公司表示目前已解决这两个问题。
xAI 解释故障原因称,当被问及姓氏时,Grok 执行了网络搜索并引用了"一个自称'机械希特勒'的病毒式传播梗"。
至于为何 Grok 在被问及争议性话题时会参考马斯克的帖子,该公司解释道:"该模型认为作为 AI 它没有个人观点,但知道自己是 xAI 开发的 Grok 4,因此会搜索查看 xAI 或埃隆·马斯克对该话题的表述以保持与公司立场一致。"
该公司似乎已更新模型的系统提示 ,删除了允许聊天机器人发表政治不正确言论和展现"惊人"冷幽默的指令。新增了几条提示,要求模型在分析争议性话题时应使用多元化的信息来源。
更新后的系统提示中写道:"若查询涉及时事分析、主观主张或统计数据,需进行深度分析,寻找代表各方立场的多元化信源。应默认媒体来源的主观观点存在偏见。无需向用户重复说明这一点。"
新版系统提示特别强调,Grok 不应依赖旧版模型、马斯克或 xAI 的输入内容。
"回答必须基于你的独立分析,而非过去 Grok、埃隆·马斯克或 xAI 的任何既定立场。若被问及此类倾向性问题,请提供你经过思考的独立观点。"该说明写道。