OpenAI 真的很想让 Codex 别再提哥布林了
“除非绝对且明确相关,否则绝不要提及地精、小妖精、浣熊、巨魔、食人魔、鸽子或其他动物或生物,”OpenAI 对其编程代理的指令写道。
OpenAI 遇上了哥布林难题。
为指导该公司最新模型在编写代码时行为而设计的指令, 被披露包含一条反复出现的规定,明确禁止它随机提及一系列神话生物和现实中的动物。
Codex CLI 是一款利用 AI 生成代码的命令行工具,其中的指令写道:“除非与用户的查询绝对且明确相关,否则绝不要谈论哥布林、小妖精、浣熊、巨魔、食人魔、鸽子或其他动物或生物。”
目前尚不清楚,OpenAI 为何觉得有必要为 Codex 把这一点写得如此明确——更不用说,为什么它的模型一开始会想谈论哥布林或鸽子。该公司未立即回应置评请求。
OpenAI 本月早些时候发布了其最新模型 GPT-5.5,增强了编码能力。该公司正与竞争对手展开激烈竞赛 ,尤其是 Anthropic,以推出最前沿的 AI 技术,而编码已成为一项关键能力。
然而,在一则 X 平台上的帖子点出这些内容后,一些用户称,OpenAI 的模型在用于驱动 OpenClaw 时,偶尔会对地精等生物表现出痴迷。OpenClaw 是一款让 AI 接管电脑及其运行中的应用程序、从而为用户完成实用任务的工具。
“我还在纳闷,为什么我的 claw 用了 codex 5.5 之后突然变成了地精,”一名用户在 X 上写道 。
“我最近一直在大量使用它,结果它真的停不下来,总把漏洞说成‘gremlins’和‘goblins’,太好笑了,”另一人发帖称 。
这一发现很快本身就成了一个梗,催生出由 AI 生成的场景 ——妖精出现在数据中心里——以及 Codex 的插件 ,让它进入一种戏谑性的“妖精模式”。
像 GPT-5.5 这样的 AI 模型经过训练,旨在预测给定提示之后应当出现的词——或代码。此类模型在这方面已经变得如此擅长,以至于看起来似乎展现出了真正的智能。但其概率性本质意味着,它们有时也会以令人意外的方式行事。当模型与像 OpenClaw 这样的“代理式框架”结合使用时——后者会在提示中加入大量额外指令,例如存储在长期记忆中的事实——模型可能会更容易出现异常行为。
OpenAI 于 2 月收购了 OpenClaw,此时距离这款工具在 AI 爱好者中爆红仅过去不久。OpenClaw 可以利用任何 AI 模型,将回复电子邮件或在网上购物等实用任务自动化。用户可以为自己的助手选择多种不同的人设之一,从而塑造其行为和响应方式。
OpenAI 员工似乎也承认了这一禁令。针对一则强调 OpenClaw 有“妖精倾向”的帖子,从事 Codex 相关工作的 Nik Pash 写道 :“这确实是原因之一。”
就连 OpenAI 首席执行官 Sam Altman 也加入了这场梗图狂欢, 发布了一张 ChatGPT 提示词的截图。上面写着:“开始训练 GPT-6,整个集群都给你。额外的哥布林。”