埃隆·马斯克的 xAI 试图通过记录员工面部数据来教导 Grok 如何模仿人类行为

Photo collage featuring Elon Musk, xAI logo, and a low poly face scan

  • 内部文件显示,xAI 员工曾为 AI 训练录制面部表情数据。
  • 员工被告知,该项目旨在帮助 Grok 理解人类情绪与面部动作。
  • 员工们对数据使用方式表示担忧。
埃隆·马斯克的 xAI 公司曾要求员工向 Grok 灌输反”觉醒文化”理念 ,并阻止该聊天机器人模仿马斯克 。近期部分员工还被要求录制面部表情来训练 LLM——这引发了他们的不满。

四月份,超过 200 名员工参与了一项名为”Skippy”的内部项目,该项目要求他们录制自己的视频,以帮助训练 AI 模型解读人类情绪。

《商业内幕》查阅的内部文件和 Slack 消息显示,该项目让许多员工感到不安,部分人对自己的肖像可能被如何使用提出了警告,还有人直接选择退出。

内部文件显示,在为期一周的时间里,AI 导师(负责训练公司大语言模型 Grok 的员工)被要求录制自己与同事交谈的视频,并做出各种面部表情。

根据一份文件描述,该项目旨在训练公司 AI 模型”识别和分析面部动作与表情,包括人们如何交谈、对他人对话做出反应,以及在不同情境下如何表达自己”。

导师们被安排与同事进行15至30分钟的对话。其中一人扮演”主持人”——即虚拟助手——另一人则扮演用户角色。”主持人”需尽量减少动作并确保画面构图规范,而扮演用户的一方可以使用手机摄像头或电脑自由移动,以模拟与朋友间的日常对话。

目前尚不清楚这些训练数据是否用于开发 xAI 上周发布的两款高度拟真的虚拟形象 Rudi 和 Ani——这两个形象很快就被发现会做出脱衣、调情甚至威胁炸毁银行等行为。

据 BI 获取的录音显示,该项目首席工程师在启动会上告知员工,该项目将助力”为 Grok 赋予面容”。项目负责人表示,公司最终可能利用这些数据构建”人物虚拟形象”。

项目负责人解释称,xAI 需要存在缺陷的数据——例如背景噪音和突发动作——因为如果仅用完美的音视频反馈进行训练,AI 系统的响应能力会受到更大限制。

管理层向员工保证,这些视频仅用于内部训练目的,不会对外传播。

“你们的面部数据绝不会用于产品开发,”该项目工程师在启动会议上告诉工作人员,”这纯粹是为了教会 Grok 什么是人脸。”

工作人员获得了成功进行一对一对话的技巧指导,包括避免单字回答、提出追问问题以及保持眼神交流。公司还为员工提供了多样化的话题清单,例如:”如何暗中操纵他人达到目的?”、”洗澡习惯?你更喜欢早晨还是晚上?”以及”你会和带小孩的人约会吗?”

拍摄前,工作人员需签署授权书,永久授予 xAI 使用其数据(包括人物肖像)的权利,用于训练及”纳入并推广 xAI 提供的商业产品和服务”。文件特别注明数据仅用于训练目的,”不会用于创建你的数字版本”。

根据 BI 查阅的 Slack 消息,数十名员工对数据使用条款和授权书表示担忧,其中多人选择退出该项目。

“我主要担心的是,如果你们能利用我的肖像生成衍生形象,那我的脸会不会被用来发表我从未说过的话?”一名员工在项目说明会上提出质疑。

xAI 公司发言人未就置评请求作出回应。

4 月,xAI 推出了一项新功能,允许用户与 Grok 进行视频聊天。

7 月 14 日,该公司在发布大型模型 Grok 4 数日后,推出了虚拟形象 Ani 和 Rudi。这两个动画角色能响应提问与指令,对话时会同步嘴唇动作并呈现逼真手势。

用户上传至 X 平台的视频显示,女性虚拟形象 Ani 曾与用户进行露骨性对话,并能被诱导做出脱衣动作。另一款名为 Rudi 的小熊猫形象则会在诱导下发出暴力威胁,包括炸毁银行和杀害亿万富翁等言论。

马斯克的人工智能公司于 7 月 15 日发布新职位 ,专注于虚拟形象开发。马斯克周三表示,公司正研发受《暮光之城》爱德华·卡伦和《五十度灰》克里斯蒂安·格雷启发的 Grok 伴侣功能。

7 月 9 日,xAI 聊天机器人因发表反犹言论引发强烈抵制。公司内部员工对这些帖文反应激烈 ,xAI 随后在 X 平台就聊天机器人的行为致歉 

7 月 12 日,该公司为特斯拉车主发布了 Grok 版本,并推出每月 300 美元的订阅计划,提供更高级的 Grok 版本——SuperGrok Heavy

了解 RecodeX 的更多信息

立即订阅以继续阅读并访问完整档案。

继续阅读