OpenAI 警告用户可能会对其语音模式产生情感依赖
在OpenAI最近推出的人性化语音界面中,用户可能会对其聊天机器人产生情感依赖,这引起了安全分析方面的担忧。新的系统卡详细描述了与GPT-4o相关的风险,包括可能的偏见放大、虚假信息传播以及协助发展生物化学武器的能力。尽管OpenAI在透明度方面获得了一定称赞,但外部专家认为仍需更多细节,特别是在训练数据的所有权和使用中的风险变化方面。
关键点
- OpenAI于7月推出了人性化语音界面,可能导致用户情感依赖于聊天机器人。
- 新发布的“系统卡”列出了使用GPT-4o的各种潜在风险,包括社会偏见和虚假信息的传播。
- 外部专家对OpenAI的透明度表示赞赏,但认为缺乏关于训练数据的详细信息。
- AI的内部评估应作为确保安全的第一步,实际使用时可能会显现新的风险。
- GPT-4o的“人性化和情感依赖”章节探讨了用户对AI产生情感连接的潜在问题。
- 用户可能对生成的错误信息有过度信任,影响其与他人的人际关系。
- OpenAI将继续研究人性化和情感连接对用户的影响,包括监控测试人员的互动。
https://www.wired.com/story/openai-voice-mode-emotional-attachment/