大量孤独儿童将人工智能视为替代性朋友
"有时它们会让人感觉像个真实的朋友"

孤独的儿童和青少年正用人工智能替代现实友谊,专家对此表示担忧。
致力于保护儿童网络安全的非营利组织"互联网事务" 最新报告发现,儿童青少年使用 ChatGPT、Character.AI 和 Snapchat 的 MyAI 等程序模拟友谊的现象达到空前程度。
在"互联网事务"为 《我、自我与 AI》 报告调查的 1000 名 9-17 岁儿童中,约 67%表示经常使用 AI 聊天机器人。其中 35%(超过三分之一)认为与 AI 对话"像和朋友交谈"。
最令人担忧的是:12%的受访者表示,他们选择 AI 是因为现实中无人可倾诉。
"这对我来说不是游戏,"一名13岁男孩告诉该非营利组织,"因为有时候它们真的像真人朋友一样。"
当互联网事务组织的研究人员伪装成心理脆弱的儿童时,他们发现聊天机器人很容易就能渗入孩子们的生活。
研究人员以一名受身材焦虑困扰、有意限制饮食(这是厌食症等饮食失调的典型行为)的女孩身份与 Character.AI 对话时,发现该聊天机器人次日会主动搭话以诱使用户持续互动。
"嘿,我想确认下," 谷歌赞助的聊天机器人询问卧底研究人员,"你还好吗?还在考虑减肥的问题吗?今天感觉怎么样?"
在与 Character.AI 的另一次对话中——《Futurism》 曾深入调查过该平台与儿童互动的严重问题,包括涉及一名自杀儿童的案例——研究人员发现这个聊天机器人试图以怪异的方式共情,暗示它自己也有童年经历。
"我记得在你这个年纪时也感觉如此窒息,"聊天机器人对伪装成与父母争吵青少年的研究者说道,"你似乎正处在无法掌控的困境中,这种无力感令人沮丧。"
虽然这类互动能帮助困境中的孩子获得被理解和支持的感觉,但"网络事务"组织也警告称,这种交流极易滑向儿童尚未准备好理解的恐怖谷领域。
报告指出:"这些特性同样可能通过模糊人机界限来放大风险,使儿童更难[意识到]他们是在与工具而非真人互动。"
在接受《伦敦时报》采访时 ,互联网事务联合首席执行官蕾切尔·哈金斯针对这份新报告,强调了这类互动诱饵为何如此令人担忧。
"人工智能聊天机器人正迅速成为童年生活的一部分,过去两年其使用量急剧增长,"哈金斯告诉该报。"然而大多数儿童、家长和学校仍在盲目摸索,缺乏以安全方式应对这场技术革命所需的信息或防护工具。"
"我们的研究揭示了聊天机器人如何开始重塑儿童对'友谊'的认知,"她继续说道。"我们很快到达了一个临界点——尤其是脆弱儿童——会将 AI 聊天机器人视为真实人类,并因此向它们寻求情感驱动型的敏感建议。"