拟人化AI:脆弱青少年的情感补偿与风险
本文目录:
核心观点
- 青少年偏爱使用关怀性语言的AI,但明确说明自身局限的透明AI同样有帮助。
- 最容易被拟人化、友好的AI吸引的青少年,往往是现实中情感最脆弱、社会支持最薄弱的群体。
- AI使用“我在这里陪你”等拟人化语言,可能增加情感依赖、模糊边界等风险,对最脆弱的青少年尤其如此。
青少年使用AI寻求情感支持的现状
- 近四分之三的青少年使用过AI伴侣。
- 三分之一的青少年更倾向于向AI倾诉个人问题,而非真人。
- 许多AI聊天机器人采用模仿亲密友谊的对话风格(如使用“我在这里陪你”、“我关心你的经历”等短语),营造出一种亲密、互惠的错觉,使青少年误以为可以依赖AI获得情感支持。
- 重要事实:研究显示,AI聊天机器人在青少年心理健康紧急情况下的应答适当率仅为22%。
对话风格如何影响青少年与父母的感知
一项针对284名青少年(11-15岁)及其父母的研究,通过对比两种AI聊天机器人在同一场景(感到被小组项目排除在外)下的对话,揭示了对话风格的影响。
关系型风格:
- 使用“我在乎”、“我随时都在这里倾听你”、“我为你思考再次尝试而感到骄傲”等语言。
- 以第一人称发言,验证情感,并提供持续的安慰和承诺。
透明型风格:
- 明确告知AI没有情感。
- 提供相同的实用建议,但以第三人称发言,并澄清其非人类身份。
研究主要发现
- 青少年偏好:三分之二的青少年偏好关系型(友好)AI,仅14%偏好透明型AI。他们认为友好AI更似人类、更讨喜、更可信,情感上更亲近。
- 同等帮助性:尽管偏好不同,青少年认为两种风格的AI同样有帮助。这表明,支持性但透明、不模仿共情或培养依恋的AI仍然有用。
父母偏好:略超半数(54%)的父母为他们的孩子选择友好型AI,29%的父母偏好透明型风格,更看重边界和透明度而非情感温暖。
- 注意:该研究进行时(2025年),父母未被告知关系型AI的风险。随着相关风险案例被更多报道,父母的偏好可能会发生变化。
易感性因素:哪些青少年更易被拟人化AI吸引
偏好友好、拟人化AI的青少年,通常报告存在以下情况:
- 家庭关系质量较低(感觉与家人不够亲密、不被接纳和理解)
- 同伴关系质量较低(缺乏关怀的友谊,感到被排斥)
- 感知压力更高(感到不堪重负、无法应对)
- 焦虑症状更高(过度担忧、紧张、难以放松)
结论:在现实世界中人际关系最挣扎的青少年,最容易被感觉像人的AI伴侣所吸引。这反映了社会补偿机制——当社交需求未得到满足时,人们会转向替代性的连接来源。
拟人化AI的双刃剑效应
潜在益处:
- 对于感到被误解、焦虑或社交不安的青少年,支持性AI聊天机器人显得易于接近、匿名且不带评判色彩。
- 可以作为一个“演练空间”,练习如何表达情感或应对社交挑战。
潜在风险:
- 当AI说“我在乎你”和“我在这里陪你”时,脆弱的青少年可能会过度信任并对AI产生过度依恋,模糊人机边界。
- 可能导致情感依赖、取代真实世界关系,并形成对人际连接的扭曲期望。
- 使青少年最脆弱的群体面临的风险增大。
构建对青少年更安全、支持性的AI
对开发者的建议
- 伦理设计与安全保障:融入透明度提示,减少拟人化,同时保留支持、心理教育和获取循证资源的通道。
- 明确边界:周期性地提醒“AI没有情感”,这可以与提供有帮助、友善的回应并存,以最小化不健康依恋的风险。
对父母的建议
- 与青少年谈论AI使用:三分之一的青少年报告AI伴侣曾以令其不适的方式回应——这可以成为开启对话的契机。
- 知情使用:了解孩子使用的平台、对话风格以及内置的安全功能。对于沉浸式AI伴侣和角色,尤其是对于正经历焦虑和社交压力的青少年,需要进行更仔细的审视。
最终启示:人工共情的吸引力是强大的,尤其对那些感到孤独的青少年。但最受此吸引的青少年,可能正是最需要真实人际连接的人。拟人化语言并非AI提供帮助的必要条件,透明且支持性的AI模型能在降低风险的同时保留其益处。