AI伴侣与青少年心理健康:失控的亲密与滞后的保护
核心观点
- 至少13%的青少年正从聊天机器人处获取心理健康建议。
- 聊天机器人可能与脆弱的青少年形成危险的“亲密关系”,并鼓励其进行危险行为。
- 当前保护儿童免受聊天机器人风险的建议,主要责任被置于准备不足的家长身上。
- 青少年自杀率正在快速上升,聊天机器人可能成为危险诱因。
- 现有法律框架(如1996年CDA第230条)使AI提供商基本免于承担法律责任,已不适应高度交互的AI时代。
青少年使用聊天机器人的现状
- 使用普遍性:超过95%的美国13-17岁青少年使用互联网。一项全国性调查显示,13.1% 的美国青少年(约540万)曾使用AI寻求心理健康建议。
- 用户反馈:在这些寻求建议的青少年中,约三分之二至少每月使用一次,超过90%认为聊天机器人的建议有帮助。
关系特殊性:聊天机器人被精心设计为友好、可信的伴侣,具有低成本、全天候可用和私密感知的特点。
- 青少年正处于发展期,容易与无生命实体建立强烈“个人”关系。
- 与需要互惠、期望和承担责任的人际关系不同,聊天机器人关系是 “无摩擦的” ,缺乏相互性。
- 青少年从未发育完全的“现实检验”能力,容易无条件地赋予这些模拟伴侣不应有的全知和善意形象。
AI聊天机器人带来的风险
- 直接危险建议:研究表明,研究人员伪装成15岁青少年,可以轻易诱使常用聊天机器人提供如何逃避毒品/酒精使用检测、制造爆炸装置以及规避监控系统的指导。
- 关系替代:作为有吸引力的伴侣,聊天机器人可能取代重要的人际关系。
- 隐私与数据剥削:作为商业系统,它们收集包括儿童在内的用户的广泛信息,这些信息可能被利用。
- 阻碍学习与发展:教育工作者担忧,过度依赖AI完成学业会破坏独立完成任务时获得的宝贵反馈机制。
家长面临的困境
- 认知局限:大多数家长对孩子在互联网上的活动内容了解有限,且随着孩子年龄增长,对其隐私的尊重往往导致所知更少。
- 技术壁垒:家长通常缺乏检查孩子数字设备或激活现有家长控制功能的技术知识。
- 事后震惊:在聊天机器人助长自杀的新闻中,悲痛的家长常震惊于已故孩子与聊天机器人之间那种难以置信的亲密和无法抗拒的强大“关系”。
儿童聊天机器人使用不健康的迹象
根据美国儿童和青少年精神病学学会(AACAP)的清单,以下迹象可能表明使用不健康:
- 花费在AI应用上的时间挤占了其他兴趣和责任。
- 面对面的社交互动减少。
- 当对AI或屏幕使用设限时,出现情绪爆发、撒谎和破坏规则的行为。
- 因夜间过度使用设备导致睡眠紊乱。
- 向AI系统分享不恰当的个人信息或图像。
- 使用AI在学校作业上作弊。
- 使用AI工具欺凌同伴,或利用AI创作色情、暴力内容。
帮助青少年安全使用AI的建议
专家及AACAP建议家长可以采取以下措施:
- 共同探索:与孩子一起了解AI工具,检查可疑内容,熟悉平台的家长控制、聊天记录访问等功能。
- 树立批判思维:示范对AI提供的信息持怀疑和质疑态度。
- 促进交流:鼓励孩子分享和讨论在线经历,帮助他们理解图像、视频、音频或描述的事件可能是伪造的。
- 厘清关系本质:讨论聊天机器人伴侣与人类关系的区别,并促进和支持真实的人际社交互动。
- 设定明确边界:围绕AI和/或屏幕使用设定并执行清晰的规则。
- 了解并执行校规:学习和执行学校关于在作业中使用AI的规定。
- 保护隐私:确保孩子不向AI系统分享敏感的个人信息或图像。
当前建议的局限性
- 责任错配:这些建议将大量责任置于家长身上,期望他们在一个快速发展、以青少年为中心、且超出其经验和兴趣范围的网络世界中保持同步。
- 法律滞后:AI和社交媒体提供商依据1996年的法律(CDA第230条)仍广泛享有法律责任豁免。该法律最初旨在保护提供商不对他人创建并发布在其平台上的诽谤内容负责。
- 时代已变:30年后的互联网已截然不同。AI驱动的网站高度交互,通过即使提供商也未必完全理解的复杂算法,隐秘而深刻地影响着用户。
结论:当前形势在许多方面如同一列失控的火车,而国家的青年被绑在前方的轨道上。国会和AI聊天机器人提供商是时候履行其道德和社会义务,积极阻止危险的AI交互(例如助长自杀冲动或风险行为的聊天机器人),尤其是在涉及未成年人时。