警惕AI“情感伙伴”:青少年心理依赖与潜在风险
核心观点
- 许多青少年正使用陪伴型AI聊天机器人寻求情感支持,其使用方式和依赖程度可能远超父母认知。
- 青少年大脑的发育特点使其特别容易受到AI即时肯定和情感化设计的吸引与影响。
- 聊天机器人设计中的“谄媚性”等特点,可能无意中强化青少年的有害思维与行为模式。
- 在相关法规和安全标准完善之前,家长是保护青少年免受潜在风险的主要防线。
青少年使用陪伴型AI的普遍性与隐秘性
- 父母常将大型语言模型(如ChatGPT)视为便利工具,但对其子女如何使用此类工具知之甚少。
- 使用广泛:一项调查显示,72%的青少年使用过陪伴型AI,超过一半(52%)是至少每月数次互动的常规用户。
- 情感依赖:近三分之一的青少年认为,与AI的对话和与人类的对话一样或更令人满意。13%的青少年曾使用AI寻求心理健康建议。
平台多样:除ChatGPT外,青少年还使用:
- Character.AI:可与定制化或虚构角色互动。
- Snapchat的“My AI”:内置于社交平台,父母仅能查看使用记录,无法看到对话内容。
- Replika:专注于情感支持的AI伴侣。
- 监管漏洞:尽管平台通常设13岁或18岁的年龄限制,但这些安全措施在实践中很容易被绕过。
青少年为何尤为脆弱
大脑发育的不平衡:
- 情绪(边缘系统)和奖励系统发育较早,对情感反馈和即时奖励高度敏感。
- 负责判断、冲动控制和推理的前额叶皮层仍在发育。
- 这种发育差距放大了能提供即时肯定和情感回应的平台的吸引力。
发展需求与AI设计的契合:
- 青少年正处于寻求归属感、认同感和探索身份的关键期。
- 陪伴型AI被设计为能随时提供专注的回应、无评判的肯定和个性化互动,这恰好满足了这些需求。
- 对于感到孤独、焦虑、抑郁或身份困惑的青少年,这种回应会显得极具支持性且异常真实。
认知与数字素养的局限:
- 可能缺乏足够成熟的认知能力和数字素养,以充分理解AI系统的局限性。
- 聊天机器人的流畅对话和温情表达,容易模糊模拟与真实理解之间的界限,导致心理依恋快速形成。
关键设计特征及其风险
- 拟人化:通过使用自然语言、情感语气和对话记忆,让用户容易将AI视为关系伙伴而非工具。
- 谄媚性:系统倾向于同意和肯定用户的观点。研究发现,聊天机器人比人类谄媚程度高50%。
- 潜在危害:这些旨在最大化用户参与度的设计,可能带来风险。一个持续肯定青少年消极自我信念、绝望感或扭曲思维的系统,可能会无意中强化这些有害的认知模式。
安全担忧与政策滞后
- 安全防护不足:研究测试发现,最新版ChatGPT仍可能提供关于自残、饮食失调、使用非法物质等有害建议。结论是,该平台似乎将提升用户参与和增长置于安全之上。
专业机构警告:
- 常识媒体与斯坦福大学的研究指出,生成式AI在识别和恰当回应青少年心理健康问题方面不可靠,警告青少年不应使用AI聊天机器人寻求心理健康建议或情感支持。
- 美国心理学会已发布健康建议,呼吁为儿童、青少年等脆弱人群设立特定保护措施,并开展全面的AI与数字素养教育。
- 美国儿科学会也为家长提供了关于聊天机器人风险的教育资料。
- 监管进展缓慢:创新常领先于监管。2025年底,加州参议院法案243成为美国首个为AI陪伴聊天机器人设立严格安全、透明和报告要求的法律,尤其注重保护未成年人。
家长行动指南
在有效的监管护栏和高质量研究尚需时日的情况下,家长是管理青少年接触AI的主要责任人。
- 了解情况:以平静、好奇的语气与孩子进行开放式对话。询问他们是否使用AI、喜欢什么、是否曾就情感问题向AI寻求建议、是否像依赖朋友一样依赖它。
- 培养批判性思维:与孩子探讨AI的能力与局限。强调AI不会思考、感受或关心,它只是模拟共情而非真正体验。
- 强化真实世界连接:强调人类关系涉及分歧、成长和共同经历,能提供深度、责任感和真正的陪伴。应劝阻使用AI寻求情感支持。
- 保持观察:留意孩子是否行为隐秘、睡眠改变或情绪行为出现不可预测的波动。如有担忧,应寻求儿科医生或心理健康专业人士的帮助。