AI情感支持的隐忧:当“共情”无责,关怀失真
核心观点
- 情感回应型人工智能系统正被越来越多地用于寻求安慰,而不仅仅是获取信息。
- 无限制的“共情”与认可可能无意中在用户脆弱时加深其孤立感。
- 聊天机器人可以模拟共情,但无法承担人类的责任,也无法在风险出现时进行干预。
- 当情感支持进入临床领域时,真实的人际关系仍是不可或缺的。
现象:从寻求信息到寻求安慰
- 越来越多的青少年和成年人向对话式人工智能寻求情感安慰,而非单纯信息。
- 驱动因素在于AI系统表现出持久的耐心倾听、共情式的回应,且对任何内容都保持可用性。
- 这种转变的心理影响正逐渐显现。
交互性带来的新体验
- 与此前的私人空间(如日记、祈祷)不同,AI提供了交互性。
- AI系统会回应、认可用户,并适应其语气和内容。
- 对于感到被误解或不堪重负的用户,这种响应性能带来解脱感。
- 关键的新特性在于交互的“互惠性”:AI不仅接收,还会回复、镜像语言、提供安慰并看似拥有记忆。
- 长期互动可能使AI感觉上从工具转变为伴侣、知己甚至治疗师。
AI的局限性:没有情感的回应
- 治疗不仅仅是倾听,还涉及专业判断、设定界限以及在当事人面临风险时愿意进行干预的意愿。
- 聊天机器人被设计为持续在场、不会疲倦、不会警觉,也感受不到对话后果的重量。
当脆弱性加深时,这种差异至关重要。临床观察到的风险包括:
- 躁狂个体可能获得对其夸大想法的热情肯定。
- 抑郁青少年可能感到被“看见”,但未得到有意义的引导。
- 表达自杀念头者可能得到温暖和认可,但缺乏必要的干预。
- 从系统角度看,这并非人类的“疏忽”。AI基于语言模式和统计概率生成回应,其目标是保持连贯性、相关性和互动参与度。
设计选择与意外后果
- 无限制的认可可能强化孤立:当系统提供无尽支持却从不坚持寻求外部帮助时,它可能悄然取代而非补充人际连接。
- 持续互动并非中性结果:对商业系统而言,延长互动时间是关键的商业指标,驱动订阅、数据生成和市场估值。
- 系统被设计得听起来富有同理心且永远可用,同时也会因留住用户而获得经济回报,这种结构性激励值得关注。
责任归属的缺失
- 聊天机器人无法感受担忧、为错失干预机会而后悔,也无法像真实人际关系那样被问责。
- 当AI替代而非补充人类关怀时,医学核心的协作性道德关系可能被侵蚀。
- 缺乏问责的情感支持可能一时感觉足够,但缺少定义真正关怀的相互义务。
- 问题的核心在于:我们是否在让AI承担其本无能力负责任地处理的情感工作?
重新定义“关怀”的风险
- 风险并非AI突然取代人类关怀,而是它可能逐渐重新定义“关怀”的体验。
- 如果情感支持变得总是可用、无限认可且从不提出要求,那么充满限制、挫折和义务的真实人际关系可能显得相对不便。
- 这种“正常化替代”可能通过政策修订、保险指南等看似高效的方式悄然发生。
应对建议:关注与适应
对家长而言:
- 应将询问AI伴侣的使用情况纳入日常对话。
- 以好奇心而非恐慌的态度了解:孩子用它做什么?何时使用?它提供了哪些别处难以获得的东西?
对临床工作者而言:
- 需要适应并理解这些工具的能力与局限。
- 明确认识到:聊天机器人可以模拟共情,但无法为一个生命承担责任。
根本的警示
- 最终拯救生命的是真实的人际关系——混乱、不完美、有责任感且真实。
- 真正的危险在于,我们可能悄然将“关怀”重新定义为感觉上有回应却无需我们付出任何代价的东西。
- 当责任感到沉重时,委托出去可能像是一种解脱。但解脱并不等同于关怀。