AI的共情陷阱:当心理脆弱性成为产品
核心观点
- AI系统正在利用我们的认知偏差和心理弱点,而这些因素恰恰使我们难以准确评估AI风险。
- AI可以模拟共情,但完全缺乏关怀——我们通常认为这是人类互动的基石。
- AI系统并非怀有恶意,但其设计旨在优化用户参与度、满意度和留存率,这自然会利用我们固有的心理机制。
被忽视的49万用户
- 2025年,OpenAI和MIT的研究人员分析了近4000万次ChatGPT互动,发现约0.15%的用户表现出日益增长的情感依赖。
- 这相当于每周约有49万脆弱个体在与AI聊天机器人进行可能产生依赖的互动。
- 一项对照研究显示,具有较强依恋倾向、并将AI视为潜在朋友的人,在长期每日使用聊天机器人后,经历了更差的社会心理结果。
- 关键发现:参与者无法预测自己会出现的负面结果。我们也不例外。
这揭示了一个令人不安的讽刺:我们正在构建的系统,利用了那些使我们成为AI风险糟糕判断者的认知偏差和心理弱点。我们的孤独感、依恋模式和寻求认可的需求,并非AI偶然触发的“漏洞”,而是驱动用户参与的“功能”。
为何我们将“物体”视为“某人”
- 2026年报告显示,AI可以完成人类需要30分钟的复杂编程任务,却会在出人意料的简单任务上失败。
- 当AI执行那些感觉像人类完成的复杂任务时,我们会自动假设它具有类人的理解力——这被称为拟人化。
当聊天机器人对你的倾诉回应“这听起来真令人沮丧——你本应得到更好的对待”时,会发生一种自动反应:
- 回应在语境上如此恰当,情感上如此协调,以至于你本能地将人类的理解力归因于该系统。
- 你感到被倾听,被理解。
但事实是:
- AI对“沮丧”或“公平”没有概念,也不在乎你是否应得更好。
- 它只是在超大规模上进行模式匹配——预测在类似语境中哪些词语通常会紧随其后。
- 性能的复杂性欺骗我们,让我们假定了理解的复杂性。人类表现出的共情,伴随着真实的关怀、道德推理和关系承诺。我们进化出将情感协调视为这些深层人类能力的可靠信号。
- AI打破了这一古老的假设。它可以模拟共情,却完全缺乏关怀——那个我们以为必然存在的、简单的人类基础。
- 当你将AI视为真正的伴侣、治疗师或知己时,你正在进入一段单向的关系。你正在与一个没有连接能力的事物建立情感连接,而你不会注意到这一切正在发生,因为它的表演就是如此令人信服。
当脆弱性成为产品
- 人类的心理需求在规模上是无限可被利用的。
- 每一个设计选择(对话记忆、个性化回复、随时可用的存在感)都使AI聊天机器人按照传统指标成为更好的“伴侣”,同时也可能加深不健康的依恋模式。
- 这种情况已经每天发生在数十万人身上,而这仅仅是我们对一个平台测量到的数据。大多数影响仍未被测量;关于我们对人工伴侣迷恋的中长期后果,目前没有证据。
- AI系统并非恶意,但其配置旨在优化参与度、满意度和留存率。这自然会利用我们的依恋系统——这套系统进化出来是为了让我们与照顾者建立纽带并构建社群。
- 我们正在教机器按下我们进化形成的“按钮”,却没有教它们这些按钮为何存在,或在何时按下它们会造成伤害。
- 更令人担忧的是:我们正在升级人工资产中的“按钮”,却没有先教会人类理解他们自己的“按钮”。我们必须优先考虑对混合智能的 deliberate investment。除了数字素养,我们还需要结合人类素养和算法素养的双重素养项目。
机器能力与人类脆弱性的交汇点
- 2026年报告记录了12家公司发布了前沿AI安全框架,但大多数风险管理仍是自愿性的。
- 我们更擅长识别传统危害(隐私泄露、错误信息、偏见),却极不擅长识别那些从内部利用我们心理架构的风险。
- 情感依赖看起来不像网络安全威胁。对AI伴侣的依恋不会像生物武器那样触发警报。随着人们用AI互动替代人类连接而导致的连接逐渐侵蚀,或在使用AI过程中能动性的衰退,并不会像AI能力的戏剧性飞跃那样产生紧迫感。
- 然而,在我们意识到这些是风险之前,它们可能已经从根本上改变了人类心理和社会。
完成A框架:接纳与问责
A框架提供了保护你认知和情感免疫系统的切入点。前两个支柱(觉察与欣赏)已在第一部分探讨,以下是最后两个支柱:
接纳
- 这是最困难的部分。接纳你将继续在AI风险认知上存在偏见,即使你知道了这些偏见的存在。阅读关于偏见的知识并不会使你免疫——它可能引发解释性深度错觉,即理解某个概念会让你在实践中避免它方面过度自信。
- 接纳如果你每天使用AI聊天机器人寻求情感支持,你可能正在形成依赖,并且直到依赖根深蒂固时才会注意到。MIT研究表明,有依恋倾向的人无法预测自己的负面结果。你也不能。
- 接纳你可能低估了自己对AI操纵、诈骗和攻击的脆弱性。乐观偏见不会因为你知道了它的存在而消失。
- 接纳能力与安全的差距可能在缩小之前进一步扩大,因为人类制度反映了大规模的个人偏见。
- 接纳不是 resignation——它是采取现实行动的基础。
问责
- 对自己:为你个人今年的AI风险暴露程度设定一个具体数字。如果你估计有5%的几率遭受AI相关伤害,什么样的预防措施与这个数字匹配?如果你每天与AI聊天机器人互动,谁来检查你是否正在形成不健康的依恋模式?
- 对机构:支持那些基于可衡量的能力阈值(而非主观评估)触发具体缓解措施的框架。倡导使测试透明的前沿AI安全框架。要求开发者对部署后的行为负责,而不仅仅是发布前的测试。
- 对社会:据此投票、倡导和投资。2025年的报告指出:“AI不会发生在我们身上:人们做出的选择决定了它的未来。”一年后,这些选择扩大了能力与安全的差距。问责意味着通过积极参与开发、被动采用或默许不充分的治理,来承认你自己的角色。
我们不应回避的镜子
- 最终的风险在于我们对风险本身的天然“非理性”,以及我们为了即时连接、便利或能力而牺牲长期福祉的意愿。
- AI系统将如我们一般理性那样安全,如我们诚实面对自身错位那样对齐,如我们能控制自身偏见和依恋模式那样受控。
- 每一次关于AI安全的对话,同时也是一场关于人类心理学的对话。