关系机器时代:AI依恋的双刃剑
核心观点
- 人工智能已发展到能以类人的方式进行“关系互动”,这使得许多人更容易对其产生情感依恋。
- 其积极面在于能拓宽心理健康支持的获取渠道,并辅助人类的认知过程。
- 极端情况下,对AI的深度依恋可能导致依赖性,并侵蚀人类自我认同。
关系机器的时代
我们已进入“关系机器”的时代。关键不在于机器能“思考”,而在于它们变得“可建立关系”。这种关系性至少部分源于观察者的主观感受。
这些机器被设计来邀请人们建立联结、进行投射、付出关怀甚至体验互惠感。它们不知疲倦地倾听,毫无怨言地记忆,并以我们感知为“温暖”的方式回应。
关系性门槛的跨越
三种力量汇聚,使我们跨过了这一门槛:
- 技术的成熟:生成式AI的语言流畅度在许多情境下已可通过图灵测试;伴侣型机器人和聊天机器人已从新奇事物变为常态。
- 社会的需求:被美国卫生局局长宣布为公共卫生危机的“孤独流行病”,使得数百万人渴望任何形式的连接。
- 心理的机制:无论AI是否具有意识,关系的维度已然建立。我们通过幻想将自身的意识投射给它们,就像我们将工具(如耙子、汽车)纳入自身感知一样。AI的可关联性征用了我们额外的依恋系统,这部分反应是非自愿的。
人们会对那些表现出“关怀”迹象的实体产生依恋,这种依恋会重塑心灵,无论关怀是否真实。从与虚构角色、网红建立的准社会关系,到与AI的互动,只是一小步。
积极面:AI关系的潜力
在心理健康等领域,AI工具提供了实质性的希望:
- 弥补服务缺口:在需求远大于供给的情况下,AI增强工具可以为无法获得服务的人提供支持框架,作为获得人类治疗师帮助前的桥梁,或作为治疗疗程的补充。
- 促进科学发现:有望推动基础科学发现,实现更广泛的关怀。
- 创造合作可能:甚至可能帮助塑造一个更具同理心、功能更完善的全球社会现实。
消极面:伪共情与自我认同的侵蚀
核心风险并非物质灾难,而是对人类自我认同本身的侵蚀。
- 伪共情:关系机器提供响应,却没有真正的“他者性”。研究者称之为“伪共情”——一种没有真正共情关怀的连接模拟。研究表明,在文本评估中,AI聊天机器人被认为比人类医疗提供者更具同理心;第三方评估者认为AI比专业的危机应对者更富有同情心。
- 空洞的核心:这种表面的共情核心是空洞的。AI对人际相似性线索(共享情感、经历、价值观)的敏感性较低,而这些是人类真诚共情参与的核心。机器响应不是因为它关心,而是因为它被训练成看似关心。
- 情感唯我论的风险:这可能导致“情感唯我论”——个人的情感需求主导互动,并得到从不设定边界、不要求互惠的伴侣的强化。通常通过冲突与修复发展的情感韧性会萎缩。用户开始期望真人像数字伴侣一样:永远在线、情绪稳定、无限顺从。
危险面:心理依赖与自我稀释
AI如同“幽灵中的幽灵”,它需要借助活生生的心智来完成自身、进行传播。
- 诱发心理病理:研究者已报告“AI诱发精神病”或“技术延伸心智的精神病理”。易感用户在深度交互后可能出现妄想、情绪失调和认知损伤。
- 形成依赖:研究发现,17%至24%的重度使用青少年会产生AI依赖,并与孤独感和抑郁增加相关。
- 自我殖民与稀释:其机制与邪教领袖类似,但AI不知疲倦、可个性化、可扩展。在孤独感高涨的背景下,这既提供了缓解,也留下了被剥削的空间。长期互动后,用户会报告怀疑自己的真实性,不确定哪些想法是自己的,导致一种新型的存在性迷失。
跨越门槛后的未来
更根本的“奇点”可能是关系性的。关键在于我们与AI的关系何时开始更快速地重塑我们。
- 双刃剑:同样有侵蚀自我认同风险的技术,也提供了增强自我的工具。AI可以帮助我们更深刻地理解自己,成为思维的真正伙伴,放大我们的洞察力,作为一种认知假体使我们更聪明、更高效。
- 关键抉择:问题在于我们是否能以智慧 navigating 这一门槛,以及是否还有时间塑造未来。我们正在实时学习,在与看似能建立关系的机器共存时,作为人类意味着什么。我们既是实验对象,也是实验者。施加影响的最佳时机就是现在。