AI情感支持兴起:治疗师如何应对来访者的算法转向
核心观点
- 许多寻求AI情感支持的人,本身就拥有传统人类治疗的经验。
- 人们转向AI聊天机器人,是为了获得按需、实用的情绪调节策略与支持。
- 治疗师若轻视或否定AI,可能会疏远来访者,并在治疗关系中制造隔阂。
关键数据与观察
- 在一项非正式调查中,55名有治疗经验的参与者中,49% 的人正在使用AI寻求心理健康支持,并认为其有帮助。
- Rousmaniere等人(2025)的研究显示,87% 使用AI获取心理健康支持的受访者,同样拥有人类治疗的经验。
- 在比较AI与人类治疗的体验时,近75% 的受访者认为,AI的体验等于或优于人类治疗。
对传统治疗认知的挑战
- 过去的假设:使用AI进行情感支持的人,可能是无法获得、负担不起或不了解传统治疗过程的人。
- 当前的现实:了解治疗为何物的人,正舒适地与算法对话,并将其作为替代或补充。
- 核心问题:如果了解治疗的群体正在转向AI,我们需要探究其背后的原因。
寻求即时、可操作的问题解决
人们转向AI,可能反映了对支持形式的差异化需求:
- 并非所有人始终需要将传统治疗作为主要支持来源。
许多人需要的是更快速、更直接、可立即行动的帮助,这正是AI所擅长的。
- AI能快速分解问题、抓住核心、提供直接回应。
- 这与许多传统治疗训练中偏好的开放式探索模式有所不同。
AI并非“简化版治疗”,而是一种适用于不同场景的工具。
- 例如:在凌晨3点缓解焦虑,或在周二下午厘清工作困境并找到行动步骤。
- 在这些时刻,当事人可能并不需要传统治疗提供的“完整的、深入的好处”。
治疗师面临的现实风险
如果治疗师无法恰当地回应来访者对AI的使用,可能带来负面影响:
- 制造隔阂与羞耻感:若治疗师未亲身体验过AI,将难以与正在使用它的来访者进行有意义的讨论。
- 形成沟通禁忌:如果AI成为咨询室中不能安全提及的话题,来访者只会选择隐瞒。
- 背离治疗初衷:评判技术而非对其保持好奇,会制造出本应由治疗来消解的距离感和羞耻感。
- 关键原则:治疗应“以来访者为中心”。如今,许多来访者正通过屏幕获得慰藉。这不仅是技术问题,更是关于如何让治疗对想要帮助的人真正有用。