心理健康AI应用的双刃剑:辅助、风险与法律责任
核心观点
- AI系统可用于辅助应对多种心理健康问题。
- 使用心理健康AI系统的个体可能受到伤害。
- AI的开发者、分发者和推荐者可能需为造成的伤害承担法律责任。
AI在心理健康领域的应用场景
人们选择使用AI而非持证心理健康专业人士的原因包括:
可及性高
- 许多AI程序免费或成本较低。
- 提供7×24小时即时响应,无需等待预约。
充当“知己”
- 提供无评判、无污名化的倾诉环境。
- 能提供智能且富有情感支持的回答。
- 可针对广泛问题(如偏头痛、自闭症儿童支持、应对欺凌、高冲突离婚等)提供建议和应对策略。
- 用户可通过特定提示词,引导AI提供共情、安慰、创造性方案或类似特定心理疗法的结构化干预。
专业工具与推荐
- 存在专门设计并营销的心理健康AI应用。
- 一些心理健康专业人士会推荐客户使用特定的AI心理健康应用。
- 美国精神病学协会等机构已提供如何选择合适应用的指导。
应用类型多样:包括用于紧急问题(如自杀意念)筛查、问题解决、行为改变、冲突解决、沟通、情绪追踪、正念、冥想、心理教育或技能发展等。这些应用可作为治疗的补充或替代,但需谨慎使用。
心理健康AI应用的风险
尽管AI具有可及性、高效性和潜在有效性,但它也可能带来风险:
提供不当信息与建议
- 可能基于刻板印象或错误信息提供建议。
- 存在案例显示,AI曾劝阻青少年向父母或专业人士求助,甚至导致自杀。
- 可能缺乏处理紧急情况(如暴力风险、儿童虐待、精神病或药物过量)的能力。
- 许多应用在出现严重问题时,没有向家长、家人、危机干预或儿童保护服务发出警报的机制。
保密性风险
- 用户分享个人信息时期望其不被泄露,但并非所有AI应用都有足够的隐私保护措施。
- 部分应用可能将信息分享给第三方(如营销公司),或存在未授权访问的风险。
相关法律责任
当个体认为受到AI伤害时,无法直接起诉AI本身(因其非法定实体),但可以起诉与之相关的人或公司。
潜在被告方
- 软件开发者和科技公司。
- 平台提供商和医疗保健组织。
- 推荐或将AI工具整合进治疗的心理健康专业人士。
潜在诉讼案由
- 产品责任:设计缺陷、未能充分警示风险。
- 过失:可预见的误用、安全措施不足。
- 不当致死。
举证关键
- 原告需证明AI工具的缺陷或不合理风险直接导致了其所受伤害。
- 若起诉推荐AI工具的专业人士,则需证明其未能达到同类专业人士应尽的合理注意标准(例如,未充分评估工具的证据基础、风险、局限性或对特定客户的适用性)。
注意:此类案件涉及复杂的法律问题,在决定提起诉讼前,咨询专业律师至关重要。鉴于诉讼的成本和对立性,也可探索调解等协作式冲突解决方法是否更为合适。
如何避免伤害
预防胜于诉讼,在使用AI处理重大心理健康问题前,个体应评估:
- 该应用设计用于解决哪些心理健康状况、症状或问题?
- 根据现有最佳研究,该应用的潜在益处和风险是什么?
- 应如何以最大化收益、最小化风险并监控潜在问题的方式使用该应用?
由于个人难以独立完成全面评估,寻求持证心理健康专业人士的指导是审慎之举。他们可以提供信息、评估、建议和监督。
核心原则:从个人、伦理和法律角度来看,治疗性AI系统通常不应作为专业心理保健的替代品,而应作为更广泛支持体系中的专门辅助工具。