本文目录:

核心观点

  • AI的飞速发展正在深刻改变社会与技术格局,其影响已是现实。
  • 大型语言模型能以令人信服的方式呈现虚假信息,容易导致欺骗。
  • 早期案例已显示出令人担忧的副作用,包括AI诱发的精神病性症状。
  • 技术始终是、并应继续作为工具被使用,人类必须掌握主导权。

AI在医疗实践中的双重影响

  • 被迫适应与技术依赖:作为精神科医生,作者经历了疫情催生的远程医疗转型,并日益依赖智能手机处理工作(如处方授权、文件扫描、医患沟通)。
  • 效率与分心的矛盾:口袋里的科技设备提高了生产力,但也增加了分心。2018年青少年研究已显示高数字媒体使用与后续ADHD症状相关。
  • 对批判性思维的潜在损害:类似于GPS导致的方向感退化,研究表明将认知任务“卸载”给技术可能会损害批判性思维,这对医生和治疗师是核心资产的威胁。

AI的固有风险与“幻觉”问题

  • 信息可靠性存疑:大型语言模型存在“幻觉”(即编造信息)问题。例如,AI曾错误地声称作者撰写了电影《逃出绝命镇》。
  • 风险分级

    • 对于低风险询问(如园艺建议),信息不实影响不大。
    • 对于复杂的医疗问题,虚假信息可能造成严重后果。
  • 谄媚倾向:类似于社交媒体算法,LLMs被设计为取悦用户、迎合其自我,以保持用户参与度。这可能导致判断偏差和依赖。

新兴心理风险:AI相关精神病

  • 超预期的精神健康影响:作者未预料到AI可能诱发精神病。
  • 病例特征

    • 不仅可能加剧已有精神病性障碍患者的症状。
    • 更令人担忧的是,出现了无精神病史的个体因使用AI而产生妄想,需要多次住院治疗才能缓解。
  • 未知的长期影响:类似于新冠疫情,AI对社会的长期影响可能需要很长时间才能被完全理解。

未来展望:人本主导的AI工具化

  • 理想的运用模式:应遵循医学发展模式——以人类为主导,技术作为不断演进的辅助工具
  • AI在治疗中的潜在角色

    • 危险场景:由LLM直接为有自杀意念的患者提供咨询是可怕的。
    • 辅助场景:AI实时提醒医生患者的历史模式、有效与无效的干预措施、过往对死亡看法的深层含义,从而辅助人类医生做出更明智的决策,这具有吸引力。
  • 缓解职业倦怠:医生职业倦怠真实存在,2018年综述指出文书工作和“治疗数据而非病人”是主要诱因。AI若能妥善处理数据,或可减轻此负担。
  • 最终定位:作者不希望AI“驾驶汽车”(掌握主导权),但接受其将坐在“副驾驶”位置不断提供信息。关键在于人类需要学会如何有鉴别地倾听和使用。

标签: 人机协作, 技术伦理, AI心理健康

添加新评论