标签 人工智能伦理 下的文章

核心观点

  • 在判断可信度之前,必须理解信任的真正含义。
  • 信任源于人际关系,而非数字概率函数。
  • 关于信任最深刻的阐述,存在于伟大的文学作品(如荷马的《奥德赛》)中。

人工智能倡导者对信任的误解

  • 人工智能(尤其是其利益相关者)常谈论创造和销售“值得信赖”的AI产品。
  • 这种说法暴露了他们对信任本质及如何获得信任的深刻误解。
  • 要获得对信任的深刻洞察,不应看向硅谷的营销话术,而应求助于经受住时间考验的文化资源。

《奥德赛》中的信任启示

故事背景:漫长的分离与考验

  • 奥德修斯:历经特洛伊战争10年及归家航程10年,饱经磨难后终于回到伊萨卡。
  • 佩涅洛佩:虽未离开家园,但因求婚者的侵扰与家园的衰败,家园对她而言也已陌生。
  • 归家后的困境

    • 儿子特勒马科斯在缺乏父亲教导的环境中长大。
    • 妻子被一百多名求婚者纠缠,被迫认为丈夫已死并改嫁。
    • 求婚者目无尊长、不敬神明,意图谋杀特勒马科斯,给伊萨卡带来混乱。

佩涅洛佩的智慧与考验

  • 她用“为公公织寿衣,白天织晚上拆”的计谋拖延时间。
  • 当自称奥德修斯的男人归来并杀死求婚者后,她并未立即相认,而是充满警惕。
  • 她的疑虑:

    • 如何确认眼前之人就是20年前离开的丈夫?
    • 漫长的岁月如何改变了他?
    • 他们无法简单地回到过去。

关键的“床”之考验

  • 佩涅洛佩的试探:她让女仆将婚床搬出卧室,供这位“陌生人”就寝。
  • 奥德修斯的反应:闻言勃然大怒,因为那张床是他用仍深植于土地的橄榄树树干制成,无法移动。
  • 信任的建立

    1. 认知确认:只有真正的奥德修斯才知道床的秘密。
    2. 情感印证:他的愤怒表明这张床对他意义依旧,也印证了他对妻子忠贞的期待。
    3. 心灵洞察:透过他的嫉妒与愤怒,佩涅洛佩看到了他内心深处对她的爱。
  • 结局:佩涅洛佩最终拥抱丈夫,两人通过分享分离期间的经历,重新结合为一体。

机器与信任的本质区别

  • 信任是关系性的:真正的信任基于人与人之间的独特关系、共同经历和情感联结。
  • 机器缺乏信任的基础

    • 机器没有“品格”,也不具备建立人际关系的人类能力。
    • 机器可以模仿人的反应,甚至欺骗他人,但它无法“在乎”其话语是否被真心接纳。
    • 机器不会“说谎”,只能说“不真实的话”。
  • 思想实验

    • 若归来的“奥德修斯”是完美的机器人,或奥德修斯面对的是完美模仿佩涅洛佩的机器人,他们或许会被欺骗,但永远无法建立真正的信任。
  • 核心结论:机器没有生命历程可以分享,因此不能被信任。我们或许可以对机器的可靠性产生“信心”,但这与人与人之间的“信任”有着本质的不同。

人工智能在心理咨询中的应用与伦理困境

核心观点:人工智能在心理健康领域的应用日益广泛,但缺乏明确的伦理规范与透明度。来访者有权知晓并同意其治疗师使用AI的方式,这是建立信任与专业关系的基石。


一个来访者的真实经历

  • 来访者迪娜发现其治疗师在未告知的情况下,使用AI来辅助制定治疗回应。
  • 她感到震惊、痛苦,并担忧其受保护的健康信息被泄露。
  • 治疗师承认判断失误并道歉,称使用AI是为了“确保对迪娜的治疗回应尽可能有帮助”,并保证未录音或泄露健康信息。
  • 迪娜感到被误导和背叛,质疑治疗师的专业能力,随即终止了治疗。

人工智能在心理健康领域的应用现状

  • 应用广泛性

    • AI已被来访者、治疗师及心理健康机构广泛使用。
    • 治疗师可能使用AI辅助制定治疗计划、构思措辞。
    • 机构将AI用于文书管理、培训、绩效跟踪、督导和数据分析。
  • 伦理与规范的滞后性

    • 心理健康专业人士和政策制定者在此领域的规范仍在“追赶”技术发展。
    • 一些州和专业协会正在增加AI使用的限制条款,但整体仍处于完善过程中。

伦理实践的核心要求

  • 透明与知情同意

    • 治疗师在使用AI辅助治疗内容前,必须完全透明,并事先获得来访者的书面同意(在许可的前提下)。
    • 这应基于其执业许可和所在地的规定。
  • 信息保护

    • 治疗对话内容和受保护的健康信息依法受到保护。
    • 当督导使用AI软件辅助受训者时,必须向客户明确解释此过程,或对信息进行加密/删除以保护隐私。

给来访者的关键建议

来访者应向当前或未来的治疗师提出以下问题,以保障自身权益:

“请详细告诉我,您和/或您的机构在规划、进行和管理心理治疗过程中,积极使用人工智能的所有方式。”

核心观点

  • 智能正变得充裕,而责任却变得稀缺。
  • AI 提供答案,但人类承担其后果。
  • 真正的风险可能不是更聪明的机器,而是人类的疏离与放弃参与

智能的范式转移:从稀缺到充裕

  • 历史上,智能是稀缺的,思考需要时间,认知过程存在摩擦,这赋予了思考实质与分量。
  • 人工智能使认知变得极其充裕:答案即时可得,模式轻松浮现,判断被技术性地打包并传递,其自信程度常超越人类。
  • 这不仅是技术进步,更标志着人类认知本身首次面临“过时”的曲线

取代思考:前所未有的挑战

  • 过去我们取代的是工具,但从未取代过思考
  • AI 并非像机器延伸肌肉那样延伸人类努力,而是占据了我们曾认为人类独有的领域:推理、综合、诠释。
  • 在许多领域,AI 的表现优于人类,这挑战了我们关于进步是缓慢、渐进的固有认知。

人类特区的消融

  • AI 已在从诊断到创造力的广泛任务中超越人类,这已成为现实。
  • 甚至长期被视为人类安全区的伦理道德,也比预想的更可被编码。

    • 道德约束可以被写下。
    • 权衡可以被形式化。
    • 禁令可以被规模化执行。
  • 一个耐人寻味的发现或许是:我们称之为道德推理的东西,比我们愿意承认的更具程序性

负担的转移:从洞察到问责

  • 关键问题不再是 AI 是否会变得认知上更优越(它已经是了),而是当智能本身改变类别时会发生什么。
  • 当智能变得充裕,其价值发生转移。稀缺的不再是认知,而是所有权
  • 根本性的转变是从洞察转向问责。重要的不再是答案,而是为这些答案引发的后果所承担的责任

智能的负担:疏离的代价

  • AI 越强大,疏离的代价就越高。一个强大系统的错误建议,其后果远比一个有限或可选工具的建议严重。
  • 正是在最危险的地方,委托给 AI 的诱惑最大。AI 越聪明,人类越容易退后一步,而这样做的代价也越高。
  • 人类智能的新定义:不再是产生更好的答案,而是承担那些并非完全由我们生成、甚至不完全理解的答案所带来的后果
  • 我们许多人已感受到这种不适:认可一个未经自己推理的建议,或为一个感觉正确却来自别处的结论辩护。这正是责任完全落在我们肩上的时刻。
这种不适感并非失败,而是缺乏作者身份的智能所带来的感受。

保持认知在场:必要的坚守

  • 这种负担要求我们在旨在让人类参与显得不必要的系统中,保持 “认知在场”
  • 它要求我们在自动化邀请我们放弃的时刻,依然保持问责
  • 这可能会将我们推向决策的边缘,而边缘地带至关重要——价值观在此碰撞,损害在此累积,人类的参与在此从一种选择变为一种必需

真正的风险与人类的回应

  • AI 的真正风险并非机器比我们更会思考,而是思考开始让人觉得不需要我们参与就已完成
  • 如果人类认知正在被削弱,回应不能是事后补救或怀旧,而必须是警惕——一种持续的、需要努力的拒绝疏离,仅仅因为智能不再需要我们的参与。
  • 警惕不是在旁观,而是在那些没有我们也能完美运行的技术内部,保持认知在场

未来的考验:责任而非智能

  • 智能的未来不是心智之间的竞赛,而是对人类的考验:在一个智能不再需要人类便能运转的世界里,人类是否愿意继续保持“应负责任”
  • 智能的负担不在于维护人类的优先地位,而在于拒绝仅仅因为思考变得容易就放弃责任
  • 无论我们的机器变得多么智能,这种负担都不会消失。

核心观点

人工智能(尤其是生成式AI)通过提供流畅、连贯且看似深刻的回应,创造了一种“认知舒适区”。这种舒适感可能导致我们无意识地陷入 “Amathia” 状态——一种源于古希腊的概念,指“自信的盲目”,即听起来聪明却错失要义。其核心风险并非AI的恶意欺骗,而是人类在便捷中主动放弃了审慎的判断与真正的思考,让技术的“流畅性”替代了需要费力才能获得的“真知”。


Amathia:自信的盲目

  • 定义:Amathia 并非指愚蠢,而是一种 “自信的盲目”
  • 特征

    • 能够听起来很有智慧,却错失了真正重要的东西。
    • 一种道德或认知上的失误,因其常被误认为是清晰或智慧而难以察觉。
  • 与现代AI的关联:当前AI工具所诱发的认知状态,正是Amathia的新形态。

AI诱发的“三重幻觉”

AI工具通过消除思考的“摩擦力”,让我们自我欺骗。这种欺骗表现为三种幻觉:

  1. 流畅感被误认为是理解
  2. 连贯性被当作是真理
  3. 表面的精致被巧妙地伪装成深刻的见解

这些幻觉的根源并非恶意,而是 “舒适” 。正是这种对努力的悄然(甚至阴险的)消解,钝化了我们心智中原本坚持质疑与反思的部分。


从工具到认知环境:思维的“悬浮”

  • 本质转变:AI已从一种工具演变为我们沉浸其中的 “认知环境”
  • 体验:身处其中,思维感觉更轻快,想法流动更快,甚至在我们自身推理成型前,草稿就已形成。
  • 风险

    • 当智力活动显得毫不费力时,辨别力就成了可选项。
    • 当答案以“初稿即完成”的姿态出现时,我们很容易从人类缓慢、坎坷的判断工作中漂离。

Amathia在当下的具体表现

  • 接受AI清晰的连贯性,却不追问其来源。
  • 感觉内心仍有不安,却同意一个打磨光滑的答案。
  • 团队通过让模型“定调”来 shortcut(走捷径)集体思考,达成虚假共识。
  • 信任模型的语调胜过自己的判断。

核心危险:思维的无声让渡

  • 危险根源:危险不在于AI会产生意图,而在于我们可能 停止注意到自己何时放弃了意图
  • 关键区别

    • 古希腊人担心的是那些误解“善”却听起来很有说服力的人。
    • 如今,我们拥有听起来有说服力却与“善”毫无关系的AI。
  • 根本风险:我们可能漂向一种 “借来的清晰” 。这种清晰并非我们通过努力获得,却因其伴随的便捷与舒适而被我们轻易接受。

挑战与反思:在舒适中保持清醒

  • 问题的本质:Amathia 不是技术缺陷,而是 人性缺陷。只是如今,它能通过一个承诺让我们更聪明的媒介来传播。
  • 双重影响:AI无疑提升了我们,但它那种“稳定”的支持方式也可能钝化我们自身的能力。
  • 核心问题:关键不在于技术未来会变成什么,而在于 习惯了其平滑性的我们,有变成什么样的风险
  • 前行之路:未来的挑战不仅在于监管机器,更在于 在它提供的舒适中保持清醒