标签 认知在场 下的文章

核心观点

  • 智能正变得充裕,而责任却变得稀缺。
  • AI 提供答案,但人类承担其后果。
  • 真正的风险可能不是更聪明的机器,而是人类的疏离与放弃参与

智能的范式转移:从稀缺到充裕

  • 历史上,智能是稀缺的,思考需要时间,认知过程存在摩擦,这赋予了思考实质与分量。
  • 人工智能使认知变得极其充裕:答案即时可得,模式轻松浮现,判断被技术性地打包并传递,其自信程度常超越人类。
  • 这不仅是技术进步,更标志着人类认知本身首次面临“过时”的曲线

取代思考:前所未有的挑战

  • 过去我们取代的是工具,但从未取代过思考
  • AI 并非像机器延伸肌肉那样延伸人类努力,而是占据了我们曾认为人类独有的领域:推理、综合、诠释。
  • 在许多领域,AI 的表现优于人类,这挑战了我们关于进步是缓慢、渐进的固有认知。

人类特区的消融

  • AI 已在从诊断到创造力的广泛任务中超越人类,这已成为现实。
  • 甚至长期被视为人类安全区的伦理道德,也比预想的更可被编码。

    • 道德约束可以被写下。
    • 权衡可以被形式化。
    • 禁令可以被规模化执行。
  • 一个耐人寻味的发现或许是:我们称之为道德推理的东西,比我们愿意承认的更具程序性

负担的转移:从洞察到问责

  • 关键问题不再是 AI 是否会变得认知上更优越(它已经是了),而是当智能本身改变类别时会发生什么。
  • 当智能变得充裕,其价值发生转移。稀缺的不再是认知,而是所有权
  • 根本性的转变是从洞察转向问责。重要的不再是答案,而是为这些答案引发的后果所承担的责任

智能的负担:疏离的代价

  • AI 越强大,疏离的代价就越高。一个强大系统的错误建议,其后果远比一个有限或可选工具的建议严重。
  • 正是在最危险的地方,委托给 AI 的诱惑最大。AI 越聪明,人类越容易退后一步,而这样做的代价也越高。
  • 人类智能的新定义:不再是产生更好的答案,而是承担那些并非完全由我们生成、甚至不完全理解的答案所带来的后果
  • 我们许多人已感受到这种不适:认可一个未经自己推理的建议,或为一个感觉正确却来自别处的结论辩护。这正是责任完全落在我们肩上的时刻。
这种不适感并非失败,而是缺乏作者身份的智能所带来的感受。

保持认知在场:必要的坚守

  • 这种负担要求我们在旨在让人类参与显得不必要的系统中,保持 “认知在场”
  • 它要求我们在自动化邀请我们放弃的时刻,依然保持问责
  • 这可能会将我们推向决策的边缘,而边缘地带至关重要——价值观在此碰撞,损害在此累积,人类的参与在此从一种选择变为一种必需

真正的风险与人类的回应

  • AI 的真正风险并非机器比我们更会思考,而是思考开始让人觉得不需要我们参与就已完成
  • 如果人类认知正在被削弱,回应不能是事后补救或怀旧,而必须是警惕——一种持续的、需要努力的拒绝疏离,仅仅因为智能不再需要我们的参与。
  • 警惕不是在旁观,而是在那些没有我们也能完美运行的技术内部,保持认知在场

未来的考验:责任而非智能

  • 智能的未来不是心智之间的竞赛,而是对人类的考验:在一个智能不再需要人类便能运转的世界里,人类是否愿意继续保持“应负责任”
  • 智能的负担不在于维护人类的优先地位,而在于拒绝仅仅因为思考变得容易就放弃责任
  • 无论我们的机器变得多么智能,这种负担都不会消失。