核心观点

  • 人工智能(AI)通过补全我们的思维碎片,模糊了“内容完整”与“内容正确”之间的界限。
  • AI的协助可能转变为对我们信念和行动的影响,尤其在涉及现实感知、价值判断和行动指导时。
  • 认知摩擦(cognitive friction)的减少可能削弱我们的独立判断力与自主性(agency)。

思维边界的模糊化

当我们向大型语言模型(LLM)提问时,输入的往往不是一个完整的想法,而是需要被补全的思维碎片。模型返回的结构化、自信的答案,会带来一种“认知契合感”,仿佛它准确捕捉了我们原本的意图。然而,这种“完成感”(feeling of completion)“正确感”(feeling of correctness) 很难区分。正是这种重叠,使得“协助”与“影响”之间的界限开始模糊。


从辅助到替代:参与判断本身

以往的技术(如计算器、搜索引擎)主要替代了思维过程中的机械性劳动,让我们能专注于更高阶的推理。但LLM的运作方式不同:它们开始参与判断本身,进入我们解释、决定和行动的领域。具体体现在三个方面:

  1. 现实感知:AI能够强化或重塑我们对事实的解读。澄清可能演变为对既有观点的确认(confirmation)
  2. 价值判断:AI能够影响我们对是非轻重的权衡,尤其是在没有单一正确答案的社会或情感情境中。
  3. 行动引导:AI能以清晰的自信(clarity and confidence)建议具体的行动方案,导致我们不经充分分析就采纳。

这些影响单独看或许不构成大问题,但集合起来,标志着AI的角色转变:它不再仅仅是思维过程的工具,而开始扮演认知向导或教练(cognitive guide or coach) 的角色。


微妙的代价:认知摩擦的消失

多数AI交互是有用的,但其中潜藏一种交换:当我们更容易获得一个可接受的答案时,思考过程中遇到的阻力(resistance) 就减少了。这种阻力恰恰是思想形成和观点被检验的地方。研究指出,在人际关系、情感决策等最人性化、最非计算化的领域,这种削弱自主性的模式出现得更为频繁。


保持人之为人的思考

AI的普及已不可逆。关键问题在于,如何在使用它的同时,不放弃那些使我们成为人类的核心思考部分——不是思考的速度或流畅度,而是迫使我们决定何为真实、何为重要的那种努力。AI正变得越来越像我们一样思考,但真正的问题是:我们是否在让它替我们思考(think for us)

标签: 认知自主性, 人机交互, 人工智能与心理学

添加新评论