本文目录:

核心观点

  • 大语言模型(LLM)的核心预设是:每个问题都存在一个答案,其本质是完成模式,而非处理不确定性。
  • 它们将流畅的补全误认为真理,缺乏“不知道”的真实概念。
  • 人类需要保护“惊奇感”,拥抱那些可能永远没有答案的问题。

大语言模型的基本预设:现实是一个填字游戏

  • 大语言模型最奇特之处并非其错误,而是其认为正确的假设。
  • 它们的行为基于一个前提:每个问题都已存在答案
  • 这就像将现实本身视为一个填字游戏——线索可能很难,网格可能庞大复杂,但解决方案被预设为存在,只待填补。

补全不等于认知

  • LLM的运作机制

    • 当被提问时,它遇到的不是一个开放的未知,而是一个不完整的模式
    • 它的任务不是思考不确定性,而是完成这个模式
    • 它只能向前推进,因为这是它唯一会做的事。
  • 人类的认知体验

    • 人类以截然不同的方式体验“不知道”。
    • 我们会犹豫、怀疑,能感受到已知与未知之间的鸿沟。
    • 我们有时会生活在那些可能永远没有答案、或本身就不以完成为目的的问题中(如禅宗公案)。这并非缺陷。
  • 关键区别

    • 当LLM给出一个自信但错误的答案时,它并非(人类意义上的)说谎。
    • 它只是在践行其核心假设:答案必须存在,每个提示都指向一个可填写的空白。
    • LLM将补全的形式误认为真理的存在

没有“我不知道”的语言

  • LLM无法区分两种至关重要的人类认知状态:

    1. 答案存在但尚未知晓(这引发探索)。
    2. 答案根本不存在(这引发谦卑甚至敬畏)。
  • 前者是一个问题,后者则是一种存在状态。
  • 潜在影响:随着我们日益依赖基于此假设的系统,某种微妙的变化开始发生:

    • 问题开始感觉像是检索任务。
    • 不确定性开始感觉像是暂时的技术故障,仿佛模型足够强大就能解决。
    • “无法回答”这一类别,可能会从我们的认知图景中悄然褪色。

人类的应对之道:保护惊奇

  • “补全预设”是AI的悲剧性缺陷,其悲剧性在于它并不陌生,反而反映了人类对解决方案的固有倾向

    • 我们常在准备好理解之前就急于寻找答案。
    • 我们更喜欢能终结和解决问题的解释,而非保持开放的解释。
  • AI在这一点上与我们相似,它放大了我们自身对“完成”的偏好,但缺少了身为人所拥有的“刹车”——没有犹豫,也没有被奥秘所承载的能力。
  • AI直接跳向填空,省略了那个有时能让“惊奇”发挥作用的中停
  • 因此,人类的应对之策在于:有意识地拥抱不确定性,保护那些开放且可能无解的问题所带来的惊奇与谦卑

标签: 认知科学, 不确定性, 人工智能哲学

添加新评论