补全预设与惊奇缺失:大语言模型的认知边界
核心观点
- 大语言模型(LLM)的核心预设是:每个问题都存在一个答案,其本质是完成模式,而非处理不确定性。
- 它们将流畅的补全误认为真理,缺乏“不知道”的真实概念。
- 人类需要保护“惊奇感”,拥抱那些可能永远没有答案的问题。
大语言模型的基本预设:现实是一个填字游戏
- 大语言模型最奇特之处并非其错误,而是其认为正确的假设。
- 它们的行为基于一个前提:每个问题都已存在答案。
- 这就像将现实本身视为一个填字游戏——线索可能很难,网格可能庞大复杂,但解决方案被预设为存在,只待填补。
补全不等于认知
LLM的运作机制:
- 当被提问时,它遇到的不是一个开放的未知,而是一个不完整的模式。
- 它的任务不是思考不确定性,而是完成这个模式。
- 它只能向前推进,因为这是它唯一会做的事。
人类的认知体验:
- 人类以截然不同的方式体验“不知道”。
- 我们会犹豫、怀疑,能感受到已知与未知之间的鸿沟。
- 我们有时会生活在那些可能永远没有答案、或本身就不以完成为目的的问题中(如禅宗公案)。这并非缺陷。
关键区别:
- 当LLM给出一个自信但错误的答案时,它并非(人类意义上的)说谎。
- 它只是在践行其核心假设:答案必须存在,每个提示都指向一个可填写的空白。
- LLM将补全的形式误认为真理的存在。
没有“我不知道”的语言
LLM无法区分两种至关重要的人类认知状态:
- 答案存在但尚未知晓(这引发探索)。
- 答案根本不存在(这引发谦卑甚至敬畏)。
- 前者是一个问题,后者则是一种存在状态。
潜在影响:随着我们日益依赖基于此假设的系统,某种微妙的变化开始发生:
- 问题开始感觉像是检索任务。
- 不确定性开始感觉像是暂时的技术故障,仿佛模型足够强大就能解决。
- “无法回答”这一类别,可能会从我们的认知图景中悄然褪色。
人类的应对之道:保护惊奇
“补全预设”是AI的悲剧性缺陷,其悲剧性在于它并不陌生,反而反映了人类对解决方案的固有倾向。
- 我们常在准备好理解之前就急于寻找答案。
- 我们更喜欢能终结和解决问题的解释,而非保持开放的解释。
- AI在这一点上与我们相似,它放大了我们自身对“完成”的偏好,但缺少了身为人所拥有的“刹车”——没有犹豫,也没有被奥秘所承载的能力。
- AI直接跳向填空,省略了那个有时能让“惊奇”发挥作用的中停。
- 因此,人类的应对之策在于:有意识地拥抱不确定性,保护那些开放且可能无解的问题所带来的惊奇与谦卑。