本文目录:

核心观点

  • AI在理解之前就已模仿思考:大型语言模型能高效复现文本中的人类思维“化石”,生成看似合理的解释,但其运作本质是统计模式匹配,而非真正的理解。
  • 流畅度提升,责任并未随之而来:AI输出的连贯性与自信度随规模扩大而增强,但它缺乏内在约束,无法为其论断承担修正的责任。
  • 缺失判断力的连贯性仍具说服力:AI生成的表面论证极具迷惑性,容易让人误以为其背后存在因果推理,实则它无法处理深层的逻辑矛盾或错误。

智能的结构性逆转:从内在约束到表面流畅

  • 作者提出“反智能”概念,用以描述AI领域出现的一种结构性逆转
  • 逆转的表现:智能的外在信号(如语言的流畅、论证的完整)不断强化,而定义智能的内在约束(如对真理的追求、对错误的修正责任)却在悄然减弱或变得对用户无关紧要。
  • 人类智能在约束中演化:信念与理由、可被挑战的真理主张、以及错误带来的后果,共同构成了人类判断力得以进化和完善的机制。

规模扩张的本质:统计流畅,而非理解深化

  • AI近十年的进步主要由规模驱动(更多参数、数据、算力),这带来了更平滑的输出和更难以诱发的错误。
  • 关键区分:性能提升容易被误解为“理解”的深化,但规模扩大并未引入新的认知能力,它只是强化了现有的统计模式建模能力。
  • 大型语言模型是统计系统,其核心是优化对语言模式的建模与预测。它能吸收文本中遗留的人类推理“化石”,并在规模效应下,生成足以乱真的表面论证。

理解的缺失:为何AI没有真正的判断力

  • 语言残留的误导:语言承载着人类思维的“残留物”。当AI极具说服力地重建这些“表面论证”时,人们容易将技术产物误认为思维过程,尽管AI从未触及文字之下的因果结构
  • 真正理解的要求

    • 将主张置于可被审视甚至易受攻击的境地。
    • 能识别事物何时不再契合、矛盾何时重要、因果叙事何时无法自洽。
  • AI的架构性局限

    • 神经网络旨在近似函数,而非进行因果推理。
    • AI不维持上述敏感性,不将错误登记为错误,也不根据一个可修正的世界模型来衡量主张。
    • 幻觉减少但未根除,推理在超出统计规律时会退化,这些是其设计目标的直接体现。

责任:人类智能与人工智能的关键分野

  • 人类智能受责任约束:我们能认识错误、解释信念、并依据理由修正信念。这些能力使判断能在人类生活的不确定性中发挥作用。
  • AI生成解释却不承担此负担:技术由此与理解脱钩。输出看似完整,却不承担在世界反驳时自我修正的义务。
  • 混合系统(如检索增强、神经符号AI)试图通过外部“加装”来弥补局限,这虽能带来改进,但也使约束变得可见——新增的“推理”发生在连贯性输出之后,而非源于其内部。

审慎应用:利用工具,而非替代判断

  • AI无疑是伟大的发明,极具实用性。
  • 关键在于审慎使用,使其用于锐化人的判断,而非替代之。
  • 智能不会自动从规模中产生。保持这种区分并非抵制技术,而是为了维系那些始终使思考成为可能的条件。

标签: 人工智能, 认知科学, 技术哲学

添加新评论