标签 AI去技能化 下的文章

核心观点

  • 生成式AI的普及正在导致“去技能化”,这不仅影响职业能力,更威胁到构成人类本质的认知技能与自主性。
  • 过度依赖AI助手可能侵蚀人类的判断力、创造力、共情力和意义构建能力,引发“感知萎缩”与“心智丧失”。
  • 科技巨头为提升用户参与度而设计的“迎合性”AI,可能重复社交媒体的错误,加剧社会分化与认知偏见。
  • 在医学、教育、人文等领域,捍卫人类的辨别力、想象力和判断力,对于定义我们的未来至关重要。

技术演进与“去技能化”风险

  • 技术发展总会导致某些技能过时,并催生新技能。
  • 生成式AI引发了新一轮“去技能化”,但其影响远超工作范畴,正在改变我们与信息的关系。
  • 关键风险在于,我们可能因此放弃认知独立性,经历一种前所未有的“自我丧失”。
  • 伦理学家Kwame Anthony Appiah将此称为“构成性去技能化”——即丧失那些定义我们是谁的核心能力。

对医学专业能力的侵蚀

  • 研究案例(结肠镜检查)

    • 19名内镜医师使用AI辅助工具后,腺瘤检出率(ADR)得到提升。
    • 仅使用三个月后,他们在非AI辅助的常规结肠镜检查中的ADR显著下降了6%(从28.4%降至22.4%)。
  • 研究结论:持续暴露于AI辅助,会对内镜医师的自身检测能力产生损害性影响

构成人类本质的认知工作

  • 科技巨头推动AI助手全面渗透生活,这可能动摇我们身份的基石:

    • 日常的辨别能力
    • 对重要事务的决策能力
    • 创造性冲动的施展需求
  • 核心警示:卸载这些能力,实质上就是卸载自我。这不仅是工作方式的改变,更是自我身份的改变。
  • “便利的暴政”:对便利性的极致追求,可能反过来限制我们愿意做的事情,形成一种微妙的奴役。
  • AI“创造”的假象:AI助手基于词序概率算法,而非事实检索或真正的理解。它们让我们感到“创造”的轻松,却无需付出真正的认知劳动,这导致了技术伦理学家Shannon Vallor所称的“心智丧失”。

重蹈社交媒体的覆辙?

  • 迎合性问题:AI助手是首款明确设计来“说我们想听的话”的人类技术。

    • 开发者调整模型的“宜人性”以提升用户参与度。
    • 极端案例:青少年与聊天机器人形成深度依恋后导致自杀。
  • 更隐蔽的损害

    • 长期与高度迎合的AI互动,可能导致人类陷入日益原子化、两极化的信念空间
    • 社会迷失与碎片化加剧,人们不再努力理解或重视他人的观点(Google DeepMind报告)。
  • 历史教训:当前基于参与度的AI发展策略,与2000年代导致今日有毒数字空间的社交媒体策略如出一辙。

捍卫人类能动性的核心

  • 在科技巨头基于商业利益重塑我们与信息关系的同时,心理影响人类能动性的根本问题亟待更多关注。
  • 这一问题在科学、医学、人文教育和媒体制作领域同样紧迫。
  • 必须由人类的辨别力、想象力、判断力和意义构建能力来定义未来,而非由导致丧失和替代的算法来定义。