基于身份与任务:生成式人工智能的负责任使用框架
核心观点
- 生成式人工智能(GenAI)的使用应基于使用者身份与任务性质两个关键因素。
- 将GenAI用于执行任务的风险通常低于用于深度学习。
- 在初学阶段,GenAI产生的错误尤其有害,因为早期形成的错误概念难以纠正。
- 负责任地使用GenAI,需要将技术选择与学习目标及专业水平相匹配。
评估框架:两个关键维度
评估是否及如何使用GenAI,可依据以下两个维度构成的矩阵进行分析:
- 使用者专业水平(纵轴):从新手到专家。大多数人仅在少数领域是专家,在多数领域处于新手与专家之间。
任务目标性质(横轴):从学习到执行。
- 学习:目标是获取新知识或技能,进行深度学习。
- 执行:目标是完成一项已知如何操作或仅需完成的任务,不要求深度理解。
使用场景分析与建议
专家 / 执行任务
- 示例:教育心理学教授使用GenAI辅助生成一份关于学习理论的教案。
- 分析:使用者具备足够专业知识来审查和判断输出内容的质量与准确性。
- 建议:可合理使用GenAI提高效率,但必须审慎评估其输出。
专家 / 学习任务
- 示例:教授使用GenAI检索并综述关于教育技术对阅读影响的最新研究。
- 分析:GenAI提供的是使用者尚未掌握的新信息。
- 建议:可以使用,但必须严格验证输出(如核对参考文献、阅读原文摘要),确保其准确性与可靠性。
新手 / 执行任务
- 示例:高中生询问如何管理作业和考试日期。
- 分析:任务目标明确,不涉及复杂知识建构,错误信息的后果风险较低。
- 建议:在缺乏可靠人工资源时,可合理使用。但仍需评估建议的实用性,并尽可能与可靠信源交叉验证。
新手 / 学习任务
- 示例:学生学习热力学时,使用GenAI解释“热不是物质”这一概念。
分析:这是风险最高的使用场景。
- 错误难以识别:新手缺乏辨别GenAI输出中错误或“幻觉”的能力。
- 长期负面影响:早期学习阶段形成的错误概念难以纠正,会阻碍后续学习。
- 产生依赖风险:学生可能依赖GenAI直接提供答案,而非将其作为促进思考的学习工具。
- 建议:不推荐在此场景下使用GenAI进行深度学习。
决策指南总结
面对“是否应该使用GenAI”的问题,应先反问:“你试图做什么?你对它了解多少?”
- 专家执行任务:可自信使用,以提升效率。
- 专家学习新知:需谨慎使用,并严格验证输出。
- 新手执行任务:可在低风险场景下使用,并注意核实。
- 新手深度学习:不建议使用。