

【编者按】在人工智能浪潮席卷全球的今天,教育领域正面临前所未有的挑战。尤其对于注重逻辑与实证的STEM学科(科学、技术、工程、数学),AI工具看似精准的答案背后,往往隐藏着思维惰性的陷阱。本文通过一线化学教师的真实观察,揭示了学生依赖AI完成理科作业的隐忧:那些格式工整、术语规范的答案,却可能完全偏离核心考点,甚至扼杀独立思考的能力。当教育沦为“答案搬运”,我们失去的不仅是分数,更是未来创新者赖以生存的批判性思维。如何在拥抱技术的同时守住教育的本质?这篇来自新加坡课堂的反思,值得每位教育者与学习者深思。
新加坡讯:去年考试季,一名学生向我展示了她对2024年剑桥A-Level化学试卷第3题的回答。题目要求很直接:画出三个弯箭头来完成反应机理。
ChatGPT给出的示意图线条清晰、符号规范、技术精准。但那些箭头完全画错了位置,这种错误会导致满分尽失。
同一年还有另一个例子。题目问:尽管热力学条件显示可行,但氟化钙为何不溶于水?
ChatGPT解释说粒子结合非常紧密,乍看似乎有理。
然而这完全错过了阅卷人期待的核心要点。正确答案是:该反应需要太多启动能量。
人工智能在STEM(科学、技术、工程、数学)教育中构成了独特挑战。与论文抄袭不同,学生用AI解答STEM习题集很难被察觉。但他们因此跳过了将解题步骤转化为真正理解的思维过程。
我教授A-Level化学已逾十年,如今看到各STEM学科的学生带着自己无法评判的AI生成答案前来。当学生要求ChatGPT解释概念时——无论是化学反应、微积分问题还是电路图——答案往往包含过多细节和课程大纲之外的参考资料。学生难以区分哪些相关、哪些无关。
AI生成的STEM答案之所以危险,是因为它们初看正确。它们使用规范术语,遵循常规格式,听起来权威十足。缺失的正是题目要求的具体洞见。
在化学中,当被问及热力学时,ChatGPT会生成涵盖熵、焓和吉布斯自由能的全面解释。在数学中,询问微分问题,你会得到链式法则、乘积法则和商法则的详细说明。在物理中,一个关于力的问题可能引发对牛顿定律的长篇论述。
对于寻求一般性理解的学生,这或许看似有帮助。但STEM考试考查的是学生能否识别单一相关原理并精确应用。所有那些额外细节反而淹没了真正答案。
有些学生带着健康的怀疑态度对待这些AI交互。他们感觉到长达半页的回应不太对劲。他们会问我是否真的需要写这么多,这至少表明他们在思考。但更多学生从不寻求澄清。他们将AI答案视为定论,然后继续前进。
最终,未能培养这种评估能力是过度依赖AI最严重的后果。如果学生无法辨别AI生成的答案何时出错,他们就无法成长为STEM领域独立思考者。
有人可能认为AI的不可避免性使得习题集和评估过时。这误解了争论的核心:STEM教育的目的是培养深度思考和直觉,而不仅仅是产生正确答案。
在我的课堂上,最强的学生不是最快记住公式的,而是那些能停下来问:“这个答案究竟如何成立?”的学生。
以我的化学例子来说:理解氟化钙为何在有利热力学条件下仍不溶解,需要思考热力学有利性与动力学可及性之间的区别。
在物理中,理解重物为何下落不快,需要厘清质量与重量的区别。在数学中,理解为何不能除以零,需要思考极限和未定义运算。
我曾目睹学生在挣扎解决多个问题后掌握这些区别。那种“顿悟”时刻无法来自捷径。当AI将这种洞见预先打包提供,学生就错过了让理解扎根的关键过程。
解决方案不是禁止AI进入STEM教育。木已成舟。相反,我们必须重塑STEM学科的教学方式,在承认AI存在的同时,保护学生所需的认知发展。
STEM教育者可考虑做三件事。首先,设计需要学生展示思维过程而不仅仅是提供答案的评估方式。其次,教导学生批判性评估AI输出,发现过度笼统或不准确的解释。第三,创建鼓励有效挣扎的课堂环境,引导学生但不提供即时AI访问途径。
学生必须培养“AI素养”,即他们必须理解AI工具的局限性,知道输出何时存在缺陷,并发展用于专业能力的STEM技能。
岌岌可危的不仅是个体职业生涯。如果我们培养出能提供答案却无法评估答案的毕业生,我们就削弱了STEM服务社会的能力。难道我们需要不会解释答案为何错误的工程师来设计桥梁吗?
我学生的机理图看起来完美,直到你检查箭头是否真的合理。这正是我们正在丧失的能力。一旦失去,我们就不是在为学生迎接AI增强的未来做准备。我们只是在教他们变得依赖。
本文作者Kelvin Ang是The Chemistry Practice的创办人兼首席导师。