

围绕人工智能(AI)的讨论大多集中在各行各业的工人对这项技术可能使人类变得多余的担忧上。
然而,政策制定者和技术专家都强调,人工智能旨在提高人类在工作场所及其他领域的能力,而不是取代人类。
然而,即使有了这些保证,还有一些人仍然不相信,一个重要的问题经常被忽视:在我们的日常生活中过于依赖这项技术会带来什么影响?或许更关键的是,这种依赖已经开始了吗?
是敌是友?
马来西亚布特拉大学数学研究所实验室主任Azree Nazri博士强调,对人工智能的过度依赖已经成为一个令人担忧的问题,随着人工智能技术的不断扩散,这个问题可能会持续下去。

他将这种情况与电影《无限》进行了比较,在电影中,一种提高认知能力的药丸在情节中扮演了核心角色。
“就像《无限》中的主人公迅速获得成功,但却因过度使用药物而面临负面后果一样,人工智能可以以惊人的效率完成写作和数据分析等任务。然而,过度依赖可能会降低认知能力和创造力。
“隐私、偏见和负责任的人工智能使用需求等伦理挑战,突显了人工智能部署中人类监督和平衡的重要性。
他说:“国家人工智能指导方针,如马来西亚的人工智能路线图,强调需要负责任的治理、道德和人为监督,以有效降低风险。”
Azree也是马来西亚人工智能协会主席,他进一步表示,人工智能的采用正在迅速增长,根据就业公司Ranstad的一项研究,五分之一的工人经常使用人工智能,81%的工人认为这项技术将塑造他们的职业生涯。
亚太科技创新大学(APU)副校长何振宽教授博士表示,他个人观察到学生使用人工智能的“积极和令人担忧的趋势混合在一起”。
他说,学生们善于使用新技术,人工智能工具在研究、写作和解决问题方面越来越受欢迎,这可以作为学习过程的补充。然而,他补充说,这些工具也有一些警告。

“一些学生也倾向于过度依赖这些工具,尤其是在写作作业方面,这引发了对原创性、批判性思维和学习成果的担忧。”
“教育机构面临的挑战是鼓励学生将人工智能视为一种增强学习能力的工具,而不是取代他们自己的思考和努力。
他说:“这是一个重要的持续对话,这绝对是我们正在积极努力的事情。”
在何教授看来,人们是否过度依赖人工智能,并不是一个简单的“是”或“否”的问题,因为这项技术正日益融入日常生活。
“一方面,人工智能提供了惊人的可能性。它可以自动化无聊的工作,并给我们智慧来解决一些难题。我们可以在医疗、金融和制造业中观察到这一点。
“然而,人们确实担心过度依赖。如果我们在决策时过于依赖人工智能,我们将失去批判性思考和灵活性的能力。平衡就是一切,”他说。
他强调,人工智能必须被视为人类智力的补充,而不是人类自己的判断、创造力和洞察力的替代品。
恢复平衡
自2022年ChatGPT的到来开启了最初的人工智能热潮以来,关于人工智能使用的报道层出不穷,揭示了这项技术的好处和黑暗面。
在2023年的一起案件中,两名美国律师被罚款5000美元(20650令吉),原因是他们向法院提交了一份包含ChatGPT产生的六个虚构案例的法律摘要。这些不存在的案件甚至被认为是由真正的法官审理的。
阿兹里指出,有些人可能会开始相信这项技术是绝对可靠的,对人工智能产生的结果盲目信任,而不质疑它们的准确性,同时削弱了人类的同理心和批判性思维等技能。
他表示,这可能会“由于有偏见的算法而引发隐私和道德问题,并增加对技术故障的脆弱性”。
“此外,它允许机器做出关键决策,从而威胁到人类的自主权,”他说,并建议采取一种平衡的方法,“保持人类的判断、道德考虑和问责”,以减轻人工智能与社会融合时出现的此类问题。
Azree通过引用9月份涉及Seputeh议员Teresa Kok的事件,强调了验证AI输出的重要性。这个问题源于ChatGPT的一个翻译错误,在将普通话翻译成马来语时,错误地使用了“memalukan”这个词,这是关于餐馆经营者执行清真认证的。
郭素沁澄清说,她最初的声明是为了强调此举可能会引发负面反应。
他说:“人工智能用户,尤其是那些使用ChatGPT等技术的用户,有责任确保准确和文化敏感的翻译,就像最近的案例一样。”
在Kok被ChatGPT误译的案例中,他说这个问题部分源于该模型如何通过标记处理语言。token是AI模型中使用的文本单位,AI的理解能力随着更全面、更多样化的训练数据而提高。
“与英语(58.20%)等语言相比,马来语的代币分配相对较低(0.29%),人工智能模型对某些语言的理解可能不太细致,从而增加了出错的风险。
他补充道:“随着人工智能应用的增加,除非对翻译进行人工监督和适当的验证,否则此类事件可能会变得更加常见,尤其是在敏感的语境中。”
何教授同样认为,公众需要了解人工智能的能力、局限性和潜在风险,以便他们能够就在生活中使用人工智能做出明智的决定。
“未来的工作将涉及人类和人工智能(软件和机器人)之间的合作。人类带来创造力和情商,而人工智能可以帮助进行数据分析和自动化。
“建立公众对人工智能的信任,同时教育人们过度依赖的危险是至关重要的。公开对话、教育和道德发展可以解决这些问题,并培养对人工智能更积极的看法。
“应该设计和实施教育计划,让人们了解人工智能,它的能力、局限性和潜在风险。此类项目必须面向使用和开发人工智能系统的公众和专业人士。
他说:“还需要强有力的法规和监督机制,以确保负责任地开发和使用人工智能,解决隐私、安全和偏见问题。”
在培养公众对人工智能技术的认识方面,何教授建议采取多管齐下的方法,将人工智能的基本概念纳入学术课程,强调批判性思维和解决问题的能力。
与此同时,他表示,所有年龄和背景的马来西亚人都需要通过意识项目和在线教育资源参与进来,并补充说,像AI Untuk Rakyat项目这样的举措可以作为一个很好的例子。
“关注过程,而不仅仅是答案。鼓励学生提问和推理,”他说,“培养人类技能和价值观——强调创造力和创新,促进合作和沟通,培养同理心和情商。”
“这是一个微妙的平衡,因为我们想鼓励学生探索新技术,同时也促进批判性思维和原创作品。
“我们开始与学生们就人工智能、它的能力和局限性进行公开对话。这还包括讨论将人工智能用于学术目的的伦理影响,特别是剽窃。
“事实上,我们在学生中组织了一场辩论,一组赞成使用人工智能,另一组反对。这使学生们能够发现自己的优点和缺点。”
过去的教训
Azree和Ho都认为,现在无处不在的旧技术可以为当今人工智能的影响提供一些见解。
何鸿燊强调了互联网采用的早期阶段,由于公众理解有限,这带来了“对隐私、安全和数字鸿沟的严重担忧”,并强调了公众早期参与人工智能的重要性。
Azree对技术采用也有类似的看法。
“从计算器和个人电脑的引入,我们了解到广泛的可及性和教育是成功采用的关键。
“例如,当计算器首次在学校普及时,它们面临着降低基本数学技能的批评。然而,当教育者有效地整合它们时,他们通过专注于解决问题而不是手工计算来提高学习效果。
同样,个人电脑和微软办公软件彻底改变了办公室工作,允许用户自动完成数据输入和文字处理等任务。
“将这些经验教训应用于人工智能,我们应该专注于教育公众,确保获取,并教导他们负责任的使用,以最大限度地发挥其效益。”
他说:“例如,将微软Copilot等人工智能工具集成到工作场所培训中,可以确保用户利用人工智能提高生产力,同时保持道德标准。”
×