

【编者按】AI神话正在经历现实检验!当ChatGPT从无所不能的"全能顾问"被迫戴上"紧箍咒",这场人工智能的狂欢终于迎来理性回归。从医疗误诊到法律风险,从投资陷阱到青少年悲剧,光鲜的科技外衣下暗藏致命隐患。当全球用户将身家性命托付给算法,我们是否高估了技术的边界?本文深度揭秘ChatGPT战略转型背后的血泪教训,看这家曾立誓"为人类造福"的机构如何被现实逼回教育赛道。这不仅是科技公司的自我救赎,更是给所有AI狂热者的一记警钟——机器永远无法替代人性的温度与专业的判断。
看来ChatGPT并不能解决你所有的问题
由OpenAI开发的人工智能工具ChatGPT正在将重心转向教育领域,在发生数起涉及健康风险和延误癌症诊断的事件后,将不再提供医疗、法律或财务建议
自10月29日起,OpenAI已实施新限制以防止AI提供风险建议。"ChatGPT已停止就治疗、法律问题和金钱提供具体指导。这个机器人现在正式成为"教育工具"而非顾问——新条款明确规定了这一点,"NEXTA报道称
该AI将不再被允许提供药物名称或剂量、诉讼模板、法庭策略或投资建议。相反,ChatGPT将被允许"解释原理、概述通用机制,并建议您咨询医生、律师或财务专业人士"
OpenAI表示,这些政策变更旨在"增强用户安全性,防止因超越系统设计能力使用而造成的潜在伤害"。这家十年前成立的非营利研究实验室始终声称将安全置于首位,其目标是创造造福人类的卓越AI
然而自ChatGPT推出引发全球AI商业热潮以来,该公司一直被指控为了维持主导地位而在产品未完全安全时就匆忙推向市场。2023年因内部争议导致CEO萨姆·奥特曼被短暂罢免的事件,凸显了人们对其偏离初衷的担忧
今年早些时候,OpenAI遭遇一起非正常死亡诉讼——加州一对父母在其未成年儿子与ChatGPT进行大量对话后,于4月选择结束生命
8月,美国医学期刊发出警告,一名男子在与聊天机器人讨论从饮食中去除食盐后出现罕见病症。《内科学年鉴》文章记录了一名60岁男性在咨询ChatGPT后发生溴中毒的案例
患者向医生透露,在发现氯化钠(即食盐)的危险影响后,他寻求ChatGPT关于从饮食中消除氯化物的指导。随后他开始在三个月内持续摄入溴化钠,尽管读到过"氯化物可用溴化物替代,但可能用于其他目的,如清洁"。溴化钠在20世纪初曾被广泛用作镇静剂
西雅图华盛顿大学的研究人员强调,这个案例凸显了"人工智能的使用如何可能导致可预防的健康不良后果"。他们还指出,由于无法获取患者的ChatGPT对话记录,无法确定该个体获得了什么指导
研究人员警告,ChatGPT及类似AI应用可能"产生科学错误,缺乏批判性讨论结果的能力,最终助长错误信息的传播"。Axios在2024年1月的另一项研究显示,研究人员发现ChatGPT在选定的儿科案例研究中错误诊断超过八成
这引发了关于某些机器人是否适合协助医生评估复杂病情的严肃问题。根据发表在《JAMA儿科》的研究结果,该聊天机器人在100个选定病例中误诊72例,另有11例提供的诊断过于模糊而无法认定为准确