

【编者按】在人工智能技术日益渗透国家安全与军事应用的今天,一场关于伦理底线与商业利益的角力正在上演。美国人工智能公司Anthropic因拒绝将AI模型用于大规模国内监控和全自主武器,与国防部陷入公开对峙,最终引发联邦政府的全面封杀。这一事件不仅折射出科技企业在军事合作中面临的道德困境,更凸显了人工智能技术发展中的核心矛盾:当国家安全需求与伦理原则碰撞,科技公司该如何自处?OpenAI的声援、行业领袖的罕见团结,以及谷歌的沉默,共同勾勒出一幅AI时代权力与责任交织的复杂图景。这场风波或许只是序幕,未来类似的冲突必将更加频繁——在技术进步与人类价值的十字路口,每一次选择都将定义我们共同的未来。
在Truth Social平台的一篇帖子中,特朗普总统指示联邦机构停止使用所有Anthropic产品,此前该公司与国防部发生了公开争执。总统为使用这些产品的部门设定了六个月的逐步淘汰期,但强调Anthropic不再受联邦承包商欢迎。
“我们不需要它,我们不想要它,也不会再与他们做生意,”总统在帖子中写道。
值得注意的是,总统的帖子并未提及将Anthropic指定为供应链风险的计划,尽管此前曾暗示可能采取这一措施。然而,国防部长皮特·赫格塞斯随后的推文兑现了这一威胁。
“根据总统关于联邦政府停止使用Anthropic技术的指示,我正指示战争部将Anthropic指定为国家安全供应链风险,”赫格塞斯部长写道。“立即生效,任何与美国军方有业务往来的承包商、供应商或合作伙伴均不得与Anthropic进行任何商业活动。”
五角大楼的争议焦点在于Anthropic拒绝允许其AI模型用于大规模国内监控或全自主武器,赫格塞斯部长认为这一限制过于严苛。
首席执行官达里奥·阿莫代伊周四在一篇公开帖子中重申了他的立场,拒绝在这两点上妥协。
“我们强烈倾向于继续为国防部和我们的作战人员服务——但必须落实我们要求的两项保障措施,”阿莫代伊当时写道。“如果国防部选择终止与Anthropic的合作,我们将努力实现向其他供应商的平稳过渡,避免对正在进行的军事规划、行动或其他关键任务造成任何干扰。”
OpenAI已公开支持Anthropic的决定。据BBC报道,首席执行官萨姆·奥尔特曼周四向员工发送了一份备忘录,称他持有相同的“红线”,任何与OpenAI相关的国防合同也将拒绝“非法或不适合云端部署的用途,例如国内监控和自主进攻性武器”。
OpenAI联合创始人伊利亚·苏茨克沃——他于2023年11月与奥尔特曼公开决裂,此后共同创立了自己的AI公司——也于周五加入讨论,在X平台上写道:“Anthropic没有让步,这非常好;OpenAI采取类似立场,也意义重大。
未来,这类性质的挑战性局面会越来越多,相关领导人能否挺身而出,激烈竞争的对手能否搁置分歧,将至关重要。很高兴看到今天这一幕。”
Anthropic、OpenAI和谷歌去年7月均获得了美国国防部的合同奖项。尽管一些谷歌员工已公开支持Anthropic,但谷歌及其母公司尚未发表评论。