

【编者按】在人工智能技术日益成为国家竞争核心的今天,一场关于科技伦理与军事应用的角力正在悄然上演。近日,五角大楼与AI巨头Anthropic的合作关系濒临破裂,美方以“供应链风险”为由拟将其列入黑名单。这不仅是商业合同的博弈,更折射出人工智能军事化应用背后的深层矛盾:当科技公司坚持为AI武器设置“人类监督”底线,而军方追求无限制的技术优势时,公共安全与战略野心之间该如何平衡?这场对峙或将重塑全球AI军事化应用的规则边界。
据披露,五角大楼正计划与AI巨头Anthropic切断合作,并将其标记为“供应链风险源”。
这意味着任何想与美国军方做生意的实体,都必须与这家公司划清界限。
一位高级官员向Axios直言:“剥离合作会带来巨大麻烦,但我们必将让他们为这种逼迫行为付出代价。”
五角大楼首席发言人肖恩·帕内尔对Axios表示:“国防部与Anthropic的合作关系正在审查中。我们的国家要求合作伙伴必须全力协助作战人员在任何冲突中取胜。归根结底,这关乎部队安危与美国民众的安全。”
此番表态源于双方历时数月的谈判僵局——军方要求在其机密系统中独家使用Anthropic的Claude模型,而该公司坚持设定使用条款。
Anthropic力图确保其技术不被用于监视美国公民,或开发完全脱离人类控制的AI武器系统。
五角大楼则认为这些条件严重束缚了其技术野心的发展空间。