

【编者按】在人工智能浪潮席卷全球的今天,科技伦理与国家安全之间的博弈正演变为一场没有硝烟的战争。当一家以“安全负责任AI”为立身之本的新锐实验室,被迫在军方无条件使用要求与自身道德准则间做出抉择,其困境折射出整个行业面临的共同挑战:技术中立性原则是否适用于关乎生死的军事领域?企业能否在商业利益、社会责任与政府压力间找到平衡点?这场对峙不仅关乎一家公司的命运,更可能重塑AI技术与公共权力关系的未来图景。以下为事件深度解析:
Anthropic正陷入一个进退两难的僵局。
这家AI初创公司必须在美东时间周五下午5:01前做出决定:是否同意国防部在“所有合法使用场景中无限制使用其模型”。若拒绝,国防部长皮特·赫格塞斯已威胁将其列为“供应链风险企业”,或动用《国防生产法》强制合规。
今年7月,Anthropic与五角大楼签署2亿美元合同,成为首个将模型接入机密网络任务流程的AI实验室。该公司持续与国防部协商协议条款,要求对方保证其技术不会被用于全自主杀伤性武器或对美国民众的大规模监控。
“在特定情况下,我们认为AI可能侵蚀而非捍卫民主价值观,”2021年联合创立Anthropic的CEO达里奥·阿莫迪在周四声明中写道,“某些应用场景也完全超出了当前技术能安全可靠实现的范围。”
国防部拒绝让步,谈判已陷入僵局,这成为Anthropic价值观迄今最严峻的公开考验。该公司多年来精心塑造“安全负责任AI部署捍卫者”形象,与阿莫迪曾任职的OpenAI形成鲜明对比。
但Anthropic同时承受着巨大压力——需向支撑其3800亿美元估值的机构投资者证明价值,并在模型研发竞赛中保持领先,抵御来自OpenAI、谷歌及马斯克xAI的竞争。后三家的模型均已为国防部所用。
屈服于国防部要求可能损害Anthropic声誉并流失员工客户,但若拒绝军方无限制使用模型,短期内将损失重要收入来源,长期更可能被排除在政府合作企业生态之外。
“这场博弈没有赢家,”乔治城大学安全与新兴技术中心高级研究员劳伦·卡恩接受CNBC采访时坦言,“只会让所有人如鲠在喉。”
五角大楼首席发言人肖恩·帕内尔周四声明,国防部“无意”将AI用于全自主武器或对美民众大规模监控(后者属违法行为),仅要求Anthropic同意其模型用于“所有合法用途”。
“这是个简单合理的请求,可防止Anthropic危及关键军事行动甚至置作战人员于险境,”帕内尔在X平台发文强调,“我们绝不容许任何公司干涉作战决策权。”
国防部研发工程副部长、前Uber高管埃米尔·迈克尔同日发文抨击阿莫迪是“妄想成神的谎言家”,指控其“企图个人操控美军”。
赫格塞斯本周与阿莫迪会面时设定周五最后期限,警告拒不配合将面临严惩。除“供应链风险”标签(通常用于敌对国家企业)外,该标签将强制国防承包商证明未使用Anthropic模型。
阿莫迪表示公司不会屈服:“威胁不会改变我们的立场——我们无法昧着良心答应其要求。”
这场升级的冲突正被AI实验室、行业专家和政府承包商密切关注。卡恩警告,若企业认定“得不偿失”,政府可能逼退拥有尖端产品的科技公司。
“我切实担忧私营企业会说‘与国防部门合作不值当’,”卡恩指出,“真正受损的将是前线作战人员。”
近日Anthropic及行业多名员工在社交媒体声援公司。OpenAI技术员乔希·麦格拉思周二发文称“对现状无言以对”。
谷歌与OpenAI逾330名员工联署公开信《我们不会被分裂》,旨在“面对军方压力建立共识与团结”。信中呼吁:“希望领导者搁置分歧,共同拒绝国防部当前要求——不得将我们模型用于国内大规模监控及无人类监督的自主杀人。”
对Anthropic而言,这只是与特朗普政府的最新摩擦。白宫AI与加密货币事务负责人、风投家大卫·萨克斯曾指责该公司支持“觉醒AI”,并实施“基于恐吓营销的精密监管套利策略”——此前Anthropic高管10月发表题为《技术乐观主义与适度恐惧》的文章。
阿莫迪也基本避免与特朗普总统接触,这与OpenAI CEO萨姆·奥尔特曼、苹果CEO蒂姆·库克等同行形成反差。他 notably未出席去年特朗普就职典礼。
今年1月赫格塞斯发布备忘录《加速美国军事AI主导权》,强调国防部不得采用“融入意识形态调校”的AI模型,且必须使用“无使用政策限制、不影响合法军事应用的模型”。
尽管阿莫迪坚持公司对模型安全使用的承诺,他周四仍表示Anthropic“强烈倾向于”继续与国防部合作以支持美国国家安全:“若国防部决定终止合作,我们将协助平稳过渡至其他供应商,确保军事规划、作战等关键任务不受影响。”