人工智能安全遇上战争机器 - AI News
人工智能安全遇上战争机器

人工智能安全遇上战争机器

2026-02-20

新闻要点

本周,五角大楼正重新考虑与AI公司Anthropic的合作关系,包括一份2000万美元合同,甚至可能将其列为供应链风险,原因是Anthropic反对参与某些致命军事行动。Anthropic去年成为首个获美国政府机密使用许可的AI公司,但因其安全立场与军方需求冲突,引发此次评估,也向其他AI公司传递信号。

- 五角大楼重新评估与Anthropic关系,涉2000万美元合同

- Anthropic或被列为供应链风险,影响国防合作

- 冲突源于Anthropic反对AI用于致命军事行动

- OpenAI等其他AI公司正争取机密使用许可

- 军事需求与AI安全原则存在矛盾

主要内容

美国五角大楼本周突然审查AI公司Anthropic,拟终止2亿美元合同,并考虑将其列为“供应链风险”。该决定或因Anthropic反对参与致命军事行动,且与政府AI监管政策冲突。

Anthropic去年成为首个获美国政府机密使用许可的AI公司,提供专为国家安全设计的模型。但本周五角大楼发言人证实,因“国家安全需合作伙伴全力支持作战”,正重新评估合作关系,Anthropic被指拒绝参与特定致命任务(公司否认涉及2023年委内瑞拉行动)。

OpenAI、xAI、Google等AI巨头正加紧申请军方许可,以确保在AI军事应用中合规。Anthropic CEO达里奥·阿莫迪强调,模型禁止用于武器设计和政府监控,但其安全使命与军方需求产生冲突。

军方技术总监艾米·迈克尔反驳称,无法容忍AI公司限制军事AI武器应用,“若无人机群威胁,人类反应时间不足如何应对?”这一立场与“机器人三定律”中“AI不得伤害人类”的原则直接冲突。