Anthropic否认其可能在战争期间破坏AI工具 - AI News
Anthropic否认其可能在战争期间破坏AI工具

Anthropic否认其可能在战争期间破坏AI工具

2026-03-21

新闻要点

Anthropic 高管周五在法庭文件中否认其能在美军使用 AI 模型 Claude 期间破坏该工具,回应特朗普政府相关指控及五角大楼的供应链风险标签。该公司称无后门或远程“ kill switch ”,无法单方修改或禁用模型,且更新需政府及云服务商批准。

- Anthropic 否认能破坏美军使用的 Claude 模型

- 五角大楼将 Anthropic 列为供应链风险并禁用其软件

- Anthropic 无后门或远程“ kill switch ”,无法单方修改模型

- Anthropic 起诉挑战禁令,听证会 3 月 24 日举行

- 公司愿在合同中保证不控制军方战术决策

主要内容

周五,Anthropic公司公共部门负责人Thiyagu Ramasamy在法庭文件中表示,一旦美国军方部署其生成式AI模型Claude,公司无法操控该模型。此前,特朗普政府指控Anthropic可能在战争中篡改AI工具,而该公司否认了这一可能性。

五角大楼与这家AI实验室已就技术用于国家安全的限制问题争执数月。本月,国防部长Pete Hegseth将Anthropic列为供应链风险,禁止国防部及其承包商使用其软件,其他联邦机构也开始停用Claude。Anthropic已提起两起诉讼挑战禁令合宪性,并寻求紧急命令撤销禁令,但客户已开始取消合作。听证会定于3月24日在旧金山联邦地区法院举行,法官或很快裁定临时逆转。

政府方在法庭文件中称,国防部“无需容忍关键军事系统在国防关键时刻及军事行动中受损的风险”。此前《连线》报道,五角大楼正使用Claude分析数据、撰写备忘录及生成作战计划。Anthropic反驳称,公司无后门或远程“关闭开关”,无法在军事行动中登录国防部系统修改或禁用模型,仅能经政府及云服务商(未具名)批准后提供更新,且无法访问军事用户输入的提示或数据。

Anthropic强调无法对军事战术决策行使否决权,3月4日提出的合同提案中已明确相关条款。但双方谈判最终破裂,国防部现正通过第三方云服务商确保无法单方面修改Claude系统,以缓解供应链风险。