主要内容
AI公司Anthropic周一起诉美国国防部及其他联邦机构,挑战其将该公司列为“供应链风险”的制裁决定。这一行动发生在五角大楼上周正式对Anthropic实施限制后,双方此前已就生成式AI技术用于军事应用(如自主武器)的限制展开多周公开争议。
Anthropic首席执行官Dario Amodei在周四博客中表示,“我们认为该行动在法律上不成立,只能通过诉讼维护权益”。公司已向加州联邦法院提起诉讼,要求法官撤销风险认定并禁止联邦机构执行,同时申请临时限制令以继续政府销售,要求国防部周三晚9点前回应,并于周五举行听证会。
该公司开发的Claude AI模型面临失去数亿美元政府收入的风险,部分软件客户也因国防部的风险标签转向替代方案。Amodei强调,多数客户使用不受影响,仅与军方直接签约的Claude使用受限。
国防部未就诉讼置评,白宫发言人Liz Huston称“军方只遵守宪法,不会被‘觉醒’AI公司的服务条款束缚”,并表示将确保士兵获得必要工具,避免受科技公司意识形态左右。
法律专家指出,起诉难度大,国防部有权界定合同参数及供应商产品影响,但Anthropic或可通过证明被单独针对(如竞争对手OpenAI同期获国防部新合同)争取有利局面。OpenAI称其协议包含技术与合同条款确保AI不用于国内大规模监控或自主武器系统。