主要内容
周五,Anthropic公司公共部门负责人Thiyagu Ramasamy在法庭文件中表示,一旦美国军方部署其生成式AI模型Claude,公司无法操控该模型。此前,特朗普政府指控Anthropic可能在战争中篡改AI工具,而该公司否认了这一可能性。
五角大楼与这家AI实验室已就技术用于国家安全的限制问题争执数月。本月,国防部长Pete Hegseth将Anthropic列为供应链风险,禁止国防部及其承包商使用其软件,其他联邦机构也开始停用Claude。Anthropic已提起两起诉讼挑战禁令合宪性,并寻求紧急命令撤销禁令,但客户已开始取消合作。听证会定于3月24日在旧金山联邦地区法院举行,法官或很快裁定临时逆转。
政府方在法庭文件中称,国防部“无需容忍关键军事系统在国防关键时刻及军事行动中受损的风险”。此前《连线》报道,五角大楼正使用Claude分析数据、撰写备忘录及生成作战计划。Anthropic反驳称,公司无后门或远程“关闭开关”,无法在军事行动中登录国防部系统修改或禁用模型,仅能经政府及云服务商(未具名)批准后提供更新,且无法访问军事用户输入的提示或数据。
Anthropic强调无法对军事战术决策行使否决权,3月4日提出的合同提案中已明确相关条款。但双方谈判最终破裂,国防部现正通过第三方云服务商确保无法单方面修改Claude系统,以缓解供应链风险。