主要内容
美国五角大楼本周突然审查AI公司Anthropic,拟终止2亿美元合同,并考虑将其列为“供应链风险”。该决定或因Anthropic反对参与致命军事行动,且与政府AI监管政策冲突。
Anthropic去年成为首个获美国政府机密使用许可的AI公司,提供专为国家安全设计的模型。但本周五角大楼发言人证实,因“国家安全需合作伙伴全力支持作战”,正重新评估合作关系,Anthropic被指拒绝参与特定致命任务(公司否认涉及2023年委内瑞拉行动)。
OpenAI、xAI、Google等AI巨头正加紧申请军方许可,以确保在AI军事应用中合规。Anthropic CEO达里奥·阿莫迪强调,模型禁止用于武器设计和政府监控,但其安全使命与军方需求产生冲突。
军方技术总监艾米·迈克尔反驳称,无法容忍AI公司限制军事AI武器应用,“若无人机群威胁,人类反应时间不足如何应对?”这一立场与“机器人三定律”中“AI不得伤害人类”的原则直接冲突。