OpenAI曾禁止军事用途,五角大楼还是通过微软测试了其模型 - AI News
OpenAI曾禁止军事用途,五角大楼还是通过微软测试了其模型

OpenAI曾禁止军事用途,五角大楼还是通过微软测试了其模型

2026-03-05

新闻要点

OpenAI曾于2023年明确禁止军事使用其AI模型,但美国五角大楼通过微软提供的Azure OpenAI服务进行了测试。OpenAI员工对此产生担忧与困惑,该公司于2024年1月更新政策移除全面禁令,同年12月与Anduril合作开发非机密国家安全任务AI系统。

- OpenAI 2023年政策明确禁止军事使用AI模型

- 五角大楼通过微软Azure OpenAI测试其模型

- OpenAI 2024年1月移除军事使用全面禁令

- 2024年12月OpenAI与Anduril合作非机密国安AI

- OpenAI拒绝Palantir 2024年FedStart高风险计划

主要内容

OpenAI CEO山姆·奥特曼本周因公司与美军签订协议再度陷入争议。员工批评该举措并要求公开更多细节,奥特曼在社交媒体承认此举“操作草率”。此前,Anthropic与五角大楼的约2亿美元合同失败后,OpenAI迅速达成合作。

2023年OpenAI曾明确禁止军方使用其AI模型,但知情人士透露,美军已通过微软Azure平台测试该公司模型。当时微软既是OpenAI最大投资方,也是五角大楼数十年承包商,Azure OpenAI服务不受OpenAI政策约束。员工曾发现五角大楼官员进入公司旧金山办公室,却对政策适用范围存疑。

2024年1月,OpenAI取消军方使用禁令。同年12月,公司宣布与Anduril合作开发非机密军事AI系统,拒绝了Palantir的FedStart项目,称风险过高。

部分员工成立公开Slack讨论组表达担忧,认为模型不可靠,连处理信用卡信息都存疑,更不适合承担国家安全任务。