用于战争的人工智能模型实际上是什么样子 - AI News
用于战争的人工智能模型实际上是什么样子

用于战争的人工智能模型实际上是什么样子

2026-03-04

新闻要点

本周,Smack Technologies宣布完成3200万美元融资,正开发针对军事任务规划的AI模型,该模型通过战争游戏场景试错训练,将超越Claude相关能力,其CEO强调由军方人员确保合法使用,与Anthropic限制军事用途的态度不同,旨在为美军提供决策优势。

- Smack获3200万美元融资,开发军事任务规划AI模型

- 模型通过战争游戏试错+专家反馈训练,拟超Claude能力

- 与Anthropic不同,Smack支持军方合法使用AI

- 通用AI未优化军事数据,不适合硬件控制或目标识别

- 军事AI或为美军提供对近邻的决策优势

主要内容

Smack Technologies本周宣布完成3200万美元融资,正开发专注于军事应用的先进AI模型,声称其系统将很快在军事行动规划与执行能力上超越Anthropic的Claude模型。

CEO Andy Markoff曾是美国海军陆战队特种作战司令部指挥官,参与过伊拉克和阿富汗特种部队行动。他与另一名前海军陆战队员及前Tinder技术副总裁共同创立公司,认为技术部署者需身着军装以确保伦理合规。

Smack的AI模型通过类似AlphaGo的试错机制训练:在各类战争游戏场景中运行模型,由专家分析师提供策略反馈以优化决策。尽管预算不及传统前沿AI实验室,公司仍投入巨资训练首个军事AI模型。

军事AI近期因政府与科技公司的合同争议备受关注。此前,美国国防部因与Anthropic的2亿美元合同破裂,认定其为“供应链风险”,核心分歧在于Anthropic希望限制模型在自主武器中的使用。

Markoff指出,通用大模型如Claude虽擅长报告总结,但缺乏军事数据训练和物理世界理解,无法胜任硬件控制,更不适用于目标识别。目前美军已在导弹防御等场景部署不同程度自主的武器系统,30多个国家参与其中。

Smack模型旨在简化军事任务规划,替代人工白描手绘的传统方式。若与中俄等“对等对手”冲突时,自动化决策或成“决策优势”,但伦敦国王学院实验显示大模型可能在核冲突模拟中升级风险,可靠性存疑。