主要内容
AI战争的兴起,直指一个核心伦理与现实问题:谁(或什么)有权决定剥夺人类生命?又该由谁承担代价?
2018年,3000多名谷歌员工因发现公司参与五角大楼" Maven计划"而抗议。该计划试图用计算机视觉技术分析海外无人机战争的海量视频,员工们担忧AI有朝一日会被用于致命目标定位。
在我新书《Maven计划:海军陆战队上校、他的团队与AI战争黎明》中披露,该项目确实如他们所忧,最终被军方采纳。尽管项目在五角大楼内部争议不断,但推进从未停滞。如今,Maven智能系统已投入美国对伊朗军事行动。
美军高层对AI战争应用的态度转变,与海军陆战队上校Drew Cukor密切相关。三年前,曾质疑Maven项目"过于激进、规避关键流程"的海军情报军官Frank Whitworth,现任国家地理空间情报局(NGA)局长,在一次会议后转变态度,称"这是重要工作"。
Cukor作为项目创始人,曾因挑战军方传统和官僚体系被批评为"疯狂Cukor",他直言"要么成名要么臭名昭著"。Palantir CEO Alex Karp则将其誉为"AI目标定位之父"。目前,俄乌冲突两年多来,Maven计划已成为美军AI战争的核心工具。