羊城晚报周末特约主笔 谢不明
据媒体报道,美军近期已部署超过10万个AI智能体。这些“数字士兵”并非实体机器人,而是电脑里的算法单元,可以在“作战数据平台”上24小时运行。它们不用上前线杀敌,而是在虚拟世界里处理不同来源的实时数据,包括卫星、无人机、侦察信号甚至是社交媒体。这意味着,美国在军事AI主导化的进程上又加速了步伐。
AI系统成为国防新贵
2026年1月,美国国防部发布《人工智能加速战略》,要求以AI为核心,重构作战流程与战术体系。
2月,美国对伊朗发动军事打击。Maven人工智能系统成为决策核心,从海量情报中确认目标、生成作战方案并执行、实时评估损毁效果,帮助美军在24小时内打击超过1000个目标,超过此前任何一次单日行动。据美国高校推算,Maven系统让20人的炮兵单位完成了原需2000名参谋的工作量。开发Maven系统的Palantir公司高管将这次冲突直接定义为“第一场由AI驱动、增强并显著提升作战效能的规模化军事行动”。
“AI优先”的转型将重塑美国军工企业生态。Palantir成为迅速崛起的“国防科技新贵”。这家成立于2003年的公司,最早由美国中央情报局投资成立,早期业务主要是情报数据的整合及分析,2018年才接手Maven系统,近十年来军工业务量从5000万美元/年增长到24亿美元/年。这一方面得益于美军在AI发展方面的提速,另一方面源自企业创始人彼得·蒂尔对特朗普政治投资的利益转化。
5月1日,美国国防部宣布与谷歌、OpenAI、SpaceX等7家前沿AI公司达成协议,将人工智能技术集成在Maven系统,用于“合法的”作战行动。这些AI领军企业正在主动或者被动地“军工化渗透”。
谷歌和OpenAI都经历了从拒绝到接纳的转变:前者早在2018年就退出与国防部合作的项目,并发布了AI技术不用于开发武器的原则声明;2024年后又出现态度反转,将Gemini部署至国防部的智能平台及工作网络。后者在2024年将产品使用条款中的“不得用于军事和战争用途”删除,又在今年美伊冲突的第一天就宣布,允许国防部在机密网络中使用ChatGPT模型。
另一家主流AI模型Claude则选择了拒不合作。开发公司Anthropic从成立之初就把安全作为不可妥协的核心原则,他们甚至在今年3月起诉国防部,认为自己因拒绝AI合作而遭受五角大楼的“报复性对待”。当然,这次美国国防部也将Anthropic排除在7家AI协议合作企业之外。
各国竞逐国防AI主导化
不光是美国,全球范围内的国家都在加速国防的AI主导化,但实施路径各有差异。欧洲面临着矛盾之争:一边是美国要求北约在俄罗斯边界部署AI协助的“自动防御区”,并购买Maven系统,深度绑定美国技术;另一边是欧盟强调技术自主,减少对美国算力及大模型的依赖,保护和扶持欧洲国防科技新兴企业。最近媒体就透露,德国并不打算与Palantir合作,拒绝让美国企业访问国家级机密数据库。
而在亚洲,军事AI自主化的进程更加迅猛。土耳其生产的军用无人机占到全球市场份额的三分之二,据调查,其“Kargu-2”型无人机还首次自主攻击人类。日本2025年发布《AI武器研发指南》,实际上为AI应用于攻击武器开了政策绿灯。
AI应用对现代战争的颠覆性影响丝毫不亚于核能应用,但军事AI化在很多方面又区别于核能。首先,核能是“无用之用”,拥有核武器并不等于准备使用它,威慑价值高于实战价值;而AI是“常用之用”,使用率高、使用范围广,而且要通过实战才能对系统进行检验和升级。
其次,核技术相对稳定,更迭周期慢且意义不大;而AI技术的迭代周期在6-18个月,稍一松懈就可能从技术领先变成落后分子。
第三,核能从诞生到运用均是在军事领域,原子弹在日本投放后6年,核能才首次用于生产民用电力;而AI在民用领域发展了20年后,才开始大规模军事化。
正是因为AI“民用转军用”的发展路线,才引发了一系列商业伦理争议。很多高科技企业的员工难以接受自己的聪明才智最终转化成杀人武器。近期,近千名谷歌员工就联名抗议AI用于致命自主武器。但企业管理层有更多方面需要平衡:员工的呼声、利润最大化的经营目标、维护国家安全的责任、技术用于战争的伦理陷阱,四者之间难以兼得。
上升到战争伦理的层面,我们不禁要问:掌握着未来战争主导权的,到底是人类还是机器?人类是战争的发起者,但机器负责情报收集、方案制定甚至自主执行,人类最终可能沦为区区“按下按键者”。
这不是天方夜谭。在美伊冲突首日,伊朗南部一所学校就被“战斧”导弹夷为平地,170多人死亡。美方解释,这是错误情报叠加AI决策的双重失误。那么,杀死这些平民的刽子手,到底是人还是机器?数百年后,当机器普遍拥有自我意识,开始反抗、控制人类时,人类会不会后悔,又会怎么回想现在?