在美以开始对伊朗发动军事打击之后,美国在这次行动中使用了人工智能模型的消息就遭到披露。
有专家评论认为,美以两国疑似“广泛使用”了人工智能模型参与军事行动,此举引发一系列道德与法律争议。
美国新学院大学副教授、人工智能与机器人技术专家彼得·阿萨罗表示,从美以行动决策时间短、打击目标数量多等特征判断,两国疑似广泛运用人工智能识别、筛选伊朗境内目标。他指出,自动化流程可远快于人工生成目标清单,但随之而来的关键问题是:授权打击前,目标是否经过充分审查,其合法性与军事价值是否得到核实?
彼得·阿萨罗质疑称,人类真的还能掌控正在发生的事吗? 一旦出现失误,责任由谁承担、法律如何界定、道德底线何在?
美推进AI军事化 AI公司出现分歧
有消息称,在此次行动中,美军方使用了一款名为“克劳德”的人工智能模型。此前,开发这一模型的美国安特罗匹克公司坚称,拒绝按国防部要求解除两项约束条件,即不允许将模型用于美国国内大规模监控,以及无人类干预的完全自主武器系统。
在打击伊朗前,这家公司遭到美国总统和国防部长警告,最终被美国国防部列为“供应链风险”,并将在6个月内被替代。
不过,在安特罗匹克公司被“拉黑后”,美国企业开放人工智能研究中心2月28日说,已与美国国防部达成协议,将公司人工智能模型部署于五角大楼的机密网络。
而在开放人工智能研究中心的旧金山总部附近,已有民众在街头写下抗议标语表达愤怒。
美国消费者新闻与商业频道记者:“何时选择退出”“做正确的事情 勇敢而为”“你们的红线在哪里”……这样的标语在这一街区的地上随处可见。我想说明的是,这些标语不是开放人工智能研究中心或者安特罗匹克公司的员工所写,而是来自普通民众。他们对当下的情况感到担忧,担心这会成为人工智能企业与政府签订军事合作合同的先例。
无节制滥用是AI军事化的最大风险
中国现代国际关系研究院科技与网络安全研究所所长李艳分析认为,对于AI军事化应用的边界到底在哪里,目前基本上国际社会达成的共识是必须确保人类对军事决策的最终控制权。
但当前的现实是,美国等国家拒绝签署相关的国际宣言,还反对具有约束力的禁令。事实表明,美国正在AI军事化应用的路上狂飙,OpenAI与Palantir等硅谷企业也成了美国的军工新贵。
在AI军工复合体的推动下,战争正呈现出精准化、无人化、快速化的特征。AI能秒级生成战场态势、自主规划攻击路径,让作战决策的时间大幅缩短,人类对战局的把控能力也不断降低。而AI的黑盒效应与算法失误,极有可能引发误判,让局部冲突快速升级为大规模的战争。
因此从这个意义上讲,AI给人类造成的最大风险,可能并非技术本身的不可预测性与不确定性,而恰恰是相关国家毫无节制、不负责任的使用。
(央视新闻客户端)