七国集团(G7)据传本周(6月13-15日)召开的元首峰会,将制定军用人工智能(AI)的开发和使用规则。不过,这套西方主导的规范对中、俄等军事大国几乎不具约束力,恐怕才是最大的隐忧,尤其中俄就连美国推动的“负责任使用军用AI”方案都拒绝签署。在此前提下,观察人士说,各国野蛮扩张AI军武的风险恐加剧。他们还形容,致命性AI军武的开发一如回到了原子弹发明前的“奥本海默时刻”,限武协议刻不容缓。
时隔8个月,去年底还在杭州亚运田径场搬运铁饼的“呆萌”机器狗已背上机关枪,加入中柬5月底“金龙2024”的联合军演,成为解放军执行侦察和突击任务的战犬。
呆萌机器狗化身AI杀人疯狗?
分析人士说,或许“深藏不露”,解放军的这款机器战犬仍由人工遥控,智能程度属“弱AI”等级。但未来若搭配高算力AI或人脸辨识等感知侦测器,其智能程度要进阶到“强AI”并非难事,亦即给予简单指令,如“未配戴解放军徽即敌军”, 机器犬或可自动辨识并执行歼敌任务,变成杀人疯狗。
全球顶尖AI专家、澳大利亚南威尔士大学的AI首席科学家托比·沃尔什(Toby Walsh)在接受美国之音采访时就说,自动武器要提升智能程度不难,可能仅在弹指间。
沃尔什说:“要将原本由人类控制的半自动武器系统改为无人化,是件简单的事,或仅须改几行程序码就做得到。”
他说,AI若用在军事防御系统救人是桩美事,但用在失序杀人绝对是作恶。
沃尔什说:“这(AI杀人武器)不是好的发展,将加剧大屠杀,也无助于让我们以更人道的方式来作战或解决争端。”
超级AI军武造就自主杀人机器?
分析人士说,军用AI的最高等级是“超级AI”,这类搭配类神经网络之机器深度学习的极端运用,或可让武器交由机器自主控制,摇身一变为所谓的“致命性自主武器(Lethal Autonomous Weapons Systems, LAWS)”。
虽然这类“致命性自主武器”“杀人机器”看似只存在科幻电影中,但有一派人士认为,其成真的概率或仅在5-10年后,届时,若超级AI军武落入恐怖分子之手,后果不堪想像。
虽然各国目前都坚称无意开发“致命性自主武器”,但沃尔什担心,各国扩张进度不一所带来的不确定恐加剧AI军备竞赛,尤其在AI和军事领域激烈竞争的美中两大强权。
沃尔什说:“就许多面向而言,这种透明度的缺乏可能带来比冷战时期更危险的威胁......这就是为什么此时可比拟为‘奥本海默时刻’,当年(美苏)两大冷战对峙国进入核武竞赛。如今,一场类似的(美中)军备竞赛可能正在我们眼前展开。”
奥本海默是美国“曼哈顿计划”的首席科学家,虽享有“原子弹之父”的美誉,但其主导的两颗原子弹于二战时给日本人带来死伤后,让他开始反思并呼吁限制核武,也极力反对各国的核武军备竞赛。
美中AI军武竞争激烈
美国是AI大国,对军用AI的运用自是超前,例如,美国军援乌克兰的攻击型无人机中,就具有人脸辨识的功能,号称可锁定俄军将领,执行精准的斩首或自杀任务。
美国去年8月还拨款10亿美元,启动“复制者”计划,要在未来两年内部署数千个AI无人作战系统,如无人水面航行器、无人机系统和反无人机系统、及“弹簧刀-600”巡飞弹等。
相较于美国,中国国家主席习近平自2017年宣示“军事智能化”战略以来,解放军开发AI军武近7年来的进度虽隐密,但也展现长足潜力。
根据美国智库新美国安全中心(The Center for a New American Security)高级副研究员埃尔莎·卡尼亚(Elsa B. Kania)于2020年的统整,中国对AI武器的开发几近陆海空军、甚至火箭军齐发,例如,火箭军的AI导弹宣称发射后、仍可以即时控制的智能功能;而空军的“翼龙”无人机系列也已成熟至可以销往巴基斯坦、缅甸和中东等国。至于陆军的机器人、无人地面军车及海军的“海蜥蜴”两栖无人艇、自动化潜艇等都有助于强化中国的战力。
不过,卡尼亚也于报告中质疑,中国发展AI武器仍受限于高科技人才和工程设计经验不足等短板,让外界难以确认中国AI军武的真正实力。
另外,各界认为,美国近年对华祭出高阶AI芯片的禁令也对解放军发展AI武器具有“卡脖子”的效果。但澳大利亚南威尔士大学的沃尔什持不同看法,他担心,美国禁令恐效果有限,反刺激中国自主发展芯片产业。他说,一如二战前后,美国的原子弹制造优势是很难维持的,中国就像当年发展核弹的苏联,或在AI发展还做不到弯道超车,但快速追赶上来并非不可能。
AI武器短板:续航、定位和通讯力
针对AI武器的短板,在台北的国防安全研究院中共政军与作战概念研究所助理研究员王綉雯在接受美国之音采访时表示,其续航力、定位和通讯能力都是先天的致命伤。若电力不足或解放军赖以通讯定位的北斗卫星遭瘫痪后,这些AI武器理论上恐瞬间成为一堆废铁。
她形容,看商用无人机排成的龙阵秀让人赏心悦目,但当这龙群化身杀人军用武器,扫射地面人群时就是件很恐怖的事,尤其当数百架挂弹无人机形成强大的火力网时,对手根本无从防御起。
但她也分析,当AI武器一失去定位协作后就只会互撞或乱转,届时也可能出现像“苍蝇都掉下来”的无害感。
不过,王綉雯坦言,瘫痪卫星或设置电子藩篱等反制AI武器的措施说易行难。
王綉雯:“你要把北斗系统毁掉也是有困难,现在中国的卫星系统已经发展出来分散式的,就是把重要东西(数据)同时存在不同的北斗卫星之间,所以你打掉一颗(卫星)没有用,因为其他(卫星)还可以代替过来。”
王綉雯说,基于中国对AI武器的软硬件发展,未来国际在管制AI武器标准或协议使用规则时,中国将占有一定的话语权,端赖美中两大阵营如何协调。
中国早于2018年就在联合国表态,呼吁全球禁止发展AI自主武器,不过,美籍研究员卡尼亚认为,中国对AI自主武器的定义过于含糊,反而留下可开发各类其他AI武器的空间。因此在外界眼中,中国对AI限武的“战略模糊”意味非常浓厚。
中国国防部发言人吴谦也曾于去年底表态称,中方愿按照“智能向善”等原则与各国合作,就军用AI的发展规范寻求共识,避免相关武器的误用、滥用甚至恶用,并确保AI武器系统“永远处于人类控制之下。”
虽然中方立场也符合美国“负责任使用军用AI”的基调,但王綉雯认为,中国的思维偏重在防止自家军人或机器叛变的思维上。
中共怕AI机器人叛变?
王綉雯:“它(中国)希望AI机器人或武器都要置于人类的控制下,这就是共产党它担心,搞不好解放军的机器人会拿它的机枪对着中南海,机器人叛变也不一定。”
至于美国主导或G7可望出台AI限武规范,分析人士说,中国不仅加入意愿低,且敌意恐很深。
中国军事专家、现任宣沅(香港)科技交流中心研究员的宋忠平就批评,本周G7峰会是美国在搞小圈子、分裂世界,根本无助于制定国际规则。
宋忠平告诉美国之音:“这个会议就是要打造人工智能的西方国家小圈子,还是排他性的,也就是允许美国使用人工智能从事军事化,但是限制其他国家使用人工智能从事军事化。”
他说,AI军武是双刃剑,用于战场必然造成大量屠杀,但美国率先应用军用AI,却来指责中国毫无道理,且随着AI技术不断完善,未来更广泛运用于军事领域已是不可逆的趋势,因此,在这新的博奕战场上,中国也会根据国际军事形势的变化,善用军用AI。
评论区