无障碍链接

中国时间 1:19 2024年11月28日 星期四

终结者成现实?全自主武器的伦理挑战


终结者成现实?全自主武器的伦理挑战
请稍等

没有媒体可用资源

0:00 0:02:49 0:00

终结者成现实?全自主武器的伦理挑战

人类对抗人工智能机器军团是好莱坞科幻电影中经常出现的场景。在现实中,随着人工智能技术的不断发展,这些技术也逐渐被应用于武器的研发与制造。一些人担心,科幻电影中的想象成为现实或许只是时间问题,而这种全自主式的机器人战士会给人类带来伦理道德方面的威胁。

“自主(武器)的概念非常简单直白,就是指一个能够决定目标是什么和杀什么人的系统。” 加州大学伯克利分校计算机系教授斯图特·罗素9月14日在华盛顿智库新美国安全中心的一个讨论会上说。

这位人工智能专家说,完全自主的武器与无人机不同,而是更像电脑象棋,一旦启动,不需要人类的指令就可以进行对弈。

一些人对人工智能武器表示欢迎。他们认为,这种武器可以精确瞄准进攻目标,从而降低战争时人类的伤亡。

但是,人工智能武器也引发道德、伦理和法律方面的争议。有人担心,这类武器可能会成为科幻电影中那样的“终结者”。

新美国安全中心的高级研究员保罗·肖尔问道:“如果使用了智能武器,还会有人觉得要对杀戮负责吗?”

今年7月,天体物理学家霍金、斯特拉公司CEO马斯克以及数百名科学家联名签署一封公开信,呼吁全球禁止人工智能武器。公开信说,这类武器将会降低战争的门槛,如果任何军事大国都推进人工智能武器研发,全球军备竞赛终将不可避免。

一些支持这项倡议的人质疑人工智能武器是否能够有效识别平民和军事目标。他们还担心,这些武器的材料容易获得,还能通过重新编程和组装进行改造,很可能会被无赖国家和恐怖分子非法利用。

美国国务院负责民主、人权和劳工事务的助理国务卿汤姆·马利诺夫斯基在这次讨论会上说,科技的发展势不可挡,人们需要思考的是如何合理利用人工智能武器。

他说:“我们无法抛掉已知的知识,这些知识最终会被应用于技术。因此我们面前的挑战是,如何限制和规范这些系统的使用和发展,以此来避免可能出现的最坏结果,让这些技术最积极的一面最大化。”

目前,美国、英国、俄罗斯、以色列和中国等多个国家据信都在进行人工智能武器的研发。

美国国防部高级研究计划局(US Defense Advanced Research Projects Agency, DARPA)的一个项目正在研究如何让无人机在与人类操作员无法沟通的情况下自主完成袭击任务的所有步骤。

新美国安全中心的肖尔说,美国国防部在几年前出台了有关人工智能武器的政策,这类武器的研发需经过国防部三位高级官员的批准,其中包括参谋长联席会议主席。

XS
SM
MD
LG