无障碍链接

中国时间 20:59 2024年11月23日 星期六

专访沙瑞尔:美中在AI发展挑战面前,美国的民主制度将更胜一筹


人们在上海参观年度“世界人工智能大会”。(2022年9月1日)
人们在上海参观年度“世界人工智能大会”。(2022年9月1日)

人工智能(AI)发展如果“失控”,人类社会将何去何从?在美中AI竞争日益激烈的情况下,这种担忧最近得到包括特斯拉CEO马斯克在内的专业人士的响应。

星期三(3月29日),美国生命未来研究所(Future of Life Institute)一封呼吁AI技术竞争“休兵”半年的公开信得到包括马斯克在内逾千名科技界专业人士的签名联署。

公开信呼吁所有AI实验室暂停脚步,在未来6个月停止训练比GPT-4更强大的AI系统,以发展出一套有关AI设计与研发的安全准则。GPT-4是美国AI研究机构OpenAI最新发展出的AI模型;该机构此前发布了功能强大的AI聊天机器人程序ChatGPT。

公开信说:“只有当我们确信其效果是积极的、风险是可控的时候,才可以去开发强大的人工智能系统。”

长期关注AI安全性的华盛顿智库新美国安全中心(CNAS)副总裁兼研究总监保罗·沙瑞尔(Paul Scharre)在接受美国之音专访时说,必须确保AI系统安全可靠,“做我们期望它们做的工作”。

在美中科技竞争里,人工智能被视为中国可望超越美国的关键技术领域之一。中国决策者已经定下在2030年前成为世界AI领导者的目标。

沙瑞尔在他最近出版的新书《四个战场:人工智能时代的力量》(Four Battlegrounds: Power in the Age of Artificial Intelligence)中阐述道,美中在AI领域的竞争关键在于四个因素:数据、计算能力、人才和机构组织有效应用AI的能力。

北京以举国之力支撑科技振兴的战略激发了中国AI技术的突飞猛进,而美国在将AI融合到国防和军事科技时,常常面临私营部门和政府机构之间难以对话的鸿沟。但沙瑞尔认为,美国的民主制度不是削减美国AI领先优势的体制弊端,反而是在AI时代各国面临科技“无限可能”所带来的挑战面前,让美国具备了独有的韧性和对专制趋势的抵抗力。

沙瑞尔曾在美国国防部指挥制定无人驾驶和自主系统以及新兴武器技术政策。美国之音就沙瑞尔的新书和最近与中国有关的科技焦点事件对他进行了专访。

以下是专访的主要内容:

记者:TikTok首席执行官周受资23日在美国国会作证。您如何看待此次听证以及周受资在听证会上的表现?

沙瑞尔:TikTok声称他们独立于中国共产党的影响之外。现实是,任何在中国经营的公司都必须意识到中国共产党的政治考虑。字节跳动不能说冒犯党的话,(否则)他们的领导会进监狱。当TikTok的首席执行官有机会证明自己独立于中国共产党的影响时,在被问到中国迫害维吾尔人的问题时,他却没有回答这个问题。现实是,就像中国的任何其他公司一样,他们最终都要听命于中国共产党。如果党给了他们一个他们不想遵从的要求,他们没有独立的司法机构可以寻求帮助,没有自由的媒体可供他们求助,这正是任何在中国经营的公司面临的政治现实。

几年前,当美国联邦调查局(FBI)要求苹果公司解锁恐怖袭击者拥有的一部苹果手机时,苹果将FBI告上法庭,同时通过公开的媒体报道让FBI接受公众的舆论审判,而这两种东西在中国都不存在。那些公司没有这种自由。这是TikTok首席执行官无法回避的现实。

2023年3月23日,TikTok首席行政官周受资在国会山作证。(视频截图)
2023年3月23日,TikTok首席行政官周受资在国会山作证。(视频截图)

记者:除了TikTok之外,美国的应用程序商店里还有很多受欢迎的中国出品的app,下载量排名很高。美国是不是也应该检视这些应用程序的安全问题呢?

沙瑞尔:这取决于这些应用程序在做什么。美中贸易正处于历史最高水平。美国人从中国得到很多商品,中国人也从美国获得很多商品,这是一件好事。但自从新冠疫情以来,我们越来越多地看到,人们对供应链安全的意识在增强。我认为,像手机应用程序这样的数字技术,我们必须要意识到这些应用程序在做什么,他们背后的公司是谁?这些公司会如何操纵我们需要重视的信息?所以我认为这在很大程度上取决于是哪些应用程序,以及它们在做什么。

记者:回到您的新书主题-人工智能,就国家安全、特别是军事用途来说,人工智能发展到了什么阶段?其应用到了什么程度?

沙瑞尔:美国和中国军方都在努力将人工智能融入军事行动。人工智能的有趣之处在于,它不是来自国防企业,而是来自商业部门。世界上领先的人工智能公司都是商业公司——谷歌、微软、亚马逊、百度、阿里巴巴、腾讯、商汤、科大讯飞等。美国和中国都有领先的AI公司。

与那些往往出自机密国防实验室的秘密技术相反,人工智能是从商业领域发展。军方正在努力将人工智能技术从商业部门引入军队,然后对其进行调整,并找出如何使用人工智能的方法。

我们来看看历史上那些颠覆性的技术,比如飞机。真正重要的是找出使用飞机的最佳方式,也就是如何在军事行动中有效地使用飞机。人工智能也是如此,目前有大量的实验。不仅美国和中国(在实验),而且在乌克兰战场上,俄罗斯和乌克兰都在进行(实验)。我认为,随着世界各地的军队开始将人工智能纳入其军事力量,我们将继续看到人工智能的大量创新和改进。

记者:让我们把焦点从乌克兰转向台湾海峡。美国可能因台湾卷入与中国的冲突。AI会如何影响这场可能的冲突呢?

沙瑞尔:人工智能从根本上是关于如何处理信息。我确实认为,如果在台湾问题上发生冲突,最重要的因素将是实体的冲突。中国人民解放军要想入侵台湾,就需要两栖进攻,这是任何军队都很难完成的军事任务。他们必须在一个防御非常严密的地区进行作战,台湾和美国的军事专业人员都会计划在那里进行防御,所以(解放军)很难成功,所以最重要的考虑因素是导弹、舰艇、水雷、鱼雷、潜艇和飞机等等。

但人工智能可以为军事行动的各个方面提供帮助,使其更容易找到敌军,进行瞄准,制造更先进的弹药。也可以在政治层面提供帮助。你知道,在乌克兰战争之前,一件非常有意思的事,美国提前解密了普京部队在乌克兰周围集结,以及普京将发动入侵的情报。这化解了(俄方)出其不意的可能因素,使美国和欧洲国家更容易团结起来保卫乌克兰。

我认为,我们现在所处的时代,由于商业卫星图像和信息革命带来的信息可用性的增加,军队更难实施突袭。美国可以从远处观察到中国试图对台湾发动的任何入侵,有充足的机会团结世界捍卫台湾,保卫台湾人民的自由。所以我认为人工智能可以帮助做到这一点,因为人工智能可以让信息更容易处理,让隐藏信息更难。

Maxar Technologies发布的卫星图片显示俄罗斯军队在靠近克里米亚黑海海岸部署的野战医院和驻军帐篷。(2021年4月15日)
Maxar Technologies发布的卫星图片显示俄罗斯军队在靠近克里米亚黑海海岸部署的野战医院和驻军帐篷。(2021年4月15日)

记者:你造访过美中两国先进的AI研究机构,能不能谈谈美中AI研发策略有何不同?

沙瑞尔:很大的一处不同点是,政府在中国政治经济中的作用当然比在美国大得多。当我和中国领先的人工智能语音公司科大讯飞的高管会面时,他们告诉我说,他们公司一半的收入来自政府。美国任何一家大型人工智能公司都不会是这样,比如谷歌、微软、亚马逊或Meta(注:脸书的母公司),政府对他们来说并不是那么大的客户。

因此,从中国的角度来看,这里有利也有弊。一方面,那些政府支出肯定加速了中国国内一个非常有活力的科技行业的增长,既有百度、阿里巴巴和腾讯等大型科技公司,也有中国国内充满活力的创业生态系统。但政府支出也往往是低效和浪费的,这并不总是对政府资本最有效的利用。

当然,近年来这一切都发生了变化,习近平对中国科技行业的打击力度越来越大,马云等曾经强势的巨头都被管控起来,削弱了中国科技公司的实力。因此我认为,习近平对中国科技公司施加的政治约束会在多大程度上影响发展,是否会减缓它们的发展,还有待观察。

记者:中国科技发展走军民融合路线,人工智能也不例外。您在书中强调了国家领导人将AI融入经济、社会和军事的意愿是AI发展的关键因素。美国准备好将AI融入军事、在战场上对抗中国了吗?

沙瑞尔:美国几年前存在的一个担忧是,美国军方在与民用科技公司合作时会遇到困难。几年前,谷歌停止了一个名为Project Maven的美国军事项目的工作,该项目使用了人工智能。谷歌、微软和亚马逊的员工抗议与美国军方合作。他们写了公开信,表示不支持与军方合作,并对此表示抗议。就谷歌而言,这导致该公司领导层真的停止了这一项目的进行。

我认为,有一段时间,美国国安部门领导人非常担心,如果美国科技公司不想与美国军方合作,他们会落后于中国。当然,因为中国科技公司的员工不可能去写公开信抗议与解放军合作——如果他们这样做,他们会被关进监狱。

我认为,我们已经看到,美国曾经的担忧后来没有发生。国防部对一些科技员工的担忧做出回应,参与了一个非常漫长的内部流程……美国军方与美国主要大学的学术界领袖进行了接触。结果是,美国公开发布了一系列关于如何以道德和负责任方式使用AI的文件,包括国防部的人工智能伦理原则、负责任的人工智能指导方针和国防部去年发布的责任战略。去年的美国《核态势评估》发表了关于必须由人类控制核武器的声明,以及美国国务院于2023年初发布的负责任使用人工智能的指南。

事实上,我们已经看到,许多美国科技公司愿意与美国军方合作,包括谷歌在内的所有主要科技公司现在都继续与军方合作。但在一定程度上,这是因为美国军方一直非常积极地解释它将如何使用人工智能,并确保以道德和负责任的方式运作。

美军人员2016年3月22日训练使用人工智能技术 (美国国防部照片)
美军人员2016年3月22日训练使用人工智能技术 (美国国防部照片)

记者:中国有类似的人工智能使用限制的文件吗?

沙瑞尔:中国已经发布了许多文件,包括中国科技部关于民用人工智能准则的文件。但中国人民解放军对他们打算如何使用人工智能并不十分透明。所以我们不知道解放军将如何使用AI,因为他们一直不太透明。

记者:美国针对中国的芯片行业进行制裁,一些人认为这将对中国的人工智能技术发展产生影响。美国的制裁策略会影响中国的AI产业吗?中国能否找到替代方案,在芯片供应方面迎头赶上?

沙瑞尔:我认为美国对芯片的出口管制对中国AI行业的重要性还有待观察。以大语言模型(large language model)为例,这一技术需要大量芯片——数千个这种非常专业的芯片一次运行数周或数月,以构建像ChatGPT这样功能最强的模型。但也有许多中国公司在建立自己的大语言模型,比如ERNIE(百度的文心一言)。目前,OpenAI(注:出品ChatGPT的美国研究机构)在这一领域处于领先地位。没有多少其他公司能和他们比肩,就连谷歌也落后了。尽管谷歌过去在大型语言模型方面做了一些出色的工作,但他们部署的模型BARD效果并不是很好。所以,最优秀的中国公司可能只落后(美国的)领先优势几个月的时间,我认为这些芯片出口管制是否会产生效果还有待观察。

百度总裁李彦宏展示人工智能聊天机器人文心一言。(2023年3月16日)
百度总裁李彦宏展示人工智能聊天机器人文心一言。(2023年3月16日)

记者:既然你提到了ChatGPT,生成式人工智能现在是一个热门话题。以ChatGPT为代表的生成式AI将如何影响国家安全?

沙瑞尔:我很高兴你问了这个问题,这是一个很好的问题。大语言模型(注:ChatGPT的技术基础)是一种生成性人工智能……但大语言模式是通用的……它们可以做很多不同的事情,这意味着它们本质上是军民两用的。因此,它们可以用来编写可以用来生成文本的代码,也可能被用来实施宣传和制造虚假信息。人们担心的一个问题是,他们可能被恐怖分子用来帮助实施恐怖袭击。例如,让人们学到如何实施攻击,或者了解如何制造危险化学品、获取化学武器以进行攻击。这是一个实际的问题,人们非常担心如何确保这些模型不会导致危险信息被分享。

另一个问题是,没有人知道如何控制这些模型所说的话,所以一方面我们不希望这些模型说不好的话,生成危险的信息;另一方面,没有人真正知道如何让它们这样做,这是现在的一个实际问题。这些大语言模型非常复杂,它们是我们从未真正经历过的新兴事物。因此,没有人真的知道如何控制它们的行为,围绕这些大语言模型的安全问题是非常真实的。

记者:谢谢您接受我的访问。还有什么新书要点是您希望强调的吗?

沙瑞尔:我想我要强调的一件事是,如今,许多人工智能系统都存在非常严重的安全问题。它们往往会做出奇怪的事,我们需要在人工智能的安全方面做得更好,以确保我们正在推动的系统——无论是用于聊天机器人的商业系统还是军事硬件——都是安全可靠的,确保它们会做我们期望它们做的工作。

(美国之音进行一系列采访,反映有关美中关系及美国政策的负责任的讨论和观点。被采访人所发表的评论并不代表美国之音的立场。)

评论区

VOA卫视最新视频

时事大家谈:中国就业供需失衡,毕业生怎么办?
请稍等

没有媒体可用资源

0:00 0:20:40 0:00

美国之音中文节目预告

  • 7/23【时事大家谈】拜登退选中国网民热议 “把他赶下台”影射习近平?拜登退选牵动美外交政策 下届总统恐对中更强硬?嘉宾:美国“信息与战略研究所”经济学者李恒青; 美国《当代中国评论》国际季刊主编荣伟;主持人:樊冬宁

XS
SM
MD
LG