新闻主播面对镜头在谈论美中合作支持全球经济的重要性。初一看这似乎是正常的新闻报道。但主播和“狼新闻”(Wolf News)视频都不是真的。这其实是人工智能制造的深伪技术。
观众仔细观察就可能发现有问题。声音不自然,与嘴形不同步。
纽约研究公司格拉菲卡(Graphika)上月报告说,这是社交媒体上张贴的两个似乎促进中共利益的视频中的一个。人工智能的创造工具的发展让人担心它有能力以空前规模制造并散布虚假信息。假新闻主播就是一例。
欧盟2月份报告说,中国与俄罗斯多管齐下,试图控制从外交到乌克兰战争的任何叙事。
格拉菲卡调查部主任泰勒·威廉姆斯(Tyler Williams)认为假新闻主播不是最令人惊讶的方面。《卫报》(The Guardian)2018年报道说,中国国有媒体新华社是世界第一个推出人工智能新闻主播的机构。
不过,威廉姆斯对美国之音说,“我们最初在这个背景下看到它深感吃惊。”
格拉菲卡是在脸书、推特和“油管”(YouTube)上监督亲中国不实信息运作时,看到新闻主播深伪的。格拉菲卡说这是“垃圾伪装”(spamouflage)。2019年首先出现的垃圾伪装是指散布亲中国宣传的与北京有关联账户的广泛网络。
威廉姆斯说,“我们一直跟踪这个垃圾伪装影响行动已经几年了。这是我们第一次看到这项运动使用此类科技。”
中国驻华盛顿大使馆一名发言人对美国之音说,格拉菲卡的报告“充满偏见和恶意的揣测。”
这位发言人在电邮中说,“近年来一些西方媒体和智库污蔑中国用假社交媒体账号来传播所谓‘亲中’信息。中国认为每个社交媒体用户有权发出他或她自己的声音。”
但很多机构都记录了中国对社交媒体的检查并关押批评政府的用户。
对信任的侵蚀
威廉姆斯尤其担心人工智能制造不实信息的技术和效率。
华盛顿智库新美国安全中心(Center for a New American Security)人工智能研究员比尔·德雷塞尔(Bill Drexel)认为,这项技术目前还远不完善。他对美国之音说,“我最初看到视频时,我想这几乎是滑稽的,因为它们没有采用高质量的深伪;但这是海外不实信息未来的黑暗征兆。”
德雷塞尔说,“中国的海外不实信息因充耳不闻而且经常产生相反作用而声名狼藉。”
但中国不是唯一使用科技散布不实信息的国家。
欧盟对外行动署(The EU External Action Service)对俄罗斯和中国不实信息的报告发现,莫斯科模仿国际新闻媒体来散布不实信息。报告分析了去年10月到12月间100例“信息操控”案例。报告发现,其中60例与俄罗斯入侵乌克兰有关,莫斯科的目的是分散观众注意力,转移指责或引导对不同议题的注意力。
欧盟外交政策负责人博雷利(Josep Borrell )2月份时发表讲话说,“这场战争不仅是军人在战场上进行,还在信息空间进行,试图赢得民心。我们有充分证据显示俄罗斯发动协同企图,在开放社会中操纵公共辩论。”
报纸和电视新闻媒体是莫斯科最经常模拟的目标,尤其是针对乌克兰。
该报告举出了四个案例,显示模拟欧洲讽刺杂志的假封面被用来攻击乌克兰和总统泽连斯基(Volodymyr Zelenskyy)。
报告说,“人人都可能看到他们自己的身份或品牌被误用。威胁行为者利用模仿来增加信息的合法性,试图接触并影响那些熟悉并信任被模拟实体的受众。”
俄罗斯驻华盛顿大使馆没有回复美国之音的置评要求。
大西洋理事会(Atlantic Council)数字取证研究实验室专门研究俄罗斯不实信息的研究员阿克雷瑟杰瓦(Nika Aleksejeva)说,欺骗策略是低级的,但不实信息不需要是尖端的才有效。她说有时基本的工作反而更好。
阿克雷瑟杰瓦说,说假的东西出自媒体机构让谎言更可信。目的是让读者认为“如果合法媒体机构这样写,就肯定是真的。”
阿克雷瑟杰瓦说,这个策略尤其有效,因为浏览假新闻页面的读者点击页面就会被带回到真正的新闻网站。她从拉脱维亚首都里加对美国之音说,“读者需要更多的警觉才能真正注意到什么东西不对了。”
阿克雷瑟杰瓦还担心人工智能会被用来给不实信息运动增压。她说,现在把一些细节输进一个人工智能工具,并要求一个故事就行了。
她说,“信息量肯定会变化,而编造一个故事就是这么简单。”
评论区