据美国媒体周一(5月1日)报道,一位常常被称为“人工智能教父”的计算机科学家已经辞去了他在谷歌的工作,并且公开谈论这项技术的危险。
为人工智能系统创建基础技术的杰弗里·辛顿(Geoffrey Hinton)告诉《纽约时报》(The New York Times),该领域取得的进展“对社会和人类构成了深刻的风险”。
“看看五年前的情况以及现在的情况,”他被援引在周一发表的文章中说道。
“如果将这些差异向前继续传播。这太可怕了。”
辛顿表示,科技巨头之间的竞争正在推动公司以危险的速度发布新的人工智能技术,冒着失去工作和传播错误信息的风险。
“很难看出如何能够防止坏人将其用于做坏事,”他对《纽约时报》说。
2022 年,谷歌和 OpenAI--流行的人工智能聊天机器人 ChatGPT 背后的初创公司--开始使用比以前大得多的数据开始构建系统。
辛顿告诉《纽约时报》,他认为这些系统在某些方面正在使得人类智能黯然失色,因为它们能够分析大量的数据。
“也许这些系统中发生的事情,实际上比大脑中发生的事情要好得多,”他告诉该报。
虽然人工智能已被用于支持人类的工作,但像ChatGPT这样的聊天机器人的快速扩张可能会使工作面临风险。
人工智能“带走了苦差事”,但“可能会带走的不止这些,”他对《纽约时报》说。
这位科学家还警告说,人工智能创造的错误信息可能会被传播,他告诉《纽约时报》,普通人将“无法再知道什么是真实的”。
据《纽约时报》报道,辛顿上个月通知了谷歌他将辞职的决定。
谷歌人工智能首席科学家杰夫·迪恩(Jeff Dean)在给美国媒体的一份声明中感谢了辛顿。
“作为首批发布人工智能原则的公司之一,我们仍然致力于对人工智能采取负责任的方法,”声明补充说。
“我们不断学习、了解新出现的风险,同时也大胆地创新。 ”
今年三月,科技亿万富翁埃隆·马斯克(Elon Musk)和一系列专家呼吁,暂停人工智能系统的开发,以便有时间确保它们的安全。
一封公开信,有1000多人签名,其中包括马斯克和苹果公司(Apple)的联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)。GPT-4的发布是这封公开信的导火索,而GPT-4是ChatGPT使用的更强大的技术版本。
辛顿当时没有签署这封信,但告诉《纽约时报》,科学家们不应该“在了解他们是否能够控制它之前进一步扩大规模”。
(本文依据了法新社的报道。)
评论区