人工智能(AI)被广泛定义为允许机器执行过去只有人才能完成的任务的技术。然而,随着技术的不断进步,人们越来越多地谈论如何确保机器不仅可以做出决定,而且可以做出和合乎伦理道德的决定。
在斯坦福大学举行的一场有关人工智能伦理的会议上,专家们表示,人工智能正越来越多地代替人类做决定,从驾驶汽车、抗击疾病,到帮助人们整理互联网上的信息。
但他们表示,随着人工智能变得越来越聪明,程序员需要确保人工智能程序学会保护人类的价值。
许多人认为将联合国的《世界人权宣言》纳入人工智能编程是一个不错的办法。
前美国驻联合国人权理事会大使艾琳·多纳霍说:“我们有一个可以参照的原则框架,即现有的国际人权框架。”
1948年的《世界人权宣言》列出了一系列基本条款,其中包括生命权、自由、谴责奴隶制和酷刑等。
艾琳·多纳霍说:“这涉及到政府的法律义务以及私营部门的责任,包括保护并尊重人权以及纠正侵犯人权的行为。”
但人工智能领域的反对者表示,这项技术的好坏完全取决于编程人员。他们表示,对人工智能编程的更多监管只会扼杀创新。
其他人则持不同意见。
欧洲议会前议员马杰·沙克说:“对它的争论意味着创新比民主或法治更重要,后者是我们生活质量的基础。事实上,我认为,今天一些对我们开放社会和开放互联网的更严重挑战并不是来自于对技术的过多管理,而是管理不足。”
谷歌、脸书、百度和腾讯等公司对人工智能技术的快速开发远远超出了监管范围,暴露出假新闻、侵犯隐私、有偏见的人工智能决策和自动化武器的危险等挑战。
专家表示,确保人工智能伦理实践的全球治理框架是必要的。谷歌前首席执行长施密特等行业领军人物认为需要进行更多的讨论。
美国国家人工智能安全委员会主席埃里克·施密特说:“我们来到这里的根本原因是希望进行公开辩论……我们希望确保我们正在建立的体系是以我们的价值观、人类的价值观为基础的。”
但是谁来决定人类的价值观呢? 这些专家表示,要确保将联合国对人权的理解纳入人工智能的每一个决策还有很长的路要走,才能确保一个安全和有保障的未来。”