为什么防止机器人叛逆的“机器人三定律”不现实

为什么防止机器人叛逆的“机器人三定律”不现实
为什么防止机器人叛逆的“机器人三定律”不现实 1

机器人三定律是什么? “机器人三定律”(以下简称“三定律”)是20世纪40年代科幻作家艾萨克·阿西莫夫撰写的《机器人系列》中机器人应遵循的原则。它主要规定了“人类安全”、“服从命令”和“自卫”,虽然是在小说中讲述的,但也影响了后来实际的机器人工程,是一个重要的概念。这三个原则如下。第一条 机器人不得伤害人类。另外,不要对自己的不作为对人类造成的伤害视而不见。第二条:机器人必须服从人类的命令。但违反第一条规定的情形除外。第三条:机器人必须在第一条、第二条规定的范围内保护自身。阿西莫夫意识到机器人三定律不起作用。阿西莫夫在《我,机器人》中的短篇小说《绕地球一圈》中首次阐述了这些原则。当这本书于 1942 年出版时,他已经意识到不仅需要制定一项计划来防止人工智能叛乱以保护人类,而且也许这项法律会失败。为了证明这一点,阿西莫夫描绘了人工智能控制太空发电厂的一段情节。 “为什么一个不应该伤害人类的人工智能会做出这样的事?”原因在于第1条。那一集中的人工智能明白它可以比人类更好地操作发电厂。所以如果你什么都不做,你就会忽视对人类的危害。因此,他控制了发电厂,是为了自己控制发电厂。在另一集中,讨论了如何定义“人”的问题。换句话说,三原则所定义的机器人应该保护的“人类”是人类个体,而不是作为一个群体的“人类”。为了避免这种情况,在这部作品(机器人与帝国)中,添加了以下据说比三原则具有更高优先级的第0条。第0条:机器人不得危害全人类。我们也不应该对我们自己的不作为可能给全人类带来的伤害视而不见。 >正如阿西莫夫所画的那样,人工智能哲学家克里斯·斯托克斯认为机器人三定律的局限性和伦理问题在他的论文中,他认为三原则不能最终保护人类的原因如下。首先,第一条不能处理“复杂、模糊、不能非黑即白的伦理问题”。第二条是不道德的,也是不成功的,因为它“要求众生仍然是奴隶”。第3条之所以失败,是因为它“创造了一个可能伴随着巨大剥削的永久社会阶级”。与第一个原则一样,第零个原则也包含“模糊的意识形态”。所有这些原则的共同问题是,在遵守原则的字面意义的同时,很容易规避其精神。比如我前面提到的夺取发电厂的AI就是为了人类而这样做的。但结果对人类来说并不好。人工智能需要更先进的功能来遵守法律 另一个主要问题是人工智能首先需要更先进的功能来遵守规则和法律。例如,仅具有对话功能的人工智能最终可能只会威胁和恐吓人类。但街上有一些自动驾驶汽车实际上可以杀死人类。如果你问其中安装的人工智能是否正确理解了复杂的法则,事实并非如此。英国边缘山大学的马克·罗伯特·安德森在一次对话中表示:“该法律的另一个大问题是,在机器人真正遵守该法律之前,人工智能需要取得重大进展。”他表示,利用人工智能模仿人类行为的研究还没有取得太大进展,人工智能应该采取的理性行为也只是在有限的环境中进行。鉴于此,机器人的活动范围非常有限,法律的适用范围也非常有限。基于法律的推理和决策系统需要相当大的计算能力,而当前的技术可能无法实现。现在科技进步如此之快,情况可能会有所不同。事实上,在美国,一位在法庭上打架的AI律师已经出现,并正在引起争议。参考文献:不,人们,阿西莫夫的机器人定律不是行为ual Laws | IFLScience / hiroching 撰写 / parumo 编辑

RIPRO主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
D3资源 » 为什么防止机器人叛逆的“机器人三定律”不现实

提供最优质的资源集合

立即查看 了解详情