品玩

科技创新者的每日必读

打开APP
关闭
机器人

机器人三定律被打破,不服从人类命令的机器人已经出现了

一般来说,人类制造机器人是为了让自己的生活更加方面,但如果我告诉你著名的机器人三定律中的第二条正在遭遇挑战,一种在特殊情况下可以不必服从人类命令的机器人已经被制造出来了,你会怎么想?

CY Zhou

发布于 2015年11月26日

一般来说,人类制造机器人是为了让自己的生活更加方面,但如果我告诉你著名的机器人三定律中的第二条正在遭遇挑战,一种在特殊情况下可以不必服从人类命令的机器人已经被制造出来了,你会怎么想?

第一法则:机器人不得伤害人类,或坐视人类受到伤害;

第二法则:除非违背第一法则,机器人必须服从人类的命令;

第三法则:在不违背第一及第二法则下,机器人必须保护自己。

上面这个是著名科幻小说家艾萨克·阿西莫夫在小说《我,机器人》的引言中定下的机器人世界法则。现在 Tufts 大学人机交互实验室的研究者们却开始挑战第二法则了,他们研制的机器人可以在特殊情况下拒绝人类发出的指令。

在上面这个案例中,人类向这个机器人发出命令让它向前走,不过机器人却两次拒绝了人类的要求,因为它自己觉得前面已经没路了,这样对自己不安全。

上图演示的是另外一个案例,机器人前行的路上被布置了障碍物,当人类要求机器人继续向前走时,同样遭到了机器人的拒绝。

所以,机器人必须服从人类命令这一法则已然遭受了挑战。对于 Tufts 大学的这些研究们来说,他们想做的当然不是让机器人去挑战人类,由于人类往往会给机器下一些非常荒谬的命令,所以整体上来说研究者们希望人能与机器更好的交互。在上面的这两个案例中,机器人都给出了拒绝人类的理由,人类其实也可以根据机器人给出的理由来修正自己的命令,进而继续让机器做自己想让它做的事。

比如,在人类修正命令后,机器人还是按照人类的要求继续向前走了。

我看完之后想的是,当这么聪明的机器人被赋予深度学习能力后,真的会走上反抗人类的道路吗?

题图来源:站酷海洛创意

下载品玩App,比99.9%的人更先知道关于「机器人」的新故事

下载品玩App

比99.9%的人更先知道关于「机器人」的新故事

iOS版本 Android版本
立即下载
CY Zhou

PingWest

取消 发布
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测