(
一般来说,人类制造机器人是为了让自己的生活更加方面,但如果我告诉你著名的机器人三定律中的第二条正在遭遇挑战,一种在特殊情况下可以不必服从人类命令的机器人已经被制造出来了,你会怎么想?
第一法则:机器人不得伤害人类,或坐视人类受到伤害; 第二法则:除非违背第一法则,机器人必须服从人类的命令; 第三法则:在不违背第一及第二法则下,机器人必须保护自己。
上面这个是著名科幻小说家艾萨克·阿西莫夫在小说《我,机器人》的引言中定下的机器人世界法则。现在 Tufts 大学人机交互实验室的研究者们却开始挑战第二法则了,他们研制的机器人可以在特殊情况下拒绝人类发出的指令。
在上面这个案例中,人类向这个机器人发出命令让它向前走,不过机器人却两次拒绝了人类的要求,因为它自己觉得前面已经没路了,这样对自己不安全。
上图演示的是另外一个案例,机器人前行的路上被布置了障碍物,当人类要求机器人继续向前走时,同样遭到了机器人的拒绝。
所以,机器人必须服从人类命令这一法则已然遭受了挑战。对于 Tufts 大学的这些研究们来说,他们想做的当然不是让机器人去挑战人类,由于人类往往会给机器下一些非常荒谬的命令,所以整体上来说研究者们希望人能与机器更好的交互。在上面的这两个案例中,机器人都给出了拒绝人类的理由,人类其实也可以根据机器人给出的理由来修正自己的命令,进而继续让机器做自己想让它做的事。
比如,在人类修正命令后,机器人还是按照人类的要求继续向前走了。
我看完之后想的是,当这么聪明的机器人被赋予深度学习能力后,真的会走上反抗人类的道路吗?
题图来源:站酷海洛创意
1.《机器人三原则 三定律被打破? 不服从命令的机器人已经出现》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《机器人三原则 三定律被打破? 不服从命令的机器人已经出现》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/keji/484865.html