机器人会成为人类的朋友吗?还是人类成为机器人的奴隶吗?
为了避免不好的情况出现,人类已在设想解决方法了。那就是机器人三原则,及其后续补充完善的相关原则。
科学技术的进步很可能引发一些人类不希望出现的问题。为了保护人类,早在1940年科幻作家阿西莫夫就提出了“机器人三原则”,阿西莫夫也因此获得“机器人学之父”的桂冠!
第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观.
第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。
第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。
后来又出现了补充的“机器人零定律”:
第零定律:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。
所以新的机器人定律为:
第零定律:机器人必须保护人类的整体利益不受伤害。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。
之后,人们不断提出对机器人三原则的补充、修正。
保加利亚科幻作家Lyuben Dilov1974年在小说《 Icarus's Way》中提出第四原则:
第四原则:机器人在任何情况下都必须确认自己是机器人。
1989年美国科幻作家Harry Harrison在《Foundation's Friends》中又提出另一个第四原则:
第四原则:机器人必须进行繁殖,只要进行繁殖不违反第一原则、第二原则或者第三原则。
保加利亚科幻作家Nikola Kesarovski在《The Fifth Law of Robotics》(1983年)中又提出一个与Lyuben Dilov第四原则看似相似实则不同的第五原则:
第五原则:机器人必须知道自己是机器人。
这些补充的确有其发生的理由,但普遍存在的一个问题是补充本身的必要性和必然性。要知道,阿西莫夫三原则指出了机器人学的三个基本规范(或者“规律”),更具体的规范必须建立在这些基本规范的基础之上。怎样划分一个规范是具体规范还是基本规范?如果是基本规范,又怎样确定它在基本规范体系中的位置(为什么它是“第四”原则,而另一个又是“第五”原则?)?客观地说,前述几个“第四”、“第五“原则的内容并不能使自己成为第四原则、第五原则,既看不出它们何以成为原则,也看不出何以如此排序。这些原则的提出,多半是适应小说情节的需要,在小说中固然言之成理,但却不必过份拘泥。很显然,这几个补充原则的出发点是小说情节的需要,并不是机器人三原则本身的内容。而从三原则的内容出发对三原则加以补充、修改,这样的工作人们已经做过,并产生过很多严肃的讨论文章。这里只举罗杰·克拉克为例,他构思的机器人原则是:
元原则:机器人不得实施行为,除非该行为符合机器人原则。
第零原则:机器人不得伤害人类整体,或者因不作为致使人类整体受到伤害。
第一原则:除非违反高阶原则,机器人不得伤害人类个体,或者因不作为致使人类个体受到伤害。
第二原则:机器人必须服从人类的命令,除非该命令与高阶原则抵触。
机器人必须服从上级机器人的命令,除非该命令与高阶原则抵触。
第三原则:如不与高阶原则抵触,机器人必须先保护上级机器人,再保护自己之存在。
第四原则:除非违反高阶原则,机器人必须执行内置程序赋予的职能。
1.人类制造机器人就是为了减轻人的劳动强度和一些人类不能做的事情,当然是人类的朋友;
2.但是一些人过于依赖机器人;
3.人类是最聪明的
一般来说我杀死很多BOT,但BOT不经常杀死我