返回第三百一十九章 机器人(3 / 3)  黑科技:开局攻克I5芯片首页

护眼 关灯     字体:

上一页目录 纯阅读 下一章

,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。

    第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。

    第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。

    这3+1条定律保障了智能机器人不会造反。

    但是这个机器人定律真的是无懈可击的吗?

    陈渊并不这样觉得,如果他能和阿莫西夫一起畅谈,说不定两人还能商讨出一些成绩。

    但这个定律不是没有漏洞。

    三定律的漏洞首先人们最常质疑的就是三定律的实现问题——阿西莫夫里面的机器人都是有独立思维的。三大定律的前提就是对于能够自主学习思考解决问题的机器人,或者叫强人工智能,他们自然就能像人类一样判断问题,至于怎么造出这样的机器人?不关家的事。

    同时还有很多人拿道德法律和三定律比较,然而违反法律是要由第三者来惩罚的,想想那么多的警匪片就知道了;违反道德最多就是受到谴责,心态好点的话啥事没有。三定律是内置在机器人系统中的,违反了的话机器人自己就会“自杀”,就算机器人能力再高,除非他能自己修改自己的固件,否则都不可能跳出三定律。

    但三定律真的是无懈可击的吗?

    其实机器人三定律的出处——阿西莫夫机器人系列——其实写了一大堆方法来推翻定律。

    其中最简单的一个就是重新定义,你可以重新定义何为“人类”,你也可以重新定义“轻重伤”。

    同时看过银河帝国的话,一定会记得葛兰.崔维兹,当初之所以选择会选择盖亚,而不是谢顿计划是因为谢顿计划的默认前提是:银河中,只有人类这一唯一的智慧物族。

    其实,机器人三大定律也被限制在这种错误的前提条件下。不然,J.丹尼尔.奥利瓦为什么要和菲龙大脑融合?


『加入书签,方便阅读』

上一页目录 下一章