第60页(1 / 2)

南安小声:怎么会?

    因为它们只有算法,在这个逻辑中,人类的命令低于精准的运算。因此在这之后,人类就出台了《机器人三大法则》。

    毕德尔看着南安,轻声问:知道这个吗?

    南安点点头。

    在开普勒基地时,工作人员就对他科普过。

    但当时他注意力全被窗外的星星吸引了,对于这类法则,他没听进去。

    于是他又小幅度地摇头:我不知道。

    毕德尔教授倾身,把口袋中的一本小册子给了南安:上面有玫瑰城的基本准则,也有机器人三大法则的蓝本,不过现在的玫瑰城,使用的是《机器人五大法则》。

    于是南安翻开。

    在第一页,那是陈旧的牛皮纸,画着一朵绽开的玫瑰花。

    像是跨越了几百年的人类发展历史,带着说不尽却又陈旧的痕迹,落在这一支单只的玫瑰上。

    紧接着,南安就看到一段话。

    【人类于2240年9月1日通过机器人三大法则,即日实行。】

    南安的视线往下移。

    就见下方三行小字,写着三句法则

    【机器人不得伤害人类,或者目睹人类危险而袖手旁观。】

    【在不违反第一条法则的前提下,机器人必须服从人给予它的命令。】

    【机器人在不违反第一、第二条法则的情况下,要尽力保护自己。】

    见南安专注阅读的模样,毕德尔教授道:这仅仅只是一个开始。

    什么意思?

    人类自以为是的优越感,让他们忽略了机器人背后的强大逻辑。

    他的语气平稳,南安觉得他真的在讲述一个故事,带着旁观整个时代的冷静,和现在的他们毫不相关。

    于是南安推测:是法则不能约束机器人吗?

    不。毕德尔摇头:是定义出了错。

    孩子,我问你一个很简单的问题。

    您说。

    毕德尔:如果机器人觉得人类遇到危险,那么,什么是危险?