第二章 丹尼尔(第8/12页)
贝莱说:“得了吧,丹尼尔。第三法则其实是这么说的,‘在不违背第一及第二法则的情况下,机器人必须保护自己。’而第二法则是说,‘除非违背第一法则,机器人必须服从人类的命令。’第一法则的内容则是,‘机器人不得伤害人类,或因不作为而使人类受到伤害。’所以人类能够命令机器人自我毁灭——然后那机器人就会使尽全力打碎自己的头颅。而如果人类向机器人发动攻击,机器人自卫的话便会伤到人类,那就违背第一法则了。”
丹尼尔说:“我猜,你想到的都是地球机器人。奥罗拉——或任何太空族世界——对机器人的重视都超过地球,而且相较之下,太空族世界的机器人一般而言都更复杂、更能干,同时更有价值。所以在太空族世界上,第三法则相对于第二法则的强度也大大超过地球上的情形。如果接到自毁的命令,机器人会提出质疑,除非听到确实正当的原因——为了化解眼前一个明显的危机——机器人才会执行这个命令。至于防卫人类的攻击,这并不会违背第一法则,因为奥罗拉的机器人都有很好的身手,足以在不伤害人类的前提下将他制住。”
“那么,假设有人坚决宣称,除非机器人自我毁灭,否则遭到毁灭的就是他自己——他这个人类,这么一来,机器人会不会自我毁灭呢?”
“奥罗拉的机器人一定会质疑这样的说法,因为口说无凭,那个人必须提出明显的证据来。”
“难道他不可能作出巧妙的安排,让机器人觉得这个人的确陷入绝境?你之所以排除掉智商太低、年纪太小或经验不足的人,不正是这个原因吗?”
丹尼尔说:“不,以利亚伙伴,答案是否定的。”
“我的推理有错吗?”
“没有。”
“那么我就错在假设他受到了实质的损伤。事实上,他并未受到任何实质损伤,对不对?”
“是的,以利亚伙伴。”
(贝莱心想:这意味着迪玛契科的情报正确无误。)
“所以说,丹尼尔,詹德是心智受到了损伤。哈,机困!彻底且不可逆的机困!”
“机困?”
“机器人困阻的简称,就是正子径路的功能遭到永久性阻断。”
“奥罗拉人并不用‘机困’这种说法,以利亚伙伴。”
“你们怎么说呢?”
“我们称之为‘心智冻结’。”
“也可以,反正是描述同一种现象。”
“以利亚伙伴,我劝你最好还是使用我们的说法,否则奥罗拉人会听不懂你在说什么,交谈会因而无端受阻。不久之前,你才提到不同的字眼会造成不同的感受。”
“很好,我会改用‘心智冻结’——这种事会不会自动发生?”
“会,可是机器人学家说,发生的几率是无限小。我身为人形机器人,可以提供你第一手资料,我自己从未经历过可能导致心智冻结的任何效应。”
“那么我们就必须假设,有人故意制造了一个足以引发心智冻结的情境。”
“法斯陀夫博士的对头正是这么一口咬定的,以利亚伙伴。”
“要做到这件事,需要有机器人学的训练、经验和技术,所以不可能是智商太低、年纪太小或经验不足的人。”
“这个推理天经地义,以利亚伙伴。”
“我们甚至可以把奥罗拉上具有这样技术的人列举出来,制作一份嫌犯清单,而人数或许不会太多。”
“事实上,清单早已出炉了,以利亚伙伴。”
“总共有多少人?”
“不多不少,刚好只有一个人。”
这回轮到贝莱说不出话来,他恼怒地锁紧眉头,然后用相当暴躁的口气说:“只有一个人?”
丹尼尔心平气和地答道:“是的,只有一个人,以利亚伙伴。这是汉・法斯陀夫博士所作的判断,而他是奥罗拉上最伟大的理论机器人学家。”