第四章 法斯陀夫(第9/10页)

贝莱说:“我想你是要告诉我,发生在詹德・潘尼尔身上的情形应该很类似。他曾面对一个矛盾,导致他的大脑烧坏了?”

“表面上看起来是这样,但如今可不比苏珊・凯文的时代,这种事并没有那么容易发生。可能正是由于那则传说,机器人学家总是小心翼翼,全力预防出现矛盾的可能性。随着正子脑的理论越来越精妙,以及正子脑的实务设计越来越复杂,这种系统也就越来越可靠,能将可能出现的各种情况一一分解成不等式,于是,机器人一定可以采取理论上服从第一法则的某种行动。”

“好吧,如今机器人的脑子不会烧坏了,这就是你的结论吗?但如果真是这样,詹德到底出了什么事?”

“这并不是我的结论。我刚才只是说系统越来越可靠,并没有说百分之百可靠,那是不可能的。无论正子脑多么精妙,多么复杂,你总有办法设计一个矛盾来困住它,这是数学上的基本真理。换言之,你永远不可能制造一个精妙复杂至极的正子脑,让它毫无面对矛盾的机会,那是绝对办不到的。然而,如今的系统已经能让这种几率趋近于零,所以如果想利用矛盾令某个正子脑冻结,你必须对它有深刻的了解——这一点,只有高明的理论机器人学家做得到。”

“比如说你自己,法斯陀夫博士?”

“比如说我自己。而若是人形机器人,那就只有我了。”

“或者谁也做不到。”贝莱以极度讽刺的口吻说。

“或者谁也做不到,说得太好了。”法斯陀夫居然表示同意,“人形机器人的大脑是一种刻意模仿人类的产物,此外,躯体当然也是。这种正子脑精密至于极点,自然或多或少和人类的大脑一样脆弱。正如人类可能罹患脑中风——由于偶然的内在原因,和外在的影响毫无关系——人形机器人的大脑也可能由于纯属偶然的因素,例如偶发性的正子随机漂移,而进入心智冻结状态。”

“你能证明这点吗,法斯陀夫博士?”

“我能用数学导出这个结果,但是那些看得懂的专家,并非人人同意我的推论过程,因为我用到一些并不符合机器人学主流思想的自家假设。”

“根据你的计算,自发性心智冻结到底有多大可能?”

“如果我们有很多的人形机器人,例如十万个,那么平均而言,一个奥罗拉人在他一生当中,有机会见到一次自发性心智冻结。但也可能不需要那么久,詹德就是一个例子,不过这样的机会就更小了。”

“可是请注意,法斯陀夫博士,即使你能斩钉截铁地证明任何机器人都可能出现自发性心智冻结,也不等于证明了这件事会在这个时候发生在詹德身上。”

“对,”法斯陀夫承认,“你说得很对。”

“你,当代最伟大的机器人学家,竟无法针对詹德的个案提出任何证明。”

“这句话,你也说得很对。”

“那你又指望我能做什么呢,我对机器人学根本一窍不通。”

“你不需要证明任何事,只要想个高明的办法,让一般大众相信自发性心智冻结的确有可能,那就足够了。”

“例如——”

“我还没想到。”

贝莱厉声道:“你确定自己没想到吗,法斯陀夫博士?”

“你这话什么意思?我已经说了还没想到。”

“那就让我说得更明白些。我假设,奥罗拉民众大多知道我已经被请来这里办案。由于我是地球人,而这里是奥罗拉,想让我的行踪神不知鬼不觉,可说是难上加难。”

“对,那还用说,我也从来不想那么做。为了这件事,我专程拜访过立法局主席,说服他允许我邀请你来这里。我就是用这个理由,替自己争取到一些缓冲时间,在我接受审判之前,先让你试试看能否侦破这件悬案,但我相信他们不会给我太多时间。”