第三章 人机大战:AI真的会挑战人类?(第9/18页)

逻辑上,我基本认可蒂姆·厄班有关强人工智能一旦出现,就可能迅速转变为超人工智能的判断。而且,一旦超人工智能出现,人类的命运是难以预料的,这就像美洲的原始土著根本无法预料科技先进的欧洲殖民者到底会对他们做些什么一样简单。

但是,蒂姆·厄班的理论有一个非常关键的前提条件,就是上述有关强人工智能和超人工智能发展的讨论是建立在人类科技总是以加速度形式跃进的基础上的。那么,这个前提条件真的在所有情形下都成立吗?

我觉得,一种更有可能出现的情况是:特定的科技如人工智能,在一段时间的加速发展后,会遇到某些难以逾越的技术瓶颈。

有关计算机芯片性能的摩尔定律(价格不变时,集成电路上可容纳的元器件数目每隔18到24个月便会增加一倍,性能也将提升一倍)就是一个技术发展遭遇瓶颈的很好例子。计算机芯片的处理速度,曾在1975年到2012年的数十年间保持稳定的增长趋势,却在2013年前后显著放缓。2015年,连提出摩尔定律的高登·摩尔(Gordon Moore)本人都说:“我猜我可以看见摩尔定律会在大约10年内失效,但这并不是一件令人吃惊的事。”66

正如原本受摩尔定律左右的芯片性能发展已遭遇技术瓶颈那样,人工智能在从弱人工智能发展到强人工智能的道路上,未必就是一帆风顺的。从技术角度说,弱人工智能与强人工智能之间的鸿沟可能远比我们目前所能想象的要大得多。而且,最重要的是,由于基础科学(如物理学和生物学)尚缺乏对人类智慧和意识的精确描述,从弱人工智能发展到强人工智能,其间有很大概率存在难以在短期内解决的技术难题。

如果蒂姆·厄班所预言的技术加速发展规律无法与人工智能的长期发展趋势相吻合,由这一规律推导出的,超人工智能在可见的近未来即将降临的结论也就难以成立了。

当然,这只是我个人的判断。今天,学者们对超人工智能何时到来的问题众说纷纭。悲观者认为技术加速发展的趋势无法改变,超越人类智能的机器将在不远的将来得以实现,那时的人类将面临生死存亡的重大考验。而乐观主义者则更愿意相信,人工智能在未来相当长的一个历史时期都只是人类的工具,很难突破超人工智能的门槛。

霍金的忧虑

担忧超人工智能,对人类未来持悲观态度的人不少。其中,理论物理学家、《时间简史》的作者霍金是最有影响的一个。早在谷歌Alpha Go在公众中掀起AI热潮之前,霍金就通过媒体告诉大家:“完全人工智能的研发可能意味着人类的末日。”67

作为地球上少数有能力用数学公式精确描述和推导宇宙运行奥秘的人之一,霍金的宇宙观和科技史观无疑是值得重视的。事实上,霍金并不否认,当代蓬勃发展的人工智能技术已经在许多行业发挥着至关重要的作用,但他所真正忧虑的,是机器与人在进化速度上的不对等性。霍金说:“人工智能可以在自身基础上进化,可以一直保持加速度的趋势,不断重新设计自己。而人类,我们的生物进化速度相当有限,无法与之竞争,终将被淘汰。”

此外,霍金同时还担心人工智能普及所导致的人类失业问题。霍金说:“工厂自动化已经让众多传统制造业工人失业,人工智能的兴起很有可能会让失业潮波及中产阶级,最后只给人类留下护理、创造和监督工作。”68

基本上,霍金的担忧还是建立在人工智能技术将以加速度的趋势不断增速发展的基础上。如果我们假设这一基础的正确性,那么,霍金的逻辑推论与我们之前谈到的“奇点”理论并没有本质的区别。反之,如果人工智能在未来的发展不一定永远遵循加速趋势,那么,霍金有关人类终将被淘汰的结论就未必成立。