第三章 人机大战:AI真的会挑战人类?(第12/18页)
也就是说,在今天这个弱人工智能的时代里,人类对于人工智能,或者什么是“智能”的认识本身就是缺乏深度的,我们也没有一个合适的、可操作的标准,来真正定义什么是强人工智能,什么是超人工智能。
在描述超人工智能以及未来机器对人类的威胁时,包括霍金、马斯克在内的许多人,都在有意无意地混淆不同领域的标准。人工智能可以在围棋棋盘上达到业余五段还是职业九段的水平,这很容易衡量,但人工智能可以在跨领域的任务上做到何种程度,目前我们还缺乏可操作的标准。例如,人工智能是否可以在围棋棋局中,根据人类对手的表情,推测对方的心理状态,并有针对性地制定战术策略,我们基本还没法评估这种层面的“智能”。如果仅根据人工智能在围棋这种限定范畴的技术能力上表现出来的进步速度推断超人工智能何时到来,那当然可以得到人类即将面临威胁的结论。但如果综合考虑人工智能的跨领域推理能力、常识和感性、理解抽象概念的能力等,我们很难给过去数十年间人工智能发展的水平打出一个客观的分数,并据此预测超人工智能到来的时间。
很多专家对超人工智能何时来临的预测都有着极大的主观性和武断性。比如,强化学习教父理查德·萨顿(Richard Sutton)预测:“很长一段时间以来,人们都在说我们会在2030年拥有足以支持强人工智能的算力。但我认为,这不仅仅依赖于廉价的硬件,还依赖于算法。我认为我们现在还没有强人工智能的算法,但我们也许能在2030年之前实现它。”75
这类“专家预言”比比皆是。有人说强人工智能或超人工智能到来还需要15年,有人说20年,有人说50年……因为是预言,专家们并不需要为背后的逻辑是否自洽负责,但这些随口说出一个年份的预言会让敏感的公众忐忑不安。
我觉得,在人工智能领域,大多数人倾向于过于乐观地预测全局大势,而过于悲观地估计局部进展。
AI技术在许多垂直领域内的局部进展,比如围棋,比如智慧医疗,比如自动驾驶,都比很多人之前预料的更早来到我们面前。但AI的整体发展,尤其是最重大的技术突破,几乎每一步都要比多数人的预测来得晚。比如,图灵测试刚提出时,很多人认为计算机达到图灵测试所标示的强人工智能的水平,最多只要三十年的时间,但直到今天,我们也不敢说,AI到底何时才能真正像成人一样自由对话。
Deep Mind的联合创始人、CEO穆斯塔法·苏莱曼(Mustafa Suleyman)说:“人类距离实现通用AI还有很长一段路要走。说到未来的样子,很多想象很有趣,很有娱乐性,但跟我们正在开发的系统并没有太多相似之处。我没法想出来有哪一部电影会让我想到:是的,AI看起来就是这样的。”76
华盛顿大学计算机科学家奥伦·伊茲奥尼(Oren Etzioni)说:“今天的人工智能发展,距离人们可能或应该担忧机器统治世界的程度,还非常遥远……如果我们讨论的是一千年后或更遥远的未来,AI是否有可能给人类带来厄运?绝对是可能的,但我不认为这种长期的讨论应该分散我们关注真实问题的注意力。”77
我赞同奥伦·伊茲奥尼的说法。我们今天还没有到必须分配精力去担心未来,或为可能的机器威胁做准备的地步。即便以今天的标准看来,弱人工智能的发展还有很长的一段路要走,科研人员、技术人员、各行业的从业者、政府、教育机构、社会组织等,还有大量的工作需要做。至少在目前,人类离超人工智能的威胁还相当遥远。