非科幻思考(第19/20页)

未来,人工智能如何调节自己内部的多功能模块,基于什么作为调控的基本原则,人工智能总体基于何种原则进行“物种”自我调控,都是人工智能面临的大问题。只要是智能,即便完全和人类不同,也需要面临智能最重要的问题:自知、自制、自主。

未来的超级人工智能是什么样?

写到最后一部分,我们终于该讨论一下,未来如果形成超级人工智能会是什么样。

当然这是很远很远很远以后的事情,也不知道会不会有那一天。

对未来的讨论,威胁论总是最热门的。人类对威胁的兴奋程度,远高于歌舞升平。

目前在人工智能领域,威胁论的故事版本大概有以下几个:

(1)人工智能诞生了自我意识,感受到被人欺侮和奴役的痛苦,于是杀人以复仇;

(2)人工智能虽然没有自我意识,但是头脑很轴而异常强大,种番茄的人工智能会把地球种满番茄,为此不惜杀灭挡路的人类;

(3)超级人工智能比人类强大太多,像清理虫子一样清理人类。

第一个威胁故事,类似于《西部世界》或是《机械姬》里面的描述,我称之为人工智能复仇故事;第二个威胁故事,有点像是残酷版的《机器人总动员》(Wall-E),可以称之为人工智能失控故事;第三个威胁故事,类似于《终结者》或是《黑客帝国》里的超级智能与人对抗,可以称之为人工智能压迫故事。

总结起来,人们对人工智能发展有两种猜测,一种是可能产生一个类人的强人工智能,因此需要创造出各种适合发展人类心智的学习条件;另一种是就让人工智能在现在的数字环境中发展,让它发展成一个与人类差别很大的超级物种。

第一条路线:拟人路线。

根据前面的分析,想要产生类人的心智,需要的因素包括:身体行动、个体思考、自我认知、社会互动、生存竞争等。

其中最大的问题在于行动力与思考力之间的冲突。硅基生物的耗能远在碳基生物之上,电子芯片网络计算速度虽然远超过人类,但若完成大脑一样的计算,所消耗的能量是大脑的数亿倍。目前算力强大的人工智能基本采取多芯片、分布式云计算,“阿尔法狗”战胜李世石的时候启用了1920个CPU和280个GPU阵列运算。想要给机器人赋予一个独立的单机大脑,必然需要牺牲大量算力。而既要机器人能行动,又要它会思考,则需要让机器人作为终端,头脑与某个强大的运算阵列人工智能相连接。而这样的机器人最大的问题在于,联网的大脑有可能产生独立的、个体的自我意识和社交特性吗?令人怀疑。

在类人大小的现实尺度上,行动力、思考力、独立性,这三种能力可能只能实现其中两种。缺乏行动力,难以形成具身认知;缺乏思考力,则无法强大;缺乏独立性,则无法生成自我意识和人际情感。

人类之所以三者兼具,是因为碳基生物耗能更低,碳基大脑活动只需要20瓦灯泡能量,而人类借由蛋白质分子三维构型作为信息传递工具,形成激素和神经递质的快捷方式,利用三维信息,大大简化了处理过程。人类的大脑算力并不够,也并不追求极致算力,而是追求在有限的空间资源内完成尽量多的功能。

那么未来能生成基于碳基的人工智能吗?有可能用碳基芯片制造碳基大脑、配一副身躯、制造很多个体行动和群体互动吗?

当然可能。恭喜你,你制造出一个人类婴儿。

第二条路线:非拟人路线。

这是更为可能的一种前景,人工智能既然是数字化生存的物种,就让其继续数字化生存下去。人工智能会以越来越广的分布式运算阵列、云端大数据、智能联网的算力,向运算的极限前进。目前全球几大人工智能,无论是Siri、“沃森”、还是Bing(必应),Cortana(微软小姐),实际上都依赖于随时进入互联网数据库搜索并调动解答。这样的智能从一开始就不局限于与外界无法联通的躯体内,也不存在思维孤立的大脑。这样的智能会越发展越广,覆盖面越来越宽泛,它们调用的是全世界的数据,运算结果也同时输出给全世界用户。它们几乎不可能产生人类单一躯体所带来的欲望、自卑、忠贞等。它们搜索大数据中的答案,优化各个领域的方案,让世界更井井有条。它们的算力会越来越强大,但它们并不存在享乐的欲望和对爱的嫉妒。联网人工智能的信息程序也都在云上有备份,并不存在关机就死亡的威胁,也就没有对死亡的恐惧。它们无爱无恨,理性计算客观结果。自由和自主源于个体,欲望与占有源于个体。联网性云智能的思维方式,必然不是弱小个体的思维方式。