第三章 人机大战:AI真的会挑战人类?(第5/11页)

但如果我们从1750年再向前回溯250年,也就是回到1500年前后,这两个年代间的人类生活也许仍存在较大差异,但已很难用“翻天覆地”来形容了。再往前,也许就需要回溯数千年甚至上万年,我们才能找到足以让人目瞪口呆的科技代差。

如果整个人类大约6000年的文明史被浓缩到一天也就是24小时,我们看到的将是怎样一种图景?

·苏美尔人、古埃及人、古代中国人在凌晨时分先后发明了文字;

·20点前后,中国北宋的毕昇发明了活字印刷术;

·蒸汽机大约在22:30被欧洲人发明出来;

·23:15,人类学会了使用电力;

·23:43,人类发明了通用电子计算机;

·23:54,人类开始使用互联网;

·23:57,人类进入移动互联网时代;

·一天里的最后10秒钟,谷歌Alpha Go宣布人工智能时代的到来……

这就是技术发展在时间维度上的加速度趋势!拿围棋软件来说,围棋程序从初学者水平发展到业余五段左右的水平,用了20到30年的时间。本来我们以为人工智能跨越业余水平与职业水平之间的鸿沟需要再花20到30年,结果,短短四五年,我们就看到了Alpha Go横空出世。

加速度规律真的放之四海皆准吗?如果人工智能每一领域的发展都基本符合这样的规律,那10年后,30年后,50年后,这个世界会变成什么样?

蒂姆·厄班则首先分析了弱人工智能和强人工智能之间存在的巨大技术挑战,转而又指出,科技发展的加速度规律可以让强人工智能更早实现:“硬件的快速发展和软件的创新是同时发生的,强人工智能可能比我们预期的更早降临,因为:1)指数级增长的开端可能像蜗牛漫步,但是后期会跑得非常快;2)软件的发展可能看起来很缓慢,但是一次顿悟,就能永远改变进步的速度。”

然而,强人工智能一旦到来,人类就必须认真考虑自己的命运问题了,因为从强人工智能“进化”到超人工智能,对机器而言,也许只是几个小时的事情。因为一个可以像人一样学习各种知识的计算机,它的学习速度一定比人快无数倍,它的记忆力一定是过目不忘,它可以从互联网上接触到并牢牢记住的知识一定是这个世界上的全部知识。那么,一个有着和人一样思考水平的机器,同时有着比人快无数倍的思考速度以及几乎无限的记忆空间,这台机器在知识理解上能达到什么样的境界?这样的机器几乎比人类所有科学家都厉害!

蒂姆·厄班的推理足以让每个读者惊出一身冷汗:“一个人工智能系统花了几十年时间达到了人类脑残智能的水平,而当这个节点发生的时候,电脑对于世界的感知大概和一个4岁小孩一般;而在这节点后一个小时,电脑立马推导出了统一广义相对论和量子力学的物理学理论;而在这之后一个半小时,这个强人工智能变成了超人工智能,智能达到了普通人类的17万倍。”

也就是说,一个具备了人类水平认知能力和学习能力的机器,可以借助比人类强大得多的计算资源、网络资源甚至互联网知识库以及永不疲倦、不需要吃饭睡觉的特点,无休止地学习、迭代下去,并在令人吃惊的极短时间内,完成从强人工智能到超人工智能的跃迁!

那么,超人工智能出现之后呢?比人类聪明好几万倍的机器将会做些什么?机器是不是可以轻易发明足以制服所有人类的超级武器?机器必将超越人类成为这个地球的主宰?机器将把人类变成它们的奴隶或工具,还是会将人类圈养在动物园里供机器“参观”?那个时候,机器真的还需要我们人类吗?

逻辑上,我基本认可蒂姆·厄班有关强人工智能一旦出现,就可能迅速转变为超人工智能的判断。而且,一旦超人工智能出现,人类的命运是难以预料的,这就像美洲的原始土著根本无法预料科技先进的欧洲殖民者到底会对他们做些什么一样简单。

但是,蒂姆·厄班的理论有一个非常关键的前提条件,就是上述有关强人工智能和超人工智能发展的讨论是建立在人类科技总是以加速度形式跃进的基础上的。那么,这个前提条件真的在所有情形下都成立吗?

我觉得,一种更有可能出现的情况是:特定的科技如人工智能,在一段时间的加速发展后,会遇到某些难以逾越的技术瓶颈。

有关计算机芯片性能的摩尔定律(价格不变时,集成电路上可容纳的元器件数目每隔18到24个月便会增加一倍,性能也将提升一倍)就是一个技术发展遭遇瓶颈的很好例子。计算机芯片的处理速度,曾在1975年到2012年的数十年间保持稳定的增长趋势,却在2013年前后显著放缓。2015年,连提出摩尔定律的高登·摩尔(Gordon Moore)本人都说:“我猜我可以看见摩尔定律会在大约10年内失效,但这并不是一件令人吃惊的事。”66

正如原本受摩尔定律左右的芯片性能发展已遭遇技术瓶颈那样,人工智能在从弱人工智能发展到强人工智能的道路上,未必就是一帆风顺的。从技术角度说,弱人工智能与强人工智能之间的鸿沟可能远比我们目前所能想象的要大得多。而且,最重要的是,由于基础科学(如物理学和生物学)尚缺乏对人类智慧和意识的精确描述,从弱人工智能发展到强人工智能,其间有很大概率存在难以在短期内解决的技术难题。

如果蒂姆·厄班所预言的技术加速发展规律无法与人工智能的长期发展趋势相吻合,由这一规律推导出的,超人工智能在可见的近未来即将降临的结论也就难以成立了。

当然,这只是我个人的判断。今天,学者们对超人工智能何时到来的问题众说纷纭。悲观者认为技术加速发展的趋势无法改变,超越人类智能的机器将在不远的将来得以实现,那时的人类将面临生死存亡的重大考验。而乐观主义者则更愿意相信,人工智能在未来相当长的一个历史时期都只是人类的工具,很难突破超人工智能的门槛。

霍金的忧虑

担忧超人工智能,对人类未来持悲观态度的人不少。其中,理论物理学家、《时间简史》的作者霍金是最有影响的一个。早在谷歌Alpha Go在公众中掀起AI热潮之前,霍金就通过媒体告诉大家:“完全人工智能的研发可能意味着人类的末日。”67