第三章 人机大战:AI真的会挑战人类?(第6/11页)

作为地球上少数有能力用数学公式精确描述和推导宇宙运行奥秘的人之一,霍金的宇宙观和科技史观无疑是值得重视的。事实上,霍金并不否认,当代蓬勃发展的人工智能技术已经在许多行业发挥着至关重要的作用,但他所真正忧虑的,是机器与人在进化速度上的不对等性。霍金说:“人工智能可以在自身基础上进化,可以一直保持加速度的趋势,不断重新设计自己。而人类,我们的生物进化速度相当有限,无法与之竞争,终将被淘汰。”

此外,霍金同时还担心人工智能普及所导致的人类失业问题。霍金说:“工厂自动化已经让众多传统制造业工人失业,人工智能的兴起很有可能会让失业潮波及中产阶级,最后只给人类留下护理、创造和监督工作。”68

基本上,霍金的担忧还是建立在人工智能技术将以加速度的趋势不断增速发展的基础上。如果我们假设这一基础的正确性,那么,霍金的逻辑推论与我们之前谈到的“奇点”理论并没有本质的区别。反之,如果人工智能在未来的发展不一定永远遵循加速趋势,那么,霍金有关人类终将被淘汰的结论就未必成立。

特斯拉与Space X公司创始人,被誉为“钢铁侠”的埃隆·马斯克(Elon Musk)与霍金有大致相似的担忧。马斯克说:“我们必须非常小心人工智能。如果必须预测我们面临的最大现实威胁,恐怕就是人工智能了。”69

事实上,从行动上看,霍金和马斯克并不是简单的悲观主义者,他们在警告世人提防人工智能威胁的同时,也在积极行动,试图为人类找出应对未来潜在威胁的对策。马斯克说:“我越来越倾向于认为,也许在国家层面或国际层面,必须有一种规范的监管机制,来保证我们不会在这方面做任何蠢事。”

除了呼吁建立监管机制外,马斯克还与萨姆·奥尔特曼(Sam Altman)一起创立了非营利性质的科研公司Open AI。谈到创立Open AI的初衷,马斯克说:“为了保证一个美好的未来,我们最需要做什么?我们可以冷眼旁观,我们也可以鼓励立法监管,或者,我们还可以将那些特别关心如何用安全的、对人类有益的方式来开发AI的人合理地组织起来研发AI。”70

如果说这个世界上还有几家纯粹理想主义的公司的话,Open AI一定算一个。Open AI一面聚集了一批AI领域的顶尖高手,研发最前沿的AI技术(主要是强化学习和无监督学习技术),甚至探索实现强人工智能的可能性;一面反复强调自己的使命是研发“安全的”人工智能,通过实践来探寻将人工智能技术的潜在威胁降至最低的方法。

马斯克和奥尔特曼的Open AI看上去是在做一件自相矛盾的事情:既积极地研发人工智能甚至是强人工智能,又希望将人工智能关在道德或制度的“牢笼”里,让AI难以威胁人类。事实上,目前Open AI所开展的工作,和其他人工智能科研机构所做的并没有本质的不同。据说,Open AI的研究总监伊尔亚·苏茨克维(Ilya Sutskever)表示,Open AI最重要的目标,就是发表有影响力的文章71。或许,马斯克和奥尔特曼的意思是说,既然奇点来临无法避免,那不如积极投入,至少,当威胁来临时,我们对威胁本身的理解会更加深刻。

2017年年初,霍金和马斯克均表示,为了防止人工智能威胁人类,他们支持加州阿西洛马(Asilomar)会议通过的23条基本原则72。这23条基本原则涵盖了三个范畴:1)科研问题;2)伦理和价值观;3)长期问题。

阿西洛马23条基本原则像科幻大师阿西莫夫笔下著名的“机器人三定律”一样,从方法、特征、伦理、道德等多方面,限定未来的人工智能可以做什么,不可以做什么。例如,有关人工智能相关的伦理和价值观,其中几条原则是这样规定的:

·安全性:人工智能系统应当在整个生命周期内确保安全性,还要针对这项技术的可行性以及适用的领域进行验证。

·价值观一致性:需要确保高度自动化的人工智能系统在运行过程中秉承的目标和采取的行动,都符合人类的价值观。

·由人类控制:人类应当有权选择是否及如何由人工智能系统制定决策,以便完成人类选择的目标。

·非破坏性:通过控制高度先进的人工智能系统获得的权力,应当尊重和提升一个健康的社会赖以维继的社会和公民进程,而不是破坏这些进程。73

应当说,在担忧未来人工智能威胁的人中,霍金和马斯克还是一直抱有一种非常积极的态度的。他们一方面基于自己的逻辑判断,相信人类未来面临机器威胁的可能性非常大;另一方面又利用自己的影响力,积极采取行动,尽可能将人工智能置于安全、友好的界限内。从这个角度讲,霍金和马斯克至少比那些盲目的悲观主义者,或因未来的不确定性而丧失勇气的怯懦者强很多很多倍。

理智分析:人类离威胁还相当遥远

那么,我们到底该怎样看待“人工智能威胁论”呢?

《人工智能时代》的作者,计算机科学家、连续创业家、未来学家杰瑞·卡普兰(Jerry Kaplan)与我讨论这个问题的时候,他的观点是:

超人工智能诞生并威胁人类这件事发生的概率是非常小的。其实,我们现在做的只是在制造工具,以自动完成此前需要人类参与才能完成的工作任务。之所以会有“人工智能威胁论”的疑问,根本上是因为大众习惯于把人工智能人格化,这是问题的根源。74

这件事对于专业人士和对于大众的意义是不一样的。例如,大众总是担心无人驾驶汽车可能伤及人类的生命。在一些极端的例子里,无人驾驶汽车确实需要做出决定,是要撞向左边,伤及左边的行人呢,还是要撞向右边,伤及右边的行人。但无人驾驶汽车只是一套机器系统,它们并不会真正做出决策。它们只是根据对环境的感知,按照某种特定的原则和设计做出反应,而我们人类对于整套系统的感知和反馈模式拥有完全的控制权。如果它们做了什么不符合我们社会准则的事情,那一定是因为我们人类在设计它们时犯了错误。

我们所面对的,只不过是一系列工程设计上的问题。我们必须确保我们设计制造的产品和服务符合我们的愿望和预期。你知道,这件事与桥梁工程师们使用一整套质量保障方案来确保他们建造的桥梁不会坍塌并没有什么两样。我们有许多工程学上的原则,来指导我们测试一个系统,什么样的系统是合格的,什么样的系统是足够安全的,等等。在人工智能领域,我们同样需要这样的技术,因为人工智能十分强大,具有潜在的危险性。但这并不是因为智能机器会像人类一样思考,只是因为它们十分强大,我们必须小心使用它们。