第三章 人机大战:AI真的会挑战人类?(第3/11页)
Claudico在2015年初出茅庐的这次比赛以失利告终。这个剧情,有些像1996年IBM深蓝输给卡斯帕罗夫的那一次。与Claudico交过手的道格·波尔克说,Claudico与人类的打牌方式非常不同,“人类选手的下注数量可能是彩池的一半或四分之三,而Claudico有时只吝啬地以彩池的十分之一来下注,有时则以彩池的十余倍来下注。人类可不会用19000美元的下注去博取区区700美元的彩池”60。
2015年的失利并没有让托马斯·桑德霍姆教授灰心。2017年1月,教授带着一个名为Libratus的新版本德州扑克程序卷土重来,再战匹兹堡的河流赌场。像上次一样,新版本程序的名字Libratus也是一个拉丁文单词,对应于程序使用的均衡(balanced)策略——这一策略源自数学家纳什定义的一种完美博弈的模型。
托马斯·桑德霍姆教授解释说:“在有两名玩家的零和游戏中,如果有一人不遵从纳什均衡的策略,那么两名玩家获得的收益都将受损,但我们的系统不会这样。在此类游戏中,以纳什均衡的方式思考是最安全的。遵从规律的玩家将合理地获得收益,同时在任何地方都不会被对手利用。”61
这一次,比赛规则和2015年那次基本一致,比赛时间从13天延长到20天,仍基于无限制投注的规则,Libratus轮流与人类高手一对一比赛。人类团队计算总分,与Libratus的总得分比较胜负关系。不同的是,升级后的Libratus程序就像围棋棋盘上威风八面的Alpha Go一样,一上来就对四名人类高手形成了全面压制。AI从比赛第一天就一路领先,第6天领先优势虽一度缩小,但从第7天后,人类就再也没有机会缩小巨大的差距了。最终,Libratus领先的筹码数量达到惊人的176.6万美元!在德州扑克领域的人机大战中,人工智能完美胜出!
连续参加了2015年和2017年两次人机大战的人类德州扑克高手Dong Kim说,他在这次比赛全程充满挫败感——其实他已经是四位人类高手里面,对战成绩最好的那个了。两年前曾经击败计算机的Dong Kim在2017年的比赛刚刚过半时就直言:“人类已经没有真正获胜的机会。”62
那么,从Libratus大败人类高手的德州扑克对局中,我们能看到哪些人工智能的发展规律呢?
根据我对Libratus对局的观察,Libratus所使用技术策略非常成功。AI利用增强学习技术,从自我对局中学习最优的扑克玩法,而避免从人类的既定模式中学习经验,这是非常重要的一点。当然,目前Libratus的算法还只适用于无限制投注的一对一比赛。如果将比赛扩展到更常见的多人制比赛,Libratus面对的挑战会更大一些,还需要进行策略上的升级与调整。
计算机在德州扑克领域取得的成功,让包括我在内的人工智能研究者都非常振奋,这主要有以下两个原因:
·和围棋不同,在德州扑克的牌桌上,人工智能与人类选手一样,都只能看到部分信息。这种情况下,没有所谓的唯一的、最佳的打法。
·Libratus基本是从零开始学习德州扑克策略,且主要依靠自我对局来学习。这对利用人工智能解决更为广泛的现实问题意义重大。
那些担心人工智能威胁的悲观主义者可能会从Libratus的胜利中看到更为现实的风险。比如,机器曾在比赛中用大赌注和新策略吓退、蒙骗过最精明的人类牌手,这些方法也许会被精明的商人用于人类的商业谈判。一旦这些人工智能算法被犯罪组织利用,是否会出现灾难性的后果?担心出现超人工智能的人还会进一步追问,一旦机器有了自我意识,机器是否会像德州扑克牌桌上的AI算法一样,用各种策略诱骗、恐吓人类呢?
乐观主义者则更多地看到Libratus的算法本身对于人工智能帮助人类解决实际问题的巨大价值。如果机器能够在自我学习中不断完善对于一种特定策略的掌握程度,能够在不熟悉或缺乏全部信息的环境中不断试错并积累经验,那么,机器显然可以胜任更多的人类工作。比如,机器可以帮助人类制订更为复杂的医疗计划,可以在人类感到难以决策的领域,比如商业活动、城市规划、经济调控甚至战争指挥等,充当人类的“参谋”。也许,未来每个人都可以依靠强大的计算机和人工智能程序,成为运筹帷幄、决胜千里的战略家。
AI小百科 弱人工智能、强人工智能和超人工智能
我们谈到了人类对人工智能的某种担心,很多人最想知道的是:今天的人工智能到底有多“聪明”?人工智能到底会发展到什么程度?什么样的人工智能会超出人类的控制范围,甚至给人类带来威胁?
要回答这样的问题,我们也许需要先廓清一下有关不同层级人工智能的几个基本定义。
弱人工智能(Weak AI)
也称限制领域人工智能(Narrow AI)或应用型人工智能(Applied AI),指的是专注于且只能解决特定领域问题的人工智能。毫无疑问,今天我们看到的所有人工智能算法和应用都属于弱人工智能的范畴。
Alpha Go是弱人工智能的一个最好实例。Alpha Go在围棋领域超越了人类最顶尖选手,笑傲江湖。但Alpha Go的能力也仅止于围棋(或类似的博弈领域),下棋时,如果没有人类的帮助(还记得Alpha Go与李世石比赛时,帮机器摆棋的黄士杰博士吗?),Alpha Go连从棋盒里拿出棋子并置于棋盘之上的能力都没有,更别提下棋前向对手行礼、下棋后一起复盘等围棋礼仪 了。
一般而言,限于弱人工智能在功能上的局限性,人们更愿意将弱人工智能看成是人类的工具,而不会将弱人工智能视为威胁。
但少数评论者依然认为,即便是弱人工智能,如果管理、应对不善,也会带来致命的风险。比如,发生在2010年5月6日的美股市场的“闪跌”(Flash Crash)事件,其起因就混合了人类交易员的操作失误和自动交易算法的内在风险,而当时已经大量存在的,由计算机程序控制的自动高频交易,则被一些研究者认为是放大市场错误,并最终造成股市瞬时暴跌的帮凶。除了金融市场外,能源领域特别是核能领域里使用的弱人工智能算法如果设计和监管不当,也有可能为人类带来灾难。类似地,自动驾驶汽车上使用的人工智能算法显然也存在威胁人类生命安全的隐患。
但无论如何,弱人工智能属于相对容易控制和管理的计算机程序。总体来说,弱人工智能并不比我们使用的其他新技术更为危险。设想一下,人类在用电时、开车时或者乘坐飞机时,不也要面对客观存在的风险因素吗?对于弱人工智能技术,人类现有的科研和工程管理、安全监管方面的经验,大多是适用的。一台可以自动控制汽车行驶的计算机和一台可以将重物吊起的起重机,二者都需要严格的质量控制流程与安全监管策略。自动驾驶程序中的错误可能导致车祸,起重机结构设计上的错误也可能导致起重机的倾覆,二者都会造成人员伤亡。