
3月13号的对战中,李世石终于打败AlphaGo,为人类挽回了尊严,也为自己赢得了面子。不过,AlphaGo在4:1的胜利已经奠定了比赛的结果,各类悲观论调也早已充斥着网络。
或许AlphaGo统治围棋已是大势所趋,可人工智能能否统治人类还不得而知,毕竟人工智能还停留在软件状态,未来该怎么进化还取决于人的意志。AlphaGo阐释了这样一个问题,即便是被职业围棋手神化的人工智能也有漏洞也有弱点,而这些恰是人工智能真正可怕的地方。
1997年,IBM的深蓝计算机打败了国际象棋的世界冠军,人类智慧第一次受到了电脑的挑战。随后在德州扑克、基金操盘等一系列事情上,人类无不被机器所打败,就连一度被认为计算机最难攻克的围棋也被AlphaGo重写了历史。可回头来看,“深蓝”身上的神秘性早已不复存在,即便是具有深度学习能力的AlphaGo,在不久之后终究只是一个寻常的人工智能程序。早在AlphaGo成名之前,包括霍金、盖茨、马斯克在内的很多人就开始焦虑人工智能的可怕,或许人类完全有能力控制人工智能的发展,并将人工智能为己所用,而人工智能最让人恐惧的地方恰是人类对它的依赖。
不少人工智能从业者习惯用“深度学习”来形容其工作原理,AlphaGo在和李世石对局中的出色表现更让人类看到了人工智能的强大。单从AlphaGo来看,它利用“价值网络”去计算局面,用“策略网络”去选择下子,更通俗的解释是通过两个不同神经网络“大脑”合作来改进下棋,第一个神经网络大脑是“监督学习的策略网络” ,观察棋盘布局企图找到最佳的下一步。第二个神经网络大脑就是“价值网络”,通过整体局面判断来辅助落子选择器,分析未来局面的“好”与“坏”。尤其在第三局中,不少职业围棋手称AlphaGo的走棋堪称完美,就连柯杰也自叹不如。实际上,AlphaGo的表现展示出了人工智能在预判和分析上的优势,至少在效率上要远远高于人类,这或许正是人工智能未来的主要应用方向之一。
我们可以设想一下三种场景,人工智能不确定性的漏洞和弱点在很多时候可能是致命的。
一是在战争方面。随着人工智能的发展,将其应用在战争领域似乎是无可厚非的,很多科幻作品中也为我们讲述了这样的案例,比如钢铁侠和贾维斯。可以相信,很多国家会通过演习、模拟等对人工智能进行训练,以方便在真实的战争中更好的为人类提供下一步军事部署的选择。就像在AlphaGo三次战胜李世石后,近80%的人相信第四局AlphaGo必胜无疑,可在李世石祭出惊天妙手78挖之后,AlphaGo却下出了一步低水平的臭棋,而直到87手才意识到此前的失误。如果在军事应用中,人工智能将面临上千万次的测试,通过深度学习和人类的修复,漏洞和弱点会降低到人类已知的最小限度。目前所有的程序都有Bug的存在,或许人工智能在未来会更加完善,只要存在可能的漏洞,一个国家甚至整个地球的命运都要由上帝来判决了。
二是个人的行为决策。人类终将被机器所“统治”,很多人在心理上不能接受,事实已经是如此。举个例子来说,很多人离开电脑无法办公,需要用搜索引擎来提供决策的衡量标准。一旦人工智能以一种更智能的形式成为人类的“助理’,不管是虚拟的还是实体上,人类的计算效率远不及电脑,对问题的分析预判也没有人工智能迅速,未来我们将对人工智能有着更大的依赖。那么问题也就出现了,在你喜欢某个女孩时,是否需要人工智能帮你分析追求成功的概率呢。看到老人摔倒后,又是否需要人工智能帮你决策扶或着不扶。人类只是命令的执行者而非决策者,大概这正是人类进化的方向使然吧。
三是人工智能的道德标准。人工智能在未来是否具有情感还不得而知,但可以肯定的是人类势必会为人工智能加上一条铁律,即完全终于人类,这些在很多科幻小说中也曾出现过。这里不讨论人工智能会不会忠于人类,从忠于人类的道德标准来看,这一定是一件好事吗?比如说犯罪事件上,凶手是否可以借助人工智能帮其分析最完美的杀人方式,最有效的逃脱方式以及最安全的庇护场所。苹果拒绝解锁犯罪嫌疑人的iPhone密码已经引起了轩然大波,道德标准在人工智能身上无疑是更大的问题。
Alpha落败于李世石,在一定程度上满足了人们机器可以战胜的心理,也让更多的人相信人工智能是可控可以”驯服“的。殊不知,人类对人工智能的依赖,以及人工智能本身不可避免的漏洞和弱点才是最可怕的。