物理学家史蒂芬‧霍金曾经警告,失去控制的人工智能(AI)有朝一日可能会令人类灭亡。
物理学家史蒂芬‧霍金曾经警告,失去控制的
人工智能(AI)有朝一日可能会令人类灭亡。而今,全球IT行业巨头们都热衷于研究人工智能,更有甚者希望摆脱数据训练模式,如谷歌(Google)的DeepMind,已经建构出一个可取决于环境变化而发展其行为的人工智能模式,如同人类一般。
最近,谷歌的人工智能科学家们通过训练深度多智能体(multi-agent)来强化学习,并利用囚徒困境(Prisoner’s Dilemma)理论来进行行为建模,他们发现人工智能的Agent(指人工智能实体,包含人类、软件、硬件或任何实体)在资源稀少情况下会展现出侵略性,但在团队运作中则会表现出高度的合作特性。这是否代表着人工智能与人类的原始本能实际上是相近的,甚至,人工智能可能成长为第二种人类?
为了测试人工智能的“人性”,科学家为DeepMind设计了二款基于简单的游戏,这二款游戏都是基于囚徒困境理论,第一个游戏名为“采集”,让二个人工智能相互竞争看谁能采到更多苹果。
在苹果数量够的时候,二个人工智能相安无事,但在苹果减少到一定数量时,二个AI就展现出侵略性的行为了。为了获得更多苹果,AI们开始相互攻击对手,尽管这些攻击不能获得奖励,但为了能让自己多采几个果子,AI还是采取了攻击。
这次的游戏是针对进化的DeepMind做的测试,在没有改良之前,旧的DeepMind会很温和地平分所有的苹果,但新版却展现出人性中常见的贪婪和侵略性。
第二个游戏叫作“狼群”,由三个人工智能参与,其中两个扮演狼,另一个扮演猎物。这个游戏鼓励合作,即无论哪只狼抓到猎物,二只都能获得奖励。这个游戏的设计旨在让AI学习到合作的利益。
这二个实验过去几天以来在人工智能领域激起了广泛讨论。人工智能会判断自身处境并做出选择,这让人们开始思考,当人工智能无法被统合于人类利益高于一切的最高指导原则之下时,霍金指称的人工智能灾难或许真的会来临。
去年十月,在剑桥大学新莱弗尔梅未来智能中心(Leverhulme Centre for the Future of Intelligence)成立大会上,霍金提出警告:失控的人工智能可能为人类带来灾难。
霍金的发言是基于目前针对人工智能的研究正在积极整合广泛学科,亟欲打造出思考能力可直追人类的AI理想而提出。其中,结合生物科学被认为是推动未来人工智能发展的关键点──尽管目前仍处于起步阶段。
人工智能需要生物科学支撑
人工智能通常令人联想到以人类形态出现的一种智能型媒介,但目前,大部份的机器学习研究却都没有从生物角度做出发。英国剑桥大学计算机验室科学家Sean Holden指出,人工神经网络和人脑都有神经元,但在很大程度上,前者比人类的要简单得多。Holden正在开发一种针对机械定理证明(Automated theorem proving, ATP)的机器学习算法,旨在帮助生物学家从蛋白质数据库中做出更好预测。
人工智能必须是结合生物、机械、计算机,甚至材料学等广泛科学领域。截至目前“大多数的人工智能研究人员都没有着手解决所有的问题,因为太困难了,”Holden表示,相较于人类的能力,今天被大家惊叹的人工智能事实上都仅局限在很小一部份的应用中。
当然,无法与人脑相提并论并不意味着人工智能的发展滞后或是毫无用处,但更显示出完全模拟大脑的运作相当困难,且取决于计算和技术资源,所能展现的人工智能规模差异也很大。
因而,挑战人类的大脑成为了人工智能的圣杯,而问题是要如何模拟,才能实现如同人类一般的智能展现?
在中古世纪,人们认为智能主要来自血液,今天我们认为智能来自大脑,但这并不代表着结论,剑桥大学的机器人专家Fumiya Iida认为智能来自于身体,即所谓的“具身智能”(embodied intelligence)。
Iida认为身体并不是大脑的奴隶:人体有成千上万的肌肉,大脑是如何控制的?至少电脑就做不到。而人类看似一个简单的拿杯子动作必须在极短时间内协调全身数以百计的肌肉。因而,带人工智能的机器人开发重点是如何同时发展大脑和身体?首先要教会机器人如何聚焦,接下来才能执行更复杂的工作。
挑战:复杂场景测试
对于如何理解机器神经网络,已经有许多算法可供说明了,但理解机器神经网络如何基于鼓励机制来学习,以及如何在缺乏信息时做出反应相当重要。迄今所有的人工智能都以单纯的应用目标,如辨识、固定路径或工作为主,但如果将人工智能放到与人类相同的社会环境中,同步应对经济、治安、情感、商业决策或更多重面向的选择,有多少人工智能可展现出完全拟人化的行为表现?
未来,发展人工智能的关键点必然取决于能模拟实际人类环境的复杂环境测试。目前所有的开发工作都仍以观察人工智能系统的发展为主。例如,一个有趣的问题是展现出侵略性的人工智能固然令人惊讶,但人工智能有可能像人类一样发展出各种不同个性的主体吗,这个问题是接下来人工智能最棘手的挑战之一。
这些假设或许有些夸张,因为目前主流人工智能测试都以约束条件的环境为主,但要测试人工智能是否挑战人类利益,必须要在更开放的条件环境下,长期以不同事件测试才能获得想要的反馈,目前的测试,还无法判断人工智能会在多长时间内对人类发展带来直接影响。