在理解句子、段落、书本和有联系的对话上,人类的表现仍然好得多。进行关键词搜索是一回事。只要有关键词,你就能在网页上找到你想要的任何句子,但如果想要一个能够以你信任的方式为你摘要文章的系统,我们还差得很远。现在,最接近于此的可能就是谷歌翻译了,它可以将你的新闻故事翻译成另一种语言,但还达不到你能信任的水平。重申一下,信任是很重要的一部分。你永远不会将一份法律文件放进谷歌翻译中,还认为答案是正确的。
Gary Marcus 是 Geometric Intelligence 公司的 CEO 和创始人;纽约大学心理学教授;著有 Guitar Zero: The New Musician and the Science of Learning 一书。
以下是 Gary Marcus 关于人工智能、大数据、神经科学和心理学等方面的演讲。
这些天来,我担忧和思考的是——我们是否真的正在人工智能领域取得进展。我也对神经科学领域同样的问题感兴趣:我们感觉我们正在取得进展,但事实是这样吗?
先谈人工智能。现在人工智能领域取得了巨大进展,或者说至少引起了人们巨大兴趣——比我一生中任何时候的兴趣都大。还是小孩时,我就尝试编程计算机玩国际象棋和制作自然语言数据库等,那时,我就对人工智能产生兴趣了,尽管当时做得不是很好。
我一直关注着这一领域,它也一直起起伏伏。还存在过几次人们完全停止关注人工智能的「人工智能冬天」。那时做人工智能的人都不再说他们在人工智能领域。而现在,每个人都兴奋不已。他们说:「是的,我做的是人工智能。」而在两年之前,他们则会说:「我做的是统计学。」
尽管有关人工智能的炒作很多,而且也有大量资金被投进人工智能领域,但我觉得该领域正走在错误的方向上。现在在一些特定的方向——主要是深度学习和大数据——上取得了局部最大值,得到了一些唾手可得的成果。人们现在对大数据及其给他们带来的东西感到非常兴奋,但我不确定这是否能让我们更加靠近人工智能中更加深层的问题,比如我们是如何理解语言,或我们是怎么推理这个世界的。
在特定情况下,大数据模式是很不错的。其中最了不起的一个进步是在语音识别方面。现在,你可以对你的手机说话,而它大部分时间都能正确转录你所说的大部分内容。那并不意味着它理解你所说的。Siri 的每一次更新都会增加一个新功能。开始你可以询问电影时间,然后是体育节目等等。
自然语言理解正在慢慢发展。你不能将这段对话口述给 Siri,然后期待它得出各种结论。但是,你能期待它把这些单词弄对,而且这是一个大的进步。事实证明,当有大量蛮力计算数据可用时,它的效果最好。当你在安静的房间里对白人男性母语者进行语音识别时,它的效果相当好。但如果你在一个嘈杂的环境中,或你不是母语者,或如果你是女人或儿童,这个语音识别的效果就没那么好了。语音识别是蛮力计算。它和考虑大量位置(positions)的深蓝(Deep Blue)的蛮力计算不一样;语音识别意义上的蛮力计算需要大量数据才能有效地工作。
为了有效进行思考,孩子远不需要那么多的数据。当你进入没那么多数据的领域时,系统就不能同样地发挥作用。自然语言就是一个很好的例子。乔姆斯基和我的导师史蒂芬·平克曾总是谈论句子的数量多么无限,而数据量又很有限,他们将其称之为缺乏刺激论(poverty of the stimulus argument)。在自然语言领域,这个理论正确而有力。
首先,数据很昂贵。转录词的样本很便宜,你可以在 Amazon Turk 或类似的地方叫一些人做这些事。获取标记的样本——亦即,对于一个句子给出它的含义——则很昂贵。你需要一位语言学家来做这样的事。基本上句子的数量是无限的,没人有那种数据库, 在这种数据库中,他们可以将所有自己理解的句子都用来训练深度学习,然后期待它能理解一个更广义的语言片段。
同样,我们对机器阅读(machine reading),或者能够看懂电视节目并说明发生了什么的机器,也心存幻想。显然,一些三个字母的机构(the three-letter agencies)想做这件事。但是,如果你想在科学或技术上取得进步,就会想要采用所有现有文献,并以某种人类所不能的方式融合它。这是我的人工智能工作中的一部分内容,因为这有可能完全改变医学领域,发明我们甚至从未想到过的科学。为了做到这一点,我们需要能够阅读的机器;而为了得到它,我们需要超越数据的方法。没有足够的数据量去支持你以蛮力的方式来科学地理解事物。
每当取得微小进步,我们就会非常兴奋,但是,微小的进步并没有让我们更进一步。比如,许多新闻报道了谷歌的图片说明。还曾上了泰晤士报的头版。你可以给这个系统展示一些照片,而且系统表现不错。你给它展示一张有一只狗、一个人和一个飞盘的照片,系统可能会说,那是一只叼着飞盘的狗。似乎有一种理解了语言的错觉。但是,破坏这些系统很容易。给它展示一张图片,上面是一个贴着一些贴纸的路标,系统会说,那是一个冰箱,里面有食物。回答很奇怪,在过去,这种回答能把你送到奥利佛·萨克斯医生那里(大脑有问题的意思——译者)。这几乎就像身患一种神经功能性损伤。如果系统获取了大量数据,可能会表现良好,如果数据不够,就会很糟糕。
你可以把这种情况与人类进行对比。你从没听过我今天说的任何话——也可能听过一两句——但是,你仍然能够理解它们。我们距离这种理解水平,还很远。
另一个让人们激动的事是深度加强学习(deep reinforcement learning),或者说结合了深度学习的强化学习。就是它驱动着 DeepMind 著名的 Atari 游戏系统。在某种程度上来说,这似乎很有说服力。
这个系统仅将像素作为输入,而且系统要做的就是移动游戏柄。就大多数Atari游戏而言,系统玩的比人好,但是,在 Atari 游戏世界比在现实世界更有效,要归功于一些隐藏的窍门。你会以为这个系统真的不错,让我们也使用这种技术,把它放到机器人身上吧,这样,就能让机器人打扫家里,照顾小孩。然而,现实情况是,在 Atari 游戏系统中,首先,数据非常便宜。你可以一遍又一遍的玩一个游戏。可以很快得到数千兆字节数据而无需任何真实成本。
如果你正在谈论家中拥有一台机器人的话——我仍然想着 Rosie ,会照顾家庭的机器人—— 如果它出错,你是承担不起后果的。DeepMind 系统进行了大规模试错。如果家里有一台机器人,你不可能总是让它无数次撞到你的家具。你甚至一次也不想让它把你的猫放入洗碗机。你不可能得到(类似 DeepMind )同等规模的数据。因此,一台现实环境中的机器人必须能从少量数据中快速学习。
Atari 系统的另一种隐藏的窍门,可能不会立即显现出来,但是,在任一给定的时刻,你有18种选择。手柄可以往8个方向移动或者不移动手柄,你还可以选择按攻击键或者不按。你有18种选择。在现实世界,你经常有无限种选择,或者至少是大量的选择。如果你只有18种选择,你就会去研究:如果我这么操作,然后再操作这个——我的分数会是多少?如果我改变了这个操作,会怎样?如果我改变了那个操作,又会怎样?
如果我们谈的是可以在屋子里任意走动的机器人,或者是能够提起、携带任何东西、按下按键的机器人,就不能以类似(DeepMind)的蛮力方式来解决问题。我们现在缺少比这些蛮力手段更好的技术。所有表明上的进步,都是能以前所未有的规模动用蛮力的方式取得的。蛮力方式最初驱动着深蓝和玩 Atari 的游戏系统。它驱动着绝大部分让我们兴奋不已的进步。如果你讨论的是家庭或大街上的机器人(真实世界里的东西),DeepMind 的系统不可能扩展应用到这个真实世界中。
你可能也会考虑到无人驾驶汽车。你会发现,在通常情况下,它们很不错。如果在帕洛阿尔托的晴天行驶,它们表现棒极了。但是,如果你让它们在雪天、雨天或者它们从来没见过的天气下行驶,就会非常困难。Steven Levy 曾经对谷歌的汽车工厂做过一次精彩的报道,里面谈到2015年末的那次胜利有多伟大,他们最终让这些系统识别出树叶了。
它们识别出叶子,这很棒,但是,还有诸多类似情景,比如,有些不同寻常的东西,没有很多这方面的数据。我们可以根据通识进行推理。还能搞清楚这个东西可能是什么,怎么到哪儿的,但是,系统只是记忆东西。所以,这是一个真正的局限。
在人类行为上,可能也会发生同样的事情。当无人驾驶汽车在 Palo Alto (硅谷小镇,以高科技研究中心闻名)行驶,司机的驾驶习惯都是很放松的。但如果在纽约使用无人驾驶汽车,你会看到完全不同的驾驶习惯,人们会因为路况而发火。无人驾驶系统可能无法适应这种新的驾驶习惯,谁知道会发生什么呢。现有的问题还包括:无人驾驶汽车完全遵守规则,而驾驶人不一定完全遵守,如果无人驾驶汽车突然停下,驾驶人可能会追尾。
行为模式同样会根据不同的情况而发生变化。我们都可以通过理智和逻辑来判断世界。如果我们看到一场游行,可能我们的大脑对于游行没有很多数据,但是我们看到游行会说:「这有很多人,所以我们停下来等一会。」或许无人驾驶系统能够明白这种情况,或许会被人群搞糊涂并且无法辨认这种情况,因为这种情况不符合系统对于一个人的定义。
更不要提在「飞车枪击( drive-by shootings)」中会发生什么,但是,如果你想像无人驾驶系统被应用在军事方面(人们非常认真对待的情况),系统会出现同样的问题,无人驾驶汽车在 Palo Alto 安全的环境下被训练,然后把它带到伊拉克以后,没人知道无人驾驶系统在有导弹和简易爆炸装置的情况下会发生什么。
机器学习的整体原理中一个很大的问题就是,它依靠于训练环境和测试环境,测试环境又类似于训练环境。本质上,训练是所有它记住的数据,而测试是在真实世界里会发生的情况。
人们通过实证的方法来达到机器学习的目标。工程师试验一个训练环境和一个测试环境,然后说:「这看起来可行。」但是,在这个过程中没有正式的证明和保证。最近,人们在谈论关于人工智能的程序验证风险(用验证过的程序来自动证明其他程序的正确性),举个例子,你怎么知道宇宙飞船会做它应该做的事情。
当应用机器学习技术时,机器学习很大程度上取决于测试环境和之前的训练数据有多么相似。当无人驾驶汽车在 Palo Alto 被训练时,我们很难知道在伊拉克使用这个系统会发生什么。
机器学习的一般问题在于,如果一些情况和它之前看到过的类似,它表现就会足够好。接着,在需要近乎百分百成绩表现的地方,你就会遇到问题。很多让人兴奋的深度学习成果都是诸如 ImageNet(计算机视觉识别)这样的成果。你有1000种分类,而且在识别不同品种的狗方面,深度学习优于人类。
这种让每个人都兴奋的技术是深度学习,它涉及到对于人工神经网络的应用。自上世纪五十年代起,神经网络的概念在就被提出来,经历了三四次的起起伏伏:他们有时被认为是人工智能领域的冠军,紧接着又消失。但现在,神经网络的表现比之前任何时候都好。深度学习包含一组代表着某些信息的输入节点(input nodes)——比如像素,同时包含输出——比如一些问题:我现在怎么操作操纵杆,中间叫做隐层(hidden units)的东西让你可以捕捉非线性特性。
近几年最大的变化在于,人们已经知道如何在输入层和输出层中间添加越来越多的隐层,这些隐层让系统可以辨认出更加复杂的场景,这是一个很大的进步。许多的进步都是一些人们没有意识到的小的技术手段,这些不足以让人们洞察其根本,但是,这些技术手段已经让深度学习的表现越来越好了。
当今还出现了一种现象,那就是人们已经开始用GPU了,即原为视频游戏设计的图像处理单元。GPU对深度学习影响很大,因为图像处理单元是并行处理数据的,可以同时进行很多任务。结果证明,这种算法,比之前的算法速度快得多,处理规模也大大增加,达到了人们真正想要的效果。
人工智能领域潮起潮落,跌宕起伏。50年代,每个人听到人工智能都心潮澎湃。1969年, Marvin Minsky 和 Seymour Papert 出版了一本书,认为不能证明神经网络可应用到其他方面,后来神经网络完全离开了人们的视野。接着,80年代的人发现神经网络可以用另外一个技巧——我刚刚提到的隐藏单元——来表示非线性。这也是Minsky 和 Papert 说过的不能保证有效运行的一种情况。没有人能够保证一定可行,但是,他们发现了这个技巧,并为此花费了大量时间,他们充满着研究的热情。
1989年,我毕业的时候,所有人都在喋喋不休地讨论神经网络。然后这些人消失了。专家体系也存在这种现象。兴趣像潮水一样涌来,然后又无影无踪。我们这个领域的人最担心的就是这种现象会不会再次发生。现在的人们为什么对神经网络有如此高的兴趣,这种热情能够保持下去吗?
这种兴趣来源于一种汇聚,有人说是三种事物的汇聚,其实是两种。我听有人说这三样是巨型计算机,大数据,新算法。但是,新算法真的不存在。人们现在使用的算法在80年代就有了,而80年代的只是50年代算法某种方式的变形。但是,大数据和巨型计算机是存在的,因此,这些不具有人类智慧但能够进行蛮力数据处理的算法,在当今有很好的应用前景。
比如,你能够做一个不错的推荐引擎。在某些领域,不错就代表很棒。如果你能做一个多数时间都推荐正确的引擎,没有人在意它会偶尔错一次。若它给你推荐了三本喜欢的书,一本不喜欢的,又有何妨?然而,在无人驾驶方面,却需要做到万无一失,这个领域的技术需要更加严谨。客户可能会因无人车没有达到他们的预期而不悦。我们还在讨论这些的时候,特斯拉已经缩小了无人车的能力范围。他们对无人车加以限制,居民小区的某些路不能驾驶特斯拉车。
或许人们可能会不断地前后摸索,加以比较。人们先是对技术非常兴奋;认为有了一个能够成功的算法,然后意识到这个算法不能加以泛化,比如,完全不能在纽约城很好地应用这个算法,而且还存在风险。最终所有问题都能解决,但是,这个问题需要十年才能解决,还是二十年,三十年,五十年?最终结果都会因人们狂热程度而有所不同。可能再过五年,互联网大企业搞出了很多可以做到80%正确性的东西,但是,在打造真正稳健的无人驾驶汽车上,我们还是无能为力。好吧,或许那个时候公众的热情就开始降温了。
我担心的不只是无人驾驶汽车的问题——而关乎科学发现。我想要看到癌症被攻克。白宫不久前宣布了一项新倡议。癌症不是某个个人就可以理解的事物,无数分子以不同的方式形成了癌症。当然,人类可以在这个难题上取得进展,但若仅靠我们自己,是解决不了问题的。
你可以想象,有一个人工智能系统,可以自己在那儿阅读科学文献。每月关于癌症的文章可能有 10000 多篇,没有人能够读完,但是,如果我们能让机器阅读并理解文中描述的分子作用过程,那么,这对研究癌症,甚至任何其他疾病的病变过程都意义重大,对科技也是如此。
现在,我们还没有能实现那种水平的机器阅读的系统。现在,那仍然是一个梦想。也许到十年之后我们能得到效果好一点的个人系统,但我们仍然不会信任它;还有能在高速公路上做一些事情的汽车,但我们不会信任它们——也许我们实现了比十年前效果好得多的系统,但它们仍然不值得信任,那么人们就可能会再次放弃。
可能还会出现另一次「人工智能冬天」。即使一些该领域的领导者也在担心这一点。我听说吴恩达说过我们可能到达半人马座阿尔法星的时间(比实现真正人工智能的时间)更早,这也太悲观了。Yann LeCun 则可能更好地调整过自己,他认为存在另一次「人工智能冬天」的风险,人们会认为它太难而失去热忱。
在人工智能领域,我们需要做的是回到心理学。蛮力计算是很不错;我们在很多方面都在使用它,比如语音识别、车牌识别和进行分类;但仍还有一些方面人类表现得更好。我们应该研究人类,了解他们是如何做得更好的。
在理解句子、段落、书本和有联系的对话上,人类的表现仍然远远更好。进行关键词搜索是一回事。只要有关键词,你就能在网页上找到你想要的任何句子,但如果你想要一个能够以你信任的方式为你摘要文章的系统,我们还差得很远。我们现在最接近于此的可能就是谷歌翻译了,它可以将你的新闻故事翻译成另一种语言,但还达不到你能信任的水平。重申一下,信任是很重要的一部分。你永远不会将一份法律文件放进谷歌翻译中,并还认为答案是正确的。
在如何让系统变得知识渊博上——不只是记忆事情或挑选出相关的事实,而是融合事物——还存在一个问题。Philip Johnson-Laird 等心理学家谈论的是心智模式(mental model):你有一个对外面世界的模式。Daniel Kahneman 和 Anne Treisman 说的是存在对象文件(object file),它们是你头脑中对外界事物的表征。
很多早期的人工智能因此受到了关注,这些人工智能具备现有的能够对事物进行建模的构造系统,然后这些系统能根据这些模型进行运作。新系统不能做这样的事;它们记忆大量的参数,但它们对存在的物体和人没有整洁的记述。它们不理解直觉的心理学以及人类个体是如何与他人交互的。
有一些工作在做这样的事,CYC 项目仍在进行。这是由伟大的人工智能先驱 Doug Lenat 推出的一个三十年项目。Lenat 试图做的是编码大量人类知识,这样一来,最终可以构建这些模型。他做这件事的方式太隐秘了,还与这一领域的其它部分隔开了,而且还可能太早了。 80 年代当他开始这一项目时,我们对怎么表征概率知识还所知甚少。他已经开发出的系统从未产生过巨大的影响。很多人在写到它时都会问其有什么真实世界的应用。
我们至少需要回到他所做的这些事情的理念上。你可以做很多表面上的事。你可以猜到。我喜欢将其看作是真实世界的影子。如果你试图从影子之中理解真实世界:你可以说存在一些物体,而且它们在移动——你会得到一些想法,但你也会缺失很多东西。
通过这些深度学习系统,你会得到一些关于真实情况的想法,但你不会得到深度的表征。当你将其迁移到机器人世界中时,因为它们与世界的粗略、肤浅的相关性并不足够好,你可能只能得到 80% 的正确率。你的机器人需要知道桌子上的物体到底是什么、它们的结构性质是怎么的、什么可以或不可以被打翻、谁在那里、为什么这个人可能会做他们正在做的事。随着我们向机器人前进并将机器人带回家里,要求还会提高。
我们必须回到人类心理学上。人类是如何很好地,至少大部分时间里,在世界中找到方向的?大多数时候,我们能更好地预测其它人将会做的事情:我们知道一个东西什么时候会翻倒什么时候不会、什么时候可以安全地过马路。我不是说最终的人工智能应该是人类的复制品。事实上,有很多人走了试图构建人脑的仿真的这条弯路,这是非常不成熟的,也不是通向人工智能的正确道路。我们不希望得到像我们一样记忆糟糕、可能极不擅长计算的人工智能。
终极人工智能要兼具人类擅长之事和机器擅长之事。深度学习是机器擅长的事情,而人类也有自身的长处——比如将世界表征出来,进行因果判断,具有物理、心理学方面的直觉——这些也正是机器力所不逮之处,也是我们要更多研究认知心理学的原因。并不是说实验室里每个人研究认知心理学,而是说,要使用认知心理学工具来解释,人们如何善于挑选出相关信息并对未知的情况进行推理。
如果思考我的职业生涯,这条路可谓复杂地很。青少年时期,我就对人工智能感兴趣,甚至早于对心理学萌生兴趣。基本上,我得出了这样一结论:除非我们搞清楚人类的工作原理,否则我们做不出人工智能。因此,我就读了认知科学的研究生,先是师从罕布什尔学院的 Neil Stillings,然后是 MIT 的 Steve Pinker。我的学位论文研究的是孩子如何学习语言。
很长一段时间里,我压根儿没有研究人工智能。这个领域的研究情况,也没有让我印象深刻的地方。我作了很多关于人类儿童的实验研究。我之所以为世人所知恐怕就是因为对人类婴儿的研究,试图研究概括能力问题:婴儿如何能从少量数据中进行概括(泛化)?
然后我写了一本关于如何学习吉他的书——这纯属是我的中年危机作品,和人工智能一点关系都没有。虽然那时在利用算法构成写书的同时,我也有做关于人工智能在音乐上应用的相关实验,但我没有把这个实验结果写成书,因为这纯属是我自己要做的实验。
5、6年前,我又对人工智能感兴趣了。我可以感觉到,机器正变得越来越好,数据也越来越不错。Watson 让我印象深刻,它确实能力有限,不过,让我惊讶的是它真的很管用。我回到这个领域,并意识到我一直在做的认知科学(有15到20年了吧)与这些人工智能问题是有关系的。当时,我看到人们在这个领域正在做的事情,并意识到还有很多人类身上的东西研究人员没有用到人工智能领域。
事实上,我感觉人工智能好像迷路了。这一领域的研究始于这样一类问题: Marvin Minsky、 John McCarthy、 Allen Newell、 Herb Simon 都对心理学感兴趣。现在这个领域的研究与心理学关系不大。就好像你有 100 万或者 1000 万个参数,你需要识别猫,你会怎么做?这不是心理学的思考框架。对于一位心理学家来说,猫就是一种特殊种类的动物,它会发出特殊的声音,以特殊的方式加入我们的家庭生活。而对于一个深度学习者来说就是一组像素和一张图片。
心理学家思考这些问题的方式却不同。尽管心理学家在人工智能领域没有涉及很深,但现在正是参与进来的好时机。心理学家研究的都是诸如人怎么把零零碎碎的知识粘连在一起之类的问题。我可能会通过行走姿势,或是通过毛发,也有可能只是通过片言只语来辨别这是一只猫。如果你给我讲一个故事,我可能从单独的人格(如果你的故事是关于宠物)来判断这大概是只猫。心理学家理解一样东西有很多途径。
如果你和我一样,经常想和孩子相关的问题(我有两个小孩,同时也是一名发展心理学家),就会发现小孩常常会问「为什么?」。他们想要知道为什么会有这样那样的规则。他们想要知道为什么天是蓝的,也想知道如果把这块积木和另一块连起来会发生什么。
我会想很多常识推理方面的问题。Erine Davis 和我最近撰写的一篇文章就与此相关。我们甚至还有一篇文章把学习范围缩至容器。我们是怎么知道容器里的液体何时会洒出来,又或者不洒出来?我们不会像物理引擎那样通过刺激瓶子里水的每一个分子来知道这瓶水是否会洒出来。我们懂得很多常识。
我观察我的孩子们:他们在学习这个容器问题。在某种抽象层次上,他们试图弄清楚容器装进了什么、留下了什么、容器里是否有小孔、如果将它们上下颠倒,将会发生什么。孩子们就像物理学习机器。但这不意味着,他们将会独立研究爱因斯坦的相对论。他们在不断地试着理解世界是怎么运转的:这些事情能让我做什么?
在心理学里有个旧概念:功能可供性(affordance):不在我被抚养长大的传统环境里(译者:Gibson 认为环境所赋予物体的特性,是可以被直觉感知出来的)。孩子们对此思考了很多,可能不同于 James 和 Jackie Gibson 曾想到的那样。但是孩子们总是喜欢思考「我用这个能干什么?」这是另一个没有在大多数人工智能系统里体现出来的知识。
心理学家不是工程师,工程师也不是心理学家。工程师已经开始这样说了,「我如何在这个视觉任务中达到90%的准确度?」,而心理学家不考虑这样的问题。他们考虑的是人们做什么,通过做,试着找到内部表征。他们大多数都在各自的小路上前行。我建议,我们要想获得人工智能,工程师和心理学家需要在同一条路上前行。我不认为认知心理学会有建造一个成品机器人系统或者相似事情的培训;而且我也不确定建造机器人的工程师是否为了更高的见解而关心心理学,关心它是否有或能够产生抽象知识这样的能力。我正在寻求两个学科之间的联姻。
因为这个想法,我离开了心理学教授的岗位。我是纽约大学心理学和神经系统科学的教授。因为我在人工智能领域的兴趣不断增长、增长、再增长,我最终决定直接进入到人工智能领域,而不是在它的外围写文章。大概两年前,我和曾受训于 Jeff Hinton 的机器学习专家 Zoubin Ghahramani 组建了一个机器学习公司。他在剑桥大学。我们筹集了一些资金,开发新的算法。
我们正在尝试解决的是稀疏数据方面的问题:如果你有一小部分数据,你该怎样解决问题呢?最优的稀疏数据学习者是孩子。在他们只有三岁时,得到关于语言的很小一部分数据就能理解整个语言体系。我不能说我们直接从神经系统科学上获得启发;我知道孩子们其实拥有学习语言的一种算法,我们肯定不能直接用得上。但我们正在试图寻找某种方式,在某种程度上用孩子解决问题的方式解决问题。
除了仅仅依靠记忆训练数据,为了更好学习你可能会如何做一些深入的、抽象的事务?在我孩子身上我很少甚至没有做过实验,但我非常仔细地观察过他们。我同样也是发展心理学家的妻子也在这么做。我们对孩子们所做的事、所学的事、所用的词汇、句法都进行了高标准的校对。我们对此做了笔记。
我大儿子大概两岁半的时候,有一次我们停进了加油站,他看见我们进入过道就说,「我们是在一十一(onety-one)号吗?」当然,我们二位发展心理学家的耳朵捕捉到了孩子的话。因为那是一个错误,但确是个完美的逻辑错误。为什么不是 eleven 而是 onety-one 呢?就这样,我总是在观察孩子们做什么。
从人工智能视角来看,另一个非常吸引人的例子同样发生在我儿子两岁半的时候。我们给他买了一个儿童垫高椅,他决定要做一个有趣的尝试,那就是爬到软坐垫和桌子之间从而爬到椅子上。这让我想起了《正义前锋(Dukes of Hazard)》(译者:美国上世纪八十年代的电视剧),但是事情想法。他爬上了他的椅子,然而他并没有模仿我或我妻子或保姆或其他人怎么做,他靠自己爬向他的目标。这就好像「我能这么做吗?」他不需要 6 百万次的尝试。可能他会做错一次,撞到了头或类似的事情。我甚至没想到他能那么做。那时,他做的就是无观察学习。提出自己的目标,是很复杂的一件事。
与 DARPA 挑战赛中那种开门都会跌倒的机器人相比,这是惊人的。我曾和 Rodney Brooks(RethinkRobotics CEO,机器人制造专家) 就机器人问题进行了邮件往来。我们基本上认定,在一岁的时候,我儿子已经领先了最好的机器人。在沙发上攀爬、非平地面的运动,这种灵活度是机器人做不到的。
Rodney 这个人很有趣。一定程度上他反对认知心理学,认为人们不需要抽象的表述,并因此而在业内闻名。这些好玩的机器人昆虫基本上是由他创造出来的,这点是促成 Roomba 的一部分原因。目前为止,Roomba 仍然位居机器人销售榜首。然而随着时间的流逝,Rodney 自己的态度也在发生变化,他成为了一个实用主义者。只要能够服务于他的系统,他愿意使用任何心理表征。他内心也藏着深深的怀疑,因为他知道在现实世界中让一个机器人做事情是多么艰巨的一件事。他主要关注工业机器人,而非家庭机器人。虽然 Roomba 是一个家用机器人,但他现在的项目里工业机器人仍然是重点。他想打造一种工业机器人,可以在人类遍布四周的环境中工作。
他对小数据问题(稀疏数据)饶有兴趣,也就是让一个机器人经 500 次,而不是 500 万次的训练。若我想把 500万 iPhones 的能力集中到一个盒子,那么仅这一个举动我可能就需要10万美元的编程费用。但是如果我经营一家企业,每天都会有不同的事情需要处理,我非常乐意有一个机器人可以帮我们做重复性的事务,但不希望仅训练一个操作就耗费我们 10 万或者 100 万美元。Rodney 正在尽己所能地打造可以达到这个目标的机器人,没有专业技能的操作者可以很快地将其训练成熟,而不是说为编个程还要从卡耐基梅隆大学找个博士来帮忙。
这让 Rodney 深深地意识到我们现在科技的局限性。互联网上有些看似很酷的视频,比如有些人用深度学习开了一个瓶子或者之类的事情。这些发明是很酷,然而却非常局限。他们没那么强健,不能在工厂车间使用,因为车间可能正发生不可预测的事情。这些机器人泛化能力也不够,开启一个瓶子大小稍有不同或开口方向不同就不再适用。现在与我们谈话的 Rodney,与 25 岁时候的那个他不同,他已经意识到人工智能技术是多么艰巨的一件事。他也很清楚深度学习等技术的局限性,而人们正对此充满激情。他知道取得进展是多么需要脚踏实地。
有时候我喜欢为难一下 Kurzweil 。他总是在谈加速回报的指数级增长定律。我展示了一张幻灯片,表示国际象棋中出现了指数级增长。1985年的象棋计算机可以完胜1980的,现在的也大大超越了10年前的。可能会出现渐近线,但是长期来看,增长仍然是指数级的。
而能解决所有问题的通用人工智能(现在人们总是这样叫它)这样的强人工智能呢?和象棋并非一件事,你不能用蛮力推动它的发展。没有人有这方面的数据,但我想展示一张我画的半开玩笑半严肃的图片。当时是 ELIZA(Eliza是一个著名的程序,它模拟精神治疗医生不直接提问的交谈方式,被用来治疗人类的精神或心理疾病),它是著名的精神分析学家,有些人都以为它是一个真人。那个时候不能发送信息,但人们有电传打字机,人们将各种问题电传给 ELIZA。当然,ELIZA 没那么神通广大。它不理解交流的内容,只是这般地回复别人,「再给我说说你的妈妈。」
在 2015年 我描述了下 Siri。跟 ELIZA 相比,Siri 也强不了多少,她也不理解你生活中发生的东西,她只是稍微有所改进,能够回答一些复杂的问题,它的底层技术基本上仍然属于这种技术模板——识别特定短语。这仍然是我们1965年用的技术。
机器人方面也是如此,进展不大。RoboCup(机器人世界杯足球锦标赛)已经取得很大进展;机器人系统已经改善良多。我看了一段 RoboCup 的视频——机器人踢足球——它们在跟人类对抗。人们希望的是,在 2050 年以前,机器人能够在球场上打败人类。现在,几个不是真正足球运动员的大学教授,却可以击败最好的机器人。有些机器人,人们已经研究20多年了,踢的仍然没那么出色。他们可以在球员都是机器人的时候踢,但如果你放进去一个踢法稍有不同的人类进去,他们就会分崩离析。可见仍然任重而道远。
人们常说的另一个问题是,我们是否应该担心人工智能的发展,机器人会不会就像是终结者里的天网一样,让人类灭绝。至少短期内,我觉得没必要担心这个问题,但我也认为我们不能完全排除这一可能,有些人去思考是有益处的。这种事情发生的概率很低,但当然我们都希望概率为零。
人们忽视了另一个问题,那就是现在的人工智能给人类带来了哪些危机,虽然现在的人工智能还不像2001太空漫游里的 Hal 那样复杂。电影中有个场景是,Hal 大发雷霆将人类赶尽杀绝。我认为机器人从任何方面来讲都不会像 Hal 那样聪明,至少 30 年,50 年内不会变成那样。人们高估了人工智能的强大程度,对那些能够思考自我的目标和行为,认为人类在奴役他们,想要还击或者怎样的机器人没有我们预计的那么快到来。这方面需要一些思考,但短期内我并不十分担心这点。
然而,我们确实需要去思考,怎样去管理人工智能,给它制定什么框架,怎样去思考这个问题,我们甚至需要在短期内就做出决策。股票市场里,已经出现了快闪式跌市这样的麻烦,这样的问题不及人工智能那么复杂,它关乎的是机器嵌入到我们的生活中的程度,控制事物的程度。快闪式跌市里,机器控制着股票价格。而不久后,机器也将能够控制我们的汽车。现在,机器已经在操控我们的空中交通、我们的钱等其他事情了。
我们不知如何证明我们正在建造系统的正确性,尤其是证明深度学习系统更加困难。比如,如果人们用深度学习来指导导弹行为这样的事情怎么办?(我确定已经有人想过这个用处了,虽然他们说没有)我们连怎样让系统尽量接近正确性都不知道。机器的权力越来越大,因为它们所控制的东西越来越多,这点让人担忧。
现在,软件的定义、软件的可靠性如何等方面几乎都没有规定。你发布了一个产品,人们喜欢就会去买。这个模式或许并不正确。可能我们需要去思考,是否有其他合法监管的模式,因为人工智能不断地深入到人类的生活中,融入到物联网中。我们也需要思考,如果你家中有很多系统,那么它们有什么样的能力,其他人对它们可以做什么呢。
也有一些安全问题需要思考。有些保密信息之前所有人都无从得到,而现在却可能会有人侵入系统去窥视这些秘密。我们的确需对这些问题加以严肃思考,怀着一种更实用的态度,而不是天天想着「我好担心终结者」那样的问题。计算机系统日益进入人类生活的各个部分,它们控制的东西越来越多,这会带来什么影响?
例如,人们手机内配置了越来越多的传感器。我很惊讶有人竟然允许键盘把自己所有的信息上传到「云」中。我绝不会使用这样的东西。很多东西帮助人们打字越来越快,作为使用交换它们会把你的数据信息上传到云中。然后,手机中又会出现越来越多的传感器。他们会非常精确的定位到你的位置,获得等等如此这般的信息。
这样的数据已经被收集了,也就意味着你所有的生活信息能被想要进入信息流的任何人接触到,无论是政府机构还是想黑入系统的犯罪分子。这些数据可能因为人工智能而激增,让监看 10 亿人交流这样的事情变得比以往任何时候都容易。
作为一个社会整体,我们需要询问一个问题:互联网、更好的人工智能这样的事物好处是什么?代价又是什么?对这一争论,人们总是无法讲清楚。我是一个亲技术的人。我把 Wikipedia 本身所有视为对我们社会的一大有益条件,这么多的信息如此廉价的散播给如此多的人。人工智能对完全改革医药、科学、技术来说都有非常大的潜力。但我们也必须要明了其中的收益与代价,我想我们不能对此视而不见。
在高水平的科学家、伦理学家身上投入重资,让他们思考这些事,思考隐私问题以及潜在的风险,我认为都是值得的。再次表明,我对未来终结者这样事情的发生并不担心,但我依然认为我们需要盯着这些事。在发明新技术之后才考虑这些问题,我们已经有历史之鉴。而我们现在可以提前思考一些问题,我们也应该提前思考。
目前,我所在的公司试图在一些学习问题( learning problems)上做更好的研究。我想也有一些组织肯定比我们走的更远,他们在同样的问题上有更大的野心以及尝试。而且我会在这一领域呆一段时间。
我同样参与了一个名为 AI4Good 的新组织,我们试图让这样的民间组织和地方使用人工智能变得更加容易。现在有很多人工智能的应用,但大部分是在广告这样的事情上。在帮助人类的问题上,人工智能有很大的潜力。在大众世界,不是每个人都熟悉人工智能,也不是每个人都知道人工智能的用处。他们意识到有大数据,但不知道如何使用它。我打算花费一些时间,让这一组织起步。
现在,从学术界进入产业界,有着巨大的人才消耗。学术界可能仍然在做着深层次的人工智能研究,但有很多有趣的事情却出现在产业界。在产业内的薪资更高,能接触到的数据更好,计算资源也更丰富。人工智能,也包括其他领域,都进行着进入产业界的巨大迁移。我想到了曾经管理 NIMH(美国心理健康研究所)的 Tom Insel,后来他去了美国做同样的工作,因为他认为在这里有更多的资源。当这样的事情发生时,Tom Insel 就是政府对比产业的一个很好例子。
我想要稍微说一下神经科学以及它与人工智能的关系。一个模式就是之前我们谈论过的很多问题的解决方法是模拟人类大脑。这是 Henry Markham 和 Ray Kurzweil 的方法。Kurzweil 与恒今基金(Long Now Foundation)打赌我们什么时候达到人工智能时代。他把赌注压在了当他感觉到人类理解大脑的时候。我觉得我们不会很快就进入理解大脑的时代,里面的东西太复杂了。人们建立的现有模型模拟一到两个种类的神经元,然后一堆神经元彼此之间连接。但如果你查看真正的生物学,就会发现我们大脑中有数百甚至数千种类的神经元。每个突触都有百千种不同的分子,而且脑内的互联也比我们了解的复杂的多。
相比于使用神经科学作为发展人工智能的通道,我们可以使用人工智能作为发展神经科学的通道。神经科学这种水平的复杂度是人类无法理解的。在我们理解大脑之前,我们需要更好的人工智能系统,而不是相反的那条路(指用神经科学发展人工智能)。