《计算机仍然不能做什么——人工理性批判》MIT版导言 (上)
Hubert L. Dreyfus 著
陈自富 译
转载自链接。
《计算机不能做什么》的这个版本不仅仅是出版商的变化和书名的微小更改,也意味着形势的变化。现在这本书不是旨在提供持续进行的辩论中的一种异议性的立场,而是过去一段历史期间的观点。现在20世纪快要结束,而该世纪的伟大梦想之一显然也正在终结。差不多半个世纪以前,计算机的先驱阿伦·图灵曾经提出:使用规则和事实编程的高速数字计算机,可以显示出智能行为。这样在后来就诞生了人工智能。然而,经过了50年的努力,现在除少数顽固者外,显然产生通用智能的努力已告失败。这种失败并不意味着此类型的人工智能是不可能的,也无人能提出这样的否定性证据。但是至少在目前,或多或少已经证明:基于人类通过规则和事实产生智能的假设的研究纲领,已经走到了尽头,没有理由认为它会一直成功。事实上,对于约翰·豪奇兰德(John Haugeland)所称的好的旧AI(GOFAI:Good Old-fashioned AI),就是科学哲学家称为退化的研究纲领的一个典型例子。
伊姆雷·拉卡托斯定义的退化的研究纲领,是指这样的科学计划:它以美好的前景而开始,在一个有限的领域内提供新的研究方法而产生印象深刻的成果。不可避免地几乎所有研究者都想在更大范围内应用新方法,开始时在某些方面也会有与旧研究方法下相同的一些问题。只要新的研究方法成功,研究纲领将会扩展并吸引后来者。然而,如果研究者一开始遇到了未预见到但又重要的现象,而它们始终与新技术相抵触,那么研究纲领将会停滞不前。只要更进步的备选方法出现,研究者将会尽快放弃此纲领。
我们在GOFAI的历史中看到的正是这种模式。GOFAI的研究纲领因艾伦· 纽厄尔(Allen Newell)与赫尔伯特·西蒙(Herbert Simon)在兰德公司的工作而具有良好开端。50年代后期,纽厄尔和西蒙证实了计算机能完成比计算更多的任务。他们演示了能用于表示任何事物的计算机二进制位串,包括表示真实世界的各种特征,这样他们的研究纲领就能被用为把这些特征联系起来的规则。然后,计算机中的表达式结构表征了具有相同结构特征的世界的事务状态,而计算机作为物理符号系统存储和操作这些表征(Representations)。这样,纽厄尔和西蒙宣称:计算机能模拟智能的各个重要方面。心灵的信息加工模型由此诞生了。
纽厄尔和西蒙的早期工作令人印象深刻,到60年代后期,由于一系列微世界的成功,例如:特瑞·温诺格拉德(Terry Winograd)的SHRDLU程序,它能通过移动模拟的理想方块来响应类英语的命令(参见第12-13页),人工智能已经成为一个欣欣向荣的研究纲领。这个领域拥有博士学位项目、专业团体、国际会议甚至大师。看上去所有要做的就是扩展、组合和提出更现实的微世界,它很快会拥有真正的人工智能。麻省理工学院的人工智能项目主管马文·明斯基(Marvin Minsky)宣布:“在一代人的时间内,将根本上解决创造’人工智能’的问题”。
接下来,这个领域突然遇到了未预料到的困难。由于通过编程理解儿童故事的努力失败,麻烦出现了(参见第57-62页)。程序缺乏四岁儿童的常识,没人知道怎样赋予程序理解最简单的故事所必须的背景知识。一位熟悉的理性主义者的梦想成为问题的关键。GOFAI基于笛卡尔式的观念:所有的理解都是形式化的并使用恰当的符号表征。对笛卡尔而言,这些表征是原子观念(primitive ideas)或实体(elements)组成的复杂描述。康德增加了一个重要的观点:所有的概念是关联这些实体的规则。弗雷格指出这些规则可以形式化,这样无须本能和解释即可操作它们。考虑到计算机作为可能的形式符号处理机的性质,人工智能将这种理性主义者的愿景变成了它的研究纲领,并开始搜索能掌握日常常识的原语(primitives)和形式化规则。常识理解由巨大的数据结构表征,这个数据结构由事实以及关联和应用这些事实的规则组成。然而已经证明,这比任何一个人期望的形式化要难得多,更不用说对常识的理论的形式化了。这不是明斯基希望的仅仅是对1000万种事实编排目录的问题。明斯基的态度在十四年的过程中完全改变了。1982年他告诉记者:“人工智能问题是曾研究过的最困难的科学之一”。
回想起来,我从1965年以来的工作,是不断变化地尝试对我的直觉进行辩护,这基于我对马丁·海德格尔,莫里斯·梅洛·庞蒂以及后来的维特根斯坦的研究,而GOFAI的研究计划最终失败了。对与我们相关联的心智的符号信息处理模型的内在困难,我首先认识到是我们的整体感,以及需要涉及持续进行的活动,而符号表征是原子论的并且总体上与这些活动分离开来。到1979年《计算机不能做什么》出版第二版时,我曾经含糊地称为整体上下文环境所指出的表征问题,已逐渐被人工智能研究者意识到是一个严重的障碍。因此我在新的导言中试图指出他们所称的常识问题,并不是真正关于如何表征知识的问题。某种程度上,当我们指涉事和人时,允许我们体验当下所与之相关的日常常识背景的理解似乎就是实践知识(know-how)。除了构成人类的所有兴趣、感觉、动机和身体上的能力之外,这种问题恰好是这种实践知识(know-how),即它会被作为理性知识(knowledge)转达给计算机——作为庞大和复杂的信念系统——在符号表征中,它组成我们仿佛明显成为人类的那些不可言喻的、前概念的背景理解,而这对我而言这是无望的任务。
基于这个原因我质疑GOFAI技术能解决常识问题,但这不能证明我这样的怀疑:即组成常识背景的实践知识本身不能由事实和规则构成的数据结构表征。假设我们的背景知识主要由指涉事和人的技巧而不是由关于它们的事实组成,我所需要的就是反对那些假设这种技巧能以符号化形式表征的人们的观点。我的兄弟斯图阿特(Stuart)原已在技巧获取(skill acquisition)的现象学解释中提出过一个遗漏的观点。
他指出,技巧获取通常以学生学习和运用规则开始,这些规则用来掌握上下文无关的原理。这在信息加工模型中有些是真的。这样象棋初学者学习遵循与诸如中心控制(center control)和子力平衡(material balance)等特性有关的规则。然而,在一个人开始理解某领域之后,他看到的是有意义的各个方面,而不是上下文无关的各种特性。于是更有经验的棋手看到的是诸如不平衡的兵卒结构或者王翼薄弱等上下文相关的特性。接着一个有能力的玩家学会设置目标,然后就基于目标达成所相关的角度来评判当前局势。接下来在积累大量经验后到了精通的阶段,玩家能够将局势视作具有趋于确定结局的确定意义(certain significance),而局势的某些方面主要与结局相关。例如,假设有一盘合适的棋盘局势(board position),几乎所有的高手在观察几秒钟后都会看到如果要赢白棋必须攻击王翼。
最终,在积累更多经验之后,一个人达到了立即看出来必须如何走的水平。例如,一个国际象棋大师,不仅几乎能马上看出局势中的问题,而且脑海中也立刻想出了正确的应对。不用去猜想这是初学者的特性及规则,还是其他特性或规则在这种专家级的表现中发挥作用。如爱德华·费根鲍曼(Edward Feigenbaum)所表明的:我们在学习系鞋带时曾遵循的规则,并不表示任何时候我们系带子时仍然必须无意识地遵循同样的规则。这就象是声称因为我们在学习如何骑自行车时需要训练的轮子,那么现在我们骑车的任何时候都必须用一个看不见的轮子。没有理由认为获得技巧时起作用的规则也会在后来的应用中起作用。
然而,当《机器心智》(《Mind Over Machine》)出版时,斯图阿特和我面对同样的反对意见:它针对我在《计算机不能做什么》中对整体论的呼吁。批评者说你可以描述如何感知专业技能,但我们解释智能行为产生的唯一途径是用符号表征,因此这必定有潜在的因果机制。纽厄尔和西蒙采取符号人工智能的这种类型的辩护:
“符号系统假设的主要证据。。。是负面的:即关于智能活动如何通过人还是机器完成的特定假说的缺位。”
为了回应物理符号系统研究计划的这种“余者可能是(what else could be)”的辩护,我们在《机器心智》中呼吁一种有点含糊和似乎不合情理的观念:即大脑可能存储与适当的应对相配对的局势的全息图像,从而可以用过去曾成功地应对相同局势的方法来应对局势。关键概念是在全息图像匹配时人们有一个相似性识别的模型,它不需要根据一组通用的特征来分析两个模式的相似性。但是这个模型是没有说服力的,没人发现在大脑中有任何类似全息图像的东西。
这时候,就象《摩登时代》的查理斯·卓别林正好在革命者聚集时拿着红旗从检修孔出来一样,我们高兴地发现自己被迅速发展的不同类型的神经网络建模者包围。当常识知识问题继续阻碍在问题求解中如此有效的技术,而模式识别和学习已被证实比预想得要难解决得多时,在长时间休眠后使用计算机来产生智能的替代方法作为有吸引力的研究纲领重新浮现。神经网络革命者——也成为联结主义者的胜利到来,结束了GOFAI研究纲领的退化。
我们通过对大脑学习能力而不是对世界的心灵符号表征建立模型的提议,不是从哲学中而是从很快被称为神经科学的领域获得灵感。这直接来自于赫布(D.O.Hebb)工作的启迪,他在1949年提出如果神经元A和神经元B的同时兴奋增加了两者之间的连接强度,大量神经元就能够学习。50年代后期弗兰克·罗森布莱特(Frank Rosenblatt)追随这种先知灼见,他考虑到由于可能难以形式化智能行为,人工智能应代之以试图对神经元网络学习区分模式和恰当响应的过程进行自动化。寻求符号表征的研究者希望获得能赋予计算机解决确定问题或区分确定类型模式能力的形式化结构。相反,罗森布莱特想建造一个物理装置,或者在数字计算机上模拟这样的装置,它能产生自己的能力。
当符号人工智能似乎走入困境时,唐纳德·诺曼(Donald Norman)的平行分布式加工小组和其他人开始审查罗森布莱特项目的种种变化并获得了令人惊讶的成功。很快,受挫的人工智能研究者——他们疲于坚持杰瑞·莱特文(Jerry Lettvin)在80年代早期称为“仅有的救命稻草(the only straw afloat)”的研究纲领,开始投靠这个复活的范式。罗姆哈特(Rumelhart),麦克莱兰德(McClelland),以及平行分布式加工研究小组的两大卷作品,《平行分布式加工》,在1986年上市时有6000本延期交货,现在还有超过45000套在印刷中。就像苏联的解体一样,GOFAI研究纲领崩溃的速度使每个人,甚至是我们当中预测其或早或晚会发生的人都大吃一惊。
对于斯图阿特和我,高兴地是神经网络建模者对问题有似乎可信得多的答案。如果不是符号和规则,还会是别的什么呢?他们的模式表明一个人根本不需要存储实例;相反,设计者能调整模拟的多层感知器神经网络,这种调整通过训练其响应特定局势,然后使它按照学到的合适的外推方式(是设计者希望的)响应其他局势而进行。事实上,在神经网络模型和GOFAI之间最显著的不同是:神经网络模型建立者不是提供与领域特性相关的规则,而是提供用于训练的输入-输出对(input-output pairs)的历史,然后为了将输入映射到输出,即从局势到响应,神经网络通过调整许多参数进行自我组织。于是运行着这些网络的仿真程序的计算机不被看成物理符号系统。鲍尔·斯莫兰斯开(Paul Smolensky),平行分布式加工(PDP:Parallel Distributed Processing)的一名研究者,总结如下观点:
联结主义的系统是由大量相互连接、并行运行的简单处理器组成的大规模网络。每个处理器有一个数字式的触发值用于沿着不同强度(Strength)的链接与其他处理器通讯。每个处理器的触发值在响应与其相连的处理器的活动时经常变化。某些处理器的值形成了对系统的输入,而其他处理器的值形成了输出。处理器之间的连接确定了输入如何转化为输出。在联结主义的系统中,知识不是以符号结构而是以处理器之间连接的数值强度(numerical strength)模式(pattern)来编码。
回想起来,我对于使用作为物理符号系统的计算机模仿智能的努力进行批评的各个阶段现在清楚了。我早期对整体论的呼吁,对于作为实践知识的常识理解的关注,斯图阿特的日常技巧的现象学,以及模拟神经网络的能力,这一切意味着前后一致的立场——一个预测和解释为什么GOFAI研究是退化的立场。
现在到了我想说“余者皆史”的地方了,但在我把整个辩论取消之前,必须面临两个问题。首先,GOFAI研究计划拒绝得体地退化而且还正在战斗,我们不得不问为什么这还在发生。其次,这样的问题仍然存在:神经网络是否是智能的,或者神经网络研究者,象60年代的人工智能研究者那样,是否在不可推而广之的特定成功基础上建立希望。
GOFAI未能如我所料到的那样消亡,它通过公共电视进入家庭。读者们可能看过一部令人印象深刻的名为“改变世界的机器”的五集连续剧,其中的一集针对人工智能。在那一集中,他们把我对符号人工智能的反对意见,尤其是我关于GOFAI试图表征常识而遇到了不能解决的问题的结论,与一个孤独的人工智能研究者:道格拉斯·莱勒特(Douglas Lenat)的主张进行了离间挑拨。1984年,莱勒特曾经分享过我对人工智能停滞不前的见解:
到70年代中叶时,在20年令人难堪的缓慢进展后,人工智能新领域的工作者普遍达成了关于智能行为的基本结论:它需要大量人们认为理所当然但却要被灌输给计算机的知识……例如,即使为理解普通英语中最容易的段落,也需要上下文语境,即说话者和远超出当前计算机程序能力的总体世界的知识。
而到了1991年,他的担忧更加清晰:我们了解的当前大多数人工智能研究正陷入停滞。然而,他并没有气馁。他在微电子和计算机技术公司(MCC)领导一个研究团队,以在10年的研究项目中形式化常识知识(consensus knowledge)为目标,即:“我们所有人都具有并假设其他人也有的数以百万计的抽象概念、模型、事实、经验原则(rules of thumb)、表征等”。
这不是一本普通的百科全书中的那种知识,而是读者在理解百科全书条目以及更一般地在理解世界上所发生的一切时,所用到的理所当然的知识(take-for-granted knowledge)。常识知识的范围从“乔治·布什是美国总统”到“乔治·布什穿衬衣”,到“当乔治·布什在华盛顿时,他的左脚也在华盛顿”。莱勒特把自己表现成仅有的愿意把常识知识问题作为主要研究计划而不是轻易处理的人。由于他的研究而对此满怀信心:“人工智能在我们的掌握之中”。
通过对采访的交叉剪接,我称之为人工智能的黑马,遭遇了符号信息加工的白马进行最后的战斗。莱勒特声称他的项目进展顺利并有60%的成功机会。我半信半疑地接受了但对之了解不多,并提出了一些没有说服力的反对意见。显而易见,如果我不捍卫对莱勒特的项目注定失败的信心,我对于退化中的GOFAI研究计划的主张就只会被当成报告了一个短暂的社会现象而不被理睬。
为理解我对常识的GOFAI研究进路的批评,了解其来龙去脉(ancestry)是有帮助的。诸如笛卡尔和莱布尼兹这样的理性主义者认为心灵(mind)由其形成所有活动领域的表征的能力来定义。这些表征逐渐成为问题域的理论,意思是对领域中固定的、上下文无关的特性,以及支配他们之间交互作用的表征解释了问题域的可理解性。就此而言我们所知道的一切——即使是满世皆知和涉及事与人的一般性知识——也必须以命题的形式映射到心灵。我把这种关于心灵及其与世界的关系的观点称为:“表征主义”。表征主义假设基本的日常理解是隐式信念(implicit beliefs)的系统。
诸如埃德蒙德·胡塞尔(Edmund Husserl)这样的意向主义哲学家,以及杰里·福多(Jerry Fodor)和GOFAI研究者这样的计算主义者,也持有这样的假设。只有在一个人已经假定常识来源于命题知识(propositional knowledge)的海量数据库(a vast data base)之后,才会出现以形式化规则及特性来表征所有这类知识的特定的人工智能问题。到那时,既不是发展如果心灵用于表征世界而必须持有的先验条件(transcendental conditions)的哲学理论,也不是提出命题知识的存储和检索如何工作的心理学模型,而是人工智能研究者试图形式化并组织日常共识知识(everyday consensus knowledge),他们遇到了被称为常识知识的问题。实际上至少存在按以下标题分类的三种问题:
1. 日常知识应如何组织而使人们能依此进行推理。
2. 技巧(skills)或者实践知识(know-how)如何被表征为是什么的知识(knowing-that)。
3. 在特定局势下如何运用关联知识。
当表征主义者(representationalists)编写程序试图处理每个这样的问题时,既无可被广泛接受的方案,也无这些问题能被解决的证据。弄清楚的只是所有解决这些问题的努力都碰到了意外的困难,这转而意味着很可能是对表征主义原则上的限制。至少这些困难使我们质疑为什么人们会期待表征主义的项目成功。
然而莱勒特认为他的前任只是对常识系统化所作的努力不够。他的目标是用不涉及到知识的特殊用法下的一般类(general categories)来组织常识知识:
“所有程序当然建立在一些原语上(谓项、框架、存储槽、规则、函数、脚本)。但如果你选择与任务相关的原语,从短期来看会获胜(为一个狭小领域编写程序),但从长期来看会失败(当你试图增加程序规模时会发现自己陷入困境)。”
莱勒特把他的工作与解决本体论——即对不同类型的上下文无关的实体及其关系的描述——这一传统哲学任务联系起来,他明白从传统的本体论转向研究计划不是一件小任务:
“(对掌握共识知识的)认真尝试需要建立巨大的知识库,这比今天典型的专家系统要大1万到10万倍,并包括普遍事实(general facts)和探试法,也包括用于类推的特定事实与探试法的广泛示例。。。。。。此外,还会包括信念,我们掌握的意识到的其他知识(常常按照文化、年龄阶段或历史时代分类),表征事物的不同方法,在不同环境中合理的近似的知识等等”。
数据结构必须表征对象及其属性,个体,集合,空间,时间,因果性,事件及其要素,机构,习俗,还有从传统哲学观点来看是奇怪的:即诸如餐馆或生日集会上的宴会等重复的社会场景。这种数据库式的本体论,象任何传统理性主义者的本体论一样,必须通过原语元素(primitive elements)走出低谷:
“选择一套表征原语(谓项,对象、函数)被称作本体论工程——即定义领域的类别和关系(与哲学家千年来所做的本体论理论化比较而言,这是经验的、实验性的工程)。”
莱勒特明白他的本体论必须表征我们的常识背景知识——我们认为理所当然的理解。他认为试图赋予计算机处理人和事所需要的技巧和感觉是不成熟的。人工智能界中再也无人相信到2001时我们将会有象HAL这样的人工智能电脑(译注:HAL即HAL 9000,它是1968年发行的科幻电影《2001太空漫游》中的大型人工智能电脑)。如果Cyc数据库能够理解书和文章,例如它能回答关于书籍和文章的内容的问题并能从中获得知识,莱勒特就满意了。事实上,即使制造一个能理解普通英语中简单句子的数据库也是一个困难的问题,因为这种理解需要海量的背景知识。莱勒特搜集了一些所涉及的困难中的典型例子。考虑下面的句子:
“玛丽看见有只狗在窗口里,她想得到它。(Mary saw a dog in the window, she wanted it.)”。
莱勒特问:“它”是指狗还是窗口?要是我们曾说过“她撞到了它(She smashed it),”或者“她把鼻子压到它上面(She pressed her nose up against it),”又会怎样呢?
注意这样的句子好像是诉诸于我们想象在此场景中如何感受的能力,而不是需要我们咨询关于狗和窗户的事实以及典型的人类会如何反应。这也依赖于世上广泛的实用知识,例如在一个障碍物的另一边如何接近某物,这样更容易出现不考虑感觉和身体处理技巧而导致莱勒特的问题的情况。为了组织理解典型句子所需的知识,我们需要能够想象感觉和做事(doing things)。这也是所有“指示语(deixis)”的问题,即:就我们自身的位置来定位事物的方式,例如“在那儿(over there)”,“附近(nearby)”等等。所有这些问题都指向了身体的重要性。莱勒特没有告诉我们他主张如何用命题方式(in propositional term)来抓住我们的这些身体感受:内在和外在的,可接触的和不可接触的,我们抓住各种东西的最佳方式所需的距离。他只是武断地告诉我们这能够做到。
“我们的回答——原则上以及在CYC中——是描述感知、情感、动机等等,细化到能使系统理解人类做那些事情的某种详细程度,以及/或者能简单地对它们加以考虑。”
在我们被编排的电视辩论中,我关于智能需要身体的主张由于提到玛德琳(Madeleine)的案例而不被理睬,她是一个被奥利弗·塞克斯描述的坐轮椅的女人,由于一出生就失明,她不能用手阅读盲文,然而仍然从读给她听的书中获得了常识知识。但是这个案例事实上并不支持莱勒特。玛德琳当然不像计算机。她是谈吐和与人交互的专家,因此而具有常识性的社会技巧。再者,她有感觉,包括物理的和情感的,还有内在的、外在的和在世上走来走去的身体。这样她能与其他人产生共鸣,某种程度上还能分享他们遭遇其世界的熟练方式。她的技能可能完全来自于学习区分许多想象的情况以及在这些情况中典型发生的东西,而不是来自于莱勒特的意义上的世界模型。事实上,塞克斯说玛德琳具有:“填充的和持续的想象,可以说通过其他人的想象,想象通过语言表达。”这样尽管玛德琳不能看和移动,但那种她从书本中获得常识知识,并证明人们能基于被理性地灌输有序表征的符号计算机模型而获得和组织与世界有关的知识的主张,忽视了即使是从书本中,一个人的身体技巧和想象力是获得常识知识的必要条件的可能性。
马克·约翰逊(Mark Johnson)即使在解决意识问题时也提出了关于想象重要性的真知灼见:
“想象通过我们完成前后一致的、型式化的(patterned)和统一的表征的手段而成为无处不在的结构化的活动。它对于我们使经验具有意义及发现其有意义的能力是必不可少的。因此结论应该是,想象对人类理性,即发现联系、描绘推断和解决问题的能力极其重要。”
假设玛德琳的身体和想象与事实的累积、组织、及运用无关,而她的技巧本身仅是更多地存储和组织事实的结果,这样就回避了问题的本质。为什么我们应该假设玛德琳用于任务学习和常识应用的想象及技巧,能够通过被赋予计算机事实及组织它们的规则而成为恰当的?
一种看待这种难以置信的主张的方式就是问计算机怎样可能——用它数以百万计的未针对特定目的而组织的事实——来检索恰好与理解特定局势中说出的句子相关的信息。这个问题远比基于存储好的数据来回答提问困难得多,而后者似乎是莱勒特到目前为止所考虑到的全部。为了在特定局势下检索相关事实,计算机应对局势进行分类,然后遍历此局势中符合发现它们可能相关的规则的所有事实,最后推导出这些事实中的哪一个在此特定局势下确实是相关的。当增加更多事实和规则来引导时,这种类型的搜索显然会变得更加困难。事实上,人工智能研究者长期以来已经认识到系统对事务的特定状态知道得越多,就要花越长的时间来检索相关信息,这是涉及到规模放大的普遍问题。相反,人类对某个局势或个人知道得越多,检索其他相关信息就越容易。这意味着人类使用的是与表征主义哲学家和莱勒特假定的符号大不相同的存储和检索形式。
莱勒特承认这里有问题:“任何搜索程序的天生倾向就是降低速度(经常称为组合爆炸),这是因为增加了额外的命题,所以搜索空间膨胀起来。。。。。。。保持增长中的程序的有效智能的关键在于明智地添加元知识。”问题是规则和元规则正是更没有意义的事实,因此只会使事情更糟糕。
最后,莱勒特关于Cyc一定成功的信念既不是基于论据也不是基于事实上的成功,而是基于未经测试的传统假设,即人类拥有巨大的常识知识库,通过运用进一步的知识设法解决规模不断放大(scaling-up)的问题。
“我们经常询问如何期望得到有效的‘索引’——发现相关的部分匹配——因为知识库变得越来越大。。。我们的回答。。。初看起来经常令人吃惊:一直等到我们的程序寻找许多漫长但是低效率的模拟,也就是说仅仅通过大规模的搜索。然后调查人们在那些情况下精简大部分搜索空间时所运用的额外知识。整理这些知识并加以抽取,再加入到系统中。”
但是这种人们存储上下文无关的事实和使用元规则来精简搜索空间的信念恰恰是尚在讨论中的理性主义者的不可靠的假设。它必须通过审视日常知识(know-how)的现象学而加以检验。这样的解释已经由海德格尔以及他的追随者如梅洛-庞蒂及人类学家皮艾尔·布尔迪厄给出。他们发现那些被当做事实的东西取决于我们的日常技巧。在描述一个礼物交换的社会中这是很重要的,布尔迪厄告诉我们:
“如果不想构成冒犯,回赠礼物必须被推迟而且要有所不同,因为立刻回赠完全同样的物品意味着拒绝。。。这是一个风格的问题,意味着在这种情况下机会的选择和时机把握,对于同样的行为——赠予,回赠,提供一个人的服务,访问等等——在不同的时间可能有完全不同的含义。”
然而文化中的成员对理解要做什么却毫无困难。一旦某人获得必需的社交技巧,就不必有目的性的地认知局势,因为他已经了解合适地赠予礼物的种种特点,然后理性地决定赠予什么礼物。通常一个人的简单回应是在适当的环境中赠予适当的礼物。这种正常的回应就构成了礼物交换局势下的环境。当然拥有什么样的礼物是恰当的知识也如此。一个人不必弄明白什么是恰当的,或者至少不需弄明白什么是恰当的范围。每个人的技巧是协调的,因此通常某人只是被局势要求赠予某种类型的礼物,而接受者,被社会化到同样共享的实践中,认为这是合适的。布迪厄评论道:
“过去经验的活跃存在…以感知、思想和行为的形式存储在每个有机体中,它倾向于保证实践的‘正确性’和与时俱进的稳定性,比形式规则和显式规范更加可靠。”
这种经验意味着只有对尚未获得恰当技巧的陌生人或者旁观者,使知识结构化以表征所有礼物赠予的事实才是必要的。布迪厄坚持认为这是一个错误——一个经常被人类学家,哲学家以及我们还加上人工智能研究者所犯的错误——读取我们在正常局势的实例清单中需要诉诸的规则,然后诉诸通常情况下熟练响应如何产生的因果性解释这样的表征。
这个例子的观点是知道在恰当的时间以恰当的方式如何赠予礼物需要文化上的应对技巧(savoir faire)。所以知道是什么礼物一点也不是事实上的知识,它和赠予礼物给某人的知识或技巧毫不相干。礼物是什么与什么被当做礼物的差别似乎把事实与技巧区分开来,但这只是不实用的本体论中的哲学信仰培育出来的幻象。由于礼物框架的组织和内容以礼物赠予的实践为先决条件,就不需要也无证据来阐明礼物和礼物赠予时假定的客观特征的框架。对甚至可能有这样彻底的解释也是存疑的。
还有更深层次的问题掩藏其中等待着莱勒特。我们不仅能在匆忙和想象中处理变化的事件和动机;也能把理解投射到新的局势。如果某人是文化实践的大师,他有时候能做一些到目前为止尚未被视为恰当的事情,而后来却被当成恰好做了正确的事情。这样一个文化大师能够导入一种新的礼物或者新的礼物赠予时机。这不仅发生在私人和公共仪式方面,而且当然也发生在关于这些时候的故事和报告中。一个未分享文化的应对技巧的数据库,则不仅不能给出恰当的礼物——我们已经同意莱勒特不必建立技巧娴熟的机器人——而且作为存储礼物的共识知识的系统也是失败的,因为它不能理解礼物赠予中的创新。
莱勒特明白扩展我们知识的能力对于应用知识和从经验中获得新知识都是很重要的。确实,他的程序的成功——根据他自己的标准,需要扩展已知知识,并从书籍和文章阅读中学习,而不是来自于“大脑的外科手术”。因此我们如何投射(project)和扩展已知知识的问题至关重要。
“设计更熟练的学习程序部分依赖于找到开启人类智能的力量源泉的方法:通过类推来理解和思考的能力。。。这种力量源泉刚刚被智能软件利用,但无疑将成为未来研究的焦点。”
假设一个有智能的人能看到他或她已经知道的类似性或相似性,那么有几种方法去考虑这种基本的人类能力。亚里斯多德以来的经典理性主义传统试图把类似性理解成比例。第二种传统把类似性追溯到我们身体的经验。第三种方法以外推的风格接近类似性来反对难以置信的经典传统。莱勒特当然属于第一阵营。马克·约翰逊和乔治·莱科夫(George Lakoff)属于第二阵营。而海德格尔,梅洛-庞蒂以及布迪厄属于第三阵营。
庞蒂提到了在学习和推断礼物交换行为中风格的作用。很可能是不同的文化有不同的风格——侵略型的、被动型的,控制型的等等。婴儿学习的首先是这些无所不在的风格,接下来这些引导他们所注意和模仿的内容。如果是这样,我们会期待风格在所关注的类似性以及用于组织经验知识的隐喻中发挥重要作用。但是,风格在GOFAI中通常被忽视。唯一看到了它的重要性的人工智能研究者是道格拉斯·霍夫斯塔特(Douglas Hofstadter),但即便是他也未提出过任何涉及风格的有说服力的建议。
考虑到这个问题的解决方案对于其系统的成功是必不可少的,莱勒特关于类似性的言论语焉不详。然而,他所说的确实得出了理性主义者的进路并足够详细地揭示了其难以置信性。莱勒特对隐喻和类似性的敏感是引人注意和有说服力的。
“几乎每个句子都包括了隐喻和类似性。一个中性的例子:这是今天我们看过的第一篇文章(1987年4月7日),《华尔街日报》的头条新闻:‘德士古在与宾州石油的法律战斗中输掉了主要的判决,最高法院撤销了德士古对缴付120亿美元巨额债券上诉保结的保护,迫使德士古接近根据破产法第 11章申请破产的边缘。’输了?主要的?战斗?撤销?缴付?巨额的?迫使?边缘?这个例子讲清楚了(drives home)此点:即不但不是(far from)过度夸大(overinflating)对语言理解中真实世界知识的需要,而且通常关于消除歧义的观点也仅仅只是浅尝辄止(scratch the surface)。(驾驶?家?此点?遥远?过度膨胀?抓挠?表面?哦不,我不能叫它停止(call a halt to this)!(呼叫?停止?))”
然而,莱勒特对于隐喻在原语上(in primitives)“探明(bottom out)”的信心,是没有说服力的,也不是可为之辩解的。他简单地声称:
“这些类似性和隐喻的各个层次最后在物理—身体—原语层次上“探明”:上、下、前进、后退、痛、冷、在里面、看、睡觉、品尝、成长、包含、移动、发出噪音、听、出生、死亡、拉紧、筋疲力尽,。。。。。”
而所有这些都是身体原语的事实似乎一点都不让他困扰。
虽然如此,莱勒特仍问了一个正确的问题:“程序怎样自动发现良好的匹配?”但他给出了一个过分简化的理性主义者的回答:“如果A和B似乎有一些未解释的相似性,那么就值得花时间寻找另外共有的一些特性。”
这就将问题想当然了。每件事物都与其他事物在无限多的方面上类似。为什么我们应假设去比较其中两项呢?纵使两个框架有许多共同的槽(slot),为什么我们还认为这些是重要的类似性呢?或许这些重要的类似性根本不能被符号化地表征。那些对我们具有内/外、前/后以及上/下维度的主动式身体(active body)感觉的基本作用的支持者,以及那些认为风格的类似性即定义了什么值得比较的人,都认为没有理由考虑关于能被符号化表征的类似性的约束。
但约翰·塞尔(John Searles)试图把隐喻理解成比例时,他发现象“Sally是一大块冰”的隐喻不能通过列举Sally和一块大的、冰冷的立方体所共有的特征来分析。
“如果我们确实枚举出冰块的各种不同的明显特征,那么没有一个适合Sally。即便我们另外还认为人们具有关于冰块的不同信念,他们确实仍然还不适合Sally……不诉诸情感不是冰块的特征,因为冰块根本不在这些事情的范围内,如果我们坚持认为冰块确实是不会应答的,那么只要指出这种特性仍然不足以解释隐喻表达的含义……因为在那种意义上篝火也是‘不应答’的。”
塞尔总结道:
“这是……所有各种隐喻都发挥作用,而无需任何相似性的内在原理。似乎这正是事实:即我们无需应用任何‘规则’或‘原理’而能够解释某些种类的隐喻的精神能力(mental capacity),而不是纯粹进行某些关联的能力。我不知道有比用‘非表征的精神能力(nonrepresentational mental capacity)’来描述这些能力的更好的说法。”
迄今我们仅仅讨论了由我们的社会技巧构成的事实和隐喻。这些性质的事实怎么样呢?在事实领域与我们无关的地方,即物理对象的领域,我们需要该领域的理论吗?不太可能。人们处理这些事物的方式有时称为共识物理(commonsense physics)。这导致了令人安慰的假象,即行星不是随机地转动,但服从普遍原理,因此日常对象不会无原则地固定、滑动、掉落和弹回,而是遵循复杂和特别的法则。然而,试图为最简单的日常对象找出共识物理,会导致有很多例外的形式化原理,此原理复杂得让人难以置信它会在儿童的心智中存在。莱勒特由此总结出我们对日常对象如何表现的了解不可能是原理而必须是大量的事实和规则。
[Cyc的]方法论会进行积累。例如:报纸文章假定他们的读者已经知道的关于“水”的所有事实和启发(heuristics)。这与诸如幼稚的物理学或其他设法找到所有不同形式的“水”的更深层次理论的方法形成对比。
但是假定没有理由认为有共识物理学的理论,就象没有天国物理学的理论一样,也就没有理由认为我们处理物理对象的知识能够在关于物理对象及其属性的通用数据库中阐明。也许没有一整套上下文无关、足以掌握诸如水这样的日常事物的行为方式的事实。我们可能恰好不得不从大量经验中学习如何响应数以千计的典型情况。这解释了儿童为什么会发现多年来日复一日地玩积木和水是令人着迷的。他们可能学习区分在日常活动中不得不应付的多种典型局势。那么对于象水这样的自然物,也和礼物这样的社会物体一样,常识是建立在如何做(knowing-how)而不是知道(knowing-that)之上,这种技巧(know-how)很可能是存储我们世界经验的方式,而这种经验不涉及符号人工智能所需的对世界的表征。
这仍未解决人类怎样设法达成目的性行为的重要问题。GOFAI接受的传统观点是用被考虑领域的理论来得出一份完成他们将要所做的任何事情的计划。但这并不暗示人们存储了海量事实然后再计划如何运用它们,直到心理学或神经科学给了我们一个不同想法的理由,我们才相信这样的现象,即当某人有关于领域问题的大量经验时,他完全明白需要做什么。这似乎是当一个人拥有足以使他或她成为领域专家的经验时,经验领域是结构化的,因此他可以直接经验相关的事件和事物,以及体会它们如何相关。海德格尔,梅洛·庞蒂以及格式塔心理学的拥护者会说对象似乎是涉及到的参与者而不是孤立和上下文无关的,但也是借由其自身意义征求响应的事物。
在本书第一版我曾指出好的棋手似乎不会在每次走子时从头开始计算如何行棋。相反,他们会在当前位置的某些方面进行调整并从那儿开始计算如何走棋(第102页-106页)。在《机器心智》(Mind over Machine)中,斯图阿特走得更远,他指出只是象棋大师可能需要计算做什么,但象棋特级大师只是看作棋盘在要求某种走子方式。