9 心智数字计算理论的评论
9.1 引言:(再谈)图灵测试
我们已经看到了对DCTM的精确论述,它为由来已久的心-身问题提供了一种较为合理的答案,为科学研究认知能力提供了一种较具影响力和富有成果的框架。还能从中得到什么呢?另外,作为最早提出的心智理论之一,DCTM正确吗?著名的“图灵测试(Turing test)”引出了系统是否“能够思维(can think)”这一较受人们关注的问题。参读第8章有关内容,从“图灵测试”中可以看到一些引人注意的特征:第一,尽管“智能(intelligence)”这个词出现在图灵的文章标题中,但是他却用“思维(thinking)”进行讨论,这就引起了我们关于下列概念之间关系的疑问:智能、思维、认知、心理等,图灵并没有对这些概念作进一步探究。需要注意的是,当人们倾向于说机器能够正确地进行加法运算,可以下象棋(可能甚至具有智能?),但并不会因此而乐观地说机器会思维,能够深思熟虑,或具有某种心理生活了。第二,我们注意到,当模拟游戏中出现不同性别的助手,他们试图帮助或者愚弄询问者(这里省却了具体的帮助或愚弄的方法),使询问者更容易或者更难辨识是否是机器时,游戏就会变得非常复杂。为什么不只是将“打印机”放在人们面前,然后给他们一段合理时间,最后询问者判断两个与之谈话的交流者中,哪一个是计算机?(尽管图灵在这篇论文中第6部分的第4项对反对意见的回答中,他似乎认可了一种简化版游戏,即要求询问者判断一首十四行诗的作者是人还是机器。)因为那种简化的游戏安排已经被称为“图灵测试”,所以我们使用图灵所说的“模拟游戏”指代这种复杂的游戏安排。第三,要求询问者辨别哪位是女性哪位是男性,并没有让他辨别哪个是计算机哪个是人类。第四,图灵没有明确地说当计算机赢得模拟游戏时,询问者能够得出什么结论:机器能够思维?它擅长模拟思维?或者其他什么?我们究竟能得出什么结论呢?第五,图灵本人之所以介绍这种测试,是把这个测试当作对“机器能思维吗?”这一问题的替换。那么就会很合理地提出质疑:究竟替换了什么?在那篇文章中,他一方面说问这样的问题是并没有意义的,另一方面却用很大篇幅来叙述这种替换,因此对于图灵来说这种替换还是有特殊意义的。但这种替换究竟意味着什么依然并不十分明确。也许,图灵是想用一个(在科学上)能够“经验证明”的,因而(在科学上)是有意义的问题,替换一个(在科学上)无法证实因而(在科学上)也毫无意义的问题。最后一点,图灵测试具有人类中心主义的(或许文化的)偏见,因为它暗示了智能以及通常意义上的思维,都具有与人类行为无法分离的特征。对思维这一概念的理解是否也存在这种偏见?——思维的标准是不是就应该根据它与人类思维的相似程度而确立?
图灵测试真的很合理吗?假设它是思维的充分不必要条件,图灵似乎就是持这种观点,那么是否可能存在某一事物虽然通过了测试但它并没有思维?最有戏剧性的反例很可能就是布洛克(Block,1990)的“自动会话机(conversation jukebox)”。这种机器(外星人为其编程?还是宇宙中的一个意外?这不重要)似乎具有非常可信的对话能力,其中存储了所有可能问题的答案,但有一些特定要求,比如句子长度的限制(比如说100个单词),或者对话长度的限制(图灵测试最初设定的5分钟?)。因为有了这些限制,它的程序将会是个有限序列——虽然很长,但还是有限度的。当询问者提出问题1,自动对话机会从所有储存答案中选择一个恰当的回答,譬如答案1。当询问者提出问题2,自动对话机会搜索并选择另一个恰当的答案2,以此类推。按照这种设计,不可能将自动对话机与人类谈话者区分开,因此这种机器将会通过图灵测试。又因为我们并不认为这种机器能够思维或具有智能,所以自动会话机似乎是图灵测试的一个反例——它能通过测试并不足以表明其具有智能。
显然,机器具有相称的言语行为并不足以证明它就具备了思维能力,或许只能是机器从整体上具备了相称的行为才能成为它具有思维的证据。正如众多人指出的那样,思维与“整体环境的适应”相关,即面对各种可能的环境条件,为实现最终目标,能够进行充分合理的计划、推理和决策。但即使机器能做到这一点,也不一定证明它就具有了思维,因为可能存在一台加强版的“自动行为机”能够合理应对所有可能的环境,就如“自动会话机”能合理应对所有语言情境一样。但人们在直觉上,还是会认为它并不具有智能。可能不得不作出这样的结论:思维与产生行为的原因有关,而与行为本身的模式无关。接下来我们就对这一结论进行探讨。
9.2 对强人工智能的冲击:塞尔与中文屋
塞尔(Searle)的“中文屋”可能是最受人们关注的对DCTM产生了极大冲击的一种论点。很多人对此持反对态度,要么不同意其中心论点,要么认为其中存在某些漏洞(我们都应该抱怀疑态度吗?)。塞尔最早在一篇论文(1980:417)中确切地阐述了他的论点:
论点
1.人类(和动物)的意向性是大脑特定因果特性的产物……某些特定的脑过程是产生意向性的充分条件。
2.这篇论文的主要目的在于提出这种观点:实体化(Instantiating)的计算机程序,不可能依靠自身就具备产生意向性的充分条件。
需要注意的是,“意向性”是一个专业术语,不能将“意向(intentional)”混淆为“意图(on purpose)”(塞尔并没有确切定义什么是‘意向性’,只是说具有“关涉性(aboutness)”的众多心理状态。后面将会进一步对此讨论)。这两个论点又可以产生下列推论:
3.对大脑如何产生意向性的解释,并不能根据这种解释,通过实体化计算机程序而使计算机也具备意向性。这是从(1)和(2)在严格逻辑上得到的推论。
4.任何能够产生意向性的作用过程,都必须具有与大脑相同的因果效力。
5.任何人尝试创造具有真正意向性的人造机器(强人工智能)都不会成功,除非能够复制人脑的因果效力。
然而,在论文的正文部分,塞尔设立的目标是区分“强人工智能”与“弱人工智能”:
弱人工智能:在心智研究中,计算机的主要价值是为我们提供一种非常有力的工具(1980:417)。
强人工智能:认为如果能对计算机进行适当的编程,计算机就会具有认知状态,因此这些程序可以用于解释人的认知(1980:417)。
需要注意的是,这里讨论的是“认知状态”,而不是“意向性”。塞尔提出的这个例子,实际上反对的是关于机器智能的一个相当明确的观点。这个观点认为机器能够运行尚克(Shank)的情境文本(story)理解程序,“1.机器能够真实地理解情境,并能对所提问题进行回答;2.可以用机器和其程序对情境的理解和回答,来解释人类理解情境和回答有关问题的能力”(1980:417)。文章有关这部分的核心观点如下:
(T1)
计算状态并不是理解情境,也不是产生认知状态乃至具有意向性的充分条件;
(T2)
计算加工并不能解释人类理解情境,以及认知过程和意向性的能力。
在考察针对尚克的反例之前,需要先考虑这一问题,即如何从理解一种情境归纳出普遍认知状态。塞尔评论说:“这些论证同样适用于威诺格拉德(Winograd)的ShRDLU……魏曾鲍姆(Weisenbaum)的ELIZA……,以及图灵机等对人类心理现象的各种机器模拟”(1980:417)。可以认为,塞尔意思是说,他的这种论证适用于任何“计算”模拟。可以发现,塞尔的论证中有三个潜在的反对目标。第一个也是最直接的对象,是最初尚克提出的情境“理解”程序——这个程序真的能够让机器理解情境吗?第二个也就是次要反对对象是,存在某些程序,能够使机器具有一般意向状态(意向状态是一种包含理解(understanding)和关涉(about)某物的心理状态)。第三个也是最不直接反对的对象,是存在某些能够使机器具有一般“心理状态”(有无意向性)的程序。塞尔似乎是想说明,首先,这种反对尚克情境理解程序的论证,能够适用于所有试图用计算机模拟或者解释人类理解情境的能力;其次,他的反对论证可以进一步引申,反对存在某些程序,能够使机器具有一般意向状态,或者所有认知或心理现象。
方法原则
塞尔进行他的反证之前,提出了一项检验心智理论的原则:
(pof I)
检验心智理论是否正确的方法首先要问一问,如果自己的心智,事实上就是按照这一心智理论所说的原则运行,将会出现什么样的情况。(1980:417)
显然,该观点认为如果有人提出一种认知功能理论,检验此理论是否正确可以通过自问:如果该理论正确将会怎样?我们把这一方法称为“内省原则”。那么我们将如何理解它呢?想一下句子理解过程的例子。一种句子理解理论可能会包含话语识别的过程,涉及语言起始时间的测算(见Lisker and Abramson,1964),或者通达心理词汇的过程(见Forster,1978),以及在所有理解句子的过程中,都有激活与语境不相关联意义的过程。这些理论,因为(1)并不能运用内省原则揭示这些过程,或者(2)想象自己的心智是以这样的方式运行的似乎难以接受,那么,它们就是错误的吗?需要注意的是,我们并不接受(p of I)用“脑”替代“心灵”。那么,我们为什么要接受这一内省原则呢?除非需要假定所有的认知都可以通过内省来揭示(后面还会回到这一问题的讨论)。
塞尔的反证
塞尔想象自己被锁在一个房间里,屋里有一些汉语稿件。因为塞尔不懂中文,所以他也就不知道这些稿件可以分为四组不同的句子。第一组是一篇故事,第二组是针对故事进行解读的文稿,第三组是对故事提出的一些问题,第四组是针对问题所作的回答。最后提供给塞尔一些英文规则,即“程序”,运用这些规则他可以将问题和答案分别对应联系起来。但并不确定房间内的其他懂汉语的人在回答问题的过程中,是否(或如何)参考了对故事解读的文稿。如果没有,中文屋论证就与尚克的程序不相对应,因此我们将假设,中文屋内的其他人在回答问题时参考了解读文稿。当屋外的人用英文向塞尔提出第三组稿件包含的问题时,塞尔根据规则找到该问题在第四组稿件中对应的答案,并将此中文答案再传给屋外的人。通过与屋内懂汉语的人比较,塞尔的行为表现与懂汉语的人并没有什么重要不同,他使用汉语对问题的回答与他用英文一样可靠,由此可以判断他是懂汉语的。塞尔接着总结道:“对我而言,汉语的句子与英语并不相同,我只是通过操作并不理解的形式符号找出答案的。就汉语而言,我所做的就像是一台计算机所进行的工作,对一些具体的形式要素执行一系列计算操作。对于懂汉语的人来说,我仅仅是计算机程序的示例。现在,强人工智能的观点认为,编程后的计算机能够理解故事,程序在某种意义上解释了人类的理解过程”(1980:418)。
中文屋说明了什么:塞尔
塞尔因此得出结论:
1.关于第一个论断,这个例子表明,我明显一点都不清楚那个汉语故事……
2.关于第二个论断,即程序解释了人的理解过程。我们不难看到,计算机及其程序没有提供理解汉语故事的充分条件,因为计算机和程序只是在那里运行,这中间并不存在什么理解过程。但它们是否为理解汉语故事提供了必要条件或重要帮助呢?……没有任何理由认为它们是必要条件,或者它们对于理解汉语故事作出了重要贡献。(1980:418)
意向性与脑的因果属性:模拟与复制
机器具有怎样的属性,才能使其获得与人类相同的意向状态的能力?对于这一问题,塞尔的回答是,“只有与脑一样,具有相同因果力的事物,才可能具有意向性”(1980:423)。根据塞尔的这一观点,纯形式的模型就不可能产生意向性,因为形式属性本身并不具备因果力,除非机器的程序从一种状态进入下一种状态能够称为因果力。塞尔认为,这种因果力对于产生意向现象是必备的,而因果力并不等同于驱动机器进入下一种状态。但塞尔还是谨慎地承认,存在某些物理或化学过程可能会产生意向效应——是否真能产生,是能够运用经验证实的。因此事实上,与上面的引述正好相反,塞尔只是强调,如果想要复制脑的意向能力(感知、行动、理解、学习等),只需要复制足以产生这些意向效应对应的相关因果力,“如果能精确地复制原因,那么就能复制结果”(1980:422)。由于大脑还具有多种因果力,并不直接与意向现象相关联,例如生命-维持机能(如果这种机能遭到破坏,可以用生命-维持设备来取代),因此复制人的意向性并不需要复制脑的所有因果力。这里就有一个从经验可实证角度提出的问题:究竟脑的哪些能力,因果相关于意向性?塞尔并没有提供答案,目前也无人知晓。
在文章最后,塞尔讨论了这样一个问题:为什么当研究者们涉及认知时,比如说当不是气象现象时,就会认为模拟就是复制呢?——计算机模拟消化功能时,并不能真的消化吸收一块比萨饼。塞尔认为,首先,这些研究者过于看重类比:心智对于大脑就如同程序对于硬件(1980:423)。这种类比在两个方面上是不适用的,我们已经多少给予了提示:它忽略了脑的因果力是产生意向状态和过程的充分条件(并不仅是状态转换的充分条件);还忽略了心理现象的意向内容。其次,这些研究者因“信息加工”概念而误入歧途。强人工智能的维护者辩称,既然计算机能进行信息加工,人也能进行信息加工,那么人与计算机就具有同样的信息加工描述层次——相同的算法层次。但塞尔认为,“就人能够进行‘信息加工’这一意义而言……编程计算机并不能进行‘信息加工’。更确切地说,它所做的只是操作形式符号而已……它的……符号对于计算机而言并没有任何意义”(1980:423)。第三,对图灵测试还存在普遍接受的这一事实,说明强人工智能依然残留着行为主义色彩。例如,他们认为只要机器能够通过图灵测试,就足以说明机器可以进行思考,但中文屋论证就旨在反驳这种观点。第四,强人工智能还残留着二元论,因为“他们想要通过编制程序,复制和解释人的心智。但他们是无法完成这个计划的,除非心智不但在观念上,还要在经验上独立于脑……这种形式的二元论……坚持……有关心智的特殊心理内容与脑的实际特征并没有什么固有联系”(1980:423-4)。