9.3 中文屋内的数字计算心智

现在来讨论中文屋的论证如何反驳我们已经确定的DCTM。我们将从DCTM的两个主要维度进行评论,这两个主要维度分别是:揭示认知状态或过程类型(例如信念、推理)的计算关系,以及认知状态或过程的表征内容。

从系统角度对中文屋论证的回应

中文屋作为一种反例,认为计算状态和过程并不足以获得认知状态(或过程),如相信、意愿、打算等,但该论证还存在一些严重问题。中文屋的居住者(冯·诺依曼或许称其为“操作元件”)并不懂中文。但至少作为中文屋整体的系统是懂中文的(你的左半脑不懂英语,但是你懂英语)。

塞尔对此加以反驳,他认为确实能够通过记忆将作为程序的英语规则“内化”,但他仍然不懂中文:“我还是不懂中文,同样地,更不用说我脑中的子系统能懂了,因为作为整体的脑没有的东西,它的子系统也一定没有。如果我不懂,那么我脑中的子系统也不可能会懂,因为子系统是我的大脑的一部分”(1980)。

但这种反驳依然存在问题。首先,不能肯定因为塞尔不懂汉语,所以他的某个部分也不懂。或许他不幸是裂脑病人中的一员。脑中的“某个部分”能够做一些事,事实上也确实做了,但病人本身却意识不到他的这部分脑所做的事,除了观察他们自己的行为。这类病人典型的表现会是,否认自己有能力察觉和理解某事,而这些事恰恰是他们的分裂脑能够察觉和理解的。这就表明,从整体推论部分,或者从部分推论整体,这样的一般推理原则是存在谬误的:水分子不是湿的,那么它们也就不是液体,但是它们由部分构成的整体(一杯水)却是液体。群体是由很多人构成的,但是其中任何一个人都不能成为群体。如果塞尔不认为“系统”能够理解汉语,那么他应该提出其他的理由,而不该是这个。其次,塞尔评论,对于中文屋的居住者而言,汉语的“子系统(subsystem)”与英语的“子系统”有很多不同,他说:“英语的子系统知道‘hamburger’指的就是汉堡包,而汉语的子系统对于屋内的人而言,仅能按照规则知道一个‘歪扭符号’对应着另一个‘扭曲符号’”(1980)。但我们也许会提出质疑,屋内居住者在获得知识的同时,为什么非要假定其中文子系统的理解内容,必须需要依靠内省通达给居住者呢,为什么依靠行为不可以?这是否说明塞尔认为,如前面所讲的(他的内省原则),所有心理状态原则上都可以通达意识?第三,因为塞尔中文屋的居住者是人,他自身可能就具有所有呈现给他的信息,对于中文屋而言,“既不能说他只具有人的生物功能,也不能说他只代表了程序,还是同时具备两者,这都不充分”(Rey,1986:173)。似乎信息“编程”的方式就是唯一可能出错的地方了,也许程序的储存并非是机器“恰当编程”的必要条件。冯·诺依曼机确实差不多可以说是通过将输入指令和数据结构置于存储部件(因此能够“储存”它们)之中,而为机器进行编程的,但按照塞尔描述强人工智能的特征,并不要求其程序必须在冯·诺依曼机上运行——毫无疑问,程序必须在冯·诺依曼机上运行是典型的支持强人工智能的机器实践者们的想法。在后面我们将会看到,“联结主义”机器的编程与之非常不同。

从机器人角度对中文屋的回应

也许塞尔的观点已经表明,算法关系并不是产生理解或意向性的充分条件——关涉世界中现实的事物这一意义而言。塞尔说道:“意向性可以定义为某种心理状态的特征,通过这些心理状态,人的心智能够指向(direct)或者关涉(about)世界中的客体和事物的状态”(1980:424)。但DCTM同时包含语义层次和句法层次。根据DCTM,理解是指对于表征的一种计算关系,该表征是一个(也许会很复杂)具有表征内容的符号——关涉某事物。因此,对塞尔论证的回应是,给中文屋增加“机器人(robot)”的感应器,如TV摄像机,这样中文屋就具有了关涉外部事物的能力。

塞尔似乎认为,因为理解的表征内容并不是一种算法,所以理解并不是一种计算关系。对于“强人工智能”来说,这么认为也许是正确的,但涉及DCTM时却可能是错误的,因为DCTM依赖于符号或者表征。塞尔(1980:420)认为,即使强人工智能具备外部世界的因果关系也不能解决他所提出的疑问——外部世界的因果关系并不构成编程。这也许恰好能反对强人工智能(见后文),但却并不与DCTM相矛盾。这里出现的问题可能部分地是由于术语造成的。如我们前面所注意到的,“程序”这个概念可以理解包含狭义的、形式的、句法的含义,但也可以理解为还包含更为广义的句法-并-语义(syntactic-plus-semantic)的含义。按照这种广义的理解,即包含语义,两列在形式上完全相同(同构的)的指令,如果它们关涉不同的事物,那么也许可能会是两个完全不同的程序——例如棋子与坦克和部队。强人工智能只采用程序的狭义含义:认为“恰当的编程”就是产生意向性的充分条件(及其他),也就意味着适当的算法关系就是产生意向性的充分条件(及其他)。中文屋当然会对此产生怀疑,但那并不是DCTM的立场,它是在更广泛的意义上看待程序与编程的。

最后,塞尔在他文章的某处写道,“假定,在我不知道的情况下,给我的中文符号来自于TV摄像机”(1980:420),给机器人增加摄像输入特征就好像真的增加了系统对中文的理解,这其实是误解了心智的输入特征。心智系统是以一种非常特殊的方式接受感觉信息的——有人提出脑接受的视觉信息可能是“准图像的(quasi-pictorial)”(Kosslyn,1980)。此外,心智系统还与外界环境有因果联系。事实上,福多也主张,“完全有理由认为(确定的事实),正确输入特征的因果关系包括,(一方面)联结脑与转换机制以及(另一方面)联结脑与远端事物”(1980b:431)。塞尔认为,单独的因果关系并不足以使系统产生意向性——因为,系统“必须能够,例如,对符号和符号所指向的对象之间的因果关系,产生某种觉察(awareness)。因此,现在……我们就不得不放弃强人工智能和机器人的回应”(1980:454)。那么,我们可能会想知道:(1)为什么必须要对符号与其所指之间的因果关系有觉察呢,只是觉察到其所指不可以吗?(2)觉察是什么——是意识吗?如果是这样,塞尔是在认为(目前还没有人讨论)意向状态必须要具有意识或潜意识吗(见后文“联结原则”)?(3)如果确实如此,那么为什么他会认为(目前还没有人讨论)意识为什么不能解释为计算?我们稍后将回到意识问题的讨论。

中文屋与发光屋

最近,塞尔(1991)以下列形式明确重申了他的中文屋论证:

前提1 计算机程序是形式的(句法)。

前提2 人的心智具有心理内容(语义)。

前提3 句法本身既不构成,也不能满足语义。

结论1 程序既不构成,也不能满足心智。

塞尔随后扩展了他的论证,提出新的原则,并得出另外三个“结论”:

前提4 大脑能够产生心智。

结论2 其他任何能够产生心智的系统,都必须具备某些因果力,这些因果力(至少)要等价于脑的(相关)因果力。

结论3 任何能够产生心理现象的人工智能装置,任何人造脑,都必将复制脑的特定因果力。仅仅依靠运行形式的程序都不可以。(来自结论1和2?)

结论4 人脑实际产生心智现象的方式,并不只是凭借运行计算程序。(来自结论1和前提4?)

对此,丘奇兰德夫妇(Churchlands,1991)用“发光屋”的类比作了回应:设想一个人尝试验证这样一个假设,即光是一种在黑暗房间内摇动磁铁产生的电磁辐射(摇动磁铁产生光,就如运行程序理解中文一样)。因为这里产生的光不在人类可见光谱范围之内,所以这个人不会看见任何光。因此,他们可能会得出摇动磁铁不可能产生光这一错误结论:

前提1 电和磁是某种能量。

前提2 光的重要特征是有照亮的属性,使人明见。

前提3 摇动磁铁本身产生的能量既不构成,也不满足发光。

结论1 电与磁既不构成,也不满足发光。

正如这个糟糕的物理结论一样,塞尔关于中文屋的结论也是蹩脚的人工智能理论。按照丘奇兰德夫妇的观点,之所以得出那样的错误结论,需要从前提3找出问题之所在;摇动磁铁并没有显示出任何关于光的属性——这是需要深入研究的。现在回到中文屋论证:发光屋与中文屋的论证具有同样的形式,发光屋的结论会使人对前提3产生疑问,因此中文屋的论证也会在它的前提3上令人怀疑。

塞尔回应丘奇兰德夫妇由“发光小屋”提出的反对观点时这样说道:光是由电磁辐射产生的,但符号本身与因果属性并没有任何关联。它们没有内在语义——能够解释为中文、象棋、股票市场等等。他认为,这恰恰是丘奇兰德夫妇观点的问题之所在:句法要么是形式化的(与形式、形状和结构有关),要么不是形式化的。如果句法是形式的,那么它就不具备因果属性,因此类比也就不成立;如果句法不是形式的,那么就一定需要有其他事物来完成因果工作,例如硬件——是物理事物完成的,而不是程序。

但强人工智能宣称,程序就是产生心智的充分条件,因此塞尔所反对的并不是强人工智能。显而易见,塞尔的回应首先针对发光屋这个反类比的有效性,接着又回到他坚持认为“句法”不具备因果力的观点。查尔默斯(Chalmers,1996a: 327)对此作了诙谐的模仿:

1.食谱是句法。

2.句法不会产生食物的松郁特征。

3.蛋糕是松郁的。

4.因此,遵照食谱不足以做出蛋糕。

稍后我们再回到对这个问题的讨论,目前学术界有关此问题的争论还处于僵局之中。

评论

从系统角度对中文屋论证的回应,引起了人们对意识经验在认知和思维中起到什么作用的研究;从人工智能角度对中文屋论证的回应,引起了人们对认知语义(意向性)的研究。我们需要更加深入地探讨这两个问题,首先是意识,然后是内容。

9.4 DCTM与意识(II)

意识似乎是最后的堡垒,它是一种生理的副现象,具有某种神秘属性,是无法进行测量的主观状态——简而言之,是在对心智的研究中,留给哲学家涉足并热衷讨论的领域。那就让他们自娱自乐地将这个“现象学”的不可捉摸的东西,形成一个还过得去的理论吧。

——丹尼特(Dennett,1978b)

在前一章中,我们讨论了元意识,以及对于元意识DCTM可能会如何处理。很明显,能够建构这样一种机器,它可以对自己内部的表征和外部输出进行适当的扫描。在这个意义上,机器能够“意识”到自己内部的状态。但这种内部高层(higher-order)状态,还未涉及通常对意识概念的理解中所包含的另外两个方面:第一个我们称之为“对某事物的意识”,第二个通常称为“现象”意识。

对某事物的意识

如果系统能够觉察(aware of)某事物,有时我们就会说它具有对环境中某事物的意识(consciousness of)。也就是说,系统能够捕捉环境中相关的某类信息,或许系统能够使用该信息对环境作出反应。从这个意义上说,TV摄像机或工业机器人都是有意识的。但“意识到某事物”,这种对意识的理解似乎太弱,所以并没有特别引起人们的关注。甚至与元意识结合起来成为元认知(meta-cognition),称为一种“有意识的”状态,似乎依然很单薄。想一想彭罗斯(penrose,1989:410)提出的例子,一台摄像机对着镜子拍摄它自己,究竟在什么意义上能说这台摄像机有意识呢?但是当把“对某事物的意识”与下面要讲的意识概念的另一方面相结合时,就会成为日常生活中有关意识的一种重要类型了。

现象意识

还有一种观念,在前面对意识的讨论中并未专论,但对于意识问题来说也是非常重要的,即事物看起来、触摸起来、尝起来、闻起来、听起来等如何,或者说,这些状态的现象学现象(phenomenology)、质的特征(qualitative character)或经验层面(experiential aspects),在这些状态中事物是其所是的样子。有人这样强调这个概念,“如果某种心理状态具有某种质性感受(qualitative feel)——与经验相联结的质性,我们就会说这种心理状态属于意识”(Chalmers,1996b:4)。想一想,白色屏幕上有一个红色圆点图案,注视这个圆点一段时间后移走红色圆点,这时人会在白色屏幕上看见一个同样尺寸的绿色圆点(这种错觉现象是由视觉中“颜色负后像”效应引起的。当红色或者蓝色刺激物对视网膜的刺激停止之后,感觉现象并不立即消失,如果此时将视线转向白色背景,会产生在白色背景上看到绿色或者黄色刺激物的错觉。——译者注)。这个新的“绿色”圆点究竟在哪里?它并不在屏幕上:屏幕是白的;它也不在人脑内:脑中有的只是灰质。有些人说意识中具有对绿色经验的质性特征。还有其他很多名称命名这种特征,包括“现象感受”,以及意识的“主观层面”。获得这些现象的、经验的或质的特征(通常称之为“感受质性(qualia)”)的方法——意识有怎样的经验层面——是通过观察情境,各种感受质性要么彼此非常不同,要么就一起缺失。

质性不同

内格尔(Nagel,1974)提示我们其他物种的感官系统与人类的非常不同,如蝙蝠。蝙蝠脑中有它特殊的神经环路,可以发出高频声波,然后利用回声对反射声波的物体进行定位。通过这种方式,蝙蝠能够精确辨认事物的尺寸、材质和运动方向——对捕食至关重要。但这并不会误导人们认为蝙蝠是在用耳朵“看”。内格尔接着促使我们思考:蝙蝠利用回声定位探测(看?还是听?)一只老鼠,那么老鼠对于蝙蝠而言可能是什么样子呢?这很难回答——对人类而言,这很可能是完全不同的,也许是永远也无法想象的蝙蝠独有的体验。与人类一样,蝙蝠也会收集有关老鼠的信息(也许它甚至能够意识到自己的意识),但与人类完全不相同的(或者我们无法想象的)是蝙蝠具有它独特的经验特征——蝙蝠的感受质性。

颜色特质的缺失

可以假设有这么一个人,他看不见红色,但他通过学习物理学的颜色理论,能够理解这个命题,即“红色具有最长的波长”。但他还是不能像正常的未受过教育的人那样理解命题,“这就是红色”。

——罗素(Russell,1918:55)

或者我们还可以想一想杰克逊(Jackson,1986)提出的玛丽的思想实验。玛丽是一名颜色视觉专家,懂得所有有关颜色的科学知识,但是她本人却是个色盲(或者说是在完全黑白的环境中长大)。她后来经历了一场手术,使她看见了颜色(或者说她从黑白的世界中脱离出来)。杰克逊认为,她现在知道一些颜色的——她以前并不知道的——质性特征。或者从更加形而上,而不是认识论角度来看,某事物现在突然具有了一些以前没有的特征——玛丽对颜色的经验。事物突然具有了一些新的特征,肯定丰富了我们的世界。

盲视的质性缺失

有一种尤为有趣的病例类型,病人失去了一些感受质性,也就是所谓的“盲视(blindsight)”。在盲视病人(他们的视觉系统已经损坏)眼前有一些“必选”题目(他们必须要进行回答),尽管他们并没有视觉经验,但却能够作出正确的答案,他们甚至会认为问题太过简单:“受试者被说服参加一种游戏,例如,‘如果你认为网格线(你不能看到)是垂直的,就说‘垂直’,如果认为是水平的,就说‘水平’。即使是猜测,你也必须给出一种回答。利用这种必选的方法,可以证明病人能够在他们的盲区内探测到视觉事件,并通过转动眼球定位视觉事件在空间中的位置……不仅能够很好地(如果还不能说像正常人一样)辨别不同方向的网格线(一系列的平行线),而且还能进行一些简单形状的识别……尽管事实上显示出他们具有辨别能力,但盲视者还是会说他们无法‘看见’”(Weiskrantz,1988:188)。

这些结果已经被引申出可能存在另外一种感觉通道,“这是一件非常有趣的现象……与盲视现象相似的是‘盲触’的例子,某物接触到了病人手部肌肤,病人由于病症原因并不能意识到这个触觉刺激……但是明确告诉他有这种刺激,病人却能正确地指出手部刺激的位置”(同上)。

DCTM与完整意识

完整意识

我们把通常人们理解的且引人关注的意识概念称为“完整意识(Full-blown consciousness)”。完整意识似乎又可以分为两种类型。

其中一种完整意识涵盖我们前面提到的关于意识的三种概念,包括:(1)对环境中某事物的觉察(being aware of something in the environment);(2)这种意识一般会具有某种感觉质性特征;(3)(具有感觉质性特征的)这种觉察本身又会成为觉察的对象——它会觉察到对它的觉察(aware of its awareness)。这种元觉察(meta-awareness)一般认为是人类能够报告他的意识状态和控制其行为的基础。

另一种完整意识却属于非感觉(non-sensory)的心理状态——例如处理数学问题或决定在哪所学校就读。在这一情况下,这些状态中会产生某种看起来像什么(like to be)的一些独特的东西——一种认知类型的质性特征:认知质性(cognitive qualia)。因此,我们就得到了两种典型的意识情景:

1.环境-信息→感觉质性←觉察

2.认知状态←觉察

前面(第8章)提到,命题态度可分为表征内容(命题)和态度。有人提出认知状态的内容总是处于自然语言中,或对图形意象的编码中。如果这种观点正确,那么思维这些内容就如储存了某种感觉质性。关于态度、推理、决策、欲望甚至相信,似乎确实都具有某种看起来像什么的东西。

总之,完整意识是一种心理状态,要么具有感觉质性,要么具有认知质性(获得那些经验,看起来像什么),并且人还能够对其所处的这些质性特征的状态进行觉察。

意识与计算机(Ⅱ)

计算机能够具有完整意识吗?第一,前面已经提到,获得对某事物的意识,系统需要以某种方式与现实世界相联系,提取有关它思维对象的信息。从对机器表征形式的讨论中(见第7章)我们了解到,数字表征存在一个重要难题——还没有一种计算结构涉及如何提取环境信息。我们还了解到,这是功能主义程序需要解决的一个难题,宽泛地讲,就是如何构建一种程序,使之能获取外部环境的信息(参见第8章中提到的“长距”概念的作用)。在DCTM中,是按照计算操作程序对符号进行操作的形式来处理这些问题的。但什么样的结构才可以使符号能够替指(stand for)某事物——以及什么样的替指能够使其与环境相联系呢?因此,DCTM在从环境中提取信息的问题上出现了困境。一方面,从环境中提取信息似乎并不是计算程序的一部分;另一方面,DCTM需要具有内容的表征,而内容可能是由环境决定的。DCTM目前还没有成功解决这个难题。

第二,使计算机能够意识到它自己的内部状态,似乎只需对其进行恰当编程即可。但使它具有质性(感觉的和认知的)的意识却是个难点。根据内格尔和杰克逊等哲学家提出的蝙蝠和色盲视觉专家的思想实验可以得出这样的结论:经验的意识、质性的和现象的特征并不具有物理特征,因此物理主义(物质主义)是不完整的。我们对这些形而上的问题持开放态度。然而,从认知科学角度对这些问题的探讨,列文(Levine,1983)称之为“解释鸿沟”,而查尔默斯(Chalmers,1996b)称之为“难问题”。

解释鸿沟

这个观点是指,用生理学(物理学的)的术语对神经系统的描述与如何解释意识现象之间存在着解释鸿沟。在这个世界上,似乎所有有关神经活动和荷尔蒙分泌的知识都不能解释由红色产生的视觉经验、菠萝的味道以及玫瑰的芳香。脑的特定活动与具体的意识经验的联系之间,存在着一道鸿沟。除非我们能够消除鸿沟,否则我们就不能只用生理学的概念来解释经验。

难问题

认知神经科学中(相对)容易的问题是,解释某种脑活动支持某种认知功能或与它的关联。脑内的某些区域和功能在一定程度上已经确认涉及不同的认知机能(例如Churchland and Sejnowski,1992)。但难问题是大脑的这些活动事件如何以及为什么与那些意识现象发生联系。对于这个难题,目前我们还完全束手无策。

有些学者认为,目前我们还没有用于理解意识如何源于物质的概念,所以我们需要创造一些新的概念。他们认为,以往物理主义的概念在根本上是有所欠缺的。麦克吉恩(McGinn,1991)认为,由于生物属性对于人类概念能力的限制,我们将永远不会获得这些概念。而另外一些人认为,我们必须重新审视建构自然世界观念的基石,使之能够适用于对意识的理解。内格尔(1993)确切地说道:“关键的问题是下面的做法是否可行,即寻找一种用于理解和描述意识特征的方法,这种方法既符合一般神经生理学概念的理论结构,又能揭示意识的本质……真的能够发现或创造一种通约且完善的视角,运用它能够使我们理解主体经验和神经生理如何发生内在联系吗?……应该明确,对意识的理想解释,必须要使意识现象能够符合生物系统特征的必要条件——该解释使我们知道这样的系统能够成功地具有意识”(1993:5-6)。

塞尔(Searle,1992)认为,意识也属于自然现象,但它是由脑产生(和实现)的:“心理现象由脑中的神经生理过程产生,本身也属于脑的特征。为了把这种观点与该领域其他的观点相区别,我们将其称为‘生物自然主义’。心理事件和过程是生理自然历史的一部分,就如同消化、普通细胞核分裂、生殖细胞繁殖分裂或者酶的分泌”(1992:1)。

查尔默斯(Chalmers,1996b)也将意识看作一个自然现象,但他并不认为这仅仅是一种物理现象,“按照自然法则,意识经验源于物理现象,但它本身却不是物理现象”(1996b:161)。“一种合理的意识理论,必须能够结合一些原则将物理现象与现象的意识领域联系起来,而这些原则……本身并不能限定于物理定律”(1996b:164)。“存在一套系统规则,能够确保某种给定的物理结构可以伴随产生某种特定的经验”(1996b:170)。查尔默斯将他的观点称为“自然主义二元论”。现在就取决于未来的理论框架能否填补解释鸿沟,并在一定程度上回答难问题,使其能够得以解决了。值得注意的是,我们并不能解释所有事情,甚至物理学,“万物的科学”,也得按照世界本来的面貌接受一些基本原则。现在还不清楚意识之谜何时才能得到完满解决。我们将会追随内格尔、塞尔和查尔默斯(忽略他们之间的不同),想象一旦相关的自然事实都弄清楚了,意识的难题也会迎刃而解。

因此第三点,人们对这个议题的讨论,对我们理解计算机与质性意识(qualitative consciousness)问题的关系有哪些帮助?机器要获得质性意识,可能需要使用正确的材料。按照塞尔的观点,如果意识是自然世界的一部分,那么它就是由神经系统的某样东西所产生的,如果我们能复制它的原因,自然就能复制它的结果。但塞尔强调,那并不意味着机器必须需要建造出与人类完全一样的神经系统——这是一个开放的经验问题。可能仅仅只要复制一些与产生质性意识相关的神经系统的特征即可,而其他与意识经验无关的特征可以忽略。或者按照查尔默斯的观点,如果我们能够建造这样一种机器,它的组织结构能够满足意识的心理-物理法则(psychophysical laws),那么意识就会出现在这个机器中。

总结

在充分及完整的意识中(包括意识到)需要具备三点:首先,与环境恰当的联系;其次,恰当的编程;最后,恰当的硬件(塞尔)或组织(查尔默斯)。在原则上,是有可能建造一种具有完整意识的机器的,但我们很可能会不能解释,为什么系统在本质上,具有了这样或那样的物理结构和组织就具有了意识,除了能够指出这样的系统确实显现了意识。

认知与意识:“联结原则”

假设“完整意识”是具有以上特征的,那么完整意识状态与认知的关系是怎样的呢?现在至少有三种悬而未决的观点:

1.必要关系:如果一种状态是认知的,那么它一定就是意识。

2.无关系:认知状态可能是意识的,也可能是非意识的。

3.认知状态原则上需要通达意识(塞尔:“联结原则”)。

第一种观点似乎太强了。想一想所谓“倾向相信(dispositional beliefs)”的例子,也就是说对于人脑中已经具有的某种相信,也会倾向于接受或表达这些相信。例如,“野生斑马没有穿雨衣(Dennett)”,是不是在读到这句话尚未形成意识之前,就已经相信这是事实?或者再来看看“固定相信(standing beliefs)”的例子,当我们睡着时,是不会放弃相信我们已经相信的那些事情的(可以想一想关于自己的相信,如你的名字、电话号码等),我们在睡觉时并未意识到它们。如果真是这样,那么这些认知状态就没必要一定是意识。还有我们常见的“自动驾驶”、盲视、脑分裂以及双重听觉等现象,都表明认知可以没有意识。

第二种观点代表了人工智能、认知科学以及认知心理学的主要立场。但最近受到了来自塞尔(Searle,1990b,1992: 第7章)的挑战。他提出了(3)“联结原则”,理由如下:

前提

1.所有的意向(心理表征)状态,例如相信或意愿,不管它们是意识的还是无意识的,总是具有一种“表象形态(aspectual shapes)”——客观地呈现世界的方式(见第8章)。一个人可能相信天上远处的星星是金星,而不是晨星或暮星,即便它们所指的都是同一颗星星。一个人可能会想喝水,而不是想喝h2O,即便水就是h2O。

2.如果这些形态并不能通过内省的方式,对意识的表象形态(呈现方式)进行解释,那么就只能依靠下面这两种途径:行为和神经生理。

3.这些“形态特征(aspectual features)”是无法完全或彻底地只用行为或神经生理的概念进行解释的。任何概念都不足以对表象形态进行详尽的描述——是什么形成了水与h2O这两种形态,又是什么形成了晨星与暮星(这里塞尔赞同内格尔(1974)和杰克逊(1986)的观点,前面已有讨论)。

论证

4.假设存在“深层”无意识的意向(心理表征)状态——例如,“深层”无意识的信念。

5.那么这些深层无意识的意向状态就会有表象形态——客观地呈现世界的方式。[源自1]

6.这些深层无意识的意向状态并不存在其他的什么内容,如果有的话,也只是指它们的神经生理现象和/或对行为产生的作用。[源自2]

7.但神经生理和行为并不能够产生表象形态。[源自3]

8.因此深层无意识的意向状态没有表象形态。

9.而所有意向状态都具有表象形态。[源自1]

10.因此,深层无意识的意向状态并不存在。谨此作答。

关于这个论证,我们可以提出两个疑问。首先,在第2步,塞尔似乎没有考虑我们在第7章深入讨论的,计算机中对于事物表征的数据结构还可能存在其他的选择。深层无意识的意向状态既不是“生理的”,也不是行为的,从塞尔的立场来看,也不是经验的——因此塞尔的论证怎么能对此忽略呢?其次,与之相关的是在第3步,塞尔使用了内格尔和杰克逊的“感受质性”的结论,辩驳从神经或行为分析表象形态的可能性——客观地呈现世界的方式。但也有很多理论家相信,并不是所有的“表象形态”或呈现的方式都具有一种可区分的质性特征。他们倾向于认为,相信某物是h2O,可能并没有一种可区分的质性形态,或者相信金星是晨星,也不具有可区分的质性形态。人们可以将其中任何一种与茄子的味道联系起来,至于它们呈现了什么,并不重要。这个争论与第一个疑问是相关的,因为根据DCTM,缺失的数据结构可能正是用来表征思维中非质性形态的东西。所以,塞尔还没有对这种可能性作出解释,但他可能已经有了一种看法。我们后面还会回到对这个问题的讨论。