首页 科技快讯 计算人类

计算人类

来源:晰数塔互联网快讯 时间:2019年04月18日 14:22
计算人类

本文来自微信公众号:全球传媒学刊(ID:GlobalMediaJournal),作者:N.凯瑟琳·海勒,翻译:黄斐,校译:曹书乐、许若文

摘  要  我们的未来是什么样的?一直以来有这样的争辩:一方认为人是万物的尺度;一方认为机器人也应当被纳入衡量的体系当中。本文以STA(感知—思考—行动)范式为讨论基础,并以一系列研究来证明:人类与机器人难辨彼此的可能性未来,在这一未来图景中,机器能比它们被认为的更具创造性,或者人类直觉可能比我们想象的更具有机械性。机器人和人类共同成为一个二元体系使得他们成为彼此的衡量尺度。

关键词 后人类;智能机器;STA范式

探索未来对当下的影响无疑颇具启发性,但是至今还无人写出这类书。如果有一本名为《21世纪对于19世纪的影响》的书,谁不希望一睹为快呢?这本想象中的书无疑将证实人类对未来的愿景,特别是对技术先进时代的愿景,可以极大地影响当下的发展。尤其令人感兴趣的是,最近有一批研究展现了这样一种可能性:未来人类和智能机器将从本质上难辨彼此。通过神经植入、量子计算和纳米技术等新兴技术,在不到100年间,人类将得以在计算层面上增强,计算机的回应则变得人性化。Ray Kurzweil认为,我们可以预期,人类和计算机均将变得不再符合现在人们的标准(Ray,1999,p.280)。这些未来的实体将通过思维(mind)从一个物理介质转移到另一个物理介质而实现不朽,并以一种难以被归类为人还是机器的形式呈现出来。

然而,正如Kurzweil自己所承认的那样,没有什么比预测未来问题更大的了。如果以过去我们所做过的预测记录为鉴的话,我们几乎可以肯定:当未来降临,它将与我们所预期的未来不同。准确预估遥远未来屡屡受挫,因此我的兴趣不是要进行这种推测,而是要探索这种预测对我们当下概念的影响。在这里,我想说的是,我并不想做一个长期预测的冒险游戏,而是希望论证我们现在如何理解人类思考、行动和感知,简而言之,我们如何理解人之为人的意义。

物质文化是塑造我们对于“人性”(human nature)观点的复杂互动之一。人类学家早就认识到,人造物和生活空间的构建影响了人类进化。人类学家认为,赋予人直立行走能力的人类骨骼变化,与运输物品的能力是同步进化的,从而促进了技术的发展。无须参考像基因工程这样当代的、奇异的事物,我们就能认识到,几千年来,一个双循环现象一直在发挥作用:人类创造物体,物体反过来有助于塑造人类。这种古老的进化过程随着智能机器的发明而展开了新的局面。正如Turkle(1984)在她关于儿童如何与智能玩具互动的研究中表明,展现有人类特征的人造物成为我们重新定义自我形象的镜子,或“第二自我”。我们现在的模拟、软件和机器人都远远不及人类(尽管在有些方面它们超越了人类能力,例如从大数据集中检测到细微模式)。尽管如此,与开发此类事物最为密切相关的研究人员也始终坚持一种口径,即首先人类行为是设计机器的灵感,然后通过反馈循环的反向作用,在机器的启发下重新解释人类行为。

为了说明这一过程并探索其含义,我将聚焦人工智能领域中著名的STA(感知—思考—行动,Sense-Think-Act)范式。研究人员专注于STA的原因不言而喻:它定义了实体与世界互动所需的必要行为。感觉令实体得以感知世界,而认知处理感官数据并为下一步行动做准备。

在STA模式的每个节点上,我们将看到类似的机制在起作用,尽管也存在着使不同研究项目得以相互区分的重要差异。三个节点都始终具备这种趋势,即从相对简单的机械行为推断到复杂得多的人类境况,然后从智能机器角度出发重新描述人类。我们了解到,这些机器构成了一个新的进化群,它将与智人(homo sapiens)处于同等地位;Menzel和D’Aluisio(2000)提示出这一关联,并将此物种命名为“机器智人”(robo sapiens)。将机器人和智人视为本质上相同的压力,产生出将这种视为人类进化终点的进步叙事。

无论预测中的未来是否如所设想般发生,其效果是形塑了当下我们对人类的理解。那些想要论证人性之独特性的学者,如Fukuyama(2002),都有意无意地被迫专注于那些机器最不可能享有的人类特征。另外一些展望到人类与机器终将融合的学者,如Moravec(1990,1999)和Kurzweil(2000),不去强调智能机器不与人性共享的特性,如具身性(embodiment)方面。无论是排斥还是接受机器与人的融合情形,人类与智能机器间的关系都形成了一种奇异的吸引力,定义了可以追溯叙事路径的拓扑空间。不以智能机器为参照描述人类的做法反而变得难以想象。可以说这种视角成为美国等发达国家理解未来的主导框架。不论未来如何,这一视角对于现在的影响都是重要的。稍后我会回到这些问题来评估各种论点和立场。不过首先,我觉得有必要探索围绕STA范式出现的研究中关于融合情境讨论的基础。

行动 (Acting)

Rodney Brooks是定义我们当下与智能机器关系的重要学者之一。Brooks(2002)将对立启发法(oppositional heuristic)描述为他研究方法的核心。他寻找了一个因广为接受而甚至未被研究共同体讨论过的前提假设;而后提出这个“不言而喻的事实”并不为真。当他第一次开始研究时,研究人员认为人工智能应该以有意识的人类思想建模。例如,让机器人穿过房间,应该要有房间的再现(representation),以及计算机器人的每个移动的方法,好将其映射到再现上去。Brooks认为这种自上而下的方法太局限了。他看到了朋友兼学生Hans Moravec设计的机器人穿过房间的方法。

机器人需要强大的计算能力和花费数小时才能实施的策略:每次移动,它都会停下来,找出自己所处的位置,然后计算下一个移动。与此同时,如果有人进入房间,而机器人正处于导航过程中,它将无可救药地被踢出并被迫重启。Brooks认为,蟑螂完全不可能拥有机器人那么强大的计算能力,但它可以在很短的时间内完成同样的任务。正如Brooks所看到的那样,问题出于这样一个前提假设:机器人必须以世界的再现为基础来工作。

相反,Brooks的对立性策略是自下而上的,而非自上而下的。他的灵感之一(Brooks,2002,pp.17-21)来自威廉·格雷·沃尔特(William Gray Walter)在20世纪40年代制造的一种名为电动陆龟的小型机器人,它可以稳健地导航,当电池电量不足时,它们可以回航充电。在此之后,Brooks开始设计机器人,这些机器人可以在没有核心再现(central representation)的条件下稳健地移动;他喜欢说这些机器人“把世界本身作为自己最好的模型”。

他引入他称之为“包容架构”(subsumption architecture)的设计原则,机器人依据等级结构创建,在这个结构中,当更高层级想要控制低层级时,可以包容低层级的角色。如果没有这种控制,较低层级会继续按程序运行,而不觉得有必要让每一次移动都遵从高层级的指令。每个层级都被建构成一个简单的有限状态机器,有特定的行为任务,内存非常有限,RAM(随机存取储存器)通常小于1千字节。半自主的层级或多或少地独立于其他层级执行程序。该架构非常稳健,因为一旦有一个层级无法按计划工作,其他层级还可以继续运行。不存在一个对应于有意识的大脑的中心单元,只存在一个小模块,在不同层级的命令相互干扰时判定冲突。也不存在任何核心再现;每一层“看”的是不同的世界,而不需要与其他层的视域协调一致。

作为以这类模型构建的机器人案例之一,Genghis是一个长达三十厘米的六腿昆虫机器人。机器人的编程使它能够在爬行中进行探索;当它感知到附近的人类时,就会向他/她发动进攻,尽管其速度如此缓慢,以至于人类不会有任何被侵袭的危险。与其用程序设计步态细节——这当然是一个复杂到令人发指的计算挑战——每条腿只需稍稍与其他腿进行协调,而且步态来自每条腿独立程序中的自体半自动行为。这个深入设计的理念正是Brooks大部分研究的核心内容:

复杂(和有用)的行为不一定是极其复杂的控制系统的产物。相反,复杂的行为可能只是复杂环境的反映很可能是观察者,而非设计者,将复杂性加诸生物体上(Brooks,1999,p.7)。

这种想法的一个变体是“廉价的把戏”,一种从与其他程序化行为的相互作用中自发产生的行为。当批评者指出这些机器人只在一种昆虫的智力水平上运行时,Brooks回应指出,在进化的时间线上,昆虫出现在人类进化时间线的90%处。Brooks认为这表明,难题是在不可预测的复杂三维环境中维持稳健的运动。一旦解决了这个问题,更高水平的认知功能就会更容易发生进化。

为了说明“将世界作为自己最好的模型”这一想法,Brooks和当时麻省理工学院人工智能实验室的研究生Maya Mataric一同创造了Toto——Brooks描述中(Brooks,1999,pp.37-56)的一个路径跟踪机器人。Toto代表了对Genghis的进步,因为它能够通过动态变化的长期目标和随着时间构建的地图来运转。然而未经对导航空间的中心再现,它就完成了这些目标。它检测到地标,然后将这些位置存储在扩展激活拓扑中彼此连接的节点中。每个节点都能够将有关地标的输入数据与其自己所处位置进行比较;因而导航成为一个为了到达目的地,以最短路径穿越存储在节点中的位置的问题。这种巧妙的安排实际上将地图制作的工作折叠回到控制器上,因此“地图”不是作为抽象的再现存在,而是在机器人的探索行为过程中动态出现。十年后,Brooks在评价他和Mataric共同发表的关于这项工作的文章时写道:

这篇文章令很多人费解。它彻底颠覆了“再现”的概念。机器人的大脑永远不会有预先设定的东西,但它会像我们想象的那样活动。我认为这项工作是传统再现的催命符(Brooks,1999,p.37)。

推演到人类的情况,这些结果表明,复杂的行为可以不依赖于对世界的中心再现的简单操作中产生。与Brooks一起工作的学生通过伴随其他人回家,得知了他们的导航行为有多少是有意识的,有多少是“自动驾驶”的。“意识”——人造生命和人工智能研究者常使用的术语——很快就被降级为“附带现象”。作为一个晚近的进化发展,“意识”在行动中起到的作用比传统上被认为的要小得多。例如,本杰明·利伯特(Benjamin Libet)的实验表明,当一个人类受试者被要求表明何时决定举起手臂时,在他说话之前肌肉已经做好了行动的准备,这表明在决策制定的过程到达意识之前,决策就已经完成(Libet,1985;Haggard & Benjamin,2001)。此外,感官数据到达意识时就已被高度处理,因此在大脑产生意识之前,感官数据已经过大量阐释。

Brooks引此为据,提出有意识的思维是基于对世界的局部看法运转的——我们带着视野中央未被意识的一大片盲区穿行于生活。与此同时,神经生理学家安东尼奥·达马西奥(Antonio Damasio)(Damasio,1995,2000)通过从数千名患者处收集的数据论证,大量认知运行于下脑区域,诸如大脑边缘系统,边缘神经系统和内脏。喜剧演员EmoPhillips曾讲述的笑话与此相关:“我曾经认为大脑是人体最棒的器官。”他说,“然后我问自己,‘这是谁告诉你的?’”

这些结果引导Brooks展开昆虫类机器人的实验项目,并借此进一步探索其将对高水平机器人演化复杂人类行为带来多大的帮助。这个计划造就了Cog①(它既是对“意识”的谐谑,又是“机械齿轮”的呈现):一个头身机器人,带有人类式的眼部运动,以及使之在有限范围内与人类伙伴互动的软件。它的眼睛可以使用移动摄像头进行扫视,平稳追踪并锁定房间内的物体。只要有完整的正面视图,它就可以检测面部并识别出其中的一部分。它能识别饱和色,并认出人类范围内的肤色。它也能做出比程序设定更为复杂的涌现行为。这一潜能开始显现:当协助设计的研究生Cynthia Breazeal举起并晃动白板橡皮擦以获得Cog的注意时,Cog靠近并触摸了它,然后游戏再次重复。Brooks观看了这一视频录像后说:

似乎Cog和Cynthia正在进行轮流行动。但是在我们的开发图景中,距离把互动能力编入Cog的程序,还需要很多年。现实情况是Cynthia主导所有的轮换动作,但对于外部观察者来说,这一因果关系的缘由并不明显(2002,p.91)。

基于这一洞察,Breazeal决定为她的博士毕业项目设计一个可以参与社会互动的机器人。这个机器人就是Kismet,它是以激发人类情绪反应为特征而专门设计的。Kismet有可移动的眉毛和超大的眼球,外观像人,有中央凹相机和能使它的颈部在三根轴线间移动的促动器。它由十五台不同的计算机控制,面部、眼睛和其他移动的部分接收视觉和音频输入。依据半自动层的理念,Kismet没有中央控制单元,而只是有一系列分布式的较小单元。其内部软件驱动它来寻求人机交互,一组内部驱动器随着时间的推移而增强,直到它感到满意为止。其中包括搜索饱和色和肤色,使机器人锁定在玩具和人身上。

看起来机器人正在寻找游戏对象,但正如Brooks(2002,p.94)所观察到的那样,“机器人的整体行为源自简单行为的互动,由世界作为媒介”。它表现出典型的情绪反应表达,可以将韵律融入其声音中,并辨别出人类声音中的韵律。它的软件编程方程遵循了对话中基本的轮流机制,尽管事实上Kismet无法理解它听到的话,也不能做出任何有意义的应答。当天真的观察者(即那些不了解机器人编程的人)进入实验室并被要求与Kismet交谈时,他们中的大多数人都能够与Kismet进行“对话”,尽管机器人只能发出无意义的音节,就像人类婴儿一样。

该项目的一个重要意义,是将机器人看作生态整体中的一部分,其中也包含了与之互动的人类,而非将机器人视为一个孤立的单元。与任何其他情形相比,是人类的解释和反应,让机器人的行为变得更有意义。这一团体,也就是我们理解中的机器人加上其人类对话者,比两者的简单相加更为强大,因为机器人的程序设计是为了优化其与人类的互动而创建的。

这些专注于实体化机器人动态机制的项目,使得Brooks、Kurzweil和Moravec这些研究者比起来,在评估人类意识注入人工体的可能性上更为谨慎。基于这些不同版本的技术乌托邦时,Brooks评论说,虽然这个“救赎性的强大版本在原则上似乎合理”:

我们可能还需要几百年的时间搞清楚该怎么做。它将计算沙文主义推向了新的高度。它忽略了神经传递素和激素浴的主要作用,而我们的神经元细胞畅游于此。它忽略了我们身体在制定约束和赋予我们生存非计算层面的意义。而且它可能完全忽略了生命的琼浆(the juice②)(2002,p.206)。

“琼浆”(the juice)是Brooks对人类认知学、进化学和生物学中有待发现的领域的指称。它将为人工智能研究提供新的路径。在这种情况下,他所遵循的逆向方法论导致了这样一种观点,即可能潜藏着一些革新人工智能的全新法则,这一希望支撑了他的研究生目前正在从事的“生命机器”项目。在这里,未来的影响不是通过远程预测来得知,而是基于一种扫射式方法论(shotgun methodology),希望在千万种尝试中,总有至少一种可以命中。在评估这些可能性及其对我们目前理解人何以为人的影响之前,我想再讨论STA范式的另一个节点。

感知 (Sensing)

传感器,对于能在世界中稳健移行、自由行动(free-ranging)的机器人的发展至关重要,它正随着包括视觉、听觉、触觉和红外在内的多种感官模式的发展而快速发展。为了追踪未来的愿景如何影响我们目前对人类的看法,我将抛开这些主流的发展,来考虑首先由Peter Cariani提出的一个离奇大胆的提议:开发认知自主设备Cariani(1991)。通过批评现有的人造生命模型——尤其是“涌现”(emergence)的概念——从而阐发这一新提议。

他指出,“涌现”的风险与笛卡儿的格言相纠缠;笛卡儿指出,如果我们的设备完全遵循特定的具体指令,它们将永远无法超越指令,陷于经典力学范式中,设备完全按照预期运行,不会有新的可能。另外,如果设备远离我们的具体指令,它们则不太可能为我们所用。为了阐明“涌现”如何促生新事物并仍有功用,Cariani以一个模型来定义“涌现”。如果符号联结世界的过程(例如,把1和0联结到计算机浮动电压的过程)导致了新功能的出现,那么系统就扩展了其符号活动的范围。例如,有可能出现既不是1也不是0的第三个值。如果创新以赋予符号新内容的形式出现,那么它是语义“涌现”;如果以一种新的方式组织符号,那么它就具有语法“涌现”。

这些条件中的任何一条都会促生新的观察基元(primitives)。Cariani认为这一点非常重要,因为只能顾及设计者指定基元的系统,会受到这些规范中一些隐含假设的束缚。从这个意义上说,系统只能通过其设计者所规定的方式来了解世界。虽然它可能会运用这些数据创造新的结果,但创新的范围却受限于操控环境——创造和限制了其世界范围的数据——事先做出了决定,不留有自由发挥的空间。为了最大程度地创新,人们需要一个可以突破设计师所创建的框架的系统,它可以自主决定输入什么样的内容。这样的系统相对于其创造者而言具有认识上的自主性,“能够探索我们尚未认识的领域”(Cariani,1991,p.779)。

实现自主认知的一个方法是,由系统自身构建传感器,而非由设计者指定。通过搜索文献,Cariani发现了仅有的一个例子:由控制论家戈登·帕斯克(Gordon Pask)在20世纪50年代创造的一种装置,他将之命名为“帕斯可之耳”(Pask’s Ear),并在各种会议上进行了展示。

这是一个简单的电化学装置,由一组在硫酸亚铁/硫酸水溶液中的铂电极组成。当电流接收电极供给时,铁线会在电极之间生长。如果没有电流穿过线,它会溶解回酸性溶液中。分支来自主线,形成了多个线路争夺可用电流的局面。一般最大电流沿线的线路发展最佳,但当各个线路汇入并形成更大的协作结构时,机制变得更为复杂。在线路增长和衰退的复杂过程中,系统模仿进化生态学的奖励(更多电流)和惩罚(更少电流)。更多电流并不明确什么形式造成了增长,而只能去确定具有增长的潜力。系统本身会发觉这一状况中的最佳形态,包括了室内环境中的其他因素,例如温度、磁场和一个频率发送比另一个频率更多的电流的方式来“训练”系统识别不同音频。半天之内,他就能够训练系统来区分50赫兹和100赫兹的音调。

Cariani(1991,p.789)认为,“这种系统在认知上将是自主的,能够选择自己的语义范畴和可替代的句法操作”。Cariani(1998,p.721)认为,类似的方法或许可以用于生物神经元中,以创造新的信号传导的可能性。

基于Cariani的想法,Bird和Layzell(2002)建立了一个“演进式无线电”。他们清楚地说明了这项研究的动机。沿着Rodney Brooks的逻辑推演,Bird和Layzell考虑到,在当前强调感知而非行动时,和现实世界的建模不同,模拟会受到更多制约。

模拟传感器的进化存在一个根本性的制约:实验者限制了代理与环境之间可能的相互作用。这是模拟过程的直接结果:首先,实验者必须明确地模拟不同的环境刺激如何改变传感器的状态;其次,实验者只模拟他们认为与他们实验相关的环境因素,不然模拟将变得无法计算。这些限制让我们很难看出如何模拟新型传感器。

他们还说:

当设备,而非实验者能确定数不胜数的环境扰动中哪一个才是有效刺激时,新型传感器才能被构造出来(2002,p.2)。

从这个角度出发,他们注意到文献报告了一种被称为“场区可编程门阵列”(field programmable gate array)的新式可演化硬件形式,其中,小的电感、电容差异在晶体管电路中自发涌现。他们认为可以通过一个模拟开关(本身就是半导体设备)的矩阵来构建“可演化的主板”,便可以有机会利用这些涌现的特性。根据众所周知的RC时间常数,无线电路由振荡器组成,这些振荡器的电阻器用于控制电容器的电荷释放。

Bird和Layzell希望以适当的模式排列晶体管,以便这些振荡器自发地出现。为了“触发进化过程”,Bird和Layzell(2002,p.2)奖励频率、振荡幅度和输出幅度。一旦他们成功创建了所需的振荡器,振荡器就可以通过拾取附近PC计算机时钟产生的声波来变成收音机。说应急电路古怪,实在太过保守。有些电路只有在烙铁插入附近工作台上时才能工作,尽管它不需要开着。其他电路只有在示波器打开时才有效。

实际上,演化的无线电以整个房间为环境,以研究人员先前未确定甚至不完全了解的方式使用房间的资源。Bird和Layzell引用Richard Lewontin的研究指出,环境在理论上可以被划分为无穷个生态龛(niche),但这些生态龛要成立,每个里面都需要有一个有机体。他们指出,有些有机体以高度特定的方式适应了相对恒定的生态龛;一般解决方案的发现,通常只能通过居住在高度变化的进化生态龛中的生物体。演化的无线电就像一个高度专业化的有机体,从房间的特定特征中获利,如果房间构成发生变化,它就无法适应。尽管存在这种缺点,但其优点是系统本身确立了其他与世界关系的性质。它自己决定什么样的输入是相关的,并在这个意义上演化出自己的传感器。

演化出新的传感器意味着创造新的世界。正如Cariani观察到的:

传感器决定可用的感知类别,而效应器(effector)决定了可以实现的原始行为种类。传感器和效应器决定了有机体和机器人设备内部信息状态的外部语义性质(1998,p.718)。

虽然几千年来,人类都在使用Cariani所谓的“主动传感”——即“戳,推,弯”——来扩展他们的感知范围,数百年来,人们一直在使用假体来创造新的感官体验(例如显微镜和望远镜),只有最近才出现了这种可能性,去构建可演化传感器和Cariani(1998,p.718)所说的“内化传感”:通过创建世界的内部模拟再现,使内部传感器从中提取新的相关属性,从而“将世界带入设备”。

我们可以在Cariani所提倡的传感器领域的前沿研究和人类的未来之间建立几种联系。首先,Bird & Webster(2001)明确提出,创造者和被创造者之间的界限模糊;人类创建自主的系统,并在这一意义上启动了这些系统的运行,但解析世界的大部分创造力都是由系统本身生成的。

另一个启发来自人类感知系统和人工智能的物理、信息层面的整合。Kevin Warwick前臂的正中神经纤维中植入了带有100个电极的芯片,正是通过将人体神经系统与新的内部传感器连接起来,从而“将世界带入设备”的一个例子。Warwick的植入物既与外部世界联系,也与他自己的神经系统进行联系。虽然尚不清楚这些神经连接如何影响他的感知——如果有的话——输入是明确的。感知处理将越来越多地由直接进入人类神经系统的智能组件作为中介来调节,就像William Gibson在《神经浪游者》(Neuromancer)三部曲中所想象的网络空间那样。

更为日常的例子明越来越多,例如美国军队在1991年海湾战争中佩戴的夜视镜。当人类神经系统通过无缝植入的假体接收信息时,人类感知与智能机器的感知能力间的界限就变得越来越模糊。“机器即你我”(Machines R Us)是对人类“原生”感知与通过智能软件和硬件网络进行感知之间的可渗透边界的一种解释,这些网络直接或间接地与人类神经系统进行着联络。

另一个结论来自Cariani(1998)对于传感器研究的呼吁,要求这些传感器能够独立于创造它们的人类认知类别,进行适应和演化。神经网络被训练能够识别军队坦克这个众所周知但也许真实性存疑的故事将说明这一点。很显然,军队希望开发一种可以区分真假坦克的智能机器。两组数据被用来构建和训练一个神经网络,其中一组数据是显示坦克的胶合板切口的照片,另一组显示真实坦克的照片。经过一些训练后,网络能够完美地区分两种情况。按照惯例,接下来会用第三组数据集对网络进行测试,这里,同一景观中既有伪装坦克,也有真实坦克;但是神经网络这次的预测惨败了。进一步的调查显示,最初的两组数据是在不同的日子拍摄的。其中一天阴云密布,另一天则万里无云。事实证明,网络仅仅区分了云的存在与否。

这段轶事展示了认知自主设备潜力之模糊难测,它们以完全不同于与其互动的人类的方式将世界进行分类。这种自主性可以揭示全新的构建方式以丰富人类对世界的感知,它同时可以创造一种自主设备,以完全不同于其人类训练员的方式来解析世界。

1991年的海湾战争中还有一个反叙事,其真实性也是存疑的。在负责射击坦克的美国士兵之前接受了模拟器的训练,这些模拟器会显示从坦克射出的火焰的图像,表示射击完成。当军队调查人员检查在战斗中被击败的伊拉克坦克时,他们发现,士兵们对一些坦克发射了四到五倍于必需的弹药数量。他们推测,士兵们之所以过度使用火力,是因为没有看到火焰射出的图像,因而继续射击。如果这个推测是正确的,那么就说明人类的感知会根据智能机器的特性而改变,这也提供了一个例子,说明当人机感知在同一个反馈循环中同时出现会发生什么。

当然,人们一直都在参与彼此的感知反馈循环,这是一种用于增强共识群体稳定性的常见现象。相比之下,在Greg Bear的《达尔文的无线电》(Darwin’s Radio)(Bear,2004)中,孩子们天生就有由古老病毒重新激活引起的基因突变——他们发展出的全新传感器,标志着他们已经成为远远超越他们将要取代的人类的物种。认识到新型传感器可以为人类和智能机器开辟新的进化路径,仅此便极大地影响了我们如何理解人之所以为人的意义。

思考 (Thinking)

John Koza深感疲惫。他曾听到他投身科学事业的同事多次抱怨:人造生命虽然在概念上有趣,但却只能解决现实世界中没多大用处的低级问题。Koza是开发遗传编程的先驱之一,专注于创建可以进化迭代,并找到非由设计者设定的新解决方案来应对复杂问题的软件。受生物进化的启示,基本思想是产生多种程序变体,根据一些适应性标准测试它们的性能,并使用性能最好的程序将作为下一代的遗传“父母”,依此类推,直到程序生成的解决方案被认为是成功的。对于创造出在提供解决方案上可与人类所创造的结果相提并论的解决方案的程序,Koza等(1999,p.5)特别感兴趣。

我们可以称之为“Koza图灵测试”,因为它引入了重要变化,延展了图灵经典测试的范畴和重要性。回想一下,图灵提出,人类对话者分别向人和计算机提出问题,以判定计算机是否能思考。如果人类对话者无法根据人和计算机的回答来区分两者,那么这就构成了“机器可以思考”的初步证据。通过对智能问题的操作化,图灵构建出一种情景,使“机器可以思考”这一命题能够被证实或证伪,从而将这个命题从哲学演绎领域转移到了(假定的)实证测试。一旦经历了这一步,结果几乎可以肯定,因为研究人员将努力创建能够满足这一评判标准的项目,直到成功为止。证明的手法不在于程序设计,而更在于达成测试的共识。就像一个魔术师,在完成关键动作后,用一些行为来分散观众的注意力。图灵测试的存在本身就已预设了对标准的共识,这使得我们不可避免地得出“机器可以思考”这一结论。

大量的评论都聚焦在图灵测试的微妙之处及其对人机交互的影响上。对这些海量文献进行评述已经超出了本文的范围,但可以说,Koza强调机器能否产生与人类媲美的结果,这一点显著改变了关注焦点。关键不在于机器是否是智能的,考虑到当代计算机程序可以执行的复杂认知行为,我认为这个问题在很大程度上已经得到了肯定的回答;关键在于计算机能否解决传统上被认为需要直觉知识和创造力来解决的问题。像图灵一样,Koza提出要对创造力判定的问题进行操作化,从而使其能被证实或证伪。

除去其他标准,他还建议,如果机器人的创造能够达到已有专利的水准,或能够改进现有的专利,或创造出有资格获得专利的结果,则应判定机器人具有与人类竞争的能力。或者,如果机器人产生的结果与(人类)同行评审期刊认为具有科学意义的结果相同或更好,那么它们也应被视为具有人类竞争力。

为了应对这一挑战,Koza和他的合作者们(1999)创建了可以设计带通滤波器的遗传程序,即能够区分和分离一个频率与另一个频率的信号电路。设计这些滤波器没有明确的程序,因为需要优化许多不同的标准,包括分离的清晰度,组件的简约性,等等。专注于这些设计的电气工程师要依靠多年经验才能获得大量直观知识。Koza的算法从极其简单的电路开始,接着,程序创建了不同的变体,通过测试和选择,性能最好的被留用为“下一代的父母”。这一过程可能持续数百代,直至取得理想的结果。使用这种方法,该程序创建了14个其结果可以与人类设计一比高下的电路。其中十个结果撞车了现有专利,并有一些结果超过了现有专利,还有一些电路创造了此前被经验丰富的电器师认为不可能实现的结果。

鉴于这些结果,推测Koza挑战中隐含的未来情景变得十分诱人——创建一个产生的结果能与人类具有同等竞争力的程序,想象一下这个情景,计算机可以拨打专利局的电话并以电子方式提交其设计。当专利获得批准后,这台计算机聘请律师和使用专利电路生产组件的公司达成协议,规定特许权使用费汇入其银行账户,它还通过这个账户用电子方式支付电费。或者假设计算机使用其序列号和型号作为作者的名字,向电子工程类的学术期刊提交论文。除了这些科幻小说般的场景外,很明显Koza的成果使得我们能够将他的遗传程序归结于创造力和创造性的人类属性。如果有人认为程序是“愚蠢”的,因为它们不知道自己在做什么,它们的设计只是盲目进化的结果,那么他其实也是在承认:人们也不知道自己在做什么(否则他们就能明确描述解决这些问题的方法),而且他们解决这些复杂过程的能力也是盲目进化的结果。

人类特别吗?

认为人类在天地万物中占据独特地位的观念,在新时代将继续成为一种普遍的、具有历史共鸣的信念。弗朗西斯·福山(Fukuyama,2002)就是这一观念的当代捍卫者之一,他认为“人性”这一命题是存在的,至少可以粗略被认为是沿着钟形曲线统计分布的属性。这些属性包括照顾自己孩子的意愿、关照亲属的意愿、育龄男性与女性发生性关系的意愿,以及年轻男性的对抗倾向。此外,他认为这种人性是社会、文化和政治制度的自然基础,认为那些顺应人性的体制将比那些不适应人性的体制更加稳定和富有韧性。最后,他认为,我们必须不惜一切代价捍卫我们的人性免受技术干预,禁止或规范那些可能显著改变人性的实践。

因此,他明确地反对Hans Moravec和Ray Kurzweil等研究者。虽然他没有提到Rodney Brooks(《我们的后人类未来》(Posthuman Future)一书是与Brooks的《血肉与机器》(Flesh and Machines)同年出版的),但是不妨猜测他会抵制Brooks的一些想法,特别是像Cog这样可以发展出类人属性的机器人。福山分析计算机不能做到的事情——那就是感情,这一点使得他的论证具有说服力。他承认(2002,p.168),机器“可能会非常接近”于重复人类的智慧,但“不可能看到它们将获得人类的情感”。

在论证这一论点时,福山采取了一些奇怪的做法。例如,他严重依赖进化学理论来解释“人性”是如何被创造出来的,但他也引用了教皇约翰·保罗二世的断言,即尽管进化论可以被视为与天主教教义相一致的,但人们也必须相信,在进化过程中的某些时刻,灵魂以某种神秘的方式被嵌入人类。福山认为:

教皇指出了当前进化理论的一个真正弱点,值得科学家们好好思考。与许多科学家所认为的不同的是,现代自然科学在解释作为人类的意义这一方面还做得远远不够(2002)。

但是,如果人们拥有这样的思想自由,即认为人类的本性能被进化之外的超自然力量彻底改变,那么进化过程为什么会迫使我们断定人性必须是这样的呢?福山似乎在方便论证之时运用了进化推理,但当进化论威胁到他的结论——人类是特殊的——特别是人类有其他生命体不具备的灵魂时,他就放弃了进化论。

这种矛盾暴露了他的论点的同义重复性:人类是特殊的,因为它们具有人性;这种人性有因技术手段而变异的危险;为了保护我们的特殊性,我们不能篡改人性。这干净利落的结论很容易就被现实观察打破,使用技术本身也是出于“人性”,因为从人类起源开始,人类就会使用技术。技术与人类在数千年中共同发展,并以各种各样深刻而微妙的方式帮助人类实现人性。

看待福山观点的另一个怀疑论视角是,“人类是特别的”,这一观点有着悠久的历史,在人类、机器和动物的三位格局中产生了特殊的共鸣。尽管这三者的格局随着时间的推移而发生变化,但是通过在三者的关系格局中试图证明人的特殊性这一愿望从未变过。在文艺复兴时期,人们被认为是特殊的,因为与动物(当时在生态位置中与人类最接近的竞争者)不同,人类有能力进行理性思考,这是他们与天使共享的功能,也是人类按照上帝形象被创造出来的明证(至少男人是如此;女性则在几个世纪后才被纳入迷人的理性动物的范围)。

20世纪计算机技术迅速发展,坚持认为计算机无法理性思考的这一观点越来越难立足。关注的焦点便转移为人类感受情绪的能力,正如福山所言。现在是我们与动物共享这种能力,机器则没有这种能力(并非巧合的是,机器在此期间成为人类占据的生态位置中的最强竞争者)。

Philip K.Dick的《仿生人会梦到电子羊吗?》(Do Androids Dream of Electric Sheep)一书,对这一历史进程中的讽刺性进行了精彩的探索(Dick,1996)。虽然该书中虚构的摩西教(Mercerism)神圣化了人类和动物具有的同理心,但那些只有最复杂的测试才能将之与人类区分开的、与人类非常相似的机器人,却被随意屠杀,被当作奴隶,因为他们被认为缺乏人性的本质特征同理心,所以不能像人类和动物一样获得法律保护。

虽然Brooks没有引用福山的论述,但他显然熟悉“人类是特别的”这一观点。Brooks(2002)考虑到“我们是特别的”这个论点,然后又以“我们并不特别”来反驳它。他的论点是如此公然自相矛盾,以至于人们会怀疑他在取笑福山(除非他在写《肉身与机器》时没有读过福山的书)。他认为,机器也能感受情绪的明证,在于人类已经是机器的事实。既然人类能感受情绪,机器也一定可以感受到情感,这个观点至多只能算是随口说说。以已经被证明的东西为假设前提,尝试解决人性的难题,这个论证也不值得被严肃对待。尽管如此,正如我们将要看到的那样,它也指出了“行动—感知—思考”三位一体框架中蕴含的结论。

在Brooks的研究中,行动成为人类和智能机器共享的属性。这种融合强调在世界中的直接行动而非大脑皮层是认知的来源。没人能在机器中成功创造出来的“意识”,被拉下了以前的王座,并被归为一种附带现象。Brooks对于“琼浆”(the juice)的寻找(2002)进一步将人性与机器智能融为一体。这一尝试的影响可以分别在Penrose(1989,1994)和Kurzweil(2000)提出的论证中看到。Penrose(在没有任何证据的情况下)假设意识是大脑中量子计算的结果,而Kurzweil相信量子计算将使计算机像人类大脑那样进行复杂思考。由于目前所有的量子计算机只能算出一加一等于二,所以这些论证依赖于远超当下情况的未来预测。未来在人类是否被认为与智能机器相互融合的这一点上至关重要。

目前的效果是,强调人类与智能机器共享的方面,而那些机器不具备的人类的方面则不予强调。福山(2002)则强调机器不具备的人性部分,尤其是人类所拥有的情感,试图扭转这些优先考虑事项。在任何一种情况下,人性都在与智能机器的关系中被理解。

在STA范式三角中,感知和思考这两个顶点出现了类似的结果。感知成为一个研究前沿,不是因为我们可能通过生物进化过程获得新的传感器;相反,传感可以被理解为我们技术发展的一部分,因此成为合适的研究领域。正如Cariani(1998)、Bird和Layzell(2002)所强调的那样,强调认知自治需要的程序隐含地将人工传感器的演化等同于人类的代理和自治。他们认为,只有当机器能够摆脱我们输入的数据中内嵌的世界观时,机器自主认知的力量才能够真正摆脱人类的先入之见,从而产生真正新颖的结果。当机器可以根据自己的自主观念自由地解析世界时,它们是否仍将遵循符合人类需求和愿望的议程,这当然还是一个悬而未决的问题。

Cariani(1991,p.789)承认这一可能性,他指出,认知自治与动机自治密切相关:

随着时间的推移,这些机器的演化标准可能和我们自身的相去甚远,因而很难帮助我们实现目标,但这是我们与其他具有自主意识的人类相处时同样面对的情况,我们需要处理他人的欲望,每位父母在他们孩子成长过程中都会遇到类似的两难困境。

到这里修辞开始向两个方向分叉,这种状况在融合的情景中经常出现。一方面,智能机器被设想为我们的孩子,这个角色唤起了具有同情心的培育和共情的认同。另一方面,他们也被认为拥有区别于人类的自身目标,这是Hans Moravec在谈到“驯养型”和“野生型”机器人时所采用的说法。虽然“驯养型”机器人将被用于实现人类的愿望(如Rodney Brooks开发的,目前正在销售的智能吸尘器),但“野生型”机器人被认为可以用于世界探险,进行开发和执行其他任务,它们有可能通过自动化工厂进行自我重新编程,从而进行复制、变异和进化。

Moravec假定“野生型”机器人将随后独立于人类而进行自我进化,他们可以自由地定义自己的目标和欲望——正如Philip K. Dick书中所写的那样(Dick,1996),这本书讽刺地描绘了人类如何因拒绝给具有自我意识和智慧的机器人应有的权利而陷入绝境。在融合的情境中,另一种旨在消除机器人可能成为我们进化路上的后代的焦虑方式是,想象我们将生活在所有智慧生物都可以选择自己的肉身的时代,这样人类和机器人之间的区别也就变得无意义了,如Kurzweil(2000)所做的那样。

通过其他方式,John Koza的基因计划及其“具有人类竞争力的结果”指向了类似的结论。现在,机器人不但被认为具有理性思考的能力,还被认为拥有创造力和直觉。程序在并未因其取得的成绩获得赞美的情况下,在摸索中取得这些结果,这个事实在一定程度上表明,机器能够比它们被认为的那样更具创造性,或者人类的直觉可能比我们想象的更具有机械性。

Minsky(1988)雄辩地论争道:人类直觉可能并不主要源于有意识的思维,而是通过运行许多半自主程序的代理,相较而言,这个观点使得弗洛伊德的“无意识”看起来无可救药地拟人化。在这种观点中,弗洛伊德的无意识就像是有意识的思维在想象无意识是什么,而不是无意识本身是什么。它本身是一种更平凡、更陌生的东西,是没有心智的程序在运行算法,但仍然能够产生非常复杂的结果,包括产生一种意识思维,能将这些结果归功于其自身的理性思维能力。

评估这些不同的立场类似于在Scylla和Charybdis之间进行转向。当然,Brooks批评Kurzweil和Moravec严重低估了人类实体的重要性,及其与智能机器的硅实体之间的差异,这一点非常重要。值得注意的是,Kurzweil和Moravec都没有接受过神经生理学方面的训练。具有这种经验的研究人员,如Damasio(1995,2000),对人类实体的复杂性,以及将大脑与内脏联系起来、将思想与情感联系起来、将意识与人类特殊性联系起来的递归反馈循环进行了大量不同的描述。另一方面,Brooks几乎是肯定低估了意识在人类文化和社会中的重要性。从体质人类学的角度来看,意识可能确实是一种后期的进化附加物,但它是与人类独特的语言成就和技术发展一同进步且不可被分割的特殊特征。

当Brooks、Kurzweil和Moravec一道,希望利用未来以巩固他们对人性的看法时,福山希望从过去寻找人性的依托,特别是人类进化的历史。在我看来,通过福山提出的立法指南来限制科学研究是不可能且不可取的。正如他所论述的那样,“人性”确实可能具有进化基础,但文化和技术的进化现在已经与生物进化如此融合,以至于它们不能再被视为孤立的过程。无论我们的未来如何,它几乎肯定会包括人类对生物过程的干预,这意味着“人性”将至少部分地取决于人类决定它应该是什么。

虽然这些研究项目各有自己的安排,不应相互混淆,但它们共同认为智能机器是人类理解自身的合理标准。现在,人类(也包括女人)不再是万物的尺度,而是同智能机器一同形成了一个二元体系,使人与机器成为彼此的衡量标准。我们不需要等待未来到来,才能看到智能机器的发展之于我们对人类的理解的影响。这一时刻已经到来,机器人已经通过相似和对立形塑了我们对人类的理解,已作为衡量我们在进化景观中适应程度的特征而浮现。未来如此坚持不懈地与我们的当下进行呼应,以至于在明天开启之前说“未来已至”不再仅仅是一个隐喻。当我们计算人类时,如果不将人类与智能机器并置,就无法充分理解人类的结论已被写入我们的日常语言。

我想通过我的分析提出这样一个关键点:我们的未来是我们共同创造的。预测未来不应从合理性的角度进行评估,因为我们无法确定,也不能依据进化历史的惯性,因为仅凭这一点不足以判定我们将能做什么或将来会是什么。接受这两个论点,就相当于已经将游戏的控制权拱手让给将今天束缚于未来和过去的人。

相反,我们应该一起提出另一个问题:我们希望未来是什么样的?应该让什么样的价值观来引领我们的感知、思想和行动?从这个角度来看,STA范式有助于我们聚焦于另一类探究,不是断定智能机器就是理解人类的必然尺度,而是思考我们如何才能以最好的方式实现我们想要的未来。预测未来和回顾历史都不足以明确回答这个问题,这两者也都不应急于用伦理的考量对未来盖棺定论。很可能我们的未来会愈发与智能机器纠缠在一起,但这只会深化和扩展原则性辩论的必要性,因为如果没有驱动讨论的基本的道德关注,它们的未来也将很难被预见。成为人类的意义并不关乎智能机器,而是在于如何在跨国的全球化世界中创造公正的社会,这一社会图景中既包括碳公民(人类),也包括硅公民(机器人)。

原文载于Theory,Culture & Society 2005(SAGE,London,Thousand Oaks and New Delhi),Vol.22(1):131-151.DOI:10.1177/0263276405048438。作者授权本刊翻译并发表此文。

注  释

①机器人“Cog”来自英文“意识”(cognition)一词,亦有“齿轮”之意。

②Juice具有“汁液”和“精华”的多意性。

本文来自微信公众号:全球传媒学刊(ID:GlobalMediaJournal),作者:N.凯瑟琳·海勒,翻译:黄斐,校译:曹书乐、许若文

相关推荐

计算人类
潮科技 | 认知计算:“机器认知”与“人类认知”的碰撞
谷歌AI发展史:“量子霸权”将人类推进计算的火箭时代
AI新规则(四):谷歌押注量子计算,这对人类意味着什么?
人类的树突,“不一样的烟火”?
脑机接口:人类的超能力“迷思”
李飞飞对话《人类简史》作者赫拉利:AI 会增强人类,还是操纵人类?
未来之争:量子计算争夺战
人工智能只会“优化”,而人类可以“进化”
机器眼中的世界和人类一样吗?

网址: 计算人类 http://www.xishuta.com/newsview3509.html

所属分类:互联网创业

推荐科技快讯