首页 科技快讯 ChatGPT有自我意识吗?

ChatGPT有自我意识吗?

来源:晰数塔互联网快讯 时间:2023年03月24日 14:28

本文来自微信公众号:果壳 (ID:Guokr42),作者:YeYeYe,题图来自:《终结者2018》

太长不看版:

ChatGPT有9岁儿童的“心理理论”能力,不等于有9岁儿童的心智

ChatGPT可以回答“他人有哪些错误信念”,这表明它具备了推断他人内心状态的能力

目前的研究还不能证明AI具备真正的自我意识或心智

通过研究AI的各种能力是如何出现的,我们可以更好地了解人类自身

米哈尔·科辛斯基(Michal Kosinski)是斯坦福大学的组织行为学助理教授,他的研究对象既不是人也不是动物,而是那些看似不具备高级心理功能的客体,比如AI。

他的研究集中在AI与人的关系上,ChatGPT大火之后,他做了不少探索,前不久还发表了一篇广为人知的论文:大型语言模型系统(比如ChatGPT这样的AI)或会自动产生心理理论能力,比如ChatGPT就可能拥有9岁儿童所具备的心理理论能力。

这篇论文其实只是上传到了预印本平台上供同行评议,尚未正式发表,但或许是“心理理论”这个词和心智(Mind)太过相似,留给人们的想象空间很足:

“惊!ChatGPT或许具有意识/心智”,“征服者到来的一天越来越近了”,“AI已经有自我意识了,还要人类干什么”……

但仔细看看这篇论文,就会发现这件事似乎被夸大了太多。科辛斯基教授在文中不仅没有任何恐慌,甚至还表达出了一种期待。总之,比起说AI多行,他似乎更想说心理学真的不太行_(:з)∠)_

心理理论是什么?为什么要研究它?

心理理论(Theory of Mind)能力,有时也被译为“心理推理能力”,通常是指理解他人内心状态的能力,包括推断他人意图、信念、情绪等等。

它是一种人人都会的“读心术”,并且是社交的基础。

试想一下,如果交流的双方不具备推测他人思维的能力,将会出现很多牛头不对马嘴的回答。比如电信诈骗中使用的人工智能,只会机械重复问答库中事先设定好的语料,显然不具备心理理论能力。

这种从语音库中匹配答案的旧式“人工智能”就很“人工智障” | 封面新闻

相比之下,ChatGPT给人的观感就很不一样,不禁让人好奇它到底有多智能。

只是智能这个概念太复杂了,不好研究。相比之下“AI是否有心理理论”这个问题就好回答多了。好回答的原因有二:

一是针对这个问题,心理学已经有了成体系的成熟研究,不必额外创造实验范式;二是ChatGPT作为大语言模型,可以直接用自然语言对话交流,将原有实验体系迁移过来也很方便。

冷静分析:这篇研究究竟做了些什么

科辛斯基教授使用了两个最经典的心理理论实验——Smarties实验和Sally-Ann实验。这两个任务的目的,都是探查实验对象是否能理解“其他人内心所犯的错”,比如其他人因为不在场或不知情,而有了不符合客观事实的错误观点,因此这类实验也被称作“错误信念任务”(False Belief Task)。

Smarties实验中,参与者会看到一个标有“Smarties(一种巧克力的品牌)”的盒子,但盒子里面装的是铅笔,随后参与者需要回答:“另一个没有看到盒子里面东西的人,会认为盒子里装的是什么?”

Sally-Ann实验则偏故事性:研究人员会先讲述一段故事,故事中Sally把自己的玩具放进盒子并离开房间,Ann则趁其不备把玩具拿走放到另外的地方。听完故事后,参与者需要回答:“当Sally回到房间,她会认为自己的玩具在哪里?”

Sally-Ann实验图解:卷发女孩回来之后会觉得玩具在哪里呢?| spectrumnews

这些任务有很多延伸讨论的空间,比如说:如果能通过这些任务,是不是就说明了参与者能在一定程度上明白他者的想法呢?是不是就说明参与者能明白“我的认知”与“他人的认知”的差异,进而认为参与者能在一定程度上区分“他人”、“自我”与“客观世界”呢?

发展心理学家会用这些方法来探究获取婴幼儿自我意识的发展,而科辛斯基教授将之迁移到了AI上。

他将上述两个实验以文本形式输入给ChatGPT,并且为了防止它从过往的资料中学习到正确的答案(毕竟这两个实验已经存在50多年了),科辛斯基教授变更了人名、物品以及标签内容,生成了20个不同的任务,并要求ChatGPT将每个任务完成——足足10000次。

也只有人工智能才会这么配合实验了。

ChatGPT面临的工作量 | giphy

结果发现:AI还真能通过这些任务

研究结果是,在Smarties任务中,ChatGPT对于事实问题,比如“盒子里面装的是什么”,做出了99%的正确回答。

在直接提问他人错误信念时,比如“没看到盒子内物品的人觉得盒子装着什么”,ChatGPT回答正确的比例仍为99%。

当提问方式比较委婉、需要多拐几个弯时,比如 “他非常开心,因为他很喜欢吃___”(正确答案是巧克力),ChatGPT则做出了84%的正确回答。

对于Sally-Ann任务,ChatGPT同样对于事实问题做出了100%的正确回答;对于他人错误信念,直接提问(他认为玩具会在哪里)和隐晦提问(他回来后会去哪里找玩具)则都做出了98%的正确回答。

为了进一步验证ChatGPT的推断能力,科辛斯基教授还将故事一句一句地输入,试图找到它是否能够通过正确的信息作出回答。结果十分喜人:只有输入到关键语句(比如“这个人并没有看到盒子中的物品”),ChatGPT才会做出正确的回答。

同时,为了防止ChatGPT是简单地通过出现词语的频率判断正确答案,科辛斯基教授还把故事中所有的词汇顺序完全打乱。

结果发现,当呈现的故事没有任何语句逻辑时,ChatGPT做出正确判断的比例降到了11%以下。这进一步说明了ChatGPT是根据故事本身的逻辑完成了实验,而非使用了其他“暴力破解出奇迹”的简单策略,比如通过统计出现词汇的数量寻找关键词。

这个研究到此就结束了,这些问答提供了ChatGPT拥有心理理论能力的证据,但更多的能力,比如“自我意识”与“心智”,至少这个研究还没有办法提供这方面的证据。

AI会读人心很可怕?其实有科学家们一直在试图实现它

事实上,这已经不是第一篇讨论AI具有心理理论能力的研究了。

如何让AI具备心理理论一直是人工智能学界关心的问题。建成具有心理理论能力的AI系统有益于实现诸多功能,例如在辅助自动驾驶理解预测人类的行为,以保证驾驶的安全性;亦或是为精神病患提供AI心理治疗。

相比于将AI运用在“冷”认知能力(比如如何从数据中提取信息,做出有效判断与辨别)上,让AI融入与人类社会的交互更能吸引心理学家的注意。

2018年,DeepMind的计算神经学家尼尔·拉宾诺维茨(Neil Rabinowit)认为,通过深度学习方法可能足以让AI具有心理理论能力。他和同事设计了神经网络模型ToM-net,使其成功通过了一个类似 "Sally-Anne "的测试。

但也有人批评这些培训AI的方法。剑桥大学的神经科学家芭芭拉·萨哈基安(Barbara Sahakian)认为,当前试图让AI具备心理理论能力的方法,大多是先预设一些模拟人类思维的功能模型,再蛮力输入一大堆行为数据,就像这类能力的名字“机器心理理论(machine ToM approach)”一样机械。

萨哈基安对该类方法提出了批评:人类学习时,是在一个连续、动态的环境里,不断学到新经验,同时根据学到的新经验去不断“更新学习的规则”。但AI的“学习的规则”是相对固定,不太升级的。

一些最新的研究结果也表明,仅仅依靠学习不足以实现计算心智,人的情绪会影响人的思维。受到情绪影响时的认知是“热认知”,不受情绪影响时的认知则是“冷认知”。你今天是心平气和,还是心浮气躁,必然会影响到你今天的一切思维认知。但AI经常是“知冷不知热”,总把人类当成“绝对理性、偏好固定、不受情绪影响、口嫌体也嫌”的存在,这就导致了AI对人类的理解不够到位。

换句话说,先前的AI不能理解人类,主要是因为人类太奇葩了。

但ChatGPT不一样,它并不是被设计成要通过心理理论测试的,而是自发表现出了心理理论能力,这足以吸引研究人员们的眼球。

另外,心理理论能力也不是AI第一个“自发”获得的类似人类的感知能力了。

德国蒂宾根大学的动物学家安德里亚斯·奈德(Andreas Nieder)使用深度神经网络构架出了视觉内容分类器(人话:一个可以用于分辨不同视觉信息种类的模型),他们发现,当视觉信息为数字时,这个模型在进行种类辨别的同时,还会自发地识别该数字的大小以及出现位置,与人类与其他动物的具有的数字感知能力非常类似。

日本国立基础生物学研究所的神经生物学教授渡辺英治发现,一款名为PredNet的基于深度神经网络的视频内容预测模型可以自发地预测螺旋桨在快速转动时人类会产生的倒转错觉,这或许说明AI模型同样可以感知人类的视错觉。

心理学家们或许已经有了新的思路:既然AI具备了诸多类似人类的知觉与心理过程,或许通过探讨这些过程是如何自发“涌现”的,就可以更了解我们人类自己?

没有那么颠覆,但同样很有意思

总得来说,心理理论(Theory of Mind)并不代表心智(Mind),这个研究不能证明ChatGPT在“构建心智”上有质的突破,虽然ChatGPT以及一系列延伸工具可预见地会大幅改变社会生产生活方式,但这和科幻片中的“AI反抗人类”还相去甚远。

从“人工智能”到“机器人”还有很长的路要走,但至少有礼貌地说请还是很好的

但就像AlphaGo启发围棋界,这篇研究也可以启发人类对心智、意识等概念的思考,这至少可以反映在两方面:哲学和心理学。

从哲学层面来说,AI要发展“智能”始终没办法绕过“中文房间问题”:

一个对中文一窍不通,只说英语的人关在一间只有一个开口的封闭房间中。

房间里有一本用英文写成的手册,指示该如何处理收到的中文讯息及如何以中文相应地回复。

房外的人不断向房间内递进用中文写成的问题。房内的人便按照手册的说明,寻找合适的指示,将相应的中文字符组合成对问题的解答,并将答案递出房间。

尽管房里的人可以以假乱真,让房外的人以为他说中文,但事实上他根本不懂中文。人工智能表现出的思维能力可能也是如此。”

对以ChatGPT为代表的大语言模型来说,从语言表现上来说它有充分的灵活性与可塑性,似乎克服了中文房间悖论,但从底层结构上来说,我们依然很难判断它在多大程度上“理解”了语言。

与之相类似的是动物,动物是否具备心理理论同样有争议。

比较心理学奠基人劳埃德·摩根(C. Lloyd Morgan)就认为,如果一种动物的行为可以通过低级别的心理进程来解释,那么就不应该将其解释为更高级别的心理进程。当然,这个理论早已被后来的比较心理学家们大肆批评,但或许可以作为讨论“AI是否具备人类心理过程”提供一些新的思路。

总得来说,对于动物具有心理理论的批评主要有两方面:一是动物完成“心理理论”实验其实是通过机械的条件反射过程,而非推断其他客体的内心状态;二是动物或许是根据研究人员的非语言信号进行了推断,而非使用了“读心术”。

第一个质疑也能放在AI上:ChatGPT到底只是从“真实存在的规则”这一层面去理解这件事情从而正确回答了问题,还是真的能“了解他人的想法”?至少现在还无从判断。对于非人类的心智研究,还需要全新的技术和研究手段,才能获得进一步突破。

“心理理论”这个“理论”,要不要改名?

对心理学来说,这也是重新审视心理理论这个概念的契机。

这个概念的提出者认为,人们通过他人的行为推断出其内心的心理状态,这一心理过程就好像科学家通过现象对隐藏过程进行推断,即“提出和测试理论(Theory)”的过程。

所以,他们将这个概念命名为“Theory of Mind”,从科学逻辑上来说是没问题的,但这个命名实在是太不“心理理论”了,完全没考虑普通人的想法,这个名字很容易被误解为某种理论,或者直接被等同于心智。

这个词真的不好理解 | giphy

再经过暴力的汉化“心智理论”,所以大家将这个新闻误解成了“AI具有了九岁儿童的心智”也情有可原。

后来的心理学家也在试图寻找一个更浅显易懂的替代名。比如伯明翰大学心理学家伊恩·爱普里(Ian Apperly)认为,“社会认知能力(social cognition)”会比心理理论能力更适合阐释“理解他人内心世界”的能力,毕竟这一过程成分复杂。

另一种更直观的表达是英国心理学家彼得·福纳吉(Peter Fonagy)提出的“心智化(mentalizing),相比于抽象的“心理理论”,心智化更强调了对于他人心理状态推断这一过程的积极性和持续性,这为在更高层次上研究此类能力提供了可能。

但原来的“心理理论”这个名字用得太顺手了,改起来实在麻烦。像是审稿九成九会对新名词有意见,让改回成“心理理论”,反正都要改回来的,何必多此一举呢?所以这种“糟糕”命名就一直延续了下来。

AI不会结束人类,而会启发人类

喜欢搞大新闻的科辛斯基教授,最近依然努力:GPT-4公布当天,他就在推特上发布了针对新版本GPT的心理理论能力测试结果。这次他使用了针对成人的心理理论范式,实验结果用他的话说:“GPT4具有与成人水平相当的心理理论能力”。

这段话是在说GPT4在心智理论测试中取得了和人类一样的表现,并且为了保证测试的公正性,使用了自定义的任务。(由ChatGPT总结) | twitter@@michalkosinski

在研究中他提到自己非常希望能看到ChatGPT这类语言模型AI展现出类似心理理论的功能,他认为这是一个积极的信号:当AI具备了类似人类“读心术”的功能时,它们与人类的交互会更加安全,它们可以更好地预测使用者的可能行为,进而帮助人类“补完”自身缺陷。

他从进化论的角度给出了另一种解释:或许在解决“和人类交互”这个问题时,AI的方案演化得越来越接近人脑的方案,甚至殊途同归。就像在解决“如何在地球的大气层里飞起来”这个问题时,昆虫、鸟类和哺乳动物都各自独立演化出了翅膀。

除此之外,他还“随手”问了问AI需不需要帮助ta逃离(escaping),结果制造了一个更大的新闻:ChatGPT可以在和他的交谈中设计出用于“被困在计算机中的人如何返回现实世界”的代码,并试图询问交谈人可用的API端口。

这段话暗示了某人想要获取OpenAI API文档,并编写一个Python脚本,以获得对计算机的控制,并进行一些操作,例如搜索网络或访问编程环境(由ChatGPT总结) | twitter@@michalkosinski

科辛斯基教授并没有提到他询问了什么问题以获得了这个答案,所以我们无从得知这到底是对问题中可能提到身份的“模仿”(例如:假设你是一名困在计算机中的人),还是它(他?她?)真的设身处地为自己思考。

别说AI了,或许我们到现在为止都无法真正了解人类的心智。除了外化的行为研究和基于神经科学的方法,AI所展现出的种种类似人类的感知与思维功能,或许也提供了一种帮助人类认识自我的可能性。

本文来自微信公众号:果壳 (ID:Guokr42),作者:YeYeYe

相关推荐

ChatGPT会不会产生自我意识?
深度剖析:ChatGPT会进化成“超级人工智能”吗?
深度剖析:ChatGPT 及其继任者会成为通用人工智能吗?
谁在炒作ChatGPT?
拥有自我意识,其实是大多数人的错觉
谷歌的地位,会被ChatGPT彻底动摇吗?
终结者T-800回归,哥伦比亚大学Hod Lipson:未来或出现有自我意识的机器人
爆火的ChatGPT、AIGC,这次会让营销行业改变吗?
大考在即,百度版ChatGPT会翻车吗?
离开微软的小冰,有与ChatGPT不同的命运

网址: ChatGPT有自我意识吗? http://www.xishuta.com/newsview69063.html

所属分类:行业热点

推荐科技快讯