首页 科技快讯 李飞飞对话《人类简史》作者赫拉利:AI 会增强人类,还是操纵人类?

李飞飞对话《人类简史》作者赫拉利:AI 会增强人类,还是操纵人类?

来源:晰数塔互联网快讯 时间:2019年05月09日 15:43

神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。

编者按:上个月底,在《连线》主编NICHOLAS THOMPSON主持下,畅销书《人类简史》作者,历史学家YUVAL NOAH HARARI(尤瓦尔·诺亚·赫拉利)与斯坦福以人为本人工智能研究院联合主任李飞飞展开了一场精彩的对话。话题涵括了AI是用来破解并操纵人类还是增强人类,人类有没有什么东西是AI破解或者代替不了的,AI的好处和风险,下一阶段的AI应该如何发展,对学习和从事AI工作的人有何建议等。对话非常精彩,人文学者和技术专家碰撞出了激烈的火花,哪怕没有达成太多的共识,但问题本身就值得细细品味。原文标题是:WILL ARTIFICIAL INTELLIGENCE ENHANCE OR HACK HUMANITY?

李飞飞对话《人类简史》作者赫拉利:AI 会增强人类,还是操纵人类?

Nicholas Thompson:今晚的对话分为三方面议题:1)谈谈现状,2)现在需要做出哪些选择,3)建议。

Yuval,你之前说过的一句话很突出:“我们不仅处在一场技术危机之中,而且还处在一场哲学危机当中。” 请解释一下它跟AI的关系。

赫拉利:我认为现代世界的哲学框架是17、18世纪的时候,围绕着能动性和个人自由意志之类想法建立起来,但现在这个框架正受到前所未有的挑战。挑战它的不是哲学思想,而是实用技术。越来越多本属于哲学系生计必需的问题已经转移到工程系列。这很可怕,部分是因为哲学家通常是极有耐心的一群人,他们可以一个东西讨论上千年没达成一致都没有问题,但工程师不会等。哪怕愿意等,背后的投资者也不同意。也就是说,我们没有多少时间了。为了简要说明这场危机,我想试着用一个公式来解释一下正在发生的事。这个公式是:B x C x D =HH。B代表生物知识,C代表计算能力,D代表数据,其相乘结果就是破解人类(HACK HUMANITY)的能力。AI革命或者危机不仅是AI的事,还涉及到生物学,这是生物科技。围绕着AI和计算机有很多炒作,但这只是故事的一半。另一半是来自脑科学和生物学的生物知识。一旦你把它跟AI连接到一起,就可获得破解人类的能力,也就是创建一个比我还更了解我的算法的能力。然后它就可以操纵我、增强我,或者取代我。一旦我们拥有这类能力的话,能动性、自由意志,客户永远是对的,选民最了解情况,我们所有的哲学负担,我们全部的信仰所在,都将分崩离析。

NT(Nicholas Thompson):有了那种能力后不是用来增强自己吗?

YNH(赫拉利):问题是谁来决定什么是好的增强什么是坏的增强?这时候我们最直接的退路就是选择最人本主义的方式,让客户自己选。或者让选民自己投票。或者跟着感觉走。可当技术有能力大规模破解人类时,上述无一奏效。你的感觉、选民,客户都信不过。最容易操纵的人就是那些相信自由意志的人,因为他们认为自己无法被操纵。你怎么去决定该增强什么?决定什么是好的?这是一个非常深刻的伦理和哲学问题,也是哲学家争辩了上千年的问题。我们需要增强的良好品质是什么?如果你不能相信客户,不能相信选民,不能相信自己的感觉的话,你该相信谁?你靠什么来判断?

NT:李飞飞,你是博士,有CS学位,你是斯坦福的教授,B x C x D =HH? Yuval的理论是我们看待未来方向的正确方式吗?

李飞飞:哇,非常精彩的开场白。其实我很羡慕哲学家,因为他们可以只提问题不用回答。但作为工程师和科学家,我觉得现在我们得解决这个危机。危机是怎么来的?这其实就说到了AI的演进,那个让我走到今天以及我们斯坦福的同事做人本AI的原因。跟物理、化学、生物相比,AI还很稚嫩,但在数据、计算的加持下, AI已经以不同的广度和深度触及到人类生活和企业的方方面面。对于人类面临的这些问题和危机,斯坦福正在努力的解决方案之一,能不能用人本主义的方式重新构架AI以及技术的教育、研究以及对话?我们今天未必能找到解决方案,但能不能让人类学家、哲学家、历史学家、政治学家、经济学家、伦理学家、法律学者、神经科学家、心理学家等各学科参与到下一阶段的AI研发当中来。

NT:大家讨论有关AI的危机很多。但Yuval非常清楚地给出了最重要的一个,那就是生物+计算+数据=破解。你认为这个应该成为AI讨论的焦点吗?

李飞飞:绝对是。从火开始,人类创造的任何技术都是把双刃剑。技术在给生活工作和社会带来改善的同时,也会带来风险,AI也有风险。我们担心公平、隐私、劳动力市场方面的问题。因此,我们需要把研究、政策制定、关于AI的对话从代码和产品延伸到人文空间,延伸到社会问题。

YNH:我之所以害怕,部分就怕展开对话。我最怕AI专家开始跟生物学家对话。

李飞飞:能详细解释一下吗?

YNH:那是你真正破解人类的那一刻,不是靠收集搜索关键字或者购买习惯,或者我们的行动轨迹,而是直接通过我们的心脏和大脑收集数据,真正窥见内心。

李飞飞:说得具体一点。首先AI就是在AI科学家与生物学家,尤其是神经科学家的对话下诞生的。我们现在也收集很多心理学和病理学方面的数据,并且利用机器学习来帮助我们。但我觉得你说的是其他东西。

YNH:部分是的。我的意思是说,如果这项技术没希望的话,也不会有危险了,因为没人会走这条路的。但显然AI对我们有很多好处,尤其是跟生物学结合的时候。我们即将拥有有史以来最好最便宜的医疗保健。所以想要抵挡这种诱惑几乎是不可能的。至于隐私问题,如果在隐私和健康之间要大战一场的话,健康可能会轻易胜出。作为历史学家、哲学家、社会批评家,我的工作就是要指出其中的危险。因为尤其在硅谷,大家对优点会很熟悉,但对危险就考虑得没那么多。除了可以服务医保提供者以外,入侵大脑就存在着巨大的危险。

NT:我们把焦点放在破解大脑是什么意思上吧。我们大家不像你,每天都冥想2小时。大部分人都有沉迷互联网的情况,反过来我们的想法也会被解读一点点。但未来破解大脑的方式究竟有何不同?

YNH:差不多一样,但是规模要大很多。我的意思是说,等你把越来越多生活中的个人决定外包给一个比你出色很多的算法的时候,就会有两种不同的敌托邦交织到一起。

NT:李飞飞,关于Yuval说的破解人类,你觉得有什么东西是破解不了的吗?

李飞飞:我脑海里想到的第一个词是爱。爱可以破解吗?

YNH:但问题是你说的爱是指什么?是希腊哲学意义上的爱还是佛教的仁爱?如果是指生物学意义上哺乳动物的求偶行为的话,那我认为是可以破解的。难道体内发生的事情会有什么不一样吗?

李飞飞:但人之所以为人不就是因为我们有超越哺乳动物求偶行为以外的东西吗?这个也可以破解?

YNH:这个问题大部分科幻小说已经给出答案。当地外邪恶机器人即将征服地球,而且任何东西都无法阻挡它们的时候,最后一刻人类之所以获胜是因为机器人不懂爱。

李飞飞:我对那两个敌托邦没有答案。但我想说的是,这正是我们需要寻找解决方案的原因。这正是我们相信AI的新篇章需要人文学者、社会科学家、商业领袖、民间团体、政府等坐到一起来共同书写的原因。你点出了这场潜在危机的紧迫性和重要性。但我认为面对这个,我们需要行动。

YNH:是的,我同意工程师和哲学家或者历史学家之间需要紧密得多的合作。过去,哲学家只会夸夸其谈,而工程师则聚焦在问题上。但是他们只能去解决那些可以衡量的问题。比如访问网站时间的最大化。但如果你跟他说要实现人类繁荣的最大化,或者让博爱最大化的话。他会问你这究竟是什么意思。这样很多哲学理论就崩溃了,因为其实他们也不知道如何去解释——这就是需要跨领域合作的地方。

NT:但是Yuval,李飞飞说得对吗?如果爱这个东西我们既不能解释也不能编码,那人工智能还能再创造出爱来吗,还是说这个东西是人才有,机器永远无法模拟出来的?

YNH:我不认为机器能感受到爱。但是破解、监控、预测和操纵这个东西未必需要能感受到爱。

NT:你意思是说未来的机器会比今天强大得多,可以让我跟在座的某个听众陷入爱河?

YNH:这是一个有关意识和精神的问题。我们先得理解什么是意识才能回答这个问题。目前我们还没有答案。但再次地,破解人类的门槛已经低很多了。机器不需要自己有意识才能预测和操纵我们的选择。如果你接受像爱这样的东西最终是体内的生理过程,同时认为AI能监控和预测像流感或癌症这样的东西的话,流感跟爱有什么本质上的不同吗?但如果说爱还有独立于身体的生物现实的东西的话,就算机器能监控或者预测流感,它还是不能对爱做同样的事情。

李飞飞:这里有两个非常重要的假设。一是AI是如此的无所不能,以至于可以预测意识层面的东西,甚至终极的爱这个层面的东西。但我要说的是,目前AI其实还只是萌芽期,距离这种能力还非常遥远。我有点担心现在对AI能力的炒作太过了。我们的讨论要建立在假设成立的基础上,但现在我甚至还不知道还要几个十年我们才能实现那种能力。再者,人类社会是非常复杂的。人类历史上曾面临过众多技术如果落入坏人手中可能会遭到大规模毁灭或者伤害的局面。但纵观历史,我们的社会仍然朝着更文明更受控的方向前进。所以我认为从更宏大的社会去审视,并且把其他的玩家也引入到对话当中来是非常重要的。而除了你说的破解人类之外,我们已经有更加迫切的担忧了:比如多样性、隐私、工作、法律变迁、国际地缘政治等等。处理好这些问题很关键。

NT:有意思。你们搞AI的这帮人5年前说AI比你想象的要强大得多。现在又说它没你想象的那么强大。

李飞飞:那是因为5年前你对AI是什么还一无所知,而现在你又外推得太厉害了。

NT:我们先来回答一个听众问题。如何避免AI数字专政的形成?

YNH:关键的问题是如何对数据的所有权进行监管。从前面公式的三要素(生物学知识、计算能力、数据)来说,数据是最容易,但同时也是很难的,但监管和保护仍然是最容易的一个。不过我们首先得对拥有数据或者监管数据所有权进行概念化的政治和哲学努力。我们对什么是拥有土地有丰富的经验。但对拥有数据是什么意思以及如何监管的理解还很肤浅。

我同意AI不像一些人想象的那么强大。但这正是我认为我们需要把门槛设低的原因。我们不需要AI完美地了解我们,这永远也不会发生。我们只需要AI比我们更了解自己就行,这没那么难,因为大多数人都不是很了解自己,并且往往在关键决策上犯下大错。所以无论是财务、职业还是爱情,这种决策权从人向算法的转移仍然是很糟糕的事情。但只要算法比我们自己的决策稍微好一点点,这种权力就会朝算法转移。

NT:你在书里讲了一个故事,讲你自己,将你如何向你是谁以及如何被操纵妥协,这个故事很有启发意义。你能不能讲讲自己是如何对自己的性取向妥协的?还有能不能讲一下书中可口可乐的故事?

YNH:我是到21岁的时候才意识到自己是gay。现在回想起来,15、17岁的时候其实已经很明显了。但是我就是没注意到那些明显的信号。今天哪怕是很笨的AI都不会错过那些信号。

李飞飞:我不太确定!

YNH:当然,现在的算法还不完美,但是能力还是比一般的青少年好一点。如果对你很重要的东西你是通过算法了解到的,生活在这样一个世界究竟意味着什么?如果算法不把这些信息分享给你,而是跟广告商或者政府分享的话该怎么办?

NT:那我们就具体谈谈今天能够做什么,关于AI的风险,好处,把你所认为的有关AI需要思考的最重要的东西列出来。

李飞飞:有太多事情可以做了。我们相信,AI的下一篇章应该要以人为本,这包括三个重要原则。一是投资更能反映我们喜欢的那种人类智能的下一代AI技术。我们应该发展那种可以解释AI的技术,我们称之为可解释的AI,或者AI的可解释性研究;我们应该关注对人类智能的了解更细致入微的技术。我们应该对数据依赖性不那么强的AI技术进行投资,那种会考虑到直觉、知识、创造力等形式的人类智能的技术。

第二个原则是欢迎对AI进行跨学科的研究。经济、伦理、法律、哲学、历史、认知科学等等。光靠技术专家是不行的。得有伦理学家、哲学家等的参与。我们来召集利益攸关者的多边对话。

第三,我们需要促进这一技术的人类增强和协作,以及辩论。自从人本AI研究院诞生的这短短几个月以来,斯坦福已经有200多个系参与到这类研究、对话、学习、教育当中。而且这个数字还在不断增长。

NT:那我们来深入探讨一下这三个原则吧。先说第一个,可解释性。一些人认为算法应该能解释自己做了什么以及所做出的选择。但怎么做?我自己做的很多决定都自己完全无法解释的。比方说为什么我要雇这个人而不是那个人。如果我们对自己都不够了解,不能总是对我们的所为予以信任和进行充分解释的话,又怎么能指望计算机利用AI就能做到这一点呢?我先问你这个问题的上半部分,然后问Yuval下半部分。如果我们自己的可解释性都这么难的话,我们能不能获得AI的可解释性呢?

李飞飞:两位数乘法对我来说就很难,但计算机可以。对人来说困难的事情未必就不应该让机器去试试。尤其是,毕竟这些算法都是基于非常简单的数理逻辑。诚然,我们现在要处置的神经网络有着数百万个节点和数十亿的连接。所以可解释性其实很难。这是项持续进行中的研究。但我认为这是片沃土。而且它对医疗保健决策、金融决策、法律决策太关键了。在有了这类可解释性能力的前提下,很多情况下这类技术是由积极意义的,再加上我们这里有那么多聪明的头脑,我对解决这个问题相当有信心。

如果有技术能对算法的决策过程做出解释的话,想要操纵或者欺骗就更难了。这是个技术性的解决方案,不是彻底的解决方案,但对说清楚这一技术在做什么会有帮助。

YNH:但我推断AI的决策跟人太不一样了,恐怕解释出来的东西对大多数人来说都没有意义。大多数人被要求解释决定时,采取的是叙述形式,这未必反映出内心的想法。只是在找理由,未必是真正的原因。AI会很不一样。如果我向银行申请贷款被拒了。我问为什么。银行说我们问问我们的AI。AI会根据2517个不同的数据点,赋予不同的权重,然后给出一个冗长的统计分析。而大多数的数据点在人看来是毫无意义的。或者解释起来像一本书那么厚。你告诉我说因为我之前没有还贷说不能给我放贷这我能理解。但那堆统计分析性的解释我不知道怎么处理。

李飞飞:你的意见有两个层面。一是如何信任和理解AI的解释?二是AI是否可以用来让人变得更可信。第一点我同意。如果AI给你2000个维度的潜在特征的话,那是不可理解的,但人类文明的科学史就是用越来越好的方式去沟通科学的结果,对吧?就像我拿得到一堆数字的体检表一样,首先医生会帮助我解释某些数字。现在甚至维基百科也能做部分工作量。解释这件事情还会不断改进的。如果我们只是把200或2000个概率数字甩给你的话,作为技术专家来说就是我们的失败。

YNH:你的观点很重要,但我有不同的看法。我认为科学在向公众解释自身理论和发现方面正变得越来越糟糕。这甚至也不是科学家的错,因为科学正变得越来越复杂。而现实是极其复杂的。所以人是理解不了。

李飞飞:所以才需要社会的共同努力去解释复杂的科学啊。只有去尝试才有希望。

YNH:我恐怕我们做不了。因为人脑不是用来处理这类解释和技术的。一个人理解不了自己贷款申请被拒。甚至这个地球上理解金融体系的人又有多少?理解金融体系的总统和总理又有几个?

NT:美国的数字为0。

YNH:这不是某个政客的过错,只是金融体系已经变得太复杂了。而且我想经济学家也不是有意去隐瞒什么。就是太复杂了。除非你研究经济和数学已经10年了。这是真正的危机。再次地,这是我们开头所说的哲学危机的一部分。这会动摇我们对能动性的信心。我们有一些很智能的工具帮助我们做出更好的决策,但是我们不理解它们在做什么,为什么要这么做。这会动摇我们的自主性和权威。而作为社会我们还不知道如何应对这个。

NT:理想情况下李飞飞的研究院会帮助解决这个。在讨论下一个话题之前我还有一个更有趣的问题,也就是算法偏见的问题。AI是靠历史数据训练的。如果我发现历史数据存在歧视的话,我会想办法把歧视的数据剔除出去。

但是假设对历史数据的分析表明女性还贷的几率要高于男性的话,这个数据要不要剔除出去?如何才能决定哪些偏见要剔除,哪些要保留?

李飞飞:很好的问题。我个人还没有答案,但我认为你触及到了一个真正重要的问题。首先,机器学习系统的确存在偏见。但是偏见的产生很复杂。在斯坦福,我们有机器学习科学家研究偏见的技术解决方案,比如数据的去偏见或者特定决策的规格化。但我们也有人文学者在争辩什么是偏见,什么是公平,什么偏见是好的,什么偏见是坏的。你举的例子很好地说明机器学习有可能揭露偏见。几年前有篇论文就曾用机器学习人脸识别算法研究过好莱坞电影,结果发现好莱坞系统性地赋予男演员更多的屏幕时间。没人有这闲工夫去数电影的人脸,去看是不是存在性别偏见。所以这是用机器学习来揭发偏见的完美例子。再次地,这需要跨学科的协作。

NT:同意。尽管在那篇论文之前我就知道好莱坞有性别歧视。Yuval,关于贷款的问题,你会剔除哪些偏见?保留哪些偏见?

YNH:我认为不应该一刀切。这是个需要工程师、伦理学家、心理学家、政治科学家以及生物学家开展日常协作的问题。这回到了我们该怎么办的那个问题。当今世界最需要伦理背景的人是计算机科学系的学生。这应该成为他们课程不可或缺的一部分。还有设计这些工具的大企业也是,他们的团队应该嵌入具备伦理、政治背景知识的人,以避免无意间把偏见植入进系统里面。要事先考虑所开发的东西的文化和政治影响,而不是事后才想如何去补救。

NT:听众这里又有个很好的问题。如何平衡算法的可解释性、功效以及准确性?姑且就假设可解释性会影响一些效能吧。Yuval,我想问问你这个的全球影响吧。假设有两个国家A和B。A要求AI都要可解释,工程师要上伦理课,要认真思考所做事情的后果。要跟生物学家一起吃饭,要考虑爱,要读读John Locke之类。B国就说你把东西弄出来就行了。这两个国家到一定程度是要冲突的。我想B国的技术会领先于A国。这会成为问题吗?

YNH:是,军备竞赛方面的担忧总是存在,这是一场以效率和主导为名的逐底竞争。越来越多国家意识到这会成为21世纪的主导技术。这个比经济竞争要糟糕得多,那些落后的国家可能就会被支配、利用或者征服。我想唯一能避免这种逐底竞争的灾难性军备竞赛的可能只有展开更大范围的全球协作。但这听起来像是乌托邦,因为我们正朝着相反的方向前进。但这就像核军备竞赛一样,我们的工作就是让大家意识到这是一场军备竞赛,无论谁获胜都是人类的损失。美国人可能会说在这场竞赛中我们是好的一方,但在美国优先的口号下想要说服别人相信这一点已经越来越难。现在美国和中国在AI方面的优势太大,大家都日益感到害怕。

NT:你举的历史例子有点令人不安。AI会不会也朝着这种局面发展?

YNH:恐怕那种协作会破裂,我们会陷入一场极端的军备竞赛。而且会比核军备竞赛更糟,因为至少核武器我们至今都还没使用,但AI却是一直在用的。从这个角度来说,其危险性更大。

李飞飞:我可以插一句吗?AI的确跟核技术很不一样。但除了你谈到的那些可怕情况以外,这种技术也有着非常国际化的科学协作,用来改善交通、改善医疗保健,改善教育。所以这是一个非常有趣的新时代,一方面我们有这种竞争,但另一方面在慈善事业和技术普及上我们也有大规模的国际合作。我认为同时看到这两方面很重要。

YNH:全球协作的事情比较复杂。因为如果部分先进国家与大部分后进国家的差距太大的话,可能就会出现像19世纪工业革命一样的情况,即少数工业国家征服和统治剥削整个世界。如何才能防止重蹈历史覆辙?

李飞飞:现在的科学研究环境已经大不一样了。这种技术全球化是19世纪甚至20世纪都没见过的。今天AI方面的任何一篇科研论文只要发表很容易就会通过arXiv或者GitHub这样的东西在全球传播出去。所以你说的那种情况已经更难出现了。

YNH:我说的不只是科学论文。但光有论文没用。我没有数据,我没有基础设施。你看看那些掌握了数据的大公司,基本上就那两个地方。甚至欧洲都不在竞赛之列。

NT:我来问个问题,这个问题已经有3、4个人问了。似乎AI将集中在掌握数据和最强算力的国家手里,这会加剧收入的不平等。问题A,你认为这是否有可能?B,你对此有多大的担忧?

YNH:就像我说的那样,很有可能已经是这样了。这是极其危险的。因为其经济和政治后果会是灾难性的。那些靠廉价劳动力的国家在AI的世界里根本没有可以竞争的教育资本。这些国家该何去何从?由于工资不再是公式的一部分,在加州生产衬衫比洪都拉斯还要便宜,大部分制造从洪都拉斯或者孟加拉回流到美国或者德国的话,那里的人该怎么办?你会说,好吧,还是有很多工作留给软件工程师的。也许部分可以移民去美国。但剩下的人怎么办?目前我们还没有这些问题的经济和政治答案。

李飞飞:有道理。Yuval把其中一些关键陷阱给列出来了。所以我们才需要更多的人研究和思考这些问题。我们注意到全球的企业和政府仍有很多机会去思考自己的数据和AI战略,去认识到这是转型进入数字时代的重要时刻。你谈到的这些潜在危险以及数据的缺乏,现在就是提高这种认识并且鼓励这种转变的时候。

YNH:是的,我认为非常紧迫了。当前我们看到的是,一方面你可以称之为某种数据殖民,那种我们在19世纪看到的相同模式,帝国中心拥有先进技术,他们在印度或者埃及种棉花,然后把原材料发往英国,他们在曼彻斯特生产衬衫,这是19世纪的高科技产业,然后再把衬衫卖回印度跟当地的生产商竞争。数字经济也会看到同样的情况发生。他们会在巴西或者印尼这些地方收获数据,但是不会再那里处理数据。巴西或印尼的数据会送到加州或者中国东部去处理。他们生产出色的电子产品和技术,然后再把成品卖回到(数据)殖民地。

当然这跟过去不尽相同,但我们需要记住这种类比。另一个需要记住的是石头墙的再度出现。要知道,我的专业是中世纪的军事史,我的学术生涯是从十字军东征、城堡、骑士这些东西开始的。现在我研究的是赛博格和AI。我们现在有3G和AI,但现在最热的事情却是砌墙。这好像是你能想象的最低技术含量的东西了。在一个互联的世界里砌墙的意义是什么呢?一方面数据在到处流动,一方面越来越多的国家却在干这件事情。包括我的国家,号称创业国度的以色列也是这样。

NT:下一个问题跟这个有关。斯坦福这帮人将会帮助建设这些公司,他们要么会深化数据殖民的进程,要么会逆转这一进程。那么李飞飞,你希望他们如何看待人工智能?你希望他们学习什么?

李飞飞:如果你学计算机或者工程,上Rob的课。如果你是人文学者,上我的课。你们大家都要看看Yuval的书。也就是说,我们未来需要具备跨学科背景的领袖、思想家和实干家。

NT:你怎么回答那个问题?

YNH:在个人层面,我想每个人都要更好地了解自己。因为你现在处在一场竞争当中。所有的哲学书最古老的一条建议就是认识自己。苏格拉底、孔子、佛陀都是这么说的。但现在的不同是你要跟人竞争。苏格拉底那时候你不努力认识自己也没关系,你只是错过了启蒙的机会。但是皇帝不会跟你争,因为他们没有这种技术。但现在你要跟大企业和政府竞争力。如果他们比你更了解你自己的话,游戏就结束了。所以你得给自己争取一些时间,争取时间的第一种办法就是更好地了解自己,这样他们就得多下工夫了。对于工程师来说,我希望能看到他们做出来的东西天生在去中心化的系统里面能够工作得更好。但我不知道如何做到这一点,也许区块链可以?但不管怎样,你们在设计工具和制定规范的时候就应该考虑更适合去中心化。

YNH:我希望看到的第二个东西是有个AI助手,这个助手是为我服务而不是为某些企业或者政府服务的。这种技术的进展我们无法阻挡,但是起码能够为我所用。它可以破解(编者注:破译)我,但那是为了更好地保护我。就像我的计算机有防病毒但我的大脑没有。对于流感这样的东西它有生物上的反病毒机制,但对黑客和钓鱼等却没有。我可以花钱,可能花很多钱去买,但这个东西属于我,它会跟踪我、监控我和我做什么,但它学习到的一切都是为了保护我免受其他AI和外部影响者的操纵。我希望能看到朝着这个方向做出更多的努力。

李飞飞:很多技术专家正在朝着可信AI、可解释AI、具备安全意识AI方向努力。

YNH:我想要的是我做主人的AI。它要为我服务。

NT:而且它必须很强大,否则的话我的AI就能操纵你的AI。

YNH:它会具备非常了解我的天然优势。但它未必能破解你。它的优势在于它跟着我,了解我的一切。

李飞飞:即便如此也会给社会带来很多挑战。谁该对你的行动负责?你还是你的AI助理?

YNH:这个问题处理起来就要困难得多了。

NT:李飞飞,我们知道AI一般都是自顶向下由大公司做出来的,怎么才能做出为小公司或者个人所用的AI呢?

李飞飞:解决方案之一就是Yuval所说的。

NT:但是那些东西可能也是Facebook开发的。

李飞飞:的确,大公司在AI研发上投入了很多的投资、精力和资源。但学术界在AI研发,尤其是AI的长期探索当中依然扮演着重大角色。什么是学术界?学术界就是由有着独立和创造性想法的学生和教授组成的全球网络。从这一点看,这是持续进行的AI研究的草根行动。小企业和独立研究机构也会扮演自己的角色。还有大量公开的数据集。这是一个全球化社区,对分享和传播知识与技术持开放的态度。

NT:我很喜欢这个问题,可惜是匿名的。如果我上8年级,还需要学习吗?

李飞飞:作为母亲,我会告诉你是的。回去做你的功课去。

NT:好的。李飞飞,你希望Yuval的下一本书写什么?

李飞飞:我还没想好。

NT:那Yuval,你希望李飞飞的下一个研究领域是什么?

李飞飞:AI助手。

YNH:是的,正是我想说的。我们能不能创造这样一种AI,为个人而不是大网络服务的AI?有没有这种可能?还是说AI的某种本质不可避免地会导致最终回到某种网络效应上,最后只能是赢家通吃?

李飞飞:OK,我希望他的下一本书是科幻小说,写你和你的助手之间的故事。

NT:最后一个问题是给Yuval的,这是得票最高的一个。如果没有了对自由意志的信念,是什么支撑你每天早上醒来?

YNH:没有自由意志的信仰?我还真没想过这个问题,问题很有趣,非常核心,因为几千年前犯下的一些基本的神学错误,这一直是西方文明的核心。但其实这是对人类社会的误解。

真正的问题是如何将自己从痛苦中解放出来?其中最重要的步骤之一就是更好地认识自己。在我看来,最大的问题就是对自由意志的信念,正是它导致大家对自己不关心,对发生在自身的东西不关心,因为他们会说,“我知道一切,我知道为什么我会做出那些决定,这是我的自由意志。”他们把自己脑海里涌现的任何想法或者情绪都看成是自己的自由意志。这让他们对自己内心真正发生的事情漠不关心,这也是他们生活不幸的根源。让我每天醒来的就是这个,设法更好地了解自己,更好地了解人类社会。自由意志跟这个毫不相干。

NT:李飞飞,前面你说我们不会达成任何共识。现在你觉得我们有没有达成某些共识?

李飞飞:我们打开了人文学者和技术专家之间对话的大门,我希望看到更多这样的对话。

NT:非常感谢两位。

原文链接:https://www.wired.com/story/will-artificial-intelligence-enhance-hack-humanity/

译者:boxi。

相关推荐

李飞飞对话《人类简史》作者赫拉利:AI 会增强人类,还是操纵人类?
2019 年最精彩 AI 论战:李飞飞论战《未来简史》作者赫拉利
李飞飞 PK 赫拉利:机器人要来抢对象了?
对话《人类简史》作者赫拉利:我们谈到了44、2%、Bad Guy、2020、WTF
少数派的未来猜想 | 和《未来简史》作者聊完AI,我觉得自己会爱上一台冰箱
让科技回归人性,李飞飞宣布成立斯坦福“以人为本 AI 研究院”
任正非:人类在新技术面前总会利用它造福社会
口罩简史:人类的呼吸防护是如何进化的?
把人文精神带入AI,李飞飞和比尔·盖茨今天在斯坦福都讲了什么
李飞飞斯坦福对话基因编辑发明人杜德纳:两大科技的伦理和创新走向何方?

网址: 李飞飞对话《人类简史》作者赫拉利:AI 会增强人类,还是操纵人类? http://www.xishuta.com/newsview4529.html

所属分类:互联网创业

推荐科技快讯