首页 科技快讯 黄铁军:全球可能只需要三个大模型生态

黄铁军:全球可能只需要三个大模型生态

来源:晰数塔互联网快讯 时间:2023年06月10日 22:02

本文来自微信公众号:腾讯科技(ID:qqtech),作者:郭晓静,原文标题:《对话中国大模型的最早推行者黄铁军:全球可能只需要三个大模型生态》,头图来自:《机械姬》

2021年8月份,李飞飞和100多位学者联名发表一份200多页的研究报告《On the Opportunities and Risk of Foundation Models》,在这篇论文中,AI专家统一了Foundation Models的说法,可以翻译为基础模型或者是基石模型,并肯定了Foundation Models对智能体基本认知能力的推动作用。同样是在2021年,在3月份悟道1.0发布现场,智源研究院院长黄铁军介绍,人工智能的发展已经从“大炼模型”逐步迈向了“炼大模型”的阶段。也就是从这个时候开始,中文里“大模型”的说法开始进入公众视野。仅仅两个月之后,悟道2.0发布,参数为1.75万亿,为GPT-3参数量(1750亿)的十倍。

时间来到了2023年,ChatGPT所展现出的“超能力”,印证了Foundation Models真的让“智能”产生了突破,人们对人工智能的关注度骤然提升。英文中的“Large Language Model”(LLM)也开始变成英文世界的热词,与中文“大模型”的说法,不谋而合、相互交融。

“大模型”也被称为人工智能中的“暴力美学”。用通俗的语言描述,我们可以把“大模型”理解为参数数量巨大、计算量巨大的深度学习模型。通过海量数据的训练,学习到更加复杂的特征和规律,从而对人类下达的指令,产生更加智能的反馈。

“大”是“智能涌现”的必要条件,但是究竟要多大才能出现“涌现”?这目前还是技术黑箱。关于模型要做多大,能做多大的讨论,一直为业内关注的焦点。作为国产大模型最早的践行者和推行者之一,黄铁军认为,大模型的“大”没有上限,高质量数据的数量以及算力水平的限制,都不能成为大模型继续扩大的限制条件,如果以人脑一千亿个神经元,总突触超过一百万亿的数量级为参照物,基于人工神经网络的大模型,还有很大空间。

但是,如此可能“大”无上限的模型,仅中国在短短三个月内,就已经发布了几十个。黄铁军对此的观点更明确,全球仅仅需要三个大模型就够了。至于人类通往AGI(通用人工智能)之路,究竟是不是能通过深度学习这条路径实现,目前还没有定论。但是可以肯定的是,人类已经看到了AGI的曙光。也正是这抹光的乍现,人工智能界最有影响力的人物,多次预警并联名签发公开信,预警风险。他们的担忧,究竟有哪些?

(以下为对话实录)

大模型未达天花板,“大”可以没有上限

腾讯科技:ChatGPT表现出来的能力让所有人感叹,从人工智能的发展来看,模型做“大”,是否是一个必要条件?

黄铁军:其实做大模型这个理念道理可以说很简单,因为我们的世界是复杂的,万事万物很复杂。一种思维方式是咱们传统的科学思维,比如说物理学我要找到终极的一组方程,无论是万有引力定律,还是量子力学的薛定谔方程,用方程刻画世界的本质,这是曾经的主流,大家用最简单的数学方式来描述世界的规律。

但是事实上大家也知道数学里面有随机性,无处不在。所以这个世界肯定不是仅仅由几个确定的方程能描述的,一定有更多的复杂性。既然要创造“人工智能”,有智能就要面对复杂事件去解决问题。大模型其实是需要一个庞大的参数来为基本表征的庞大神经网络,因为你要映射的世界太复杂了,所以需要一个大规模的模型参数。

我刚才对比,物理学的方程,和我们今天说千亿、万亿,甚至更大的参数系统,为什么这两个东西都是必要的?

第一,有些事物确实最终是可以找到一些本质的规律,比如说刚才说的万有引力定律。但是同时要知道即便我们找到了这样的规律,也不等于世界就完全由这些规律所决定了。

举个例子,万有引力两个天体之间相互作用,我们用万有引力定律可以解释,但是三体问题我们都知道它的复杂性绝对就不是一组方程所能描述的,里面会出现无穷无尽复杂的可能性。而我们刚才讲为什么要用庞大的参数模型刻画这些可能的复杂现象,就是因为无论你世界运行多复杂,最终我还是想认识它,三体复杂,我们也想知道,它还是有一些可预测的规律性的东西。这个时候仅仅靠方程不够了,我们还得靠一个大参数量的模型才能表示。

所以,只要这个世界的复杂性是无穷无尽的,我们可能就要一直要用越来越大的模型刻画它,这两件事情既相互矛盾也相辅相成。有的时候我们终于把这些复杂性归结为一组方程了,但是就像我刚才说的,我们永远不可能期望说只靠方程就能解决问题,一定要有更多的复杂性需要模型去刻画。

所以做大模型应该说本来就是人工智能应有之意,只是说以前在算力、数据的条件有限的情况下做不了那么大的模型。小模型也能解决一些特定的问题,但是它的作用范围就有限,大模型就是解决更通用、更复杂的问题,所以这是一个必然的方向,不是一时半会说大模型出现了,将来可能又没有大模型了,换成别的了,我觉得不是这样的。

腾讯科技:2021年智源发布了悟道2.0大模型,那个时候ChatGPT还没出现,智源是从什么时候开始进行大模型的研究的?

黄铁军:智源是2018年11月份成立的,成立的时候应该说这个世界已经从小模型往大模型转换的过程中,只是那个时候还没有这么一个名词而已。2017年有了Transformer这个新的架构出现,有了自监督预训练的深度学习训练方法,可以说深度机器学习的研究进入到新的阶段。所以走这条道路几乎可以说是必然的。

OpenAI也是2018年开始聚焦做更大参数的模型,所以差不多都是那个时间点技术进入到了这么一个阶段。智源做大模型有很多因素,但是归根结底应该说从一个研发机构来说,肯定要选可能性更大的方向集中更多资源进行突破。所以应该也是比较自然的选择。一开始是一些探索性的,在2020年开始加大力度,集中团队去做,做了五个多月在2021年3月发布了悟道1.0。

那个时候在发布会上,当时我讲人工智能已经从“大炼模型”转入“炼大模型”的新阶段了,大模型这个名词也是在那次会上第一次出现在大家的面前。之前因为更多是偏学术的方向,所以像国外叫预训练模型、基础模型等,还有其它的一些现在不怎么用的名词。我们认为它的基本特性就是要规模做大,不大的话,后面的这些能力都是出不来的。所以当时就直接用了这么一个中文的名字。但是刚过去的一年多,英文Large-scale Language Model这个词也被越来越多使用,中英文两个语言世界似乎在交融的样子。

腾讯科技:为什么要做到万亿参数这么大?

黄铁军:我觉得道理很简单。智源做这个模型,当时要做这么大其实也是跟当时的一些资源条件有关,包括算力条件允许所以才做得大。我们从来没有觉得过大,没有这个问题,只是希望大到一定程度,希望它的能力能够出来。到现在为止也是一样的,现在没有天花板,没有说做到万亿就是上限了,远远不是那么回事。

2021年当时智源发布万亿模型,做出来之后大家很兴奋,但是那个时候我就跟大家说,这件事情不用太过于兴奋,人脑是100万亿个神经连接,我们做个万亿规模,也就是1%、2%的规模,跟人脑比还远着呢,更别说我们今天讲的神经网络参数,神经连接就是一个参数,但是实际上人的神经突触连接不仅仅是一个参数,还有更多的时间、空间因素,还有信号处理上的复杂性。从这个意义上来讲,我们距离人脑这个参照物还差很远。

至于“涌现”,模型小肯定是出现不了的,大是一个必要条件。至于大到几百亿、几千亿,还是更多,这还跟网络结构设计等因素有关,不是说到了600亿就一定涌现。但是大致来判断,几百亿规模是必要条件,要是讲概率的话,肯定是模型越大出现涌现的概率越大,但是既然几百亿已经出现了,后面就没有什么新鲜的了,那就是比较正常的特性了。但是涌现既然是突然出现的现象,我们也很难用传统的概率意义上去说有百分之几十的概率,这么讲不太科学。

腾讯科技:您说大模型的“大”没有上限,但是现在有说法说大模型很快就要触及瓶颈,包括算力瓶颈、包括高质量数据的瓶颈?

黄铁军:我是不认同的 。从数据来看,比较容易拿到的高质量数据快用完了,可能未来两到三年就会用完,确实是这样的。黄页数据、图书文献这一类的源数据确实是有限的,拿图书来举例,自古以来人类写的所有的书,所有的语言加起来也就是一亿部书,这种数量确实是有一个上限的。

但是这只是一类数据,其实这个世界数据是很丰富的,我们刚才讲的这种数据只是我们讲的传统意义上的数据。但是一些“新”的数据,比如物联网数据、自动驾驶数据,机器人进入家庭和工厂感知的数据现在才刚刚开始。比如自动驾驶,如果咱们车辆真的是全自动驾驶,全打开所有的传感器,产生的数量要比今天产生的数据量庞大得多。所以从这个意义上来讲参数量还会发展下去,所以数据不是一个约束条件。

算力是不是约束条件?肯定是。因为算力本身的成本是很高的,做任何事我们都讲性价比,以及功耗这样一些物理约束。但是我相信芯片技术,包括算法的优化其实还是有极大的空间,因为需求在,我觉得技术,包括芯片的发展也会持续地发展下去。

因为大模型的迭代速度太快了,而以芯片技术为代表的软硬件迭代速度不够,芯片的迭代还是遵循摩尔定律,18个月到24个月翻一番,大模型是3、4个月翻一番,两个节奏差别很大。但是我觉得这个总的来说,需求就在那里,所以会倒逼芯片的迭代速度也会加快,我觉得这都不是决定性条件,说大模型到了天花板,我觉得远远不能做这样的判断。

大模型是AI时代的基础设施,全球仅需三个生态就够了

腾讯科技:目前可获得的高质量数据就那么多、算法也是基于开源的,过去三个月,国内一下子发布了几十个大模型,差异化和核心竞争力在哪里?是不是同质化严重?

黄铁军:你刚才也讲了低水平重复、或者是碎片化的现象比较严重,但是这个现象不仅限于大模型,很多产业以前也都出现过类似的现象,确实是分散资源、很难形成有重大影响的系统性突破,这是不好的一面。

但是从另外一个角度来说,可能也说明大家关注这个赛道,愿意往这个方向投入。不过我从来不认为会有几十个,甚至是十几个大模型会在这个市场上存在下去。2021年,智源当时发布模型的时候,我就讲过这是不可能的事情。全球大模型生态,我们不说大模型,因为大模型只是整个生态中的一个环节,大模型的生态不会超过三个,这是我说的,可能稍微有点极端。

但是道理很简单,大模型最终比的是智能水平,如果有N个大模型在的地方肯定是智力水平最高的大模型生态会被绝大多数人使用,赢者通吃的现象从来都是起作用的。说得直白一点,有一个很聪明的模型,有一个稍微傻一点的模型,你会用傻的吗?肯定不会。而且用户量的扩大会使得最聪明的模型成本降下来,平均到更多用户身上去。这是在互联网时代,在以前很多产业平台上一代一代验证过的规律。

当然更重要的是,我们应该从基础设施的角度看待大模型,就像我们经常打比方说像电力。电力对于能源革命来说最大的创新机会就是它是流通的,真正把能源通过一张电网送进千家万户。这样我们作为消费者,可以买不同的电器产品。但是用电的成本又很低,一度电计算多少成本,整个产业生态是很清晰的。大模型其实也是一样的。尽管我们今天很兴奋,觉得人类进入了一个智能时代,智力将成为重要的生产要素。但是智力也不神秘,我们每个人都有智力,我们为什么要给不同的工作人员付不同的工资,那就是有的人智力发挥的作用大,薪酬就高一点,否则就低一点。

将来智力作为一个通用的社会流通的要素,其实也是一样的。人人都可以得到它,它的价格也是类似于水电低成本的方式让全社会用,这是放大人工智能能力的最佳方式。所以极少数几个生态在起基础性的作用,大家基于智力的基础设施在做各种各样的应用和服务,这是一个正常的生态。

所以这个时候你回过头来看,现在进入大模型时代,或者是进入这样一个智力时代,我们都要造“电厂”,或者是“造发电机”就会觉得很傻。电厂是后台的基础设施,而且电厂本身只是一个生产端的产品,还必须有电网输送到千家万户去。所以这应该是大家共同构造的一个新的产业生态,而不是说“我也能造发电机”,那是边缘产品,不是将来产业中的核心能力。

腾讯科技:您是说国内有三个大模型生态差不多就够了?

黄铁军:我说的全世界。

腾讯科技:为什么?这样是不是所有资源都会集中在三个大模型平台上?

黄铁军:我认为要看怎么看。有的时候,我们讲平台的时候可能偏向的是对资源的垄断控制,但是,如果你从一个社会最基本的生产要素的提供来看,倒不一定。比如刚才说的电网,电网就是供电的,电网在电力时代可能不是利润最高的,但是,它是个必要的设施,至于说能用电玩出什么花样来?电器是千千万万的,有很多的产业机会可以做。所以,确实有垄断的性质,为什么只有一个电网给我们供电?因为你布那么多电网本来就是一个极大的社会浪费,整个成本就降不下来。所以,它不是一个简单的咱们原来说的产品垄断的问题,而是一个社会资源的综合性的考虑

腾讯科技:能不能再详细讲一下你认为的未来可能的大模型产业生态,刚才你打了个比方,它就是互联网、电网,那再往上的结构可能是怎样的?应用层又可能有哪些机会?

黄铁军:现在整个大模型为核心的产业生态体系确实正在形成过程中,目前还不像互联网那样,马上就能划得那么清楚。我也给不出那么精确的到底分几层的答案。但是,大家必须要关注的一点就是,你想一想之前我们所有的经济活动,智力要素在里面发挥着什么样的作用?以前我们讲人力资源,因为智力来自于人,不仅仅是传统产业,包括新兴产业、互联网产业,数据要素、信息要素都是当成一个被动的课题在使用,真正调度这些资源的是“人的智力”。

当这个智力变成一个机器系统在提供的时候,整个的流程可能就要重塑了,所以,不仅仅是我们替下来多少画师,替下来多少程序员,随着它的深入应用,用AI的智力来重塑整个产品和服务的流程,这会带来巨大的变革。当然最终所有的企业都会以智力作为他们生产中的必不可少的要素。

所以,随着将来所有企业都要用人工智能的智力作为生产必需的技术要素的时候,相应的供应公共产品和服务的企业就一定会出现。我刚才讲到一定会有一个低成本的智力运营商基础设施出现,所有的企业在上层一定都会用到这个智力,中间这些怎么把智力更好地让企业使用,以及中间做一些加工,让上层的应用更方便地嵌入到他们的业务链条里,这中间会产生很多中间商,就是中间层的企业。如果咱们中国有这么多企业愿意投入,可能大家早一点去找这样的机会,比都集中在我们都要做大模型要好得多。

腾讯科技:基于人工智能的基础设施,生长出来新的智能生态,你认为未来的智能时代,开源会是生态的主流吗?

黄铁军:我的观点从来都是清楚的,一定是开源的。但是,你说有没有闭源的可能性,有没有被某一个企业垄断的可能性?我们也不能绝对排除。像移动互联网两个生态,都不是完全开源的。iOS是封闭性的,安卓应该说是个半开半闭的生态。所以,到了人工智能生态是不是一个完全开源的Linux的技术体系支撑的,确实还存在一定的争论。

但是,从我个人的观点来说,我认为一定是开源开放的技术体系是真正的常态,短期之内存在一定的封闭、半封闭的可能性。为什么是这样?

讲几个关键的理由,一是智能这个东西和之前的系统都不太一样,大家都不太放心。因为智能跟你的决策直接关联,如果我们的产品和服务被封闭在我们企业的黑盒子里面,我觉得大家都会担心。所以,无论是个人、组织、政府,都会对封闭的东西避而远之。当然,一开始作为一个产品如果好用,可能也有人买,但是到了一定程度之后,大家还是会选择那个透明的、开放的系统作为基本支撑。这是人工智能不同于之前产品的特性所决定的。

更别说开源开放会加速创新的效率,迭代的效率。最后比的就是性价比,就是成本的问题。假如说有封闭的系统,半开半闭的,也有完全开放的系统构建的屈指可数的几个生态,那最后我认为建立在开源开放生态基础上的这样一套体系的总成本是低的,就是智力服务的价格是最低的,所以它在产业上就成功了。就像刚才说的,不纯粹是一个产品的问题,它是一个社会公共的服务,我们大概也不太会允许一个企业垄断,随便定一个价格,大家接受高价位,这个也是不大可能的。

人工智能涌现“智能”,预警危险很有必要

腾讯科技:你也提到了人工智能的风险性,我看到全球人工智能界有影响力的人物都不断预警人工智能的风险性,并连续签发了两封公开信,您觉得哪些风险是迫在眉睫的?

黄铁军:这个风险我们刚才提到一点,不可预测性是个最高的风险。还有一个,人工智能如果比人类强了,那这个风险是巨大的,我们在地球上从来没遇到过这样一种可能性。这个问题也不仅仅是近期的事,2015年的时候,在美国波多黎各开了一个会,当时就是讨论比人类强的人工智能如果出现的话怎么办。

当时的讨论,大家的观点当然都不一致,有的说近期会出现,有的说几十年之后会出现,有的说永久出现不了。但是,那个会上统计差不多一半的人认为30年之内有可能实现超人的强人工智能。所以,这就是一个很近的眼前的事,几十年人类就会面对这么一个巨大的挑战,甚至可能是最大的挑战。所以,从2015年开始,媒体上就能看到霍金、马斯克,包括OpenAI的成立都是当时马斯克参加完那个会之后成立的这么一个组织,要研究AGI(通用人工智能)。

这次智源大会开幕演讲嘉宾之一泰格·马克就是2015年那个会的组织者,之后2019年未来生命研究所的会我参加了,当时腾讯也有代表参加,也是在同样的地方开的。在那个会上,大家其实很认真地在讨论怎么来应对这样一个风险,很多可能性远超出大家平常在媒体上看到的,甚至科幻里面讲到的可能性都在考虑。

最近为什么又被高度关注?因为过去我们真的看到了人工智能的“涌现”能力,尽管它现在的能力还远没到刚才说的“超人”的风险,但是,出现就是一个苗头,这件事是值得高度关注的,所以,对它的重视陡然提升可以说是必然的,也确实是必要的。

我认为确实现在有点太快了。不是说我们的技术发展有点太快了,对社会的影响也有点过了。过了的意思就是它还不该在这样一个时间,以这么快的扩散速度让它这么快地接触到这么多用户。

所以,当时《暂停巨型人工智能研发六个月》的公开信,我也是签名者之一。新的可能性不断出现,到底会带来什么样深刻的影响,现在还无法做出一个全面的评估,更没有一个全面的解决方案。Geofferry Hinton作为AI界的标志性人物,大家都很尊重这位老先生,他多次公开表示担心也是我刚才说的这一点,就是一种新的可能性出现,但是我们又不能在技术上确保可以管控。

所以,这个时候高度重视风险是必须的。

AGI的实现技术路线可能不唯一,“人造大脑”肯定能实现

腾讯科技:从业内的反应来看,大家完全没有预料到深度学习的技术路径最先看到了“涌现”,是否会削弱其它技术路线——类脑人工智能、具身人工智能的研究,还是说未来三条技术路线有可能融合,共同走向AGI(通用人工智能)?

黄铁军:这三条路线原来就一直存在,将来也还会继续存在,也会在未来,如果说AGI,不管咱们想不想让它出现,在形成AGI的过程中都必不可少。只是说这三个的节奏和相互作用的方式会有一些变化。

在大语言模型涌现现象之前,这三条路都有可能出现涌现,但是,现在大模型率先出现了涌现,它从信息处理的方式上可以说是最接近人的智能,但是又最远离生物智能的一种方式。今天我们讲的涌现,是基于大数据的静态涌现,就是把数据中一些潜在的关联融会贯通之后就出现了解决问题的思路,这个也很有意义。

比如我是个成年人,读了很多很多的书,突然把一些内在的联系掌握到了,然后突然灵光一闪,对原来很难的问题提出了解决方案。这是一种涌现,就是来自于知识的,来自于源数据的。还有一种涌现,比如类脑智能,它讲的更多的是从真正复杂的动力学的角度,人脑是个脉冲神经网络,复杂的相互作用,所以,人的真正的灵光一闪和刚才讲的大模型的灵光一闪,从物理的实现机制上有根本的差别。那能不能出现?当然能出现。因为几乎所有的生物的智慧都是建立在那样一个机制上的。

所以,如果你说类脑造出一个生物的脑,生物的神经系统,它出现了涌现,这几乎是肯定的,肯定会出现,但是什么时候出现、达到一个什么样的精度条件它会出现?那这之前也是一个开放问题。

具身智能也一样,跟环境的交互,然后产生新的能力,跟原来的DeepMind做的AlphaStar,它玩《星际争霸》达到了大师级别,可能人有人的打法,AI有AI的打法,突然发现AI找出来一种新的打法,人类原来没有想到过的,那就应该说是具身智能的一种涌现。

所以,三条路都是可以按照各自的方式出现涌现新智能,只不过大模型率先实现了,因为它的规模,它相对来说实现起来更好实现一点,算力加上数据,然后开始扩大规模,就可以了。实现之后,肯定会对另外两个方向起到促进作用。

比如说具身,你不用所有的可能性都去尝试了,语言已经能够描述的就靠语言这种模态形式就解决了,剩下的只需要做少量的尝试,可能就能具备这个能力。这就跟我们人是一样的,一个人假如说不接受学校的教育,不读书,什么都不看,只做身体上的跟自然界的交互,也能练出很强的能力,包括绝世武功都能练出来,但是,如果有了学校教育之后,你做很多事情的速度会快很多,因为你不要再去试错了。

类脑智能讲的是我从器件上,从结构上构造一个电子的人脑复本,这是必要的。因为今天的人工神经网络还不具备人脑很多的特性,一定要在这个方向去做,只是说那样的装置做出来之后,假定没有大模型,也没有具身,那你还得训练它。就跟人出生下来是带着脑袋来到了世界,但是后天的知识怎么学,你要去环境中探索。如果加上今天已有的大模型,结合在一起,速度会更快。

原来我在2015年的时候觉得30年左右会实现AGI,大概在2045年。现在看来,如果这三个相互作用之后,可能会加速。

腾讯科技:“人造大脑”真的能实现吗?人的意识的原理还是个谜,人脑有一千亿个神经元,总突触超过一百万亿,按数量级算,也是人类目前的算力水平无法达到的。

黄铁军:你这个问题很重要,你的好奇点也是很多人的好奇点。我2015年写的那篇文章,第一个要打破的就是这个好奇点,可以说这是一种错误的看法。

第一,现在的算力能不能支持是一回事,但是新的器件发展速度是很快的。我在2015年就写过一篇文章讲这个问题,其实现在人类已经有了新的器件,一二十年就能构造出全新的机器。我们不用“计算机”这个词,因为它甚至于信息处理的方式都不是原来的逻辑计算,而是一个类似于人脑一样的信息处理机制,这是从技术的可能性上讲。今天的算力不够,主要是因为现在芯片的能力限制,这块没有天花板,后面的突破已经在发生了。

第二个问题,刚才说的对意识的理解,这个问题是一个大问题。我们要问一个问题,我们到底要“理解”还是要“构造”。人工智能的本质在于构造,我们要做一个系统,这个系统能表现出智能,这是人工智能的主旋律或者技术。我们要做这个东西,它能不能表现出来,能不能表现出来越来越强的智能。而不是搞明白,理解它为什么或者像咱们说的意识的奥秘,意识的奥秘有可能对人类来说是一个永远无法解决的奥秘,有这种可能性。这根本就不影响我们做一个有意识以及意识很强的机器,这是两回事。

有的时候我们说人有好奇心,一定要刨根问底,一定要知道为什么,这个是有一定偏见的。其实很多时候,我们人类社会的科技进步是在解决“How”的问题,不是解决“Why”的问题,但是有的时候大家把Why的问题摆在过于重要的位置,“Why”就是为什么,意识的奥秘是什么。“How”是如何做,如何构造一个具有智能的机器,这是我刚才说的人工智能。

人类历史上一再证明真正的科技进步往往是“How”所推动的,不是由“Why”来推动的。例子很多,刚才也举了一些例子,比如说飞机的发明是在空气动力学没有出现的情况下出现的,所以你怎么做一个飞机知道了,就飞上天了。现在怎么去训练一个大模型知道了,就训出智能和新智能。你说它为什么以及更别说人脑背后的为什么,那可能是一个长期的还要继续问下去的问题。

指南针也是一样的,中国人做出指南针并不知道为什么指南,那是一千年之前的事,我们知道为什么指南,是过去两三百年的事情,宋朝的时候哪知道地球,哪有电磁学,没有,不等于不能做,会做那就是“How”,如何去做东西。

回到人工智能这个问题,我觉得对于智能背后,包括意识背后奥秘的理解,这个问题可以,当然也必须探索下去。我觉得如果它能解决,那也是因为我们造出了具有这种能力的机器;不能解决的可能性也是存在的。我说不能解决的意思是说,靠我们人的大脑去理解自己为什么能运行,它很复杂,复杂到我们这样的系统无法理解的程度。

你说我们能不能造出一个比我们更复杂的机器?我认为几乎是肯定的,这是有可能的。如果我们造出来了,它最后理解了解释了人脑就这么回事,所有的过程告诉你,背后的原理,这是有可能的,因为它比我们更强大,它理解了我们复杂的大脑。这是我为什么讲30年一定会做到,或者是更快能做到,但是理解它(大脑和意识),仅靠人类,也可能永远理解不了。如果我们造出来比我们更强的机器,那个机器可以肯定它能理解。

未来这么一段时间,在人类被AI超过之前,会有一段幸福的时光,就是人和AI共同合作的情况下,能实现原来很多梦想,解决很多没解决的问题,科技也会加速,不仅仅是大模型3、4个月就会迭代,我们社会各方面的节奏都进入了更快速的节奏。就像坐上了高速列车,但是是不是悬崖在前面?就是刚才说到的风险,这个时候可能已经不是我们人类完全自己控制了,你是跟AI一起在共同驾驭着这个时代往前狂奔,风险的问题也应该早点充分考虑。

腾讯科技:今年人工智能的关注度尤其高,从您的角度来看,今年人工智能领域最值得关注的某些讨论议题可能是哪些?

黄铁军:今天人工智能不同于以往五六十年来的人工智能,之前大家所说的人工智能都还只是人设计的系统,而这个系统总的来说,还在我们的设计预期之内。但是今年,我们看到了人工智能的涌现能力出现,这就意味着在设计之外,大家没有预期到的智能现象出现了,这是从未发生过的。这样对于任何一个技术方向来说都是特别令人兴奋的。我经常打比方,比如说飞机的发明做了很多年,准备飞上天,想了很多方法。但是突然有一天莱特兄弟架了一个飞行器在空中盘旋了几十秒,一分多钟,现在就相当于那个时刻。

所以,今年我们关注的既有技术进步的兴奋,还有对人工智能安全风险问题的陡然提升,其实背后都是因为人工智能的性质已经不同以往。

大家都说今年智源大会的阵容很强大,智源大会在整个智源开源开放生态里面是标志性的会议,作为生态这里面有人的链接,有产业的链接,还有投融资,大家关心产业问题的链接。但是归根结底其实是重要的观点汇聚和碰撞,智源大会想起的作用就是要把一年来最重要的这些在AI领域的观点呈现,我讲观点的意思是说,我们并不在意某个产品怎么样,而是更多在意有什么样新的思想、新的想法,以及争论、讨论,把这样一些观点通过一场会议链接在一起激荡,为未来的发展希望起到一定的导航作用。

本文来自微信公众号:腾讯科技(ID:qqtech),作者:郭晓静

相关推荐

预测未来AI生态:一个大模型通吃所有?
脑机接口利器:从脑波到文本,只需要一个机器翻译模型
马云治下“铁军”:要么死在那里,要么做出成绩
公司的“铁军”从哪来?
阿里进入大模型时代,核心是算力和生态
全球AI大模型一览:中美之外还有谁?
焦虑的中国大客户,正“逼着”AI企业做大模型
无线“心灵交流”,崔铁军院士领衔研发新型脑机超表面,灵活、无创
预测下:抖音春节红包可能怎么玩?
清华系RealAI发布企业级隐私保护机器学习平台与升级版AI模型杀毒软件

网址: 黄铁军:全球可能只需要三个大模型生态 http://www.xishuta.com/newsview78274.html

所属分类:行业热点

推荐科技快讯