首页 科技快讯 争鸣:OpenAI奥特曼、Hinton、杨立昆的AI观点到底有何不同?

争鸣:OpenAI奥特曼、Hinton、杨立昆的AI观点到底有何不同?

来源:晰数塔互联网快讯 时间:2023年06月12日 23:07

6 月 9 日,由智源研究院举办的 2023 北京智源大会在北京开幕。作为年度国际性人工智能高端专业交流活动,该会议已经连续举办了 5 年。

据悉,本届大会持续两天,核心议题是人工智能发展面临的机遇和挑战,共有两百余位 AI 领域的顶尖专家参会,包括 OpenAI 创始人山姆·奥特曼(Sam Altman)、图灵奖得主杰弗里·辛顿(Geoffrey Hinton)和杨立昆(Yann LeCun)等人。他们都围绕着 AI 的发展和挑战发表了自己观点。

(来源:资料图)

“人工神经网络是否很快会比真实的神经网络更聪明?”辛顿在其演讲中主要讨论了这样一个问题。

(来源:资料图)

能够精确遵循指令,是传统计算中计算机的关键。基于这个特点,用户在运行相同的程序或神经网络时,可以使用不同的硬件。这就表明,程序中神经网络的权重和硬件不存在依赖关系。

“它们遵循指令的原因是因为他们被设计成让我们先观察问题,确定解决问题所需的步骤,然后告诉计算机执行这些步骤的模式。”辛顿表示。

为了以更低的成本训练大型语言模型,他提出了“有限计算”,也就是放弃传统计算中硬件和软件分离的基本原则,基于对硬件的模拟,来高效地执行计算任务。

但是,这种方式存在以下两大主要问题。

首先,“学习过程必须利用其运行的硬件部件的特定模拟特性,而我们不确切知道这些特性是什么。”辛顿说。

其次,该方法具有有限性。辛顿解释说:“当特定的硬件设备失效时,所有学到的知识也会随之丧失,因为知识和硬件细节密切相连。”

为了解决上述问题,他和合作者尝试了许多方法,比如“蒸馏法”,该方法被证明非常有效。

与此同时,他也表示智能体群体共享知识的方式,会对计算中的许多因素造成影响。这也就是说,目前大型语言模型看似能够学习海量知识,但由于其主要通过学习文档来获取知识,不具备从现实世界中直接学习的能力,因此学习的方式是非常低效的。

“如果它们能够通过建模视频等无监督的方式进行学习,那将是非常高效的。”辛顿说,“一旦这些数字智能体开始这样做,它们将能够比人类学习更多,并且学习速度相当快。”

如果顺着这种发展态势,智能体将很快比人类变得更聪明。不过,这也将带来许多问题,比如智能体和人类争夺控制权、伦理和安全问题等。

“想象一下,在未来十年,人工通用智能系统(Artificial General Intelligence,AGI)将会超过 20 世纪 90 年代初人类所具备的专业水平。”奥特曼表示。

他在演讲以及与智源研究院理事长张宏江的问答环节中,探讨了推进 AGI 安全的重要性和策略。

(来源:资料图)

“我们必须为鲁莽的开发和部署可能引发的问题负起责任。”奥特曼表示,其指出了两个方向,即建立包容的国际准则和标准,以及通过国际合作推动 AGI 安全系统的构建。

那么,就当下而言,如何训练大型语言模型,使其真正成为对人类安全和有益的助手,是首先需要解决的一个问题。

对此,奥特曼提出了几个解决方法。

首先,投资可扩展的监督,比如训练一个可以协助人类监督其他 AI 系统的模型。

其次,不断升级机器学习技术,进一步增强模型的可解释性。

“最终,我们的目标是训练 AI 系统具备更好地优化自身的能力。”奥特曼说,“随着未来的模型变得越来越智能和强大,我们将找到更好的学习技术,在充分发挥 AI 的非凡好处的同时降低风险。”

对于如今的 AI 是否具有风险以及该如何克服,杨立昆和奥特曼拥有相同的观点。前者表示:“这些风险虽然存在,但可以通过仔细的工程设计,减轻或抑制它。”

不过,作为一贯反对 GPT 类大模型的专家,杨立昆在题为《朝向能学习、思考和计划的机器进发》的演讲中,清晰地指明了以自监督学习为代表的 AI 系统的优缺点。

(来源:资料图)

其虽然在自然语言处理和生成等方面表现出了极其强大的效果,但它并不具备像人和动物那样进行推理和计划的能力,因此不可避免地会导致一些事实错误、逻辑错误、价值观毒化等问题。

基于此,杨立昆认为未来几年 AI 将面临三大挑战:学习世界表征及预测的模型;学习推理能力;学习如何将复杂任务分解为简单任务,并进行分层推进。

并且,他提出了世界模型是通往 AGI 之路的核心的观点。

在他看来,世界模型是可以想象未来会发生什么的系统,其能够以最小的成本得出自己的预测。

“这个系统的运作方式是通过它可能被储存在记忆中的以前对世界的想法,去处理当前世界的状态。然后你用世界模型来预测如何世界接着运转会发生什么。”杨立昆说。

那么,该如何实现这个世界模型呢?“我们有一个分层系统,通过一连串的编码器,提取世界状态的更多和更抽象的表示,并使用不同层次预测器的世界模型。”他说。

简单来说,也就是将复杂的任务,以分解规划到毫秒级的方式完成。不过,需要说明的是,还需要有一个系统,来进行成本控制和标准优化。

综上可以看出,虽然三位专家对 AI 的看法和观点不尽相同,但他们都表明了,AI 的发展已经成为大势所趋。正如奥特曼所说,我们不能阻止 AI 的发展。

在此基础上,如何找出 AI 的更好发展方式,抑制其可能带来的一系列风险和危害,最终朝着 AGI 的终点迈进,将是人们在下一阶段需要聚焦的主要方向。

运营/排版:何晨龙

发布于:北京

相关推荐

争鸣:OpenAI奥特曼、Hinton、杨立昆的AI观点到底有何不同?
“人工智能教父”杨立昆:ChatGPT没那么厉害
36氪领读 | 图灵奖得主杨立昆人工智能十问:AI会统治人类吗?
比AI灭绝人类更危险的,是愚蠢的AI接管世界
同门、背叛、对峙,OpenAI最大竞争对手浮出水面
“AI 寒冬论”作者再发声:人工智能行业就是一个马戏团
奥特曼没有阴谋
同门、背叛、对峙,Open AI最大的对手浮出水面
再创融资纪录,微软给了OpenAI十亿美元,研发超能AI
担心AI失业潮?OpenAI创始人要给全人类发钱了

网址: 争鸣:OpenAI奥特曼、Hinton、杨立昆的AI观点到底有何不同? http://www.xishuta.com/newsview78502.html

所属分类:行业热点

推荐科技快讯