AI六巨头同台:AGI,不再是“未来”的事了
2025年11月7日,伦敦伊丽莎白女王工程奖颁奖典礼后,一场圆桌对话正在改写人们对AI未来的认知。
六位与会者不是普通的行业代表,而是这波AI革命的关键人物:
Geoffrey Hinton、Yoshua Bengio、Yann LeCun:深度学习三位奠基者;
李飞飞:ImageNet发起人、空间智能开创者;
Bill Dally:GPU计算架构总设计师;
黄仁勋:AI工业化的最大推动者。
这是一次极为罕见的集体对话
核心议题只有一个:通用人工智能(AGI)真的来了吗?
没有人给出标准定义,也没有人宣布技术已经完成。但在接下来30分钟里,六位先驱从各自角度传递出同一个信号:AGI不再是遥远的终点,它已经开始在现实中发挥作用。
Hinton说:20年内,机器将在辩论中战胜所有人
黄仁勋说:我们今天就在用AGI级别的智能做实际工作
李飞飞说:某些领域机器已超越人类,但进化方向未必是人类化
LeCun则直言:当前大模型不等于真正的智能,我们连像猫一样聪明的机器都没有
分歧背后,藏着一个共识:范式正在转变。
第一节 | 四十年积累:AGI是怎么出现的
当主持人问:你人生中那个顿悟时刻是什么?那个让你走上AI之路的瞬间,六个人轮流讲述了各自的起点。
这些故事相隔几十年,却拼成了一条清晰的时间线:今天的AGI,不是突变出来的,而是四十年一步步演化的结果。
Yoshua Bengio说,他第一次对AI产生强烈兴趣,是在研究生时期读到Geoff Hinton的早期论文。那时,他突然意识到:也许人类智能背后有一套简单的原理,就像物理定律那样。
正是这个发现,让他决定投身神经网络研究。
几十年后,当ChatGPT问世,他又经历了第二次震撼:天哪,我们在做什么?我们创造了能理解语言、有目标的机器,但如果它的目标和人类不一致,会发生什么?
于是他彻底转向AI安全和伦理研究,把理解智能变成约束智能。
Geoffrey Hinton的记忆要更早一些。
1984年,我试着让一个小模型预测一句话的下一个词,他说,它能自己学会单词之间的关系。那是一个微型语言模型。当时他只有100个训练样本,却在那时看到了未来的雏形:只要模型能预测下一个词,它就能开始理解世界。
那就是后来所有大型语言模型的原型,只是当时没有算力,也没有足够的数据。
他停顿了一下,补充道:我们花了40年,才有今天的结果。
Bill Dally则经历了两次关键顿悟。
第一次是在90年代末的斯坦福。他在思考如何解决内存墙问题,也就是访问内存的能耗和时间成本远高于计算本身的困境。他想到把计算组织成由数据流连接的内核,这样可以用更少的内存访问完成更多运算。
这个想法后来发展成流处理,最终演变为GPU计算。
第二次是2010年的一个早餐。我和吴恩达在斯坦福吃早餐,他说他们在Google用1.6万个CPU训练神经网络,让机器学会在网上找猫。就在那时,Dally意识到,这不再是实验室的想象,而是一种可以规模化的计算模式。他回到NVIDIA,和Brian Catanzaro用48个GPU复现了那个实验。结果让他彻底信服:GPU就是深度学习真正的引擎。
我们必须专门为深度学习设计GPU,他说,那次早餐改变了NVIDIA的方向,也改变了我的后半生。
李飞飞的顿悟来自另一个维度:数据。
人类智能在成长初期被海量感官数据淹没,但机器没有。
2006到2007年间,她正从研究生过渡到年轻教授,尝试了贝叶斯、支持向量机、神经网络等各种算法,但机器依然无法泛化,无法识别新样本。
她和学生终于意识到:缺的不是算法,是数据。
于是他们决定干一件当时看来很疯狂的事:在三年内手工标注1500万张图片,创建ImageNet,覆盖2.2万个类别。那套数据后来成为AI视觉革命的基石,也让机器第一次具备了看懂世界的能力。
她说:大数据驱动机器学习,这是今天所有AI扩展定律(Scaling Law)的基础。
Yann LeCun是最早的同行者之一。
我本科时就被一个想法吸引,那就是让机器自己学,而不是教它怎么做。1983年他读研究生时,第一次读到Hinton的论文;两年后,两人在一次午餐上碰面,发现能接上彼此的话。
我觉得自己太懒,或者太笨,不能手写智能的规则。让机器自组织学习,这才是生命的方式。
有趣的是,他和 Hinton 曾在80年代末争论:是监督学习还是无监督学习才是出路?后来ImageNet的成功让整个领域暂时转向了监督学习。但到了2016、2017年,他们意识到必须回到自监督学习。这正是今天大语言模型的训练方式。
四十年后,他依然坚持:智能的核心是自我组织,而不是指令。
最后,轮到黄仁勋。
对我来说,最重要的时刻,是意识到设计芯片和构建深度学习系统的底层逻辑是相通的。
他解释说,他是第一代能用高层抽象和结构化工具设计芯片的工程师。2010年前后,当他看到深度学习也在用框架和结构化方法开发软件时,突然意识到:这和芯片设计的思维方式何其相似。
也许我们可以像扩展芯片设计那样,扩展软件能力。
后来,当多伦多、纽约、斯坦福的研究团队几乎同时联系NVIDIA请求算力支持时,他明白:AI正在从理论走向工程。一旦算法能在一个GPU上并行运行,就能在多个GPU上运行,然后是多个系统,多个数据中心。剩下的就是工程外推。
六个故事连起来,就是AI四十年的演化图谱。
Hinton种下算法的种子,Bengio把它变成科学问题,LeCun让它学会自组织,李飞飞让它看到世界,Bill Dally让它运行得更快,黄仁勋把它变成产业的引擎。
当然,他们的工作远比这更复杂,彼此交织、互相启发,但这六个人确实共同塑造了今天AI的基础。
今天的AGI,不是突然诞生的天才,而是这些人四十年共同塑造的历史进程。
第二节|时间线撕裂:有人说已来,有人说永远不会
四十年前,他们各自踏上了AI之路。四十年后,站在同一个终点前,他们却看到了不同的未来。
当主持人问出那个问题:我们距离人类水平的智能,还有多久?
这是所有人都绕不开、也从未达成共识的问题。
接下来的几分钟里,六个人给出了六种截然不同的答案。他们谈的不是模型进展、发布速度,而是真正意义上的智能机器,那种能理解、思考和行动的系统。
LeCun第一个开口,直接否定了问题的前提。
这不会是一个事件。因为能力会在各个领域逐步扩展。
也许在接下来的五到十年里,我们会在提出新范式方面取得一些重大进展。然后进展会来临,但会比我们想象的时间更长。
他的意思很明确:不要等待一个奇点时刻,AGI是渐进的,而不是突变的。
李飞飞提出了另一个视角:问题不该是AI会不会超越人类,而是在哪些方面已经超过。
机器的某些部分将超越人类智能,部分已经在这里了。我们中有多少人能识别2.2万个物体?能翻译100种语言?
她接着说:就像飞机比鸟飞得高,但方式完全不同。基于机器的智能将做很多强大的事情,但人类智能在我们人类社会中始终占据着关键地位。
她的意思是:超越已经发生,但不是复制,也不是替代。
黄仁勋则完全不同。他没说年份,反而当场否定了这个问题本身。
我们有足够的通用智能,可以在未来几年将技术转化为大量对社会有用的应用。我们今天就在这样做。
我认为这不重要,因为在这一点上这有点像学术问题。从现在开始,我们将应用这项技术,技术会继续变得更好。
他给出的不是预测,而是现实进度条:不是将来会有用,是现在就已经在用。
Hinton的回答更具体:如果你和机器进行一场辩论,它总能赢你。我认为,这种情况将在20年内发生。
他说这句话时语气平静,但信息量巨大。这不仅是预测,更是确认:我们正沿着那条路走着,只是速度问题。
Bill Dally提醒大家:也许问题本身是错的。
我们的目标不是构建AI来取代人类或比人类更好,而是构建AI来增强人类。我们想做的是补充人类擅长的东西。
AI做擅长的事,人类保留创造力、共情、协作。我们互补,而不是取代。在他看来,达到人类智能这个说法本身就带偏了方向。
Yoshua Bengio最后发言,提出了最具争议性的观点。
我要在这一点上表示不同意。我看不出有任何理由,在某个时候我们不能构建能做我们几乎所有事情的机器。
他给出的数据是:AI在规划能力上过去六年呈指数级增长。如果这个趋势延续,五年内AI就能达到工程师级别的能力。更关键的是,许多公司正在让AI做AI研究,设计下一代AI系统。这可能会催生许多其他突破。
但他最后强调:我不是说一定会发生,我们应该保持不可知论,不做大的声明,因为有很多可能的未来。
六个回答,六种时间感。
Lecun说渐进演化但比想象更久;李飞飞说某些能力已超越;黄仁勋说现在就在用;Hinton给出20年预测;Bill Dally质疑问题本身;Bengio又说五年可达工程师水平,但充满不确定。
我们看到的不是一条明确路线,而是越来越撕裂的时间认知。
对未来的判断,本质上反映的是他们对智能本身理解的差异。
第三节 | 从语言到行动:智能的下一步
争论未来的同时,他们更关注当下正在发生的转变。
过去几年,AI的进步集中在语言能力上。ChatGPT、DeepSeek等大模型,正帮助全球用户解答问题、撰写摘要与提供方案。
但在这场对话里,几位顶级研究者不约而同地指出:下一阶段,AI要从语言走向行动。
✅ 李飞飞是第一个点明方向的人。
人类智能从来不只靠语言。我们的大脑天生处理空间,能感知、能推理、能移动、能干事。这些是今天AI还很薄弱的地方。
她指出,现在最强的语言模型,如果拿来做空间判断任务,结果很差。这也正是她过去几年研究的重点:空间智能。
我们太专注于会说话的机器,但忽视了世界是三维的,需要身体、方向和动手能力。
✅ LeCun的态度更为清醒。
他在整场对话中反复强调一个判断:当前的大语言模型范式,离真正的智能还很远。
我个人不相信当前的大语言模型范式可以被推到拥有人类水平智能的程度。我们没有像猫一样聪明的机器人。我们仍然缺少一些重大的东西。在他看来,AI进步不仅仅是更多基础设施、更多数据、更多投资的问题,而是一个科学问题:我们如何向下一代AI取得进展。
他一直主张的方向是:让机器自己从环境中学习,而不是靠人类把答案喂进去。就像婴儿那样,不靠提示词,而靠观察和试错。
我们不可能给孩子喂几亿个对话数据集,但孩子依然能学会语言,是因为他在环境中主动学习。
这是他所说的自监督学习,也是他认为突破当前瓶颈的关键方向。
✅ 黄仁勋把这个问题拉回现实场景。
今天AI不只是做对话工具,而是开始接手工作。它不是更聪明的搜索引擎,而是能完成任务的伙伴。
我们已经看到AI在写代码、看病、做财务。这不只是说,而是在帮你干活。
为了描述这种变化,他提出了一个新比喻:我们过去把软件叫做工具,现在AI是工厂。它实时生成智能,就像电厂实时发电一样。我们需要数千亿美元的这些工厂,以服务建立在智能之上的数万亿美元的行业。
这意味着:我们不能再把AI看作一个能回答问题的程序,而要把它看作一个不断工作、持续输出的生产系统。
我们看到的变化是:AI正从说得好转向能做事。
从聊天窗口,走进真实流程;从被动反应,开始主动执行。这不只是功能增强,而是范式变化。
这也是为什么,他们在谈AGI时,不再争论参数有多大,而在讨论:
AI要怎样和人类一起工作?
它要放在什么位置?
它要有怎样的能力边界?
结语|不是什么时候,而是正在发生
这场对话,没有人给出AGI的标准定义,没有人宣布它正式诞生。但几乎每个人都在描述它的存在方式。
黄仁勋说:AI工厂已经开始运转。
Hinton说:20年内,它会赢下所有辩论。
李飞飞提醒我们:我们太关注它说了什么,却忽略了它做了什么。
AGI不是某一天突然上线的产品,而是正在渗入每个组织、每条流程、每个岗位的现实。
这场对话结束时,主持人说了一句:一年后如果再做这样的对话,将会是一个不同的世界。
也许,改变已经开始了。
参考资料:
https://www.youtube.com/watch?v=0zXSrsKlm5A
https://www.ft.com/content/5f2f411c-3600-483b-bee8-4f06473ecdc0
https://www.theguardian.com/technology/2025/feb/04/ai-godfather-predicts-another-revolution-in-the-tech-in-next-five-years
来源:官方媒体/网络新闻
排版:Atlas
编辑:深思
主编: 图灵
--END--
本文来自微信公众号“AI深度研究员”,作者:AI深度研究员,36氪经授权发布。
相关推荐
AGI、智能体、自动驾驶……未来十年的十大技术预测
AGI残酷真相:一半人明天不上班,GDP不会掉一点
未来已来:AGI发展脉络与猜想
AGI时代,AI软着陆的新范式注定属于更多的企业
奥特曼称人类将不再是地球最聪明的
字节大模型团队全员会:朱文佳和吴永辉首度同台
周鸿祎谈o3大模型:关于AGI 的定义,可能得改改了
重读《生命3.0》:我们如何思考人与AI的未来?
大模型“六小虎”,就要凉凉了
牛津大学未来学家:假如AI有了欲望,世界会怎样?
网址: AI六巨头同台:AGI,不再是“未来”的事了 http://www.xishuta.com/newsview144078.html
推荐科技快讯
- 1问界商标转让释放信号:赛力斯 95792
- 2报告:抖音海外版下载量突破1 25736
- 3人类唯一的出路:变成人工智能 25175
- 4人类唯一的出路: 变成人工智 24611
- 5移动办公如何高效?谷歌研究了 24309
- 6华为 nova14深度评测: 13155
- 7滴滴出行被投诉价格操纵,网约 11888
- 82023年起,银行存取款迎来 10774
- 9五一来了,大数据杀熟又想来, 9794
- 10手机中存在一个监听开关,你关 9519
