英伟达投下自动驾驶重磅炸弹!首次开源VLA模型Alpamayo-R1
(来源:车东西)
车东西(公众号:chedongxi)
作者 | Janson
编辑 | 志豪
英伟达要用“因果推理”重塑L4自动驾驶?!
车东西12月3日消息,日前,英伟达(NVIDIA)研究团队正式发布并开源全新的视觉-语言-动作(VLA)模型Alpamayo-R1,并明确宣布计划在未来的更新中开源该模型及部分核心数据集。
▲Alpamayo-R1对应的数据集已上传至开源社区目前,该模型对应的数据集也已上传至开源社区,总大小约100TB,这也是英伟达首次将VLA模型进行开源。
▲Alpamayo-R1模型架构这一举措不仅打破了高端自动驾驶模型的封闭高墙,更标志着端到端自动驾驶技术从单纯的“模仿行为”迈向了具备深层“因果思考”的新阶段。
对于自动驾驶行业而言,Alpamayo-R1的出现直击了当前最令人头疼的痛点——长尾场景(Long-tail scenarios)下的安全性。
英伟达此次带来的 Alpamayo-R1正是为了终结这一困境,而其交出的实测成绩单也足够令人信服。
▲Alpamayo-R1相对基线的提升明显在针对极高难度长尾场景的测试中,AR1的规划准确率相比仅有轨迹预测的基线模型提升了整整12%;
在闭环仿真测试里,AR1成功将车辆冲出道路的事故率降低了35%;
与其他车辆或行人的近距离危险遭遇率也大幅减少了25%。
更值得一提的是,即便在集成复杂的推理大脑后,该模型在NVIDIA RTX 6000 Pro Blackwell车载硬件上依然保持了99毫秒的端到端超低延迟,完全满足了实时自动驾驶的严苛需求。
一、解决自动驾驶端到端黑盒问题 引入因果链数据集
过去几年,基于模仿学习的端到端大模型虽然通过堆砌数据量取得了显著进步,但它们本质上更像是一个只会死记硬背的“黑盒”。
这些模型能够精准模仿人类驾驶员的操作,却缺乏对场景的因果理解。它们知道“前面有车要刹车”,却不知道“为什么要刹车”。
这种知其然不知其所以然的缺陷,导致车辆在面对从未见过的高风险复杂路况时,往往表现脆弱,决策逻辑甚至自相矛盾。
为了让AI真正学会像人类老司机一样思考,英伟达并没有选择在现有模型上修修补补,而是从最底层的数据构建开始了一场革命。
▲因果链推理演示为了解决传统数据集中描述模糊、缺乏逻辑关联的问题,研究团队构建了一套全新的“因果链”(Chain of Causation, CoC)数据集。
这套数据集的核心在于教会模型建立“观察-原因-决策”的严密逻辑闭环。它不再让AI生成诸如“天气晴朗、路面宽阔”这类无关痛痒的旁白。
在这套模型下,提示词可明确指出“因为左侧有车辆正在强行并线,且前方有行人横穿,所以我决定减速避让”。
这种数据构建方式不仅消除了因果混淆,更有效提升了模型的逻辑性。
二、引入新架构 平衡模型性能
在强大的数据支撑下,Alpamayo-R1采用了一种模块化且高效的架构设计,巧妙地平衡了“慢思考”与“快行动”。
其大脑由英伟达专为物理AI打造的Cosmos-Reason视觉语言模型驱动,负责处理复杂的环境理解和逻辑推理。
而行动则交由一个基于流匹配(Flow Matching)技术的动作专家解码器来控制。
这种分工合作的机制,让模型既能利用大语言模型的广博知识进行深思熟虑,又能通过扩散模型生成丝般顺滑且符合车辆动力学的行驶轨迹,完美解决了大模型通常反应迟钝的弊病。
不过,真正让Alpamayo-R1与众不同的,是其在训练阶段引入的强化学习(RL)机制。
▲推理-动作高一致性将提升奖励在监督学习教会模型基本的驾驶技能后,研究人员引入了一个更为严苛的“判卷老师”——利用更大规模的推理模型作为批评者(Critic),对AR1的表现进行打分。
这个阶段的训练目标非常明确——要求模型言行一致。
对此,该模型中的奖励函数不仅看重车辆是否开得安全,更看重模型嘴上说的推理逻辑与实际做出的驾驶动作是否吻合。
如果模型推理说“因为红灯要停车”,但实际动作却在加速,它就会受到严厉惩罚。
▲采用强化学习新模式后质量显著提升这种训练方式让AI的解释不再是一种事后的敷衍,而是真正成为了指导车辆行动的决策纲领,推理质量因此提升了45%,推理与行动的一致性也提高了37%。
在论文的最后还有一个小彩蛋,致谢中排在第一位的正是英伟达自动驾驶负责人吴新宙。
▲吴新宙在致谢第一位结语:英伟达首次开源VLA模型
随着 Alpamayo-R1 的发布及后续开源计划的推进,英伟达不仅展示了一条通往 L4 级自动驾驶的务实技术路径,更为整个开源社区注入了强劲动力。
当自动驾驶汽车开始能够清晰地解释自己的每一个决策逻辑时,我们距离那个真正安全、可信的自动驾驶未来,或许只剩下最后的一公里。
相关推荐
重磅开源!全球首个开源大规模混合架构的推理模型MiniMax-M1发布
抛弃OpenAI,Figure推首个VLA模型,一句话让机器人搭伙干家务
解读理想VLA司机大模型:你不用付费的专属“代驾”
英伟达深夜再放炸弹,发布超级芯片GH200反击AMD
英伟达新架构引爆全模态大模型革命,9B模型开源下载即破万
对话郎咸朋:VLA 技术论战、团队换血与不被看好时的自我证明
教主黄仁勋亮相GTC China:英伟达已售出15亿块GPU,重磅发布TensorRT 7
大涨!阿里大消息:联手英伟达!
从感知到预判:世界模型如何让自动驾驶突破 “老司机” 瓶颈
AMD在5G投下一颗炸弹,但Q2市场份额不会达到10%
网址: 英伟达投下自动驾驶重磅炸弹!首次开源VLA模型Alpamayo-R1 http://www.xishuta.com/newsview144923.html
推荐科技快讯
- 1问界商标转让释放信号:赛力斯 95792
- 2报告:抖音海外版下载量突破1 25736
- 3人类唯一的出路:变成人工智能 25175
- 4人类唯一的出路: 变成人工智 24611
- 5移动办公如何高效?谷歌研究了 24309
- 6华为 nova14深度评测: 13155
- 7滴滴出行被投诉价格操纵,网约 11888
- 82023年起,银行存取款迎来 10774
- 9五一来了,大数据杀熟又想来, 9794
- 10手机中存在一个监听开关,你关 9519
