国内的自动驾驶,终于走在世界前列!
来自上海人工智能实验室、武汉大学、商汤科技联合发表的论文——《Planning-oriented Autonomous Driving》(以路径规划为导向的自动驾驶)获得了2023全球计算机视觉盛会CVPR*论文奖。
要知道,这是CVPR在40年的颁奖历史上,*篇以自动驾驶为主题的*论文。
也是近十年来计算机视觉三大*会议中,*篇来自中国研究团队的*论文。
来源:OpenDriveLab
而CVPR是人工智能领域*学术影响力的*会议之一,在谷歌学术指标2022年列出的全球最有影响力的6个科学期刊/会议中,CVPR位列第四,仅次于《自然》《新英格兰医学杂志》《科学》。
除了CVPR在学界和业界的影响力,其苛刻的评选标准更使得这次关于自动驾驶论文的获奖尤为特别。
今年CVPR的投稿量共计9155篇,最终接收论文2359篇,接收率为25.8%,而最终入围*论文候选名单的仅有12篇。
接下来咱们一起看看,这篇论文有什么开创性理论创新。
01
自动驾驶通用大模型UniAD
这篇获奖论文名为 《Planning-oriented Autonomous Driving》(以路径规划为导向的自动驾驶),论文中提出了自动驾驶通用算法大模型——Unified Autonomous Driving(UniAD)。
是的,这篇论文结合了今年爆火的大模型,论证了大模型与自动驾驶产业结合的潜力。
这篇论文首次将检测、跟踪、建图、轨迹预测、规划等整合到一个基于Transformer的端到端网络框架下,开创了以全局任务为目标的自动驾驶大模型架构先河。
CVPR官方组委会给出的获奖理由是:该论文提出了一个端到端的感知决策一体化框架,融合了多任务联合学习的新范式,使得进行更有效的信息交换,协调感知预测决策,以进一步提升路径规划能力。
来源:OpenDriveLab
下面我们就具体来看看,这篇论文是如何获得了组委会的认可。
现代自动驾驶系统的特点,是按顺序进行模块化任务,比如感知、预测和规划,为了执行各种各样的任务并实现高级智能。
但汽车智能化发展已经逐渐红海化。自动驾驶对计算能力和海量数据的处理能力要求更高,传统的各个小模型堆叠的方案,显然无法满足城市自动驾驶的需求,还有可能会出现多任务之间协调不足。
来源:上海人工智能实验室
所以这篇论文认为,有必要设计和优化一个综合的框架,来重新审视感知和预测这类的关键组件,并对这些任务进行优先排序。
基于这样的背景,上海人工智能实验室、武汉大学及商汤科技联合提出了一个感知决策一体化的端到端自动驾驶通用大模型UniAD。
来源:上海人工智能实验室
自动驾驶通用算法框架—— Unified Autonomous Driving(UniAD)首次将检测、跟踪、建图、轨迹预测,占据栅格预测以及规划整合到一个基于 Transformer 的端到端网络框架下,将全栈驾驶任务整合到一个网络中。
这次的获奖,无疑是印证了端到端的感知决策一体化算法被普遍认为是自动驾驶算法终局。
端到端比模块化好在哪?
“端到端”其实原本是深度学习(Deep learning)中的概念,英文为“End-to-End(E2E)”,指的是一个AI模型,只要输入原始数据就可以输出最终结果的过程。
通过一个大的模型实现多种模块化模型的功能,研发人员只需要针对这一个模型进行整体训练、调整优化,即可实现性能上的提升,因此可以更好地集中资源,实现功能聚焦。
而端到端自动驾驶,就是通过模型直接通过输入的图像或者视频信息得到汽车驾驶行为的指令。
来源:商汤科技
输入传感器信号后就可以直接输出车控信号,大大降低了信息误差的概率,也因此大大提升了系统性能的上限。
此前模块化的设计虽然简化了跨团队的研发难度,但因为优化目标是被隔离的,存在着跨模块信息丢失、误差积累和特征不对齐的风险。
而现在行业中大多数端到端的自动驾驶系统,一直没有一个很好的网络框架来融合全部五大模块,都只能融合部分模块。
来源:论文
所以这篇论文开创性地将所有的模块任务,都容纳到一个算法架构中,也是其得奖的关键原因。
据获奖团队介绍,这个UniAD模型能每个模块的优点结合起来,并从全局角度为各个组件之间协同达到互补的状态。
他们将一系列多摄像头图像输入特征提取器,并通过 BEVFormer 转换为统一的鸟瞰图(BEV)。这部分可以快速替换为其他BEV模型,具有较好可拓展性。
根据论文,UniAD 的训练分两个阶段:
首先联合训练感知部分,即目标跟踪和建图模块,然后使用所有感知、预测和规划模块端到端地训练模型20个阶段。
具体来看,他们除了将感知、预测、规划作为自动驾驶的三个主要任务之外、还划出了六小类子任务,其中包括了目标检测、目标跟踪、场景建图、轨迹预测、栅格预测和路径规划。
然后将这些大大小小的任务整合到统一的端到端网络框架下,由三大主任务环节中下达诸多子任务,再通过统一的接口进行通信,方便彼此进行规划。
在感知环节,UniAD的目标检测与跟踪模块可以实现对动态元素的特征提取、帧间物体跟踪;在线建图模块实现了对静态物体的特征提取、实例级地图预测。
在预测环节,UniAD可以实现动静态元素交互与长时序轨迹预测;占据栅格预测模块实现了短时序全场景BEV、实例级预测。
在规划任务中,UniAD实现基于自车query的轨迹预测和基于占据栅格的碰撞优化。
来源:论文
总的来说,UniAD通过将环视的图片以Transformer映射得到BEV的特征后,同时进行目标的跟踪,在线的建图,包括目标轨迹的预测,还有障碍物的预测,现观察现预测,然后决定怎么行动,最终实现驾驶行为。
优势展示
他们在nuScenes真实场景上还实际测试了UniAD模型。所有任务均刷新了领域*性能SOTA(State-of-the-art),尤其是预测和规划效果远超之前*方案,行驶的过程中同时生成高质量的可解释性感知和预测结果,并做出安全的操作。
其中,多目标跟踪准确率超越SOTA 20%,车道线预测准确率提升30%,预测运动位移和规划的误差则分别降低了38%和28%。
来源:商汤科技
具体来看,在晴天直行场景中,UniAD 可以感知左前方等待的黑色车辆,预测其未来轨迹(即将左转驶入自车的车道),并立即减速以进行避让,待黑车驶离后再恢复正常速度直行。
来源:上海人工智能实验室
在场景复杂的十字路口,即便是因为下雨,干扰较大的情况下,UniAD 能通过分离模块单独生成十字路口的整体道路结构,并完成左转指令。
来源:上海人工智能实验室
在夜晚视野变暗的情况下,UniAD 也同样感知到前车停车,且左右有障碍物的情况,并且完成了先静止,后左转的指令。
通过这些实例,证明了他们提出的这种理念在各个方面都要优于以前的所谓*进的技术。
作为自动驾驶技术研究重要突破,UniAD 模型兼并了“多任务” 和“高效率”的特性,这次的获奖很大概率上也代表了当下自动驾驶未来的发展趋势。
02
落地还需要时间
在自动驾驶领域,端到端的大模型其实并不是什么新鲜概念。
早在2021年8月,特斯拉的 AI 高级总监Andrej Karpathy,就在特斯拉 AI DAY 上展示了一项新技术——基于 Transformer 的 BEV (鸟瞰视角) 的感知方案。
这个方案,相当于车辆正上方有一驾无人机在俯视车辆与周围环境,这也是大模型技术首次应用于自动驾驶领域。
如今两年的时间过去,大模型越来越受到厂商们的关注。
目前已经有不少企业在端到端BEV+Transformer 模型上有所布局,除了商汤科技外,还有像特斯拉,英伟达以及毫末智行等一系列公司。
比如商汤科技和联合实验室团队发布自动驾驶通用UniAD大模型之前,就推出了“SenseAuto绝影”智能汽车平台,搭建了智能座舱、智能驾驶、车路协同等业务板块。
在智能驾驶方面,商汤提供有两套不同的解决方案,分别是高速领航和城市领航。
其中,高速领航搭载5颗毫米波雷达、7颗摄像头,采用16~48 TOPS算力平台。城市领航方案则在此基础上加了3个激光雷达,并采用大于200TOPS的高算力平台。
商汤科技联合创始人、首席科学家、绝影智能汽车事业群总裁王晓刚,将这些成果归功于商汤持续建设打造“大模型+大装置”技术路径。
而论文中所提到的大模型技术,从落地到产业完全跟进,仍需要很长一段时间。
特别是UniAD大模型属于囊括了所有规划任务的超大型架构,涉及感知、预测等非常复杂的系统,需要具备巨大的计算能力支撑,当然也需要充足的时间去训练计算能力。
来源:论文
从硬件水平,到训练时间,再到系统性的技术优化和工程落地,端到端自动驾驶方案仍面临很大挑战。
这次获得CVPR*论文奖,并不只是一次单纯的书面意义上的获奖,更像是人工智能大模型在自动驾驶上的一次融合前瞻,多模态大模型助力的也不仅是单个车辆的自动驾驶技术,而是推动高阶自动驾驶整体落地。
所以,不管怎样,这对于自动驾驶行业来说是一个振奋的消息,期待全栈端到端自动驾驶方案的大规模应用!
参考链接
1.https://mp.weixin.qq.com/s/EWMRzDExsJZ4_SYBSBaMFg
2.https://mp.weixin.qq.com/s/8svV4yxRi6TikcRivgHr_A
3.https://zhuanlan.zhihu.com/p/638780421
4.https://arxiv.org/pdf/2212.10156.pdf
5.https://arxiv.org/abs/2212.10156
6.https://github.com/OpenDriveLab/UniAD
【本文由投资界合作伙伴微信公众号:超电实验室授权发布,本平台仅提供信息存储服务。】如有任何疑问,请联系(editor@zero2ipo.com.cn)投资界处理。