8月10日,一辆正处于辅助驾驶状态的小鹏P7撞上了一辆停在高速快车道的小车,导致一人当场死亡。
根据官方的声明,事发时,一辆道路养护车正停在高架最左侧(属于违规操作),工作人员疑似在车尾作业时,一辆P7在没有减速的情况下径直撞上了前方车辆,导致作业人员被撞飞。
小鹏被公认为是国内自动驾驶水平最高的公司之一。
事实上,对于现阶段的辅助驾驶系统来说,准确识别出一个非规则的静止物体,并且及时做出正确反应*是一道地狱级的难题,这也是类似事故这两年层出不穷的原因。
8月8日,一辆理想ONE在开启NOA(导航辅助驾驶)时撞上高速路工程车。去年8月,一辆蔚来ES8也在辅助驾驶状态下撞击正在作业的工程车,车主不幸罹难。而特斯拉则在相似场景下涉入了更多致命事故。
高速道路上的静止物体,几乎已成辅助驾驶的致命场景。
01、摄像头+毫米波雷达=青蛙眼?
当下所有拥有辅助驾驶功能的车型,都会标配AEB(自动紧急制动)功能,目的是防止追尾,减轻碰撞。
但问题在于,AEB生效的条件比较严苛——应对加塞容易失效,对静止物体容易失效,车速超过一定范围(通常是60km/h-80km/h)也可能失效。
辅助驾驶为何如此矫情?一般认为,感知系统能力的孱弱要背大锅。
8月10日涉事的小鹏P7硬件规格放到现在并不算高,XPILOT 2.5系统搭载了5个摄像头、3个毫米波雷达,其计算平台采用了英伟达上一代自动驾驶芯片Xaiver,峰值算力为30TOPS(行业一般认为L3及以上自动驾驶需要数百至上千T算力),负责高速场景的主传感器为一枚毫米波雷达和单目摄像头。
而在事发时,两种传感器因为各自的局限,未能及时识别停靠的作业车。
理想汽车创始人李想曾说:“摄像头 + 毫米波雷达的组合像青蛙的眼睛,对于动态物体判断还好,对于非标准的静态物体几乎无能。”
其中,毫米波雷达能够测量与前方物体的距离,但探测不到物体高度,信息密度低。若对其过于信任,则会造成辅助驾驶“草木皆兵”,“幽灵刹车”的现象频发。
为降低误触发率,如今毫米波雷达通常会在高速上设置为自动过滤静止目标。因此,毫米波雷达即使发现了前方的静止物体,要么会视而不见,要么很难及时做出反应。
右为传统毫米波雷达探测点云,依靠这样的数据做精确识别不现实
单目摄像头则难以精确测距,其感知环境依赖深度学习驱动的视觉识别,需要大规模的数据训练。如果某个场景或物体的训练数据不够,摄像头可能会当做物体不存在,或将其误识别为路面、天空等背景。
2016、2020、2021年,三辆特斯拉在开启Autopilot后均撞上了横亘在道路上的白色卡车。事故原因调查皆指向摄像头:它把卡车的白色车厢认成了天空[1]。
而在国内,造型迥异的作业车则成了新势力们共同的梦魇。在小鹏P7涉及的事故中,被撞车辆是一辆普通轿车,人员则在事发时站在车后,更加大了识别难度——摄像头能分别识别人类与车辆,但两者叠在一起,特征发生干涉,对摄像头来说成了一个全新的物体。
作为一个人类会觉得这很荒谬,但其实类似的案例并不鲜见——贴在车上的广告人像,会被辅助驾驶系统识别成奔跑时速60公里的真人。
除此之外,视觉识别算法通常需要运行一段时间得出结果,耗时长的需要数百毫秒[2]。面对静止物体,识别时间可能会进一步延长至2-4秒多。在80km/h车速下,车辆在此时间可开出44-88米,系统容错率被进一步降低[3]。
某种程度上,现有辅助驾驶大多数时候都在依靠单目摄像头加传统毫米波雷达两个“二维生物”认识世界——摄像头看不到深度,毫米波雷达测不到高度。但问题在于,现实是复杂的三维,辅助驾驶需要人类这个智慧的三维生物来兜底。
遗憾的是,常常有过于乐观的驾驶员试图强行让辅助驾驶系统完成“升维打击”,将其作为无人驾驶系统使用。
02、软硬升级,就万事大吉?
过去两三年,车企用数十至数百T大算力芯片、三十乃至四十个传感器的配置刺激着用户的神经。
但很少有用户意识到,车辆算力、传感器数量翻倍并不代表辅助驾驶能力翻倍,一方面,这是因为算力是行驶安全的必要非充分条件,另一方面是因为在特定场景下,真正派得上用场的传感器往往只是少数。
在2021年蔚来ES8的碰撞事故中,车辆搭载了24枚传感器,包括一个三目摄像头,4个环视摄像头,5个毫米波雷达以及12个超声波雷达。尽管配置武装到牙齿,但在高速行驶时,能对前方有效探测的,只有三目摄像头与一枚前向毫米波雷达。
理论上,多目摄像头能够通过视差形成立体视觉,获得三维感知能力,但由于算力要求、可靠性、感知距离等限制,蔚来ES8的三目摄像头并没有采用立体视觉算法,实质是三个单目(类似于手机的长焦、中焦、广角)的叠加。
本质上,这和主流辅助驾驶硬件并无代差。
因此,特斯拉和新势力们今年新产品的重点发力方向,并非单纯堆叠传感器数量,而是提升传感器质量、完善传感器融合、升级软件算法,让智能汽车能够“活在三维空间”,以辅助驾驶的形态锤炼自动驾驶的能力。
特斯拉选择纯视觉路线,重构算法框架,使用AI加持的摄像头来测距,利用深度学习算法将多枚高清摄像头采集的二维图像转化为鸟瞰三维图。
但这一路径仍依赖大量数据训练,特斯拉向小部分车主先推送的测试版FSD(FullSelf-Driving,特斯拉称完全自动驾驶系统,但被美监管机构认定为辅助驾驶),其驾驶水平与人类差距仍然明显,不认路、撞边柱的情况并不罕见。
特斯拉FSD勇撞边柱,老师傅救车不及
相较于剑走偏锋的特斯拉,其他企业倾向于采用摄像头、毫米波雷达、激光雷达多传感器搭配的路线。
其中,高清摄像头因有助于提升识别能力,已普遍配置在国内L2级辅助驾驶系统上。
而在毫米波雷达领域,为应对传统毫米波雷达信息质量不高的问题,博世、大陆、华为、傲酷等公司研发了具备三维感知能力的4D毫米波雷达。不过该技术成熟度不高,目前尚未量产,此外其分辨率相较摄像头与激光雷达处于劣势。
在此背景下,激光雷达成为今年热度最高的智能驾驶传感器。
激光雷达通过发射脉冲激光、检测反射信号来测量与物体之间的距离,建立周围环境的三维模型。高线束的激光雷达既有探测距离远、测距准的优势,也有较高角分辨率。这些特点让激光雷达很难对横亘在路中的大体积静止物体视而不见。
在蔚小理的第二代平台车型和长安阿维塔、上汽智己等高端车型上,均配备了激光雷达,作为升级辅助驾驶的重要手段。
蔚来ET7激光雷达感知效果
只是激光雷达并非*,其在强光、雨天环境下的探测能力都会受到影响,此外由于数据样本较少,激光雷达的识别算法仍然不够成熟。
在一个多传感器的智能汽车感知架构中,摄像头、毫米波雷达、激光雷达的信号如何融合、置信,也依然是待解的难题。
而上述一系列配置是只是为了解决自动驾驶中的感知难题,在其之后,还有规划、控制、执行环节的技术问题待解。
这可能意味着在相当一段时间里,车主都要带着复杂的情感使用辅助驾驶——一方面作为主人,享受其对驾驶任务的减负;另一方面,又不得不作为保姆,小心翼翼地监护这个不成熟的系统,防止其宕机造成不可挽回的后果。
03、用户教育比技术升级更难
前些年,自动驾驶行业热钱汹涌时,从业人员热衷于讨论的都是 “无人驾驶出事时保车主还是保路人”这样的未来主义电车难题。
但如今的事实证明,让人民群众学会如何正确使用辅助驾驶更加迫在眉睫。今年上半年,国内L2级辅助驾驶渗透率已经达到30%[4]。
而正如上文所言,辅助驾驶对驾驶者态度的要求其实充满了哲学思辨:你不信则无意义,你太信可能付出生命。
2017年,谷歌旗下自动驾驶公司Waymo发现人性终究会输给这种考验:其员工在测试辅助驾驶系统时,熟悉功能后,会在时速90公里的车速下打盹、化妆、玩手机,出状况时根本无力接管[5]。
为此,Waymo紧急叫停辅助驾驶研发,全力开发无人车[5]。尽管今天从商业上来看,Waymo因为这个决策屡遭嘲讽,但从道德或者风险规避的层面,很难指摘其选择。
当Waymo的无人车还在亚利桑那凤凰城积累数据时,某些车企则选择先把辅助驾驶吹成自动驾驶甚至是无人驾驶,再分期兑现。而在实际中,用户将辅助驾驶有意无意当做自动驾驶使用乃至炫耀的行为并不鲜见。
这触发了辅助驾驶的剧场效应——当一个人选择站起身看戏,后面的人就没法坐着。
当一家车企可以每年都承诺“今年实现自动驾驶”而不付出任何代价,其他车企如果不跟进,就只能硬接对手的不正当竞争。
小鹏是众多车企中较为典型的一个:一方面大干快上,将“全栈自研”作为自身的核心竞争力大肆宣传;另一方面又谨小慎微,首创了辅助驾驶启用前需考试等方法,并在车上配置了DMS(全称Driver Monitor System,可在驾驶员疲劳、分神时予以提醒或退出辅助驾驶),引导车主正确使用功能。
但出于竞争策略、成本、用户隐私、体验等方面考虑,小鹏在内的绝大多数车企对驾驶员滥/误用辅助驾驶的约束都是软性的,DMS主要提供声音或震动警告,且可关闭。换句话说,主要靠驾驶员自觉。
政策法规正在试图遏制这种现象。欧盟E-NCAP要求,所有新车自今年7月开始必须强制安装DMS。而在国内,自2018年政策要求“两客一危”商用车强制安装DMS后,乘用车出厂标配DMS的规定据称也在研究中[6]。
无论这个规定能否落地,何时落地,每一个司机都应该在使用辅助驾驶时正视前方,握好方向盘,随时准备应对突发情况。毕竟,再高级的辅助驾驶,也只是“辅助”驾驶。
【本文由投资界合作伙伴远川研究所授权发布,本平台仅提供信息存储服务。】如有任何疑问,请联系(editor@zero2ipo.com.cn)投资界处理。