随着智能科技的浪潮席卷汽车行业,自动驾驶技术正逐步从概念走向现实,但其全面普及之路仍面临重重挑战。传统智能驾驶系统常因规则固化、泛化能力不足、成本高昂及实际应用中的种种局限而步履维艰。在此背景下,Nullmax纽劢携其创新力作——Nullmax Intelligence(简称NI)横空出世,它以革命性的多模态端到端模型与安全类脑为核心,赋予了汽车前所未有的“看、听、读”能力,并能够精准输出可视化结果、详尽场景描述及智能驾驶决策,为智能驾驶领域带来了颠覆性的变革。NI的诞生,不仅是对智能驾驶技术瓶颈的一次勇敢突破,更是对未来出行方式的一次深刻重塑。
NI包含了创新的多模态端到端模型和安全类脑,使汽车具备能看、会听、可读的感官能力,并能输出可视化结果、场景描述以及驾驶行为。基于NI,Nullmax纽劢计划2025年实现全场景智驾应用的落地,并将“用眼观察、用脑思考、与物理世界交互”的AI能力广泛拓展到载人、运货和机器人等领域。
近年来,汽车智能化程度快速提升,智驾应用场景逐步扩大,高阶功能向城市加速渗透。然而,由于重规则、泛化差、成本高、开不好等问题,智能驾驶的普及受到限制。Nullmax Intelligence的推出,正是为了应对这些行业难题。在视觉基础上,NI增加了对声音、文本、手势等信息的输入支持,通过多模态端到端模型进行任务的推理,并构建了基于类脑神经网络的安全类脑。
在技术层面,Nullmax Intelligence深度整合了Nullmax在静态感知、动态感知、时序融合方面的多项高水平研究,并将岩芯数智全国*非Attention机制通用大模型Yan1.2在车端进行部署,与岩思类脑研究院合作构建类脑神经网络。这种独特的架构设计,使得Nullmax Intelligence可以像人类一样,根据接收的图像、声音、文字等各种信息进行思考,并具有“趋利避害”的生物本能,从而实现更高程度的安全、智能、自由。
Nullmax Intelligence的最 大特点在于支持纯视觉、真无图、多模态端到端的全场景自动驾驶应用。在不依赖激光雷达、双目相机的情况下,Nullmax可以通过纯视觉进行精准障碍物检测和三维重建,并通过实时生成局部地图结合基础导航,实现不依赖高精地图、轻地图、低精地图、众包地图的真无图应用。多模态端到端以视觉为核心,可以输出包含静态感知、动态感知、场景描述和驾驶行为在内的多种信息。
这一系列的特点使得Nullmax纽劢的方案具有出色的泛化能力,支持全场景应用,并且算力需求更低,小于100T的稀疏算力即可实现全场景的领航辅助驾驶。更低的传感器成本和芯片成本,也令Nullmax的方案具有突出的性价比优势,更加适合普及应用。
为支持Nullmax Intelligence模型壮大和应用拓展,Nullmax构建了数据平台和算法平台。在真实数据基础上,Nullmax通过AIGC方式生成虚拟数据,加速模型开发与迭代。面向真实数据和虚拟数据,在整个获取、挖掘、标注以及模型训练、评估、推送的全流程当中,Nullmax均具备高效的自动化处理。
Nullmax纽劢的算法平台可以支持多种车型,适配不同数量传感器,且易于部署。除了应用于自动驾驶汽车,这些算法能力同样可以复用至机器人上,比如视觉导航、学习人类行为、理解并与物理世界进行交互。
Nullmax Intelligence以其*的全场景适应能力、低算力需求及高性价比优势,正稳步迈向智能驾驶的新纪元。通过构建高效的数据与算法平台,Nullmax纽劢不仅加速了模型的开发与迭代,还确保了技术的持续进化与广泛应用。Nullmax Intelligence,正以科技之名,引领我们驶向更加智慧、便捷的未来。