自动驾驶车辆和机器人依靠雷达通过使用大量前端和 MIMO 天线来检测周围环境。 但要做到这一点需要大量雷达意味着管理大量数据,这通常会引起问题。总部位于加州的芯片制造商 Ambarella 希望克服这些挑战,并通过其新型中央处理 4D 成像雷达系统简化整个流程。它允许对原始雷达进行中央处理,并与其他传感器输入(包括摄像头、超声波和激光雷达)进行深度、低级融合。
为什么要让处理集中化? 集中处理可在基于人工智能的高级驾驶员辅助系统 (ADAS) 和 L2+ 至 L5 自动驾驶系统(包括自动机器人和无人机)中提供更好的环境感知和更安全的路径规划。 新系统采用在 5 纳米 CV3 AI 域控制 SoC 上运行的 Ambarella Oculii 雷达技术,以及可动态调整雷达波形以适应周围环境的 AI 软件算法。
Ambarella 表示,通过使用更少的 MIMO 通道,它可以减少数据带宽,并实现比其他 4D 成像雷达更低的功耗。 其采用集中式 4D 成像雷达的 Oculii 技术提供了灵活且高性能的架构,使系统集成商能够确保其雷达设计面向未来。
(相关资料图)
Yole Group 旗下 Yole Intelligence 射频活动团队首席分析师 Cédric Malaquin 解释道:“2021 年,汽车 ADAS 市场约 1 亿个雷达单元。考虑到更严格的安全法规以及更先进的驾驶自动化系统的上路,我们预计到 2027 年这一销量将增长 2.5 倍。 事实上,原始设备制造商将从目前每辆车配备 1 到 3 个雷达传感器,转变为每辆车配备 5 个雷达传感器作为基准。”
“此外,关于雷达处理划分和许多相关发展存在着令人兴奋的争论。 一种方法是集中式雷达计算,它将使 OEM 能够提供性能显着提高的成像雷达系统和新的 ADAS/AD 功能,同时优化雷达传感的成本。”
Oculii Algos 是 CV3 家族的核心
为了实现这一集中式系统,Ambarella 优化了 5 纳米的 CV3 AI 域控制器 SoC 系列的 Oculii 算法,并添加了特定的雷达信号处理加速功能。CV3 的每瓦人工智能性能提供了实现高雷达密度、范围和灵敏度所需的高算力和内存容量。 据该公司称,单个 CV3 可同时提供高性能、实时的感知处理、低级传感器融合和路径规划。
这并不是说 4D 成像雷达技术不会面临自身的挑战。通常,4D 雷达的数据集太大,无法集中传输和处理。 这是因为它们每个模块每秒生成多个太比特数据,并且每个雷达模块消耗超过 20 W 的功率。 当覆盖车辆所需的六个或更多雷达模块相乘时,中央处理器可能难以处理。
传感器融合
安霸将如何解决这个问题?其传感器融合使系统能够根据应用改变车辆雷达的扫描特性,例如停车时视野和范围的不同设置。 这减少了每个无处理器 MMIC 雷达头的天线阵列,同时实现了 0.5 度的联合方位角和仰角分辨率。集中式架构在最大工作周期下的功耗也更低,并将数据传输带宽减少了84%。
此外,它还允许根据实时条件动态分配 CV3 的处理资源。 例如,如果您在雨中在高速公路上行驶,CV3 可以专注于来自前置雷达传感器的数据,以进一步扩大车辆的检测范围,同时提供更快的反应时间。 集中式架构的其他好处包括更轻松的无线 (OTA) 软件更新,以实现不间断升级。
随着我们开始看到更多的智能汽车,尤其是自动驾驶汽车出现在道路上,Ambarella 的中央处理系统似乎很有吸引力。 然而,到目前为止,该公司尚未透露何时上市或哪些制造商表示了兴趣。 早在 1 月份,他们就在 CES 2023 上展示了这项技术,但此后一直保密。