找回密码
 立即注册

深度 | ADAS/AD域控制器及芯片平台分析

电动车资讯(稿源) 2022-2-10 23:10 No.1851

来源 | BlackCoffee@知乎、汽车电子与软件


1. ADAS/AD概述


智能化是实现汽车作为人们第三生活空间这一目标的重要技术路径,当前汽车智能化主要有两大发展方向:驾驶自动化和座舱智能化。自动驾驶(ADAS/AD)的使命是将人的脚(纵向控制)、手(横向控制)、眼(感知)和脑(决策)等从驾驶任务中解放出来。人的精力被释放出来后,进一步促进了人在汽车内办公、休闲和娱乐的需求,这些需求推动了汽车座舱的数字化、信息化以及新兴的人机交互模式等技术的蓬勃发展,这也就是“智能座舱(Intelligent Cockpit)”技术。


目前自动驾驶技术在全球范围内已经进入快速发展期。随着搭载L1/L2级别ADAS功能的汽车进入大规模量产,L1/L2级别ADAS功能的市场渗透率将快速提升。而L3/L4级别自动驾驶系统仍处于小规模原型测试阶段。当今的自动驾驶行业,中国市场绝对是主力。今年中国L2的搭载量预计突破80万,中国品牌占据绝大部分份额。


ADAS功能市场渗透率的快速提升来自几个方面的驱动力:


1. ADAS相关的软硬件技术越来越成熟和稳定,成本也越来越低。比如:毫米波雷达跟五年前相比下降了超过50%。


2. 一些基本的ADAS功能(比如:自动紧急刹车AEB)被纳入到了各国的汽车评测体系(比如:C-NCAP)中,这在客观上极大的推动了这些ADAS功能的普及。


3. 中低端车竞争加剧,ADAS功能可以有效地提升品牌的科技感和驾车体验,造成主流合资品牌和自主品牌的重点车型甚至超过了一些国际上的高端品牌。


未来中国市场ADAS功能的渗透率还将持续快速提高,中低端汽车所配置的ADAS功能将逐步增多。根据艾瑞咨询研究报告显示,预计2025年ADAS功能在乘用车市场可以达到65%左右的渗透率。L3级别的高速自动领航HWP功能和L4级别的AVP自动泊车功能,目前车型渗透率较低,未来提升空间较大。


图3-1 ADAS功能市场渗透率预测 1.1 ADAS/AD功能汇总


目前行业内的ADAS系统实现了很多辅助驾驶的功能,总体上这些功能按照用途可以分为这么几类: 主动安全功能舒适性辅助驾驶功能泊车辅助功能监督/无监督自动驾驶功能等。


通常,L0-L2级自动驾驶,习惯用ADAS表征;L2+级自动驾驶,用ADAS/AD表征,以示过渡;L3-L4级自动驾驶,用AD表征。


1.2 ADAS/AD系统架构


智能驾驶系统本质上就是要解决三个问题: 1)我在哪?2)我去哪?3)我该如何去?基于这样一个系统模型,典型的智能驾驶系统或者自动驾驶系统通常由三部分组成:


1. 环境感知:感知系统依靠各种传感器(包括:摄像头、毫米波雷达、超声波雷达、激光雷达、高精地图/IMU/GPS等)来获取汽车所处环境信息和周边车辆、行人、交通信号灯和路标等信息,为汽车的综合决策提供数据支撑,解决“我在哪”的核心问题。


2. 决策规划:通过环境感知的结果进行数据融合,结合高精地图数据确定合适的工作模型,决定相应的轨迹规划方案,以达到替代人类作出驾驶决策的目的,将智能汽车以拟人化的方式融入整个交通流当中,解决“我去哪”的核心问题。


3. 控制执行:也就是对一个具体的最小决策规划结果的实际执行,从而达到规划的目的。具体在车上,通常体现为通过各种控制理论和算法来控制车辆的驱动、制动和转向系统,从而实现车辆的横向及纵向控制,使汽车精准地按照决策规划实现有效的避让、减速、车距保持、转向等动作,解决“我该如何去”的核心问题。


图3-2 典型自动驾驶系统的系统模型 2. ADAS/AD感知系统


自动驾驶的感知系统其实包括:环境感知、车辆自身状态感知以及车辆定位等几大模块。传感器是车辆感知系统收集环境信息、车辆自身状态信息和位置信息等的重要手段。自动驾驶车辆所配备的传感器可以分为三类:


  1. 车辆自身状态感知传感器(简称:自感知传感器):自感知使用本体感应传感器来测量车辆的当前状态,包括:车辆的速度、加速度、横摆和转向角等。本体感应西西里通常使用预先安装的测量单元来获取信息,比如:里程表、惯性测量单元(IMU)、陀螺仪(Gyroscopes)和来自控制器局域网(CAN)总线的信息。
  2. 定位传感器(Localization):定位传感器使用GPS等外部传感器(Exteroceptive Sensor)或惯性测量单元读数的航位推算进行定位,可以确定车辆的全球和本地位置。车辆高精度定位通常会基于多个传感器信息的组合来进行,比如:GPS、IMU、里程表和摄像头等。对多个传感器的数据融合可以最大限度减少单个传感器的局限性和缺点,提高定位的精度和可靠性。
  3. 环境感知传感器(Surrounding-sensing):环境感知传感器主要有摄像头、超声波雷达、毫米波雷达和激光雷达等四种。

环境感知系统依靠这些环境感知传感器来采集车辆所处环境信息数据,并对其进行一些列的计算和处理,从而对周围环境进行精确建模,其输出结果是一个环境模型。所谓环境模型是指车辆外部物理世界的数字表示,它包括道路、要避开的物体(比如:其它车辆、易受伤害的道路使用者等)以及可驾驶的“自由空间(Freespace)“的表示。


不同传感器特点各异


不同的传感器由于其工作原理不同,因此具有不同的特性。主机厂为了保证ADAS感知系统的冗余和鲁棒性,通常会采取多种传感器融合的配置方案。下表总结了ADAS系统中常见的各类传感器的特点:



2.1 ADAS系统传感器布局方案


主流的ADAS系统从L0级别发展到目前的L2+级别,技术方案已经发生了巨大的变化,从早起的分布式智能传感器方案演变到现在基于ADAS域控制器的ADAS域集中式方案。相应的传感器布局也有了很大的变化。


下面是常见的一些ADAS传感器布局中的术语简称:


  • FCM:Front Camera Module,前视摄像头总成,有单目(Mono)、双目(Stereo)、双焦(Bi-Focals)和三焦(Tri-Focals)4种形态。
  • FCR:Front Central Radar,前雷达模块,有MRR (中距,Mid-Range Radar) 和 LRR (长距,Long-Range Radar) 2种形态。一般1R1V方案(后续会详细解释该方案)中常选择MRR作为前雷达模块,5R1V方案中,常选择LRR作为前雷达。
  • SRRs:Side-Rear Radars,侧后雷达模块(左、右,一般左master右slave),有SRR (短距Short-Range Radar) 和MRR (中距Mid-Range Radar) 2种形态;SRR常为24G毫米波,MRR常为77-79G毫米波。这里SRR缩写就有两个含义,可能是指侧后雷达模块,也可能是指短距离毫米波雷达,因此加s区分侧后雷达模块(SRRs)。
  • USS:Ultra Sonic Sensor,超声波雷达传感器。

早期的L0-L2级别的ADAS系统是由几个互相独立的子系统组成的,每个子系统实现相应独立的ADAS功能,因此也称为分布式的ADAS系统方案。


图3-3 早期的L0-L2级别的ADAS系统实现方案


  • 前向ADAS系统:一般由单FCR,或者单FCM组成;当前主流配置是FCR+FCM组成的1R1V方案,能够支持到TJA/ICA的L2 ADAS(单车道驾驶辅助)。后续伴随视觉检测能力的提高,在L0-L2级ADAS/AD定位的车型上,有向单FCM发展趋势,因为车道线等横向控制所需感知信息,只有视觉能提供;省掉雷达能降低系统成本。
  • 侧后ADAS系统。一般由侧后方两个SRRs组成,实现大部分侧后向ADAS功能。
  • 自动泊车系统。即泊车控制器+12颗超声波传感器(USS)组成的APA(自动泊车辅助)系统;实现功能主要是APA和FAPA等。
  • 全景环视系统。即由全景环视控制器(实际现在该控制器目前已很少见,该零部件实体已经被吸收合并到其他控制器节点上了;主要由车机、泊车控制器或者域控制器所取代)+ 四个鱼眼摄像头组成。实现AVM功能(Around View Monitoring,环视监控)。

其中,前两个系统常称之为行车ADAS系统(Driving ADAS System),有时候这种行车ADAS方案也常被称作3R1V方案,3 Radar 1 Vision方案;后两个常称之为泊车ADAS系统(Parking ADAS System)。


到L2+级别的ADAS系统,集成度更高、性能更强大的ADAS域控制器整合了原来分散的ADAS子系统,原本分散系统所独占的传感器数据可以被多个ADAS功能所复用。


L2+级别的ADAS系统主要有两大类:1)多雷达域集中式方案,主要是5雷达方案,常见的有5R1V、5R2V、5R5V等方案;2)多视觉的域集中式方案,是指基于多雷达方案的继续演进,形成多视觉感知+雷达冗余感知的系统,比如5R12V方案。


下图是L2+级别ADAS/AD系统最大化的传感器架构方案——5R-12V-12USS方案。这个传感器布局架构的上限就是“坚决不上激光雷达”。只要上了激光雷达(一般是前向激光雷达),就到了L3级AD系统的传感器架构;


图3-4 L2+级别ADAS系统的终极传感器布局架构


  • 前视主摄像头(Main Camera, x1):主摄像头在L0-L2阶段对应FCM总成,即单目前视方案;在L2+域控方案中,作为dummy Camera,采用LVDS与域控制器连接。常见的HFOV(水平视场角,Horizontal Field Of View)主要有30° - 50° - 60° - 100° - 120°等核心设计值,一般较为圆整化。实际工程实现值,会根据具体光学镜头的不同,有48°/52°(设计值50°)、28°(设计值30°)等规格。摄像头色彩矩阵(Patten)通常为RCCB或RCCC,有向RYYCy发展的趋势。RYYCy没有Clear,色彩信息未丢失,可以保证色彩还原性能。检测距离150-170米。
  • 前视窄角摄像头(Narrow Camera, x1):30°左右的前视摄像头,用来观察红绿灯/车辆/行人等关键目标。一般与前视主摄像头会采用相同的图像传感器(比如同为1.3MP,或同为2MP,甚至同为8MP的Image sensor),缩小FOV后,像素密度变大,检测距离相对Main Camera更远;Patten常为RCCB或RCCC。检测距离250米。
  • 前视广角摄像头(Wide Camera, x1):HFOV约140°,类似特斯拉的三焦视摄像头中的广角摄像头。在上了8MP摄像头后,Main Camera的FOV都能达到120°了,Wide Camera可能就不需要了。
  • 侧前(左右两颗)摄像头(Corner Camera, x2):HFOV约70°-80°,后续会升级到约100°;类似特斯拉的B柱摄像头,向侧前方看,主要关注近距离车辆cut-in和自车变道需求。Patten常为RCCB或RCCC。
  • 侧后(左右两颗)摄像头(Wing Camera,x2):HFOV约80°-90°,后续可能会统一到100°。Patten常为RCCB或RCCC;关注侧边和侧后方目标,满足变道需求。
  • 后视摄像头(Rear Camera):同前向Main Camera,用于后方目标检测。

以上这些摄像头,也常称为Driving Cameras(行车摄像头,多用于行车功能)。


  • 前向鱼眼摄像头(Front Fisheye Camera):鱼眼环视摄像头之一,用于全景环视功能的Display(给人看的,显示功能,HMI),以及融合泊车功能的视觉Detection(给“车”看的,视觉感知,目标检测);常用色彩矩阵为RGGB,因为有色彩还原需求。若使用8MP摄像头,并使用像素合并技术降低到2MP使用,则可以选择RYYCy。
  • 左侧鱼眼摄像头(Left Fisheye Camera):同上。
  • 右侧鱼眼摄像头(Right Fisheye Camera):同上。
  • 后向鱼眼摄像头(Rear Fisheye Camera):同上。

以上这四颗鱼眼摄像头,也常称为Parking Cameras(泊车摄像头,多用于泊车功能);当然L2+阶段各个传感器不断融合,目前Driving Camera和Parking Camera的界限已经渐渐模糊了。泊车功能也常用前视摄像头做记忆泊车(MPA,Memory Park Assist);行车功能也常用侧边鱼眼摄像头检测车道线做safety stop。


除以上视觉传感器,还有很多主动型传感器:


  • 前向毫米波雷达(Front Central Radar):一般为LRR(Long-Range Radar),负责前方目标检测,具备良好的测距测速性能,也不容易被遮挡;
  • 侧前角雷达(Side-Front Radar, SFR x2)和侧后角雷达(Side-Rear Radar, SRR x2): 车辆四角,一般由SRR(Short-Range Radar)或MRR(Middle-Range Radar)充当。可以提供双模检测模式,Long Range Mode和Short Range Mode;长距离模式FOV小,检测距离远;短距离模式FOV大,检测距离近。在域控制器方案中,雷达不分Master和Slave。在分布式方案中,一般左侧雷达为Master,右侧雷达为Slave。
  • 超声波传感器(Ultra Sonic Sensor, USS):12颗,侧边4个长距离,前后8个短距的。

除了上诉环境感知传感器之外,L2+及以上ADAS/AD系统还需要GNSS定位、IMU(一般信号来源于安全气囊控制器或者ESP系统)、高精地图等不同感知数据源。


3. ADAS/AD域控芯片及方案


(一)L0-L2级别的ADAS方案


正如前所述,早期大多数L0-L2级别的ADAS系统都是基于分布式控制器架构,整个ADAS系统由4-5个ADAS子系统组成,每个子系统通常是个一体机整体方案(可以被看作是一个smart sensor),子系统独占所配置的传感器,通常相互之间是独立的。


以智能前视摄像头模块(Intelligent Front Camera Module,FCM)为例,整个子系统ECU主板上包含2颗芯片:一颗是 安全核(Safety Core);另一个颗是 性能核(Performance Core)。安全核一般由英飞凌TC297/397之类的MCU充当,承载控制任务,因此需要较高的功能安全等级需求;性能核通常是具有更高性能算力的多核异构MPU,会承载大量的计算任务。


下面是一个对L0-L2级别方案的总结:


  • L0级别方案:实现各种ADAS报警功能,比如:FCW、LDW、BSW、LCA等。分布式架构,通常由FCM、FCR、SRRs、AVS、APA等几大硬件模块组成。
  • L1级别方案:完成各种ADAS单纵向核单横向控制功能,比如:ACC、AEB、LKA等。也是分布式架构,硬件模块组成与L0级别方案大致相同。
  • L2级别方案:完成ADAS纵向+横向组合控制功能。比如:基于FCM+FCR融合系统,融合前向视觉感知和前雷达目标感知信息,实现TJA/ICA等功能;或者基于AVS+APA的融合系统,实现自动泊车功能。

(二)L2+以上级别的ADAS方案


分布式架构的ADAS系统存在两个致命缺点:1)各个子系统互相独立,无法做多传感器之间的深度融合。2)各子系统独占所配置的传感器,因此无法实现跨多个不同子系统传感器的复杂功能。


当整车EE架构演进到域集中式EEA之后,ADAS域控制器中配置了集成度更高、算力性能更高的计算处理器平台,进而可以支撑更复杂的传感器数据融合算法,以实现更高级级别的ADAS功能,比如:HWP、AVP等。


集中式ADAS域控制器方案从最早的四芯片方案,过渡到三芯片方案,再到当前业界主流的两芯片方案,如下图3-5所示:


图3-5 ADAS域控制器方案演进历史


下图3-6是一个典型的车载ADAS域功能结构示意图,无论硬件方案如何变化,各方案所需实现的功能结构都是类似的。


图3-6 典型的车载ADAS域功能结构示意图3.1 Mobileye EyeQ系列芯片方案


Mobileye成立于1999年,是以色列提供基于视觉算法分析和数据处理来提供ADAS/AD解决方案的全球领先者。其EyeQ系列芯片产品截止2021年底已经总计出货接近一亿片。尽管在L3/L4领域被英伟达和高通压制,但是在主流的L2级别ADAS市场,依旧是霸主,其市场占有率高达75%。2021年出货量高达2810万片。


Mobileye一直采用“ 传感器+芯片+算法”绑定的软硬件一体化的ADAS解决方案模式。这种“黑盒”商业模式的优点是开发周期短,客户可以快速出产品,比较受转型较晚或者软件/算法能力较弱的传统主机厂或者Tier 1厂商欢迎。但是缺点是导致客户开发灵活度下降,不能满足客户差异化定制产品的需求。越来越多的主机厂希望采用更开放的平台,把“芯片和算法剥离开,采用可编程的芯片,从而通过OTA来实现持续的算法迭代升级”。这也是软件定义汽车的思路。


下面是其EyeQ4/5/6三代产品的基本情况:



(一)EyeQ4芯片平台


EyeQ4新品配置了4个MIPS CPU核、6个矢量微码处理器(VMP)以及两个可编程宏阵列(PMA)。每个CPU核拥有4个硬件线程。总计2.5TOPS的算力,可以实现以每秒36帧的处理速度处理8路摄像头的视频信息。总体性能相比EyeQ3提升8倍之多,此外,EyeQ4还引入“路网采集管理(REM)”系统,它利用纵包数据的方法将路标、车道线等进行压缩,最终聚合成路书,从而为自动驾驶汽车提供更精确的定位。


下图是EyeQ4新品的功能模块图。


图3-7 EyeQ4芯片功能模块图


(二)EyeQ5芯片平台


EyeQ5主要有4个模块:CPU核、计算机视觉处理器(CVP)、深度学习加速器(DLA)和多线程加速器(Multithreaded Accelerator,MA)。其中,CPU和CVP是大头。


EyeQ5选择了Imagination的MIPS I6500作为CPU内核,每个MIPS I6500内核都拥有2个硬件线程。总共配置8个CPU内核,可提供高达52000 DMIPS算力。


EyeQ5总共配置18个CVP内核。CVP是Mobileye针对很多传统计算机视觉算法设计的新一代视觉处理器。Mobileye从公司成立时起就以自己的CV算法而闻名,也因为用专用的ASIC来运行这些CV算法而达到极低的功耗而闻名。


EyeQ5采用了7nm的制程工艺,总计可提供高达24TOPS的算力,并且只有10W左右的TDP功耗,因此有着极为出色的能效比。EyeQ5最多支持20个外部传感器,包括:摄像头、雷达或者激光雷达等。出色的计算性能使得我们在EyeQ5上进行深度的传感器融合,以实现更复杂的L2+/L3级别ADAS功能。


下图是EyeQ5的芯片功能模块图:


图3-8 EyeQ5 Block Diagram


(三)EyeQ6芯片平台


EyeQ6H与Mobileye之前的芯片最大的不同就是加入了两个小算力规模的GPU,一个是ARM Mali GPU,算力为64GFLOPS,预计用于ADAS的AR图像叠加输出。另一个是Imagination的BXS 1024 MC-2,算力为1000GFLOPS,预计用于OpenCL加速引擎。


CPU依旧是EyeQ5的MIPS I6500-F架构,不同之处在每个CPU内核的线程数从2个增加到4个,总共是8核32线程。


EyeQ6H可以用比EyeQ5多25%的功耗,提供比3倍于EyeQ5的算力性能。


图3-9 EyeQ6 ADAS域控处理器


Mobileye芯片平台最大优点是产品成本低,开发周期很短,开发费用极低,绝大部分功能都经过验证,没有风险。而缺点是系统非常封闭,难以搞特色功能,迭代困难,出了问题,较难改进或提升。对于传统车厂而言,Mobileye基本是唯一选择,对于总想与众不同的新兴造车厂家来说就有点无法适应。然而新兴造车企业毕竟还是极少数。Mobileye霸主地位至少五年内稳如泰山。


3.2 TI Jacinto 7芯片平台


2020年初的CES大会上,TI发布了其最新的Jacinto 7架构的系列车载芯片。上一代的Jacinto 6架构主要聚焦在车载Infotainment(信息娱乐)的功能,例如更炫的UI(用户界面)、更多的显示屏等。随着新一代Jacinto 7架构芯片的发布,可以看出TI已经基本放弃智能座舱和IVI市场,而重点转向ADAS域控和汽车网关域方向。


Jacinto 7系列芯片包含两颗车规级芯片:(1)用于高级辅助驾驶(ADAS)系统的TDA4VM芯片;(2)用于网关系统的DRA829V处理器。这两款处理器都包含了用于加速数据密集型计算任务的专用加速器(如计算机视觉和深度学习等),而且它们也都集成了支持ISO26262功能安全的MCU核,使得我们可以用一颗芯片来同时承载 ASIL-D高级别功能安全的控制任务传感器数据处理这样的计算密集型任务


3.2.1 TDA4VM ADAS芯片


基于Jacinto™ 7架构的TDA4VM处理器专为L2+或以上级别的集中式ADAS域控制器平台而设计的,它集成了各种加速器、深度学习处理器和片上内存,具有强大的数据分析和处理能力,是一个全功能、可编程的高集成度ADAS域控处理器平台。


这种多级处理能力使得TDA4VM能够胜任ADAS域的各种中心处理单元角色。比如:TDA4VM处理器支持接入8MP(800万像素)高分辨率的摄像头,更强大的前视摄像头可以帮助车辆看得更远,因此可以开发出更强的辅助驾驶增强功能。用户也可以用TDV4VM处理器同时操作4到6个300万像素的摄像头,并还可以将毫米波雷达、超声波雷达和激光雷达等其它多种传感器数据处理在一个芯片平台上进行 深度融合(后融合)。还可以将TDA4VM处理器用作自动泊车系统中的中心处理器,实现360度的环视感知能力,从而可以开发出用户体验更好的360度全屏泊车系统。


以下框图的左边是当前典型的ADAS 系统框图,主要数据处理部分是由GPU或NPU完成,在这颗应用处理器外,会集成MCU、外部ISP、以太网交换机和PCIe交换机等。右边是使用TDA4VM后的ADAS系统框图。TDA4把原来外部需要的上述模块集成到芯片中,其中包含通用处理部分的CPU、实时MCU、功能安全MCU、C7x DSP、MMA深度学习加速器、VPAC DMPAC视觉加速器、内部的ISP和以太网交换机,以及PCIe交换机等等。显然使用TDA4VM可以大大简化ADAS系统的硬件复杂度。


图3-10 TDA4x域控处理器简化ADAS系统架构


下图是TDA4VM处理器的Block Diagram。其芯片中关键特性如下:


  • 具有两个64位 Arm® Cortex®-A72微处理器子系统,工作频率高达1.8GHz,22K DMIPS;
    • 每个Cortex®-A72核集成了32KB L1 D-Cache和48KB L1 I-Cache。
    • 每个双核Cortex-A72 Cluster共享一个1MB大小的L2 Cache。
  • 有六个Arm® Cortex®-R5F MCU,工作频率高达1.0GHz,12 K DMIPS;
    • 每个核存储器为64K L2 RAM
    • 隔离安全岛中的MCU子系统有两个Arm® Cortex®-R5F MCU
    • 通用计算部分有四个Arm® Cortex®-R5F MCU
  • 两个C66x浮点DSP,工作频率高达1.35 GHz, 40 GFLOPS, 160 GOPS;
  • C7x浮点,矢量DSP,高达1.0 GHz, 80 GFLOPS, 256 GOPS;
  • 深度学习矩阵乘法加速器(MMA),1.0GHz高达8 TOPS (INT8);
  • 视觉处理加速器(VPAC)和图像信号处理器(ISP)和多个视角辅助加速器;
  • 深度和运动处理加速器(DMPAC);


图3-11 TI TDA4x处理器功能模块图


“C7x”是TI的下一代DSP,它将TI 行业领先的DSP 和EVE 内核整合到单个性能更高的内核中并增加了浮点矢量计算功能,从而实现了对旧代码的向后兼容性,同时简化了软件编程。新型“MMA”深度学习加速器可在业界最低功率包络内实现高达8TOPS 的性能。专用的ADAS/AV 硬件加速器可提供视觉预处理以及距离和运动处理。


TDA4VM处理器还能很好地满足整个系统的功耗要求,当胜任这些ADAS域控所需的高性能计算,TDA4VM处理器仅需5到20W的功耗,因此无需主动冷却。比如:Momenta曾在2020年CES有一个演示,在现场有客户触摸TDA4 的芯片外壳,发现芯片外壳上没有做任何的散热,可见功耗是非常低的。


TDA4VM处理器內的功能安全设计包括两部分:1)隔离的功能安全岛中集成了两个支持双核锁步模式的Cortex-R5F核,可以实现ASIL-D级别的功能安全;2)其余主处理器部分可以达到ASIL-B功能安全。


  • 隔离的功能安全岛中集成了两个支持双核锁步模式的Cortex-R5F核,可以实现ASIL-D级别的功能安全;
    • 功能安全岛中的两个ARM Cortex-R5F核带有浮点协处理器,支持双核锁步运行模式。
    • 512字节的Scratchpad RAM内存
    • 高达1MB、带有ECC支持的片上SRAM
    • 安全岛內专用的电压与时钟域(独立于主处理器)
    • 安全岛內专用的内存和接口设计(独立于主处理器)
  • 主处理器的其余部分可以达到ASIL-B功能安全:
    • 片上内存和互联都带有ECC保护
    • 内置自检机制(Built-in Self-Test,BIST)
3.2.2 DRA829V网关芯片

传统汽车过去一直在使用低速网络(比如:CAN/LIN等)进行通信,因此如果要对整车所有电控单元进行软件升级将会是非常缓慢的( 如下图的左边部分)。当现代汽车演进到域集中式EEA之后,比如常见的三域EE架构(ADAS域、座舱域、整车控制域),域与域之间的通信就需要非常高速的通信总线( 如下图右边),因此就需要中央网关跨域通信的网络协议转换和包转发功能。DRA829V处理器就是用于这个场景。


图3-12 DRA829V作为汽车域和域之间的通信网关


DRA829V处理器是业界第一款集成了片上PCIe交换机的处理器,同时,它还集成了支持8端口千兆支持TSN的以太网交换机,进而能够实现更快的高性能计算和整车通信。


下图的左边是TI理解的整个车身运算平台的框架,在这个框架应用处理器外需要接上外部的PCIe交换机、以太网交换机,也需要外部的信息安全模块(eHSM),外部的MCU。而下图的右边用DRA829V处理器把上述外部需要集成的IP模块全部集成进来,因此大大降低了硬件复杂度,提高了可靠性。TI汽车网关处理器最核心的一点是高性能处理器,同时需要功耗非常低。


图3-13 TI DRV8x系列网关芯片简化网关系统架构


DRA829V SoC 通过提供计算资源、在车辆计算平台中高效移动数据以及在整个车辆网络中进行通信,解决了新型车辆计算架构带来的难题,可以看到DRA829V 主要是处理数据交换和安全的问题。


与NXP S32G2/S32G3相比,虽然这两款芯片都是针对汽车中央网关场景,但是设计特点是不同。


图3-14 NXP S32G中央网关处理器


NXP的S32G是作为一个成熟的网络处理器设计的,最大的特色是通过网络卸载引擎来加速3层的协议转换和包转发。它完全是作为汽车域集中式EE架构中的中央网关场景量身设计的,可以有效处理各控制器的OTA升级、数据网关的交互,安全信息的传输等任务。


而DRA829V 更多是车内高速信号的集联和转发,这些能力使DRA829V更适合充当域内的高速信号的集联和转发节点(注意:这不同于NXP S32G的中央网关角色,可以认为是域主控处理器所需要的网关功能)。当然,DRA829V也可以作为中央网关的角色,但是因为缺乏类似于NXP S32G网关中包转发引擎,因此这并不是DRA829V的主打功能。


3.3 NVIDIA Xavier/Orin的方案


英伟达是全球最大的智能计算平台公司。公司早期专注于PC图形计算,后来利用其适合大规模并行计算的GPU架构,逐步将业务重点拓展到云端的AI加速、HPC高性能计算、AR/VR等领域。除了优秀的硬件平台架构和性能之外,NVIDIA在软件和生态上也具有巨大的优势。基于NVIDIA GPU架构的CUDA软件开发平台,是业界事实标准的异构计算框架。NVIDIA在CUDA计算框架的基础上,开发出了DNN加速库、编译器、开发调试工具以及TensorRT推理引擎等。


NVIDIA 2015年正式发布其面向移动端/机器人/自动驾驶等领域的智能处理器Tegra X1,它内置集成了当时NVIDIA最先进的Maxwell架构的GPU核。这颗SoC处理器的发布也在全球开启了嵌入式领域的AI计算时代。


借助于它在云端积累的CUDA+TensorRT生态优势,NVIDIA在自动驾驶领域提供“芯片+完全自动驾驶软件栈”端到端解决方案,包括:Drive AV软件平台、Drive IX软件平台、Drive Sim等完整的软件生态。


3.3.1 Xavier自动驾驶计算平台


NVIDIA在2018年CES上推出了Xavier平台,作为Driver PX2 的进化版本。NVIDIA称Xavier 是“世界上最强大的SoC(片上系统)”,Xavier可处理来自车辆雷达、摄像头、激光雷达和超声波等传感器的自主驾驶感知数据,能效比市场上同类产品更高,体积更小。“NVIDIA® Jetson AGX Xavier™ 为边缘设备的计算密度、能效和 AI 推理能力树立了新的标杆。”


2020年4月上市的小鹏汽车


P7(参数|图片),成为首款搭载 NVIDIA DRIVE AGX Xavier 自动驾驶平台的量产车型,小鹏 P7 配备了13 个摄像头、5 个毫米波雷达、12 个超声波雷达,集成开放式的 NVIDIA DRIVE OS 操作系统。


Xavier SoC基于台积电12nm FinFET工艺,集成90亿颗晶体管,芯片面积350平方毫米,CPU采用NVIDIA自研8核ARM64架构(代号Carmel), 集成了Volta架构的GPU(512个CUDA核心),支持FP32/FP16/INT8,20W功耗下单精度浮点性能1.3TFLOPS,Tensor核心性能20TOPs,解锁到30W后可达30TOPs。


Xavier是一颗高度异构的SoC处理器,集成多达八种不同的处理器核心或者硬件加速单元。使得它能同时、且实时地处理数十种算法,以用于传感器处理、测距、定位和绘图、视觉和感知以及路径规划等任务负载。


  • 八核CPU:八核 “Carmel” CPU 基于ARMv8 ISA
  • 深度学习加速器(DLA):5 TOPS (FP16) | 10 TOPS (INT8)
  • Volta GPU:512 CUDA cores | 20 TOPS (INT8) | 1.3 TFLOPS (FP32)
  • 视觉处理器:1.6 TOPS
  • 立体声和光流引擎(SOFE):6 TOPS
  • 图像信号处理器(ISP):1.5 Giga Pixels/s
  • 视频编码器:1.2 GPix/s
  • 视频解码器:1.8 GPix/s

Xavier的主处理器可以达到ASIL-B级别的功能安全等级需求。


下面是Xavier SoC的Block Diagram:


图3-15 NVIDIA Xavier处理器功能模块图


除了强大的计算资源外,Xavier SoC拥有丰富的IO接口资源:


Xavier有两个版本的片上系统(System On Module),分别是Jetson AGX Xavier 8GB和Jetson AGX Xavier:


  • Jetson AGX Xavier 8GB:是一款价格实惠的低功耗版的Jetson AGX Xavier,在软硬件上与现有的 Jetson AGX Xavier 完全兼容。其整个模块最高消耗 20W 功率,同时提供高达 20 TOPS 的 AI 性能。
  • Jetson AGX Xavier:作为世界上第一个专为自主机器人设计的智能计算平台,Jetson AGX Xavier可以提供很高的计算性能,同时保持较低的功耗。Jetson AGX Xavier平台可以预设10W、15W和30W三种运行模式,Jetson AGX Xavier Industrial(工业版)则提供两种可选的功耗模式:20W和40W。

下面是各不同版本的Jetson AGX Xavier片上系统的性能参数对比:


  • 基于Xavier的ADAS DCU方案

Ecotron( ecotron.ai/)是美国一家专注于ADAS DCU(ADCU)的制造商。它于2019年9月发布了EAXVA03型ADAS域控制器,这是一款采用NVIDIA Xavier SoC和Infineon TC297 MCU打造、面向L3/L4级别自动驾驶领域的高性能中央计算平台。按照设计方案考虑,Xavier智能处理器用于环境感知、图像融合、路径规划等, TC297 MCU用于满足ISO26262功能安全需求(ASIL-C/D级别)的控制应用场景也即作为Safety Core),比如安全监控、冗余控制、网关通讯及整车控制。


目前最新的型号已经发展到EAXVA04和EAXVA05。EAXVA04是EAXVA03的升级版,还是一颗Xavier+一颗TC297的方案,而EAXVA05则采用了两颗Xavier+TC297的方案,因而可以提供更大的算力。下面是EAXVA04 ADAS域控制器的结构图:


图3-16 EAXVA04的方案结构图


下面是EAXVA05 ADAS域控制器双Xavier+TC297 MCU的方案结构图:


图3-17 EAXVA05 ADAS域控制器结构图 3.3.2 Orin自动驾驶计算平台


2019年12月英伟达发布了新一代面向自动驾驶和机器人领域Orin芯片和计算平台。具有ARM Hercules CPU内核和英伟达下一代GPU架构。Orin SoC包含170亿晶体管,晶体管的数量几乎是Xavier SoC的两倍,具有12个ARM Hercules内核,将集成Nvidia下一代Ampere架构的GPU,提供200 TOPS@INT8性能,接近Xavier SoC的7倍,Orin SOC将在2021年提供样片,2022年正式面向车厂量产。


2020年5月GTC上,英伟达介绍了即将发布的新一代自动驾驶Drive AGX Orin平台,它可以搭载两个Orin SoC和两块NVIDIA Ampere GPU,可以实现从入门级ADAS解决方案到L5级自动驾驶出租车(Robotaxi)系统的全方位性能提升,平台最高可提供2000TOPS算力。未来L4/L5级别的自动驾驶系统将需要更复杂、更强大的自动驾驶软件框架和算法,借助强劲的计算性能,Orin计算平台将有助于并发运行多个自动驾驶应用和深度神经网络模型算法。


作为一颗专为自动驾驶而设计的车载智能计算平台,Orin可以达到ISO 26262 ASIL-D 等级的功能安全标准。


借助于先进的7nm制程工艺,Orin拥有非常出色的功耗水平。在拥有200TOPS的巨大算力时,TDP仅为50W。


下图是Orin SoC的Block Diagram:


图3-18 NVIDIA Orin处理器功能模块图


下表是Jetson AGX Orin的片上系统的性能参数:


3.4 高通Snapdragon Ride自动驾驶平台


2020年12月30日,长城汽车召开智能驾驶战略升级发布会,正式发布全新的咖啡智驾“331战略”。会上,长城还与高通达成战略合作关系,决定在量产车上搭载高通Snapdragon Ride自动驾驶平台。长城汽车计划在2022年推出全球首个基于高通Snapdragon Ride平台的L4级量产车。搭载IBEO的4D全半导体真固态 激光雷达,也就是Flash激光 雷达,最远有效距离可达300米。


高通Snapdragon Ride自动驾驶平台在硬件方面由两块芯片构成:1)SA8540主处理器(作为ADAS域应用主处理器,满足系统级安全需求);2)SA9000B加速器,提供自动驾驶系统所需的算力。全部达到ASIL-D,可支持L1~L5级别的自动驾驶。单板的AI算力是360TOPS(INT8),整体功耗65瓦,计算能效比约为5.5TOPS/W,通过PCIe交换机可以增加到4套计算平台,四加速器的AI算力总计达1440TOPS。


  • ADAS应用处理器:Kryo CPU、Adreno GPU、神经处理器、嵌入式视觉处理器
  • 自动驾驶专用加速器(ASIC):神经网络处理器阵列
    • L1/L2级ADAS:面向具备AEB、TSR和LKA等驾驶辅助功能的汽车。硬件支持:1个ADAS应用处理器,可提供30 TOPS的算力
    • L2+级ADAS:面向具备HWA(高速辅助)、自动泊车APA以及TJA(低速辅助)功能的汽车。所需硬件支持:2个或多个ADAS应用处理器,期望所需算力要求60~125 TOPS的算力
    • L4/L5级自动驾驶:面向在城市交通环境中的自动驾驶乘用车、机器人出租车和机器人物流车;所需硬件支持:2个ADAS应用处理器 + 2个自动驾驶加速器(ASIC),可提供700TOPS算力,功耗为130W

到目前为止,高通还未公开其SA8540P和SA9000B两款芯片的信息,高通单独为L3/L4自动驾驶开发全新芯片的可能性极小,所以我们可以根据高通的其它相关芯片产品来大致推测一下。高通在2021年上半年正式商业化一款AI 100边缘计算套件,采用骁龙865做应用处理器,AI 100做加速器,在M.2 edge接口下,算力为70TOPS,在PCIe接口16核心下,算力可达400TOPS。


根据长城的宣传图片,8540和9000都是7纳米,AI 100和骁龙865也是7纳米,PCIe也在长城的宣传图片上可以看到。当然为了车规,必须牺牲一点性能,通过降频来降低功耗,达到车规,因此性能降到了360TOPS。骁龙865是高通7纳米芯片中最顶级的,870的频率更高,最高达3.2GHz,功耗势必更高,因此8540最有可能是骁龙865的车规版芯片,当然X55的Modem可以去掉。高通只有一款加速器,SA9000B很可能就是AI 100的车规版。


图3-19 高通Cloud A100 AI加速处理器


高通AI 100的核心走的是DSP路线,单芯片最多有16个AI核心。每个AI核的SRAM是9MB,16个就是144MB,特斯拉FSD是64MB,基本上AI 100是特斯拉的两倍。高通套件用的是12GB的LPDDR5,特斯拉FSD只能对应LPDDR4。


高通当然不会只提供硬件,而是会提供全套软硬件解决方案,包括软件SDK、工具和仿真等。


图3-20 高通Snapdragon Ride自动驾驶软件栈架构


高通自动驾驶平台的合作伙伴,重点是其视觉感知和驾驶策略软件栈Arriver。实际Arriver就是Veoneer的软件品牌,泊车方面主要是法雷奥,Park4u是法雷奥泊车系统的名称。DMS方面主要合作伙伴是Seeing Machines,即凯迪拉克DMS供应商。


总体来看,高通的策略是自己提供端到端的完整软硬件解决方案,并同时积极布局上下游相应的生态合作伙伴。


4 . ADAS/AD芯片的关键指标


作为整个汽车的大脑,自动驾驶域控制器通常要连接多个摄像头、毫米波雷达、激光雷达以及IMU等传感器设备,并对来自这些传感器的大量数据进行处理和计算。尤其是摄像头和激光雷达所产生的数据量非常大,因此需要配置一个核心运算性能越来越强劲的自动驾驶主处理器。


下面我们总结一下自动驾驶主处理器所应具有的关键指标:


(一)CPU核心


在汽车电子领域,通常以DMIPS(Dhrystone MIPS)来测量CPU核心的整数计算能力。


Dhrystone标准的测试方法很简单,就是单位时间内跑了多少次Dhrystone程序,其指标单位为DMIPS/MHz。MIPS是Million Instructions Per Second的缩写,每秒处理的百万级的机器语言指令数。DMIPS中的D是Dhrystone的缩写,它表示了在Dhrystone标准的测试方法下的MIPS。


除了Dhrystone Benchmark之外,CoreMark是另一套在嵌入式领域常见的CPU核心性能的测试基准。CoreMark是由嵌入式微处理器基准评测协会EEMBC的Shay Gla-On于2009年提出的一项基准测试程序,其主要目标是测试处理器核心性能,这个标准被认为比陈旧的Dhrystone标准更有实际价值。


(二)Memory带宽


自动驾驶芯片平台因为要接入大量的传感器数据,因此内存的压力非常大。整个系统往往呈现出Memory-Bound系统的特点,因此内存带宽通常决定了系统性能的理论上限。


比如常见的256-bit LPDDR4@4266,其带宽为:(256 * 4266)/ (8 * 1000)= 136.5GB/s。256-bit LPDDR5@6400的带宽为:(256 * 6400) / (8 * 1000) = 204.8 GB/s。


(三)AI算力


自动驾驶系统因为要处理各种各样的传感器数据,因此对算力需求很大。其中当属对来自摄像头的视觉图像数据的处理最为消耗算力。


自动驾驶级别每升高一个级,其所需算力至少增加数倍。比如:L2级别需要10+ TOPS的算力,L3需要100 TOPS左右的算力,L4级别可能需要500 TOPS左右的算力,L5级别甚至需要1000+ TOPS以上的算力。


除了理论硬件算力之外,实际的算力利用率也至关重要。不同AI加速器的架构设计通常会导致不同的硬件算力实际利用率,因而相同的神经网络模型在两款具有相同硬件理论算力的AI加速器上跑出不同的实测性能。


(四)能效比


能效比是算力与TDP功耗之比,也即每瓦功耗所能贡献的理论算力值,这是衡量AI加速器设计好坏的一个非常重要指标。比如:NIVIDA Orin芯片的算力为200TOPS,TDP是50W,其能效比约为4TOPS/W。


(五)车规与功能安全


与消费电子产品相比,汽车芯片在安全性和可靠性上有这个最高的要求。


汽车芯片长年工作在“-40℃到125℃”高低温以及剧烈震动的恶劣环境下,为了保证汽车电子产品达到对工作温度、可靠性与产品寿命的高标准质量要求,国际汽车电子协会(Automotive Electronics Council,AEC)建立了相关的质量认证标准,其中AEC-Q100是针对于车载集成电路压力测试的认证标准。AEC-Q100标准经过多年发展,已经成为汽车电子产品在可靠性和产品寿命等方面的工业事实标准。


除了满足车规级要求之外,自动驾驶芯片也需要满足由ISO 26262标准定义的“功能安全(Function Safety,简称Fusa)”的认证要求。功能安全对芯片上的设计要求是要尽可能找出并纠正芯片的失效(分为:系统失效和随机失效)。系统失效本质上是产品设计上的缺陷,因此主要依靠设计和实现的流程规范来保证,而随机失效则更多依赖于芯片设计上的特殊失效探测机制来保证。


ISO 26262对安全等级做了划分,常见的是ASIL-B和ASIL-D级别。ASIL-B要求芯片能覆盖90%的单点失效场景,而ASIL-D则要求能达到99%。芯片面积越大,晶体管越多,相应的失效率越高。


(六)视觉接口与处理能力


摄像头接入目前通常采用MIPI-CSI2接口标准。MIPI CSI(Camera Serial Interface)是由MIPI联盟下 Camera 工作组指定的接口标准。CSI-2 是 MIPI CSI 第二版,主要由应用层、协议层、物理层组成,最大支持4通道数据传输、单线传输速度高达1Gb/s。同时接入的摄像头路数是自动驾驶芯片的一个重要指标。比如:NVIDIA的Xavier/Orin都允许同时接入16路摄像头。


ISP作为视觉成像处理的核心芯片,也是非常重要的。自动驾驶芯片通常内置集成的ISP模块。通过MIPI-CSI-2接口所连接的摄像头Sensor,先把Raw图像数据送给ISP进行处理,ISP处理过后的RGB/YUV图像数据再送给其它模块,比如:CODEC或CV加速器等。为了得到更好的图像效果,自动驾驶汽车上对ISP的要求非常高。


此外,跟视觉处理相关的重要特性还包括:图像绘制加速GPU,显示输出接口以及视频编解码等。


(七)丰富的IO接口资源


自动驾驶的主控处理器需要丰富的接口来连接各种各样的传感器设备。目前业界常见的自动驾驶传感器主要有:摄像头、激光雷达、毫米波雷达、超声波雷达、组合导航、IMU以及V2X模块等。


  • 对摄像头的接口类型主要有:MIPI CSI-2、LVDS、FPD Link等。
  • 激光雷达一般是通过普通的Ethernet接口来连接。
  • 毫米波雷达都是通过CAN总线来传输数据
  • 超声波雷达基本都是通过LIN总线
  • 组合导航与惯导IMU常见接口是RS232
  • V2X模块一般也是采用Ethernet接口来传输数据

除了上述传感器所需IO接口外,常见的其它高速接口与低速接口也都是需要的,比如:PCIe、USB、I2C、SPI、RS232等等。



本文来源【焉知新能源汽车】版权归原作者所有
【免责声明】
1、车城网发表的该观点仅代表作者本人,与本网站立场无关,如有侵犯您的权益,请联系立删。
2、版权归原作者所有,车城网平台仅提供信息存储空间服务。