听说有一款专门用来清洗车载前视三目摄像头镜片的眼镜超声波清洗机十大名牌有没有了解的?想知道一下效果怎样

专栏之前的文章介绍了基于各种相机,激光雷达和毫米波雷达的环境感知算法,以及多传感器融合的算法。为了将理论和实际相结合,我们有必要也来了解一下在自动驾驶行业里各家公司都采用什么样的感知方案。

自动驾驶公司大致可以分为两类。一类是主机厂,包括传统的车企以及所谓的造车新势力。前者以燃油车为主,比如奔驰,宝马,通用等,后者主打新能源汽车,比如特斯拉,以及国内的“蔚小理”。另外一类是方案供应商,包括汽车行业传统的Tier1和一些高科技公司。前者主要为主机厂提供一体化的解决方案,包括但不限于自动驾驶系统,比如博世,大陆,安波福等,后者与主机厂和Tier1合作,提供自动驾驶系统中不同模块的解决方案,也有的直接与主机厂合作造车,或者联合打造RoboTaxi的方案,这里典型的公司包括百度,Waymo,Mobileye等。

在这篇文章里,我会按照以上分类来介绍不同公司设计开发自动驾驶系统的策略和近期的发展状况,尤其会重点介绍其系统在环境感知方面的配置方案。

在国内的自动驾驶企业中,百度的起步较早。2013年,百度内部启动了无人车项目,并于2017年推出了Apollo计划,其目的在于向汽车行业及自动驾驶领域的合作伙伴提供一个开放、完整、安全的软件平台,帮助他们结合车辆和硬件系统,快速搭建一套属于自己的完整的自动驾驶系统,降低自动驾驶技术的研发门槛。

在自动驾驶的研发方面,百度的优势在于AI技术储备和高精度地图。虽然Apollo平台融合了这两大优势,但是近些年来随着各种新势力的加入,其在自动驾驶研发中占据的分量反而有减弱的趋势,而且到目前为止也没有量产车型大规模的搭载Apollo系统。

这其中最主要的原因是Apollo计划的L4级目标定位过高,量产落地比较困难。目前L4级别的自动驾驶车辆只能在非常限定的环境(比如封闭场景或者特定路段)下运行,在个人乘用车这个领域现在还是无法实现的。此外,法律法规层面也有很多的问题。因此,对于车企来说,更好的自动驾驶实现方式首先量产L2/3级别的辅助驾驶系统,然后再逐步过渡至L4级别。其实车企还有另外一层顾虑,那就是最近被热炒的“灵魂”之争。智能汽车的核心在于软件,如果完全采用了Apollo的系统,那么车企未来就会沦为代工厂,这肯定是他们不愿意看到的。

由于以上种种原因,最初百度在Apollo上的构想,也就是对车企输出技术,并没有完全实现。因此,战略层面上,百度开始转型,采用了三管齐下的模式:一是继续为车企提供解决方案;二是自己造车;三是共享无人车。

第一点还是原来Apollo的思路,百度在其中扮演类似于博世,大陆这种Tier1的角色,为车企提供自动驾驶方案,比如领航辅助系统ANP(Apollo Navigation Pilot)和自主代客泊车系统AVP(Automated Valet Parking)。ANP与AVP结合起来,理论上可以实现起点到终点全程无需干预的辅助驾驶能力。目前,ANP和AVP已经搭载到威马2021年10月发布的W6车型上。在感知方面,该系统配置了12个摄像头、5个毫米波雷达和12个超声波雷达。目前这套系统还不能完全排除人工接管的需求,因此在功能上来说只能算是L2/3级系统。

百度ANP和AVP的传感器配置

第二点就是百度和吉利合作建立的集度汽车,其目的就是通过自己造车来把百度的自动驾驶技术(也就是Apollo平台)更快速的推向市场集度汽车计划2022年发布第一款车型,定位是L4级的自动驾驶。目前还不太清楚采用的传感器方案,但是从近期传出的百度与禾赛合作的消息来看,激光雷达很可能是会采用的。而且基于目前的感知技术,激光雷达对于L4级的系统来说也是不可或缺的。

第三点则是RoboTaxi服务,也就是百度推出的“萝卜快跑”项目,这是L4级别的自动驾驶系统。百度的自动驾驶测试车最早时候有2个安全员,随后减少到1个,位置也挪到了副驾座位,最后变成5G云代驾,在部分地区实现了车内无人的运行。2021年6月,百度推出的Apollo Moon第五代无人车,成本控制在50万元左右。传感器方面,在ANP车型的基础上,增加1颗定制激光雷达和相应无人驾驶冗余。

与百度三管齐下和传统车企逐级推进的策略不同,Waymo从一开始就将目标锁定在了L4级别的自动驾驶,人类完全是乘客的角色,所有操作都由汽车自己完成。虽然比较激进,但确实也避免了低级系统由于过度宣传导致的安全隐患。传感器方面,Waymo的无人车可以说是武装到了牙齿,包括车顶,车前,车后的激光雷达,以及多个毫米波雷达和摄像头。

另外,与大多数车企和自动驾驶公司不同的是,Waymo使用的激光雷达走的是自主研发的路线,其产品基于机械旋转技术,配有旋转镜和转盘。不过2021年8月,Waymo决定停止出售激光雷达,将战略重心放在Waymo One(自动驾驶出租车)和Waymo Via(自动驾驶货运配送)业务上。

2018年,Waymo首次推出了自动驾驶出租车服务,并在2020年秋将安全员从车中撤走。这是全球首次向公众开放的完全无人驾驶出租车。不过,目前乘客只能在凤凰城郊区体验该项服务。虽然没有安全员,Waymo仍然有一支远程团队,通过车身上的摄像头实时的监测车辆的行驶状况,并在需要的时候接管车辆。这与百度的5G云代驾有着类似的作用。从这一点上也可以看出,目前的RoboTaxi还不是100%的L4系统,但是非常接近了。

Waymo Via类似于RoboTruck,针对的主要是高速公路的场景。这种结构化的道路相对普通城市道路来说要简单一些,但是无人卡车的挑战在于车身重量大,刹车距离长,出现突发状况是需要更长的反应时间。也就是说,自动驾驶系统需要看的更远,才能更早的做出决策,为避免或减小事故争取时间。因此,Waymo Via卡车配备了更高分辨率的激光雷达,将感知范围扩展到500米。但是,到目前为止,Waymo Via的卡车还没有实现量产。

Momenta的产品包括不同级别的自动驾驶方案以及衍生出的大数据服务,其核心的策略是同时发展量产自动驾驶系统Mpilot(L2/3)和完全无人驾驶系统MSD(L4/5)。Mpilot的计划中包括高速路场景Mpilot Highway、城区场景的Mpilot Urban,自主泊车场景的Mpilot Parking,所有方案均以可量产传感器为基础。通过搭载在量产车辆上的Mpilot系统收集海量数据,解决机器学习中的长尾问题(也就是Corner Case),并推动MSD系统的迭代和升级。这就需要一个非常高效的数据闭环处理流程,包括自动化的数据采集,分析,标注,模型训练以及测试仿真,也就是Momenta常说的飞轮式发展。可以说,Momemta技术路线的核心就是数据,通过数据驱动的方法来推动系统的迭代和升级。其实很多自动驾驶公司也都是这么做的,只不过没有没有明确的提出这个概念。比如Tesla目前的量产车就在不断的收集数据,回流之后经过数据中心的处理之后,再用与模型的更新和迭代。

关于数据驱动的策略,这里稍微说一些我自己的观点。对于一套人工智能系统(其实说白了就是深度学习,或者说机器学习)来说,最重要的无非两件事:算法和数据。在传统机器学习的时代,算法比数据重要;而在深度学习时代,数据至少变得和算法一样重要了,甚至有人认为数据才是第一位的。到底哪一个更重要呢,这个问题不能一概而论。针对某一个具体的应用,在开始研发的阶段,可能算法是更重要的。因为即使是模块化的深度神经网络,你也需要先理解需要解决的问题,然后再设计算法,并根据实际测试的结果来进行结构上的改进。视觉领域应用的神经网络也是经过了一段时间的发展和迭代,其核心结构才慢慢稳定下来。在这个阶段,算法的研发应该是更重要一些的,性能的提升也主要来源于算法的改进。当算法的架构相对稳定了之后,数据就变得越来越重要的,这时候性能的提升会主要来自于数据质量和数量的提升。

目前这个阶段,视觉算法相对成熟,以视觉感知为基础的自动驾驶系统更多的是在拼数据。从这个意义上来说,像Momenta和Tesla的数据驱动的策略是非常有效的,而且视觉数据的通用性也很好的支持了这一策略。但是另一方面,我们也要看到目前自动驾驶系统的进阶还离不开激光雷达和毫米波雷达。这两种传感器的感知算法目前还处于探索阶段,不同型号的传感器其数据的通用性也远不及视觉数据。尤其是毫米波雷达,不同厂家的产品产生的数据差别非常大,想要收集可以复用的数据比较困难。除非是大规模的量产同一车型,采用完全同样的传感器,但是这在硬件设备快速发展的今天又几乎是不可能的。因此,数据驱动的策略是否也适用于高阶的自动驾驶系统,目前来看还很难预测。

文远知行主要面向的是L4级别的自动驾驶系统。2019年在广州获得20张自动驾驶路测牌照,并推出了RoboTaxi服务,规模在国内仅次于百度。文远知行提出了一个三角模式,也就是“主机厂/Tier1+自动驾驶公司+出行公司”的闭环模式。作为自动驾驶公司,文远知行与雷诺日产三菱联盟合作,采用日产的Leaf车型作为自动驾驶系统的载体。与其他主机厂比如宇通和东风的合作也在推进中。同时,文远知行与广州市白云出租车集团、科学城集团成立了合资公司文远粤行,负责RoboTaxi的运营工作。

以和日产合作的Leaf2车型为例,我们来看看文远知行推出的L4级传感器组合套件。车顶搭载了具有360度视场的多个摄像头,激光雷达和毫米波雷达,可以对目标进行多重确认,保证了准确性和冗余性。同时在车前方也配置了一个激光雷达,可以更好地检测前方的细小物体,有效地弥补车顶传感器的盲区。不过从下图来看,这更像是一款L4级的测试车辆。

图森(TuSimple)是一家以卡车自动驾驶系统为主要业务的公司。与乘用车类似,卡车的自动驾驶系统也包括了摄像头,激光雷达和毫米波雷达这三种主要的传感器。但是,卡车的行驶场景与乘用车还是有一定的差别。卡车一般是在高速公路的场景下行驶,而且其自重比较大,刹车距离更长,因此需要更远的感知距离。此外,卡车经常需要在夜间环境下行驶,高速公路上的光照环境也比城市道路差很多,这就要求系统在光照条件较差时也有较好的感知能力。

图森采用了专门的摄像头,以及特殊的软件算法,可以使白天环境下感知距离达到1000米。在这个距离范围内,图森的感知系统可以能够检测前方车辆的类别,横向位置(属于哪条车道)和纵向位置(距离以及距离的变化情况)。

图森的视觉+激光雷达感知系统

图森自主研发高动态、低照度的相机,以更好的适应夜间环境。当然,在这种场景下,红外相机和雷达也是一个很好的选择。在这个方面,图森也与德国汽车供应商采埃孚(ZF Group)合作研发可见光和红外相机的组合,以及融合激光雷达和毫米波雷达的技术平台。

最后简单说一下华为。2021年4月,华为与北汽极狐合作发布了其智能汽车解决方案HI。华为走的也是多传感器融合的技术路线,该款车型搭载了3个激光雷达,6个毫米波雷达,12个摄像头和13个超声波雷达,同时搭载算力可达352Tops的华为芯片,面向L3级以上的自动驾驶应用。这个配置主要的特点在于3个激光雷达,分别位于车辆前方和两侧,可以实现360度的全视角感知,这也是自动驾驶系统从结构化道路进入城区道路的关键。

除了自动驾驶系统和方案,华为还自主研发激光雷达和毫米波雷达,以Tier1的姿态参与市场竞争。激光雷达方面,华为推出了96线的车规级混合固态激光雷,并宣称要将成本压缩到200美元,甚至100美元。毫米波雷达方面,华为的4D成像雷达采用多芯片级联的方案,其垂直角度分辨率可以达到2°,水平角度分辨率可以达到1°。

简单总结一下,自动驾驶的环境感知可以分为硬件和软件两部分。硬件主要就是各种传感器以及计算设备,软件主要就是基于不同传感器的感知和融合算法。

硬件的部分主要掌握在各级供应商手里(Tier1,Tier2等),当然主机厂也会通过投资和合作的方式进行布局和渗透,尤其是在新兴的激光雷达和计算芯片领域。

软件部分基本所有公司都在做,但是目的可能不太一样。主机厂目标是要全栈自研,当然需要将核心的软件掌握在自己手里。供应商也要自研软件算法,这样才能增加其硬件产品的附加值。其他一些高科技公司,也会推出部分或者整体的解决方案,供主机厂和供应商选择。核心的技术未来会掌握在谁的手里,目前还很难下定论。

几百块的雷达都要拿掉,马斯克为何要死磕纯视觉自动驾驶?

马斯克又干了一件“奇葩”事!

就在不久前,他发推特表示,特斯拉美国工厂从5月份开始生产没有搭载毫米波雷达的Model 3和Model Y车型。紧接着,特斯拉官网做出更新,在其车辆的传感器介绍页面也取消了毫米波雷达的图示。

▲无毫米波雷达的Model Y已经交付用户

由此,特斯拉成为目前全球唯一一家只使用摄像头和超声波传感器(业内也称超声波雷达)来实现L2级自动驾驶的车企。考虑到超声波传感器仅仅是在自动变道等功能下发挥作用,说其L2自动驾驶系统是纯视觉方案也并不为过。

马斯克一直都是业内知名的反激光雷达斗士,眼下更进一步连成本只有几百块的毫米波雷达也干掉了,简直就是车圈”雷达杀手“。

马斯克和特斯拉这一举动出炉后引起了自动驾驶业内和相关机构的密切关注。

一方面各路专家和媒体纷纷撰文探讨纯视觉自动驾驶方案的利弊,另一方面美国高速公路安全管理局等专业机构也对此表示担忧,美国媒体消费者报告更是直接将Model 3从他们的“最优选车型名单“上除名,可见特斯拉这一做法的争议非常之大。

毫米波雷达已有几十年的装车历史,成本也非常之低,马斯克取消毫米波雷达究竟是为了节省成本还是为了其它目的?单目摄像头难以实现测距和测速要求,特斯拉的纯视觉方案又将如何突破这一技术挑战呢?

为了解答这些问题,车东西日前与多家自动驾驶公司的感知技术专家进行了深入交流,试图找出马斯克充当”雷达杀手“背后的逻辑。

马斯克再干奇葩事 低价车型连雷达都不要了

就在上周,特斯拉美国官网Autopilot介绍页面上,有关毫米波雷达的介绍被突然删除,自动驾驶传感器仅保留摄像头和超声波传感器。

而在此前,特斯拉所有车型都使用了同一套传感器配置和计算平台。

▲特斯拉美国、中国官网对比

这与马斯克社交账号上发表的内容一致。当时他宣布,即将开始生产不带毫米波雷达的特斯拉车型。他还宣布,纯视觉感知的FSD以及FSD beta也会在近期推送。

▲马斯克宣布取消毫米波雷达

根据特斯拉美国官网Autopilot介绍页面的信息,特斯拉单纯去掉了毫米波雷达,其他传感器组件并未升级,也没有任何改动。仍然配备8个摄像头、12个超声波传感器。

其中,前视摄像头采用三目配置,主摄像头能够覆盖大多交通场景,探测距离达到150米。前视宽视野摄像头拥有120度鱼眼镜头,能够拍摄交通信号灯、距离较近的障碍物,最大探测距离为60米。前视窄视野摄像头用于拍摄远距离物体,适用于高速场景,最大探测距离为250米。

此次前向毫米波雷达被移除,其探测距离为160米,与前视主视野摄像头相当,探测视野的宽度相比窄视野摄像头还要小。

此外,两个侧方前视摄像头、两个侧方后视摄像头、一个后视摄像头以及12个超声波传感器仍然保留,且和此前车型一致。

从传感器配置上不难看出,视觉传感器拥有比毫米波雷达更远、更广的探测距离,或许这是马斯克希望取消毫米波雷达的第一个理由。

在特斯拉官网的支持页面上,特斯拉详细介绍了向纯视觉过渡的过程。

▲特斯拉宣布向纯视觉迁移

今年5月起,特斯拉为北美市场制造的Model 3和Model Y车型将不再配备毫米波雷达,这些车型已经开始交付。在交付之前,特斯拉会向车主发送邮件,告知车辆传感器配置变化。

并且,没有配备毫米波雷达的特斯拉车型在进行L2级自动驾驶过程中,还有部分功能受限。

其中,特斯拉基础版辅助驾驶功能之一——车道内自动辅助转向、加速和制动功能的最高限速为75英里/小时(约合120.7km/h),而当前特斯拉车型能够以最高150km/h的速度实现主动巡航。同时,特斯拉在行驶中的跟车距离以及刹停后的跟车距离会适当增大。

另外,如果用户购买了完全自动驾驶能力(FSD)套件,智能召唤功能暂时不能使用,紧急避让功能也无法使用。

特斯拉承诺,在首批纯视觉车型交付后的几周内,会通过OTA更新实现被限制的功能,让纯视觉车辆的自动驾驶能力和老款车型相同。

对于即将交付的新款Model S和Model X车型,特斯拉仍然为所有车型配备了毫米波雷达,自动驾驶算法也将融合雷达的感知数据。

这是因为,特斯拉Model 3和Model Y两款车型的保有量更多,特斯拉能够在短时间内分析大量真实世界的数据,促进纯视觉算法的迭代。

未来,Model S和Model X车型也将取消毫米波雷达,转向纯视觉感知,一切只是时间问题。

取消雷达有利有弊 面临的技术挑战可不小

马斯克认为,取消毫米波雷达是特斯拉多年来的自动驾驶布局。他曾经向网友提问,如果毫米波雷达和摄像头感知的数据相悖,你更愿意相信哪个?

显然,马斯克更相信摄像头的数据,因为所见即所得。

同时,取消毫米波雷达还能给特斯拉带来一大波好处,其中就包括成本降低、省去传感器融合步骤、以及实现马斯克心目中的完全自动驾驶目标。

▲特斯拉对毫米波雷达的介绍

不过,取消毫米波雷达要面临的技术挑战有很多。

毫米波雷达在汽车行业内已经使用多年,已经得到了大量验证。同时,摄像头感知的内容并不包含深度信息,需要毫米波雷达辅助感知,二者优势互补实现精准感知。

据了解,无论是L2级自动驾驶系统还是正在研发中的L4级自动驾驶,毫米波雷达仍然是刚需传感器,拥有着摄像头、激光雷达无可比拟的优势。

1、摄像头在雨、雪、雾天气性能下降

车辆进行自动驾驶的过程中,如果遇到雨、雪、雾等恶劣天气时,摄像头所见的景象和人眼基本相同,视线受阻,安全性降低。

自动驾驶公司PIX Moving自动驾驶首席顾问Alexander Carballo Segura认为,毫米波雷达的重要能力之一就是穿过恶劣环境,识别前方存在的障碍物。

这种能力得益于毫米波雷达发出的波是电磁波,电磁波在传导过程中,恶劣环境只会造成微弱影响,但不会完全无法传递。

而视觉传感器在恶劣环境下只能“所见即所得”,局限性较大。

今年以来,激光雷达正在逐渐量产,今年年内国内消费者就能购买搭载激光雷达的车型。但激光雷达所发出的光波受环境影响非常明显,光的穿透力有限,并且会在传播过程中发生反射、折射等多种情况。极端环境下,激光雷达可能失效。

2、省去一个传感器 是否带来不安全?

根据车东西了解,自动驾驶行业内现在普遍标配毫米波雷达实现自动驾驶,多位业内人士认为,取消毫米波雷达实际并不能保证安全。

驭势科技定位与感知总监张丹认为,拿掉毫米波雷达短期内并不安全。他说道,毫米波雷达能够探测较远距离,让车辆尽早发现前方障碍。同时,现有视觉传感器的能力不及人眼,因此取消毫米波雷达反而并不安全。

国内L4级自动驾驶公司飞步科技无人驾驶感知技术负责人认为,毫米波雷达在实现自动驾驶的过程中可以作为辅助传感器,对于前方运动物体,能够精准检测其位置、速度等参数。

Alexander说道,对于低速无人车来说,如果仅靠视觉传感器和

,也能实现自动驾驶。但对于高速自动驾驶来说,毫米波雷达是刚需。

相比于技术方面的挑战,毫米波雷达成本较低,传感器融合比较容易,即便保留毫米波雷达也并不会增加过多的生产和开发成本。

3、成本已非常低廉 对整车成本影响不大

根据《2020汽车雷达国产化研究报告》,从上世纪90年代开始,三菱、奔驰等车企就为旗下的旗舰款车型配备了毫米波雷达,用于探测与前车之间的距离。

经过二十余年的商用,毫米波雷达产业正逐渐成熟,并且得到包括特斯拉在内的大量车企的辅助驾驶验证。

Alexander认为,毫米波雷达不仅仅在汽车行业内使用,整个行业内都得到了大量验证,非常可靠。而多传感器的综合应用才是自动驾驶可靠的解决方案。

有国内媒体报道称,根据特斯拉造车的体量,单个毫米波雷达的成本大约只需要300元左右。

4、传感器融合过程非常简单

除以上几大优势之外,Alexander还说道,毫米波雷达感知内容非常简单,在与摄像头内容融合时,会非常简便。

相比于激光雷达能够生成大面积的点云图像,毫米波雷达感知的场景更加简单。因此在实际处理过程中,毫米波雷达能够更加快速反应。如果遇到危险情况,车辆能够快速介入控制,避免发生危险。

纯视觉如何完成测距测速?特斯拉高管这么说

虽说特斯拉取消毫米波雷达引发不小争议,但行业内同样有支持的声音。

在刚刚过去的2021上海车展上,国内AI芯片创企地平线CEO余凯接受了车东西采访。他认为,无论是使用纯视觉感知,还是量产激光雷达,只要执行的好,就有价值。

余凯认为,特斯拉的纯视觉感知是一个好的战略,因为它坚定地相信视觉。同时,人脑能够走通纯视觉这条路,因此电脑也能够走通。

而面对多传感器融合的方案,对算力的需求、对算法的要求可以适当降低一些,这条路也能走得通。

车东西此前还向联想之星合伙人高天垚了解了对自动驾驶传感器融合的看法。

他认为,多传感器融合并不是终极解决方案。当前摄像头、毫米波雷达、激光雷达等多个种类传感器融合,车辆的外观、融合后的效果并非达到最佳状态。如果能有某一个传感器能够达到多传感器融合的性能,对行业来说就是一个巨大的升级。

作为自动驾驶圈内的天使投资人,高天垚认为多传感器物理上的融合将是自动驾驶公司未来的机会。

恰好,特斯拉走上的就是将传感器从物理层面融合的道路。

去年,特斯拉人工智能高级主管Andrej Karpathy在ScaledML会议上进行了一次精彩的演讲,其中就讲到特斯拉如何利用视觉传感器,估算像素深度的。

在日常行驶过程中,摄像头捕捉的内容都是二维图像,并没有深度信息。

▲特斯拉摄像头采集的画面可以确定边界,但不包含深度信息

也就是说,虽然二维图像已经可以区分公路和路旁的人行道,但并不知道现在车辆距离人行道还有多远。由于缺失这样一个重要信息,自动驾驶的运算可能并不准确,操作可能出错。因此,捕捉或者建立一个三维的图景很有必要。

传统工程师认为,直接在车顶安装三维摄像机就能解决这一问题。不过,这既要增加车辆的制造成本,又影响车辆美观。此外,由于车顶面积比较大,如果三维摄像头高度不够,盲区将会非常大。

特斯拉的工程师又想到用算法解决这个问题。如果有一种算法能够将二维图景的时序、边缘对齐,投影形成三维图景,这个问题就解决了。

▲通过算法得出的“鸟瞰视图”

在计算出三维图景之后,特斯拉甚至可以计算出车辆的“鸟瞰视图”。也就是说,虽然车辆上方没有摄像头,但通过计算就能模拟出从车辆上方向下看的图景。这样一来,车辆离障碍物还有多远的距离,车内都能直观地看到。

▲特斯拉视觉系统预测的马路边缘和车道线

实际上,特斯拉还有更厉害的地方,那就是算法可以预测流媒体视频中每一个像素的深度信息。也就是说,只要算法足够好,流媒体视频更加清晰,特斯拉的视觉传感器所捕捉的深度信息甚至可以超过激光雷达。

▲特斯拉采集视觉信息(上),预测每一个像素的深度信息(中)并投影形成鸟瞰视图(下)

在实际的自动驾驶应用中,泊车入位和智能召唤两个使用场景下就能充分利用这套算法。在停车场行驶时,车辆之间的距离很小,即使是驾驶员驾驶,稍不留神也很容易出现刮蹭事故。对于机器来说,停车场场景的行驶更加困难。在预测到深度信息之后,车辆可以在超声波传感器的辅助之下,快速完成对周围环境的识别,车辆泊车就会更加顺利。

相信在一年以后的今天,特斯拉正式宣布逐渐迁移到Tesla Vision纯视觉感知,也是用的这套算法。

毫米波雷达是自动驾驶标配 未来朝4D化发展

从前文可以推断,L2级自动驾驶场景中,毫米波雷达还是刚需。那么,不妨将眼光放得更长远一些,L4级自动驾驶+更安全的出行是自动驾驶公司的重要目标。面对L4级自动驾驶场景,毫米波雷达是否还存在?其价值相比L2级自动驾驶有提升还是弱化呢?

驭势科技定位与感知总监张丹认为,在激光雷达逐步量产的今天,毫米波雷达在自动驾驶过程中的权重会有所下降。但毫米波在极端天气中的作用很大,仍无法替代。

▲驭势科技L4级无人驾驶小巴

在驭势科技的L4级自动驾驶的研发和落地项目中,毫米波雷达是刚需,基本都会配置。

在L4级自动驾驶另一重要场景港口中,截至2020年底,飞步科技已经向梅山港交付了13辆L4级自动驾驶集卡并开启编队运营。2020年底,飞步与梅山港共同启动基于多路自动驾驶集卡编队的常态化独立整船作业,构建起混线运输-整船作业一体化链路,目前已经稳定运行一年多。

▲飞步科技在梅山港落地的L4级自动驾驶车队

除了将港口自动驾驶集卡车队在混线环境下实船作业运营之外,飞步科技还连续两年为乌镇世界互联网大会提供自动驾驶微公交接驳服务。

同时,在城市及高速道路累计为中国邮政EMS、德邦快递等企业运送包裹超 100 万件。

飞步科技无人驾驶感知技术负责人认为,港口场景中气候经常飘忽不定,常有大雾天气。因此,飞步科技车队使用毫米波雷达能够为车队常态化作业提供更多保障。

位于贵州的通用智能底盘开发商PIX Moving现在正在研发低速运行的无人车,并没有使用毫米波雷达,而是使用探测距离较小的超声波雷达。

PIX Moving自动驾驶首席顾问Alexander说道,即使在低速场景下,PIX Moving也已经在研发和部署过程中加入毫米波雷达。

Alexander认为,毫米波雷达无论在任何速度条件下都是有意义的,相比超声波雷达有更强的能力,同时这事最基本的安全感知能力。

同时,毫米波雷达探测距离较短、视野较小,对静止物体探测容易出错等问题一直困扰行业。同时,毫米波雷达感知到的场景无法精确分类,仍要依靠视觉传感器实现。

面对毫米波雷达的多个明显劣势,当前行业内已有多项优化解决方案,其中就包括研发4D雷达,以及将毫米波雷达的部分能力迁移至激光雷达当中。

今年,上汽集团旗下高端品牌R汽车发布了R汽车ES33车型。这款车就搭载了4D毫米波雷达,其感知性能有了明显升级。

传统毫米波雷达仅具有三维感知能力,可以判断前方物体距离、速度、方向角,而4D毫米波雷达对物体的探测多了一个维度,通过垂直分辨率判断物体的高度。

除了能够感知更丰富的数据之外,这颗4D毫米波雷达的分辨率和测量距离也有巨大提升。无论是距离、速度还是方向角的感知精度都提升了一个数量级,最远探测距离超过350米。

测试发现,ES33的4D毫米波雷达可以探测到140米开外的可乐罐。

2、传统毫米波还在不断加强

由于毫米波雷达在探测视野、对静止物体探测不佳的情况,未来可能将毫米波雷达的部分能力迁移至激光雷达当中,二者传感器融合后,系统能够作出更准确的自动驾驶决策。

Alexander说道,针对毫米波雷达感知内容比较简单,不好归类的问题,行业内会将毫米波雷达的感知数据与摄像头、激光雷达相融合,实现优势互补。

同时,许多车企也在考虑为车辆配备多个毫米波雷达,感知范围能够进一步扩大。如果像激光雷达一样,毫米波雷达能够通过旋转实现广泛的探测距离,也是解决方案之一。

结语:特斯拉纯视觉自动驾驶还需上路检验

面对整个行业走上传感器融合路线,实现量产激光雷达等关键组件,马斯克却特立独行,直接实现了纯视觉的L2级自动驾驶,这也是马斯克自动驾驶最大的野心之一。

不过,纯视觉传感器在自动驾驶行业内没有经过大量测试考验,无论对特斯拉还是马斯克来说,都是一个巨大挑战。此后,特斯拉的自动驾驶功能也将受到行业内的更多关注与讨论。

我要回帖

更多关于 眼镜超声波清洗机十大名牌 的文章

 

随机推荐