当前位置:网站首页>行业>正文

新生代来势汹汹 特斯拉FSD如何应对?

来源:爱卡汽车时间:2021-07-23 09:10作者:胡劭颜编辑:王厅

  毫无疑问,特斯拉是自动驾驶领域的一面旗帜。然而,随着其他车企加快脚步,努力提升驾辅系统的软硬件性能,特斯拉的标杆地位遭到了挑战。在高精地图的帮助下,许多中国新势力品牌突飞猛进,自动驾驶能力距离L3只有一步之遥。面对后起之秀,特斯拉似乎光环不再,独步天下的时代已成为历史。上有法规,下有追兵,特斯拉自动驾驶技术将何去何从?

  作为新兴品牌,特斯拉的激进有目共睹。过去几年里,Autopilot自动辅助驾驶不仅重新定义了行业标准,还改变了人们的用车习惯。即便在Model 3(参数|询价)入门车型上,Autopilot也被列为标准配置,大幅降低了智能驾驶的门槛。如果预算允许,用户还可选装增强版Autopilot(3.2万元)或FSD完全自动驾驶能力(6.4万元)。

  特斯拉直接推动了驾驶辅助技术的普及,但各家车企的实现方式有所不同。想要实现自动驾驶,核心是做好感知、决策和执行。感知相当于人的眼睛,用来观察周边交通情况,提供必要的信息流;决策相当于人的大脑,利用算力分析当前环境,并给出相应的指令;执行相当于人的手脚,替代驾驶员控制车辆。相对而言,感知和决策的争议会更大一些,很多事情没有对错之分,需要进行谨慎取舍。

  目前,业界主流路线是光学+雷达感知,市面上大部分L2级(或以上)驾驶辅助系统同时配备了视觉传感器、毫米波雷达和超声波雷达。随着L2逐渐向L3进化,激光雷达也开始配备在量产车上,小鹏P5和蔚来ET7便是比较典型的例子。部分高端车型甚至配备了多个前向毫米波雷达,用以拓展感知范围,颇有些“堆料”的意味。

  传感器兼顾视觉系统和雷达系统,看起来是个不错的方案,但真正应用到汽车上可能会遇到问题。交通环境瞬息万变,传感器不断捕捉外界信息,并将海量数据提供给决策端。摄像头输出图像,雷达感知距离,二者各有优缺点,但不能简单加总。有时候,两种感知渠道会得到不同的“答案”,汇集到一起反而增加了决策难度。

  最典型的例子是,毫米波雷达有时会误识别高处的拱门或桥面,导致车辆突然减速避险。笔者的上一台车(单目摄像头+毫米波雷达)就存在这样的问题。在上下班的必经之路上,雷达有时将某座过街天桥识别为障碍物,紧接着AEB介入,首先通过声光警示驾驶员,再执行紧急制动。每每遇到这种情况,我不得不在AEB警示后迅速松开油门,通过驾驶员输入刻意“告知”车辆,这样才不会触发制动措施。

  特斯拉倾向于采用全视觉感知,避免1+1<2的尴尬局面。在北美市场,特斯拉已经开始取消毫米波雷达,仅仅依靠8颗摄像头捕捉到的图像,为决策提供信息流支持。需要注意的是,在中国市场,特斯拉目前仍采用双感知方案,传感器原件中囊括了毫米波雷达。

  视觉感知看似有些单薄,但它有着毫米波雷达难以比拟的优势——数据连贯。几乎在任何情况下,摄像头都能够收集周围交通环境,以图片形式提供给决策单元。作为对比,雷达系统会出现“噪点”,某些时点的数据可能意外丢失。后续,特斯拉还计划完善视觉输出形式,从图片转向视频,达成更全面的感知能力。

  在全视觉感知的背后,有没有成本考量暂时不得而知,但可以确定的是,这对ADAS系统的学习能力提出了更高要求。“学习”听起来高深莫测,实际上逻辑非常清晰。ADAS系统好比一个人,婴儿阶段任何事物都是未知,身边的一切都需要学习。随着阅历逐渐丰富,从前的婴儿变得见多识广,成长为一个心智健全、博览群书的知识分子。

  具体来看,学习过程可分为驾驶员学习、后台工程师学习和后台机器学习三个部分。驾驶员学习自不必多说,凭借庞大的车主群体,特斯拉能够采集到海量数据,用于完善软件算法。在新版本推送之前,工程师还会借助车载数据,在后台模拟新策略的种种可能。基于AI算法,后台机器也在持续学习,为自动驾驶系统查缺补漏。

  无论视觉感知还是决策分析,都需要高性能硬件的支持。从Autopilot 1.0到Autopilot 3.0,特斯拉自动辅助驾驶系统的每一次迭代都伴随着芯片升级。在3.0版本上,Autopilot配备了两颗特斯拉自主研发的FSD芯片,这赋予了软件工程师有更大的“黑盒”操作空间,从而实现其他主机厂难以落地的复杂算法。

  编辑点评:随着自动驾驶成为趋势,全球车企纷纷加入战局,ADAS的内卷也随之而来。站在新的十字路口,应当选择高精地图+激光雷达,还是积极发展全视觉感知,并基于持续学习强化自动驾驶能力?特斯拉已然给出了自己的答案。这场赌注最终或许没有明确的胜者,但站在全局角度看,敢于突破桎梏,尝试不同路线,无疑推动了自动驾驶迈向新纪元。

发表我的评论

提交评论
0/500 字

网友评论

更多>> 专栏·评论
热点新闻