襄阳门户网

搜索
襄阳门户网 襄阳门户 企业宣传 查看内容

新闻没事“自动驾驶”,有事“辅助驾驶”,特斯拉“蔚小理”都一样2023/8/5 14:21:38

2023-8-5 14:21| 发布者: 天若有情| 查看: 51| 评论: 0

摘要:   理想又出事故  自动驾驶辅助(“AutoPilot System”,简称APS)是当下智能车辆的主要卖点之一,被很多主机厂大肆宣扬,因而衍生出很多不同的名词,比如特斯拉的Autopilot 甚至FSD(完全自动驾驶),理想的NOA ...
网站出售

  理想又出事故

  自动驾驶辅助(“AutoPilot System”,简称APS)是当下智能车辆的主要卖点之一,被很多主机厂大肆宣扬,因而衍生出很多不同的名词,比如特斯拉的Autopilot 甚至FSD(完全自动驾驶),理想的NOA、小鹏的NGP、蔚来的NOP等。foresighthttps://www.foresightauto.com.cn/Foresight 福飒特是一家开发智能多光谱视觉软件解决方案的技术公司,提供自动驾驶汽车解决方案,帮助他们开发自动驾驶汽车的三维感知和探测能力,以检测车辆周围的障碍物。Foresight 的立体视觉解决方案可应用于汽车、国防、自动驾驶汽车和重型工业设备等市场。

  事实上,自动驾驶辅助系统是一个不规范的名词,应该正确地称为高级驾驶辅助系统。该系统可以通过高精度的卫星导航进行巡航,利用装载在车辆上的各种传感器检测周围环境,从而实现变道、转向、加减速、倒车等等,可以减轻驾驶员的负担,帮助驾驶员规避风险。

  正因为概念的混淆,在出现事故时责任难以区分,争执不下。

  日前,春节期间的一单事故,又将“自动驾驶”推向了风口浪尖上。理想L9一车主 爆料称:“高速NOA失灵,没有报警,也没有主动刹车”,导致碰撞,庆幸的是全家人安全。

  该车主描述称,1月20日,他从福建出发开往湖北,一路在高速上,前方有车辆减速,或者变道都会有预警提醒,也能够帮助车主去主动刹车。

  但是1月21日上午5点42分,车速113km/h的时候,右前方有车辆缓慢变道,车机没有任何预警和主动刹停的动作,直到车主反应过来,踩下刹车,但还是以100km/h左右的时速撞到了前车的左后方。

  这次事故和青岛那起车祸如出一辙。

  理想的说法是数据正常,不承认NOA有问题。CEO李想甚至发文称,要和车主一起做个测试。1 月 28 日,李想还发出了一封全员信表示,理想汽车的端到端训练的城市 NOA 导航辅助驾驶(不依赖 HDMAP,即不依赖高精地图)将会在 2023 年底开始落地。

  “自动驾驶”事故层出不穷

  这注定又是一个“罗生门”,因为依赖“自动驾驶”事故太多了。有懂行的称:原因很简单,就是设计的算法不支持处理这种突发情况。

  我们再列举几个比较典型的案例:

  2022年8月10日,宁波一高架桥发生一起因交通事故导致的悲剧。据悉,当天涉事车主驾驶的是一辆小鹏P7汽车,该车在高架行驶过程中与前方一辆检查故障的车辆相撞,导致一人死亡。

  事故发生后,网传疑似驾驶该小鹏汽车车主的聊天记录显示,事发时车辆的时速在80km/h左右,且开启了LCC车道居中辅助功能,“我一般也就高架开,没想到,这次刚好分神。”

  2022 年 12 月 20 日,杭金衢高速绍兴辖区,一辆小鹏 P7 在超越相邻车道的货车时突然失控,两车相撞后,小鹏 P7 在护栏旁停下,货车则发生了侧翻,滑行到应急车道后起火,所幸事故并未造成任何人员伤亡。

  据了解,事发时小鹏 P7 的辅助驾驶系统正处于激活状态,在处理完现场交通后,交警很快做出判决:小鹏 P7 驾驶员因没有确保安全驾驶导致事故,承担全部责任。

  蔚来也不能“免俗”。

  2021年8月12日,企业家林文钦在驾驶蔚来ES8时启用了NOP功能,在沈海高速发生交通事故,不幸身亡,终年31岁。

  特斯拉疑似“自动驾驶”的事故更是数不胜数。

  从2022年11月5日潮州特斯拉重大车祸、11月28日台州特斯拉重大车祸、到12月广西特斯拉重大车祸,在40天的时间内,潮州、台州、广西接连发生三起严重车祸,共造成5死6伤,使公众对特斯拉自动驾驶安全性提出了强烈质疑。

  “自动驾驶”是噱头,驾驶员还是关键

  针对理想这次事故,有人指出了重点“毕竟只是辅助驾驶,第一责任人是驾驶员”。

  多么熟悉的言论,在宣传的时候可不是这样,车企都恨不得把“自动驾驶”夸上天。

  要说把自动驾驶吹得最狠最大胆,非特斯拉莫属。早在2015年马斯克就曾预测,“到2018年,汽车将实现完全自动驾驶”,但时至今日特斯拉最引以为傲的“自动驾驶”套件FSD(Full-Self Driving)依旧还是一个不折不扣的L2级辅助驾驶系统,但光这个系统就得卖6万多。

  特斯拉公司非常清楚自动驾驶软件安全性问题,最近其内部总监就爆出之前“自动驾驶视频造假”,但为了与其他车企竞争,特斯拉的营销策略是:

  一方面不断宣传Autopilot和FSD的功能及驾驶体验,提高销售量,使得司机们误以为他们的汽车已经具备了L4甚至L5级自动驾驶水平,让车主及公众为自动驾驶买单。

  另一方面,特斯拉为规避自己公司的风险,将Autopilot和FSD定为L2级,车辆行驶时必须要有驾驶员坐在座椅上手握方向盘,否则会因系统误判导致车祸的发生。而如果自动驾驶车辆发生了事故,责任仍在司机而不在于自动驾驶系统。

  与“自动驾驶”相关的事故之所以频繁发生,很大一部分原因在于用户对“自动驾驶”的误解,以及对驾驶辅助系统的过度依赖,而这都是车企夸大宣传、过分吹嘘造成的。

  现在吹得天花乱坠的“自动驾驶”,大多数是L2级别,最多是L2+级别的,只有奔驰一家可以称得上是L3。

  因为奔驰已经获得美国监管部门的批准,在加利福尼亚州和内华达州部署 L3 级自动驾驶系统(Drive Pilot 系统)。 更重要的是奔驰承诺,只要驾驶员在使用 Drive Pilot 功能时,如果车辆发生车祸,奔驰将承担相关责任。

  不过,DRIVE PILOT 背后严格的限制条件,该 L3 级自动驾驶奔驰限制晚上不能用,雨雪天气不能用,时速超过 60 公里也不能用。

  而据官方此前介绍,奔驰的 L3 自动驾驶可以在方向盘一键开启,系统除了根据设定车速进行自主巡航,还可参照规划路线、实时路况和交通标志自动行驶。期间可独立变道、避让或制动转向等,及时响应意外交通状况。

  大家看清楚,距离真正的“完全自动驾驶”还有多远的距离?自己的安全还是掌握在驾驶员手中。(DA彬)

  举报/反馈

路过

雷人

握手

鲜花

鸡蛋

文热点