特斯拉自动驾驶叫什么,特斯拉有没有自动驾驶

特斯拉近期又出了个重大新闻:被英国我国道路交通安全性管理处(NHTSA)规定在国外招回近5.4万台汽车。

为什么?

这又是它的彻底自动驾驶(Full Self-Driving)手机软件搞的鬼:它有可能让汽车在街口的停车标志前迟缓向前,而不是彻底终止。

在国外,全部驾驶员都了解,一旦见到街口有停车标志,无论是否有见到别的车子或路人,驾驶员都需要先彻底停住车,再继续前行。因此,特斯拉自动驾驶里的这一功能稳稳地违背了许多州的法律法规,并且有可能会提升车祸事故风险性。

为什么特斯拉称为智能型的自动驾驶,在现实生活里,却这么多bug?当这种bug导致严重危害,负责任的,是它,或是坚信了特斯拉所表述的幸福情景的驾驶员?

司机or汽车:谁的错?

上一个月,全世界第一桩牵涉到特斯拉 Autopilot 的比较严重刑事案件提起诉讼,露出水面。

本案之中的安全事故,产生在2019年的旧金山近郊区 Gardena.

2019年12月29日深更半夜,驾驶员 Kevin Riad 安全驾驶一辆特斯拉 Model S,从高速路下匝道口时,以较高的速率闯了绿灯,而且撞上一辆正常的行车经过叉路口的本田小轿车。安全事故造成本田车上两个人现场身亡,Riad 和特斯拉车里另一名女士旅客遭受轻微伤,现阶段已修复。二辆汽车均已损毁。

过后,英国道路交通安全性管理处 NHTSA 公布派遣尤其调查小组。在这之前,这支尤其调查小组早已对十多起和特斯拉 Autopilot 功能有关的车祸事故事情进行了调研。

上年10月,美国加州的办案人宣布对 Riad 进行了大罪控告 (felony charge),包含二项交通事故致人死亡 (vehicular manslaughter) 的罪行。初次开庭审理分配在2022年2月23日。

必须确定的是,此案的被上诉人是那时候肇事者汽车的驾驶员。

虽然 Autopilot 技术性毫无疑问在安全事故中饰演了重要的人物角色,而且也将在此案的审判全过程中被主要谈及——但该技术性自身,及其特斯拉企业,并不是此案的被告方。

(但是,美国和全国各地监督机构,与此同时也在就 Autopilot 功能对特斯拉企业进行调研。)

图片出处:本地电视台节目 KCAL-9

本案也是现阶段美国已经知道的第一起涉及到 Autopilot 功能,而且提起诉讼目标为肇事者驾驶人员的大罪案子。这也代表着:即使驾驶员觉得汽车在“自动驾驶”,驾驶员自身仍旧是安全事故的责任者。

多名自动驾驶有关法务权威专家,包含南卡罗莱纳州高校法律学专家教授 Briant W. Smith,和刑事辩护律师 Donald Slavik 等表明,此次美国加州的公诉案件 Riad 一案,是第一桩涉及到有关輔助/自动驾驶功能致人死亡的比较严重刑事诉讼法案子。

此外车祸事故受害人的亲人也早已各自向肇事者和特斯拉企业进行了民事案件。受害人 Lopez 的亲人在民事起诉书声称,那辆 Model S 在事故时“忽然加速到控制不了的速率”,而且控告肇事人 Riad 自己先前的安全驾驶纪录十分不干净,归属于“风险驾驶员”。这种民事法律提起诉讼将作另案审判,和这次的美国加州的公诉案件临时不相干。

自动驾驶 or 辅助驾驶?

假如你对电瓶车自身及其有关的技术性领域有非常多的掌握,你也许会了解,被特斯拉取名为“Autopilot”的这一功能,并不是真实的“自动驾驶”系统软件。

实质上,Autopilot 便是许多汽车都是有的輔助定速巡航功能的“全新升级”,可以完成巡航定速、追随行车道、调节时速等实际操作。该功能从2019年4月以后的车系逐渐标准配置,不用附加付钱;2016-2019年的汽车均包括了 Autopilot 需要的硬件配置,必须付钱才可以激话。

依照领域普遍接纳的国际性汽车技术工程师研究会 (SAE International) 规范,Autopilot 处在 L2-L3 中间,并没有做到认可的“自动驾驶”的水准。

比如说,SAE 规范(见下面的图)针对 L3 的一个主要指标值,便是在特殊情形下驾驶人员可以不用关心实时路况;而特斯拉在功能表明和培训的过程中也会告之买车人,即使开始了 Autopilot 功能,驾驶人员也仍必须维持专注力。

Autopilot 还有一个 FSD 方式,可以全自动完成变换行车道、依据周边交通情况全自动调节时速、转换行车道、驶进驶离匝道口、自动泊车系统、依据信号指示灯/停车指示牌进行实际操作等大量功能。

FSD 的全名是 Full Self-Driving(彻底独立安全驾驶),在其中绝大多数功能均已商业化的;极少数功能仍处在首测环节 (Beta),但也对市面上车系的顾客对外开放,只需付钱更新 FSD,就可以打开。

殊不知,监督机构好像并不认可特斯拉的叫法和作法。

在美国加州的公诉案件 Riad 一案中,NHTSA 立即发出声明,声称:

1)虽然很多车子都是有辅助驾驶功能,在法律法规上,仅有驾驶员本优秀人才是责任主体。

2)全部的汽车,无论是不是有一部分自动驾驶功能,这种功能是不是打开,都规定驾驶员务必维持全过程的操纵。(every vehicle requires the human driver to be in control at all times.)

3)没有的市面上汽车可以完成自动驾驶。(no vehicle on sale that can drive itself.)

从 NHTSA 的表态发言中可以我们可以确立:目前为止,针对牵涉到 Autopilot 及其相近辅助驾驶功能的道路交通事故案子,这种功能确实是事故的立即发病原因。殊不知,监督机构的构思,依然是将肇事者做为责任主体和惩处目标。

但是,就前述的第三条看来,充分考虑特斯拉企业和其管理层以往曾在很多场所比较严重夸大其词 Autopilot 功能的具体能力和特斯拉自动驾驶技术性的创新性——NHTSA 的申明,也立即否认了他俩的规格。

2016年5月7日,美国俄亥俄州,一辆打开了 Autopilot 功能的 Model S 撞上一辆货车。驾驶人员现场身亡,Autopilot 在国外抢走了第一条性命。那时候,该功能刚发布大半年之久。

依据硅的人统计分析,自打该功能公布至今,全世界已经知道确定与 Autopilot 功能有关的道路交通事故早已导致最少6人死亡、多的人比较严重负伤。

英国国家运送安委会 NTSB(一个政府部门特性的民用型道路交通事故调查机构),早已对最少28起特斯拉电瓶车安全生产事故进行尤其调研。这种安全事故涉及到包含 Autopilot、充电电池着火、刹车故障等许多要素。

上年,NHTSA 公布政府部门简讯,公布宣布就11起涉及到 Autopilot 的主要安全事故,对特斯拉企业,及其其发布的 Autopilot、交通出行认知定速巡航系统软件 (TACC) 等功能的设计方案能力,进行更为详细的调研。

而在欧洲地区,特斯拉的过分宣传策划问题早已遭受政府部门高度重视了。例如在法国,不正当竞争法监管部门在2020年提起诉讼了特斯拉,斥责 Autopilot、FSD 的取名和推广个人行为组成了欺诈群众的个人行为,而且路面运作车子打开这种功能,违背道路交通安全政策法规。

此案中,人民法院判断特斯拉输了官司。此后,特斯拉被禁止在法国应用 Autopilot、FSD 之类的关键字,而且在营销推广宣传策划內容中也不可再次诱发顾客坚信其在“自动驾驶”层面的能力。

要酷 or 要人命?

许多硅的人的阅读者应当还记得,在2018年,101快速的 Mountain View 道路,中国人买车人 Walter Huang 安全驾驶一辆 Model X ,在正常的前行行车中忽然撞上混泥土隔离栏,悲剧丧命。

那时候,车里就进入了 Autopilot 功能,殊不知该辆顶配 Model X 配备的众多强劲的的感应器,和优秀的路面扫描软件优化算法,都没能及时处理正前方路面下挫,造成了伤亡事故。

有关数据调查报告,这名买车人在死前早已几回对自身的老婆、亲人和其他 Model X 买车人调侃过 Autopilot 功能不太好用。从总体上, Autopilot 早已好几回把车往他之后送命的那一条隔离护栏上拐了。

Huang 死前在iPhone出任技术工程师,殊不知就连他都没能对 Autopilot 功能局限性有充足清晰的了解,就更别说这些非高新科技从业人员,对新能源汽车和輔助/自动驾驶技术性不足了解的一般买车人了。

许多司机挑选特斯拉,看好的就是它的新科技特性,给人很“酷”的觉得。而 Autopilot,又好像是大家盼望已久的自动驾驶技术性,在规模性市面上车系中的最开始也最大调的运用。

硅的人以前的一篇文章曾经强调,如今的问题就取决于:包含特斯拉以内的的一部分电瓶车/新造汽车品牌,对相应的辅助驾驶功能开展过多宣传策划,夸大其词其能力,在客户的心里导致问题的了解,间接性造成安全事故更为经常的产生。

結果便是,一些根本沒有做到自动驾驶规范的辅助驾驶技术性,包裝在自动驾驶的假面下,不但沒有让公路交通更安全性,反倒造成了大量安全事故。

欧盟国家新汽车安全性考核鉴定研究会组员、法国汽车安全性权威专家 Matthew Avery 接纳本地新闻媒体访谈时曾表明,特斯拉在 Autopilot、FSD 等功能的宣传策划上具有虚假性,非常容易让一些对技术性不太熟的顾客,误认为她们掏钱更新了 Autopilot/FSD 以后,自身的汽车就得到彻底自动驾驶的能力了。

“Autopilot 造成的很多安全事故全是严重的。这种驾驶员到底是在开玩笑,或是由于更糟心的状况——她们确实坚信 Autopilot 便是彻底自动驾驶——大家难以获知。”

上年,特斯拉向一部分车子消息推送了 FSD beta 9 公测版手机软件,让这一部分买车人给特斯拉给予路测试数据。

可是一些买车人迅速发觉,这一版的 FSD 十分不稳定、不安全,会把月亮当做信号指示灯,还会继续隔三差五窜进自行车车道。假如确实让这种车里路,他们不容置疑可能变成比较严重的路面安全风险。

消费者权利组织《消费者报告》(Consumer Reports) 公布了调查研究报告,声称特斯拉消息推送的 FSD 测试工具欠缺安全防护,对其他路面参加者产生明显风险性。

FSD Beta 9 将月亮误认为信号灯 截图来源:Jordan Nelson

近日,一家名为 The Dawn Project 的社会公益机构,在《纽约时报》上刊登了一则整版广告,题为“不要成为特斯拉碰撞测试假人”,指责 FSD 功能的技术可靠性、安全性非常糟糕,特斯拉面向市售车型提供该功能,让车主成为路测“小白鼠”的做法是在草菅人命。

“一家《财富》500强公司,销售的数千辆汽车,运行着最糟糕的软件,在公开道路上行驶,而我们的家人将成为这些汽车碰撞测试的假人——这不是我们想要的,”广告写道。

卖了这么多年,特斯拉电动车的普及程度现如今已经非常高了,它的独特感、科技感,给车主身份增添的“酷”的标签,也不如从前了。

而我们在今天观察到的是:Autopilot、FSD 等实际是辅助驾驶,却被宣传夸大为自动驾驶的功能,正在延续着特斯拉作为一个“酷”品牌的生命。

然而,让车主对这些功能产生错觉,进而诱发更多的交通事故、生命和财产损失——这件事,可一点都不酷。

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

Powered By Z-BlogPHP 1.7.3

 Theme By 优美尚品

每日搜寻全球各个角落的热点新闻,锁定小童说事网,多一点惊喜与感动!