Tesla 谁来为特斯拉的安全事故买单?( 二 )


两名美国乘客因无人驾驶身亡
Tesla 谁来为特斯拉的安全事故买单?
文章图片

在美国,特斯拉Autopilot的安全性正在遭遇审查 。
当地时间4月17日晚间,一辆特斯拉Model S在得德克萨斯州的道路行驶时撞树引发火灾,最终导致两名乘客死亡 。当地警方表示,初步调查显示事故发生时,驾驶座上没有人,一人坐在前排乘客位,另一人坐在后排座位,据信是无人驾驶 。
美国国家公路交通安全管理局(NHTSA)已经派团队调查,近几周来至少另外三起据信与使用Autopilot有关的车祸 。美国国家运输安全委员会(NTSB)也表示,将派遣两名调查人员前往得德克萨斯州,重点分析车辆操作和事故后起火的情况 。
北京时间4月20日上午,马斯克在推特上表示,数据日志显示此次涉事的特斯拉Model S没有启用Autopilot,车主也没有购买FSD(全自动驾驶软件) 。目前此事还没有形成调查结果 。
在美国,2016年以来,至少有三辆特斯拉车辆发生致命事故时,其自动辅助驾驶系统Autopilot都在运行 。
不过NHTSA在2020年曾开展调查,未发现特斯拉存在安全问题,246桩意外加速事故均由踏板使用不当造成 。该监管机构认为:“没有证据表明,油门踏板总成,电动机控制系统或制动系统,存在任何导致了上述事件的故障 。” “没有证据表明,设计因素会增加踏板误用的可能性 。”
特斯拉发布的2021年一季度安全报告显示,在美国政府新车评估计划测试过的所有车辆中,Model S、Model X和Model 3造成的总体伤害概率最低 。自2018年10月起,特斯拉自愿发布季度安全数据 。
特斯拉认为,其车辆的安全性很大程度上与坚硬的、加固的(rigid, fortified)电池组结构有关,它安装在地板上,为汽车提供了出色的强度、较大的防撞缓冲区和独特的低重心结构,在事故中较难遭受严重损害而引发火灾 。
李云飞对《财经》采访人员表示,对厂家而言,事故率是几十万分之一、百万分之一,但事故一旦在消费者身上身上,那就是100% 。
李云飞表示,首先对于厂家而言,技术要做到100%,再交给消费者,第二是考虑法规方面的问题,买车人、开车人如果不是同一个,责任该如何界定 。此外网络安全、信息安全,包括本身技术的机制,都是问题 。
从监管部门调查到特斯拉的自证,目前没有证据表明特斯拉存在车辆安全问题,但从中国到美国,不少消费者仍然深深担忧 。有多位业内人士对《财经》采访人员表示,除了技术层面的争议,信任的培育、品牌的形象也发挥重要作用 。
陶琳亦对《财经》采访人员坦言:“我们要做的,是确保传递的是真实、有价值的信息,但是过程中用什么样的方法,让大家能够很好地交流,这个是我们想尝试的 。”
自动驾驶还是辅助驾驶?
有不少车主对特斯拉的辅助驾驶持谨慎态度 。比如河南郑州的Model 3车主夏女士告诉《财经》采访人员,自己只敢在高速上使用这一功能,也仅仅是向朋友短暂展示一下,“万一出点问题就糟了” 。
“我们这是辅助驾驶,而不是自动驾驶”,4月19日在上海车展特斯拉展台,一位现场销售人员对《财经》采访人员表示,安全并非绝对,任何车辆都存在风险,因此驾驶员在开启辅助驾驶时也必须将双手放在方向盘上 。
但发生在美国4月17日的这起事件中,驾驶座上没有人,两名死者都坐在乘客位,车辆处于彻底无人驾驶的状态 。
自动驾驶还是辅助驾驶,两字之差千差万别,有不少消费者都处在模棱两可的状态,或者是对技术过分信任 。
按照字面意思来看,特斯拉Autopilot为自动驾驶,FSD(Full Self-Driving)为全自动驾驶 。Autopilot和FSD是基础版和高级版的关系,只不过Autopilot是特斯拉标配,FSD是需要额外付费的软件包,后者适用的自动驾驶场景更多样 。
但在官方解释中,Autopilot为高级辅助驾驶 。至于FSD,马斯克曾表示,无限接近L5级别的FSD能够实现全自动驾驶,在途中几乎不需要驾驶员操作 。2020世界人工智能大会上,马斯克表示,公司已经非常接近实现L5级别的自动驾驶 。
特斯拉并非一直宣称“辅助驾驶”,改口是发生在多次安全事故之后 。今年三月,美国汽车媒体autoevolution曾报道,特斯拉监管顾问Eric C. Williams曾在给加州机动车管理局自动驾驶汽车部门负责人Miguel D. Acosta的信中表示,Autopilot属于L2级智能辅助驾驶,FSD也属于L2级智能辅助驾驶 。
这一文字游戏也遭到了行业和有关政府部门的批评抵制 。自动驾驶公司Waymo表示,自动驾驶一词正被一些车企滥用,造成公众的误解 。据华尔街日报中文网报道,去年七月,德国慕尼黑法院禁止特斯拉在德国将其驾驶辅助技术描述为“自动驾驶”,理由是存在误导倾向 。

推荐阅读