Tesla 特斯拉事故频发背后:自动驾驶游走在监管灰色地带

导语:一场导致两人死亡的“无人驾驶”车祸再次将特斯拉推向了风口浪尖 。尽管马斯克否认该事故与其Autopilot系统有关,但是自动驾驶系统的安全性依旧备受关注 。在美国,自动驾驶系统其实一直游走在监管灰色地带 。
Tesla 特斯拉事故频发背后:自动驾驶游走在监管灰色地带
文章图片

特斯拉得州致命事故残骸
以下是文章分析:
一场看来没有人驾驶的特斯拉汽车导致的致命事故让人们对半自动驾驶汽车的安全性以及它所游走的美国监管灰色地带有了新的认识 。
美国得州哈里斯县警方称,一辆特斯拉Model S在上周六未能通过一个转弯处,以很快的速度撞上了一棵树,然后起火,导致坐在副驾驶上的一名乘客和坐在后排的车主死亡 。
特斯拉CEO埃隆·马斯克(Elon Musk)周一发布推文称,特斯拉下载的初步数据显示,这辆车当时并未开启自动辅助驾驶系统Autopilot,它并不属于特斯拉的全自动驾驶系统(FSD) 。
【Tesla|特斯拉事故频发背后:自动驾驶游走在监管灰色地带】Tesla 特斯拉事故频发背后:自动驾驶游走在监管灰色地带
文章图片

马斯克称Autopilot当时并未开启
特斯拉Autopilot、FSD以及越来越多由其他汽车制造商开发的类似半自动驾驶功能,对负责机动车和公路安全的官员构成了挑战 。
法规缺失造成的灰色地带
美国公路安全监管机构美国公路交通安全管理局(NHTSA)尚未针对Autopilot等半自动驾驶系统或者全自动驾驶系统出台具体的法规或者性能标准 。
NHTSA现在没有出台任何规定要求汽车制造商确保自动驾驶系统按照预期的那样被使用或者防止车主误用它们 。美国联邦机构层面对自动驾驶系统的唯一重大限制就是:汽车需要按照联邦规定配备方向盘,由人操控 。
没有了性能或技术标准的约束,Autopilot等自动驾驶系统游走在了监管灰色地带 。
在得州致命事故前,特斯拉汽车遭遇的一连串撞车事故都是在Autopilot系统开启时发生的 。Autopilot是特斯拉的半自动驾驶系统,能够实现一系列功能,例如帮助车主在公路上按车道上行驶和转向 。
自去年10月份以来,特斯拉已经面向大约2000名车主推出了“测试版”FSD系统,实际上是让车主们来测试FSD在公路的表现究竟如何 。
监管机构职责模糊
更让自动驾驶汽车的监管变得混乱的是,传统上,NHTSA负责汽车安全,各州的机动车管理局(DMV)负责管理驾驶员 。
美国国家运输安全委员会(NTSB)称,当碰到半自动驾驶功能时,你或许很难说清是车载计算机还是驾驶员在控制汽车,也不清楚是否应该共同监管 。
加州机动车管理局称,加州已经出台了自动驾驶汽车法规,但是只适用于配备了可执行动态驾驶任务的技术、没有主动身体控制或者人类操作员监控的汽车 。特斯拉的全自动驾驶系统就不满足这些标准,被认为是不需要监管的先进辅助驾驶系统 。
Tesla 特斯拉事故频发背后:自动驾驶游走在监管灰色地带
文章图片

特斯拉Autopilot系统
这使得特斯拉Autopilot、FSD就处于监管边缘地带,该公司推出了新版系统供其车主进行测试 。
NHTSA本周称,已经对特斯拉汽车的撞车事故启动了28项调查,其中24项仍在进行中 。至少4项撞车事故发生在3月以后,包括致命事故 。
NHTSA不断重申,该局拥有广泛权力可要求汽车制造商召回任何构成不合理安全风险的汽车,这足以应对辅助驾驶系统 。目前为止,NHTSA还未对特斯拉先进驾驶系统采取任何强制措施 。
白宫发言人珍·普萨基(Jen Psaki)称,NHTSA正就得州撞车事故“积极与特斯拉和当地执法部门接洽” 。
NTSB是负责调查道路事故的美国政府机构,批评NHTSA在自动驾驶汽车的监管上采取放任不管的态度 。
“NHTSA拒绝针对半自动或低级别自动化汽车采取行动,在要求自动驾驶汽车系统满足最低国家标准之前继续等待更高级别的自动化 。”NTSB主席罗伯特·萨姆沃特(Robert Sumwalt)在2月1日写给NHTSA的信中称,“由于NHTSA没有落实任何要求,汽车制造商几乎可以在任何地方运营和测试自动驾驶汽车,即便所处位置超出了自动驾驶汽车控制系统的限制 。”
新政府评估自动驾驶法规
NHTSA表示,随着美国新政府的上台,该局正在评估自动驾驶汽车法规,在他们推进自动驾驶系统政策制定时欢迎NTSB提供意见 。
NHTSA称,目前出售的最先进汽车技术需要始终有一位全神贯注的人类驾驶员 。“最低限度的滥用这些技术就是分心驾驶 。各州要求驾驶员负责汽车的安全驾驶 。”NHTSA称 。

推荐阅读