Tesla 特斯拉辅助驾驶处于灰色地带,美国没有技术标准

不久前 , 德州一辆明显没有人在驾驶的特斯拉Model S电动汽车发生致命撞车事故 , 这让人们对半自动驾驶汽车的安全性 , 以及这种技术在美国监管灰色地带游走的现状有了新认识 。德克萨斯州哈里斯县警方表示 , 一辆特斯拉Model S在高速行驶过程中脱弯并撞上一棵树 , 随后起火燃烧 , 导致前排副驾驶一名乘客和后座上的车主死亡 。
特斯拉首席执行官埃隆·马斯克(Elon Musk)在个人社交媒体Twitter上解释 , 初步数据显示 , 事发时这辆特斯拉汽车的辅助驾驶功能Autopilot没有激活 , 车上也没有搭载公司的“完全自动驾驶”(FSD)系统 。
Tesla 特斯拉辅助驾驶处于灰色地带,美国没有技术标准
文章图片

图示:美国加州旧金山 , 一辆行驶过程中Autopilot处于激活状态的Model S电动汽车
话虽如此 , 但特斯拉的Autopilot和FSD系统以及其他汽车中越来越多的类似半自动驾驶功能 , 对负责机动车行驶和公路安全的监管机构形成了挑战 。
迄今为止 , 美国联邦道路安全监管机构美国国家公路交通安全管理局(NHTSA)尚未发布针对Autopilot或自动驾驶汽车等半自动驾驶系统的具体法规或性能标准 。
NHTSA也没有出台相关规定 , 要求汽车制造商确保用户按预期使用相关功能 , 或防止用户滥用系统 。全美唯一重要的限制是 , 根据联邦法规 , 所有汽车必须配备方向盘和人工控制装置 。
由于没有相应的性能要求或技术标准 , 像特斯拉Autopilot这样的驾驶辅助系统处于监管的灰色地带 。
在德克萨斯州发生这起撞车事故之前 , 已经发生过一系列涉及特斯拉汽车使用Autopilot驾驶的车祸 。Autopilot是特斯拉推出的高级驾驶辅助系统 , 具备车道保持和自动变道等功能 。
自去年10月以来 , 特斯拉还向约2000名特定客户推出了“测试版”的FSD系统 , 授权他们测试这种新系统在公共道路上的运行情况 。
哈里斯县警方目前正在申请对特斯拉车祸数据的审查令 , 并表示有目击者告诉警方 , 车祸中的遇难者是在测试特斯拉汽车的自动驾驶功能 。
没有要求
传统上NHTSA负责监管车辆安全 , 而各州的机动车管理局(DMV)则负责监管司机驾驶安全 。这让整套监管显得更加混乱 。
美国国家运输安全委员会(NTSB)则表示 , 在使用半自动驾驶功能时 , 人们可能无法清楚看出到底是车载电脑还是驾驶员在控制汽车 , 或者由双方共同控制 。
加州机动车管理局表示 , 加州已经引入自动驾驶汽车监管法规 , 但这些法规只适用于那些无需人工控制或监控就能自动执行动态驾驶任务的汽车 。
该公司表示 , 特斯拉的FSD自动驾驶系统尚未达到这些标准 , 只是一种高级驾驶辅助系统 , 不属于监管的相应范畴 。
这使得特斯拉的Autopilot和FSD系统在加州陷入了无人监管的尴尬处境 。特斯拉可以毫不顾忌地先后发布多个版本的驾驶系统供用户测试使用 。
负责汽车安全的NHTSA表示 , 已对28起特斯拉车祸事件展开调查 , 其中24起仍在进行中 。自3月以来 , 至少发生了四起涉及特斯拉汽车的事故 , 其中就包括德州发生的致命事故 。
NHTSA曾多次表示 , 它有权要求汽车制造商召回任何存在不合理安全风险的车辆 。这一规定足以应对驾驶辅助系统存在的问题 。
但到目前为止 , NHTSA还没有对特斯拉的高级驾驶辅助系统采取任何执法措施 。
白宫发言人詹·普萨基(Jen Psaki)表示 , NHTSA正在积极与特斯拉和当地执法部门合作处理德州发生的致命车祸 。
负责调查交通事故的美国政府机构NTSB批评NHTSA对带有自动驾驶功能的汽车不加干涉、放任自流的监管方式 。
NTSB主席罗伯特·萨姆瓦特(Robert Sumwalt)在2月1日给NHTSA的一封信中写道:“NHTSA拒绝对部分自动化或较低自动化水平的车辆采取行动 , 只是继续干等更高的自动化水平能达到美国最低标准 。”
“由于NHTSA没有提出任何规定 , 汽车制造商和系统开发商可以在任何地方操作和测试车辆 , 哪怕是地点超出了自动驾驶控制系统可以运行的规定范围 , ”信中说 。
审查法规

推荐阅读