Tesla 四次事故两死两伤 特斯拉为啥总是撞上白色卡车?( 二 )
二、事故可能性分析 传感器配置要背锅
从美国监管机构的报告可以看出 , 垂直方向撞卡车的事故 , 明显是超过了特斯拉L2系统的工作范围 , 又加上驾驶员没有及时接管所造成的 。
那么问题来了 , 为什么被公认为“量产车最强L2”的Autopilot系统 , 就是躲不开一辆活生生的大卡车呢?
与车东西此前报道蔚来ES8事故的结论一致:这起事故的根本原因是“摄像头+毫米波雷达”的传感器配置 , 很难识别静止车辆或缓行车辆 。
与Model 3一样 , 特斯拉Model Y周身搭载了8个摄像头 , 1个大陆的毫米波雷达 , 和12个超声波雷达 。
文章图片
▲特斯拉传感器配置
在开启L2级自动驾驶系统(Autopilot、NOA或EAP系统)时 , 车辆主要依靠前视摄像头和毫米波雷达探测前方物体 。
特斯拉虽然是三目前视摄像头 , 但并没有使用立体视觉 , 三个摄像头主要是焦距不同 , 看的视野范围不同 。
所以总的来说 , 特斯拉与目前绝大部分L2级自动驾驶系统都一样 , 都是视觉+毫米波雷达的传感器方案 。
不管是使用基于规则的视觉算法还是使用深度学习技术 , 视觉在感知外界物体时永远做不到100%准确 , 甚至经常会出错 。
比如笔者自己的特斯拉在出地库时 , 就会莫名把墙壁识别为公交车 。又比如最近很火的一个抖音视频中 , 特斯拉在空无一人的墓地 , 就莫名识别出了行人 。
文章图片
▲特斯拉在无人墓地识别出行人
此外 , 还出现过把公交车身上的人物照片识别为行人、把路边广告屏幕上的停车标志识别为真实停车标志的案例 。
而靠反射毫米波来探测目标的雷达不会“见鬼” , 前方有东西就有回波 , 没有东西就没有回波 。
正是因为视觉出错概率很高 , 雷达更“靠谱” , 因此大部分L2系统会在视觉的基础上再引入毫米波雷达的探测结果进行验证 。
如果摄像头发现前方有车辆 , 雷达也确认了前车的位置和速度 , 就可以做出刹车的动作 。
如果用这些误识别的结果来做驾驶决策 , 显然会出现更多的问题 。特斯拉自然知道这一点 , 因此在实际中并不会对纯视觉的感知结果进行反应 。
所以这起事故的原因就很明确了 , 不管视觉有没有识别到前车 , 一定是毫米波雷达没有给出结果 , 所以最终系统没有反应 。
三、毫米波雷达天生缺陷 害怕静止车辆
毫米波雷达即然不会“见鬼” , 那么为啥会识别不到前方的卡车呢?
东南大学国家毫米波重点实验室毫米雷达技术专家、毫米波雷达公司隼眼科技CTO张慧多次向车东西分析了背后的原因 。
从最底层的工作原理来说 , 毫米波雷达主要是依靠多普勒效应来感知移动目标 。多普勒效应的特性是 , 动态对动态最容易感知、动态对静态较难感知、静态对静态极难感知 。
这是因为如果前方车辆静止 , 目标信息容易和地杂波等掺杂在一起 , 需要一定的算法才能从中分辨出目标 。而如果是一个行驶中的汽车 , 基于其多普勒信息 , 从而比较好探测到目标 。
所以如果卡车静止或者移动速度很慢 , 雷达的算法就无法知道前方有物体 。
但这种可能性并不大 , 因为各大雷达公司已经做出了一些感知算法 , 可以识别静态物体 。
真正的难点是 , 现在的雷达没有高度信息 , 并且空间分辨率不足 。
没有高度信息 , 意味着雷达很难区分横穿马路的路牌和桥下的车;空间分辨率不足 , 意味着两个距离很近的物体 , 其回波会被混在一起 , 很难知道有几个目标 。
所以雷达公司和一些车企在拿到雷达的反射数据后 , 会通过算法直接将一些静止物体 , 或者疑似静止的物体过滤掉 , 以避免产生错误的反应 。
比如本次事故场景中 , 因为卡车是垂直Model Y方向行驶 , 如果同时行驶速度又很慢的话 , 因为缺乏径向多普勒分量 , 雷达的识别算法很容易将其当成静态目标过滤掉了 。
推荐阅读
- Tesla 特斯拉维权女车主首度公开事故前30分钟数据 将依法起诉
- Tesla 特斯拉法务部多点开花 开启抖音、头条等多个平台帐号
- Tesla 特斯拉股价相较年内高点已下滑32%
- 犯人就是你 给我把这预言家刀了——李光洙篇,恋爱、事业、甚至车祸事故都一一命中,太准了呀!
- nSpaceX将在2023年前向国际空间站发射四次私人宇航员任务
- Tesla 特斯拉就深圳车主被困车内致歉
- Tesla 全车断电车主被困车内险窒息:特斯拉送上应急开门方法
- Tesla 开始招兵买马 特斯拉要进军印度市场了?
- 电子商务 一夜四次熔断!"散户抱团股"嗨了:最猛七天狂涨400%多 王健林"倒在了黎明前"
- Tesla 碰撞时存在安全隐患 特斯拉召回734辆进口Model 3