你琢磨一下这个场景:高速公路快车道上,蔚来车主正安心享受着NOP+领航辅助带来的轻松,车速平稳地保持在120km/h。突然,没有任何预警,车辆仿佛“看见”了什么看不见的东西,瞬间自动紧急制动,速度从120km/h骤降到80km/h甚至更低。后车刺耳的喇叭声和狂闪的远光灯瞬间将驾驶舱填满,肾上腺素飙升,手心冒汗——这不是电影桥段,这是真实发生在蔚来车主身上的“惊魂时刻”。
而面对车主的惊魂未定和质疑,蔚来售后可能给出的答复是:“偶发性故障,正常。” 或者,通过后台检查数据后称“未发现异常”,仅以“偶发现象”回应。这不是个例,当“偶发”变成了车主维权群的集体控诉,当“正常”的解释无法安抚一颗颗在高速上几乎停滞的心脏,我们不得不停下来思考:当辅助驾驶系统本身成为不确定性的来源,其可靠性的边界究竟在哪里?而隐藏在数据黑盒后的责任,又该由谁来承担?
近期,一位九江市民刘先生的遭遇颇具代表性。他购买的蔚来L60乐道电动汽车,提车仅一个多月,就在高速公路上遭遇了两次“幽灵刹车”。行车记录仪显示,车辆在手动驾驶模式下,无缘无故突然自动触发紧急制动,车速从72km/h骤降至38km/h。这次急刹的直接后果,是车内一名女儿的头部撞伤,出现头晕症状,两天无法正常上学。
更让车主心寒的,是车企的回应。蔚来乐道售后专员检查后台数据后,以“未发现异常”和“偶发现象”作为答复,最终提出的补偿方案,是“关怀名义”下的20张换电券或2万积分。在车主看来,这远未触及问题的核心。
在车质网等公开投诉平台上,类似的案例并非孤本。有2024年8月的投诉显示,一辆蔚来ES6在雨天城区拥堵路况下,距前车5米、车速仅7km/h时,AEB系统多次无故触发紧急刹停,造成车内人员惊吓,后车险些追尾。另有车主反映,在晴天快速路上,路况极好、前方无车的情况下,车辆出隧道后莫名自动降速,毫无预警,导致后车擦肩而过,差点造成事故。
综合这些投诉案例,可以发现一些共性场景:高速公路路段,途经龙门架、桥梁隧道出入口、特殊标志牌阴影区域时,似乎是“幽灵刹车”的高发区。在光线条件复杂,如强烈逆光、侧光,或雨雪天气传感器视野受限时,风险也可能增加。最令人不安的是,这些刹车往往发生在看似“最安全”的情况下——前方无车,路况良好,让驾驶员毫无心理准备。
那么,这些“幽灵”究竟从何而来?问题的根源,大多指向了感知系统的“错觉”。
现代智能汽车的感知系统,依赖摄像头、毫米波雷达、激光雷达等多传感器融合。这套系统虽然强大,但并非完美。在某些特定场景下,它们会产生令人匪夷所思的误判。比如,高速公路上的龙门架,因其复杂的金属结构和阴影,可能被摄像头或雷达误识别为一个巨大的、横亘在道路上的障碍物轮廓。桥梁、隧道口的强烈明暗对比和几何结构,也可能让系统产生“前方有物体”的错觉。道路上方悬垂的线缆、特殊反光的路牌,甚至仅仅是路面上一片形状特殊的阴影,都可能成为触发紧急制动的“幽灵”。
这背后,是决策算法的一种“保守策略”。在无法100%确定前方是否安全时,为了避免最坏的碰撞后果,许多系统的设计逻辑倾向于“宁可错杀,不可放过”。这种在实验室和标准测试中看似安全的策略,一旦放到复杂多变的真实道路环境中,就可能因过度敏感而频繁误触发,从安全屏障变成了危险源头。
此外,高精地图的“延时”也可能扮演帮凶角色。如果地图数据未能及时更新,比如某处施工围挡已经移除,但地图上依然标记为障碍区域,当车辆定位出现微小漂移时,系统就可能误以为车辆正在驶向一个并不存在的障碍物,从而启动制动。
当技术存在局限时,宣传的边界就显得尤为重要。蔚来等车企在推广NOP、NOP+等领航辅助功能时,使用的语言常常充满未来感与诱惑力。“领航辅助”、“自动驾驶辅助”这些词汇,在营销语境中,很容易让消费者模糊“辅助”与“自动”的界限。
根据中国《汽车驾驶自动化分级》(GB/T40429-2021)国家标准,目前所有在售量产车型的智驾系统,最高仅为L2级驾驶辅助功能。其核心特征是“人机共驾”——系统仅能完成部分驾驶操作,驾驶决策权和最终责任,始终牢牢掌握在人类驾驶员手中。驾驶员必须全程监控路况,并随时准备接管。
然而,当车企的宣传话术不断强调系统的“智能”、“自动”和“轻松”时,用户对系统能力的预期可能会被无形中拔高,对自身“监控与接管”的法定义务则可能有所松懈。这种认知上的差距,在系统发生“幽灵刹车”这类意外时,会进一步放大车主的无助与愤怒:你告诉我它很聪明,能自己开,为什么又会犯这种“低级错误”?
从行业安全标准来看,像“幽灵刹车”这类问题,暴露了现行测试体系的盲区。功能安全国际标准ISO 26262,其核心是解决“系统出错”的安全问题,比如传感器突然失效、ECU死机等。但它管不了“系统按设计工作,但设计本身能力不足”的问题——比如算法把影子当成障碍物。标准能保证刹车信号传输不失真,但不能保证这个刹车指令本身是基于错误感知做出的。对于这类因感知误判导致的“功能不足风险”,行业还缺乏足够全面、能覆盖海量极端场景的测试与验收标准。
当事故真的发生,或险些发生,责任的划分便成为一片模糊的灰色地带。
从法律层面看,目前的框架异常清晰,又异常残酷。根据相关规定,机动车驾驶人的安全驾驶义务,不会因为开启了辅助驾驶功能而发生任何转移或免除。这意味着,一旦发生事故,驾驶员仍是第一责任人。车企通常会通过用户协议中的免责条款来强化这一点:驾驶员需始终保持对车辆的控制,并对车辆的操作负最终责任。
但这真的能覆盖所有情况吗?当车辆在驾驶员未进行任何操作的情况下,因系统自身缺陷(如误识别)而突然执行紧急制动,并因此导致被后车追尾,这个责任链条该如何追溯?是后车跟车过近未保持安全距离?还是前车无故急刹违反了安全驾驶义务?又或者,这个“无故”的根源,在于车企提供的系统存在导致误判的设计缺陷?
这引出了一个更深层的伦理困境。假设算法在极端情况下做出决策:前方出现一个它无法准确识别的物体,它无法判断那是一个塑料袋还是一个孩子。在“碰撞不可避免”的假设下,它选择了急刹。如果急刹导致后车追尾,造成人员伤亡,这个为了“避免碰撞”而做出的决策,反而引发了事故,它还是“正确”的吗?系统的安全设计,应该优先保护车内乘员,还是优先避免制造更大的交通混乱?
此外,还存在“数据黑盒”与取证难题。事故发生后,判定是否为系统误判的关键证据,在于车辆后台的EDR数据。但这些数据的解读权往往掌握在车企手中。如何确保数据提取的公正、透明?如何让第三方或监管机构能够验证,那次急刹确实是源于系统的感知错误,而不是驾驶员不小心误触了某些控制?当车企可以自行分析数据并给出“未发现异常”的结论时,车主维权的道路将异常艰难。
“幽灵刹车”问题,绝不仅仅是影响用户体验的“小毛病”。它直接暴露了当前L2+级辅助驾驶技术在核心的感知与决策环节,仍然存在难以完全克服的固有缺陷。这些缺陷在高速场景下被放大,直接关系到驾乘人员的生命安全和公共道路的秩序。
对于车企而言,正视问题比掩盖问题更为重要。这要求它们至少在三个方面做出切实努力:
技术层面,需要持续投入研发,优化传感器融合算法,提升复杂场景和Corner Case(极端案例)的识别能力。不能仅仅满足于通过标准测试,而必须建立更完善、更贴近中国复杂路况的极端案例测试库,并通过持续的OTA升级来修复已知问题。
宣传层面,必须用清晰、明确、无歧义的语言,向用户传递功能的真实边界。是“辅助”就绝不说成“自动”,明确告知系统的能力局限和驾驶员不可推卸的监控责任,避免制造不切实际的安全幻觉。
售后层面,当车主反馈“幽灵刹车”等问题时,不应简单地归为“偶发”或“正常”。应建立更积极的案例收集、分析和响应机制,将用户遇到的真实问题,反馈到研发端,形成技术改进的闭环。
对于监管和行业而言,也需要推动建立更细化的辅助驾驶功能安全评估标准。针对“幽灵刹车”这类高频高危的误触发场景,应研究制定专门的测试方法和安全阈值。同时,或许有必要探讨建立更强制、更统一的数据记录与事故分析框架,为未来可能需要的责任认定提供公正、可信的技术依据。
回到开头的场景,当“偶发性故障”在高速路上演化为可能危及生命的惊魂瞬间,一句轻描淡写的“正常”,是远远不够的。辅助驾驶技术的进步,必须与安全冗余设计的完善、责任框架的清晰同步前行。只有当此类高风险误判被降至极低水平,且存在明确、公正的责任追溯路径时,这些旨在“解放人类”的技术,才能真正赢得道路,而不是带来新的恐惧。
我们是否能够接受,在通往自动驾驶未来的道路上,“幽灵”成为挥之不去的乘客?
全部评论 (0)