凌晨公路毫无人车,我的座驾却频频自动急刹

智驾技术发展到今天,最难的不是让车辆成功开动,而是让它在恰当的时机停下来。坐在智驾系统平稳接管的车辆里,路况开阔、阳光明媚,蓝色路线在中控屏上稳定延展。突然,车辆毫无征兆地狠狠来了一脚急刹,安全带骤然勒紧,后排乘客的手机飞向挡风玻璃——而窗外,什么都没有。

凌晨公路毫无人车,我的座驾却频频自动急刹-有驾

这就是车主们口中的“幽灵刹车”,一种被反复吐槽却依旧频繁出现的奇异现象。

过去几年,智驾技术经历了从堆砌代码规则,到模拟人类直觉的“端到端”,再到构建“世界模型”的演进。然而,这些看似重大突破,常常被困在一个微小却关键的瞬间:究竟什么时候刹车才是“最合适”?这不仅是技术难题,更是信任难题。一边是车企想要看到行驶里程的指数增长,一边是用户因为一次失误就彻底放弃智驾功能。当技术和安全信任发生冲突时,该如何平衡?

凌晨公路毫无人车,我的座驾却频频自动急刹-有驾

我第一次体验 robotaxi 时,就真切感受到了这种“幽灵刹车”。那是三年前,一辆大厂的自动驾驶车在随行转弯归位时,路边有一位距离尚远的行人,车辆却突然急刹。那一下不仅让我后排拍摄的手机“起飞”,还让我从兴奋瞬间转为紧张。类似抱怨在国内外论坛比比皆是——有司机说,在高速换道时,前车早已驶过数秒,FSD 却后知后觉地刹车;还有 FSD 面对停车标志时提前远远停下,一步步挪动,看上去笨拙而迟疑。更糟的是在视线昏暗的黄昏或凌晨,“幽灵刹车”甚至会伴随系统直接退出接管,让人心惊。

数据显示,智驾目前事故率最高的三个场景:复杂路口变道失败、幽灵刹车、鬼探头式突发物件处理失败,其根源都与“不知道何时刹车”密切相关。刹车不仅是机械动作,更是一场预判的博弈。人类司机能凭细微的神情和动作判断意图,机器却只能依赖速度与方向的计算。等到系统确认碰撞概率,它往往已经错过了最佳刹车点。

凌晨公路毫无人车,我的座驾却频频自动急刹-有驾

在工程师的逻辑中,这就变成了残酷的选择题——是“错杀”,还是“错放”?如果传感器敏感度拉满,风中的塑料袋、井盖上的反光、卡车的黑烟都可能触发急刹;如果敏感度调低,真正的障碍物又可能被忽视,导致事故。机器没有人类的常识,它只能把未知物体视为潜在危险。

过去的传统方案,将驾驶拆分为感知、规划、决策等模块,依赖无数规则处理各种特殊场景。然而这种方法总会遇到“案例不够”“规则太繁”的困境,幽灵刹车在所难免。于是端到端的训练模式登场,直接用神经网络从视频输入到驾驶输出,跳过人工规则编程。它更像是让机器通过“练车”代替“背交规”,对模糊场景的泛化能力显著提升。

凌晨公路毫无人车,我的座驾却频频自动急刹-有驾

不过,端到端也带来新的麻烦:决策不可解释、缺乏逻辑推理。一旦发生错误,人类无法理解它的判断依据,更无法快速修正。于是新的范式如 VLA(视觉–语言–动作)出现,给车辆装上“语言中枢”,不仅能看路,还能理解交通规则和社会契约,让系统在行动前能“思考”理由。而“世界模型”则像裁判,在车决策前先虚拟推演,预测未来几秒的可能结果,避免幻觉般的错误动作。

即便如此,一些用户依然心有余悸。有人在 Reddit 上写道:“FSD 99%的时候像神,但那1%差点让我一家撞上水泥墩。”这种一次性失误,足以让多数司机直接取关。智驾市场因此出现了吊诡现象:一面高声宣传安全性,一面因为一个瞬间的错误而失去用户的信任。

凌晨公路毫无人车,我的座驾却频频自动急刹-有驾

这背后缺少的是有效的用户教育。充分的人机交互能够让司机理解机器的意图,判断是否接管,避免过度信任或过度怀疑。车企在 HUD 显示、语音提示、甚至 AI 可穿戴设备上的尝试,都是为了增强这种沟通。但在销售环节,智驾功能往往只是略过的宣传,没有详细的风险与边界说明。许多车主甚至在提车时都没有系统性地学习过智驾使用方法。

有车主建议,不仅要在销售中进行科普,还应为智驾功能编写专门的使用手册,甚至设立智驾专用的驾驶培训和“驾照”。而用户自己,则应该在购车阶段主动询问智驾的风险场景、交互模式,以及接管提示的意义,通过试驾去验证技术的实际边界。

凌晨公路毫无人车,我的座驾却频频自动急刹-有驾

技术的成熟离不开用户的耐心支持。但与其它消费电子不同,智驾探索的代价可能是生命。因此,不论技术进步多么诱人,谨慎入场与理性判断,才是每一位司机在智驾时代的必修课。

0

全部评论 (0)

暂无评论