凌晨的高速公路,漆黑一片。驾驶者发出一句"关闭阅读灯",领克Z20却把大灯一并熄灭。车速未减,视野归零。几秒后,车辆撞上护栏。这不是电影桥段,而是2026年2月25日发生在领克车主身上的真实事故。
事故本身颇具荒诞色彩:一句语音指令,竟让智能汽车"自废双目"。领克事后迅速致歉,并连夜推送OTA更新,禁止行驶状态下语音关闭大灯。反应不可谓不快,但补救逻辑却让人不安——它选择了最简单粗暴的"一刀切",而非从根本上解决智能系统的误判问题。这暴露出一个行业性短板:当车机获得控制权,谁来监督它的"手指"?
回顾事故细节,问题链条清晰可见。车主在无路灯高速路段行驶,仅想关闭车内阅读灯。语音系统却因噪音干扰和网络波动,将指令误判为"关闭所有灯光"。更致命的是,系统未设置任何安全兜底:它既没有识别出"高速+夜间"的危险场景,也没有对"关闭大灯"这一高风险操作进行二次确认。当车主试图唤醒灯光时,车机只回了一句"暂时还不会哟"。这句话,差点成为遗言。
领克的OTA方案,本质上是承认了系统的"智力不足"。用物理拨杆替代语音控制,固然能杜绝误操作,却也与智能化趋势背道而驰。更值得追问的是:为什么车机会执行一条明显违背安全逻辑的指令?在高速行驶时关闭唯一的外部照明,这在任何人类驾驶员看来都是荒谬的。一台标榜"智能"的汽车,却对此毫无判断力。
行业并非没有更好的解法。华为享界S9的语音系统已实现语义分级:当用户说出"关闭全部灯光",系统仅关闭阅读灯,保留大灯。理想汽车则建立了场景化的权限熔断机制,在特定工况下自动锁定高风险指令。这些设计证明,让车机学会"拒绝",技术上完全可行。其底层逻辑是:安全不是功能的对立面,而是智能的前提。
更深层的症结,在于部分车企对"智能"的理解仍停留在"能做什么",而非"不该做什么"。这种思维导致系统设计缺乏"免疫系统"——它能够执行指令,却无法判断指令是否合理。一台真正智能的汽车,应当在识别到"关闭大灯"指令时,瞬间调取车速、光线、路况数据,得出"现在不行"的结论。这不需要复杂的AI推理,只需要开发团队在产品定义阶段,把安全逻辑写进代码底层。
领克事件的价值,在于它敲响了行业警钟。智能汽车不能只追求功能的"炫酷",更要建立对误操作的防御机制。当车机拥有了控制车辆的权力,就必须同时承担判断风险的责任。与其在事故后紧急禁用功能,不如在系统上线前构建完整的安全免疫逻辑。
下一次,当驾驶者在暴雨中误触语音指令,希望车机的回答不是"好的",而是"现在不行"。因为在智能化的赛道上,学会说"不",远比学会听话更重要。
全部评论 (0)