媒体:汽车安全是底线 领克必须会,系统误判暴露交互设计缺陷

2026年2月26日晚,广西高速上一辆疾驰的领克Z20突然陷入黑暗。车主本想语音关闭阅读灯,系统却误判为“关闭全车灯光”,车辆瞬间在无照明状态下撞向护栏。这不是科幻电影的桥段,而是智能汽车“过度聪明”引发的现实险情。

媒体:汽车安全是底线 领克必须会,系统误判暴露交互设计缺陷-有驾

一句模糊的语音指令,竟让钢铁猛兽瞬间失控。领克Z20这起事故,暴露了智能座舱设计的致命短板:在高风险场景下,用模糊的自然语言替代精确的工程控制。这不仅是一次技术故障,更是对汽车安全底线的漠视。当交互便捷性凌驾于行驶安全性之上,代价往往是生命。

媒体:汽车安全是底线 领克必须会,系统误判暴露交互设计缺陷-有驾

自然语言的模糊性,历来是高风险领域的“大忌”。2025年3月,韩国真航空LJ312航班就因飞行员误听塔台指令中“R”与“L”的发音,险些降错跑道酿成惨剧。航空界用几十年血泪建立起标准化的“通话术语”,就是为了消灭语言歧义。如今,汽车行业却在盲目追求“自然交互”,将这种歧义引入高速行驶的封闭空间,这无疑是对工程安全原则的傲慢背叛。

媒体:汽车安全是底线 领克必须会,系统误判暴露交互设计缺陷-有驾

领克Flyme Auto系统的缺陷,在于它既想要“拟人”的智能,又缺乏“类人”的判断力。系统无法区分“阅读灯”与“大灯”的语义权重,更未在执行高风险指令前设置二次确认或场景校验。更荒唐的是,该车型取消了物理大灯开关,当语音失灵、屏幕黑屏,驾驶员竟无任何物理手段切断错误指令。这种“把命交给代码”的设计逻辑,直接违背了2024年实施的《整车信息安全技术要求》中关于双重验证的强制性规定。

媒体:汽车安全是底线 领克必须会,系统误判暴露交互设计缺陷-有驾

事后领克24小时内推送OTA升级,禁止语音关闭大灯,看似应对神速,实则暴露了研发流程的草率。涉及安全性能的变更,理应经过严格验证与备案,而非像修补软件Bug一样随意“热更新”。这种“先上路、后打补丁”的互联网思维,不应套用在关乎生死的汽车工业上。智能化的终点不是剥夺人的控制权,而是在保障安全的前提下提供辅助。

媒体:汽车安全是底线 领克必须会,系统误判暴露交互设计缺陷-有驾

真正的智能,应当懂得在何时“拒绝”人类。在追求“动口不动手”的便捷狂欢中,我们更需警惕:模糊的自然语言,绝不该成为控制车辆核心功能的唯一缰绳。留住那个不起眼的物理按键,远比一万行华丽的代码更能守住生命的底线。

0

全部评论 (0)

暂无评论