2025年8月1日,美国佛罗里达州联邦地方法院对一起涉及特斯拉智能驾驶系统的交通事故作出判决,裁定特斯拉公司需承担约18亿元人民币的民事赔偿责任。这起事故发生在2019年4月25日,当时一辆特斯拉Model S在启用辅助驾驶系统的情况下,以严重超速撞上了一辆停在路边的雪佛兰汽车,导致一名22岁的年轻女性当场死亡,其男友重伤。法院认定,特斯拉的智能驾驶系统存在缺陷,且未能充分警示消费者系统的风险,因此需承担33%的事故责任。
这起判决不仅是对特斯拉的一次重击,更是对整个智能驾驶行业的一次警示。长期以来,智能驾驶系统的事故责任往往被归咎于驾驶员,而生产厂家则通过一句“系统仅为辅助”轻松脱身。然而,随着智能驾驶技术的普及,类似的事故频发,消费者和监管机构开始质疑这种责任分配是否合理。
就在美国法院作出判决的前几天,中国市场监管总局和工业和信息化部联合发布了一份关于加强智能网联新能源汽车产品召回、生产一致性监督管理与规范宣传的通知,向社会公开征求意见。这份通知的核心意图是强化智能驾驶系统的缺陷管理,要求企业在用户手册、车载信息交互系统中显著位置显示安全提示和使用说明,确保消费者正确理解和使用智能驾驶系统。同时,通知还明确要求企业开发和使用安全优先的驾驶员监测、警示和处置功能,密切监测驾驶员的驾驶状态,及时采取警示或控制措施,防止驾驶员滥用或误用智能驾驶系统。
中美两国的监管思路在这起事件中不谋而合。无论是美国的法院判决,还是中国的监管新规,都强调了智能驾驶系统的缺陷管理和风险警示的重要性。特斯拉的案例表明,智能驾驶系统虽然在某些情况下能够提高驾驶安全性,但其局限性同样不容忽视。特别是在紧急情况下,系统往往无法及时做出正确反应,甚至可能将责任甩给人类驾驶员,导致事故的发生。
美国交通部的调查数据显示,特斯拉的智能驾驶系统在启用状态下,多次与道路上或路边静止的应急或执法车辆相撞。这些事故中,大部分车辆的前方防碰撞系统和自动紧急刹车系统都已激活,但未能避免事故发生。更令人担忧的是,在碰撞前1秒钟,智能驾驶系统往往会主动放弃控制权,将责任甩给人类驾驶员,而在如此短的时间内,人类驾驶员根本无法及时接管车辆。
中国的情况也不容乐观。2024年8月8日,山东高速交警发布了一起过度依赖智能辅助驾驶的事故案例。一辆使用智能辅助驾驶系统的汽车在高速公路上径直追尾撞上前面因爆胎而停在路中的故障车辆,当场造成两人死亡。警方调查发现,肇事车辆的驾驶员在行驶过程中未减速、未避让,直直地追尾前车,推测驾驶员可能走神,车辆实际上处于脱离驾驶任务状态之中,智能驾驶系统未能及时感知到前方的车辆和人员,未能及时做出避让。
这些事故的发生,暴露了智能驾驶系统在感知、理解和应对复杂交通环境方面的不足。尽管智能驾驶技术在不断进步,但其仍无法完全替代人类驾驶员。特别是在面对突发情况时,系统的反应速度和决策能力仍存在明显缺陷。此外,驾驶员监控系统的有效性也备受质疑。许多事故中,驾驶员虽然达到了监控系统的标准,但实际状态和注意力根本不能满足安全驾驶的需要,而监控系统却未能及时发现。
特斯拉的案例还揭示了智能驾驶系统在风险警示方面的不足。法院认为,特斯拉未能充分警示消费者系统的风险,特别是在系统仍处于测试版本的情况下,使用手册中的警示内容虽然充分,但位置不显著,且只提供了电子版本,阅读可达性不足。此外,车内显示屏的警示内容也未能达到法定标准,未能明确点出相关风险和潜在严重后果。
中国的新规在这方面提出了明确要求,企业应当在车辆App、车载信息交互系统显著位置和用户手册中显示组合驾驶辅助系统的安全提示和使用说明,确保消费者正确理解和操作。同时,企业在组合驾驶辅助系统或功能命名及营销宣传中,不得暗示消费者可以视其为自动驾驶系统、具备实际上并不具备的功能,防止驾驶员滥用。
智能驾驶技术的发展无疑为交通安全带来了新的希望,但其局限性同样不容忽视。无论是美国的法院判决,还是中国的监管新规,都强调了智能驾驶系统的缺陷管理和风险警示的重要性。只有在确保系统安全性和消费者正确使用的前提下,智能驾驶技术才能真正发挥其应有的作用。
智能驾驶系统的本质是辅助,而不是替代。只有在确保系统安全性和消费者正确使用的前提下,智能驾驶技术才能真正发挥其应有的作用。
本报道以促进社会进步为目标,如发现内容存在不当之处,欢迎批评指正,我们将严肃对待。
全部评论 (0)