上周日下午,加州湾区匹兹堡市的4号公路上,一辆红色特斯拉Model 3以接近一百公里的时速行驶。 路过的司机发现,驾驶座上的老先生和副驾驶座上的老妇人,双双陷入了熟睡。 他们的身体随着车辆的颠簸轻轻晃动,对窗外密集的车流毫无反应。
这辆特斯拉显然开启了自动驾驶模式。 目击者拍下视频并报警,但警方赶到时,车辆已消失在车流中。 这不是孤例。 今年3月1日,加州10号公路上一名女性特斯拉驾驶员被拍到在方向盘后熟睡。 去年8月,另一段视频显示,一位女司机在开启自动驾驶的特斯拉里,脖子上套着充气颈枕安然入睡。
几乎在同一时间,加州西科维纳的一处铁路道口,一辆开启FSD模式的特斯拉Model 3径直撞向已降下的防护栏。 行车记录仪显示,车辆以约37公里时速驶近道口,栏杆已完全放下,高度与前视摄像头齐平。 系统没有任何识别或减速的迹象,直接撞断栏杆冲入轨道区域。 驾驶员在最后一刻踩下刹车,才避免了更严重的后果。
发布视频的车主在社交媒体上写道:“特斯拉FSD今天差点害死我。 ”美国全国广播公司的调查发现,社交媒体上类似报告超过40起。 在宾夕法尼亚州,一辆开启FSD的Model 3曾被带上铁轨并与火车相撞。
这些事件发生的节点很微妙。 2026年3月9日,是美国国家公路交通安全管理局要求特斯拉提交FSD交通违规调查关键数据的最终截止日。 这项调查始于2025年10月,最初关联58起事件,到12月已增至80起,涉及约288万辆特斯拉。 调查范围包括铁路道口识别失败、闯红灯、驶入对向车道等。
NHTSA要求特斯拉提供每起事件前30秒的完整时间线、软件版本、预警情况等数据。 特斯拉两次申请延期,理由是需要人工审核8313份记录,每天只能处理约300份。 公司表示同时应对多项调查,工作量“过于繁重”。
就在数据提交截止日前后,特斯拉刚刚完成了一次重要的软件更新。 2026年3月初,特斯拉向车辆推送了2026.2.9版本,其中一项关键改动是将“自动辅助导航驾驶”更名为“自动转向导航驾驶”,将“完全自动驾驶计算机”更名为“人工智能计算机”。 这次更名源于加州车辆管理局的行政裁决,该机构认为“Autopilot”和“Full Self-Driving”的名称存在误导性,一度威胁暂停特斯拉在加州的销售资质。
名称改了,但系统还是那个系统。 特斯拉在更新说明中写道,这些变更“不会改变任何功能的实际表现”。 然而,2026年1月,联邦法官维持了一项判决,要求特斯拉为一起2019年的Autopilot致命事故赔偿2.43亿美元。 陪审团认为,“Autopilot”这个名字本身就有误导性,让消费者误以为它能自己开。
2026年7月1日,加州一项新法规将正式生效。 根据AB 1777法案,如果自动驾驶车辆在“自动驾驶模式”下发生违章或事故,责任由制造商承担,而非乘客或登记车主。 这意味着,法律开始尝试厘清算法驾驶时的责任边界。
特斯拉官方在2026年2月宣布,FSD累计行驶里程已突破80亿英里。 公司发布的安全报告称,开启FSD后,平均每行驶530万英里发生一次重大碰撞,而人类司机是每66万英里一次。 从数据上看,FSD的重大事故率只有人类的八分之一。
但另一组数据提供了不同视角。 得克萨斯州奥斯汀市的统计报告显示,特斯拉在该市运营的无人驾驶出租车车队,事故率约为人类驾驶员的四倍。 这些车辆使用的正是接受NHTSA调查的同款FSD软件。
2026年2月,一位得州女性起诉了特斯拉,索赔超过100万美元。 2025年8月,她驾驶的Cybertruck在开启FSD状态下,试图径直驶离休斯顿的一座高架桥,撞上了混凝土护栏。 诉讼包含了一项不常见的指控:特斯拉在聘请并留用埃隆·马斯克担任CEO方面存在过失。
诉状称,特斯拉工程师曾建议在车辆中整合雷达和激光雷达传感器,但马斯克否决了这一建议,坚持仅依赖摄像头。 诉状将马斯克描述为“一个激进且不负责任的推销员,他长期以来一直在做出危险的设计选择,并对其产品功能进行过度承诺”。
面对这些,特斯拉选择了法律反击。 2026年2月24日,特斯拉正式起诉加州车辆管理局,要求撤销关于其FSD虚假广告的行政裁决。 公司辩称,DMV未能证明消费者实际受到误导,且已在用户流程中明确告知功能边界。
加州相关部门已介入调查那对老夫妇的“双人睡驾”事件,试图通过车牌信息进行追踪。 截至2026年3月14日,调查仍在进行中。
全部评论 (0)