58起事故,听起来够吓人吧? 美国监管机构一拍桌子,对特斯拉FSD立案调查,涉及全美288万辆车。 如果你把58除以290万,会发现每万辆特斯拉一年只出0.2起事故,而人类司机每万辆的事故率是这个数字的几十倍。
调查启动的同一天,特斯拉推送了FSD v14.1更新,用户反馈系统开车“更像老司机”了。 一边被政府盯上,一边技术还在进化,这背后根本不是技术不安全,而是人和AI的“双标”较量。
这次NHTSA的调查,重点锁定FSD两种“犯傻”行为:一是闯红灯,比如马里兰州某个路口连续发生多起特斯拉红灯直冲撞车事件;二是突然逆行或误入对向车道,有用户投诉FSD在转弯时毫无征兆地跨过双黄线。 58起事故中,23人受伤,万幸无人死亡。
然而数据对比让调查显得有点“小题大做”。 特斯拉2025年第二季度报告显示,开启FSD的车辆平均每669万英里才发生一起事故,人类司机每70.2万英里就出一次事。
就算不用FSD的特斯拉车主,事故间隔也有96.3万英里,依然优于人类平均水平。 人类司机酒驾、疲劳、分心的问题,AI根本不会犯。
为什么更安全的技术反而引发恐慌? 问题出在“单一主体偏差”。 社会把几百万辆特斯拉FSD看作一个“整体”,一旦出事,矛头直指“特斯拉AI失灵”。
人类司机犯错时,责任只会落在个人头上。 去年旧金山一起Waymo轻微剐蹭能登上头条,而同城人类司机造成的120起事故几乎无人问津。
技术路线的分歧也让监管态度两极分化。 特斯拉走的是“模仿人类”路线:AI通过摄像头学习真人驾驶习惯,灵活应对修路、临时障碍等复杂场景,代价是连人类的坏习惯也一并吸收,比如实线变道、闯红灯。
Waymo则坚持“规则优先”:依赖高精地图和激光雷达,严格按预设逻辑行驶,受监管青睐,但遇到地图外的情况,比如交警现场指挥,系统直接“死机”。
这种差异在中国市场被放大成实战差距。 今年4月特斯拉FSD进入中国,首周就因为误读特色交通标志狂扣12分。 天津的沙漏红绿灯、南京的巨大倒计时牌、绿灯倒计时红灯不倒计时。这些美国没有的规则,让依赖规则编程的Waymo寸步难行。 但特斯拉靠数据迭代,一个月内违规率就大幅下降。
监管的滞后性正在拖累技术迭代。 NHTSA仍沿用机械时代“一事故一召回”的思路,而欧盟已推出动态评估机制,要求企业补数据而非直接禁技术。 中国工信部去年8月也发布指南,鼓励车企上报事故数据快速优化。
特斯拉的应对策略是“数据清洗”:从人类驾驶记录中筛选合规行为训练AI,并在模拟测试中拦截闯红灯等高风险操作。
去年四季度这套方法让FSD闯红灯率明显下降。 但黑盒模型带来的“幻觉”问题依然难解:部分用户发现FSD初期表现稳定,但长时间开启后决策质量下降,比如突然误入逆行道。
目前,特斯拉在全球40多国部署了FSD,而Waymo仅在美国几个城市运营约1500辆车。 低成本方案让特斯拉规模远超对手,其自动驾驶硬件成本仅为Waymo的1/,多传感器派(如福特CEO)仍坚持激光雷达在雨雾天的冗余价值。
全部评论 (0)