他们不敢说,我来说!
大家好,我是阿炜。
一提到特斯拉,不少人就会想到它那 “独步天下” 的自动驾驶技术,更有特粉说世界上的自动驾驶只有 “特斯拉” 和其他,简直狂妄至极。不管是特斯拉官方还是马斯克本人,在吹嘘自家技术时,永远把自动驾驶如何领先、能解放双手让用户做其他事挂在嘴边,可一旦发生严重事故,尤其是有人不幸遇难时。
责任怎么划分?
是特斯拉承担全部赔偿?
还是驾驶员来背锅?
前几天美国佛罗里达州法庭对一起特斯拉自动驾驶相关案件的正式宣判,或许能为我们揭开答案。
首先复盘一下案情:事件发生在 2019 年的佛罗里达州基拉戈,当时车主正驾驶着他的 Model S,并且启用了特斯拉的 Autopilot(自动驾驶)功能。在穿过一个路口时,由于车主分心去捡掉落的手机,没能及时刹车,车辆以超过 100km/h 的速度撞上了停在路边的汽车和乘客,导致一名女性当场死亡,尸体甚至被撞飞了足足 23 米,她的男朋友也身受重伤,全身多处骨折,还伴有严重的脑损伤和心理创伤。

这起诉讼的核心焦点就是事故责任的界定。
车主认为,马斯克和特斯拉一直不遗余力地向全世界宣称 Autopilot 比人类驾驶更出色,能避免所有事故。但事故发生后特斯拉却狡辩称 “Autopilot 是为受控的高速公路设计的,普通路段并不适用”。特斯拉就是用谎言欺骗车主去测试有严重缺陷的技术。
而特斯拉则反驳称,有证据表明车主应负全部责任,因为他当时存在超速行为,而且在撞击前踩了油门,覆盖了 Autopilot 的指令,才导致事故发生。
最终法院的陪审团认为,车主对本次车祸承担 67% 的责任,但由于他不是被告方,所以不必支付这部分赔偿金。特斯拉则负有约三分之一的责任,根据裁决,该案总赔偿金高达 3.29 亿美元,其中特斯拉需要承担约 4250 万美元的补偿性赔偿,以及 2 亿美元的惩罚性赔偿,总计约 2.425 亿美元。
放在十年前,不管是舆论还是法院,遇到这种情况都会认定 “车主分心不看路,要负全责”。但时代变了,自从特斯拉推出所谓的 “自动驾驶”(AutoPilot)后,车企和媒体都在宣扬 “人类驾驶员就是不行,放手交给车吧,它会安全送你到目的地的”。也正因如此,在这起案件中,车主才敢在路口放心去捡手机,因为他觉得驾驶的汽车足够 “智能”。
说的再明白一点,就是特斯拉的营销把 “驾驶辅助系统” 硬生生吹成了 “自动驾驶”!
Autopilot 其实就是 L2 级驾驶辅助系统,本质是 “辅助”,并不能代替人类驾驶。就像副驾坐了个领航员,能帮你观察路况、引导开车,却绝对不能代替你开车。可看看几年前特斯拉和马斯克的宣传,在 X 和 YouTube 上,大量视频标题都包含 “安全回家”“解放双手”“比人类驾驶员聪明” 等内容。
一个敢吹,一个敢信,最终酿成了这场惨祸。
这时候特斯拉却转身跳出来说:“我们从来没有保证过这是自动驾驶,只是名字刚好叫自动驾驶而已,你看我们的条例,白纸黑字写得明明白白「此功能驾驶员需要主动监督,并无法实现自动驾驶」,所以责任都是驾驶员的!”
好家伙,完全把消费者当日本人整。怪不得陪审团会认为,驾驶员低头有错,但特斯拉的过错更可恶,不是因为系统失效,而是宣传时 “故意模糊了系统的功能边界”,所以最后罚了 2 亿美元。
很多人觉得这笔赔偿金太高,会伤害到特斯拉,阻碍自动驾驶技术的发展。但在美国的法律逻辑里,企业误导用户、掩盖缺陷、存在诱导嫌疑,就必须拿钱承担后果。尤其是惩罚性赔偿,它的目的不是补偿受害者,而是杀鸡儆猴,让所有企业都知道这么做会损失巨额资金,甚至可能破产,这样企业才不敢肆意妄为。
所以这次特斯拉被罚,影响的不仅是特斯拉自身,更是给整个 “智驾圈” 敲响了警钟。特别是国内的车企,在宣传上的欺诈行为和特斯拉相比可谓半斤八两。举个例子,有一家车企宣传自家 “智驾” 无限接近 L3,是 2.9999 级,是准 L3 级,是只要法规一发布立马就能升级成 L3。但你去问他们的销售或者老总,自家的 “智驾” 是不是经过国家认证的 L3 级? 出事后责任是否全包? 相信他们会立马顾左言右,说 “自家智驾还是 L2 级别的,开启后还要全程紧盯”。
说白了,就是和特斯拉一样,吹牛归吹牛,你真信了,出了事当然是你全责!
其他的就不多说了,再说可能就要被冲、要进小黑屋了,大家懂得都懂,不懂的话就把上面两个问题问问销售,相信你会得到答案的。
在找资料的时候,看到有 “充值帝” 美国分帝测试最新版的 FSD,看完测试内容,你肯定会惊掉下巴。这次测试的 FSD 版本是 13.2.9,是2025 年 5 月 11 号才推送,是目前最新的版本,可不是什么残血版。而且测试场景只有一个就是鬼探头,看看 FSD 能不能安全刹停。
当假人在剩余一个车身距离时开始冲出,此时特斯拉车速大概 30km/h,结果车辆没有任何识别,没有任何提醒,直接撞上了假人。从目视假人到发生撞击,大概有 2 秒的时间。
可能有人会说距离太近,反应时间太短。但这可是 “人类之光,能解放双手”的特斯拉啊,30km/h 都刹不停?那好歹也能识别到吧?充值帝用残血版在高速 100km/h 时都能准确识别到一头野猪,怎么到了灯塔国,连个假人都识别不了,到底谁才是残血版?难道版本越新,能力越差吗?
更离谱的是,撞击后 FSD 依旧没识别出假人,虽然刹停了,但并没有退出 FSD,而是犹豫几秒后继续往前开。测试的驾驶员都在高呼 FSD 这是在肇事逃逸。不得不说,发生撞击后不退出,比国产智驾好那么一点,国产智驾永远都是在撞击前一秒,从 NOA 退到 ACC,最后要求用户接管,过程倒是非常 “丝滑”。
这里提一嘴,FSD 刹停后犹豫几秒,是因为它扫描场景的数据只会保留 5 秒,时间一到就会丢弃。所以合理的逻辑是,FSD 意识到撞到东西后开始刹车,用了 2 秒,剩下的 3 秒在识别扫描到的场景数据,但最终没能识别出是人,所以 5 秒一到,就忘了自己发生过车祸,跟没事一样继续往前开!
大家先别急,再看看下一个测试。这次测试还准备了校巴,校巴展开了 “stop” 标志并打开了双闪灯,在正常场景下,这意味着校巴正在接送学生,按照美国的法律,任何车辆都不能超过正在接送学生的校巴,因为学生可能会随时冲出横穿道路,这也就是标准的 “儿童鬼探头”!
从屏幕上能看到,FSD 没有识别出这是校巴,而是把它当成了普通卡车,丝毫没有减速就直接开了过去。结果毫无意外,FSD 又一次撞上了假人,并且犹豫几秒后继续往前开。所以在这里,FSD 起码犯了两个错,一是见到正在接送学生的校巴没有停车,二是撞到人后没有停车,而是继续往前开,属于肇事逃逸。
这次测试虽然不是在标准测试场地进行的,但测试场景一定是美国最常见的路况,所以不管怎么洗,这就是最新fsd的道路表现,看完后你还敢双手离开方向盘放心穿过街道吗?只要 FSD 失误一次,驾驶员包坐牢的。
总结一下:
1. Autopilot 和 FSD 都是 “驾驶辅助系统”,并不能代替驾驶员开车,开启后仍需打起十二分精神,双手放在方向盘上,随时准备接管;
2. Autopilot 和 FSD 都不能代替驾驶员坐牢,发生车祸时,发生车祸驾驶员最少是主责,甚至全责;
3. 最新版的 FSD 不能识别校车,在美国的车主需要格外注意,别被佛伯乐(警察)抓到;
4. FSD 撞击后如果识别不出撞击的是人,会犹豫几秒后继续往前开,这就是肇事逃逸;
5. 不管是国外还是国内,车企对生命的敬畏心都还不够,智驾虚假宣传已经成了行业共识,期待政府能加强监管。
最后阿炜只想告诉大家,智驾系统都不能完全相信,车企吹牛是没有下限的。真要是发生车祸,车企百分百会推卸责任。作为车主,只要智驾系统失误一次,造成的影响就可能是终生的,伤筋动骨还算好的,万一出了人命,保不齐还要坐牢,实在是得不偿失。
如果大家觉得我的文章还不错,欢迎点赞+关注,我们一起变得更强。
我是阿炜,我们下一篇文章再见。
↓上期答案:特斯拉Model 3
本期猜车
全部评论 (0)