炸锅!288万特斯拉FSD被查,闯红灯致23伤 官方:恐强制召回

这自动驾驶,到底开了个啥?

288万辆特斯拉,被美国交通安全局盯上了!

一收到50多起关于“完全自动驾驶”(FSD)系统安全问题的报告,这事儿就闹大了。

闯红灯、逆行变道…

这些本该是驾驶员绝对不能犯的错,报告里说,这套系统居然会“违反交通规则”。

你说,这让人情何以堪?

炸锅!288万特斯拉FSD被查,闯红灯致23伤 官方:恐强制召回-有驾

管理局那边,手里头捏着58份报告,这里面有14起事故,直接造成了23人受伤。

其中,有6起报告指控,使用FSD的特斯拉,在红灯亮起时,直接冲进了路口,和别的车撞了个正着。

还有车主抱怨,这系统压根儿就没准确识别交通信号,甚至没能在红灯时完全刹停。

更让人心寒的是,车主反馈,特斯拉那边“没有解决问题,甚至不承认存在问题”。

这态度,可真是让人无语了!

我的经验告诉我,当一个系统被设计来辅助驾驶,却屡屡出现“越界”行为,那它存在的“不合理安全风险”就不是一句“初步评估”能轻易带过去的。

一旦管理局认定风险不可控,召回几乎是必然的选择。

毕竟,铁路道口这种地方,出现任何失误,后果都可能是灾难性的。

想想看,这已经不是第一次了。

去年10月,就因为能见度低时发生的4起碰撞事故,管理局也对大约240万辆配备FSD的特斯拉进行过类似的调查。

这来来回回的,总给人一种感觉:这套自动驾驶系统,仿佛总是在规则的边缘试探,而且,还时不时地“玩火”。

“完全自动驾驶”,听着多带劲儿!

特斯拉官网也说了,它能在驾驶员的监督下,智能、精确地完成驾驶操作,包括导航、转向、变道、泊车等等。

可关键在于“驾驶员监督”。

这监督,到底是个什么程度?

是让你偶尔瞄一眼,还是得像个时刻准备接管的赛车手?

当系统本身就可能“脑回路清奇”,驾驶员的“监督”又能起到多大的作用?

这就像是给一个孩子一把玩具枪,告诉他“只能打气球”,可他却拿枪指着街上的行人,家长能完全撇清责任吗?

炸锅!288万特斯拉FSD被查,闯红灯致23伤 官方:恐强制召回-有驾

这事儿,让我想起一句老话:“知人者智,自知者明。”

也许,对于科技来说,更重要的是“自知”——清楚自己的能力边界,了解自己的局限性。

当一个技术,尤其是关乎生命安全的技术,不能做到“自知”,那它对社会的潜在风险,可就太大了。

我们这些普通用户,渴望科技进步带来的便利,希望自动驾驶能解放我们的双手,让我们在通勤路上也能享受片刻的安宁。

可当这份便利,伴随着潜在的危险,甚至可能将我们置于险境,那我们还能心安理得地享受吗?

实践反复证明,任何技术,在落地应用前,都必须经过严苛的验证。

尤其是在我们国内,道路情况复杂多变,交通参与者众多,一个稍有差池的自动驾驶系统,那画面,真是不敢想象!

特斯拉方面,目前还没有正式回应,但本周却更新了软件。

这算不算是一种“亡羊补牢”?

我不好说。

但愿这次的更新,不是简单地“打个补丁”,而是真正解决了那些“违反交通法规”的根本性问题。

毕竟,如果真的存在“不合理的安全风险”,那召回,几乎是唯一的选择。

否则,那288万辆还在路上的车,都可能成为潜在的“定时炸弹”。

炸锅!288万特斯拉FSD被查,闯红灯致23伤 官方:恐强制召回-有驾

这事儿,给咱们所有人都敲响了警钟。

享受科技的成果,绝不能以牺牲安全为代价。

自动驾驶,这个听起来充满未来感的概念,它的实现,必须建立在绝对可靠的安全基石之上。

不能光听那些光鲜亮丽的宣传,也不能只看那些炫酷的演示视频。

它需要在真实世界的复杂环境中,经受住最严峻的考验,才能赢得我们的信任。

我的经验告诉我,一个成熟的技术,首先要做到的是“不作恶”,其次才是“求发展”。

在自动驾驶领域,尤其如此。

我们期待的,是一个既能聪明地驾驶,又能牢牢守住安全底线的系统,让我们都能安心地把出行,交给它。

这288万辆车,50多份报告,14起事故,23名受伤者…

这些冰冷的数字背后,是一个个鲜活的生命,是一个个家庭的幸福。

希望特斯拉能正视问题,希望管理部门的调查能够深入彻底,最终给出一个公正的答复。

更重要的是,希望未来的自动驾驶,能真正做到“智能”与“安全”并驾齐驱,让每一次出行,都充满安心与从容。

好了,今天就先聊到这儿。

这事儿后续怎么发展,我还会继续关注,到时候再跟大伙儿一块儿唠。

你们对特斯拉这套FSD,有什么看法?

或者,你们有没有遇到过什么让你觉得不安全的驾驶辅助系统?

评论区里,咱们敞开了聊!

别忘了给“用车社”点个赞,加个关注,有啥好玩儿的、有意思的,我第一时间跟你分享!

下回见!

0

全部评论 (0)

暂无评论