魔幻。
这个年头,你要是不聊点AI,不扯两句端到端,你都不好意思跟人说你是造车的,感觉下一秒就要被友商开除球籍,连PPT都上不了桌。
大家都在卷,卷冰箱彩电大沙发,卷续航卷价格,但所有人都心知肚明,这些都是开胃小菜。
真正的硬菜,那个能让所有对手直接出局的王炸,叫自动驾驶。
不是现在这种需要你时刻提心吊胆,它一犯错你就得背锅的“辅助驾驶”,而是那种你上车输个地址就能直接开睡,醒来就到地方的真·自动驾驶。
但问题是,这玩意儿喊了这么多年,除了让一部分早期用户变成了付费测试员,顺便锻炼了他们随时准备接管的反应能力之外,好像离我们还是那么远。
就在大家感觉这事儿有点像“下周回国贾跃亭”一样虚无缥缈的时候,何小鹏站出来,上来就捅了个马蜂窝。
他说,现在市面上这些所谓的“端到端小模型”,有一个算一个,都是在自嗨。
也许能把80%的路况开得明明白白,但剩下的那20%的“地狱模式”,它们永远搞不定。
而这20%,就是区分“玩具”和“工具”的楚河汉界。
这话说的,非常不给同行面子,但又非常现实。
什么是80%的路况?
就是那种路面平整、标线清晰、车流有序的高速或者城市快速路。
在这种路上开得好,说难听点,就是个高级版的“巡航定速”,顶多算个考试里的送分题。
真正的考验,是那20%的混沌场景。
比如,一个醉汉突然从巷子里冲出来,对着你的车又唱又跳;前面修路,一个工人老哥举着个“停”字的牌子,但另一只手还在比划让你赶紧过去;一个三轮车突然从你右前方45度角切入,车上还拉着一根比车还长的钢管;又或者,你开进了一个没有GPS信号、路边停满了车、还夹杂着小孩和狗的城中村。
这些场景,就是人类驾驶员都会头皮发麻的时刻。
对于现在的L2辅助驾驶来说,基本就是直接死机,然后用一声尖锐的警报把方向盘甩还给你,留下一句“你自己看着办”。
你品,你细品。
一个只能在80%时间里正常工作,剩下20%时间里随时可能撂挑子的系统,你敢把自己的命和家人的命交给它吗?
你不敢。
所以你开车的时候,手永远不敢离开方向盘,脚永远在刹车和油门之间反复横跳,精神高度紧张,比自己开还累。
这就是L2和L4的本质区别。
何小鹏把它总结成了四个“核心差异”,翻译成大白话就是:
第一,能力。
L2是“我偶尔帮你开一下”,L4是“你偶尔帮我开一下”。
他说要做到平均接管里程提升10倍,日常通勤一个月都不用你动手。
这才是从“玩具”到“工具”的质变。
否则,你买个智能驾驶,结果天天给它当保姆,图啥呢?
第二,场景。
L2是“这条路我熟,我能开”,L4是“随便什么路,都能开”。
胡同、巷子、犄角旮旯,这些地方才是真正考验泛化能力的。
就像一个学霸,不能只会做卷子,还得会解决生活中的实际问题。
一个只能在大马路上跑的自动驾驶,跟一个只能在操场上跑的马拉松冠军一样,听着牛逼,其实没啥用。
第三,安心。
这是最重要,也最玄学的一点。
他说要让“每一位爸爸妈妈都能安心使用”。
这句话直接戳中了所有人的痛点。
现在的L2,最大的问题就是“不安心”。
它会突然一个急刹,让你手里的奶茶洒一车;它会犹豫不决,在路口像个新手一样反复“蠕行”;它会因为一个塑料袋在风中摇曳而认为前方有障碍物,然后给你来个紧急制动。
这种“神经刀”式的驾驶风格,别说让爸妈安心了,自己都得备着速效救心丸。
真正的安心,是润物细无声,是让你感觉不到它的存在,就像一个开了20年车的老司机。
第四,效率。
L2是“能走就行”,L4是“走得漂亮”。
面对复杂路况,L2往往选择最怂的方式,停下来等。
而L4应该像专车司机一样,在保证安全的前提下,从容不迫地快速通过。
这背后是极其复杂的博弈和预判能力。
所以,问题来了,既然大家都知道这20%是关键,为什么一直没人能解决?
因为难。非常难。
传统的自动驾驶模型,像个蹩脚的翻译。
它通过摄像头、雷达这些“眼睛”看到世界,然后把这些图像信息,先“翻译”成一种计算机能理解的结构化语言(比如,识别出这是一辆车,那是一个人,这是一条线),然后再根据这些“翻译”过后的信息,去查一本厚厚的“交通规则手册”,最后再决定自己是该加速、减速还是打方向。
这个“翻译”环节,就是瓶颈。
翻译总会有信息损失,也总会有错误。
一个影子,可能被翻译成障碍物;一个广告牌上的人像,可能被翻译成行人。
一旦翻译错了,后面的决策就全乱了。
而小鹏这次所谓的第二代VLA,最核心的改变,就是号称要“去掉语言转译环节”。
简单来说,就是不当翻译了,直接学着当一个“本地人”。
它不再试图去理解“那是一辆白色的SUV”,而是通过海量的数据学习,直接把“看到眼前这个画面”和“应该打方向盘向左5度并轻踩刹车”这两个动作关联起来。
这就像你学骑自行车,你不是靠背诵“力学原理”和“平衡法则”学会的,你就是摔了无数次之后,身体形成了肌肉记忆。
看到前面有块石头,你的身体会自然而然地做出反应,根本不需要大脑去进行“识别石头-查询规则-下达指令”这个过程。
小鹏的这套新东西,就是想给汽车装上这种“肌肉记忆”。
为了实现这个目标,他们开始疯狂“堆料”。
车上,给你塞一个2250TOPS算力的芯片,这相当于把一个小型超算塞进了你的车里。
云端,搞了个3万卡的算力集群,24小时不停地跑模型。
数据,喂了近1亿公里的视频,相当于一个司机开65000年才能遇到的各种极限场景的总和。
把算力当金坷垃一样往车里撒,把数据当饭一样喂给AI,目的只有一个:让这套系统见识过足够多的“人间疾苦”,多到足以在面对那20%的混沌场景时,能够从它的“肌肉记忆”里,找到一个最优解。
发布会上展示的那些“骚操作”,其实都是在秀这种“肌肉记忆”:
看到前面修路,有辆车占了道,它不是傻等,也不是报警让你接管,而是像老司机一样,观察对向没车,直接跨实线借道绕过去。
这个操作,在规则手册里绝对是“禁止项”,但却是现实中最优的解法。
汇入主路时,它不再是傻乎乎地冲出去或者一动不动地等,而是会“蠕行”,一点点往前探,同时观察后方来车,找到一个空隙,一脚油门丝滑地并进去。
这股子“机灵劲儿”,就是老司机才有的。
甚至,它还能识别交警的手势。
红绿灯坏了,交警在指挥,它能看懂手势,主动停车。
这一点,已经超出了绝大多数L2系统的认知范畴。
说白了,小鹏正在做一件很“暴力”的事情:用近乎无限的算力和数据,去模拟一个无限接近人类驾驶直觉的“大脑”。
这事儿能不能成,现在下结论还太早。
毕竟从PPT上的“遥遥领先”到用户手里的“真香”,中间还隔着无数个需要OTA修复的BUG。
但这个方向,让人看到了解决那“20%难题”的一丝曙光。
自动驾驶的终局,比拼的不是谁家的冰箱更大,谁的沙发更软,而是谁能率先驯服那20%的道路混沌,谁能真正给用户提供“安心感”。
这不仅是一场技术竞赛,更是一场关于信任的豪赌。
小鹏现在把自己的赌注,全部压在了这套“大力出奇迹”的VLA上。
至于最后是会成为行业颠覆者,还是会成为另一个“画饼大师”,时间会给出答案。
但至少,他们把问题摆在了台面上,并且给出了一个看起来有点意思的解题思路。
这本身,就比那些还在吹嘘自己能在80%的场景里开得多好的厂商,要性感多了。
全部评论 (0)