小鹏举办科技日,发布第二代VLA,展示辅助驾驶技术

十一月的广州,天还没黑透,科技日的现场却已是灯火通明。

会场入口人潮涌动,像是有人在追逐一宗悬案的关键线索。

大屏幕上,小鹏的LOGO冷静地闪烁着光——没有笑脸,也没有哭脸,只有一行行程序员式的严谨代码,仿佛在提醒:今天的主角,不是哪个天才CEO,而是一块芯片,一条数据链,一套看得见世界又未必懂人心的智能系统。

我混在人群里,悄悄数着手上的咖啡杯,试图揣摩:如果我是那个被AI“取代”了的司机,会不会也跟技术人一样,想要用数据证明自己没那么容易被淘汰?

小鹏举办科技日,发布第二代VLA,展示辅助驾驶技术-有驾

小鹏第二代VLA发布,这场技术秀比起传统新车发布更像一次法庭对质——每个细节都像是证据,每个指标都像是辩护词。

主办方显然是想让我们相信:今天的AI,不只是会看路,更懂世界。

至于“懂人”,暂且搁下。

专业旁观者的本能让我迅速扒拉出现场的关键信息。

VLA 2.0,全称视觉语言动作大模型,据说是用近1亿段视频片段喂出来的,等效于“人类驾驶6.5万年所遇到过的极端场景”。

听起来很唬人,但我下意识想:6.5万年没出事故的司机,真的存在吗?

还是说,这些数据只是把所有可能的意外都揣摩了一遍,却没法预测人类下班时突发的焦虑或一只突然蹦出的流浪猫。

技术归技术,理性归理性。

小鹏的新一代系统,主打“理解-推演-生成”闭环机制,据说显著降低了信息传递的损耗,能更快反应、更高效推理。

小鹏举办科技日,发布第二代VLA,展示辅助驾驶技术-有驾

更大胆的,是他们把这套东西称为“世界模型”——模拟物理世界的运行规律,不只是看路,更像在理解一个活生生的世界。

图灵AI芯片性能比上一代提升了3到22倍,算子效率提升12倍,模型训练与推理效率提升10倍。

听上去很像是在用摩羯座的方式做事——一切都讲效率,一切都要有数字说话。

如果把每条技术进步都当作一条证据链,那这场发布会的推理逻辑其实很清晰:视觉是核心,语言与动作为辅助。

在硬件和算法层面,小鹏做了全栈自研,意思是从芯片到算子再到模型,一套打包,不假外求。

只要你愿意理解,这几乎是汽车圈里“自己造法庭自己当原告自己做证人”的玩法。

其手势识别功能让我忍不住脑补:未来路边招手不光能招来出租车,还能让自动驾驶车乖乖停下,像小区门口那只被惯坏的土狗。

有趣的是,技术的进步总是潜伏着一丝无奈。

比如,小鹏声称,小路NGP(窄路智驾)即将上线,能实现从高速到小区园路的全场景贯通,平均接管里程提升了13倍,理论上“每月只需接管一次”。

小鹏举办科技日,发布第二代VLA,展示辅助驾驶技术-有驾

我一边听,一边默默想:如果这是真的,未来马路上的“老司机”会不会变成了“老闲人”?

还是说,AI总能算出概率,却学不会人类在下雨天选择走小路的任性?

黑色幽默藏在细节里。

比如小鹏提出的“物理AI”概念,强调AI要能和物理世界实时互动。

不禁让人想起那些年我们信誓旦旦要让机器“懂人心”,最后却只能让它“懂天气”。

现实是,机器对真实环境的认知、预测、生成能力,是一场永远不完的猫鼠游戏。

今天它学会了识别手势,明天也许会困在一只挥手引来的鸽子身上。

至于AI真正理解人类的“非结构化指令”——比如老婆让你“别忘了买菜”,机器恐怕还差几代升级。

当然,发布会上还有开源的高调宣布。

小鹏举办科技日,发布第二代VLA,展示辅助驾驶技术-有驾

把VLA 2.0的成果面向全球商业伙伴开源,听起来像是“科技共享”的好戏,其实更像一场大型“共谋”。

谁都不傻,开源的背后是把生态做大,把数据回流,最终谁掌握了标准,谁就有了发言权。

站在旁观者角度,我甚至怀疑,未来汽车厂商的斗争,与其说是造车之争,不如说是谁能把“世界模型”做得更像世界,更像人。

回到现实,这场技术日的故事其实很简单。

小鹏交出了自己的最新“技术证据”——高性能芯片、全栈自研、数据闭环、世界模型、手势识别、物理AI、全场景智驾,甚至不惜把一部分技术“无偿”共享。

看上去像是一次全面升级,实际是一次关于未来驾驶权归属的无声博弈。

技术人说“减少人工接管”,我却在想,等AI真的能自己开到车位,是不是又有一群人要改行做“数据养护员”了?

推理到这里,故事开始有了转折。

技术越进步,人类越被边缘化——这听起来很像科幻片里的标准剧情,但现实里,AI只是在用数据解释概率,不见得能理解“人性”里的变量。

小鹏举办科技日,发布第二代VLA,展示辅助驾驶技术-有驾

如果真有一天,AI能凭手势识别每个人的意图,那我们是不是也得学会用代码表白,或者用算法吵架?

我不敢断言,但至少目前,多数人的“个性化需求”,依旧是AI的死角。

职业习惯让我总喜欢追问证据背后的证据。

小鹏这次发布,从数据到模型再到芯片,都在强调“闭环”与“模拟世界”。

但我想,世界不是线性逻辑可以完全覆盖的。

比如,AI能模拟物理世界的规则,却未必能预测司机在冬天堵车时的怨气值。

即便是最强大的VLA 2.0,也只能用概率思维应对不确定性,而不是用“共情”弥补机器的冷漠。

有时候,技术日上的数据让我想起刑侦案里那些永远无法还原的“作案动机”。

AI可以推演场景,可以高效响应,但它无法追问“为什么”。

小鹏举办科技日,发布第二代VLA,展示辅助驾驶技术-有驾

就像我在会场一角看到的那杯冷掉的咖啡——你可以建模它的冷却速度,却无法建模喝咖啡的人在等谁。

说到底,技术的边界,从来不是算力,而是理解力。

今天的AI可以让我们每月只接管一次汽车,但还不够让我们相信它可以理解我们的犹豫、任性和小小的善意。

或许未来的VLA还能更聪明,甚至能帮你在雨夜提前关好车窗,记得带好伞。

但当我们把决策权交给机器,是不是也把一部分“人味”留在了算法之外?

故事讲到这里,不打算煽情,也不做结论。

技术的进步是好事,但它能解决多少现实问题,能否真正赋予机器“理解世界”的能力,还得交给时间和人性去做最后的裁决。

我冷静地看着现场的数据流动,像是看着一个庞大的证据链在慢慢拼图。

最后留个问题:当AI开始用“世界模型”推演我们的每一个选择时,你愿意相信它的判断,还是更相信自己的直觉?

或者说,未来驾驶的世界,是AI的世界,还是你的世界?

这个悬念,留给每个还在路上思考的人。

0

全部评论 (0)

暂无评论