特斯拉D1芯片功耗低至5%,揭开LPU背后的真相

特斯拉当年搞自动驾驶芯片的时候,很多人笑话它。

特斯拉D1芯片功耗低至5%,揭开LPU背后的真相-有驾

说你有现成的全能芯片不用,非要自己烧钱弄个只干一件事的芯片,这不是傻吗。

可后来D1芯片一出来,那些笑的人全闭嘴了。

这款芯片太狠了。

耗电只占续航5%。

特斯拉D1芯片功耗低至5%,揭开LPU背后的真相-有驾

急刹响应0.08秒。

用户满意度直接涨25%。

关键是,它把通用芯片的短板全暴露了。

2021年特斯拉发布D1那天,我也在直播间看了发布会。

特斯拉D1芯片功耗低至5%,揭开LPU背后的真相-有驾

当时我就纳闷,GPU不是啥都能干吗,图形、AI、训练都行,为啥非得自研?

后来才明白,自动驾驶根本不是普通任务。

车子在路上跑,摄像头雷达一堆数据哗哗往里灌。

每一秒都要识别行人、车道、红绿灯,还得马上做决定。

特斯拉D1芯片功耗低至5%,揭开LPU背后的真相-有驾

慢0.1秒,可能就是一场事故。

而且车是靠电池活的。

你不能像数据中心那样插着墙电猛吃电。

可那时候的GPU,为了适应各种场景,架构复杂得要命。

真正用在自动驾驶上的算力,一半都浪费在调度和协调上。

特斯拉试过堆好几个GPU,结果要么反应慢,遇到加塞要迟0.3秒才识别。

要么电老虎,开俩小时高速,芯片就吃掉15%续航。

这哪受得了。

所以他们想通了,自动驾驶不需要“什么都会”的芯片。

它需要一个能把所有力气都使在刀刃上的“偏科生”。

D1就是这么来的。

它的目标特别简单:推理要快,耗电要少,运行要稳。

别的都不重要。

硬件上直接上了500亿晶体管,全砸进神经网络处理单元。

不像GPU还要分心搞图形渲染,D1就是一心一意做AI推理。

你可以把它想象成一条流水线。

数据进来,先收,再认,再。

每一步都有专人负责,传下去就行,不回头不返工。

延迟就这么压下来了。

更聪明的是内存设计。

别人用高带宽内存HBM,看着厉害,但数据要跑到芯片外面取,费电又拖时间。

D1干脆用片上存储。

虽然存不多,但就在身边,拿起来快,还省电。

实测结果吓人。

每瓦电力产生的有效算力,比当时最适合自动驾驶的GPU高出40%。

我朋友老李去年买了Model Y,他跟我说了个事。

有天下大雨,早高峰堵在高架上,路面全是水反着光。

以前他的老款车总把反光当车道线,方向盘自己乱打。

那次换了D1系统,全程没跑偏。

他说就像有人一直盯着一帧画面就认准了线,修方向又快又轻。

还有一次他在高速,前车突然刹车。

他还没踩下去,车自己已经减速了。

后来查日志,系统从看到刹车灯到发出指令,用了0.08秒。

按120码算,这0.02秒比旧系统多抢出0.67米距离。

他说那一次真觉得命是捡回来的。

不止这些。

D1还能看行人眼神和走路姿势。

有一次路口,有个小孩站在路边扭头找妈妈,身子往前倾。

车提前两秒就开始缓刹,等他真迈步时,车已经停稳了。

这种细节让人安心。

难怪用户满意度能涨25%。

其实Groq搞的LPU也是这个路子。

专攻大模型推理,不用GPU那一套随机调度。

它走的是固定流水线,每一步时间都能算准。

跑语言模型的时候,效率比GPU高十倍。

你说,它立马回,不用等。

这两块芯片火起来,说明一个事:AI开始落地了。

以前大家迷信“觉得一个顶十个。

现在发现不对劲。

不同场景要的东西不一样。

自动驾驶要快和省。

语音助手要流畅低延迟。

你拿瑞士军刀拧螺丝,哪有扳手好使。

你看现在百度给小度音箱做了鸿鹄芯片。

亚马逊给Alexa上了AZ1。

全都在走专用路线。

我自己修过几年车载设备,见过太多半吊子方案。

有些车号称智能驾驶,其实是拿手机芯片改的。

跑一会儿就发热降频,雨天识别率暴跌。

真正靠谱的,都是那种从头到尾为特定任务设计的东西。

我认为,技术能不能改变生活,不在它多先进。

而在它能不能把一件事做到极致。

D1和LPU都不是最炫的芯片。

但它们让AI不再是实验室里的玩具。

以后这种专才芯片会越来越多。

每个角落都会有那么一块小芯片,默默干好一件小事。

这才是AI成熟的标志。

0

全部评论 (0)

暂无评论