特斯拉当年搞自动驾驶芯片的时候,很多人笑话它。
说你有现成的全能芯片不用,非要自己烧钱弄个只干一件事的芯片,这不是傻吗。
可后来D1芯片一出来,那些笑的人全闭嘴了。
这款芯片太狠了。
耗电只占续航5%。
急刹响应0.08秒。
用户满意度直接涨25%。
关键是,它把通用芯片的短板全暴露了。
2021年特斯拉发布D1那天,我也在直播间看了发布会。
当时我就纳闷,GPU不是啥都能干吗,图形、AI、训练都行,为啥非得自研?
后来才明白,自动驾驶根本不是普通任务。
车子在路上跑,摄像头雷达一堆数据哗哗往里灌。
每一秒都要识别行人、车道、红绿灯,还得马上做决定。
慢0.1秒,可能就是一场事故。
而且车是靠电池活的。
你不能像数据中心那样插着墙电猛吃电。
可那时候的GPU,为了适应各种场景,架构复杂得要命。
真正用在自动驾驶上的算力,一半都浪费在调度和协调上。
特斯拉试过堆好几个GPU,结果要么反应慢,遇到加塞要迟0.3秒才识别。
要么电老虎,开俩小时高速,芯片就吃掉15%续航。
这哪受得了。
所以他们想通了,自动驾驶不需要“什么都会”的芯片。
它需要一个能把所有力气都使在刀刃上的“偏科生”。
D1就是这么来的。
它的目标特别简单:推理要快,耗电要少,运行要稳。
别的都不重要。
硬件上直接上了500亿晶体管,全砸进神经网络处理单元。
不像GPU还要分心搞图形渲染,D1就是一心一意做AI推理。
你可以把它想象成一条流水线。
数据进来,先收,再认,再。
每一步都有专人负责,传下去就行,不回头不返工。
延迟就这么压下来了。
更聪明的是内存设计。
别人用高带宽内存HBM,看着厉害,但数据要跑到芯片外面取,费电又拖时间。
D1干脆用片上存储。
虽然存不多,但就在身边,拿起来快,还省电。
实测结果吓人。
每瓦电力产生的有效算力,比当时最适合自动驾驶的GPU高出40%。
我朋友老李去年买了Model Y,他跟我说了个事。
有天下大雨,早高峰堵在高架上,路面全是水反着光。
以前他的老款车总把反光当车道线,方向盘自己乱打。
那次换了D1系统,全程没跑偏。
他说就像有人一直盯着一帧画面就认准了线,修方向又快又轻。
还有一次他在高速,前车突然刹车。
他还没踩下去,车自己已经减速了。
后来查日志,系统从看到刹车灯到发出指令,用了0.08秒。
按120码算,这0.02秒比旧系统多抢出0.67米距离。
他说那一次真觉得命是捡回来的。
不止这些。
D1还能看行人眼神和走路姿势。
有一次路口,有个小孩站在路边扭头找妈妈,身子往前倾。
车提前两秒就开始缓刹,等他真迈步时,车已经停稳了。
这种细节让人安心。
难怪用户满意度能涨25%。
其实Groq搞的LPU也是这个路子。
专攻大模型推理,不用GPU那一套随机调度。
它走的是固定流水线,每一步时间都能算准。
跑语言模型的时候,效率比GPU高十倍。
你说,它立马回,不用等。
这两块芯片火起来,说明一个事:AI开始落地了。
以前大家迷信“觉得一个顶十个。
现在发现不对劲。
不同场景要的东西不一样。
自动驾驶要快和省。
语音助手要流畅低延迟。
你拿瑞士军刀拧螺丝,哪有扳手好使。
你看现在百度给小度音箱做了鸿鹄芯片。
亚马逊给Alexa上了AZ1。
全都在走专用路线。
我自己修过几年车载设备,见过太多半吊子方案。
有些车号称智能驾驶,其实是拿手机芯片改的。
跑一会儿就发热降频,雨天识别率暴跌。
真正靠谱的,都是那种从头到尾为特定任务设计的东西。
我认为,技术能不能改变生活,不在它多先进。
而在它能不能把一件事做到极致。
D1和LPU都不是最炫的芯片。
但它们让AI不再是实验室里的玩具。
以后这种专才芯片会越来越多。
每个角落都会有那么一块小芯片,默默干好一件小事。
这才是AI成熟的标志。
全部评论 (0)