首页 热点资讯文章正文

特斯拉硬刚谷歌智能!自动驾驶四大流派对决,未来方向藏关键分歧

热点资讯 2025年09月30日 12:43 1 cc

前言

近年来,全球自动驾驶赛道明显加速。谷歌旗下的Waymo在美国多个城市扩大了无人出租服务规模,跑得越来越稳;而百度Apollo在国内市场也交出了一份相当亮眼的成绩单。

可别看无人车上路多了,行业里的技术争议一点没少。

从车“怎么看世界”的传感器选择,到“怎么思考”的算法架构,再到核心的AI决策模式,特斯拉和谷歌领头的几大流派各有坚持,这些分歧,正决定着自动驾驶未来要往哪走。

特斯拉硬刚谷歌智能!自动驾驶四大流派对决,未来方向藏关键分歧

无人车上路了,技术就成熟了?

最近几年,街上的无人车越来越多,看着挺热闹,不少人以为自动驾驶技术已经没问题了。其实啊,这里面的门道深着呢,各家公司吵得厉害,好多事儿都没达成一致。

先给大家说组实在数据,截至2025年5月,谷歌旗下的Waymo,在美国旧金山、洛杉矶这些大城市,已经有1500辆自动驾驶出租车在跑了,每周光付费的行程就超过25万次。

咱们国内的百度Apollo也不差,全球部署了超1000辆无人驾驶汽车,累计接了1100多万次出行订单,安全开了1.7亿多公里。

数据看着挺亮眼,但真不是说技术就完美了。

特斯拉硬刚谷歌智能!自动驾驶四大流派对决,未来方向藏关键分歧

就拿最基础的“怎么让车看见世界”来说,现在就分成两派吵个不停。

一派是特斯拉领头的“纯视觉”,觉得像人一样,靠几个摄像头就能搞定;另一派是以Waymo为代表的“多传感器融合”,非要加上激光雷达这些家伙事儿。

早在2004年,美国搞了场沙漠里的自动驾驶比赛,当时卡内基梅隆、斯坦福这些名校的团队,靠激光雷达赢了,后来Waymo就跟着这条路走。

特斯拉硬刚谷歌智能!自动驾驶四大流派对决,未来方向藏关键分歧

可激光雷达太贵了,早年一套要7.5万美元,比车本身还贵,根本没法大规模用。

直到2014年,特斯拉推出Autopilot系统,选了纯视觉路线,2016年马斯克更是直接说“激光雷达没用”。

他们装8个摄像头模拟人的视野,靠算法从2D图像里拼出3D环境,成本低能量产,还能靠卖车收集数据反过来优化算法。

特斯拉硬刚谷歌智能!自动驾驶四大流派对决,未来方向藏关键分歧

但缺点也明显,一到逆光、下雨、大雾天,摄像头就“看不清”了,远不如激光雷达靠谱。

在安全这条生命线上,Waymo、小鹏、蔚来等主流玩家已形成共识:通过激光雷达、摄像头等构建的多传感器融合感知网,能为安全上好“双保险”。

不过两条路也不是完全对着干,纯视觉也开始加传感器,多传感器那边也越来越重视视觉算法,慢慢在往一起靠。

特斯拉硬刚谷歌智能!自动驾驶四大流派对决,未来方向藏关键分歧

就算是多传感器融合派内部,也有争论:毫米波雷达才几百块,激光雷达早年要几万,为啥还得装激光雷达?

激光雷达的强大之处在于它的3D建模精度,能清晰勾勒出周围环境的细节,从行人的肢体语言到路面的微小障碍都难逃其“法眼”,这正是高级别自动驾驶(L4/L5)依赖它的根本原因。

但数据也显示出另一面:卓越的精度是以对天气的敏感性为代价的。当遭遇雨雪天气时,激光束会遭受严重干扰,其感知能力也将大幅削弱。

而4D毫米波雷达不怕天气,能穿透障碍物,但分辨率低,只能当辅助。所以现在的车,豪华车和无人出租车就多装激光雷达,普通经济车就少装几个,搭配着来。

特斯拉硬刚谷歌智能!自动驾驶四大流派对决,未来方向藏关键分歧

车的“大脑”和“灵魂”咋选?

若将传感器比作车的“眼睛”,算法则堪称是“大脑”。在这一领域,存在着两派观点的激烈交锋。

以前大家都用“模块化”设计,把开车的任务拆成感知、预测、规划、控制几步,每个步骤各干各的,像流水线一样。

好处是容易解释、方便调试,但问题也大,每个步骤传递信息时都会丢点东西,最后整体效果反而不好。

前两年,端到端模型被特斯拉FSDV12带起来,这个思路跟人学开车一样,新手不用先学原理,看教练咋开就跟着学。

特斯拉硬刚谷歌智能!自动驾驶四大流派对决,未来方向藏关键分歧

这种模型就像新手司机模仿教练一样,不分解操作步骤,而是通过反复观察海量真实行车录像,直接建立路况画面与驾驶动作(如打方向、踩油门)之间的直觉映射。

由于跳过了中间的信息抽象和传递环节,避免了每个模块可能带来的误差累积,理论上能够逼近甚至超越人类的驾驶流畅度,其性能天花板自然也更高。

但麻烦的是,它像个“黑箱”,出了事故根本不知道是哪步错了,没法改。

特斯拉硬刚谷歌智能!自动驾驶四大流派对决,未来方向藏关键分歧

现在行业里又搞出个折中办法,叫“显式端到端”,保留一些中间数据,想在性能和可解释性之间找平衡。

比“大脑”更核心的,是车的“灵魂”,到底该让AI当“思考者”还是“执行者”?这就分成了VLM和VLA两派。

VLM是视觉语言模型,Waymo这些主流公司都选它,觉得AI虽然厉害,但不能让它瞎决策,应该让它负责理解、推理,最终决定权交给经过多年验证的传统模块,这样过程可控,出了问题能找到原因。

特斯拉硬刚谷歌智能!自动驾驶四大流派对决,未来方向藏关键分歧

比如看到个东西,VLM认出是“被风吹的塑料袋”,规划模块就决定“不用急刹,慢点就行”,责任很清楚。

VLA是视觉语言动作模型,特斯拉、吉利、理想在探索,觉得只要模型够大、数据够多,AI能自己学会所有开车技巧,最后比人还厉害。

但它的“黑箱”问题更严重,比如突然急刹车,根本说不清是把阴影当成坑了,还是学了坏司机的习惯,不符合汽车安全标准。

而且它需要的训练数据特别贵,得把8个摄像头的视频和同步的驾驶操作配对,这种数据少还难弄;VLM就不一样,能先用互联网上的“图像-文本”数据训练,再用开车数据微调,成本低多了。

特斯拉硬刚谷歌智能!自动驾驶四大流派对决,未来方向藏关键分歧

结语

说到底,自动驾驶这些年的流派之争,从来不是谁把谁彻底打败,而是吵着吵着就往一起融合了。

激光雷达和视觉凑成了多模态感知,模块化也学了端到端的优点,大模型还在给所有系统加“智慧”。

那些曾经让大家头疼的问题,看着没标准答案,其实都在推着技术往前走。

未来不管是哪种路线,最终都得落到“安全又便宜”上,不然再厉害的技术,老百姓用不上、不敢用,也白搭。

发表评论

德业号 网站地图 Copyright © 2013-2024 德业号. All Rights Reserved.