← back

关于传感器的思考:现状、选型与未来的感知形态

这依然是一篇旨在进行基础回顾的文章,本期我们重点聊聊智能驾驶系统中不可或缺的传感器。

一般来说,智驾系统主要依赖以下几类传感器:

当然,市面上还有一些其他的变体传感器,例如 4D Millimeter-wave Radar (4D 毫米波雷达)、双目相机等,但它们本质上都属于上述类别的延伸或变种,在此不做过多赘述。

💡 在深入了解各个 Sensor 之前,我们必须先达成一个共识:所有 Sensor 的存在,都是为了服务于智驾算法的
或者说得更绝对一点,主要是服务于其中的 感知 (Perception) 模块。正如上一篇文章所提到的,在智驾算法还明确划分模块的时代,感知就是车辆的「眼睛」,负责从混乱的物理世界中提取有用的信息。因此,所有的传感器升级和选型,归根结底都是为了让感知模块能更好、更准确、更及时、全天候地感知周围环境。

为了不让文章显得冗长乏味,我将硬核的 传感器基本原理 部分放在了文章最后,感兴趣的读者可以跳到文末阅读。


为什么是这几种传感器?

基于上述共识,我们来看看为什么在这些年的技术迭代中,最终沉淀下来的是这几种传感器组合。

1. Camera (相机)

相机大家都见过,图略~

早期上车主要是作为倒车影像等辅助功能 (ADAS) 出现。后来,随着深度学习在图像领域(Computer Vision)的爆发,相机自然而然地被用于 2D 目标检测。

然而,车辆行驶在三维世界中,我们需要知道障碍物距离车有多远、是什么形状、体积多大。早期的 2D 检测算法无法直接提供这些 3D 信息,于是工程师们只能结合 先验假设人为规则 进行后处理。例如:假设车道线是平行的、路面是平坦的、某种车型的宽度是固定的。基于这些假设,从 2D 图像反推 3D 信息(IPM 逆透视变换等)。

局限性:这种方法泛化能力差,只能在高速、高架等结构化道路的限定场景下工作,一旦遇到非标准路况(如坡道、异形车),系统就容易失效。

转折点:大概在 2021 年左右,以 Tesla 为首的厂商开始大力推行「纯视觉」方案,利用 BEV (Bird’s Eye View) 和 Transformer 等算法技术,实现了直接从多路摄像头图像中感知 3D 空间信息。这不仅让摄像头测距成为可能,且随着数据量的积累,精度也越来越高。

当然,除了 Tesla,早期也有基于双目相机(利用视差原理测距)的方案,但这些更多是在已有框架下的修补,而 BEV+Transformer 则是算法层面的降维打击。

2. Lidar (激光雷达)

image.png

image.png

Lidar 不同于相机,它通过发射激光束并接收回波,可以直接获得障碍物的 精确位置信息 (3D 点云) 和大致轮廓。

优势:它简单粗暴地解决了相机在算法突破前无法准确测距的痛点。因此,在智驾发展的早期(Robotaxi 阶段),Lidar 几乎是所有智驾公司的必选。没有 Lidar,车就没法安全地跑。

劣势。早期一套 Velodyne 的 128 线机械式激光雷达,坊间戏称「顶着一套二线城市的房在跑」。当然,对于融资烧钱的初创公司来说,验证技术可行性比成本更重要。

现状:到了 2025 年末,Lidar 的价格已经被打到了非常可接受的区间(千元级),成为了国内许多中高端车型的「标配」。甚至在宣发上,「有 Lidar = 智驾能力更强」 似乎已经成为了某种市场共识。

3. Radar (毫米波雷达)

image.png

image.png

Radar 的历史非常久远,是上一代燃油车中高级辅助驾驶(如 ACC 自适应巡航)的核心传感器。

特点:它就像一个拿着望远镜但高度近视且散光的人。它能探测到很远的物体,能直接测速(多普勒效应),且不受雨雾天气影响。

劣势分辨率太低。它知道前面「有东西」,但很难分清是路边的静止护栏还是停着的车;它也无法区分高度(传统的 3D Radar),容易把地上的井盖或空中的路牌误报为障碍物(幽灵刹车)。(就如同上图,Radar 感知到的障碍物就是一个个点,难以做精细化的感知)

现状:虽然它可以用来做 AEB (自动紧急制动) 等兜底功能,但在追求高阶智驾(精准感知)的当下,传统 Radar 显得「食之无味,弃之可惜」。Tesla 甚至在 2021 年直接移除了 Radar。

4. USS (超声波雷达)

image.png

大家最熟悉的「倒车雷达」,发出「嘀嘀嘀」报警声的就是它。

特点:极其便宜,近距离测距非常准(尤其是玻璃等透明物体,Lidar 和 Camera 容易失效)。

现状:主要用于低速泊车场景。但在高阶智驾中,随着视觉算法对近距离感知能力的提升(如 Occupancy Network),USS 的作用也在逐渐被边缘化。


纯视觉 vs. 融合感知:路线之争

基于上述分析,进入高阶智驾「决赛圈」的核心传感器其实就剩下 CameraLidar 了。行业内也分化为两派:「All-in 纯视觉派」「多传感器融合派」

各自的理由:

互相的质疑:

我的观点

关于纯视觉方案:

  1. 算法的「奇点」何时到来? 虽然「马圣」的 FSD 已经迭代到了 V13/V14 版本,但在处理某些长尾 Corner Case 上,距离人类老司机的直觉判断可能还有差距。
  2. 相机 vs. 人眼: 相机在某些方面其实早已超越人眼(如暗光环境下的感光能力、多视角的 360 度覆盖)。对于眩光、高动态范围(进出隧道)等问题,随着 LOFIC 等新型 CMOS 技术的普及(如小鹏 P7+ 采用的 AI 鹰眼视觉方案),硬件上的短板正在被补齐。
  3. 安全兜底: 纯视觉的最后一道防线往往不是看清了什么,而是基于对场景的理解进行「脑补」和预判,这需要极强的 AI 推理能力(端到端大模型)。

关于融合方案:

  1. 成本问题: 随着 Lidar 成本下探,融合方案的门槛在降低。但在 10-15 万级的走量车型上,纯视觉依然是唯一解。
  2. 阶段性最优: 在算法完全成熟之前,Lidar 确实是一道强有力的「安全气囊」,能解决很多视觉难以处理的异形障碍物(如侧翻的白车、路上的石头)。
  3. 未来的收敛: 当视觉算法足够强大(99.99% vs 99.999% 的区别)时,Lidar 可能会从「感知主传感器」退化为「安全冗余件」,甚至最终被移除。

总结建议:


附录:传感器原理及技术趋势

为了让大家知其然也知其所以然,这里补充一下各传感器的核心原理及最新技术方向。

1. Camera (相机)

2. Lidar (激光雷达)

3. Radar (毫米波雷达)

4. USS (超声波雷达)