FastPillars-论文笔记-激光雷达点云感知算法

1
2
论文链接:https://arxiv.org/abs/2302.02367
github:https://github.com/StiphyJay/FastPillars

1 引言

目前基于激光雷达的主流方法分为基于点云的方法和基于体素的方法。前者能保留最多的几何信息,但逐点查询和遍历较为耗时;后者使用3D/2D卷积处理体素化点云,但用于提高效率的3D稀疏卷积对实际部署不友好。

PointPillars作为deploy-friendly的方法,使用对部署有利的2D卷积。但由于其使用最大池化提取每个柱体内点的特征,无法获取细粒度特征,影响最终性能(特别是对于小物体)。此外,其neck网络FPN直接融合多尺度特征,缺少充分的特征交互。尽管PillarNet提高了PointPillars的性能,但其使用了部署困难的稀疏卷积。

论文提出FastPillars,基于标准卷积,容易部署。网络包含4个部分:piller柱体编码、特征提取、特征融合和3D边界框回归。对于piller编码,提出最大-注意力柱体编码(MAPE)模块,在不引入额外计算时间的情况下自动学习局部几何模式。对于特征提取,提出紧凑而高效的主干网络CRVNet。特征融合模块中,通过层次融合不同尺度和感受野的特征丰富语义特征。3D边界框回归使用基于中心的方法。

framework_of_fpp

2 相关工作

3D目标检测中的工业级轻量网络结构:YOLO系列使用CSPNet,在独立的两个分支中处理部分特征,达到更丰富的梯度组合,从而减小存储和计算并提高性能。

RepVGG使用重参数化结构,使用3个分支替代VGG中的Conv-BN-ReLU结构,以帮助优化;推理时使用重参数化将3个分支合并以提高推理速度。

3 论文方法

网络包含4个部分:柱体编码、特征提取、特征融合和3D边界框回归。

3.1 最大-注意力柱体编码(MAPE)

本文的MAPE包含三个单元:点编码单元、最大池化编码单元和注意力池化编码单元。记非空柱体i内的点集为(5表示3维位置、反射强度和相对时间戳)。 点编码:首先使用各点与柱体中心的偏移量以及各点坐标与最小坐标的偏移量增强各点的特征,得到

注意此处与PointPillars不同,不会为了保证各柱体点数相同而丢弃任何点。然后使用MLP将各点映射到高维空间得到
最大池化编码:使用最大池化聚合柱体内点的特征,得到

注意力池化编码:用于保留细粒度信息。使用MLP处理柱体内的点得到注意力分数,然后根据加权求和:

其中

最后,平均得到,其包含了柱体内的全局信息和细粒度局部信息。MAPE能极大提升小物体的检测能力。

MAPE

3.2 CRVNet主干

基于CSPNet和RepVGG,本文提出CRVNet,基于VGG或ResNet34搭建模型,其基本结构单元如下图所示。使用CSP结构能实现紧凑而高效的网络。由于单路径网络的计算代价和参数量会随模型容量指数增加,本文引入RepBlock。推理时,每个RepBlock会被转化为卷积+激活函数的形式(称为RepConv),以减小推理时间。

conv

3.3 Neck与基于中心的Head

Neck使用PillarNet的设计,融合主干网络多尺度特征。回归头在CenterPoint的基础上添加IoU分支,估计预测边界框和真实边界框的IoU,并使用IoU感知的修正函数减小分类与回归预测的间隙。修正的置信度分数按下式计算,并用于NMS后处理:

其中为预测置信度分数,为预测IoU,

分类与回归预测的间隙/不一致性:分类分数最高的框不一定是最回归最准的框。

3.4 损失函数

使用CenterPoint的损失函数。对于IoU预测,使用L1损失,回归目标被缩放到内;此外添加DIoU损失。总损失如下:

4 实验

实施细节:使用随机翻转、旋转和缩放数据增广、GT增广(带衰退策略);测试时使用双翻转数据增广。

4.1 主要结果

4.1.1 定量评估

在nuScenes测试集上,FastPillars能超过SOTA方法的性能,且能达到实时性。

4.1.2 与实时One-Stage方法比较

与PillarNet比较,本文的方法有2倍的速度而精度相当。

4.2 消融实验

4.2.1 最大-注意力柱体编码模块

与最大池化相比,本文的MAPE模块能提高性能,且在小物体上的性能提升较大。这证明了MAPE能提取细粒度的局部集合信息。

补充材料

B. MAPE不同池化操作的消融实验

与仅使用注意力池化或仅使用最大池化等方法相比,因其融合了主要特征和局部几何特征,本文的最大+注意力池化方法有目前最高的性能。

FastPillars-论文笔记-激光雷达点云感知算法

https://cyhasuka.github.io/posts/26007bd4/

作者

cyhasuka

发布于

2024-03-01

更新于

2024-04-01

许可协议

评论