锐单电子商城 , 一站式电子元器件采购平台!
  • 电话:400-990-0325

CVPR 2022 | 华南理工提出VISTA:双跨视角空间注意力机制实现3D目标检测SOTA,即插即用...

时间:2022-08-14 12:30:00 abs轮速传感器各自的优缺点

关注微信官方账号,发现CV技术之美

本文转自机器之心

作者:邓圣衡、梁智灏、孙林、贾奎

本文提出了 VISTA,多视角融合策略,用于准确 3D 对象检测。为了使 VISTA 研究人员提出了限制学习注意力权重的方差,而不是一般点。解耦分类和练问题进行分类和回归任务解耦。在 nuScenes 和 Waymo 数据集的基准测试证明 VISTA 方法的有效性和泛化能力。该论文已被CVPR 2022接收。

第一章 简介

LiDAR (激光雷达)是一种重要的传感器,广泛应用于自动驾驶场景中提供物体的准确性 3D 信息。因此,基于 LiDAR 的 3D 目标检测引起了广泛关注。许多 3D 目标检测算法将无序和不规则的点云体素化,然后利用卷积神经网络处理体素数据。然而,3D 卷积计算效率低,容易消耗大量内存。

为了缓解这些问题,一系列工作使用稀疏 3D 卷积网络作为 3D 骨干网络提取特征。如图所示 1 所示,这些工作将 3D 特征图投影到鸟瞰图 (BEV) 或正视图 (RV) 从这些方法中使用各种方法 2D 特征图生成对象候选人 (Object Proposals)。

183746d828af2f813e24669c7b13aa59.png

图 1:单视角检测和文章提出的基础 VISTA 多视角综合检测的对比

需要考虑不同视角的优缺点。在 BEV 在中间,对象不相互重叠,每个对象的大小与自行车的距离 (ego-vehicle) 距离无关。RV 是 LiDAR 点云的它能产生紧凑密集的特征。然而,无论是选择 BEV 还是 RV,投影将不可避免地受到损害 3D 空间信息在空间中传递的完整性。

例如,由于 LiDAR 数据生成过程本身的特点和自遮挡效应,BEV 表征很稀疏,压缩了 3D 在 RV 由于深度信息的丢失,屏蔽和对象大小的变化将更加严重。显然,多视角的联合学习,即多视角的融合,为我们提供了准确的服务 3D 目标测试的解决方案。以往的多视角融合算法从单个角度生成候选目标,并利用多视角特征细化候选目标。该算法的性能高度依赖于生成候选人的质量;

但是,从单一视角生成的候选没有使用所有可用信息,可能导致次优解的产生。其他工作根据不同视角之间的坐标投影关系融合多视角特征。这种融合方法的准确性依赖于另一个视角的相应区域中可提供的补充信息;然而遮挡效应是不可避免的,这会导致低质量的多视角特征融合产生。

为了提高 3D 本文给出了目标检测的性能 BEV 和 RV 学习到的 3D 通过双跨视角空间注意力机制,提出了特征图 (VISTA) 用于预测候选人目标的高质量融合多视角特征,如图所示 1 所示。所提出的 VISTA 利用源自Transformer 其中,注意机制 Transformer 已成功应用于各种研究环境(如自然语言处理)D 在计算机视觉中。

与坐标投影直接融合相比,VISTA 内置的注意机制利用整体信息,自适应视角之间的所有成对相关性,将单个视角的特征视为特征元素序列。为了全面建模跨视角的相关性,我们必须考虑两个视角中的局部信息,因此我们使用卷积算子来替换传统的注意模块 MLP,我们在实验部分展示了这样做的有效性。

然而,如实验部分所示,学习视角之间的相关性仍然具有挑战性。直接采用注意机制进行多视角整合的好处很小,主要是因为 3D 由于目标检测任务本身的特点。

一般来说,3D 目标检测任务可分为分类和回归两个子任务。就像以前的工作一样(LaserNet, CVCNet) 三D 检测整个目标检测器 3D 场景中的物体面临着遮挡、背景噪声和点云缺乏纹理信息等诸多挑战。

因此,注意力机制难以学习相关性,导致注意力机制倾向于取得整个场景的平均值,这是出乎意料的,因为注意力模块是为感兴趣的区域设计的。因此,我们明确限制了从注意力机制中学习到的注意力图 (Attention Map) 方差引导注意力模块理解复杂性 3D 户外场景中有意义的区域。此外,不同的学习目标决定了注意力模块中的学习 queries 和 keys 不同的期望。期望不同物体的回归目标(如尺度和位移) queries 和 keys 了解物体的特性。

相反,分类任务促进网络理解物体类的共性。不可避免地,共享同样的注意力建模会给这两个任务的训练带来冲突。另外,由于纹理信息的丢失,神经网络很难从点云中提取语义特征。另一方面,神经网络可以很容易地从点云中学习物体的几何特性。因此,在训练过程中,出现了以回归为主导的困境。为了应对这些挑战,我们正在提出 VISTA 解耦这两个任务,学习根据不同的任务整合不同的线索。

我们提出的 VISTA 可用于近期先进目标分配的即插即用模块 (Target Assignment) 战略。我们在 nuScenes 和 Waymo 基于两个基准数据集的测试 VISTA 多视角融合算法。验证集中的消融实验证实了我们的猜想。

提出的 VISTA 因此,我们提出的方法比所有已公布开源的算法都要好。在提交时,我们的最终结果是 nuScenes 排行榜上的 mAP 和 NDS 达到 63.0% 和 69.8%。在 Waymo 在车辆、行人和骑自行车的人身上,我们分别达到了 74.0%、72.5% 和 71.6% 的 2 级 mAPH。我们总结了我们的主要贡献如下:

  • 我们提出了一个新颖的即插即用融合模块:双跨视角空间注意力机制 (VISTA),为了产生良好的多视角融合特征,提高 3D 目标检测器的性能。我们提出的 VISTA 用卷积算子代替了 MLP,这可以更好地处理注意力建模的局部线索。

  • 我们将 VISTA 回归和分类任务解耦,利用单独的注意力建模来平衡这两个任务的学习。我们将注意力方差约束应用于训练阶段 VISTA,这有助于学习注意力,让网络关注感兴趣的区域。

  • 我们在 nuScenes 和 Waymo 两个基准数据集进行了彻底的实验。我们提出的基础 VISTA 多视角融合可用于各种先进的目标分配策略,轻松提高原始算法,实现基准数据集中最先进的性能。具体来说,我们提出的方法在整体性能上比第二好 4.5%的安全关键对象类别高于骑自行车的人 24%。

  • 论文链接:https://arxiv.org/abs/2203.09704

  • 代码链接:https://github.com/Gorilla-Lab-SCUT/VISTA

第二章 双跨视角空间注意力机制

对于大多数基于体素的人来说, 3D 目标检测器密集地产生 pillar 在经验方面,生成信息丰富的特征图可以保证检测质量。 3D 在目标测试的情况下,目标候选人来自整合特征图,因此在整合过程中需要综合考虑整体空间。

为此,我们寻求利用注意模块捕获全球依赖关系的能力进行多视角整合,即跨视角空间注意力。在考虑全球上下文之前,跨视角空间注意模块需要聚合局部线索来构建不同视角之间的相关性。

因此,我们提出 VISTA,基于多层感知器 (MLP) 卷积层取代了标准注意模块。然而,在复杂的情况下 3D 在场景中学习注意力是非常困难的。我们进一步解耦了跨视角注意力的多视角融合 VISTA 应用提出的注意力约束来促进注意力机制的学习过程。

本节将首先详细介绍双跨视角空间注意力机制(VISTA)然后详细说明提出的整体结构 VISTA 解耦设计和注意力约束。

2.1 整体架构

图 2:VISTA 整体架构

如图 2 所示,VISTA 以两个不同视角的特征序列为输入,建模多视角特征之间的跨视角相关性。不同于使用线性投影转换输入特征序列的普通注意模块,VISTA 通过 3x3 卷积操作员投影输入特征序列 queries和中。

为了将分类和回归解耦开,Q单独和K MLP 投影。计算V的加权并作为跨视角输出F,我们利用缩放点积获得跨视角注意力权重:

而且输出将是F_i将被馈送到单个前馈网络FFN_i获得最终结果。我们采用以往工作中广泛使用的架构作为我们 FFN,确保非线性和多样性。我们提出的 VISTA 它是一种单阶段的方法,可以根据跨视角集成的特点直接生成候选目标;这种设计可以使用更多的信息来准确和高效 3D 目标检测。

2.2 解耦分类和回归任务

VISTA 解耦分类和返回任务。共享卷积累算子后,queries 和 keys 进一步处理单独的线性投影Q_i和K_i,然后他们将根据语义信息或几何信息参与不同的注意力建模。这种解耦的动机是分类和回归监控信号对训练的不同影响。

给定场景 query 目标,为了分类,注意模块需要从整体上下文中的对象中收集语义线索,以丰富融合特征中传达的语义信息。这样的目标需要学习 queries 和 keys 了解同一类别不同对象之间的共性,使同一类别的对象在语义上相互匹配。

然而,不能使用相同的回归任务 queries 和 keys,因为不的对象有自己的几何特征(例如位移、尺度、速度等),回归特征应该在不同的对象上是多样的。因此,在分类和回归的联合训练过程中,共享相同的 queries 和 keys 会导致注意力学习发生冲突。

此外,无论是单视角还是多视角,分类和回归结果都是从传统的基于体素的 3D 目标检测器中的相同特征图预测的。然而,由于 3D 场景的固有属性,3D 点云中不可避免地存在遮挡和纹理信息丢失,3D 检测器难以提取语义特征,给分类学习带来很大挑战。相反,3D 点云传达的丰富几何信息减轻了网络理解物体几何属性的负担,这是学习回归任务的基础。

结果,在网络训练过程中,出现了分类和回归之间学习的不平衡现象,其中分类的学习被回归主导。这种不平衡的学习是基于 3D 点云的,包含分类和回归任务的 3D 目标检测中的常见问题,这将对检测性能产生负面影响。具体来说,3D 检测器在具有相似几何特征的不同对象类别(例如卡车和公共汽车)上不会很鲁棒。

为了缓解上述问题,我们分别为语义和几何信息分别建立注意力模型。注意力模块的输出是基于构建的语义和几何注意力权重的。分类和回归的监督分别应用于,保证了相应任务的有效学习。

2.3 注意力约束

当学习从全局上下文中对跨视角相关性进行建模时,所提出的 VISTA 面临着许多挑战。3D 场景包含大量背景点(大约高达 95%),只有一小部分是有助于检测结果的兴趣点。在跨视角注意力的训练过程中,海量的背景点会给注意力模块带来意想不到的噪音。此外,复杂 3D 场景中的遮挡效应给注意力学习带来了不可避免的失真。

因此,注意力模块倾向于关注不相关的区域。注意力学习不佳的极端情况是全局平均池化(GAP)操作,正如我们在实验部分中所展示的,没有任何明确的监督,直接采用注意力模块进行多视角融合会产生类似于 GAP 的性能,这表明注意力模块不能很好地对跨视角相关性建模。

为了使注意力模块能够专注于特定目标而不是一般的点,我们提出对学习的注意力权重的方差施加约束。利用提出的约束,我们使网络能够学习注意到特定目标。通过将注意力方差约束与传统的分类回归监督信号相结合,注意力模块专注于场景中有意义的目标,从而产生高质量的融合特征。我们将提出的约束设定为训练期间的辅助损失函数。

为简单起见,我们忽略 batch 维度,给定学习的注意力权重分别是 BEV 和 RV 中的 pillar 数量,xy 平面中 GT 框的尺度和中心位置的集合,其中是场景中的框数量。对于 BEV 中的每个 pillar,我们根据体素大小计算其中心的真实坐标,并得到集合。每个 GT 框的注意力权重通过以下方式获得:

然后我们为所有 GT 框制定方差约束如下:

其中N_q是b_q由包围的 pillar 的数量,计算给定向量的方差。

第三章 实现

3.1 体素化

我们根据 x,y,z 轴对点云进行体素化。对于 nuScenes 数据集,体素化的范围是[-51.2, 51.2]m, [-51.2,51.2]m 和[-5.0,3]m,以 x,y,z 表示。对于 Waymo 数据集,范围为[-75.2,75.2]m、[-75.2,75.2]m 和[-2,4]m。除非特别提及,否则我们所有的实验都是在 x、y、z 轴的[0.1,0.1,0.1]m 的低体素化分辨率下进行的。

3.2 数据增广

点云根据 x,y 轴随机翻转,围绕 z 轴旋转,范围为[-0.3925,0.3925]rad,缩放系数范围为 0.95 到 1.05,平移范围为[ 0.2,0.2,0.2]m 在 x,y,z 轴上。采用类别平衡分组采样和数据库采样来提高训练时正样本的比例。

3.3 联合训练

我们在各种目标分配策略 (CBGS, OHS, CenterPoint) 上训练 VISTA。为了训练网络,我们计算不同目标分配策略的原始损失函数,我们建议读者参考他们的论文以了解更多关于损失函数的细节。简而言之,我们将分类和回归考虑在内:

其中λ_1和λ_2是损失函数权重,是 GT 标签y和预测之间的分类损失函数,是 GT 框b和预测框的回归损失函数。

总损失函数L是的加权和:。我们将λ_1、λ_2和λ_3设置为 1.0、0.25、1.0。我们将 Focal loss 作为,并将 L1 损失作为。

第四章 实验

表一:nuScenes 测试集上的 3D 检测结果

表二:Waymo 测试集上的 3D 检测结果

我们在 nuScenes 数据集和 Waymo 数据集上评估 VISTA。我们在三种具有不同目标分配策略的最先进方法上测试 VISTA 的功效:CBGS、OHS 和 CenterPoint。

4.1 数据集和技术细节

nuScenes 数据集包含 700 个训练场景、150 个验证场景和 150 个测试场景。数据集以 2Hz 进行标注,总共 40000 个关键帧被标注了 10 个对象类别。我们为每个带标注的关键帧组合 10 帧扫描点云以增加点数。平均精度 (mAP) 和 nuScenes 检测分数 (NDS) 被应用于我们的性能评估。

NDS 是 mAP 和其他属性度量的加权平均值,包括位移、尺度、方向、速度和其他框的属性。在训练过程中,我们遵循 CBGS 通过 Adam 优化器和单周期学习率策略 (one-cycle) 优化模型。

Waymo 数据集包含 798 个用于训练的序列,202 个用于验证的序列。每个序列的持续时间为 20 秒,并以 10Hz 的频率采样,使用 64 通道的激光雷达,包含 610 万车辆、280 万行人和 6.7 万个骑自行车的人。

我们根据标准 mAP 和由航向精度 (mAPH) 加权的 mAP 指标来评估我们的网络,这些指标基于车辆的 IoU 阈值为 0.7,行人和骑自行车的人为 0.5。官方评估协议以两个难度级别评估方法:LEVEL_1 用于具有超过 5 个 LiDAR 点的框,LEVEL_2 用于具有至少一个 LiDAR 点的框。

4.2 与其他方法的比较

我们将提出的基于 VISTA 的 OHS 的测试结果提交给 nuScenes 测试服务器。为了对结果进行基准测试,我们遵循 CenterPoint 来调整训练分辨率并利用双翻转测试增强。由于我们的结果基于单一模型,因此我们的比较中不包括使用集成模型和额外数据的方法,测试性能见表一。

我们提出的 VISTA 在 nuScenes 测试集上实现了最先进的性能,在整体 mAP 和 NDS 中都大大优于所有已发布的方法。特别是在摩托车和自行车上的表现,mAP 上超过了第二好的方法 CenterPoint 高达 48%。具体来说,几何相似类别(例如卡车、工程车辆)的性能提升证实了我们提出的解耦设计的有效性。

为了进一步验证我们提出的 VISTA 的有效性,我们将提出的 VISTA 应用在 CenterPoint 上,并将测试结果提交到 Waymo 测试服务器。在训练和测试期间,我们遵循与 CenterPoint 完全相同的规则,测试性能见表二。VISTA 在所有级别的所有类别中为 CenterPoint 带来了显着改进,优于所有已发布的结果。

4.3 消融学习

表三:多视角融合消融学习,实验在 nuScenes 验证集上进行

表四:基于 VISTA 的先进方法的性能提升,实验在 nuScenes 验证集上进行

如表三所示,为了证明所提出的 VISTA 的优越性,我们以 OHS 作为我们的基线 (a) 在 nuScenes 数据集的验证集上进行了消融研究。正如前文所述,如果没有注意力约束,注意力权重学习的极端情况将是全局平均池化(GAP)。为了澄清,我们通过 GAP 手动获取 RV 特征,并将它们添加到所有 BEV 特征上实现融合。

这种基于 GAP 的融合方法 (b) 将基线的性能 mAP 降低到 59.2%,表明自适应融合来自全局空间上下文的多视角特征的必要性。直接采用 VISTA 进行多视角融合 (d),mAP 为 60.0%。当将卷积注意力模块替换为传统的线性注意力模块(c) 时,整体 mAP 下降到 58.7%,这反映了聚合局部线索对于构建跨视角注意力的重要性。

在添加提出的注意力方差约束后,如 (e) 所示,整体 mAP 的性能提高到 60.4%。从 (d) 到(e)行的性能提升表明注意力机制可以通过注意力约束得到很好的引导,使得注意力模块能够关注整个场景的兴趣区域。然而,共享注意力建模会带来分类学习和回归任务之间的冲突,在 3D 目标检测中,分类任务将被回归任务占主导地位。如(f)所示,在解耦注意力模型后,整体 mAP 的性能从 60.4% 提高到 60.8%,进一步验证了我们的假设。

所提出的 VISTA 是一种即插即用的多视角融合方法,只需稍作修改即可用于各种最近提出的先进目标分配策略。为了证明所提出的 VISTA 的有效性和泛化能力,我们在 CenterPoint、OHS 和 CBGS 上实现了 VISTA,它们是最近的先进方法。这些方法代表基于 anchor 或 anchor-free 的不同主流目标分配。

我们在 nuScenes 数据集的验证集上评估结果,所有方法都是基于他们的官方代码库。如表四所示,所有三个目标分配策略在 mAP 和 NDS 分数中都实现了很大的性能提升(在 mAP 和 NDS 中分别约为 1.3% 和 1.4%),表明所提出的 VISTA 可以通过跨视角空间注意力机制融合普遍高质量的多视角特征。

我们在表三中展示了提出的 VISTA 在一个 RTX3090 GPU 上的运行时间。未经任何修改,基线 (a) 以每帧 60 毫秒运行。在基线中采用卷积注意力模块 (d) 后,运行时间增加到 64 毫秒。我们可以从 (e) 和(f)中观察到,虽然应用所提出的注意力方差约束不会影响推理速度,但解耦设计花费了 5ms,但额外的延迟仍然可以忽略不计。以这样的效率运行,我们认为所提出的 VISTA 完全符合实际应用的要求。

4.4 VISTA 分析

图 3:具有((a)和(c))和没有((b)和(d))注意方差约束的 VISTA 学习到的注意力权重的可视化。每行呈现一个场景,Query 框以红色显示,点的颜色越亮,点的注意力权重越高。

图 4:在有和没有解耦设计的情况下的检测结果的可视化。每行代表一个场景。浅色表示的框指的是 GT 框,深色表示的框表示正确的预测结果,不同强调色表示的框表示错误的预测。

我们认为,通过所提出的注意力约束训练的 VISTA 可以捕捉 BEV 和 RV 之间的全局和局部相关性,从而可以有效地执行多视角融合以进行准确的框预测。为了生动地展示注意力方差约束在训练 VISTA 中的有效性,我们在图 3 中可视化了网络在有和没有注意力方差约束情况下构建的的跨视角相关性。给定包含目标视角(BEV)的框的区域以 query 源视角(RV),我们得到上述区域中每个 pillar 的相应跨视角注意力权重,并将权重映射回原点云以可视化。

我们观察到,在没有注意力方差约束的情况下,学习到的注意力权重对于 RV 中的几乎每个 pillar 都保持较小的值,从而导致近似的全局平均池化操作。在图 3(b)和 (d) 中,注意力模块关注远离 query 汽车和行人的背景点,每个聚焦区域的注意力权重相对较低。相反,用注意力方差约束训练的注意力模块突出显示具有相同 query 类别的物体,如图 3(a)和 (c) 所示。特别是对于 query 汽车,通过注意力方差约束训练的注意力模块成功地关注了场景中的其他汽车。

我们提出的 VISTA 的另一个关键设计是分类和回归任务的解耦。这两个任务的各自的注意力建模缓解了学习的不平衡问题,因此检测结果更加准确和可靠。为了展示我们设计的意义,我们在图中展示了解耦前后的检测结果。每行代表一个场景,左列显示解耦后的结果,另一列显示未解耦的结果。

如图 4(b)和 (d) 所示,没有解耦设计的 3D 目标检测器很容易将物体 A 误认为具有相似几何特性的另一个物体 B,我们将这种现象称为 A-to-B,例如公共汽车(紫色)到卡车(黄色)、公共汽车(紫色)到拖车(红色)和自行车(白色)到摩托车(橙色),证明了分类和回归任务之间存在不平衡训练。

此外,当将右列与左列进行比较时,混淆的预测并不准确。相反,具有解耦设计的 VISTA 成功区分了对象的类别,并预测了紧密的框,如图 4(a)和 (c) 所示,证明了所提出的解耦设计的功效。

第五章 总结

在本文中,我们提出了 VISTA,一种新颖的即插即用多视角融合策略,用于准确的 3D 对象检测。为了使 VISTA 能够关注特定目标而不是一般点,我们提出限制学习的注意力权重的方差。我们将分类和回归任务解耦以处理不平衡训练问题。我们提出的即插即用 VISTA 能够产生高质量的融合特征来预测目标候选,并且可以应用于各种目标分配策略方法。nuScenes 和 Waymo 数据集的基准测试证明了我们提出的方法的有效性和泛化能力。

END

欢迎加入「三维技术交流群👇备注:3D

锐单商城拥有海量元器件数据手册IC替代型号,打造电子元器件IC百科大全!

相关文章