随着数字化测绘向智能化测绘的发展,基于三维激光点云的场景智能解译在近年来备受关注。点云语义分类作为其中的重要环节,通过对每个点进行分类并赋予不同区域以语义信息标签,成为自动驾驶智能感知的基础步骤。
由于数据采集设备和方式的差异、场景复杂程度不同等因素影响,点云数据往往存在局部密度变化大、空间离散且分布不均、遮挡效应大的问题,会导致点云数据不完整和特征缺失。因此,如何准确高效地分类大规模复杂点云场景仍是一个具有挑战性的任务。
依赖于预先设定的先验知识,导致算法参数的优化难度较大,自动化提取程度低;此外,由于没有将上下文信息考虑在内,分类精度普遍偏低。
虽然提升了复杂道路点云场景的解译精度,但存在对点云几何信息利用十分有限,无法有效聚合点云多尺度特征,导致地物分类不准确与不完整问题。
本文提出的多尺度卷积注意力网络遵循RandLA-Net的主要框架。在编码层,随机采样、多尺度卷积注意力模块和自适应加权池化模块逐层堆叠,其中多尺度卷积注意力模块由局部动态图卷积模块和全局图注意力模块组成。
基于中心点和邻域点的位置关系学习一个系数向量自适应生成卷积权重,提出了一种局部动态图卷积方法。
eij = h(Δpi⊕||Δpi||⊕npki)
Wij = exp(-||pi - pij||²/2)
Flocal = MaxPool(h(eij ⊗ Wij))
通过构造局部加权图的邻接矩阵并更新每个节点的特征,利用自注意机制计算相邻节点之间的相关性,建立中心点与其邻域点之间的关系以及邻域点之间的依赖关系。
cij = h((ϕ[Δpi⊕Δfi])T ⊗ φ([Δpi⊕Δfi]))
αij = softmax(cij) = exp(cij) / ∑exp(cij)
F′global = ∑αij·h(Fglobal + bi)
为了有选择地聚合高维特征,同时捕捉点云的局部特征并加强全局特征的聚合,本文在最大池化和平均池化相结合的基础上,加入自适应权重,更充分地学习特征融合后网络在不同池化层中的有价值特征。
wmax = σ(conv1d(MaxPool(Fki),k))
wavg = σ(conv1d(AvgPool(Fki),k))
F͂i = (wavg + wmax)Fki
本研究采用整体精度(Overall Accuracy, OA)和平均交并比(Mean Intersection over Union, MIoU)作为评价指标,用于全面评估模型的分类性能。
OA = 正确分类点数 / 总点数
MIoU = (1/C) * ∑(TPi / (TPi + FPi + FNi))
其中,C为类别数量,TPi为真正例,FPi为假正例,FNi为假负例。
方法 | OA (%) | MIoU (%) |
---|---|---|
PointNet++ | 89.00 | 49.60 |
DGCNN | 90.25 | 60.98 |
RandLA-Net | 95.22 | 77.73 |
BAAF-Net | 94.75 | 81.81 |
BAF-LAC | 95.22 | 82.23 |
本文方法 | 97.21 | 85.46 |
方法 | OA (%) | MIoU (%) |
---|---|---|
PointNet++ | 86.85 | 53.69 |
DGCNN | 88.43 | 64.23 |
RandLA-Net | 96.80 | 83.69 |
BAAF-Net | 96.15 | 82.45 |
BAF-LAC | 96.23 | 83.12 |
本文方法 | 97.38 | 85.70 |
为验证各模块的有效性,本文进行了消融实验,分别移除局部动态图卷积模块(LDGC)、全局图注意力模块(GGA)和自适应加权池化模块(AWP)。
模型配置 | OA (%) | MIoU (%) |
---|---|---|
基准模型 | 95.22 | 77.73 |
基准 + LDGC | 96.18 | 82.15 |
基准 + GGA | 96.03 | 81.89 |
基准 + AWP | 95.87 | 80.42 |
基准 + LDGC + GGA | 96.75 | 84.21 |
完整模型(全部模块) | 97.21 | 85.46 |
消融实验结果表明:
本文提出了一种顾及局部-全局特征多尺度卷积注意力网络的点云地物分类方法,有效解决了现有点云分类模型中存在的问题。
本文方法实现了复杂场景下高精度、高效率的自动化地物精细分类,为点云语义分类研究提供了新的思路和方法。未来工作将进一步优化网络结构,降低计算复杂度,并探索将本方法应用于更多实际场景中。