摘要
针对现有算法在对点云数据进行平移、缩放以及旋转等几何变换时网络不能充分提取局部特征,导致网络精度显著下降的问题,提出基于自适应生成卷积核的动态图注意力三维点云识别及分割算法.首先,利用感受野中心点位置信息增强邻点感知上下文信息能力,通过改进的自注意力机制重构感受野,使感受野内特征信息充分交互,增强感受野的上下文信息.其次,构造自适应生成卷积核,通过捕获变化的点云拓扑信息,自适应生成卷积核权重,进而提升网络性能.最后,构建动态图注意力卷积算子,并设计点云识别的动态网络与分割的U形网络.实验结果表明,本文算法在ModelNet40点云识别数据集的识别精度达到了94.0%,在ShapeNet Part点云部件语义分割数据集的平均交并比达到了86.2%.本文算法能够提取三维点云的关键特征信息,具有较好的三维点云识别与分割能力.
近年来,三维视觉技术的发展促进了增强现实、桥隧工程以及自动驾
随着深度学习技术的显著进步,研究者尝试将卷积神经网络(convolution neural networks, CNNs)应用到点云数据的识别和分割任务中,取得了较好的结果.起初学者们将三维点云转化为二维图像,输入CNN中提取数据特征,于是,基于投影的方法应运而生.该方法首先获取三维点云数据在不同视角下的二维视图,然后对每个视图进行卷积计算,并通过池化层和全连接层对每个视图的特征进行聚合.然而,投影过程会造成部分信息缺失,其忽略了三维点云的空间内在几何关系,导致识别及分割结果并不理想.基于体素化的方
与图像不同,点云是非结构化的,离散分布在采样对象的表面.基于投影和基于体素化的方法均是对其进行规范化处理后输入神经网络,而PointNe
为了更好地描述三维点云的局部信息,一些研究工作将点云表示为图数据,并将二维卷积推广到三维,以提取丰富的局部信息.文献[
括而言之,目前大多数基于深度学习的点云识别与分割的方法缺乏生成卷积核权重的自适应性,并且网络模型过度关注提升精度,忽略了网络在点云数据变化时鲁棒性较差的问题,致使模型性能下降.为此,本文提出了自适应生成卷积核的动态图注意力神经网络架构.主要创新点和贡献如下:
1)提出将中心点位置信息嵌入邻点,并利用改进的自注意力机制重构感受野,使得感受野内特征信息充分交流,提升感受野模拟点云局部结构的能力.
2)构建动态图注意力卷积,利用点云特征信息增强卷积核,并自适应生成卷积核权重,提高网络在点云数据变换时的鲁棒性.
1 相关研究工作
目前,三维点云的识别及分割算法主要分为三类:基于多视图、基于体素与基于点云的方法.
1.1 基于多视图的方法
由于标准的卷积神经网络不能直接应用于类似三维点云这样的非结构化数据,基于投影的方法将3D点云从多个视角投影到2D平面上,融合二维卷积提取的多个视图特征,得到预测结果.MVCN
1.2 基于体素的方法
基于体素的方法将不规则的点云数据转化为一系列占用一定空间的体素,利用标准的3D卷积分析和处理.VoxelNe
1.3 基于点云的方法
以上两种方法对点云加以转换再进行处理,无疑会导致局部特征提取不充分以及增加计算量.PointNet是直接对点云数据进行处理的开山之作,使用多个共享的全连接层来处理输入的无序三维点云,通过通道级最大池化提取全局特征来表示三维点云数据.PointNet的本质是学习输入对象的关键点特征,其局部几何信息不是直接编码的;此外,其对输入数据的平移和缩放变化很敏感.由于不能很好地提取局部精细特征,PointNet+
Qian
综上所述,基于多视图与基于体素的方法均是将点云转换后输入神经网络,忽略了点云本身的空间位置信息;基于点云的方法直接利用原始点云训练网络模型,缺乏对局部特征的深入挖掘;图卷积所使用的图数据在结构上类似于点云,可以很好地模拟点云的局部结构.当数据发生变换时,这些网络模型的识别精度大幅降低,即网络鲁棒性较差,且不能自适应地学习卷积核.因此,如何设计一个在数据变化时依旧健壮,并且可以自适应地学习卷积核的图卷积神经网络是三维点云识别与分割研究的一个亟待解决的问题.
2 动态图注意力卷积神经网络
本文构建了自适应生成卷积核的动态图注意力卷积神经网络,主要利用改进的自注意力机制对感受野邻点特征信息进行增强,并提出动态图注意力卷积(dynamic attention graph convolution, DA-GraphConv) 算子.首先通过特征增强模块(feature enhancement, F-E)构造增强特征信息的感受野,并构造自适应卷积核,然后利用动态图注意力卷积算子提取点云几何特征.
2.1 感受野构建
设N个点的三维点云表示为,表示每个点p的d维输出特征向量.
(1) |
式中,H(pn,M)表示点pn的M个基于欧氏距离的最近邻点,邻点pm和中心点pn的相对位置用方向向量表示.点pn的大小为M的感受野内的特征表示为.文中使用KNN算法构建感受野.文献[

图1 三维感受野和三维卷积核示意图
Fig.1 Illustration of the 3D receptive field and 3D convolutional kernel
(a)三维感受野 (b)三维卷积核
为了使感受野的中心点与邻点可以交互空间位置信息,本文提出将中心点空间位置信息传入邻点,融合二者空间位置信息后,通过双线性插值(bilinear interpolation)操作对齐特征维度,将原感受野信息与加强后的感受野信息利用自注意力机制重新分配权重,使网络聚焦于需要关注的部分,进一步提升网络性能.原始的自注意力机制旨在利用自身聚焦来提高网络识别和分割精度,使用自身生成自注意力机制的查询向量q,值向量v与键向量k值进行计算.本文对其进行改进,如

图2 增强感受野
Fig.2 Strengthened receptive field
2.2 自适应可变形卷积核
对二维图像的特征提取大多使用固定大小的卷积核,对于三维点云,使用固定大小的卷积核会限制网络提取特征的能力.因此,本文提出一种自适应生成的可变形卷积核
(2) |
式中:kC=(0, 0, 0)是卷积核的中心点;k1到kS表示卷积核中心点相关的邻点.为每个卷积核中的点定义权值向量;利用相应的权值向量对特征 f(p)加权即可实现卷积运算.如
点云所包含的信息分为两类,一类是位置信息,另一类是特征信息.目前已有的大量研究工作都只使用了点云的位置信息,而忽略了点云的特征信息,例如颜色、强度信息等,这就导致了局部特征提取不充分和对点云信息未充分利用的问题.因此,在感受野的构建中,已利用了点云的位置信息,增强了感受野中心点与邻点的相互感知能力.在卷积核的构造过程中,将点云的特征信息加以利用,如
(3) |
式中:输入特征为;输出特征为;通道i=1,2,…,L,(R, G, B)表示点云的颜色信息.由
2.3 动态图注意力卷积
通过计算和
(4) |
式中:<,>表示内积;函数g表示卷积核中每个中心点ks与所有相邻点之间的最大相似度值,即sim值,具体如下:
, |
, |
(5) |
式中:利用余弦相似度得出pm与ks的相似性大小.可以看出,较大的向量间相似度sim值是由特征空间的较大内积和欧几里得空间

图3 动态图注意力卷积
Fig.3 Dynamic graph attention convolution
为了评估所构建的自适应生成可变形三维卷积核和动态图卷积神经网络架构对点云识别及分割的有效性,选用ModelNet40和ShapeNet Part数据集进行实验.本文实验硬件条件为Intel Core i9-10900K CPU,NVIDIA RTX 3090 GPU(显存24 G),软件为Linux Ubuntu 18.04和深度学习框架PyTorch1.11.0.实验中采用随机梯度下降SGD优化算法(动量因子为0.99),并使用Adam优化器更新SGD步长.网络识别性能评价指标采用总体准确率(overall accuracy, OA),网络分割性能的评价指标采用每一个部件的评价指标为交并比(mIoU)计算实例平均交并比 (instance mean intersection over union,Inst.mIoU)和类别平均交并比(class mean intersection over union,Cls.mIoU),公式如下:
(6) |
(7) |
(8) |
式中:s表示类别数目;c表示类别中点的个数; TP为被模型预测为正类的正样本; FP为被模型预测为正类的负样本; TN为被模型预测为负类的负样本; FN为被模型预测为负类的正样本.
2.4 网络架构
识别任务的网络结构如

图4 识别任务的网络结构
Fig.4 Network architecture for recognition tasks
分割任务的网络结构如

图5 分割任务的网络结构
Fig.5 Network architecture for segmentation tasks

图6 图池化示意图
Fig.6 Illustration of the graph pooling
从点云识别任务的网络架构可以看出,网络采用本文构造的动态图注意力卷积进行特征提取,利用相对坐标构造动态图注意力卷积算子,在数据变换时相对坐标不发生改变,因而网络具有良好的鲁棒性,并在每次特征提取前利用F-E模块增强感受野,通过5次动态图注意力卷积逐步扩大感受野,逐层提取丰富的语义信息.分割任务的网络框架同样采用动态图注意力卷积捕获点云特征信息,通过下采样与上采样获取更为精确的点云特征,从而进行对模型的分割任务.
识别任务需要识别出点云模型,并输出所属类别,分割任务需在识别点云模型后,将组成模型的各个部件进行再次分割.因此分割网络在识别网络的基础上增加了上采样的过程,意在通过增加点的数量来提高点云数据的密度,从而更好地保留细节信息,使得分割网络可以更好地感知理解整个点云,从而提高分割结果的准确性,同时,上采样操作也可以帮助网络更好地处理不同尺度的特征,使网络对不同物体都能有较好的分割效果.
本文与现有工作之间技术要点的区别如
方法 | 池化机制 | 邻点 H(pn) | 聚合函数 | 卷积层特征 |
---|---|---|---|---|
PointNet+ | √ | max() | ||
DGCN | × | 用特征空间KNN定义 | max() | |
KPCon | √ | sum() | ||
本文 | √ | 用三维空间KNN定义 | max() |
3 实验结果与分析
3.1 识别任务
ModelNet4
将本文算法与其他代表性算法进行识别实验比较,结果如
算法 | 输入 | 输入点数 | OA/% |
---|---|---|---|
PointNe | xyz | 1 k | 89.2 |
Kd-Ne | voxel | — | 90.6 |
PV | voxel | — | 93.7 |
EC | xyz | 1 k | 87.4 |
KCNe | xyz | 1 k | 91.0 |
MRTNe | xyz | 1 k | 91.2 |
PointNet+ | xyz | 1 k | 90.7 |
DGCN | xyz | 1 k | 92.9 |
SO-Ne | xyz | 2 k | 90.9 |
KPCon | xyz | 6.8 k | 92.9 |
SPH3D-GC | xyz | 10 k | 92.1 |
PointNet+ | xyz,normal | 5 k | 91.9 |
SO-Ne | xyz,normal | 5 k | 93.4 |
AGCon | xyz | 1 k | 93.4 |
APE | — | — | 93.8 |
本文 | xyz | 1 k | 94.0 |
同基于体素的方法PVT网络相比,将点云转换为体素需要额外的操作,导致局部特征提取不充分以及计算量增加的问题,因此本网络精度高于该网络.与同样采用图卷积方法的DGCNN相比,DGCNN共享卷积核参数,而本文构建自适应可变形卷积核,网络精度更佳;与AGCon

图7 ModelNet40数据集上识别可视化结果
Fig.7 Visualization of recognition on the ModelNet40 dataset
为了进一步评估本文算法在数据变化时的鲁棒性,分别通过平移、缩放和旋转对模型进行变换,并测试不同算法的识别精度,对比实验结果分别如图

图8 ModelNet40上的数据不变性评估
Fig.8 Evaluation of invariance properties on the ModelNet40
(a)平移 (b)缩放 (c)旋转

图9 训练轮数与总体精度的关系
Fig.9 The relationship of epoch and overall accuracy
3.2 分割任务
ShapeNet Par
算法 | 类别平均交并比 | 实例平均交并比 | 飞机 | 杯子 | 包 | 车辆 | 椅子 | 耳机 | 小刀 | 吉他 | 灯 | 马克杯 | 摩托车 | 滑板 | 桌子 | 手枪 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
PointNe | 80.4 | 83.7 | 83.4 | 82.5 | 78.7 | 74.9 | 89.6 | 73.0 | 85.9 | 91.5 | 80.8 | 93.0 | 65.2 | 72.8 | 80.6 | 81.2 |
Kd-Ne | 77.4 | 82.3 | 80.1 | 74.3 | 74.6 | 70.3 | 88.6 | 73.5 | 87.2 | 90.2 | 81.0 | 86.7 | 87.4 | 69.9 | 80.3 | 78.1 |
PV | 84.0 | — | 84.3 | 82.1 | 88.7 | 82.1 | 92.4 | 75.5 | 88.5 | 91.0 | 85.6 | 94.7 | 76.2 | 75.3 | 81.7 | 84.2 |
MRTNe | 79.3 | 83.0 | 81.0 | 87.0 | 76.7 | 87.0 | 89.1 | 67.6 | 85.4 | 90.6 | 80.6 | 91.8 | 64.4 | 69.1 | 80.6 | 79.7 |
KCNe | 82.2 | 84.7 | 82.8 | 86.4 | 81.5 | 77.6 | 90.3 | 76.8 | 87.2 | 91.0 | 84.5 | 94.4 | 69.2 | 75.2 | 81.3 | 81.6 |
SO-Ne | 81.0 | 84.9 | 82.8 | 88.0 | 77.8 | 77.3 | 90.6 | 73.5 | 83.9 | 90.7 | 82.8 | 94.2 | 69.1 | 72.9 | 83.0 | 80.9 |
RS-Ne | 81.4 | 84.9 | 82.7 | 84.1 | 86.4 | 78.2 | 90.4 | 69.3 | 87.0 | 91.4 | 83.5 | 92.6 | 66.0 | 75.8 | 82.2 | 81.8 |
PointNet+ | 81.9 | 85.1 | 82.4 | 87.7 | 79.0 | 77.3 | 90.8 | 71.8 | 85.9 | 91.0 | 83.7 | 94.1 | 71.6 | 76.4 | 82.6 | 81.3 |
DGCN | 82.3 | 85.2 | 84.0 | 86.7 | 83.4 | 77.8 | 90.6 | 74.7 | 87.5 | 91.2 | 82.8 | 94.9 | 66.3 | 74.5 | 82.6 | 81.1 |
KPCon | 85.1 | 86.4 | 84.6 | 87.2 | 86.3 | 81.1 | 91.1 | 77.8 | 88.4 | 92.6 | 82.7 | 95.8 | 78.1 | 82.0 | 83.6 | 85.4 |
SPH3D-GC | 84.9 | 86.8 | 84.4 | 89.2 | 86.2 | 81.4 | 91.5 | 77.4 | 88.2 | 92.5 | 85.7 | 95.6 | 78.6 | 78.5 | 84.0 | 84.7 |
AGCon | 83.4 | 86.4 | 84.8 | 85.7 | 81.2 | 79.7 | 91.2 | 80.9 | 88.6 | 91.9 | 84.8 | 94.9 | 70.7 | 75.9 | 84.2 | 82.3 |
本文 | 84.7 | 86.2 | 84.4 | 87.1 | 85.9 | 81.4 | 90.8 | 77.9 | 88.6 | 92.6 | 82.8 | 94.9 | 74.5 | 81.3 | 82.8 | 83.7 |
SPH3D-GC
为了进一步验证本文算法的鲁棒性,对比分析了不同模型在平移、缩放和旋转变换下的分割可视化结果与定量结果,如
PointNet++ | DGCNN | 本文 | ||||||||
---|---|---|---|---|---|---|---|---|---|---|
类别 | 真实标签 | 平移 | 缩放 | 旋转 | 平移 | 缩放 | 旋转 | 平移 | 缩放 | 旋转 |
小刀 |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
手枪 |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
摩托车 |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
吉他 |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
算法 | 平移 1 10 50 100 | 缩放 0.1 0.5 5 10 | 旋转/(°) 30 60 90 120 |
---|---|---|---|
PointNe | 23.7 16.1 16.0 15.8 | 30.8 66.6 40.8 35.1 | 68.0 58.5 54.5 50.8 |
PointNet+ | 43.3 23.9 17.6 15.1 | 29.1 54.7 38.8 36.2 | 74.5 66.6 62.0 58.8 |
DGCN | 45.5 19.4 16.8 16.1 | 37.9 69.2 50.5 27.4 | 72.5 67.0 64.2 61.1 |
KPCon | 36.8 22.2 21.1 20.9 | 30.5 46.0 51.2 48.9 | 72.2 61.1 51.4 47.2 |
本文 | 84.1 84.4 83.9 84.2 | 84.4 84.1 84.2 84.2 | 82.8 80.6 69.3 66.4 |

图10 训练轮数与分割精度
Fig. 10 Epoch and segmentation accuracy
3.3 消融实验
3.3.1 邻点数目
本文在构建局部邻域时使用KNN算法,邻点数目M越大,则感受野越大.其中,邻点数目M的值在网络进行局部特征提取时能够影响网络的性能,在构建局部邻域时若设置较小的邻点数目M,局部邻域的构建速度较快,网络模型的计算量偏低,但邻域范围过小会使网络无法充分学习到有效的局部特征,导致网络模型精度较差;而当设置较多的邻域点数目时,局部邻域范围重叠,难免会学习到冗余的特征,影响网络模型学习几何特征的能力.此外,每个数据集的点云规模不同,不同数据集选择的邻点数M也存在差异性.本文消融实验选取 ModelNet40数据集与ShapeNet Part数据集分别测试邻点数目M对识别精度与分割精度的影响,结果如
邻点数目M | 识别总体精度 | 分割平均交并比 |
---|---|---|
10 | 93.1 | 85.4 |
25 | 94.0 | 85.9 |
50 | 93.6 | 86.2 |
60 | 93.2 | 85.7 |
3.3.2 增强感受野模块及动态图注意力卷积算子
为了进一步说明本文模型增强感受野模块以及动态图注意力卷积的有效性,分别在ModelNet40数据集与ShapeNet Part数据集上进行消融实验,结果分别如
网络模块 | 识别总体精度/% |
---|---|
Model-1 Model-2 baseline |
92.7 91.6 90.8 |
本文 | 94.0 |
网络模块 | 分割平均交并比/% |
---|---|
Model-1 Model-2 baseline |
84.1 82.5 81.7 |
本文 | 86.2 |
在增强感受野模块中,利用改进的自注意力机制替代原始注意力层的有效性需进一步验证.消融实验在ModelNet40数据集与ShapeNet Part数据集上进行,定量结果如
注意力机制 | 识别总体精度 | 分割平均交并比 |
---|---|---|
原始自注意力机制 | 93.2 | 85.1 |
本文算法 | 94.0 | 86.2 |
类别 | 小刀 | 手枪 | 摩托车 | 吉他 |
---|---|---|---|---|
原始自注意力机制 |
![]() |
![]() |
![]() |
![]() |
本文算法 |
![]() |
![]() |
![]() |
![]() |
真实标签 |
![]() |
![]() |
![]() |
![]() |
4 结 论
本文提出了自适应生成卷积核的动态图注意力三维点云识别及分割算法.首先,将感受野中心点位置信息传入邻点,加强感受野中心点与邻点的空间位置信息交流,再利用改进的自注意力机制重构感受野,进一步加强感受野模拟点云局部结构的能力;其次,将颜色、强度等点云特征信息通过通道传入网络,使网络获得更加全面的点云信息;然后,利用余弦相似度函数构建动态图注意力卷积算子,旨在使网络在数据变化时可以表现出较强的鲁棒性;最后,设计点云识别的动态网络架构及语义分割的U形网络架构.本网络模型在点云识别数据集ModelNet40上总体精度达到了94.0%,在点云分割数据集 ShapeNet Part上平均交并比达到了86.2%,具有较好的点云识别与分割能力,并且在数据变化时网络具有较强鲁棒性.本文算法在小规模点云数据集上取得了较好的成绩,但在大规模场景语义分割任务上还存在较大的提升空间.此外,本文采用KNN算法构建感受野,由于稀疏点云数据具有分布不均匀的特性,从而影响点云识别与分割的结果.因此,如何提高本方法对场景语义分割的能力以及如何处理稀疏点云数据,是将来要着重研究的内容.
参考文献
程云建,仇文革,雷劲.基于三维点云的隧道全局中线提取方法及应用[J].湖南大学学报(自然科学版), 2017, 44(9): 146-150. [百度学术]
CHENG Y J, QIU W G, LEI J. Application of method for global extraction of tunnel centerlines based on 3D point clouds[J]. Journal of Hunan University(Natural Sciences), 2017, 44(9): 146-150. (in Chinese) [百度学术]
LUO W J, YANG B, URTASUN R. Fast and furious: real time end-to-end 3D detection, tracking and motion forecasting with a single convolutional net [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.June 18-23,2018,Salt Lake City,UT,USA:IEEE,2018:3569-3577. [百度学术]
杨军,王连甲. 结合位置关系卷积与深度残差网络的三维点云识别与分割[J]. 西安交通大学学报, 2023, 57(5): 182-193. [百度学术]
YANG J,WANG L J.Recognition and segmentation of 3D point cloud through positional relation convolution in combination with deep residual network[J].Journal of Xi’an Jiaotong University,2023,57(5):182-193.(in Chinese) [百度学术]
CHOY C B, XU D F, GWAK J Y, et al.3D-R2N2:a unified approach for single and multi-view 3D object reconstruction[C]// Proceedings of the 2016 European Conference on Computer Vision (ECCV). Cham, Switzerland: Springer, 2016: 628-644. [百度学术]
WU Z R, SONG S R, KHOSLA A, et al. 3D ShapeNets: a deep representation for volumetric shapes [C] // Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Boston, USA:IEEE, 2015: 1912-1920. [百度学术]
CHARLES R Q,HAO S,MO K C,et al.PointNet:deep learning on point sets for 3D classification and segmentation[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).July 21-26,2017,Honolulu,HI,USA:IEEE,2017:77-85. [百度学术]
SIMONOVSKY M, KOMODAKIS N. Dynamic edge-conditioned filters in convolutional neural networks on graphs [C] // Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, USA: IEEE, 2017: 29-38. [百度学术]
MASCI J,BOSCAINI D,BRONSTEIN M M,et al.Geodesic convolutional neural networks on Riemannian manifolds[C]//2015 IEEE International Conference on Computer Vision Workshop (ICCVW).December 7-13,2015,Santiago,Chile: IEEE,2015:832-840. [百度学术]
BOSCAINI D, MASCI J, RODOLÀ E, et al. Learning shape correspondence with anisotropic convolutional neural networks[EB/OL]. (2016-05-20)[2023-09-14]:1605.06437.https://arxiv.org/abs/1605.06437v1. [百度学术]
SHEN Y R, FENG C, YANG Y Q, et al. Mining point cloud local structures by kernel correlation and graph pooling[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018: 4548-4557. [百度学术]
LIU Y C, FAN B, XIANG S M, et al. Relation-shape convolutional neural network for point cloud analysis [C] // Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).June 15-20,2019,Long Beach,CA,USA:IEEE,2019:8887-8896. [百度学术]
THOMAS H, QI C R, DESCHAUD J E, et al. Kpconv: flexible and deformable convolution for point clouds [C] // Proceedings of the 2019 IEEE/CVF International Conference on Computer Vision (ICCV). Seoul, Korea (South): IEEE, 2019: 6410-6419. [百度学术]
WANG Y, SUN Y B, LIU Z W, et al. Dynamic graph CNN for learning on point clouds [J]. ACM Transactions on Graphics, 2019, 38(5): 1-12. [百度学术]
SU H,MAJI S,KALOGERAKIS E,et al.Multi-view convolutional neural networks for 3D shape recognition[C]//2015 IEEE International Conference on Computer Vision (ICCV).December 7-13,2015,Santiago,Chile:IEEE,2015:945-953. [百度学术]
LAWIN F J,DANELLJAN M,TOSTEBERG P,et al.Deep projective 3D semantic segmentation[M]//FELSBERG M,HEYDEN A,KRÜGER N,eds. Lecture Notes in Computer Science.Cham:Springer International Publishing,2017:95-107. [百度学术]
IANDOLA F N,HAN S,MOSKEWICZ M W,et al.SqueezeNet:AlexNet-level accuracy with 50x fewer parameters and <0.5 MB model size[EB/OL]. (2016-02-24)[2023-09-14]:1602.07360.https://arxiv.org/abs/1602.07360v4. [百度学术]
WU B C, WAN A, YUE X Y, et al. SqueezeSeg: convolutional neural nets with recurrent CRF for real-time road-object segmentation from 3D LiDAR point cloud [C] // 2018 IEEE International Conference on Robotics and Automation (ICRA). Brisbane, Australia: IEEE, 2018: 1887-1893. [百度学术]
WU B C, ZHOU X Y, ZHAO S C, et al. SqueezeSegV2: improved model structure and unsupervised domain adaptation for road-object segmentation from a LiDAR point cloud [C]// 2019 International Conference on Robotics and Automation (ICRA). Montreal, Canada: IEEE, 2019: 4376-4382. [百度学术]
ZHOU Y,TUZEL O.VoxelNet:end-to-end learning for point cloud based 3D object detection[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.June 18-23,2018,Salt Lake City,UT,USA: IEEE,2018:4490-4499. [百度学术]
MATURANA D, SCHERER S. VoxNet: a 3D convolutional neural network for real-time object recognition [C] // 2015 IEEE/ RSJ International Conference on Intelligent Robots and Systems (IROS). Hamburg, Germany: IEEE, 2015: 922-928. [百度学术]
LE T,DUAN Y.PointGrid:a deep network for 3D shape understanding[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.June 18-23,2018,Salt Lake City,UT,USA: IEEE,2018:9204-9214. [百度学术]
RIEGLER G,ULUSOY A O,GEIGER A.OctNet:learning deep 3D representations at high resolutions[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).July 21-26,2017,Honolulu,HI,USA: IEEE,2017:6620-6629. [百度学术]
ZENG W,GEVERS T.3DContextNet:K-d tree guided hierarchical learning of point clouds using local and global contextual cues[M]//Lecture Notes in Computer Science.Cham:Springer International Publishing,2019:314-330. [百度学术]
ZHANG C,WAN H C,SHEN X Y,et al.PVT:point-voxel transformer for point cloud learning[J].International Journal of Intelligent Systems,2022,37(12): 11985-12008. [百度学术]
QI C,YI L,SU H,et al.PointNet++:deep hierarchical feature learning on point sets in a metric space[EB/OL].(2017-06-07)[2023-09-14]:1605.06437.https://arxiv.org/pdf/1706.02413. [百度学术]
QIAN G, LI Y, PENG H, et al. Pointnext: revisiting pointnet++ with improved training and scaling strategies[J]. Advances in Neural Information Processing Systems, 2022, 35: 23192-23204. [百度学术]
ZHOU H R,FENG Y D,FANG M S,et al.Adaptive graph convolution for point cloud analysis[C]//2021 IEEE/CVF International Conference on Computer Vision (ICCV).October 10-17,2021,Montreal,QC,Canada: IEEE,2021:4945-4954. [百度学术]
WU C Z,ZHENG J W,PFROMMER J,et al.Attention-based point cloud edge sampling[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).June 17-24,2023,Vancouver,BC,Canada:IEEE,2023:5333-5343. [百度学术]
GADELHA M,WANG R,MAJI S.Multiresolution tree networks for 3D point cloud processing[M]//Lecture Notes in Computer Science.Cham:Springer International Publishing,2018:105-122. [百度学术]
LI J X,CHEN B M,LEE G H.SO-net:self-organizing network for point cloud analysis[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.June 18-23,2018,Salt Lake City, UT, USA: IEEE,2018:9397-9406. [百度学术]
LEI H,AKHTAR N,MIAN A.Spherical kernel for efficient graph convolution on 3D point clouds[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2021,43(10):3664-3680. [百度学术]
WANG L,HUANG Y C,HOU Y L,et al.Graph attention convolution for point cloud semantic segmentation[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).June 15-20,2019,Long Beach,CA,USA:IEEE,2019:10288-10297. [百度学术]
杨军, 张琛. 融合双注意力机制和动态图卷积神经网络的三维点云语义分割[J/OL]. 北京航空航天大学学报: 1-12[2023-09-09]. DOI:10.13700/j.bh.1001-5965.2022.0775. [百度学术]
YANG J, ZHANG C. Semantic segmentation of 3D point cloud by fusing dual attention mechanism and dynamic graph convolution neural network[J/OL]. Journal of Beijing University of Aeronautics and Astronautics: 1-12[2023-09-09]. DOI:10.13700/j.bh.1001-5965.2022.0775(In Chinese) [百度学术]
KLOKOV R,LEMPITSKY V.Escape from cells:deep Kd-networks for the recognition of 3D point cloud models[C]//2017 IEEE International Conference on Computer Vision (ICCV).October 22-29,2017,Venice,Italy: IEEE, 2017: 863-872. [百度学术]
WEI M Q,WEI Z Y,ZHOU H R,et al.AGConv:adaptive graph convolution on 3D point clouds[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2023,45(8):9374-9392. [百度学术]
YI L, KIM V G, CEYLAN D, et al. A scalable active framework for region annotation in 3D shape collections [J]. ACM Transactions on Graphics, 2016, 35(6): 1-12. [百度学术]
HUANG Q G,WANG W Y,NEUMANN U.Recurrent slice networks for 3D segmentation of point clouds[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.June 18-23,2018,Salt Lake City,UT,USA:IEEE,2018:2626-2635. [百度学术]