摘要
点云配准的核心是估算变换矩阵.两个点云对之间存在部分重叠、高噪声和密度差异,现有方法无法精确解决显著点云对应关系之间特征对齐问题.因此,提出显著性峰值与特征对齐网络(significance peak and feature alignment network, SPFANet),实现由粗到细的点云配准.SPFANet由多显著性峰值检测器、粗配准和细配准三部分组成.首先,多显著性峰值检测器引入一种基于描述符方差和重叠分数重加权峰值损失方法,去除非歧视与非重叠的关键点云;其次,粗配准阶段通过检测互补关键点集来计算粗步的配准方案;最后,细配准阶段引入带有前向后向变换的特征度量框架细化粗配准,完成高效点云配准.在同源3DMatch数据集和跨源3DCSR数据集上的实验验证了SPFANet的有效性.
点云配准(point cloud registration, PCR)旨在恢复同一场景中两个点云之间的变换矩阵,对于自动驾驶、机器人和增强现实等计算机视觉应用至关重要.根据获取点云的传感器类型,可将点云划分为同源点云和跨源点云.由于传感器的成像机制不同,跨源点云更复杂,同时存在密度差异和尺度差异等挑战.这些挑战意味着源点云中的点可能不在其对应目标点云的相应位置上,即目标点云不是由源点云直接变换而来.因此,两个点云之间可能不存在完美的一一对应关系,这是配准面临的主要难题.
近年来,多数国内外学者不断尝试解决上述问题,提高配准精度和效率.一些传统配准方法如IC
综上,点云配准存在难以解决的部分重叠问题以及真实对应之间不存在完美对应的挑战,为此,本文提出显著性峰值与特征对齐网络(significance peak and feature alignment network, SPFANet),着重解决点云对非重叠区域信息冗余以及显著点云特征对齐问题.首先,采用核点卷积骨干网络和Transformer编码结构提取点云内部交互特征,生成多个显著性峰值检测热图,同时为了抑制非重叠区域以及特征区分性较弱的区域产生关键点,引入基于特征方差和重叠分数的重加权峰值损失训练关键点检测器;其次,通过非极大值抑制获得特征热图的候选关键点,采用基于全局特征相关性的粗匹配方法提升配准效率;最后,采用基于前向后向的无监督方式预训练细配准模块,同时通过计算关键点云之间的特征度量误差细化配准方案,降低真实对应之间不存在完美对应的影响,从而提高配准精度.在多个不同数据集上的实验验证了SPFANet的有效性.
1 显著性峰值与特征对齐的点云配准
给定一组点云对和,希望找到一个变换矩阵使得和之间的空间位置差别最小.网络通过最小化位于重叠区域的可辨别性关键点集的特征投影误差获得最佳变换,如下式所示:
argmin | (1) |
式中:和表示和的重叠区域,和代表对应的特征;R是变换矩阵中的旋转矩阵;t*是变换矩阵中的平移向量.
SPFANet的整体结构如

图1 本文网络结构图
Fig. 1 Structure of the proposed network
1.1 多显著性峰值检测器
多显著性峰值检测器旨在从同一点云中提取不相交的关键点集,降低点云匹配复杂度,包括点云特征提取与特征检测热图生成两部分.
1.1.1 点云特征提取
采用特征混合网络获得输入点云的几何上下文信息以及两个点云之间的混合交互特征.特征提取过程如下:
(2) |
其中,是由一系列类似于ResNet的跨步卷积块、Transformer自注意力模块和交叉注意力模块组成的特征混合网络,获得原始点云的简化版本和.和分别表示和的混合特征.
1.1.2 特征检测热图MLP
获得的点云混合特征被送入检测热图MLP中,以生成不同的显著性峰值特征检测热图.检测热图中的每个元素表示在点云中对应点的显著性,即每个点在点云中是否具有判别性以及重叠性.对于两个点云,处于重叠区域中的点有找到匹配对的可能性,而位于判别性区域的点更容易产生正确的对应关系.热图生成步骤如下:
(3) |
其中,由三个线性层、两个ReLU激活函数以及一个Sigmoid层组成,用于生成检测热图,其中B是关键点集的数量,是每个检测热图提取的关键点数量.事实上,生成的每个检测热图都将用于提取一组关键点,其中b=1,2,…,B-1.目标点云的检测热图以相同的方式获得.
1.2 基于候选关键点的点云粗配准模块
1.2.1 候选关键点
得到显著性峰值检测热图之后,需要提取关键点并进行粗匹配.前面提到检测图中每个元素表示对应点的显著性分数,那么候选关键点的选择将在显著性峰值中产生.首先,对于每个热图,候选关键点被确立为每个热图局部峰值的点坐标.通过应用局部非极大值抑制(NMS)确立局部峰值:
(4) |
每个热图选择的关键点个数由总关键点个数K和检测热图个数B确定,即对于每个显著性热图,仅选择K/B个局部峰值作为候选关键点.通过将关键点与其对应特征进行耦合获取局部特征.目标点云的候选关键点及其局部特征以同样的方式获取.
1.2.2 粗匹配模块
为了找到正确的且无歧义的对应关系,选择一种基于全局特征相关性的匹配方案.值得注意的是,本文的检测器检测一个点云的多个不同关键点集,则每个源关键点集只与特征最相关的对应目标关键点集计算匹配矩阵.如
首先,将局部特征和归一化到一个单位球体上并计算其高斯相关性矩阵,其中每个元素值被计算为点云对之间的匹配分数:
(5) |
其中,b=1,2,…,B-1,和分别是点云和的第个关键点集上的某个关键点的特征.点云的某些点判别性比较低,可能在其他点云中有很多相似的块.
其次,在上执行双重归一化操作以进一步抑制歧义匹配:
(6) |
这种方式可以有效消除错误匹配.
然后,对应关系被选择为所有中元素最大的个点对,如下:
(7) |
其中,是将每个展平拼接后的每个元素.
最后,使用对应点集中的点对应关系来求解粗略变换,如下:
(8) |
其中,,是每对对应点的显著性分数均值.这可以使用加权SV
得益于高质量的对应关系,这个阶段获得的变换已经比较准确了.得到的关键点和以及粗略配准结果被送入细配准阶段对配准结果进行微调.
1.3 基于特征对齐的点云细配准模块
获得新的成对点云之后,使用简单有效的细配准模块细化粗略变换.利用点云整体结构信息,通过迭代逆合成算法(inverse composition, IC
如
Algorithm 1 : Iterative Inverse Composition Algorithm | |
---|---|
Input: Key point sets from two point clouds and ; Initial registration ; Feature encoder network . | |
Output: Optimal transformation matrix . | |
1 |
max_iter = 5 |
2 |
|
3 |
|
4 |
for i = 1 to max_iter do |
5 |
, |
6 |
|
7 |
|
8 |
|
9 |
|
10 |
|
11 |
|
12 |
|
13 |
end for |
14 |
|
1.4 损失函数
SPFANet由特征损失、检测器损失、相异损失和倒角损失函数组成.
1.4.1 特征损失
为识别有区别的点云特征描述符,采用InfoNCE损失函数约束两个点云关键点之间的对应关系.InfoNCE损失促使两个对应的关键点具有相似的描述符,而不对应的关键点应该具有不相似的描述符.
对于与其在中的对应关系,源点云的InfoNCE损失为:
(9) |
其中,表示一种双线性模型,如下:
(10) |
这里,是点的特征,和是点在中匹配和不匹配的关键点,其分别由设置为的正边距和负边距确定.是下采样层中使用的体素距离,所有落在负边界之外的负点都用于.此外,是可学习参数,是上三角矩阵,通过这种方式强制成为对称函数.
1.4.2 检测器损失
为了鼓励网络产生分布良好的局部显著性峰值的检测热图,同时避免歧视性区域,检测器采用一种重加权峰值损失,定义如下:
(11) |
式中:是以关键点为中心的局部点云块,是权重,旨在避免检测器在非重叠性区域以及不具有区分性的区域出现峰值.其定义如下:
(12) |
这里,由特征局部方差与重叠分数相乘计算得到,局部方差在以关键点为中心的局部点云块上计算获得,在特征通道维度上取平均值.其中,是点云的地面真实标签,其定义方式与Predato
(13) |
式中:代表地面真实变换矩阵;代表空间最近邻;是重叠阈值.
目标点云的峰值损失由同样的方式计算.总的峰值损失计算为:
(14) |
1.4.3 相异性损失
为了促进中的每个检测热图都关注不同的区域,避免产生交叉关键点集,提出一种相异性损失,惩罚每对检测图的同位峰值,如下:
(15) |
其中,是指检测热图的数量,二项式是可能的检测器热图组合的数量.同时,目标点云的相异性损失可由同样的方式计算获得.总的相异性损失为:
(16) |
1.4.4 倒角损失
为了提高细配准的质量,预训练特征编码器十分重要.为此,本文引入一种前向后向旋转模式,以无监督的方式训练该编码器网络.如

图2 前向后向训练结构图
Fig.2 Structure of forward-backward training
倒角损失是衡量两组点之间相似度的指标,定义如下:
(17) |
式中:是在输出点云的单位正方形中采样的一组点;来自源点云;是点云形状特征;是个可学习参数.本文联合前向阶段和后向阶段的倒角损失来训练特征编码器,如下:
(18) |
式中:和分别是编码-解码后的源点云和目标点云;是目标点云经过旋转变换到源点云又旋转回目标点云之后的形态.
综上所述,SPFANet主要训练多显著性峰值检测器,整体损失函数表达式如下:
(19) |
其中,、和是超参数,用于平衡各个损失.多显著性峰值检测器采用两阶段训练.在开始阶段,使用特征损失训练主干网络提取特征,然后在联合训练中使用整体损失训练整体架构.整个训练过程中局部方差不参与训练,即权重梯度不参与反向传播.细配准模块由倒角损失提前预训练,不参与SPFANet整体训练过程,且其参数在整体训练过程中不会更新.
2 实验及结果分析
2.1 实验数据集
本文在公开同源数据集3DMatch和跨源数据集3DCSR上评估提出的SPFANet方法的有效性.
3DMatch数据
真实世界跨源点云3DCSR数据
2.2 实验环境
实验在NVIDIA Quadro RTX 8000 GPU上使用Pytorch 3.8完成.
利用带有权重衰减优化器的Adam
2.3 在3DMatch数据集上的点云配准实验
为了评估配准性能,SPFANet分别与基于对应关系的学习算法(如D3Fea
配准算法 | 3DMatch | 3DLoMach | ||||
---|---|---|---|---|---|---|
RRE/(°) | RTE/m | RR/% | RRE/(°) | RTE/m | RR/% | |
D3Fea | 2.161 | 0.067 | 81.6 | 3.361 | 0.103 | 37.2 |
Predato | 2.062 | 0.068 | 90.6 | 3.159 | 0.096 | 62.5 |
DH | 2.080 | 0.061 | 91.4 | 2.544 | 0.078 | 69.1 |
DG | 2.103 | 0.067 | 85.3 | 3.954 | 0.113 | 48.7 |
REGT | 1.567 | 0.049 | 92.0 | 2.827 | 0.077 | 64.8 |
GeoTransforme | 1.534 | 0.045 | 92.0 | 2.764 | 0.081 | 75.0 |
PointNetL | 3.620 | 0.213 | 1.6 | 7.342 | 0.298 | 1.2 |
FM | 4.330 | 0.130 | 14.3 | 7.832 | 0.185 | 7.3 |
OMNe | 4.010 | 0.112 | 36.4 | 6.785 | 0.192 | 8.6 |
SPFANet | 1.323 | 0.051 | 94.6 | 1.721 | 0.072 | 77.2 |
从

图3 3DMatch和3DLoMatch配准可视化样例
Fig.3 Sample visualization of alignment in 3DMatch and 3DLoMatch

(a) 3DMatch数据集

(b) 3DLoMatch数据集
图4 三种点云配准方法在3DMatch和3DLoMatch数据集上配准性能对比
Fig.4 Comparison of the alignment performance of the 3 point cloud registration methods on 3DMatch and 3DLoMatch datasets
2.4 在3DCSR数据集上的点云配准实验
在3DCSR数据集上进行真实跨源点云配准的泛化实验,结果如
配准算法 | RRE/(°) | RTE/m | RR/% |
---|---|---|---|
GCT | 7.46 | 0.17 | 0.5 |
RANSA | 8.30 | 0.13 | 3.5 |
JRMP | 8.57 | 0.71 | 1.0 |
IC | 5.71 | 0.38 | 24.3 |
FG | 10.74 | 0.07 | 1.5 |
PointNetL | 12.54 | 0.09 | 0.1 |
FM | 3.22 | 0.09 | 24.5 |
DG | 2.46 | 0.04 | 59.6 |
SPFANet | 1.43 | 0.08 | 68.7 |

(a) 收敛性能

(b) SPFANet配准结果
图5 三种方法在3DCSR数据集上收敛性能对比及SPFANet配准结果可视化
Fig.5 Comparison of the convergence performance of the three methods on the 3DCSR dataset and visualization of the alignment results of SPFANet
2.5 消融实验
本节将对所介绍方法中每个模块的有效性进行审查,分别对显著性峰值检测器、峰值损失重加权方案、细配准前向后向无监督训练方案进行消融实验,在三个数据集上的实验结果如
配准算法 | 3DCSR | 3DLoMatch | 3DMatch |
---|---|---|---|
No- Dete | 50.9 | 51.4 | 70.7 |
2-Dete No-W | 55.6 | 58.3 | 79.6 |
2-Dete+RANSAC | 58.4 | 60.8 | 82.2 |
2-Dete+FMR | 62.1 | 68.6 | 90.3 |
2-Dete+细配准 | 68.7 | 77.2 | 94.6 |
为了验证显著性峰值检测器中超参数检测器个数B的有效性,在三个数据集上分别设置超参数检测器个数B=1,2,4,测试结果如
配准算法 | 3DCSR | 3DLoMatch | 3DMatch |
---|---|---|---|
1-Dete | 65.3 | 72.2 | 90.1 |
2-Dete | 68.7 | 77.2 | 94.6 |
4-Dete | 60.3 | 70.7 | 88.6 |
2.6 可视化分析
在低重叠点云数据集3DLoMatch上,损失重加权效果示例如

(a) 原始点云与重加权热力图

(b) 有无加权的关键点检测结果

(c) 配准结果
图6 损失重加权效果示例分析
Fig.6 Example analysis of the effect of loss weight weighting
3 结束语
本文提出了一种结合显著性峰值检测和特征对齐的从粗到细的点云配准网络SPFANet.在网络中,设计了多显著性峰值检测器,结合Transformer自注意力与交叉注意力机制提取多个不相交的关键点集及其特征;同时,设计了一种基于方差和重叠分数的重加权峰值损失抑制方案,避免了非重叠区域与非歧视区域的关键点的检测.在粗配准模块,选择一种基于全局特征相关性的匹配方案,有效抑制了歧义匹配.在细配准模块,提出了一个无监督训练方案,采用前向后向变换方法训练特征度量框架,通过最小化特征度量投影误差,高效地估计点云之间的变换参数,有效提升了真实点云配准的准确率与效率.广泛的实验评估表明,SPFANet能够有效克服各种真实场景中大噪声、密度差异、部分重叠和尺度变化等问题,在同源和跨源数据集上均取得了优秀的结果.但SPFANet并不能解决所有的问题,实验观察到,在超大旋转角度的真实极端场景下,配准失败率会比较高.因此,未来考虑关注点云的旋转属性、引入旋转归一化,以应对高度旋转的点云配准挑战.
参考文献
BESL P J,MCKAY N D.A method for registration of 3-D shapes[C]//IEEE Transactions on Pattern Analysis and Machine Intelligence. IEEE,1992:239-256. [百度学术]
YANG J, LI H, CAMPBELL D, et al. Go-ICP : a globally optimal solution to 3D ICP point-set registration[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016,38(11):2241-2254. [百度学术]
JIAN B, VEMURI B C. Robust point set registration using Gaussian mixture models[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(8):1633-1645. [百度学术]
HUANG X S,ZHANG J,FAN L X,et al.A systematic approach for cross-source point cloud registration by preserving macro and micro structures[J].IEEE Transactions on Image Processing,2017, 26(7): 3261-3276. [百度学术]
HUANG X S,FAN L X,WU Q,et al.Fast registration for cross-source point clouds by using weak regional affinity and pixel-wise refinement[C]//2019 IEEE International Conference on Multimedia and Expo (ICME). Shanghai,China.IEEE,2019:1552-1557. [百度学术]
FISCHLER M A, BOLLES R C. Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography[J]. Communications of the ACM, 1981, 24(6): 381-395. [百度学术]
MELLADO N,AIGER D,MITRA N J,et al.Super 4PCS fast global pointcloud registration via smart indexing[C]//Proceedings of the Symposium on Geometry Processing. ACM,2014: 205-215. [百度学术]
STEDER B, RUSU R B, KONOLIGE K, et al. NARF: 3D range image features for object recognition[C]//Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems, IROS Workshop. 2010:44. [百度学术]
MIAN A,BENNAMOUN M,OWENS R.On the repeatability and quality of keypoints for local feature-based 3D object retrieval from cluttered scenes[J]. International Journal of Computer Vision, 2010, 89(2): 348-361. [百度学术]
ZHONG Y. Intrinsic shape signatures:a shape descriptor for 3D object recognition[C]//2009 IEEE 12th International Conference on Computer Vision Workshops,ICCV Workshops. Kyoto, Japan.IEEE, 2009: 689-696. [百度学术]
RUSU R B,BLODOW N,MARTON Z C,et al.Aligning point cloud views using persistent feature histograms[C]//2008 IEEE/RSJ International Conference on Intelligent Robots and Systems. Nice,France.IEEE,2008:3384-3391. [百度学术]
RUSU R B,BLODOW N,BEETZ M,et al.Fast point feature histograms (FPFH) for 3D registration[C]//Proceedings of the 2009 IEEE International Conference on Robotics and Automation. Kobe, Japan. ACM, 2009: 1848-1853. [百度学术]
ZHOU Q Y, PARK J, KOLTON V. Fast global registration[C]//Computer Vision-ECCV 2016: 14th European Conference. Amsterdam, The Netherlands. 2016: 766-782. [百度学术]
ZENG A,SONG S R,NIEßNER M,et al.3DMatch:learning local geometric descriptors from RGB-D reconstructions[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu,HI,USA.IEEE,2017:199-208. [百度学术]
BAI X Y,LUO Z X,ZHOU L, et al. D3Feat: joint learning of dense detection and description of 3D local features[C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle,WA,USA. IEEE,2020: 6358-6366. [百度学术]
陆军, 陈坤, 范哲君. 点邻域尺度差异描述的点云配准算 法[J]. 国防科技大学学报, 2021, 43(3): 128-134. [百度学术]
LU J,CHEN K,FAN Z J. Point cloud registration algorithm based on scale difference descriptor of point neighborhood[J]. Journal of National University of Defense Technology,2021,43(3): 128-134.(in Chinese) [百度学术]
李雪梅,王春阳, 刘雪莲,等.基于超体素双向最近邻距离比的点云配准方法[J].吉林大学学报(工学版),2022,52(8):1918-1925. [百度学术]
LI X M, WANG C Y, LIU X L,et al. Point cloud registration method based on supervoxel bidirectional nearest neighbor distance ratio[J]. Journal of Jilin University (Engineering and Technology Edition), 2022, 52(8): 1918-1925.(in Chinese) [百度学术]
熊丰伟,庄健,沈人.基于邻域曲率的低特征辨识度点云配准方法[J].计算机应用研究,2022,39(1):285-290. [百度学术]
XIONG F W, ZHUANG J, SHEN R. Point cloud with low feature recognition registration method based on neighborhood curvature[J]. Application Research of Computers,2022,39(1):285-290.(in Chinese) [百度学术]
AOKI Y,GOFORTH H,SRIVATSAN R A,et al.PointNetLK:robust & efficient point cloud registration using PointNet[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach, CA, USA. IEEE, 2019:7163-7172. [百度学术]
HUANG X S,MEI G F,ZHANG J. Feature-metric registration:a fast semi-supervised approach for robust point cloud registration without correspondences[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle,WA,USA.IEEE,2020:11363-11371. [百度学术]
LI X Q,PONTES J K,LUCEY S.PointNetLK revisited[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Nashville,TN,USA.IEEE,2021. [百度学术]
张元, 李晓燕, 韩燮.一种低重叠率的三维点云配准方法[J].激光与光电子学进展,2021,58(8): 170-179. [百度学术]
ZHANG Y,LI X Y,HAN X.Three-dimensional point cloud registration method with low overlap rate[J].Laser & Optoelectronics Progress, 2021, 58(8): 170-179.(in Chinese) [百度学术]
阎翔鑫,蒋峥,刘斌.基于角度约束的跨源点云配准算法[J].激光与光电子学进展,2023,60(22): 272-279. [百度学术]
YAN X X,JIANG Z,LIU B.Cross-source point cloud registration algorithm based on angle constraint[J].Laser & Optoelectronics Progress,2023,60(22):272-279.(in Chinese) [百度学术]
易见兵, 彭鑫, 曹锋等. 多尺度特征融合的点云配准算法研究[J/OL]. 广西师范大学学报(自然科学版), 2024: 1-12. DOI:10.16088/j.issn.1001-6600.2023082502. [百度学术]
HUANG S Y,GOJCIC Z,USVYATSOV M,et al. Predator: registration of 3D point clouds with low overlap[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Nashville,TN,USA.IEEE,2021:4265-4274. [百度学术]
LI J H,ZHANG C H,XU Z Y,et al.Iterative distance-aware similarity matrix convolution with mutual-supervised point elimination for efficient point cloud registration[C]// Computer Vision-ECCV 2020.Cham:Springer International Publishing,2020: 378-394. [百度学术]
YEW Z J,LEE G H. REGTR:end-to-end point cloud correspondences with transformers[C]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New Orleans,LA,USA.IEEE,2022:6667-6676. [百度学术]
QIN Z,YU H, WANG C, et al. Geometric transformer for fast and robust point cloud registration[C]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New Orleans,LA,USA.IEEE,2022:11133-11142. [百度学术]
CHENG X, YU H, ZHANG H, et al. WeightedPose: generalizable cross-pose estimation via weighted SVD[J].arXiv, 2024, arXiv: 2405.02241. [百度学术]
BAKER S,MATTHEWS I.Lucas-kanade 20 years on:a unifying framework[J].International Journal of Computer Vision,2004,56(3): 221-255. [百度学术]
GROUEIX T,FISHER M,KIM V G,et al. A papier-Mache approach to learning 3D surface generation[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA. IEEE, 2018: 216-224. [百度学术]
HUANG X S, MEI G F, ZHANG J, et al. A comprehensive survey on point cloud registration[EB/OL]. [2024-02-18] https://arxiv.org/abs/2103.02690v2. [百度学术]
LOSHCHILOV I,HUTTER F. Decoupled weight decay regularization[C]//International Conference on Learning Representations, 2019. [百度学术]
LEE J, KIM S, CHO M, et al. Deep Hough voting for robust global registration[C]// Proceedings of the 2021 IEEE/CVF International Conference on Computer Vision. IEEE, 2021:15974-15983. [百度学术]
CHOY C, DONG W, KOLTUN V. Deep global registration[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2020: 2514-2523. [百度学术]
XU H,LIU S C,WANG G F,et al.OMNet:learning overlapping mask for partial-to-partial point cloud registration[C]//2021 IEEE/CVF International Conference on Computer Vision (ICCV). Montreal,QC,Canada.IEEE,2021: 3112-3121. [百度学术]
MELLADO N,DELLEPIANE M,SCOPIGNO R.Relative scale estimation and 3D registration of multi-modal geometry using growing least squares[J].IEEE Transactions on Visualization and Computer Graphics,2016,22(9):2160-2173. [百度学术]
HUANG X S,ZHANG J,WU Q,et al.A coarse-to-fine algorithm for registration in 3D street-view cross-source point clouds[C]//2016 International Conference on Digital Image Computing:Techniques and Applications (DICTA). Gold Coast,QLD,Australia.IEEE,2016:1-6. [百度学术]
PENG F R,WU Q,FAN L X,et al.Street view cross-sourced point cloud matching and registration[C]//2014 IEEE International Conference on Image Processing (ICIP). Paris,France. IEEE, 2014:2026-2030. [百度学术]