CN105701820B - 一种基于匹配区域的点云配准方法 - Google Patents
一种基于匹配区域的点云配准方法 Download PDFInfo
- Publication number
- CN105701820B CN105701820B CN201610023654.5A CN201610023654A CN105701820B CN 105701820 B CN105701820 B CN 105701820B CN 201610023654 A CN201610023654 A CN 201610023654A CN 105701820 B CN105701820 B CN 105701820B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- point
- registration
- cloud
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了一种基于匹配区域的点云配准方法,包括数据采集、点云和目标点云的区域分割、特征点提取与匹配、区域匹配、匹配区域对排序、点云初始配准、设定当前匹配区域对的编号m为0,设置配准误差阈值的初始值、点云局部配准、逐区域进行点云配准调整步骤;如果调整配准点云与目标点云Q之间的配准误差是否小于配准误差阈值,则更新配准误差阈值再次进行调整,否则结束本匹配区域的调整。本发明是一种点云配准精度更高的、鲁棒性更好的点云配准方法对点云全局最优配准所导致的点云局部配准不精确的点云,利用匹配区域的点云局部配准,进行局部修正,提高了点云的配准精度。
Description
技术领域
本发明涉及一种点云配准方法,尤其涉及一种基于匹配区域的点云配准方法,属于三维重建技术领域。
背景技术
随着传感器技术的发展,对于场景的深度信息的获取更加方便,精确。大部分深度相机,尤其是较为廉价的Kinect深度传感器,因其能较为准确并快速的获取场景深度信息,被广泛用于场景分析,肢体信息捕捉,以及三维扫描等研究领域。因此彩色相机和深度相机(简称为RGB-D相机)联合采集三维点云,对其进行重建逐渐成为三维扫描研究领域的研究热点和重点。基于RGB-D相机的三维点云重建系统主要包括三部分:点云的获取与配准,闭合环路检测,全局信息配准。其中点云间的自动配准研究是点云重建系统中的一个研究热点和难点。
点云配准技术是指:通过一定算法,利用计算机计算两点云之间的错位关系,从而将两块点云关联在一起。其问题关键是求得两块点云间的坐标变换参数,包括旋转矩阵R和平移向量T,使得两视角下测得的三维数据间坐标变换后的距离最小,也就是说将真实场景中不同视角下的重叠区域,在点云数据中通过配准,使该区域在统一坐标系中也尽可能重叠在一起。
Besl,P.J.&McKay,N.D.(1992).A method for registration of 3-Dshapes.IEEE Transactions on Pattern Analysis and MachineIntelligence,14(2),239–256.公开了一种基于帧间配准的点云配准算法的Iterative Closest Point(ICP)算法。Rusinkiewicz,S.,&Levoy,M.Efficient variants of the ICPalgorithm.In Proc.ofthe third international conference on 3-Ddigital imaging and modeling,pp.145–152,2001。公开了一种改进的ICP算法。这两种算法通过迭代求使点云间重叠部分的Hausdorff距离最小时的刚体变换。此时,点云间应该重叠部分实现基本重叠,从而完成点云间的配准。然而ICP算法及其改进算法仍然属于一种局部最优算法,不能保证收敛得到全局最优解,因此ICP相关算法只有在两点云初始位置较为逼近时,才能得到较为准确的配准结果。
为了使点云间能够在任意初始位置都能够进行较为准确的配准,许多全局最优配准算法被提出。全局最优配准算法是通过解决全局最优问题来求解点云间最为准确的刚体变换。一种较为常用的全局最优算法是在两点云中,基于RANSAC随机寻找最优的3组匹配点,求得最优的刚体变换矩阵,但这种算法的复杂度在最坏情况下达到Ο(n3);另一种常用的全局最优配准算法是通过特征描述子提取特征向量,作为点云的配准点集,通过配准这些特征点集来选择最优的刚体变换矩阵对两点云进行配准。然而,这种基于特征描述子提取的全局最优配准算法只有在两点云中存在较为离散的特征匹配时,才能够进行较为准确的全局最优配准,而且当点云中存在噪声和错误信息较多时,点云配准的鲁棒性较差。
目前,Aiger D,Mitra N J,Cohen-Or D.4-points congruent sets forrobustpairwise surface registration[J].ACM Transactions onGraphics,2008,27(3):Article No.85公开的4PCS算法点云配准精度较高,鲁棒性很强。然而,该算法在配准后的点云中,局部区域的配准结果并不准确。
发明内容
本发明的目的在于克服现有技术的不足,本发明提出了一种点云配准精度更高、鲁棒性更好的基于匹配区域的点云配准方法。
为实现上述目的,本发明提供一种基于匹配区域的点云配准的方法。
一种基于匹配区域的点云配准的方法,包括以下步骤:
步骤1:数据采集:利用RGB-D相机从N个方位采集场景的深度图像序列和彩色图像序列,N>1,生成第一至第N点云;所述各点云的空间点数目由其深度图像有效像素数目决定;所述各点云的的空间点生成方法相同;所述第一点云中第一空间点(x,y,z)的生成方法为:
其中(x,y,z)为所述第一点云中第一空间点的空间坐标,DI_x、DI_y、DI_depth、DI_width、DI_height分别表示第一点云中第一空间点对应的深度图像像素的横坐标、纵坐标、深度值、深度图像的宽度和深度图像的高度;width和height分别为第一点云的宽度高度,其计算方法为:
其中h_va是表示水平视角的期望值,v_va是表示垂直视角的期望值,PI为常量;
步骤2:源点云和目标点云的区域分割:选择第P方位的点云作为源点云,选择第Q方位的点云作为目标点云,分别对源点云的彩色图像CP和目标点云的彩色图像CQ进行区域分割,P≠Q,1≤P,Q≤N;所述彩色图像CP分割为Sp块,所述彩色图像CQ分割为Sq块,其中Sp和Sq的数量均需大于等于1块;所述源点云中各空间点的状态初始化为未配准状态;
步骤3:特征点提取与匹配:提取彩色图像CP和彩色图像CQ的特征点,进行特征点匹配,得到K组特征点匹配对;
步骤4:区域匹配:逐一判断彩色图像CP中各分割区域是否存在已建立特征点匹配对的特征点,如果是,选择彩色图像CQ中与其特征点匹配对组数最多的区域作为对应匹配区域,建立匹配区域对;
步骤5:匹配区域对排序:按照匹配区域对中彩色图像CP的分割区域中像素点数目从多到少排序所述匹配区域对,得到编号m为1至MS的匹配区域对,所述编号MS小于或等于Sp与Sq中的最小值;
步骤6:点云初始配准:运用点云配准算法对源点云P和目标点云Q进行初始配准,获得全局变换矩阵,所述的全局变换矩阵由全局旋转矩阵R和全局平移向量T组成,依据全局变换矩阵将源点云P变换为全局配准点云P';所述彩色图像CP中的各分割区域变换为全局配准点云P'中彩色图像CP’中的对应分割区域;所述各匹配区域对变换为相应的全局匹配区域对;所述各特征点匹配对中源点云P中的空间点的状态更新为配准状态;
步骤7:设定当前匹配区域对的编号m为0,设置配准误差阈值的初始值;
步骤8:点云局部配准:当前匹配区域对的编号加1,对当前匹配区域对进行局部配准,得到当前匹配区域对的局部变换矩阵TAm;
步骤9:点云配准调整:利用局部变换矩阵TAm,调整全局配准点云P'编号为m至MS全局匹配区域对中处于未配准状态的空间点的空间位置;得到调整配准点云P”m;
步骤10:判断调整配准点云P”m与目标点云Q之间的配准误差是否小于配准误差阈值,如果小于配准误差阈值,此次调整配准点云P”m为有效结果,配准结束,转向步骤11进行配准点云更新,否则转向步骤12;
步骤11:用所述调整配准点云P”m更新全局配准点云P',用调整配准点云P”m与目标点云Q之间的配准误差更新配准误差阈值;
步骤12:是否达到配准结束条件:判断当前匹配区域对的编号是否等于MS,如果是,结束;否则,此次调整配准点云P”m为无效结果,转向步骤8。
所述步骤6所述的点云初始配准方法,包括以下步骤:
步骤6-1:在源点云P中任意提取一个点四元组B,所述点四元组B由四个共面的空间点组成,所述点四元组B中任意两个空间点之间距离大于预设距离阈值;
步骤6-2:确定所述点四元组B的对角线交点e,计算对角线交点e分割两条对角线形成的第一和第二分割比r1、r2;在目标点云Q中搜索相应的全等点四元组集合U,所述全等点四元组集合U由与所述点四元组B全等的点四元组组成;所述全等点四元组满足:利用第一和第二分割比r1,r2得到第一和第二分割点e1、e2之间距离小于预设的距离容忍度阈值;
步骤6-3:全局旋转矩阵R和平移向量T获取:逐一计算全等点四元组集合U中各全等点四元组和点四元组B之间的旋转矩阵Ri和平移向量Ti,1≤i≤UM,UM为全等点四元组集合U中全等点四元组数目,选择配准误差最小的旋转矩阵和平移向量作为全局旋转矩阵R和平移向量T。
上述步骤9点云配准调整方法为:
其中,P”m表示使用局部变换矩阵TAm调整后的调整配准点云;PPm-1表示使用调整配准点云编号Pm”-1更新的的全局配准点云,MAl表示编号为l的已经进行配准调整的匹配区域对,Rm和Tm分别为局部变换矩阵TAm的旋转矩阵和平移向量。
上述步骤6和步骤10中所述的配准误差的计算方法相同,均为:
其中和在步骤6中分别表示源点云P的点集p和目标点云Q的点集q中的第i个点的坐标,np表示源点云P中的空间点数目;和在步骤10中分别表示调整配准点云P”的点集p与目标点云Q的点集q中的第i个点的坐标,np表示调整配准点云P”中的空间点数目。
所述步骤6-2中采用全搜索方法目标点云Q中搜索相应的全等点四元组集合U。
本发明技术效果如下:
本发明的对点云全局最优配准所导致的点云局部配准不精确的点云,利用匹配区域的点云局部配准,进行局部修正,提高了点云的配准精度。
附图说明
图1为本发明的流程图;
图2为本实施例中的源点云和目标点云彩色图像;图中(a)为源点云的彩色图像,(b)为目标点云的彩色图像;
图3为本实施例中的源点云和目标点云深度图像;图中(a)为源点云的深度图像,(b)为目标点云的深度图像;
图4为本实施例中生成的源点云和目标点云;
图5为本实施例中彩色图像CP和彩色图像CQ的分割图像,(a)彩色图像CP的分割图像,(b)彩色图像CQ的分割图像;
图6为本实施例中彩色图像CP和彩色图像CQ的特征点配对图像;
图7为本实施例中彩色图像CP和彩色图像CQ的区域配对图像;
图8为本实施例中点云局部配准前后的对比的图像,(a)为两点云局部配准前的图像;(b)为两点云局部配准后的图像;
图9为本实施例中点云配准前后的对比的图像,(a)为两点云配准前的图像;(b)为两点云配准后的图像。
具体实施方式
如图1所示,一种基于匹配区域的点云配准的方法,包括以下步骤:
步骤1:数据采集:利用RGB-D相机从N个方位采集场景的深度图像序列和彩色图像序列,N>1,生成第一至第N点云;所述各点云的空间点数目由深度图像有效像素数目决定,所述空间点(x,y,z)为:
其中(x,y,z)为所述各点云中空间点的空间坐标,DI_x、DI_y、DI_depth、DI_width、DI_height分别表示深度图像像素的横坐标、纵坐标、像素值、深度图像的宽度和深度图像的高度;width为点云宽度和height为点云高度,其计算方法为:
其中h_va是表示水平视角的期望值,v_va是表示垂直视角的期望值,PI为常量;
步骤2:源点云和目标点云的区域分割:选择第P方位的点云作为源点云,选择第Q方位的点云作为目标点云,分别对源点云的彩色图像CP和目标点云的彩色图像CQ进行区域分割,P≠Q,1≤P,Q≤N;所述彩色图像CP分割为Sp块,所述彩色图像CQ分割为Sq块,其中Sp和Sq的数量需大于等于1块;所述源点云中各空间点的状态初始化为未配准状态;
步骤3:特征点提取与匹配:提取彩色图像CP和彩色图像CQ的特征点,进行特征点匹配,得到K组特征点匹配对;
步骤4:区域匹配:逐一判断彩色图像CP中各分割区域是否存在已建立特征点匹配对的特征点,如果是,选择彩色图像CQ中与其特征点匹配对组数最多的区域作为对应匹配区域,建立匹配区域对;
步骤5:匹配区域对排序:按照匹配区域对中彩色图像CP的分割区域中像素点数目从多到少排序所述匹配区域对,得到编号m为1至MS的匹配区域对,所述编号MS小于或等于Sp与Sq中的最小值;
步骤6:点云初始配准:运用点云配准算法对源点云P和目标点云Q进行初始配准,获得全局变换矩阵,所述的全局变换矩阵由全局旋转矩阵R和全局平移向量T组成,依据全局变换矩阵将源点云P变换为全局配准点云P';所述彩色图像CP中的各分割区域变换为全局配准点云P'中彩色图像CP’中的对应分割区域;所述各匹配区域对变换为相应的全局匹配区域对;所述各特征点匹配对中源点云P中的空间点的状态更新为配准状态;
步骤7:设定当前匹配区域对的编号m为0,设置配准误差阈值的初始值;
步骤8:点云局部配准:当前匹配区域对的编号加1,对当前匹配区域对进行局部配准,得到当前匹配区域对的局部变换矩阵TAm;
步骤9:点云配准调整:利用局部变换矩阵TAm,调整全局配准点云P'编号为m至MS全局匹配区域对中处于未配准状态的空间点的空间位置;得到调整配准点云P”m;
步骤10:判断调整配准点云P”m与目标点云Q之间的配准误差是否小于配准
误差阈值,如果小于,此次调整配准点云P”m为有效结果,转向步骤11进行配准点云更新,否则转向步骤12;
步骤11:用所述整配准点云P”m更新全局配准点云P',用调整配准点云P”m与目标点云Q之间的配准误差更新配准误差阈值;
步骤12:是否达到配准结束条件:判断当前匹配区域对的编号是否等于MS,如果是,结束;否则,此次调整配准点云P”m为无效结果,转向步骤8。
所述步骤6所述的点云初始配准方法,包括以下步骤:
步骤6-1:在源点云P中任意提取一个点四元组B,所述点四元组B由四个共面的空间点组成,所述点四元组B中任意两个空间点之间距离大于预设距离阈值;
步骤6-2:确定所述点四元组B的对角线交点e,计算对角线交点e分割两条对角线形成的第一和第二分割比r1、r2;在目标点云Q中搜索相应的全等点四元组集合U,所述全等点四元组集合U由与所述点四元组B全等的点四元组组成;所述全等点四元组满足:利用第一和第二分割比r1,r2得到第一和第二分割点e1、e2之间距离小于预设的距离容忍度阈值;
步骤6-3:全局旋转矩阵R和平移向量T获取:逐一计算全等点四元组集合U中各全等点四元组和点四元组B之间的旋转矩阵Ri和平移向量Ti,1≤i≤UM,UM为全等点四元组集合U中全等点四元组数目,选择配准误差最小的旋转矩阵和平移向量作为全局旋转矩阵R和平移向量T。
上述步骤9点云配准调整方法为:
其中,P”m表示使用局部变换矩阵TAm调整后的调整配准点云;PPm-1表示使用调整配准点云编号P”m-1更新的的全局配准点云,MAl表示编号为l的已经进行配准调整的匹配区域对,Rm和Tm分别为局部变换矩阵TAm的旋转矩阵和平移向量。
上述步骤6和步骤10中所述的配准误差的计算方法相同,均为:
其中和在步骤6中分别表示源点云P的点集p和目标点云Q的点集q中的第i个点的坐标,np表示源点云P中的空间点数目;和在步骤10中分别表示调整配准点云P”的点集p与目标点云Q的点集q中的第i个点的坐标,np表示调整配准点云P”中的空间点数目。
所述步骤6-2中利用全等点四元组满足第一和第二分割比r1,r2得到第一和第二分割点e1、e2之间距离小于预设的距离容忍度阈值的条件,在点云Q中搜索相应的全等点四元组集合U。
在本实施例中RGB-D传感器由Kinect等RGB-D集成传感器或由RGB传感器和深度传感器组装,获取场景时间连续的深度图像序列和彩色图像序列。通过深度图像像素值计算每个像素对应的空间点在世界坐标系中的x,y,z的坐标,得到点云,如图2、3、4所示。
水平视角期望值h_va为57,垂直视角期望值v_va为43,PI为常量,这里取值为3.14。
彩色图像CP和彩色图像CQ区域分割使用的MeanShift算法,参见[D.Comaniciuand P Meer,“Mean shift:A robust approach toward feature space analysis,”IEEETransactions on Pattern Analysis and Machine Intelligence,vol.24,pp.603–619,2002.],本发明并不局限该MeanShift算法,也可选用其他图像分割算法对彩色图像进行区域分割。区域分割结果如图5所示。
本实施例中使用SIFT特征点(Scale Invariant Feature Transform)匹配彩色图像CP和彩色图像CQ。本发明并不局限SIFT特征点的提取和匹配算法,也可选用其他尺度不变的特征点提取和匹配算法。特征点提取和匹配的结果如图6所示。匹配特征点分别所在的位置坐标,映射于源点云和目标点云中的分割区域,此匹配特征点坐标所处于的分割区域即为匹配区域,区域匹配结果如图7所示,图中相同颜色的区域即为匹配区域。
统计彩色图像CP中存在的与彩色图像CQ匹配的各个区域所包含的像素点数目,按照从多到少的顺序进行区域排序,如:Num(CPA)>Num(CPB)>Num(CPC)等,其中CPA、CPB、CPC分别代表彩色图像CP中的区域,其对应的彩色图像CQ中匹配区域为CQA、CQB、CQC。
本实施例中运用4PCS点云配准算法对P和Q进行点云初始配准,本发明并不局限使用4PCS配准算法,也可选用其他配准算法,P经过初始配准后变换为点云P';点云局部配准结果如图8所示。
经过MS次局部配准调整后,完成点云的配准,配准结果如图9所示。
本文所描述的具体实施例仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (5)
1.一种基于匹配区域的点云配准的方法,其特征在于:包括以下步骤:
步骤1:数据采集:利用RGB-D相机从N个方位采集场景的深度图像序列和彩色图像序列,N>1,生成第一至第N点云;各点云的空间点数目由其深度图像有效像素数目决定;各点云的的空间点生成方法相同;第一点云中第一空间点(x,y,z)的生成方法为:
其中(x,y,z)为所述第一点云中第一空间点的空间坐标,DI_x、DI_y、DI_depth、DI_width、DI_height分别表示第一点云中第一空间点对应的深度图像像素的横坐标、纵坐标、深度值、深度图像的宽度和深度图像的高度;width和height分别为第一点云的宽度高度,其计算方法为:
其中h_va是表示水平视角的期望值,v_va是表示垂直视角的期望值,PI为常量;
步骤2:源点云和目标点云的区域分割:选择第P方位的点云作为源点云P,选择第Q方位的点云作为目标点云Q,分别对源点云的彩色图像CP和目标点云的彩色图像CQ进行区域分割,P≠Q,1≤P,Q≤N;所述彩色图像CP分割为Sp块,所述彩色图像CQ分割为Sq块,其中Sp和Sq的数量均需大于等于1块,所述源点云中各空间点的状态初始化为未配准状态;
步骤3:特征点提取与匹配:提取彩色图像CP和彩色图像CQ的特征点,进行特征点匹配,得到K组特征点匹配对;
步骤4:区域匹配:逐一判断彩色图像CP中各分割区域是否存在已建立特征点匹配对的特征点,如果是,选择彩色图像CQ中与其特征点匹配对组数最多的区域作为对应匹配区域,建立匹配区域对;
步骤5:匹配区域对排序:按照匹配区域对中彩色图像CP的分割区域中像素点数目从多到少排序所述匹配区域对,得到编号m为1至MS的匹配区域对,所述编号MS小于或等于Sp与Sq中的最小值;
步骤6:点云初始配准:运用点云配准算法对源点云P和目标点云Q进行初始配准,获得全局变换矩阵,所述的全局变换矩阵由全局旋转矩阵R和全局平移向量T组成,依据全局变换矩阵将源点云P变换为全局配准点云P';所述彩色图像CP中的各分割区域变换为全局配准点云P'中彩色图像CP’中的对应分割区域;所述各匹配区域对变换为相应的全局匹配区域对;所述各特征点匹配对中源点云P中的空间点的状态更新为配准状态;
步骤7:设定当前匹配区域对的编号m为0,设置配准误差阈值的初始值;
步骤8:点云局部配准:当前匹配区域对的编号加1,对当前匹配区域对进行局部配准,得到当前匹配区域对的局部变换矩阵TAm;
步骤9:点云配准调整:利用局部变换矩阵TAm,调整全局配准点云P'编号为m至MS全局匹配区域对中处于未配准状态的空间点的空间位置;得到调整配准点云P”m;
步骤10:判断调整配准点云P”m与目标点云Q之间的配准误差是否小于配准误差阈值,如果小于配准误差阈值,则此次调整配准点云P”m为有效结果,配准结束,转向步骤11进行配准点云更新,否则转向步骤12;
步骤11:用所述调整配准点云P”m更新全局配准点云P',用调整配准点云P”m与目标点云Q之间的配准误差更新配准误差阈值;
步骤12:是否达到配准结束条件:判断当前匹配区域对的编号是否等于MS,如果是,结束;否则,此次调整配准点云P”m为无效结果,转向步骤8。
2.根据权利要求1所述的基于匹配区域的点云配准的方法,其特征在于:所述步骤6所述的点云初始配准方法,包括以下步骤:
步骤6-1:在源点云P中任意提取一个点四元组B,所述点四元组B由四个共面的空间点组成,所述点四元组B中任意两个空间点之间距离大于预设距离阈值;
步骤6-2:确定所述点四元组B的对角线交点e,计算对角线交点e分割两条对角线形成的第一和第二分割比r1、r2;在目标点云Q中搜索相应的全等点四元组集合U,所述全等点四元组集合U由与所述点四元组B全等的点四元组组成;所述全等点四元组满足:利用第一和第二分割比r1,r2得到第一和第二分割点e1、e2,第一和第二分割点e1、e2之间距离小于预设的距离容忍度阈值;
步骤6-3:全局旋转矩阵R和平移向量T获取:逐一计算全等点四元组集合U中各全等点四元组和点四元组B之间的旋转矩阵Ri和平移向量Ti,1≤i≤UM,UM为全等点四元组集合U中全等点四元组数目,选择配准误差最小的旋转矩阵Ri和平移向量Ti,作为全局旋转矩阵R和平移向量T。
3.根据权利要求1所述的基于匹配区域的点云配准的方法,其特征在于:所述步骤9中的点云配准调整方法为:
其中,P”m表示使用局部变换矩阵TAm调整后的调整配准点云;PPm-1表示使用调整配准点云编号P”m-1更新的全局配准点云,MAl表示编号为l的已经进行配准调整的匹配区域对,Rm和Tm分别为局部变换矩阵TAm的旋转矩阵和平移向量。
4.根据权利要求2所述的基于匹配区域的点云配准的方法,其特征在于:所述步骤6和步骤10中所述的配准误差的计算方法相同,均为:
其中和在步骤6中分别表示源点云P的点集p和目标点云Q的点集q中的第i个点的坐标,np表示源点云P中的空间点数目;和在步骤10中分别表示调整配准点云P”的点集p与目标点云Q的点集q中的第i个点的坐标,np表示调整配准点云P”中的空间点数目。
5.根据权利要求2所述的基于匹配区域的点云配准的方法,其特征在于:所述步骤6-2中采用全搜索方法在目标点云Q中搜索相应的全等点四元组集合U。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610023654.5A CN105701820B (zh) | 2016-01-14 | 2016-01-14 | 一种基于匹配区域的点云配准方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610023654.5A CN105701820B (zh) | 2016-01-14 | 2016-01-14 | 一种基于匹配区域的点云配准方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105701820A CN105701820A (zh) | 2016-06-22 |
CN105701820B true CN105701820B (zh) | 2018-10-30 |
Family
ID=56226355
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610023654.5A Active CN105701820B (zh) | 2016-01-14 | 2016-01-14 | 一种基于匹配区域的点云配准方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105701820B (zh) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106651926A (zh) * | 2016-12-28 | 2017-05-10 | 华东师范大学 | 一种基于区域配准的深度点云三维重建方法 |
CN106856012B (zh) * | 2017-01-12 | 2018-06-22 | 上海云拟科技有限公司 | 一种实时大规模场景三维扫描建模方法及系统 |
CN107330929B (zh) * | 2017-06-08 | 2019-11-08 | 三峡大学 | 一种基于几何重心和质心距离比不变性的多尺度点云配准方法 |
CN107392947B (zh) * | 2017-06-28 | 2020-07-28 | 西安电子科技大学 | 基于轮廓共面四点集的2d-3d图像配准方法 |
US11423508B2 (en) | 2018-02-26 | 2022-08-23 | Intel Corporation | Method and system of point cloud registration for image processing |
CN108564605B (zh) * | 2018-04-09 | 2020-04-07 | 大连理工大学 | 一种三维测量点云优化配准方法 |
CN110403698B (zh) * | 2018-04-28 | 2020-10-30 | 北京柏惠维康科技有限公司 | 一种器械介入装置和系统 |
CN109919989B (zh) * | 2019-03-27 | 2023-11-14 | 广东工业大学 | 一种雷达电力巡检的点云数据配准方法、装置及设备 |
CN110111374B (zh) * | 2019-04-29 | 2020-11-17 | 上海电机学院 | 基于分组阶梯式阈值判断的激光点云匹配方法 |
CN110211129B (zh) * | 2019-05-17 | 2021-05-11 | 西安财经学院 | 基于区域分割的低覆盖点云配准算法 |
CN110264502B (zh) * | 2019-05-17 | 2021-05-18 | 华为技术有限公司 | 点云配准方法和装置 |
CN110738730B (zh) * | 2019-10-15 | 2023-07-18 | 业成科技(成都)有限公司 | 点云匹配方法、装置、计算机设备和存储介质 |
CN111340862B (zh) * | 2020-02-18 | 2023-07-07 | 广州智能装备研究院有限公司 | 一种基于多特征融合的点云配准方法、装置及存储介质 |
CN113379748B (zh) * | 2020-03-09 | 2024-03-01 | 北京京东乾石科技有限公司 | 一种点云全景分割方法和装置 |
CN111476832A (zh) * | 2020-03-23 | 2020-07-31 | 杭州柳叶刀机器人有限公司 | 一种髋臼杯配准方法 |
CN111986239B (zh) * | 2020-08-28 | 2022-01-14 | 贝壳找房(北京)科技有限公司 | 点云配准方法、装置、计算机可读存储介质及电子设备 |
CN112232143B (zh) * | 2020-09-27 | 2021-09-28 | 广州云从人工智能技术有限公司 | 一种人脸点云优化方法、装置、机器可读介质及设备 |
CN112465704B (zh) * | 2020-12-07 | 2024-02-06 | 清华大学深圳国际研究生院 | 一种全局-局部自适应优化的全景光场拼接方法 |
CN112729306B (zh) * | 2020-12-21 | 2022-04-19 | 哈尔滨工程大学 | 适用于auv的海底地形图可导航区自主提取方法 |
CN112686937B (zh) * | 2020-12-25 | 2024-05-31 | 杭州海康威视数字技术股份有限公司 | 一种深度图像的生成方法、装置及设备 |
CN113436235B (zh) * | 2021-05-25 | 2022-07-01 | 北京理工大学 | 一种激光雷达与视觉点云的初始化自动配准方法 |
CN113344992B (zh) * | 2021-05-31 | 2022-06-28 | 山东大学 | 一种全局点云配准方法、系统、存储介质及设备 |
CN113592922A (zh) * | 2021-06-09 | 2021-11-02 | 维沃移动通信(杭州)有限公司 | 图像的配准处理方法及装置 |
CN113658170A (zh) * | 2021-08-30 | 2021-11-16 | 杭州柳叶刀机器人有限公司 | 一种关节配准点生成方法、装置、电子设备及存储介质 |
CN113985436A (zh) * | 2021-11-04 | 2022-01-28 | 广州中科云图智能科技有限公司 | 基于slam的无人机三维地图构建与定位方法及装置 |
CN114469341B (zh) * | 2021-12-17 | 2024-01-26 | 中国人民解放军总医院第四医学中心 | 基于髋关节置换的髋臼注册方法 |
CN115100258B (zh) * | 2022-08-29 | 2023-02-07 | 杭州三坛医疗科技有限公司 | 一种髋关节图像配准方法、装置、设备以及存储介质 |
CN115908519B (zh) * | 2023-02-24 | 2023-05-09 | 南京航空航天大学 | 一种大型复合材料构件三维测量配准误差控制方法 |
CN117557733B (zh) * | 2024-01-11 | 2024-05-24 | 江西啄木蜂科技有限公司 | 基于超分辨率的自然保护区三维重建方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103236064A (zh) * | 2013-05-06 | 2013-08-07 | 东南大学 | 一种基于法向量的点云自动配准方法 |
CN104299220A (zh) * | 2014-07-10 | 2015-01-21 | 上海大学 | 一种对Kinect深度图像中的空洞进行实时填充的方法 |
-
2016
- 2016-01-14 CN CN201610023654.5A patent/CN105701820B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103236064A (zh) * | 2013-05-06 | 2013-08-07 | 东南大学 | 一种基于法向量的点云自动配准方法 |
CN104299220A (zh) * | 2014-07-10 | 2015-01-21 | 上海大学 | 一种对Kinect深度图像中的空洞进行实时填充的方法 |
Non-Patent Citations (4)
Title |
---|
4-Points Congruent Sets for Robust Pairwise Surface Registration;Dror Aiger et al.;《ACM Transactions on Graphics》;20111231;第27卷(第3期);第1-10页 * |
Super Generalized 4PCS for 3D Registration;Mustafa Mohamad et al.;《2015 International Conference on 3D Vision》;20151231;第598-606页 * |
一种基于曲率的点云自动配准算法;马忠玲 等;《计算机应用研究》;20150630;第32卷(第6期);第1878-1880、1887页 * |
基于图像的点云初始配准;张晓 等;《计算机工程与设计》;20141031;第35卷(第10期);第3507-3512页 * |
Also Published As
Publication number | Publication date |
---|---|
CN105701820A (zh) | 2016-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105701820B (zh) | 一种基于匹配区域的点云配准方法 | |
Kaskman et al. | Homebreweddb: Rgb-d dataset for 6d pose estimation of 3d objects | |
CN106651942B (zh) | 基于特征点的三维旋转运动检测与旋转轴定位方法 | |
CN104463108B (zh) | 一种单目实时目标识别及位姿测量方法 | |
CN106709950B (zh) | 一种基于双目视觉的巡线机器人跨越障碍导线定位方法 | |
Jiang et al. | Detection of concentric circles for camera calibration | |
CN102834845A (zh) | 用于多摄像装置校准的方法与装置 | |
CN107392947A (zh) | 基于轮廓共面四点集的2d‑3d图像配准方法 | |
CN110310331B (zh) | 一种基于直线特征与点云特征结合的位姿估计方法 | |
CN103971378A (zh) | 一种混合视觉系统中全景图像的三维重建方法 | |
US20190073796A1 (en) | Method and Image Processing System for Determining Parameters of a Camera | |
CN108921864A (zh) | 一种光条中心提取方法及装置 | |
CN106125907B (zh) | 一种基于线框模型的三维目标注册定位方法 | |
CN114119739A (zh) | 一种基于双目视觉的手部关键点空间坐标获取方法 | |
CN109086795A (zh) | 一种图像误匹配精确剔除方法 | |
CN109034131A (zh) | 一种半自动人脸关键点标注方法及存储介质 | |
CN111862315A (zh) | 一种基于深度相机的人体多尺寸测量方法及系统 | |
Lin et al. | Research on 3D reconstruction in binocular stereo vision based on feature point matching method | |
CN107949851A (zh) | 在场景内的物体的端点的快速和鲁棒识别 | |
CN112614161A (zh) | 一种基于边缘置信度的三维物体跟踪方法 | |
Ling et al. | A dense 3D reconstruction approach from uncalibrated video sequences | |
Meers et al. | Face recognition using a time-of-flight camera | |
Li et al. | Adaptive contour feature and color feature fusion for monocular textureless 3D object tracking | |
Le et al. | Geometry-Based 3D Object Fitting and Localizing in Grasping Aid for Visually Impaired | |
Chen et al. | Object recognition and localization based on kinect camera in complex environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |