CN107590829B - 一种适用于多视角密集点云数据配准的种子点拾取方法 - Google Patents
一种适用于多视角密集点云数据配准的种子点拾取方法 Download PDFInfo
- Publication number
- CN107590829B CN107590829B CN201710842913.1A CN201710842913A CN107590829B CN 107590829 B CN107590829 B CN 107590829B CN 201710842913 A CN201710842913 A CN 201710842913A CN 107590829 B CN107590829 B CN 107590829B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- point
- seed
- layer
- cloud data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种适用于多视角密集点云数据配准的种子点拾取方法,属于光学三维非接触式测量技术领域,该方法的实现步骤包括1)输入一幅多视角密集点云数据;2)多视角密集点云数据转化为灰度图;3)灰度图高斯金字塔分解;4)灰度图拉普拉斯金字塔分解;5)二维种子点拾取;6)二维种子点回溯;7)三维种子点映射;8)输出种子点。通过所述操作步骤,本发明可一次拾取多种尺度空间上的种子点,从而满足不同的配准需求。此外,本发明拾取的种子点包括特征种子点及非特征种子点,种子点分布更加合理。
Description
技术领域
本发明属于光学三维非接触式测量领域,涉及一种适用于多视角密集点云数据配准的种子点拾取方法,更进一步涉及一种基于塔形分解的多尺度多分辨率种子点拾取方法。
背景技术
三维光学非接触式测量技术已经成为“实体数字化”的一种重要技术。由于物体的自遮挡、扫描范围限制等原因,三维光学非接触式测量系统单次扫描只能得到物体一个视角的点云数据,对于大尺寸、复杂型面物体,要得到其完整的点云模型,需要从不同视角进行扫描,得到多视角密集点云数据,再进行配准,从而获得坐标归一的、完整的点云模型。
多视角密集点云数据配准过程中,最为关键的一步便是种子点的拾取,所拾取的种子点质量直接影响多视角密集点云数据配准的速度及精度。文献“A method forregistration of 3D shapes”(P.J.Besl,N.D.Mckay,IEEE transactions on patternanalysis and machine intelligence,1992,14(2):239-256)将多视角密集点云数据中的全部点数据作为种子点,缺点是配准算法迭代收敛速度慢,易陷入局部最优。
文献“Efficient variants of the ICP algorithm”(S.Rusinkiewicz,M.Levoy,in:Proceedings of International Conference on 3D Digital Imaging andModeling,2001,145-152)提出一种在法向量空间中选择种子点的方法,缺点是不同法向量空间区段中的种子点均通过随机采样法拾取,可重复性差。
文献“Using retinex for point selection in 3D shape registration”(Y.Liu,R.R.Martin,L.D.Dominicis,and B.Li,Pattern Recognition,2014,47(6):2126-2142)提出一种基于Retinex理论的种子点拾取方法,缺点是只能拾取到多视角密集点云数据总数目10%左右的种子点,使用者无法改变或控制种子点数目。
发明内容
为了克服现有方法的不足,本发明提出了一种基于塔形分解的种子点拾取方法。该方法将多视角密集点云数据转化为二维灰度图,并对二维灰度图进行金字塔分解,从而实现在多种尺度上拾取种子点以满足不同的配准需求。
为达到以上目的,本发明采取的技术方案是:
步骤一,输入一幅多视角密集点云数据
输入一幅待配准的多视角密集点云数据,同时包含三维坐标信息及栅格信息;
步骤二,多视角密集点云数据转化为灰度图
对步骤一所输入的一幅多视角密集点云数据进行霍特林变换,并依据多视角密集点云数据所包含的栅格信息,将变换后的多视角密集点云数据转化为一幅二维灰度图;
步骤三,灰度图高斯金字塔分解
对步骤二所转化的二维灰度图进行高斯金字塔分解;
步骤四,灰度图拉普拉斯金字塔分解
在步骤三所分解的二维灰度图的高斯金字塔的基础上,进一步构建二维灰度图的拉普拉斯金字塔;
步骤五,二维种子点拾取
根据多视角密集点云数据配准需求,在步骤四所分解的二维灰度图的拉普拉斯金字塔不同分解层上的图像中选择灰度值大于一定阈值的像素点作为二维特征种子点;在步骤三所分解的二维灰度图的高斯金字塔不同分解层上的图像中选择灰度值大于0的像素点作为二维非特征种子点;
步骤六,二维种子点回溯
对步骤五所拾取的二维特征种子点及二维非特征种子进行回溯;
步骤七,三维种子点映射
将步骤六所回溯的二维种子点映射至步骤一所输入的一幅多视角密集点云数据中,得到三维种子点;
步骤八,输出种子点
将步骤七所映射的三维种子点输出,获得多视角密集点云数据配准所需的种子点。
进一步地,所述步骤二中多视角密集点云数据转化为灰度图的流程包括如下步骤:
2.1)为步骤一所输入的一幅多视角密集点云数据建立一棵k-d树;
2.2)在步骤2.1)所建立的k-d树的基础上,查询步骤一所输入的一幅多视角密集点云数据中每个点数据qi=(pi,ci)的k近邻,并记为{qj},其中,i表示步骤一所输入的一幅多视角密集点云数据中点数据的索引,1≤i≤N,N表示步骤一所输入的一幅多视角密集点云数据的数目,pi表示点数据qi的三维坐标向量,ci表示点数据qi的栅格坐标向量,j表示点数据qi的k近邻索引,1≤j≤k,qj表示点数据qi的第j个近邻,符号{}表示k近邻的集合;
2.3)根据步骤2.2)所查询的每个点数据qi的k近邻{qj},为每个点数据qi构造一局部协方差矩阵:
2.4)通过雅克比法求出步骤2.3)为每个点数据qi所构造的局部协方差矩阵Mi的按降序排列的特征值λ1、λ2、λ3及对应的特征向量s1、s2、s3;
2.5)对每个点数据qi的三维坐标向量pi进行霍特林变换:
其中,p′i表示变换后点数据qi的三维坐标向量,χ=[s1 s2 s3]T表示由步骤2.4)所求解的三个相互正交的特征向量s1、s2、s3构成的矩阵,×表示两矩阵相乘;
2.6)对步骤2.5)所变换的每个点数据qi的三维坐标向量p′i在Z轴上的分量Z′i作进一步的变换:
其中,表示进一步变换后点数据qi的三维坐标向量p′i在Z轴上的分量,Z′max与Z′min分别表示步骤2.5)所变换的所有点数据的三维坐标向量在Z轴上的分量的最大值和最小值;2.7)将步骤2.6)所变换的每个点数据qi的三维坐标向量p′i在Z轴上的分量作为图像的灰度值,并将每个点数据qi的栅格坐标ci=(ui,vi)作为该点在图像中的x、y坐标,建立一幅二维灰度图,ui与vi分别表示栅格行号和列号。
进一步地,所述步骤2.2)中查询每个点数据qi=(pi,ci)的k近邻时,k值的取值为:k=9。
进一步地,所述步骤三与步骤四中高斯金字塔和拉普拉斯金字塔分解层数L的取值范围为L=3~6。
进一步地,所述步骤五中二维种子点拾取方法如下:
5.1)根据配准需求,在步骤四所分解的拉普拉斯金字塔第t层上的图像中选择二维特征种子点:若步骤四所分解的拉普拉斯金字塔第t层上的图像LPt中坐标为(x,y)的像素点的灰度值LPt(x,y)大于给定阈值τ,即LPt(x,y)>τ,则选择坐标为(x,y)的像素点为一二维特征种子点;
5.2)根据配准需求,在步骤三所分解的高斯金字塔第r层上的图像中选择二维非特征种子点:若步骤三所分解的高斯金字塔第r层上的图像Gr中坐标为(x,y)的像素点的灰度值Gr(x,y)大于零,即Gr(x,y)>0,则选择坐标为(x,y)的像素点为一二维非特征种子点;
进一步地,所述步骤5.1)中阈值τ的取值范围为:0≤τ≤30。
进一步地,所述步骤六中二维种子点回溯方法如下:
6.1)对步骤五所拾取的拉普拉斯金字塔第t层上的二维特征种子点逐层回溯至第0层:
a)令(xt,yt)=(x,y),其中,(xt,yt)表示步骤五所拾取的拉普拉斯金字塔第t层上的图像中坐标为(x,y)的二维特征种子点的坐标;
b)将步骤a)中的拉普拉斯金字塔第t层上的坐标为(xt,yt)的二维特征种子点回溯至拉普拉斯金字塔第t-1层上:
(xt-1,yt-1)={(m,n)|(m,n)∈max(LPt-1(m,n)),2xt-2≤m≤2xt+2,2yt-2≤n≤2yt+2},
其中,(xt-1,yt-1)表示拉普拉斯金字塔第t层上的坐标为(xt,yt)的二维特征种子点回溯至拉普拉斯金字塔第t-1层上时的坐标,(m,n)表示像素点位置,LPt-1(m,n)表示拉普拉斯金字塔第t-1层上的图像中坐标为(m,n)的像素点的灰度值,max()表示取最大值函数;
c)如果t>1,令(x,y)=(xt-1,yt-1),t=t-1,重复步骤a)至步骤c);否则,当t==1时,(x0,y0)=(xt-1,yt-1)即为拉普拉斯金字塔第t层上的坐标为(xt,yt)的二维特征种子点回溯至拉普拉斯金字塔第0层上时的坐标,==表示等于判断符号;
6.2)对步骤五所拾取的高斯金字塔第r层上的坐标为(x,y)的二维非特征种子点,采用下式一步回溯至第0层上:
(x0,y0)=(2r×x,2r×y),
其中,(x0,y0)表示步骤五所拾取的高斯金字塔第r层上的坐标为(x,y)的二维非特征种子点回溯至第0层上时的坐标,2r表示2的r次方,×表示两整数相乘。
进一步地,所述步骤七中三维种子点映射方法如下:将步骤六所回溯至拉普拉斯金字塔及高斯金字塔第0层上的二维种子点的坐标(x0,y0)作为栅格坐标,对步骤一所输入的一幅多视角密集点云数据中的任一点数据qi,如果其栅格坐标满足:ci=(ui,vi)==(x0,y0),那么点数据qi就是一个三维种子点,ui与vi分别表示栅格行号和列号,==表示等于判断符号。
与现有技术相比,本发明具有以下优点:
(1)本发明方法一次拾取多种尺度空间上的种子点,从而可满足不同的配准需求;
(2)本发明方法拾取的种子点包括特征种子点及非特征种子点,种子点分布更加合理;
(3)本发明方法拾取的种子点数目可控制,使用者通过调节阈值参数可以改变所拾取的种子点的数目;
(4)本发明方法拾取的种子点具有可重复性和可验证性。
附图说明
图1本发明具体操作步骤的流程图;
图2输入的一幅翼虎多视角密集点云数据;
图3将输入的一幅翼虎多视角密集点云数据转化为灰度图;
图4(a)-(e)分别为灰度图高斯金字塔(从左至右依次为第0层至第4层上的图像);
图5(a)-(e)分别为灰度图拉普拉斯金字塔(从左至右依次为第0层至第4层上的图像);
图6a拾取的三维种子点由拉普拉斯金字塔第2层上的二维特征种子点及高斯金字塔第3层上的二维非特征种子点映射所得;
图6b拾取的三维种子点由拉普拉斯金字塔第3层上的二维特征种子点及高斯金字塔第3层上的二维非特征种子点映射所得;
图6c拾取的三维种子点由拉普拉斯金字塔第3层上的二维特征种子点及高斯金字塔第4层上的二维非特征种子点映射所得。
具体实施方式
下面结合附图和实施例对发明作进一步的详细说明,但并不作为对发明做任何限制的依据。
本发明提出一种适用于多视角密集点云数据配准的种子点拾取方法,如图1所示。拾取一幅多视角密集点云数据中的种子点时,第一步,输入一幅多视角密集点云数据。要求输入的多视角密集点云数据同时包含三维坐标信息及栅格信息。也就是说输入的多视角密集点云数据中的每个点数据qi=(pi,ci),其中,i表示输入的多视角密集点云数据中点数据的索引,1≤i≤N,N表示输入的多视角密集点云数据的数目,pi=(Xi,Yi,Zi)表示三维坐标向量,Xi、Yi、Zi分别表示三维坐标向量在X轴、Y轴及Z轴上的分量,ci=(ui,vi)表示栅格坐标向量,ui与vi分别表示栅格行号和列号。
第二步,多视角密集点云数据转化为灰度图。将第一步所输入的一幅多视角密集点云数据转化为一幅二维灰度图,转化流程包括如下步骤:
1)采用文献“Multidimensional binary search trees used for associative”(J.L.Bentley,Commun ACM 1975,18:509-517)所描述的多维二叉搜索树算法为第一步所输入的一幅多视角密集点云数据建立一棵k-d树。
2)在第1)步所建立的k-d树的基础上,查询第一步所输入的一幅多视角密集点云数据中每个点数据qi的k近邻,并记为{qj},其中,i表示输入的多视角密集点云数据中点数据的索引,j表示点数据qi的k近邻索引,1≤j≤k,qj表示点数据qi的第j个近邻,符号{}表示k近邻的集合,k值一般取k=9。
3)依据第2)步所查询的每个点数据qi的k近邻{qj},为每个点数据qi构造一局部协方差矩阵:
4)通过雅克比法求出第3)步为每个点数据qi所构造的局部协方差矩阵Mi的按降序排列的特征值λ1、λ2、λ3及对应的特征向量s1、s2、s3;
5)对每个点数据qi的三维坐标向量pi进行霍特林变换:
其中,p′i表示变换后点数据qi的三维坐标向量,χ=[s1 s2 s3]T表示由第4)步所求解的三个相互正交的特征向量s1、s2、s3构成的矩阵,×表示两矩阵相乘;
6)对第5)步所变换的每个点数据qi的三维坐标向量p′i在Z轴上的分量Z′i作进一步的变换:
7)将第6)步所变换的每个点数据qi的三维坐标向量p′i在Z轴上的分量作为图像的灰度值,并将每个点数据qi的栅格坐标ci=(ui,vi)作为该点在图像中的x、y坐标,建立一幅二维灰度图,ui与vi分别表示栅格行号和列号;
第三步,灰度图高斯金字塔分解。灰度图高斯金字塔分解流程包括如下步骤:
1)构造高斯金字塔第0层。将第二步所转化的二维灰度图作为高斯金字塔第0层上的图像:
G0(x,y)=I(x,y),
其中,(x,y)表示像素点坐标,G0(x,y)表示高斯金字塔第0层上的图像中坐标为(x,y)的像素点的灰度值,I(x,y)表示第二步所转化的二维灰度图中坐标为(x,y)的像素点的灰度值;
2)构造高斯金字塔第r层。将高斯金字塔第r-1层上的图像与一个5×5窗口函数进行卷积运算,再把卷积结果作隔行隔列的降采样便得到高斯金字塔第r层上的图像:
其中,r表示金字塔的第r层,Gr(x,y)表示高斯金字塔第r层上的图像中坐标为(x,y)的像素点的灰度值,m和n表示两个整数变量,Gr-1(2x+m,2y+n)表示高斯金字塔第r-1层上的图像中坐标为(2x+m,2y+n)的像素点的灰度值,λ(m,n)表示5×5窗口函数:
在第1)步所构造的高斯金字塔第0层的基础上,根据所述高斯金字塔第r层构造方法,可构造出高斯金字塔的第1层,以此类推,可构造出高斯金字塔的第L层,L表示金字塔分解层数,由使用者指定,通常取L=3~6。
第四步,灰度图拉普拉斯金字塔分解。在第三步所分解的二维灰度图高斯金字塔的基础上,进一步构造二维灰度图的拉普拉斯金字塔。灰度图拉普拉斯金字塔构造流程包括如下步骤:
1)构造拉普拉斯金字塔第L层。将第三步所分解的高斯金字塔第L层上的图像作为拉普拉斯金字塔第L层上的图像:
LPL(x,y)=GL(x,y),
其中,(x,y)表示像素点坐标,L表示第三步中由使用者指定的金字塔分解层数,LPL(x,y)表示拉普拉斯金字塔第L层上的图像中坐标为(x,y)的像素点的灰度值,GL(x,y)表示第三步所分解的高斯金字塔第L层上的图像中坐标为(x,y)的像素点的灰度值;
2)构造拉普拉斯金字塔第t层。拉普拉斯金字塔第t层构造方法如下:
a)将第三步所分解的高斯金字塔第t+1层上的图像内插放大:
其中,t+1表示金字塔的第t+1层,表示内插放大后的图像中坐标为(x,y)的像素点的灰度值,m和n表示两个整数变量,表示第三步所分解的高斯金字塔第t+1层上的图像中坐标为的像素点的灰度值,表示一过渡变量,λ(m,n)表示第三步所述的5×5窗口函数;
b)将第三步所分解的高斯金字塔第t层上的图像与第a)步内插放大后的图像做减法运算:
其中,LPt(x,y)表示所构造的拉普拉斯金字塔第t层上的图像中坐标为(x,y)的像素点的灰度值,Gt(x,y)表示第三步所分解的高斯金字塔第t层上的图像中坐标为(x,y)的像素点的灰度值;
根据所述拉普拉斯金字塔第t层构造方法,可依次构造出拉普拉斯金字塔的第L-1层至第0层。
第五步,二维种子点拾取。二维种子点的拾取包括二维特征种子点及二维非特征种子点的拾取。拾取方法如下:
1)根据配准需求,在第四步所分解的拉普拉斯金字塔第t层上的图像中选择二维特征种子点:若第四步所分解的拉普拉斯金字塔第t层上的图像LPt中坐标为(x,y)的像素点的灰度值LPt(x,y)大于给定阈值τ,即LPt(x,y)>τ,则选择坐标为(x,y)的像素点为一二维特征种子点;
2)根据配准需求,在第三步所分解的高斯金字塔第r层上的图像中选择二维非特征种子点:若第三步所分解的高斯金字塔第r层上的图像Gr中坐标为(x,y)的像素点的灰度值Gr(x,y)大于零,即Gr(x,y)>0,则选择坐标为(x,y)的像素点为一二维非特征种子点。
第六步,二维种子点回溯。对第五步所拾取的二维特征种子点及二维非特征种子点进行回溯。回溯方法如下:
1)对第五步所拾取的拉普拉斯金字塔第t层上的二维特征种子点逐层回溯至第0层:
a)令(xt,yt)=(x,y),其中,(xt,yt)表示第五步所拾取的拉普拉斯金字塔第t层上的图像中坐标为(x,y)的二维特征种子点的坐标;
b)将第a)步中的拉普拉斯金字塔第t层上的坐标为(xt,yt)的二维特征种子点回溯至拉普拉斯金字塔第t-1层上:
(xt-1,yt-1)={(m,n)|(m,n)∈max(LPt-1(m,n)),2xt-2≤m≤2xt+2,2yt-2≤n≤2yt+2},
其中,(xt-1,yt-1)表示拉普拉斯金字塔第t层上的坐标为(xt,yt)的二维特征种子点回溯至拉普拉斯金字塔第t-1层上时的坐标,(m,n)表示像素点坐标,LPt-1(m,n)表示拉普拉斯金字塔第t-1层上的图像中坐标为(m,n)的像素点的灰度值,max()表示取最大值函数;
c)如果t>1,令(x,y)=(xt-1,yt-1),t=t-1,重复第a)步至第c)步;否则,当t==1时,(x0,y0)=(xt-1,yt-1)即为拉普拉斯金字塔第t层上的坐标为(xt,yt)的二维特征种子点回溯至拉普拉斯金字塔第0层上时的坐标,==表示等于判断符号;
2)对第五步所拾取的高斯金字塔第r层上的坐标为(x,y)的二维非特征种子点,采用下式一步回溯至第0层上:
(x0,y0)=(2r×x,2r×y),
其中,(x0,y0)表示第五步所拾取的高斯金字塔第r层上的坐标为(x,y)的二维非特征种子点回溯至第0层上时的坐标,2r表示2的r次方,×表示两整数相乘。
第七步,三维种子点映射。将第六步所回溯至拉普拉斯金字塔及高斯金字塔第0层上的二维种子点的坐标(x0,y0)作为栅格坐标,对第一步所输入的一幅多视角密集点云数据中的任一点数据qi,如果其栅格坐标满足:ci=(ui,vi)==(x0,y0),那么点数据qi就是一个三维种子点,ui与vi分别表示栅格行号和列号,==表示等于判断符号。
第八步,输出种子点。将第七步所映射的三维种子点输出,获得用于多视角密集点云数据配准的种子点。
以下结合具体模拟实验对本发明进行说明,其中本发明方法在Matlab平台上实现相应的算法并在Intel i7-4770CPU 3.4GHz、16GB内存的PC机上运行。
一幅待配准的翼虎多视角密集点云数据如图2所示,转化为二维灰度图如图3所示。二维灰度图高斯金字塔及拉普拉斯金字塔分解结果如图4(a)-(e)及图5(a)-(e)所示。图6a至图6c为最终拾取的不同尺度上的多分辨率三维种子点。其中,图6a所示的三维种子点由拉普拉斯金字塔第2层上的二维特征种子点及高斯金字塔第3层上的二维非特征种子点映射所得,图6b所示的三维种子点由拉普拉斯金字塔第3层上的二维特征种子点及高斯金字塔第3层上的二维非特征种子点映射所得,图6c所示的三维种子点由拉普拉斯金字塔第3层上的二维特征种子点及高斯金字塔第4层上的二维非特征种子点映射所得。通过本例也可以说明,本发明方法可一次拾取多种尺度空间上的种子点,从而满足不同的配准需求。
上面结合附图对本发明的实施方式作了说明,但本发明并不限于上述实施方式,在本领域的普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。
Claims (7)
1.一种适用于多视角密集点云数据配准的种子点拾取方法,其特征在于,包括下述步骤:
步骤一,输入一幅多视角密集点云数据
输入一幅待配准的多视角密集点云数据,同时包含三维坐标信息及栅格信息;
步骤二,多视角密集点云数据转化为灰度图
对步骤一所输入的一幅多视角密集点云数据进行霍特林变换,并依据多视角密集点云数据所包含的栅格信息,将变换后的多视角密集点云数据转化为一幅二维灰度图;
步骤三,灰度图高斯金字塔分解
对步骤二所转化的二维灰度图进行高斯金字塔分解;
步骤四,灰度图拉普拉斯金字塔分解
在步骤三所分解的二维灰度图的高斯金字塔的基础上,进一步构建二维灰度图的拉普拉斯金字塔;
步骤五,二维种子点拾取
根据多视角密集点云数据配准需求,在步骤四所分解的二维灰度图的拉普拉斯金字塔不同层上的图像中选择灰度值大于一定阈值的像素点作为二维特征种子点;在步骤三所分解的二维灰度图的高斯金字塔不同层上的图像中选择灰度值大于0的像素点作为二维非特征种子点;
所述步骤五中二维种子点拾取方法如下:
5.1)根据配准需求,在步骤四所分解的拉普拉斯金字塔第t层上的图像中选择二维特征种子点:若步骤四所分解的拉普拉斯金字塔第t层上的图像LPt中坐标为(x,y)的像素点的灰度值LPt(x,y)大于给定阈值τ,即LPt(x,y)>τ,则选择坐标为(x,y)的像素点为一二维特征种子点;
5.2)根据配准需求,在步骤三所分解的高斯金字塔第r层上的图像中选择二维非特征种子点:若步骤三所分解的高斯金字塔第r层上的图像Gr中坐标为(x,y)的像素点的灰度值Gr(x,y)大于零,即Gr(x,y)>0,则选择坐标为(x,y)的像素点为一二维非特征种子点;
步骤六,二维种子点回溯
对步骤五所拾取的二维特征种子点及二维非特征种子进行回溯;
步骤七,三维种子点映射
将步骤六所回溯的二维种子点映射至步骤一所输入的一幅多视角密集点云数据中,得到三维种子点;
步骤八,输出种子点
将步骤七所映射的三维种子点输出,获得多视角密集点云数据配准所需的种子点。
2.根据权利要求1所述的一种适用于多视角密集点云数据配准的种子点拾取方法,其特征在于,所述步骤二中多视角密集点云数据转化为二维灰度图的流程包括如下步骤:
2.1)为步骤一所输入的一幅多视角密集点云数据建立一棵k-d树;
2.2)在步骤2.1)所建立的k-d树的基础上,查询步骤一所输入的一幅多视角密集点云数据中每个点数据qi=(pi,ci)的k近邻,并记为{qj},其中,i表示步骤一所输入的一幅多视角密集点云数据中点数据的索引,1≤i≤N,N表示步骤一所输入的一幅多视角密集点云数据的数目,pi表示点数据qi的三维坐标向量,ci表示点数据qi的栅格坐标向量,j表示点数据qi的k近邻索引,1≤j≤k,qj表示点数据qi的第j个近邻,符号{}表示k近邻的集合;
2.3)根据步骤2.2)所查询的每个点数据qi的k近邻{qj},为每个点数据qi构造一局部协方差矩阵:
2.4)通过雅克比法求出步骤2.3)为每个点数据qi所构造的局部协方差矩阵Mi的按降序排列的特征值λ1、λ2、λ3及对应的特征向量s1、s2、s3;
2.5)对每个点数据qi的三维坐标向量pi进行霍特林变换:
其中,p′i表示变换后点数据qi的三维坐标向量,χ=[s1 s2 s3]T表示由步骤2.4)所求解的三个相互正交的特征向量s1、s2、s3构成的矩阵,×表示两矩阵相乘;
2.6)对步骤2.5)所变换的每个点数据qi的三维坐标向量p′i在Z轴上的分量Z′i作进一步的变换:
3.根据权利要求2所述的一种适用于多视角密集点云数据配准的种子点拾取方法,其特征在于,所述步骤2.2)中查询每个点数据的k近邻时,k值的取值为:k=9。
4.根据权利要求1所述的一种适用于多视角密集点云数据配准的种子点拾取方法,其特征在于,所述步骤三与步骤四中高斯金字塔和拉普拉斯金字塔分解层数L的取值范围为:L=3~6。
5.根据权利要求1所述的一种适用于多视角密集点云数据配准的种子点拾取方法,其特征在于,所述步骤5.1)中阈值τ的取值范围为:0≤τ≤30。
6.根据权利要求1所述的一种适用于多视角密集点云数据配准的种子点拾取方法,其特征在于,所述步骤六中二维种子点回溯方法如下:
6.1)对步骤五所拾取的拉普拉斯金字塔第t层上的二维特征种子点逐层回溯至第0层:
a)令(xt,yt)=(x,y),其中,(xt,yt)表示步骤五所拾取的拉普拉斯金字塔第t层上的图像中坐标为(x,y)的二维特征种子点的坐标;
b)将步骤a)中的拉普拉斯金字塔第t层上的坐标为(xt,yt)的二维特征种子点回溯至拉普拉斯金字塔第t-1层上:
(xt-1,yt-1)={(m,n)|(m,n)∈max(LPt-1(m,n)),2xt-2≤m≤2xt+2,2yt-2≤n≤2yt+2},
其中,(xt-1,yt-1)表示拉普拉斯金字塔第t层上的坐标为(xt,yt)的二维特征种子点回溯至拉普拉斯金字塔第t-1层上时的坐标,(m,n)表示像素点位置,LPt-1(m,n)表示拉普拉斯金字塔第t-1层上的图像中坐标为(m,n)的像素点的灰度值,max()表示取最大值函数;
c)如果t>1,令(x,y)=(xt-1,yt-1),t=t-1,重复步骤a)至步骤c);否则,当t==1时,(x0,y0)=(xt-1,yt-1)即为拉普拉斯金字塔第t层上坐标为(xt,yt)的二维特征种子点回溯至拉普拉斯金字塔第0层上时的坐标,==表示等于判断符号;
6.2)对步骤五所拾取的高斯金字塔第r层上的坐标为(x,y)的二维非特征种子点,采用下式一步回溯至第0层上:
(x0,y0)=(2r×x,2r×y),
其中,(x0,y0)表示步骤五所拾取的高斯金字塔第r层上的坐标为(x,y)的二维非特征种子点回溯至第0层上时的坐标,2r表示2的r次方,×表示两整数相乘。
7.根据权利要求1所述的一种适用于多视角密集点云数据配准的种子点拾取方法,其特征在于,所述步骤七中三维种子点映射方法如下:将步骤六所回溯至拉普拉斯金字塔及高斯金字塔第0层上的二维种子点的坐标(x0,y0)作为栅格坐标,对步骤一所输入的一幅多视角密集点云数据中的任一点数据qi,如果其栅格坐标满足:ci=(ui,vi)==(x0,y0),那么点数据qi就是一个三维种子点,ui与vi分别表示栅格行号和列号,==表示等于判断符号。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710842913.1A CN107590829B (zh) | 2017-09-18 | 2017-09-18 | 一种适用于多视角密集点云数据配准的种子点拾取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710842913.1A CN107590829B (zh) | 2017-09-18 | 2017-09-18 | 一种适用于多视角密集点云数据配准的种子点拾取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107590829A CN107590829A (zh) | 2018-01-16 |
CN107590829B true CN107590829B (zh) | 2020-06-30 |
Family
ID=61047269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710842913.1A Active CN107590829B (zh) | 2017-09-18 | 2017-09-18 | 一种适用于多视角密集点云数据配准的种子点拾取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107590829B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115100390B (zh) * | 2022-08-24 | 2022-11-18 | 华东交通大学 | 一种联合对比学习与自监督区域定位的图像情感预测方法 |
CN117392393A (zh) * | 2023-12-13 | 2024-01-12 | 安徽蔚来智驾科技有限公司 | 点云语义分割方法、计算机设备、存储介质及智能设备 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9823689D0 (en) * | 1998-10-30 | 1998-12-23 | Greenagate Limited | Improved methods and apparatus for 3-D imaging |
KR100397083B1 (ko) * | 2001-06-13 | 2003-09-06 | 이상욱 | 피라미드 분해 방식을 이용한 이진 체적소 모델의 순차부호화 방법 |
CN103955939B (zh) * | 2014-05-16 | 2018-06-19 | 重庆理工大学 | 三维扫描系统中点云拼接用边界特征点配准方法 |
CN104298971B (zh) * | 2014-09-28 | 2017-09-19 | 北京理工大学 | 一种3d点云数据中的目标识别方法 |
CN104331699B (zh) * | 2014-11-19 | 2017-11-14 | 重庆大学 | 一种三维点云平面化快速搜索比对的方法 |
CN104850838B (zh) * | 2015-05-19 | 2017-12-08 | 电子科技大学 | 基于表情不变区域的三维人脸识别方法 |
CN105118090B (zh) * | 2015-05-19 | 2018-02-13 | 胡翰 | 一种自适应复杂地形结构的点云滤波方法 |
CN104835175B (zh) * | 2015-05-26 | 2019-11-05 | 西南科技大学 | 一种基于视觉注意机制的核环境中目标检测方法 |
CN106485690A (zh) * | 2015-08-25 | 2017-03-08 | 南京理工大学 | 基于点特征的点云数据与光学影像的自动配准融合方法 |
US9959661B2 (en) * | 2015-12-02 | 2018-05-01 | Samsung Electronics Co., Ltd. | Method and device for processing graphics data in graphics processing unit |
CN105718929B (zh) * | 2016-01-21 | 2019-04-30 | 成都信息工程大学 | 全天候未知环境下高精度快速圆形目标定位方法和系统 |
CN106530196A (zh) * | 2016-09-26 | 2017-03-22 | 上海理工大学 | 一种基于jpeg2000的多尺度拉普拉斯金字塔水印方法 |
CN106934821B (zh) * | 2017-03-13 | 2020-06-23 | 中国科学院合肥物质科学研究院 | 一种基于icp算法和b样条的锥形束ct和ct图像配准方法 |
-
2017
- 2017-09-18 CN CN201710842913.1A patent/CN107590829B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107590829A (zh) | 2018-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108510532B (zh) | 基于深度卷积gan的光学和sar图像配准方法 | |
CN109664300B (zh) | 一种基于力觉学习的机器人多风格书法临摹方法 | |
CN104809731B (zh) | 一种基于梯度二值化的旋转尺度不变场景匹配方法 | |
CN105118090B (zh) | 一种自适应复杂地形结构的点云滤波方法 | |
CN107220995A (zh) | 一种基于orb图像特征的icp快速点云配准算法的改进方法 | |
CN107341837B (zh) | 基于影像金字塔的栅格-矢量数据转换及连续尺度表达方法 | |
CN111489394B (zh) | 物体姿态估计模型训练方法、系统、装置及介质 | |
CN113112504A (zh) | 一种植物点云数据分割方法及系统 | |
KR101567792B1 (ko) | 이미지 윤곽 묘사 시스템 및 방법 | |
CN104268602A (zh) | 一种基于二进制特征匹配的遮挡工件识别方法及装置 | |
CN109829476B (zh) | 基于yolo的端到端三维物体检测方法 | |
CN107680116A (zh) | 一种监测视频图像中运动目标的方法 | |
CN110569926B (zh) | 一种基于局部边缘特征增强的点云分类方法 | |
CN112734844B (zh) | 一种基于正八面体的单目6d位姿估计方法 | |
EP4174792A1 (en) | Method for scene understanding and semantic analysis of objects | |
CN112418171B (zh) | 一种基于深度学习的斑马鱼空间姿态与心脏位置估计方法 | |
CN107590829B (zh) | 一种适用于多视角密集点云数据配准的种子点拾取方法 | |
CN108320310B (zh) | 基于图像序列的空间目标三维姿态估计方法 | |
CN115049925A (zh) | 田块田坎提取方法、电子设备及存储介质 | |
CN107123138A (zh) | 基于vanilla‑R点对剔除策略的点云配准算法 | |
CN104200214B (zh) | 使用Walsh变换的功率谱来描述图像局部特征区域的方法 | |
CN104361573B (zh) | 融合颜色信息和全局信息的sift特征匹配算法 | |
Jayaraman et al. | Quadtree convolutional neural networks | |
US20210272301A1 (en) | Method for processing three-dimensional point cloud data | |
CN115578460A (zh) | 基于多模态特征提取与稠密预测的机器人抓取方法与系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20221018 Address after: 710086 Room 006, F1901, 19/F, Building 4-A, Xixian Financial Port, Fengdong New City Energy Jinmao District, Xixian New District, Xi'an, Shaanxi Patentee after: Xi'an Baochuang Suwei Intelligent Technology Co.,Ltd. Address before: 710065 No. 2 Taibai South Road, Yanta District, Xi'an, Shaanxi Patentee before: XIDIAN University |