CN110942476A - 基于二维图像引导的改进三维点云配准方法、系统及可读存储介质 - Google Patents
基于二维图像引导的改进三维点云配准方法、系统及可读存储介质 Download PDFInfo
- Publication number
- CN110942476A CN110942476A CN201910988369.0A CN201910988369A CN110942476A CN 110942476 A CN110942476 A CN 110942476A CN 201910988369 A CN201910988369 A CN 201910988369A CN 110942476 A CN110942476 A CN 110942476A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- depth image
- point
- point cloud
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 118
- 238000001914 filtration Methods 0.000 claims abstract description 52
- 238000000513 principal component analysis Methods 0.000 claims abstract description 17
- 230000008569 process Effects 0.000 claims abstract description 12
- 239000013598 vector Substances 0.000 claims description 38
- 230000009466 transformation Effects 0.000 claims description 31
- 239000011159 matrix material Substances 0.000 claims description 30
- 238000013507 mapping Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 15
- 238000005070 sampling Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 12
- 230000008030 elimination Effects 0.000 claims description 12
- 238000003379 elimination reaction Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 abstract description 29
- 238000005259 measurement Methods 0.000 abstract description 3
- 238000009616 inductively coupled plasma Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 18
- 230000006872 improvement Effects 0.000 description 8
- 230000002146 bilateral effect Effects 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于二维图像引导的改进三维点云配准方法、系统及可读存储介质,该方法采用点到面的距离作为目标函数的度量,利用FLANN最近邻算法搜寻方法搜寻最近邻点,先后采用基于彩色图像引导的深度图像滤波方法和基于PCA方法进行降采样,提高了深度点准确度的同时减少了后面迭代过程的计算量,可实现快速的三维点云配准,具有鲁棒性高,计算量小等优点,有效满足了机器人自定位、地图创建等应用领域中对三维点云配准的迫切需求。
Description
技术领域
本发明属于机器人视觉控制领域,特别涉及一种基于二维图像引导的改进三维点云配准方法、系统及可读存储介质。
背景技术
深度图像配准即根据不同视角下场景间的点云重叠约束,计算不同视角对应的旋转平移矩阵,是三维场景构建和机器人三维位姿估计的关键步骤。随着三维激光雷达、立体摄像机、三维相机等深度图像信息获取技术的日益成熟,深度图像配准在三维场景建模、场景识别、机器人导航定位等应用显示出了巨大优势。深度图像配准的准确度和效率直接决定着三维场景构建、三维运动估计、机器人导航定位等任务的性能。
迭代最近点算法(Iterative Closest Point,ICP)作为点云配准中的一种最直接的方法,被广泛应用[1-2]。ICP深度图像匹配算法是基于点对点的配准,可在较小空间变换范围内或基于较好的初始估计下获得较为准确的三维运动估计。然而经典ICP算法主要缺点不足如下:
(1)由于算法没有包含局部形状信息,限制了配准精度,因而每次迭代都要搜索最近点,计算效率低。经典ICP算法通过逐一比较的方式求解最近邻关系,如对于具有M个点的场景数据集,需要在具有N个点的模型数据集中寻找最近邻,逐一比较的方式其时间复杂度为 O(MN),该过程存在很大的计算量和搜索量[3]。
(2)在寻找匹配对应点时,经典ICP算法是假设欧氏距离最近的点为对应点,这样很可能会产生错误的对应关系,造成后续计算出来的变换矩阵存在很大误差,甚至可能使算法陷入局部最小值[4]。
(3)在连续的深度图像配准过程中,随着传感器获取深度图像数据的噪声数据增加、数据测量精度的下降、以及非重叠匹配区域比例的增长,算法容易陷入局部最优[5]。
发明内容
本发明提出了一种基于二维图像引导的改进三维点云配准方法、系统及可读存储介质,其目的在于,克服现有技术中ICP配准计算效率低、精度不高的问题。
一种基于RGB-D相机的三维点云ICP配准改进方法,包括以下步骤:
步骤1:获取相邻帧场景的二维彩色图像It、It+1和对应的深度图像Dt、Dt+1;
利用RGB-D相机在t时刻和t+1时刻获取相邻帧场景的二维彩色图像It和It+1以及与二维彩色图像对应的深度图像Dt和Dt+1;
以彩色图像对深度图像进行引导滤波,用于深度图像的噪点滤波和深度值平滑。相对于经典的中值滤波,模糊滤波,高斯滤波,双边滤波方法,本发明考虑了彩色图像像素值的连续性,剔除了噪点的同时保留了更多的边信息,获取了更平滑的深度图像。
步骤3:利用二维彩色图像和滤波后的深度图像生成三维点云;
二维彩色图像I与三维点云D按二维彩色图像像素点一一对应,即二维彩色图像中第u 行、第v列的像素点It(u,v)与三维点云中对应的三维点Dt(u,v)(x,y,z)相对应,三维点Dt(u,v)(x,y,z)是指二维彩色图像中第u行、第v列的像素点对应的深度信息;所述三维点云Dt是指二维彩色图像所有像素点对应的三维点集合。
步骤5:依据降采样后的三维点云和中对应点的映射关系,依次采用基于对应点间的中值距离的剔除法和基于表面法向量夹角的剔除法,剔除错误关系匹配点对,以剩余匹配点对之间的距离和最小为目标函数,获得相邻帧场景的变换矩阵,进行相邻帧场景配准。
进一步地,按照基于彩色图像引导的深度图像滤波方法对相邻时刻获得的深度图像Dt和 Dt+1进行滤波处理:
具体步骤为:
所述二维彩色图像和深度图像均由灰度值矩阵构成,均值滤波方法fmean(x)是公开的、常见的滤波方法,可从公开的软件库OpenCV中获取。
进一步地,所述均值滤波方法的搜索窗口半径rmean=8。
进一步地,所述步骤2.3中设置ε=0.04。
考虑了深度图像对应的彩色图像像素值的连续性,构建了深度图像与彩色图像的相关性模型,提高了深度点的准确度的同时保留了图像更多的边信息。
进一步地,对三维点云进行降采样处理,利用降采样后的三维点云计算相邻帧场景的变换矩阵;
首先,根据深度图像中每个点的法向量n与x、y和z轴的夹角,将所有点依据与坐标轴的夹角按照设定的间隔角度划分为43个类,其中三个维度上所含类的个数均为4,取间隔角度为45°;
然后,随机地从每个类中该类中的1%个点,舍去其它点,得到降采样后的深度图像。
进一步地,所述三维点云中各点的法向量的提取过程如下:
令三维点云Pt中的一个点为p=(xp,yp,zp)T,且以该点为中心,内核半径为r的邻域内的点的数量为N,则点p的邻域内点的集合为{pi(xi,yi,zi)},i={1,2,…,N};当函数S(n,d)取得最小值时得到的n为点p的法向量n,其中,S表示点p的邻域内点拟合得到的平面,d表示拟合平面S与深度图像中的点p所在坐标系中的原点之间的距离。
在本发明中,实测某一原始点云个数为325200,降采样后点云个数为3252,压缩率为 1%。
进一步地,所述采用基于对应点间的中值距离的剔除法和基于表面法向量夹角的剔除法,剔除错误关系匹配点对,以剩余匹配点对之间的距离和最小为目标函数,获得相邻帧场景的变换矩阵,进行相邻帧场景配准的过程如下:
其中,{qj}表示中的像素点集合,{pi}表示中的像素点集合;k为迭代次数,k的最大值kmax=20,βk为经k次迭代后计算出来的映射关系,Tk-1为上一次迭代计算后求得的变换矩阵,令k的初始值取值为1,T0=(0,0,0,0,0,0);
步骤5.2:基于表面法向量夹角法进行第一次匹配点对剔除;
步骤5.3:基于匹配点对的中值距离进行第二次匹配点剔除;
步骤5.4:经过两次剔除操作后,以所有剩余匹配点对之间的距离和最小为目标函数,计算相邻帧场景的变换矩阵;
步骤5.5:当Tk-Tk-1>Tthreshold或k>=kmax满足时,迭代终止,令Tlast=Tk,得到最终的变换矩阵Tlast,若不满足,令k=k+1,返回步骤5.1,对最新的深度图像重新构建映射关系,获得新的匹配点对。
与经典ICP算法通过逐一比较的方式求解最近邻关系的不同,本发明采用FLANN最近邻算法搜寻方法搜寻最近邻点,提高了搜寻匹配关系的速度,所述FLANN最近邻算法由公知的OpenCV库中获取。
一种基于RGB-D相机的三维点云ICP配准改进方法系统,包括:
图像获取单元:利用RGB-D相机在t时刻和t+1时刻获取相邻帧场景的二维彩色图像It、 It+1和对应的深度图像Dt、Dt+1;
三维点云生成单元:利用二维彩色图像和滤波后的深度图像生成三维点云;
相邻场景配准单元:依据降采样后的三维点云和中对应点的映射关系,依次采用基于对应点间的中值距离的剔除法和基于表面法向量夹角的剔除法,剔除错误关系匹配点对,以剩余匹配点对之间的距离和最小为目标函数,获得相邻帧场景的变换矩阵,进行相邻帧场景配准。
一种可读存储介质,包括计算机程序,所述计算机程序指令被处理终端执行时使所述处理终端执行上述一种基于RGB-D相机的三维点云ICP配准改进方法。
有益效果
本发明提出了一种基于二维图像引导的改进三维点云配准方法、系统及可读存储介质,可实现快速的三维点云配准,具有鲁棒性高,计算量小等优点,有效满足了机器人自定位、地图创建等应用领域中对三维点云配准的迫切需求。
与经典的ICP配准方法相比,本发明的先进性表现在:
1,与传统的深度图像中值滤波,模糊滤波,高斯滤波,双边滤波方法对比,本发明采用彩色图像引导的深度图像滤波方法,该方法充分考虑彩色图像像素值的连续性,构建了彩色图像与深度图像之间的相关性模型,提高了深度点的准确度的同时保留了图像更多的边信息,从而能构建出精度更高的场景三维点云。
2,与经典ICP算法采用点到点的距离作为目标函数度量方法不同,本发明采用点到面的距离作为目标函数的度量,收敛速度和精确度远高于经典ICP算法;
3,与经典ICP算法通过逐一比较的方式求解最近邻关系的不同,本发明采用FLANN最近邻算法搜寻方法搜寻最近邻点,提高了搜寻匹配关系的速度;
4,采用基于PCA方法进行降采样,减少了后面迭代过程的计算量;
5,采用可同时获取二维彩色图像信息和深度信息的市场化传感器,提高了信息获取的便利性,进一步体现了本发明提出的算法的实践性;
6,通过实验本发明提出的整体改进的三维点云ICP配准方案无论从配准精度还是运行速度上都明显优于经典的ICP算法。
附图说明
图1为本发明提出的基于RGB-D相机的三维点云ICP配准改进方法整体流程图;
图2为二维彩色图像和对应的深度图像生成三维点云的示意图,其中(a)为二维彩色图像,(b)深度图像,(c)三维点云图像;
图3为各种传统滤波方法与本发明实例提出的以彩色图像为引导的深度图像滤波方法对比,其中,(a)为原深度图像,(b)为中值滤波,(c)为模糊滤波,(d)为高斯滤波,(e)为双边滤波,(f)为本发明实例所述的方法;
图4为点云图像经过基于彩色图像引导的深度图像滤波处理前后的效果图,以及滤波后的点云降采样的示意图。其中(a)为滤波前,(b)为滤波后,(c)为降采样后的点云图;
图5为误匹配点对关系剔除方法示意图,以及基于点到面距离的目标函数示意图,其中, (a)指基于表面法向量夹角剔除法示意图,(b)指基于对应点间的中值距离剔除法示意图; (c)指基于点到面距离的目标函数示意图;
图6为机器人运行轨迹;
图7为本发明提出的改进的ICP点云配准前后对比效果图,其中(a)为改进前,(b)为改进后;
图8为本发明提出的改进的ICP点云配准方法迭代过程误差衰减曲线图;
图9为本发明改进的ICP配准结果图。
具体实施方式
下面结合附图和实施例对本发明做进一步的说明
本发明在经典ICP算法的基础上,提供一种基于RGB-D相机获取深度图像的ICP配准改进方法,算法提高了计算效率和准确性,可广泛应用于三维场景构建、机器人三维位姿估计等领域[1-2]。
如图1所示,一种基于RGB-D相机获取深度图像的ICP配准改进方法,包括以下步骤:
步骤1:获取相邻帧场景的二维彩色图像It、It+1和对应的深度图像Dt、Dt+1;
利用RGB-D相机在t时刻和t+1时刻获取相邻帧场景的二维彩色图像It和It+1以及与二维彩色图像对应的深度图像Dt和Dt+1;
如图3,所述以彩色图像为引导的深度图像滤波方法与各种经典滤波方法的对比,其中, (a)为原深度图像,(b)为中值滤波,(c)为模糊滤波,(d)为高斯滤波,(e)为双边滤波, (f)为本发明实例所述的方法;基于彩色图像引导的深度图像滤波方法描述如下:
具体步骤为:
所述彩色图像和深度图像均由灰度值矩阵构成,均值滤波方法fmean(x)是公开的、常见的滤波方法,可从公开的软件库OpenCV中获取,在本发明中,设置均值滤波方法的搜索窗口半径rmean=8;
所述步骤2.3中ε为正则化系数,在本发明中,设置ε=0.04;
对于相机视角内的任意空间点P(X,Y,Z),其对应的彩色图像中的像素坐标p(u,v)及深度图像中的深度数据d与之存在如下关系:
其中,fx和fy分别表示相机在x、y轴上的焦距,S表示深度图的缩放因子,一般取5000。上式可进一步转化为如下形式:
其中,fx、fy、cx、cy又被称为相机内参数,根据Kinect的内参数以及彩色和深度数据就可求得每个像素点对应的空间三维坐标,即形成三维点云。因此,根据公知的RGB-D相机投影模型以及该相机的内参矩阵,可以配准彩色图像和对应的深度图像生成三维点云,如图 2所示。
首先,根据深度图像中三维点云Pt和Pt+1每个点的法向量n与x、y和z轴的夹角,将所有点依据与坐标轴的夹角按照设定的间隔角度划分为43个类,其中三个维度上所含类的个数均为4,取间隔角度为45°;
对点云进行降采样后,将会大量降低ICP算法中寻找对应点时的时间复杂度,实验证明将点云数量降采样至3000左右(原始点云的1%)时,计算效率与准确性的综合性能将达到一个最佳状态,采样前后的点云如图4所示;
实测某一原始点云个数为325200,降采样后点云个数为3252,压缩率为1%。
所述三维点云中各点的法向量的提取过程如下:
法向量作为点云的一种重要的几何信息,被广泛应用于点云配准中,本文改进的ICP算法中也会多次用到法向量信息。由于点云数据对于真实拍摄的物体而言表现为一组离散样本,因而可以直接从数据集中构造出表面法向量,即通过局部表面拟合的方法估计法向量,这实质是一个利用最小二乘法拟合平面的问题,求取的平面法向量即为点云数据的法向量本文利用主成分分析法(Principal Component Analysis,PCA)估计点云法向量,它是一种应用广泛的代数特征提取方法,是通过将具有一定相关性的变量通过线性变换选出较少的重要变量的一种统计学习方法。
步骤5:依据降采样后的三维点云和中对应点的映射关系,依次采用基于对应点间的中值距离的剔除法和基于表面法向量夹角的剔除法,剔除错误关系匹配点对,以剩余匹配点对之间的距离和最小为目标函数,如图5所示,获得相邻帧场景的变换矩阵,进行相邻帧场景配准;
其中,k为迭代次数,k的最大值kmax=20,βk为经k次迭代后计算出来的映射关系,Tk-1为上一次迭代计算后求得的变换矩阵,令k的初始值取值为1,T0=(0,0,0,0,0,0);
步骤5.2:基于表面法向量夹角法进行第一次匹配点对剔除;
步骤5.3:基于匹配点对的中值距离进行第二次匹配点剔除;
步骤5.4:经过两次剔除操作后,以所有剩余匹配点对之间的距离和最小为目标函数,计算相邻帧场景的变换矩阵;
步骤5.5:当Tk-Tk-1>Tthreshold或k>=kmax满足时,迭代终止,令Tlast=Tk,得到最终的变换矩阵Tlast,若不满足,令k=k+1,返回步骤5.1,对最新的深度图像重新构建映射关系,获得新的匹配点对。
所述从中搜寻与深度图像中每个点的最近邻点时采用FLANN搜寻方法。与经典ICP算法通过逐一比较的方式求解最近邻关系的不同,本发明采用FLANN最近邻算法搜寻方法搜寻最近邻点,提高了搜寻匹配关系的速度。
一种基于RGB-D相机的三维点云ICP配准改进系统,包括:
图像获取单元:利用RGB-D相机在t时刻和t+1时刻获取相邻帧场景的二维彩色图像It、 It+1和对应的深度图像Dt、Dt+1;
三维点云生成单元:利用二维彩色图像和滤波后的深度图像生成三维点云;
相邻场景配准单元:依据降采样后的三维点云和中对应点的映射关系,依次采用基于对应点间的中值距离的剔除法和基于表面法向量夹角的剔除法,剔除错误关系匹配点对,以剩余匹配点对之间的距离和最小为目标函数,获得相邻帧场景的变换矩阵,进行相邻帧场景配准。
应当理解,本发明各个实施例中的功能单元模块可以集中在一个处理单元中,也可以是各个单元模块单独物理存在,也可以是两个或两个以上的单元模块集成在一个单元模块中,可以采用硬件或软件的形式来实现。
本发明的实例还提供一种可读存储介质,包括计算机程序,所述计算机程序指令被处理终端执行时使所述处理终端执行一种基于RGB-D相机的三维点云ICP配准改进方法,其有益效果参见方法部分的有益效果,在此不再赘述。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/ 或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/ 或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
机器人运行轨迹以及起始位置处的彩色点云如图6所示,实验共采集到70帧图像,采用深度数据进行试验。
图7显示了其中两帧点云配准前后状态的对比,由图可知,配准后两帧点云得到较为完整的融合(从椭圆处可明显观察到);
图8显示了这两组点云在20次迭代过程中误差的衰减曲线,由图可知,误差在前几次迭代过程中衰减较快,经过后面若干次迭代后缓慢地趋于稳定,且最终误差值降低到0.011;
图9显示了本发明实例改进的ICP算法对18帧点云的配准结果,由图9可知,本发明的方法在不加初值的情况下仍然能够得到较为准确的结果。
分别采用本发明提出的一种基于RGB-D相机的三维点云ICP配准改进方法和经典ICP 算法对场景中70帧点云数据进行配准,计算两种算法所对应的绝对误差的均方根以及平均配准时间,其结果对比如表1所示,其中,配准误差指对应的绝对误差的均方根。由表1可知,本发明提出的改进ICP算法无论从配准精度还是运行速度上都明显优于经典的ICP算法。
表1配准精度和速度对比
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求保护范围之内。
参考文献:
[1]A.Petitti,D.Di Paola,R.Colella,et al.,“A Distributed Map BuildingApproach for Mobile Robotic Networks,”IEEE 14th International Conference onAutomation Science and Engineering (CASE).IEEE,2018,pp:116-121.
[2]H.Men,B.Gebre,K.Pochiraju,“Color point cloud registration with 4DICP algorithm,”2011 IEEE International Conference on Robotics and Automation,2011,pp:1511-1516.
[3]S.Cheng,I.Marras,S.Zafeiriou,et al.,“Statistical non-rigid ICPalgorithm and its application to 3D face alignment,”Image and VisionComputing,2017,58,pp:3-12.
[4]黄高锋,陈义,符宏伟.基于特征点匹配及提纯的点云配准算法,测绘与空间地理信息,2019, 42(02),pp:199-202.
[5]G.Yang,R.Zeng,A.Dong,et al.,“Research and Application of 3D FaceModeling Algorithm Based on ICP Accurate Alignment,”Journal of Physics:Conference Series.IOP Publishing,2018, 1069(1),pp:012149。
Claims (10)
1.一种基于二维图像引导的改进三维点云配准方法、系统及可读存储介质,其特征在于,包括以下步骤:
步骤1:获取相邻帧场景的二维彩色图像It、It+1和对应的深度图像Dt、Dt+1;
利用RGB-D相机在t时刻和t+1时刻获取相邻帧场景的二维彩色图像It和It+1以及与二维彩色图像对应的深度图像Dt和Dt+1;
步骤3:利用二维彩色图像和滤波后的深度图像生成三维点云;
2.根据权利要求1所述的方法,其特征在于,按照基于彩色图像引导的深度图像滤波方法对相邻时刻获得的深度图像Dt和Dt+1进行滤波处理:
具体步骤为:
3.根据权利要求2所述的方法,其特征在于,所述均值滤波函数fmean(x)的搜索窗口半径rmean=8。
4.根据权利要求2所述的方法,其特征在于,所述步骤2.3中设置ε=0.04。
5.根据权利要求1所述的方法,其特征在于,对三维点云进行降采样处理,利用降采样后的三维点云计算相邻帧场景的变换矩阵;
首先,根据深度图像中每个点的法向量n与x、y和z轴的夹角,将所有点依据与坐标轴的夹角按照设定的间隔角度划分为43个类,其中三个维度上所含类的个数均为4,取间隔角度为45°;
然后,随机地从每个类中该类中的1%个点,舍去其它点,得到降采样后的深度图像。
7.根据权利要求1所述的方法,其特征在于,所述采用基于对应点间的中值距离的剔除法和基于表面法向量夹角的剔除法,剔除错误关系匹配点对,以剩余匹配点对之间的距离和最小为目标函数,获得相邻帧场景的变换矩阵,进行相邻帧场景配准的过程如下:
其中,{qj}表示中的像素点集合,{pi}表示中的像素点集合;k为迭代次数,k的最大值kmax=20,βk为经k次迭代后计算出来的映射关系,Tk-1为上一次迭代计算后求得的变换矩阵,令k的初始值取值为1,T0=(0,0,0,0,0,0);
步骤5.2:基于表面法向量夹角法进行第一次匹配点对剔除;
步骤5.3:基于匹配点对的中值距离进行第二次匹配点剔除;
步骤5.4:经过两次剔除操作后,以所有剩余匹配点对之间的距离和最小为目标函数,计算相邻帧场景的变换矩阵;
步骤5.5:当Tk-Tk-1>Tthreshold或k>=kmax满足时,迭代终止,令Tlast=Tk,得到最终的变换矩阵Tlast,若不满足,令k=k+1,返回步骤5.1,对最新的深度图像重新构建映射关系,获得新的匹配点对。
9.一种基于二维图像引导的改进三维点云配准方法、系统及可读存储介质,其特征在于,包括:
图像获取单元:利用RGB-D相机在t时刻和t+1时刻获取相邻帧场景的二维彩色图像It、It+1和对应的深度图像Dt、Dt+1;
三维点云生成单元:利用二维彩色图像和滤波后的深度图像生成三维点云;
10.一种可读存储介质,包括计算机程序,其特征在于,所述计算机程序指令被处理终端执行时使所述处理终端执行权利要求1至8任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910988369.0A CN110942476A (zh) | 2019-10-17 | 2019-10-17 | 基于二维图像引导的改进三维点云配准方法、系统及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910988369.0A CN110942476A (zh) | 2019-10-17 | 2019-10-17 | 基于二维图像引导的改进三维点云配准方法、系统及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110942476A true CN110942476A (zh) | 2020-03-31 |
Family
ID=69906067
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910988369.0A Pending CN110942476A (zh) | 2019-10-17 | 2019-10-17 | 基于二维图像引导的改进三维点云配准方法、系统及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110942476A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111524115A (zh) * | 2020-04-17 | 2020-08-11 | 湖南视比特机器人有限公司 | 钢板切割件的定位方法和分拣系统 |
CN111612841A (zh) * | 2020-06-22 | 2020-09-01 | 上海木木聚枞机器人科技有限公司 | 目标定位方法及装置、移动机器人及可读存储介质 |
CN112052847A (zh) * | 2020-08-17 | 2020-12-08 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、电子设备和计算机可读存储介质 |
CN112132971A (zh) * | 2020-09-08 | 2020-12-25 | 合肥的卢深视科技有限公司 | 三维人体建模方法、装置、电子设备和存储介质 |
CN113256611A (zh) * | 2021-06-21 | 2021-08-13 | 浙江光珀智能科技有限公司 | 一种rgb-d配准精度测试方法及设备 |
CN113689471A (zh) * | 2021-09-09 | 2021-11-23 | 中国联合网络通信集团有限公司 | 目标跟踪方法、装置、计算机设备及存储介质 |
CN113793370A (zh) * | 2021-01-13 | 2021-12-14 | 北京京东叁佰陆拾度电子商务有限公司 | 三维点云配准方法、装置、电子设备及可读介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805841A (zh) * | 2018-06-12 | 2018-11-13 | 西安交通大学 | 一种基于彩色图引导的深度图恢复及视点合成优化方法 |
CN110223348A (zh) * | 2019-02-25 | 2019-09-10 | 湖南大学 | 基于rgb-d相机的机器人场景自适应位姿估计方法 |
-
2019
- 2019-10-17 CN CN201910988369.0A patent/CN110942476A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805841A (zh) * | 2018-06-12 | 2018-11-13 | 西安交通大学 | 一种基于彩色图引导的深度图恢复及视点合成优化方法 |
CN110223348A (zh) * | 2019-02-25 | 2019-09-10 | 湖南大学 | 基于rgb-d相机的机器人场景自适应位姿估计方法 |
Non-Patent Citations (2)
Title |
---|
KAIMING HE,ET AL.: "Guided Image Filtering" * |
孟恬等: "基于快速行进算法的深度图像增强算法" * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111524115A (zh) * | 2020-04-17 | 2020-08-11 | 湖南视比特机器人有限公司 | 钢板切割件的定位方法和分拣系统 |
CN111524115B (zh) * | 2020-04-17 | 2023-10-13 | 湖南视比特机器人有限公司 | 钢板切割件的定位方法和分拣系统 |
CN111612841B (zh) * | 2020-06-22 | 2023-07-14 | 上海木木聚枞机器人科技有限公司 | 目标定位方法及装置、移动机器人及可读存储介质 |
CN111612841A (zh) * | 2020-06-22 | 2020-09-01 | 上海木木聚枞机器人科技有限公司 | 目标定位方法及装置、移动机器人及可读存储介质 |
CN112052847A (zh) * | 2020-08-17 | 2020-12-08 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、电子设备和计算机可读存储介质 |
CN112052847B (zh) * | 2020-08-17 | 2024-03-26 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、电子设备和计算机可读存储介质 |
CN112132971A (zh) * | 2020-09-08 | 2020-12-25 | 合肥的卢深视科技有限公司 | 三维人体建模方法、装置、电子设备和存储介质 |
CN112132971B (zh) * | 2020-09-08 | 2024-04-23 | 合肥的卢深视科技有限公司 | 三维人体建模方法、装置、电子设备和存储介质 |
CN113793370A (zh) * | 2021-01-13 | 2021-12-14 | 北京京东叁佰陆拾度电子商务有限公司 | 三维点云配准方法、装置、电子设备及可读介质 |
CN113793370B (zh) * | 2021-01-13 | 2024-04-19 | 北京京东叁佰陆拾度电子商务有限公司 | 三维点云配准方法、装置、电子设备及可读介质 |
CN113256611A (zh) * | 2021-06-21 | 2021-08-13 | 浙江光珀智能科技有限公司 | 一种rgb-d配准精度测试方法及设备 |
CN113689471B (zh) * | 2021-09-09 | 2023-08-18 | 中国联合网络通信集团有限公司 | 目标跟踪方法、装置、计算机设备及存储介质 |
CN113689471A (zh) * | 2021-09-09 | 2021-11-23 | 中国联合网络通信集团有限公司 | 目标跟踪方法、装置、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110223348B (zh) | 基于rgb-d相机的机器人场景自适应位姿估计方法 | |
CN110942476A (zh) | 基于二维图像引导的改进三维点云配准方法、系统及可读存储介质 | |
CN109544636B (zh) | 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法 | |
CN109166149B (zh) | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 | |
CN108537848B (zh) | 一种面向室内场景重建的两级位姿优化估计方法 | |
CN108229416B (zh) | 基于语义分割技术的机器人slam方法 | |
Poursaeed et al. | Deep fundamental matrix estimation without correspondences | |
CN111028292B (zh) | 一种亚像素级图像匹配导航定位方法 | |
CN112562081B (zh) | 一种用于视觉分层定位的视觉地图构建方法 | |
CN108648216B (zh) | 一种基于光流与深度学习的视觉里程计实现方法和系统 | |
CN113838191A (zh) | 一种基于注意力机制和单目多视角的三维重建方法 | |
CN112329662B (zh) | 基于无监督学习的多视角显著性估计方法 | |
CN111798453A (zh) | 用于无人驾驶辅助定位的点云配准方法及其系统 | |
CN108469729B (zh) | 一种基于rgb-d信息的人体目标识别与跟随方法 | |
Mittal et al. | Generalized projection based m-estimator: Theory and applications | |
CN113592900A (zh) | 一种基于注意力机制与全局推理的目标跟踪方法及系统 | |
Yu et al. | Recursive three-dimensional model reconstruction based on Kalman filtering | |
CN116429087A (zh) | 一种适应于动态环境的视觉slam方法 | |
CN114913289B (zh) | 一种生产车间三维动态不确定性语义slam方法 | |
CN115330874B (zh) | 基于超像素处理遮挡的单目深度估计方法 | |
Zhang et al. | Dyna-depthformer: Multi-frame transformer for self-supervised depth estimation in dynamic scenes | |
Uke et al. | Efficient method for detecting and tracking moving objects in video | |
CN115496859A (zh) | 基于散乱点云交叉注意学习的三维场景运动趋势估计方法 | |
Lin et al. | 6D object pose estimation with pairwise compatible geometric features | |
Ji et al. | View-Centric Multi-Object Tracking with Homographic Matching in Moving UAV |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200331 |
|
WD01 | Invention patent application deemed withdrawn after publication |