CN108537805A - 一种基于特征几何收益的目标识别方法 - Google Patents
一种基于特征几何收益的目标识别方法 Download PDFInfo
- Publication number
- CN108537805A CN108537805A CN201810338191.0A CN201810338191A CN108537805A CN 108537805 A CN108537805 A CN 108537805A CN 201810338191 A CN201810338191 A CN 201810338191A CN 108537805 A CN108537805 A CN 108537805A
- Authority
- CN
- China
- Prior art keywords
- point
- scene
- model
- feature
- income
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明具体涉及一种基于特征几何收益的目标识别方法,解决了现有的三维点云目标识别过程中关键点检测、特征匹配和误匹配剔除等结果不理想,且在包含噪声、分辨率不同和存在遮挡重叠等复杂场景中识别目标效果不佳等问题。首先,在关键点检测阶段增加了剔除边缘关键点的步骤;其次,在特征匹配阶段利用最近邻比剔除有二义性的特征匹配对;然后,在假设生成阶段本文提出了特征几何收益方法,对正确的匹配进行聚合并生成假设变换;最后,在假设验证阶段进行精配准验证假设变换,并精准的估计目标的姿态。该方法适用于杂乱的三维点云场景目标模型的识别,用于机器视觉的目标识别。可广泛应用于无人车驾驶、机器人、自动化装配以及智能监控等领域。
Description
技术领域
本发明属于机器视觉技术领域,具体涉及一种基于特征几何收益的目标识别方法。该方法适用于杂乱的三维点云场景目标模型的识别,用于机器视觉的目标识别。
背景技术
视觉是人类感知和认识世界的重要手段。计算机视觉技术通过模拟人类的视觉让计算机对图像进行获取、处理、分析和识别以实现对现实世界的认识。目标识别一直是计算机视觉领域的研究热点之一,可广泛应用于无人车驾驶、机器人、自动化装配以及智能监控等领域。目标识别的目的在于从场景中鉴别出感兴趣目标并获得其位置和方位等姿态信息。
目标识别方法通常由:关键点检测、特征描述、特征匹配三个阶段完成对三维点云场景中目标的识别,并进行姿态估计。现实生活中采集的点云存在孔洞、噪声和遮挡等,利用现有的算法和识别流程很难准确的对场景目标完成识别和姿态估计。
发明内容
针对现有的三维点云目标识别过程中关键点检测、特征匹配和误匹配剔除等结果不理想,且在包含噪声、分辨率不同和存在遮挡重叠等复杂场景中识别目标效果不佳等问题,本发明提出了一种基于特征几何收益的目标识别方法。
为解决上述技术问题,本发明采用的技术方案为:
基于特征几何收益的目标识别方法包括以下步骤:
步骤1,利用PCL库中提供的SIFTKeypoint算法对点云模型和场景进行关键点检测,分别得到模型和场景的关键点集和,分别记为和其中NM和NS分别为模型和场景的候选关键点数;
步骤2,对步骤1中得到的模型和场景关键点集合PM和PS中的点pi进行边缘点检测;认为如果点pi与邻域内每个点的向量两两之间的最小夹角大于阈值LTH,则认为点pi为边缘点,从点集中将其剔除;对关键点集合PM和PS中所有的点进行边缘点检测,如果为边缘点则将其剔除,最终得到具有可再现和易识别的模型和场景的关键点集合,分别记为和
步骤3,利用SHOT描述子对模型和场景的关键点KPM和KPS的邻域进行特征描述得到模型和场景的特征描述子,分别记为和nm和ns分别为模型和场景的关键点的数量,即为模型和场景的特征描述子数量;
步骤4,对模型的特征描述子FM采用KD-TREE进行索引,通过KD-TREE快速检索对场景特征描述子集合FS中的每个特征描述子fsi与模型的所有特征描述子进行检索得到最近邻和次紧邻两个匹配对,分别记为(fsi,fml)和(fsi,fmk),其最近距离分别为dil和dik;然后利用最近邻比的方法剔除具有二义性的匹配对,选择特征明显的特征匹配对,得到一组特征匹配对,记为C={c1,c2,...,cnc},其中nc为特征匹配对的个数;
步骤5,为获得场景中可能存在的候选目标通过特征几何收益方法对特征匹配对集合C进行聚合;通过计算关于关键点描述子特征直方图相似度的相关收益Pdesc和关于几何一致性相关的收益Pgeom,获得满足特征相似收益与几何一致收益的特征匹配对子集;对于每个子集其特征匹配对的个数大于阈值τn的子集,对应一个候选模型;
步骤6,获得候选模型后,采用SVD算法利用关键点的位置计算模型与候选目标之间的变换关系(Rc,Tc),Rc为刚性变换中的旋转矩阵,Tc为平移向量;
步骤7,进行假设验证,将模型M通过变换关系(Rc,Tc)变换到场景S坐标系下,经过改进的ICP算法优化进行精确配准;在实现精确配准后,计算配准误差dε和模型M在场景中的匹配度sa,如果满足dε小于阈值且sa大于阈值τsa,则模型M存在于场景中识别成功,并接受假设变换;对每个候选模型和候选模型的每个假设变换进行假设验证,最终完成对场景目标的识别。
进一步,所述步骤2中,对步骤1中得到的模型和场景关键点集合PM和PS中的点pi进行边缘点检测。认为如果点pi与邻域内每个点的向量两两之间的最小夹角大于阈值LTH,则认为点pi为边缘点从点集中将其剔除。对关键点集合PM和PS中所有的点进行边缘点检测,如果为边缘点则将其剔除,最终得到具有可再现和易识别的模型和场景的关键点集合,分别记为和包括:
由步骤1获得模型和场景的关键点PM和PS后,剔除PM和PS中的边缘点的过程通过如下步骤2.1至步骤2.4实现;
步骤2.1,对于候选关键点集合PM中的每个候选关键点pi,搜索其邻域半径r内的邻域点,记为N(pi),N(pi)={pij|||pij-pi||≤r};将N(pi)投影到有点pi和点pi的法向量n构成的切平面上,记为N′(pi);
步骤2.2,查找N′(pi)中距离pi最近的点p′i,定义向量的单位向量为u。计算点pi到N′(pi)中每个点p′ij的向量与向量u之间的顺时针夹角,记为S={α1,α2,...,αk},其中k为点pi的邻域点数量;对S进行升序排序,记为S′={α′1,α′2,...,α′k};
步骤2.3,利用公式(1)计算S′的角度差序列L,L的几何意义为点pi到N′(pi)中每个点p′ij的向量中相邻两个向量之间的夹角;如果L的最大值Lmax大于阈值LTH,则认为点pi为边缘点;
L=α′i+1-α′ii∈[0,1,...,k-1] (1)
步骤2.4,由步骤2.3确定PM中的每个点pi是否为边界点,若为边界点则从PM中剔除得到最终的关键点集合KPM={p1,p2,...,pnm},nm为关键点的个数;同理场景点云的候选关键点PS经过上述步骤剔除边缘关键点得到最终的关键点KPS={p1,p2,...,pns}。
更进一步,所述步骤4中,对模型的特征描述子FM采用KD-TREE进行索引,通过KD-TREE快速检索对场景特征描述子集合FS中的每个特征描述子fsi与模型的所有特征描述子进行检索得到最近邻和次紧邻两个匹配对,分别记为(fsi,fml)和(fsi,fmk),其最近距离分别为dil和dik;然后利用最近邻比的方法剔除具有二义性的匹配对,选择特征明显的特征匹配对,得到一组特征匹配对,记为C={c1,c2,...,cnc},其中nc为特征匹配对的个数,包括:
模型和场景的关键点通过步骤3完成对关键点邻域进行特征描述后,获得模型和场景关键点匹配对可通过步骤4.1至步骤4.4实现:
步骤4.1,对模型的特征描述子FM采用KD-TREE进行索引,通过KD-TREE快速检索对场景特征描述子集合FS中的每个特征描述子fsi与模型的所有特征描述子进行检索得到最近邻和次紧邻两个匹配对,分别记为(fsi,fml)和(fsi,fmk),其最近距离分别为dil和dik;
步骤4.2,对于特征描述子fsi比较其最近距离匹配对(fsi,fml)的距离dil和阈值关系,如果dil小于则认为特征描述子fsi与模型特征描述子fml匹配成功,否则认为特征描述子fsi与模型特征描述子匹配成功失败;
步骤4.3,利用公式(2)进行最近邻比,比较最近距离和第二近距离dil和dik的关系。如果满足公式(2)则认为(fsi,fml)是有效的匹配对,否则认为(fsi,fml)具有二义性是无效的匹配对。其中τf为阈值;
dil/dik<τf (2)
步骤4.4,场景的特征描述子中的每个描述子fsi经过上述特征匹配,得到一组特征匹配对,记为C={c1,c2,...,cnc},其中nc为特征匹配对的个数。
更进一步,所述步骤5中,为获得场景中可能存在的候选目标通过特征几何收益方法对特征匹配对集合C进行聚合;通过计算关于关键点描述子特征直方图相似度的相关收益Pdesc和关于几何一致性相关的收益Pgeom,获得满足特征相似收益与几何一致收益的特征匹配对子集;对于每个子集其特征匹配对的个数大于阈值τn的子集,对应一个候选模型,包括:
通过特征几何收益方法获得场景候选目标可由步骤5.1至步骤5.5实现:
步骤5.1,根据对应关系C={c1,c2,...,cnc}的描述子多尺度相似距离对其进行升序的排序,得到新的匹配对几何,记为C′={c′1,c′2,...,c′nc}。从C′中的第一对匹配对c′1={ai,bj}开始循环尚未分组的匹配对c′i={al,bk},其中,ai、bj分别是相关联的模型和场景的关键点;
步骤5.2,由公式(3)和公式(4)计算c′1={ai,bj}和c′1={ai,bj}关于关键点描述子特征直方图相似度的相关收益,其中δM是a和b两个关键点特征描述子相似度的距离;
Pdesc=f(ai,bj)·f(al,bk) (3)
步骤5.3,由公式(5)和公式(6)计算c′1={ai,bj}和c′1={ai,bj}关于几何一致性相关的收益,其中d(a,b)是a和b两个关键点之间的欧氏距离;mr是点云面片分辨率(meshresolution),σ为参数;σ·mr可以保证指数函数的值不受分辨率影响;
步骤5.4,未分组的匹配对c′i={al,bk},如果满足式(7)则将匹配对c′i={al,bk}添加到有c′1的集合中,ε为阈值;Pdesc和Pgeom都是以e为底的指数函数,由于点云场景和模型之间的变换是刚性的,则正确的两组特征匹配对在理想的状态下Pdesc·Pgeom的值为1,因此我们可以很方便的对阈值ε进行设置;
C((ai,bj),(al,bk))=Pdesc·Pgeom>ε (7)
步骤5.5,对步骤5.2、5.3、5.4进行迭代,为C′={c′1,c′2,...,c′nc}中每一个没有分组的特征匹配对与当前的子集进行聚合,满足式(7)则添加到该子集中。迭代结束后,若子集中匹配对的个数大于阈值τn,则该子集确定一个候选目标。
进一步,所述步骤7中,进行假设验证,将模型M通过变换关系(Rc,Tc)变换到场景S坐标系下,经过改进的ICP算法优化进行精确配准。在实现精确配准后,计算配准误差dε和模型M在场景中的匹配度sa,如果满足dε小于阈值且sa大于阈值τsa,则模型M存在于场景中识别成功,并接受假设变换;对每个候选模型和候选模型的每个假设变换进行假设验证,最终完成对场景目标的识别,包括:
由步骤6获得模型与候选目标之间的变换关系(Rc,Tc)后,进行假设验证的过程通过如下步骤7.1至步骤7.6实现:
步骤7.1,将模型M通过变换关系(Rc,Tc)变换到场景S坐标系下完成粗配准。
步骤7.2,对场景S上的点进行索引,利用KD-TREE通过公式(8)获得模型M的每个关键点与场景S上的最近对应点
步骤7.3,判断对应点之间的距离d是否小于阈值如果小于的将对应点ql添加到对应点集合Q中得到一组对应点Q={q1,q2,...,qn},n为对应点的个数;
步骤7.4,利用公式(9)计算对应点集合Q的配准误差dε;
步骤7.5,如果配准误差dε大于阈值利用改进的ICP算法进行优化配准。迭代结束后同样利用式(9)计算配准误差dε,如果配准误差dε小于阈值则进行步骤7.6,否则认为模型M与该候选目标配准失败;
步骤7.6,对精配准后的模型M和场景S利用式(10)计算模型和场景的表面匹配度sa。如果表面匹配度sa大于阈值τsa,则认为模型M与该候选目标配准成功,接受该假设变换;其中nc是精配准后点云模型M和场景S的对应点数,ns为点云场景的点数。
本发明采用以上技术方案,首先在现有的目标识别方法的三个阶段增加两个步骤:在关键点检测阶段利用边缘检测算法,剔除处于边缘的关键点,得到可再现和易匹配的关键点;在特征匹配阶段对于利用KD-TREE查找最近邻和次紧邻关键点匹配对,利用最近邻比剔除二义性高的匹配对(二义性高的匹配对指最近邻的距离与次紧邻的距离比值大于阈值τf);其次在假设生成阶段,提出特征几何收益方法并基于该方法进行匹配对聚合,获得候选目标并对每个候选目标进行假设变换。最后在假设验证阶段,提出改进的ICP算法并利用其进行假设验证,获得正确的假设变换,完成对场景目标准确的识别和姿态估计。
本发明提出的三维点云目标识别方法相对现有的目标识别算法,首先在检测关键点增加剔除关键点的边缘点,提高了关键点的有效性,有利于特征匹配阶段特征匹配。其次在特征匹配阶段增加剔除特征匹配对的具有二义性的匹配对过程,提高特征匹配的正确性,同时提高了后续假设生成和假设验证阶段的时间效率。在假设生成阶段本发明提出的特征几何收益方法能有效选择正确的特征匹配对。最后在假设验证阶段利用改进的ICP算法进行精配准,准确估计目标的姿态。因此本发明相对现有的目标识别方法对噪声、分辨率变化和场景杂乱遮挡具有更好的鲁棒性。
附图说明
图1是本发明的方法流程图;
图2是不同噪声下目标识别实验的平均识别率;
图3是不同分辨率下目标识别实验的平均识别率;
图4是对UWA模型库目标识别实验不同遮挡率下的平均识别率;
图5是利用本发明对UWA模型库中两个场景进行目标识别的结果。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细描述。
如图1所示,本实施例中的基于特征几何收益的目标识别方法,其包括步骤1至步骤7:
步骤1,利用PCL库中提供的SIFTKeypoint算法对点云模型和场景进行关键点检测,分别得到模型和场景的关键点集和,分别记为和其中NM和NS分别为模型和场景的候选关键点数。
其中,计算点云模型和场景的关键利用PCL库中提供的SIFTKeypoint算法为现有技术,此处不再做具体阐述。
步骤2,对步骤1中得到的模型和场景关键点集合PM和PS中的点pi进行边缘点检测。认为如果点pi与邻域内每个点的向量两两之间的最小夹角大于阈值LTH,则认为点pi为边缘点从点集中将其剔除。对关键点集合PM和PS中所有的点进行边缘点检测,如果为边缘点,则将其剔除,最终得到具有可再现和易识别的模型和场景的关键点集合,分别记为和
该步骤剔除关键点中的边缘关键点,其中阈值LTH设为π/4。具体的,该步骤可以通过如下步骤2.1至步骤2.4实现:
步骤2.1,对于候选关键点集合PM中的每个候选关键点pi,搜索其邻域半径r内的邻域点,记为N(pi),N(pi)={pij|||pij-pi||≤r}。将N(pi)投影到有点pi和点pi的法向量n构成的切平面上,记为N′(pi);
步骤2.2,查找N′(pi)中距离pi最近的点p′i,定义向量的单位向量为u。计算点pi到N′(pi)中每个点p′ij的向量与向量u之间的顺时针夹角,记为S={α1,α2,...,αk},其中k为点pi的邻域点数量。对S进行升序排序,记为S′={α′1,α′2,...,α′k};
步骤2.3,利用公式(1)计算S′的角度差序列L,L的几何意义为点pi到N′(pi)中每个点p′ij的向量中相邻两个向量之间的夹角。如果L的最大值Lmax大于阈值LTH(本实施例设为π/4),则认为点pi为边缘点;
L=α′i+1-α′i i∈[0,1,...,k-1] (1)
步骤2.4,由步骤2.3确定PM中的每个点pi是否为边界点,若为边界点则从PM中剔除得到最终的关键点集合KPM={p1,p2,...,pnm},nm为关键点的个数。同理场景点云的候选关键点PS经过上述步骤剔除边缘关键点得到最终的关键点
步骤3,利用SHOT描述子对模型和场景的关键点KPM和KPS的邻域进行特征描述得到模型和场景的特征描述子,分别记为和nm和ns分别为模型和场景的关键点的数量,即为模型和场景的特征描述子数量。
其中,SHOT描述子参考Tombari等人提出的SHOT描述子对关键点邻域进行特征描述得到模型和场景的特征描述子,此处不再做具体阐述。
步骤4,对模型的特征描述子FM采用KD-TREE进行索引,通过KD-TREE快速检索对场景特征描述子集合FS中的每个特征描述子fsi与模型的所有特征描述子进行检索得到最近邻和次紧邻两个匹配对,分别记为(fsi,fml)和(fsi,fmk),其最近距离分别为dil和dik。然后利用最近邻比的方法剔除具有二义性的匹配对,选择特征明显的特征匹配对,得到一组特征匹配对,记为C={c1,c2,...,cnc},其中nc为特征匹配对的个数。
模型和场景的关键点通过步骤3完成对关键点邻域进行特征描述后,获得模型和场景关键点匹配对可通过步骤4.1至步骤4.4实现:
步骤4.1,对模型的特征描述子FM采用KD-TREE进行索引,通过KD-TREE快速检索对场景特征描述子集合FS中的每个特征描述子fsi与模型的所有特征描述子进行检索得到最近邻和次紧邻两个匹配对,分别记为(fsi,fml)和(fsi,fmk),其最近距离分别为dil和dik;
步骤4.2,对于特征描述子fsi比较其最近距离匹配对(fsi,fml)的距离dil和阈值关系,如果dil小于则认为特征描述子fsi与模型特征描述子fml匹配成功,否则认为特征描述子fsi与模型特征描述子匹配成功失败;
步骤4.3,利用公式(2)进行最近邻比,比较最近距离和第二近距离dil和dik的关系。如果满足公式(2)则认为(fsi,fml)是有效的匹配对,否则认为(fsi,fml)具有二义性是无效的匹配对。其中τf为阈值,本实施例设为0.6;
dil/dik<τf (2)
步骤4.4,场景的特征描述子FS={fs1,fs2,...,fsns}中的每个描述子fsi经过上述特征匹配,得到一组特征匹配对,记为C={c1,c2,...,cnc},其中nc为特征匹配对的个数。
步骤5,为获得场景中可能存在的候选目标通过特征几何收益方法对特征匹配对集合C进行聚合。通过计算关于关键点描述子特征直方图相似度的相关收益Pdesc和关于几何一致性相关的收益Pgeom,获得满足特征相似收益与几何一致收益的特征匹配对子集。对于每个子集其特征匹配对的个数大于阈值τn的子集,对应一个候选模型。
该步骤中阈值ε取值范围一般为0.7-0.9,通过特征几何收益方法获得场景候选目标可由步骤5.1至步骤5.5实现:
步骤5.1,根据对应关系C={c1,c2,...,cnc}的描述子多尺度相似距离对其进行升序的排序,得到新的匹配对几何,记为C′={c′1,c′2,...,c′nc}。从C′中的第一对匹配对c′1={ai,bj}开始循环尚未分组的匹配对c′i={al,bk},其中,ai、bj分别是相关联的模型和场景的关键点;
步骤5.2,由公式(3)和公式(4)计算c′1={ai,bj}和c′1={ai,bj}关于关键点描述子特征直方图相似度的相关收益,其中δM是a和b两个关键点特征描述子相似度的距离;
Pdesc=f(ai,bj)·f(al,bk) (3)
步骤5.3,由公式(5)和公式(6)计算c′1={ai,bj}和c′1={ai,bj}关于几何一致性相关的收益,其中d(a,b)是a和b两个关键点之间的欧氏距离。mr是点云面片分辨率(meshresolution),σ为参数。σ·mr可以保证指数函数的值不受分辨率影响;
步骤5.4,未分组的匹配对c′i={al,bk},如果满足式(7)则将匹配对c′i={al,bk}添加到有c′1的集合中,ε为阈值(本实施例设置为0.75);Pdesc和Pgeom都是以e为底的指数函数,由于点云场景和模型之间的变换是刚性的,则正确的两组特征匹配对在理想的状态下Pdesc·Pgeom的值为1,因此我们可以很方便的对阈值ε进行设置;
C((ai,bj),(al,bk))=Pdesc·Pgeom>ε (7)
步骤5.5,对步骤5.2、5.3、5.4进行迭代,为C′={c′1,c′2,...,c′nc}中每一个没有分组的特征匹配对与当前的子集进行聚合,满足式(7)则添加到该子集中。迭代结束后,若子集中匹配对的个数大于阈值τn,则该子集确定一个候选目标。
步骤6,获得候选模型后,采用SVD算法利用关键点的位置计算模型与候选目标之间的变换关系(Rc,Tc),Rc为刚性变换中的旋转矩阵,Tc为平移向量。
其中,计算模型与候选目标之间的变换关系(Rc,Tc)采用的SVD算法,可以参考已有的SVD算法,此处不做具体阐述。
步骤7,进行假设验证,将模型M通过变换关系(Rc,Tc)变换到场景S坐标系下,经过改进的ICP算法优化进行精确配准。在实现精确配准后,计算配准误差dε和模型M在场景中的匹配度sa,如果满足dε小于阈值且sa大于阈值τsa(本实施例中设置dε=2mr,τsa=0.1),则模型M存在于场景中识别成功,并接受假设变换。对每个候选模型和候选模型的每个假设变换进行假设验证,最终完成对场景目标的识别。
由步骤6获得模型与候选目标之间的变换关系(Rc,Tc)后,进行假设验证的过程通过如下步骤7.1至步骤7.6实现:
步骤7.1,将模型M通过变换关系(Rc,Tc)变换到场景S坐标系下完成粗配准;
步骤7.2,对场景S上的点进行索引,利用KD-TREE通过公式(8)获得模型M的每个关键点与场景S上的最近对应点
步骤7.3,判断对应点之间的距离d是否小于阈值如果小于的将对应点ql添加到对应点集合Q中得到一组对应点Q={q1,q2,...,qn},n为对应点的个数;
步骤7.4,利用公式(9)计算对应点集合Q的配准误差dε;
步骤7.5,如果配准误差dε大于阈值利用改进的ICP算法进行优化配准。迭代结束后同样利用式(9)计算配准误差dε,如果配准误差dε小于阈值则进行步骤7.6,否则认为模型M与该候选目标配准失败;
步骤7.6,对精配准后的模型M和场景S利用式(10)计算模型和场景的表面匹配度sa。如果表面匹配度sa大于阈值τsa,则认为模型M与该候选目标配准成功,接受该假设变换。其中nc是精配准后点云模型M和场景S的对应点数,ns为点云场景的点数;
为表明本发明具有以上优点,分别利用现有的基于霍夫投票、几何一致性、随机几何一致性(RANSAC)三种三维点云识别方法和本发明的方法在不同噪声、分辨率、遮挡重叠三个方面下进行对比,检验本发明提出的基于特征几何收益的三维点云目标识别算法的性能。为使实验结果具有可比性四种目标识别方法的关键点检测算法均采用PCL库中提供的SIFTKeypoint算法,关键点邻域局部特征的描述均采用SHOT描述子。实验采用三种公共数据集:(1)斯坦福大学的标准三维模型数据库,(2)Tombari等人用于实验验证的数据集中的场景模型,(3)UWA三维模型数据集。利用数据集(1)和数据集(2)完成场景含有不同噪声和分辨率的目标识别实验,利用数据集(3)完成在场景杂乱含有遮挡重叠的目标识别实验。图2是基于数据集(1)中的点云模型对这44个场景在含有不同噪声的情况下进行目标识别,四种算法在44个场景下的平均识别率。图3同样是利用上述四种方法对这44个场景在不同分辨率情况下进行识别,四种算法在44个场景下的平均识别率。图4是四种方法对数据集(3)中50个场景共188个目标进行识别,在每个遮挡率下的平均识别率。其中红色折线为本发明在各个情况下的平均识别率。
从图2、图3、图4对比中可以看出本发明提出的基于特征几何收益的目标识别方法在噪声、分辨率不同和遮挡重叠三个方面都有良好的表现:在不同噪声下的识别率均达到100%,具有很好的抗噪性;在不同采样率下的识别率均达到了100%,验证本发明提出的目标识别方法对分辨率具有很好的效果,在不同的分辨率下均能有效的识别目标;本发明提出的目标识别方法在遮挡率为60%到75%之间识别率为100%,遮挡率为80%的40个目标中仅有一个目标没有正确识别,识别率为97.5%,遮挡率为85%的28个目标中有3个目标识别错误,识别率为89.3%,遮挡率为90%的6个目标有2个目标识别错误,188个场景目标中因为遮挡严重,且剩余表面特征不够明显提取不到有效特征描述子,导致共有6个目标未正确识别,其余182个目标均正确识别,且对其姿态进行精准估计。图5是对UWA模型库两个场景利用本发明进行目标识别的结果。由此验证了本文的目标识别方法能有效从遮挡、重叠的复杂场景中识别目标。
Claims (5)
1.一种基于特征几何收益的目标识别方法,其特征在于:所述目标识别方法包括以下步骤:
步骤1,利用PCL库中提供的SIFTKeypoint算法对点云模型和场景进行关键点检测,分别得到模型和场景的关键点集合,分别记为和其中NM和NS分别为模型和场景的候选关键点数;
步骤2,对步骤1中得到的模型和场景关键点集合PM和PS中的点pi进行边缘点检测;认为如果点pi与邻域内每个点的向量两两之间的最小夹角大于阈值LTH,则认为点pi为边缘点,从关键点集合中将其剔除;对关键点集合PM和PS中所有的点进行边缘点检测,如果为边缘点,则将其剔除,最终得到具有可再现和易识别的模型和场景的关键点集合,分别记为和
步骤3,利用SHOT描述子对模型和场景的关键点KPM和KPS的邻域进行特征描述得到模型和场景的特征描述子,分别记为和nm和ns分别为模型和场景的关键点的数量,即为模型和场景的特征描述子数量;
步骤4,对模型的特征描述子FM采用KD-TREE进行索引,通过KD-TREE快速检索对场景特征描述子集合FS中的每个特征描述子fsi与模型的所有特征描述子进行检索得到最近邻和次紧邻两个匹配对,分别记为(fsi,fml)和(fsi,fmk),其最近距离分别为dil和dik;然后利用最近邻比的方法剔除具有二义性的匹配对,选择特征明显的特征匹配对,得到一组特征匹配对,记为C={c1,c2,...,cnc},其中nc为特征匹配对的个数;
步骤5,为获得场景中可能存在的候选目标通过特征几何收益方法对特征匹配对集合C进行聚合;通过计算关于关键点描述子特征直方图相似度的相关收益Pdesc和关于几何一致性相关的收益Pgeom,获得满足特征相似收益与几何一致收益的特征匹配对子集;对于每个子集其特征匹配对的个数大于阈值τn的子集,对应一个候选模型;
步骤6,获得候选模型后,采用SVD算法利用关键点的位置计算模型与候选目标之间的变换关系(Rc,Tc),Rc为刚性变换中的旋转矩阵,Tc为平移向量;
步骤7,进行假设验证,将模型M通过变换关系(Rc,Tc)变换到场景S坐标系下,经过改进的ICP算法优化进行精确配准;在实现精确配准后,计算配准误差dε和模型M在场景中的匹配度sa,如果满足dε小于阈值且sa大于阈值τsa,则模型M存在于场景中识别成功,并接受假设变换;对每个候选模型和候选模型的每个假设变换进行假设验证,最终完成对场景目标的识别。
2.根据权利要求1所述的一种基于特征几何收益的目标识别方法,其特征在于:所述步骤2中,对步骤1中得到的模型和场景关键点集合PM和PS中的点pi进行边缘点检测;认为如果点pi与邻域内每个点的向量两两之间的最小夹角大于阈值LTH,则认为点pi为边缘点从点集中将其剔除;对关键点集合PM和PS中所有的点进行边缘点检测,如果为边缘点则将其剔除,最终得到具有可再现和易识别的模型和场景的关键点集合,分别记为和包括:
由步骤1获得模型和场景的关键点PM和PS后,剔除PM和PS中的边缘点的过程通过如下步骤2.1至步骤2.4实现:
步骤2.1,对于候选关键点集合PM中的每个候选关键点pi,搜索其邻域半径r内的邻域点,记为N(pi),N(pi)={pij| ||pij-pi||≤r};将N(pi)投影到有点pi和点pi的法向量n构成的切平面上,记为N′(pi);
步骤2.2,查找N′(pi)中距离pi最近的点p′i,定义向量的单位向量为u;计算点pi到N′(pi)中每个点p′ij的向量与向量u之间的顺时针夹角,记为S={α1,α2,...,αk},其中k为点pi的邻域点数量;对S进行升序排序,记为S′={α1′,α2′,...,α′k};
步骤2.3,利用公式(1)计算S′的角度差序列L,L的几何意义为点pi到N′(pi)中每个点p′ij的向量中相邻两个向量之间的夹角;如果L的最大值Lmax大于阈值LTH,则认为点pi为边缘点;
L=α′i+1-αi′i∈[0,1,...,k-1] (1)
步骤2.4,由步骤2.3确定PM中的每个点pi是否为边界点,若为边界点则从PM中剔除得到最终的关键点集合nm为关键点的个数;同理场景点云的候选关键点PS经过上述步骤剔除边缘关键点得到最终的关键点
3.根据权利要求2所述的一种基于特征几何收益的目标识别方法,其特征在于:所述步骤4中,对模型的特征描述子FM采用KD-TREE进行索引,通过KD-TREE快速检索对场景特征描述子集合FS中的每个特征描述子fsi与模型的所有特征描述子进行检索得到最近邻和次紧邻两个匹配对,分别记为(fsi,fml)和(fsi,fmk),其最近距离分别为dil和dik;然后利用最近邻比的方法剔除具有二义性的匹配对,选择特征明显的特征匹配对,得到一组特征匹配对,记为C={c1,c2,...,cnc},其中nc为特征匹配对的个数,包括:
模型和场景的关键点通过步骤3完成对关键点邻域进行特征描述后,获得模型和场景特征匹配对可通过步骤4.1至步骤4.4实现:
步骤4.1,对模型的特征描述子FM采用KD-TREE进行索引,通过KD-TREE快速检索对场景特征描述子集合FS中的每个特征描述子fsi与模型的所有特征描述子进行检索得到最近邻和次紧邻两个匹配对,分别记为(fsi,fml)和(fsi,fmk),其最近距离分别为dil和dik;
步骤4.2,对于特征描述子fsi比较其最近距离匹配对(fsi,fml)的距离dil和阈值关系,如果dil小于则认为特征描述子fsi与模型特征描述子fml匹配成功,否则认为特征描述子fsi与模型特征描述子匹配成功失败;
步骤4.3,利用公式(2)进行最近邻比,比较最近距离和第二近距离dil和dik的关系;如果满足公式(2)则认为(fsi,fml)是有效的匹配对,否则认为(fsi,fml)具有二义性是无效的匹配对;其中τf为阈值;
dil/dik<τf (2)
步骤4.4,场景的特征描述子中的每个描述子fsi经过上述特征匹配,得到一组特征匹配对,记为C={c1,c2,...,cnc},其中nc为特征匹配对的个数。
4.根据权利要求3所述的一种基于特征几何收益的目标识别方法,其特征在于:所述步骤5中,为获得场景中可能存在的候选目标通过特征几何收益方法对特征匹配对几何C进行聚合;通过计算关于关键点描述子特征直方图相似度的相关收益Pdesc和关于几何一致性相关的收益Pgeom,获得满足特征相似收益与几何一致收益的特征匹配对子集;对于每个子集其特征匹配对的个数大于阈值τn的子集,对应一个候选模型,包括:
通过特征几何收益方法获得场景候选目标可由步骤5.1至步骤5.5实现:
步骤5.1,根据对应关系C={c1,c2,...,cnc}的描述子多尺度相似距离对其进行升序的排序,得到新的匹配对几何,记为C′={c1′,c2′,...,c′nc};从C′中的第一对匹配对c1′={ai,bj}开始循环尚未分组的匹配对ci′={al,bk},其中,ai、bj分别是相关联的模型和场景的关键点;
步骤5.2,由公式(3)和公式(4)计算c1′={ai,bj}和c1′={ai,bj}关于关键点描述子特征直方图相似度的相关收益,其中δM是a和b两个关键点特征描述子相似度的距离;
Pdesc=f(ai,bj)·f(al,bk) (3)
步骤5.3,由公式(5)和公式(6)计算c1′={ai,bj}和c1′={ai,bj}关于几何一致性相关的收益,其中d(a,b)是a和b两个关键点之间的欧氏距离;mr是点云面片分辨率,σ为参数;σ·mr可以保证指数函数的值不受分辨率影响;
步骤5.4,未分组的匹配对ci′={al,bk},如果满足式(7)则将匹配对ci′={al,bk}添加到有c1′的集合中,ε为阈值;Pdesc和Pgeom都是以e为底的指数函数,由于点云场景和模型之间的变换是刚性的,则正确的两组特征匹配对在理想的状态下Pdesc·Pgeom的值为1,因此我们可以很方便的对阈值ε进行设置;
C((ai,bj),(al,bk))=Pdesc·Pgeom>ε (7)
步骤5.5,对步骤5.2、5.3、5.4进行迭代,为C′={c1′,c2′,...,c′nc}中每一个没有分组的特征匹配对与当前的子集进行聚合,满足式(7)则添加到该子集中;迭代结束后,若子集中匹配对的个数大于阈值τn,则该子集确定一个候选目标。
5.根据权利要求1-4任一项所述的一种基于特征几何收益的目标识别方法,其特征在于:所述步骤7中,进行假设验证,将模型M通过变换关系(Rc,Tc)变换到场景S坐标系下,经过改进的ICP算法优化进行精确配准;在实现精确配准后,计算配准误差dε和模型M在场景中的匹配度sa,如果满足dε小于阈值且sa大于阈值τsa,则模型M存在于场景中识别成功,并接受假设变换;对每个候选模型和候选模型的每个假设变换进行假设验证,最终完成对场景目标的识别,包括:
由步骤6获得模型M与候选目标之间的变换关系(Rc,Tc)后,进行假设验证的过程通过如下步骤7.1至步骤7.6实现:
步骤7.1,将模型M通过变换关系(Rc,Tc)变换到场景S坐标系下完成粗配准;
步骤7.2,对场景S上的点进行索引,利用KD-TREE通过公式(8)获得模型M的每个关键点与场景S上的最近对应点
步骤7.3,判断对应点之间的距离d是否小于阈值如果小于的将对应点ql添加到对应点集合Q中得到一组对应点Q={q1,q2,...,qn},n为对应点的个数;
步骤7.4,利用公式(9)计算对应点集合Q的配准误差dε;
步骤7.5,如果配准误差dε大于阈值利用改进的ICP算法进行优化配准;迭代结束后同样利用式(9)计算配准误差dε,如果配准误差dε小于阈值则进行步骤7.6,否则认为模型M与该候选目标配准失败;
步骤7.6,对精配准后的模型M和场景S利用式(10)计算模型和场景的表面匹配度sa;如果表面匹配度sa大于阈值τsa,则认为模型M与该候选目标配准成功,接受该假设变换;其中nc是精配准后点云模型M和场景S的对应点数,ns为点云场景的点数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810338191.0A CN108537805B (zh) | 2018-04-16 | 2018-04-16 | 一种基于特征几何收益的目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810338191.0A CN108537805B (zh) | 2018-04-16 | 2018-04-16 | 一种基于特征几何收益的目标识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108537805A true CN108537805A (zh) | 2018-09-14 |
CN108537805B CN108537805B (zh) | 2021-09-21 |
Family
ID=63481205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810338191.0A Active CN108537805B (zh) | 2018-04-16 | 2018-04-16 | 一种基于特征几何收益的目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108537805B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109389625A (zh) * | 2018-10-08 | 2019-02-26 | 湖南大学 | 一种基于多尺度描述子筛除误匹配的三维图像配准方法 |
CN109895094A (zh) * | 2019-02-11 | 2019-06-18 | 苏州瀚华智造智能技术有限公司 | 一种工业机器人测量轨迹定位误差分析方法及系统 |
CN110288638A (zh) * | 2019-06-18 | 2019-09-27 | 济南大学 | 一种断骨模型粗配准方法、系统及断骨模型配准方法 |
CN112686133A (zh) * | 2020-12-28 | 2021-04-20 | 科大讯飞股份有限公司 | 人体姿态识别系统、方法、相关设备及可读存储介质 |
CN115830340A (zh) * | 2022-11-16 | 2023-03-21 | 白城师范学院 | 一种点云目标识别方法和装置、存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103106688A (zh) * | 2013-02-20 | 2013-05-15 | 北京工业大学 | 基于双层配准方法的室内三维场景重建方法 |
US20130156262A1 (en) * | 2011-12-19 | 2013-06-20 | Yuichi Taguchi | Voting-Based Pose Estimation for 3D Sensors |
CN104574386A (zh) * | 2014-12-26 | 2015-04-29 | 速感科技(北京)有限公司 | 一种基于三维环境模型匹配的室内定位方法 |
CN104809456A (zh) * | 2015-05-21 | 2015-07-29 | 重庆大学 | 一种基于二值描述符的三维目标识别方法 |
CN107886528A (zh) * | 2017-11-30 | 2018-04-06 | 南京理工大学 | 基于点云的配电线路作业场景三维重建方法 |
-
2018
- 2018-04-16 CN CN201810338191.0A patent/CN108537805B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130156262A1 (en) * | 2011-12-19 | 2013-06-20 | Yuichi Taguchi | Voting-Based Pose Estimation for 3D Sensors |
CN103106688A (zh) * | 2013-02-20 | 2013-05-15 | 北京工业大学 | 基于双层配准方法的室内三维场景重建方法 |
CN104574386A (zh) * | 2014-12-26 | 2015-04-29 | 速感科技(北京)有限公司 | 一种基于三维环境模型匹配的室内定位方法 |
CN104809456A (zh) * | 2015-05-21 | 2015-07-29 | 重庆大学 | 一种基于二值描述符的三维目标识别方法 |
CN107886528A (zh) * | 2017-11-30 | 2018-04-06 | 南京理工大学 | 基于点云的配电线路作业场景三维重建方法 |
Non-Patent Citations (4)
Title |
---|
XIONG FENGGUANG ET.AL: "A 3D Surface Matching Method Using Keypoint-Based Covariance Matrix Descriptors", 《IEEE ACCESS》 * |
YULAN GUO ET.AL: "3D Object Recognition in Cluttered Scenes with Local Surface Features: A Survey", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
熊风光 等: "三维点云中关键点误匹配剔除方法", 《光学学报》 * |
贾勇杰 等: "基于SHOT的多尺度关键点检测技术研究", 《激光与光电子学进展》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109389625A (zh) * | 2018-10-08 | 2019-02-26 | 湖南大学 | 一种基于多尺度描述子筛除误匹配的三维图像配准方法 |
CN109389625B (zh) * | 2018-10-08 | 2021-09-14 | 湖南大学 | 一种基于多尺度描述子筛除误匹配的三维图像配准方法 |
CN109895094A (zh) * | 2019-02-11 | 2019-06-18 | 苏州瀚华智造智能技术有限公司 | 一种工业机器人测量轨迹定位误差分析方法及系统 |
CN110288638A (zh) * | 2019-06-18 | 2019-09-27 | 济南大学 | 一种断骨模型粗配准方法、系统及断骨模型配准方法 |
CN110288638B (zh) * | 2019-06-18 | 2022-07-01 | 济南大学 | 一种断骨模型粗配准方法、系统及断骨模型配准方法 |
CN112686133A (zh) * | 2020-12-28 | 2021-04-20 | 科大讯飞股份有限公司 | 人体姿态识别系统、方法、相关设备及可读存储介质 |
CN115830340A (zh) * | 2022-11-16 | 2023-03-21 | 白城师范学院 | 一种点云目标识别方法和装置、存储介质 |
CN115830340B (zh) * | 2022-11-16 | 2023-11-21 | 白城师范学院 | 一种点云目标识别方法和装置、存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108537805B (zh) | 2021-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108537805A (zh) | 一种基于特征几何收益的目标识别方法 | |
Aldoma et al. | A global hypotheses verification method for 3d object recognition | |
EP2385483B1 (en) | Recognition and pose determination of 3D objects in 3D scenes using geometric point pair descriptors and the generalized Hough Transform | |
Bariya et al. | Scale-hierarchical 3d object recognition in cluttered scenes | |
Rios-Cabrera et al. | Discriminatively trained templates for 3d object detection: A real time scalable approach | |
Yu et al. | Robust robot pose estimation for challenging scenes with an RGB-D camera | |
Mahamud et al. | The optimal distance measure for object detection | |
CN111553409A (zh) | 一种基于体素形状描述符的点云识别方法 | |
CN109035329A (zh) | 基于深度特征的相机姿态估计优化方法 | |
Li et al. | Hierarchical semantic parsing for object pose estimation in densely cluttered scenes | |
Cupec et al. | Object recognition based on convex hull alignment | |
CN105809678B (zh) | 一种短基线条件下两视图间线段特征全局匹配方法 | |
Arvanitis et al. | Broad-to-narrow registration and identification of 3D objects in partially scanned and cluttered point clouds | |
Lin et al. | Hierarchical representation via message propagation for robust model fitting | |
Yang et al. | Color point cloud registration based on supervoxel correspondence | |
CN112946625B (zh) | 基于b样条形状驱动多扩展目标航迹跟踪及分类方法 | |
Marton et al. | Part-Based Geometric Categorization and Object Reconstruction in Cluttered Table-Top Scenes: Paper Type: Categories (7) and (5) | |
Liu et al. | Deep learning of directional truncated signed distance function for robust 3D object recognition | |
Cootes et al. | Locating objects of varying shape using statistical feature detectors | |
Sjahputera et al. | Scene matching using F-histogram-based features with possibilistic C-means optimization | |
Asif et al. | Model-free segmentation and grasp selection of unknown stacked objects | |
Lu et al. | Probabilistic 3d object recognition based on multiple interpretations generation | |
Kweon et al. | Robust invariant features for object recognition and mobile robot navigation | |
Wietrzykowski et al. | A probabilistic framework for global localization with segmented planes | |
Siyaka et al. | A Novel Facial Image Deviation Estimation and Image Selection Algorithm (Fide-Isa) for Training Data Reduction in Facial Recognition System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |