CN110580497B - 一种基于旋转不变性的空间场景匹配方法 - Google Patents
一种基于旋转不变性的空间场景匹配方法 Download PDFInfo
- Publication number
- CN110580497B CN110580497B CN201910642200.XA CN201910642200A CN110580497B CN 110580497 B CN110580497 B CN 110580497B CN 201910642200 A CN201910642200 A CN 201910642200A CN 110580497 B CN110580497 B CN 110580497B
- Authority
- CN
- China
- Prior art keywords
- similarity
- scene
- area
- ratio
- topology
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于旋转不变性的空间场景匹配方法,包括以下步骤:提取重心作为每个图元单元的形状中心点;提取最小面积外接矩形的质心坐标来描述群组目标,用位置图构建集合几何关系场,分析与判定待匹配场景的内部结构关系即区域特征,这种关系判定不受场景的旋转角度变化的影响。用波形图表示旋转度数和投影比的关系,根据分段计算投影和归一化的算法来计算波形图的相似性,实现匹配结果的量化。本发明能够改善存在旋转角度差异的场景的识别能力,提升矢量空间场景匹配的查全率和准确性。
Description
技术领域
本发明涉及多空间场景要素之间的匹配技术领域,具体涉及一种基于旋转不变性的空间场景匹配方法。
背景技术
空间场景是空间对象及其相互间各种关系的综合体现。同一空间场景在不同来源的地图上通常存在着差异,其识别或匹配对于不同数据源的地图编制来说很关键。目前针对空间场景匹配的研究,国内外学者更多从单一特征去考虑解决场景匹配的问题,并没有考虑到空间场景匹配旋转不变性的问题,从而导致相似性查询中的漏查、错查,即无法匹配到存在旋转角度差异的空间场景。
空间场景相似性匹配方法主要包括降维匹配方法、特征比较方法及基于结构组合的相似性认知方法等。目前相关研究大多是基于空间相似性理论来解决空间场景匹配问题,并没有考虑矢量数据旋转不变性的场景匹配方面的问题,例如在进行空间场景匹配的过程中,当用户位于某场景中的一个位置,用户可以根据视觉效果很容易对场景进行描述。但是对于场景输入时很可能存在一定的偏差,比如方向、旋转等问题。匹配场景输入基于空间目标几何关系与空间关系的分析难以解决数据库中因旋转一定角度存在的目标。这势必造成漏查,错查的问题。并且这些研究一般都仅仅从几何关系、空间关系等单一特征对空间场景匹配进行评估,难以做到多特征融合。因此本文从矢量数据角度来分析场景的旋转不变性,并将空间场景的几何关系和空间关系多级特征进行融合,综合评判空间场景的匹配,提高其精度,同时解决空间场景因旋转而导致的无法匹配的问题。
发明内容
有鉴于此,本发明提供了一种兼顾场景整体和局部、识别场景旋转不变性的一种基于旋转不变性的空间场景匹配方法。
本发明提供了一种基于旋转不变性的空间场景匹配方法,包括以下步骤:
步骤1:提取场景和候选匹配场景中图元的形状中心点坐标:对于场景内的单个图元,选取重心点;对于整个场景群组,提取最小面积外接矩形的质心坐标;
步骤2:通过各图元质心的欧式距离来衡量空间场景的受力情况,形成描述位置图,同时依据物理学上的平行四边形法则,对每个重心点进行受力分析,求出该点所受其他图元的合力,然后将各合力分解到X,Y轴上,计算出平衡力的投影比,投影比函数的周期为360°,在坐标系中将这一组力每次移动一定的角度α,分别计算投影比,即可得到空间场景的投影比波形图,然后,对投影比波形图进行归一化处理,通过微分投影的方法计算归一化处理后的投影比波形图的相似性,按波形图的相似性降序排列得到场景匹配的粗匹配结果,初步排除了明显不符合要求的场景;
步骤3:进一步地,通过图元的形状、大小几何特征来描述空间场景的几何相似度;
步骤4:用图元间的拓扑关系、距离关系、方向关系的相似度来度量空间场景的空间关系相似度;
步骤5:用层次分析法分别对波形图相似性、空间场景的几何相似度及空间关系相似度赋以一组非零的权重,来表示空间场景的总相似性,而总相似性是定量衡量空间场景的接近程度,利用总相似度排序后,通过查询设定的阈值,返回相似度大于阈值的结果列表,将结果列表中总相似度对应的空间场景作为最终匹配到的场景,从而完成空间场景的匹配。
进一步地,所述步骤2中,投影比波形图绘制方式为:(1)连接场景中相邻图元的重心,形成受力多边形;(2)以整个场景的质心点到受力多边形各结点的方向做受力,每相邻的两条边利用平行四边形法则可以找到一个力,力的大小和方向由受力多边形相邻的两条边确定;(3)将各结点上的受力平移到一个坐标系中,对各个力进行受力分析,提取投影比函数,即所有力在X轴和Y轴上投影量之和的比值;(4)在坐标系中将这一组力每次移动一定的角度α,分别计算投影比,绘制出投影比值曲线,即得到投影比波形图。
进一步地,所述步骤2中,基于微分投影的波形图相似性计算方法为:(1)对波形图归一化处理,遍历所有数据,找出X,Y的最大值和最小值;X,Y的所有值分别减去最小值,然后除以最大值和最小值的差;(2)提取两个波形图曲线的特征点数组,连接邻近点形成两条折线段;(3)分别计算两条折线段中每个线段长度存储至DotsLenA,DotsLenB,总长度分别存至TotalLenA,TotalLenB;(4)待匹配场景折线段a第m段线段及之前线段的全长与折线段a总长度之比存至LengthRatioA;(5)归并LengthRatioA,LengthRatioB,即将其按照从小到大顺序排列;(6)将两条折线段折点按比例互相截取,生成两个新的点串,并求取相似度,相似度为每条线段相似度累加。
进一步地,所述步骤3中的形状相似度的计算方法如下:(1)计算相对参数法的八个参数,分别为①纵横轴比:目标最小面积外接矩形的长宽比值,②矩形度:目标面积与最小面积外接矩形面积的比值,③面积凹凸比:目标面积与其凸包面积的比值,④周长凹凸比:目标的周长与其凸包周长的比值,⑤球状性:目标面积与凸包周长的计算值,⑥圆形度:目标内切圆半径与其外切圆半径的比值,⑦偏心率:目标本身长轴与本身短轴的比值,⑧形状参数:目标本身面积与其周长2次方的比值;(2)将相关参数法中的获得的八个参数组成一个多边形形状特征向量,假设有多边形目标A,B,它们的形状特征向量分别为FormObjectA与FormObjectB,其中fAi,fBi代表相关参数法中的八个参数,那么A与B之间的形状相似度SimF(A,B)表示为:
进一步地,所述步骤3中大小相似度的计算方法为:若AreaObjectA,AreaObjectB表示目标面积,假设有两对空间目标A与B,E与F,其中A和B为参照目标,分别计算它们的拓扑特征值Topology(AB),Topology(EF),则A与B之间的大小相似度SimS(A,B)表示为:
SimT(AB,EF)=min{Topology(AB)/Topology(EF),Topology(EF)/Topology(AB)}
进一步地,所述步骤3中几何相似度的计算方法为:
SimG(A,B)=kF×SimF(A,B)+kS×SimS(A,B)
其中,kF,kS分别代表形状、大小的权重系数。
进一步地,所述步骤4中的拓扑关系相似性计算方法为:(1)假设有两对空间目标A与B,E与F,其中A和B为参照目标,分别计算它们的拓扑特征值Topology(AB),Topology(EF),其中,Topology(AB)=Perimeter(A∩B),Topology(EF)=Perimeter(E∩F);(2)若两对空间关系的拓扑类型不同,则直接断定其相似度为0,若两对目标拓扑类型相同,则拓扑关系相似性为:
SimT(AB,EF)=min{Topology(AB)/Topology(EF),Topology(EF)/Topology(AB)}
进一步地,所述步骤4中的距离关系相似性计算方法为:(1)设有两对空间目标A与B,E与F,分别计算它们之间的重心欧式距离distance(A,B)与distance(E,F);(2)计算distance(A,B)与distance(E,F)的最小比值,即为距离关系相似性。
进一步地,所述步骤4中的方向关系相似性的计算方法为:首先构造方向关系特征向量,设有两对空间目标A与B,以A为参照目标,根据九交模型表示出A与B的空间方向特征向量为:Dirction(AB)={dNW1,dN1,dNE1,dW1,dO1,dE1,dSW1,dS1,dSE1};
其中:dNW1=Area(B∩NWA)表示B目标在A的西北方向区域所占的面积,后面式子依此类推,dN1=Area(B∩NA),dNE1=Area(B∩NEA),dW1=Area(B∩WA),dO1=Area(B∩OA),dE1=Area(B∩EA),dSW1=Area(B∩SWA),dS1=Area(B∩SA),dSE1=Area(B∩SEA)。(2)方向关系相似度SimD(AB,EF)计算式如下:
本发明提供的技术方案带来的有益效果是:
(1)将位置图引入到场景匹配中,并形象的表示成波形图用以度量空间场景的相似性,解决了空间场景因旋转而无法完成的匹配问题。
(2)综合考虑了空间场景的几何关系和空间关系的多级特征,并具体量化,提高了其空间场景的匹配精度。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明一种基于旋转不变性的空间场景匹配方法实施步骤图;
图2是本发明中场景中的实体形状与力表达示意图;
图3是本发明中顶点受力分析图;
图4是本发明中基于微分投影的折线相似性计算示意图;
图5是本发明中各种场景下基于位置图的波形图对比结果。
具体实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图详细说明本发明的具体实施方式。
请参考图1,本发明的实施例提供了一种基于旋转不变性的空间场景匹配方法,用于存在旋转角度的空间场景查询,包括以下步骤:
步骤1:分别提取场景和候选匹配场景中图元的形状中心点坐标:对于场景内的单个图元,选取重心点;同时提取每个场景的最小面积外接矩形的质心坐标。
本发明中,考虑到图元边界点不同对目标坐标几何中心点的影响较大,但对重心的影响却比较小。由此选取图元重心,有效保持了场景总体特征和单个图元特征表达的有效性和鲁棒性。
步骤2:通过各图元重心的欧式距离来衡量空间场景的受力情况,形成描述位置图;同时依据物理学上的平行四边形法则,对每个重心点进行受力分析,求出该点所受其他图元的合力,然后将各合力分解到X,Y轴上,计算出平衡力的投影比;投影比函数的周期为360°,在坐标系中将这一组力每次移动一定的角度,分别计算投影比,即可得到空间场景的投影比波形图;然后,对波形图进行归一化处理,通过微分投影的方法计算波形图的相似性,按波形图相似性降序排列得到场景匹配的粗匹配结果,初步排除了明显不符合要求的场景。
本申请通过将图元之间的关系进行组合来进行整体匹配。以场景的整体质心为基准点,描述其他图元与之的关系特征,请参考图2和图3,绘制场景基于位置图的波形图的具体方法为:(1)连接场景中相邻图元的重心,形成受力多边形;(2)以整个场景的质心点到受力多边形各结点的方向做受力,每相邻的两条边利用平行四边形法则可以找到一个力,力的大小和方向由受力多边形相邻的两条边确定;(3)将各结点上的受力平移到一个坐标系中,对各个力进行受力分析,提取投影比函数,即所有力在X轴和Y轴上投影量之和的比值;(4)在坐标系中将这一组力每次移动一定的角度α,分别计算投影比,绘制出投影比值曲线,即得到投影比波形图。
请参考图4,基于微分投影的波形图相似性计算方法为:(1)对波形图归一化处理:遍历所有数据,找出X,Y的最大值和最小值;X,Y的所有值分别减去最小值,然后除以最大值和最小值的差;(2)得到两个波形曲线的特征点数组;(3)分别计算两条折线段中每个线段长度存储至DotsLenA,DotsLenB,总长度分别存至TotalLenA,TotalLenB;(4)折线段a第m段线段及之前线段的全长与折线段a总长度之比存至LengthRatioA;(5)归并LengthRatioA,LengthRatioB,即将其按照从小到大顺序排列;(6)将两条折线段折点按比例互相截取,生成两个新的点串。并求取相似度,相似度为每条线段相似度累加。
请参考图5,根据每对匹配场景的波形图相似性排序,得到场景的粗匹配结果,波形图中上方曲线a为待匹配场景的波形图,曲线b为各候选场景的波形图。
步骤3:进一步地,通过图元的形状,大小等几何特征来描述空间场景的几何相似性。先计算出多边形的最小面积外接矩形、凸包、内切圆和外接圆。再计算多边形形状相似性的八个参数。具体算式如下:
⑴纵横轴比:目标最小面积外接矩形的长宽比值。
⑵矩形度:目标面积与最小面积外接矩形面积的比值。
⑶面积凹凸比:目标面积与其凸包面积的比值。
⑷周长凹凸比:目标的周长与其凸包周长的比值。
⑸球状性:目标面积与凸包周长的计算值。
⑹圆形度:目标内切圆半径与其外切圆半径的比值。
⑺偏心率:目标本身长轴与本身短轴的比值。
⑻形状参数:目标本身面积与其周长2次方的比值。
接下来,利用相关系数法来计算两个多边形之间的形状相似度;假设有多边形目标A,B,它们的形状特征向量分别为FormObjectA与FormObjectB,其中fAi,fBi代表相关参数法中的八个参数,那么A与B之间的形状相似度SimF(A,B)可以表示为:
大小相似度按如下计算:若AreaObjectA,AreaObjectB表示目标面积,则A与B之间的大小相似度SimS(A,B)可以表示为:
SimS(A,B)=min{AreaObjectA/AreaObjectB,AreaObjectB/AreaObjectA}
接着综合考虑两个多边形A,B之间的形状相似度SimF(A,B)和大小相似度SimS(A,B)计算两个目标之间的几何特征相似度SimG(A,B):
SimG(A,B)=kF×SimF(A,B)+kS×SimS(A,B)
其中,kF,kS分别代表形状、大小的权重系数,本案例设定kF=0.6,kS=0.4。
步骤4:用图元间的拓扑关系、距离关系、方向关系的相似度来度量空间场景的空间关系相似度;拓扑关系由拓扑关系特征比值表示;距离关系由图元重心距离比值表示;方向关系由方向关系矩阵模型表示。
拓扑关系的计算过程如下:(1)计算拓扑关系特征值。本文定义了一个拓扑关系特征值TopologyObject来定量描述空间拓扑关系。假设有两个空间目标A和B,将A作为参照目标。若A与B相邻,则将特征值定义为:
Topology(AB)=Perimeter(A∩B)
其中,Perimeter(A∩B)表示A与B这两个多边形相交部分的长度;
若A与B相离,则将特征值定义为:
其中,PA为多边形A的节点;PB为多边形B的节点。该式计算出的即是A,B间的最近距离。
(2)计算拓扑相似性:假设有两对空间目标A与B,E与F,其中A和B分别为参照目标。则可以分别得到它们的拓扑特征值Topology(AB),Topology(EF)。若两对空间关系的拓扑类型不同,则直接断定其相似度为0;若两对目标都是相离关系或者都是相邻关系,则其拓扑相似性计算如下:
SimT(AB,EF)=min{Topology(AB)/Topology(EF),Topology(EF)/Topology(AB)}
方向关系相似性计算步骤如下:分别计算候选目标在待匹配目标的九个方向区域所占的面积,形成待匹配目标的方向关系特征向量。然后选用相关系数来计算它们之间的方向关系相似度SimD(AB,EF):
步骤5:用层次分析法,分别对波形图相似性、空间场景的几何相似度及空间关系相似度赋以不同的权重:0.2,0.32,0.48,来表示空间场景的总相似性,而总相似性是定量衡量空间场景的接近程度,利用总相似度排序后,通过查询设定的阈值,返回相似度大于阈值的结果列表,将结果列表中总相似度对应的空间场景作为最终匹配到的场景,从而完成空间场景的匹配;若通过查询设定的阈值,不存在空间场景总相似度大于阈值的结果列表,则匹配失败。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (9)
1.一种基于旋转不变性的空间场景匹配方法,其特征在于,包括以下步骤:
步骤1:提取场景和候选匹配场景中图元的形状中心点坐标:对于场景内的单个图元,选取重心点,对于整个场景群组,提取最小面积外接矩形的质心坐标;
步骤2:通过各图元质心的欧式距离来衡量空间场景的受力情况,形成描述位置图,同时依据物理学上的平行四边形法则,对每个重心点进行受力分析,求出该点所受其他图元的合力,然后将各合力分解到X,Y轴上,计算出平衡力的投影比,投影比函数的周期为360°,在坐标系中将这一组力每次移动一定的角度α,分别计算投影比,即可得到空间场景的投影比波形图,然后,对投影比波形图进行归一化处理,通过微分投影的方法计算归一化处理后的投影比波形图的相似性,按波形图的相似性降序排列得到场景匹配的粗匹配结果,初步排除了明显不符合要求的场景;
步骤3:进一步地,通过图元的形状、大小几何特征来描述空间场景的几何相似度;
步骤4:用图元间的拓扑关系、距离关系、方向关系的相似度来度量空间场景的空间关系相似度;
步骤5:用层次分析法分别对波形图相似性、空间场景的几何相似度及空间关系相似度赋以一组非零权重,来表示空间场景的总相似性,总相似性是定量衡量空间场景的接近程度,利用总相似度排序后,通过查询设定的阈值,返回相似度大于阈值的结果列表,将结果列表中总相似度对应的空间场景作为最终匹配到的场景,从而完成了空间场景的匹配。
2.如权利要求1所述的基于旋转不变性的空间场景匹配方法,其特征在于:所述步骤2中,投影比波形图绘制方式为:(1)连接场景中相邻图元的重心,形成受力多边形;(2)以整个场景的质心点到受力多边形各结点的方向做受力,每相邻的两条边利用平行四边形法则可以找到一个力,力的大小和方向由受力多边形相邻的两条边确定;(3)将各结点上的受力平移到一个坐标系中,对各个力进行受力分析,提取投影比函数,即所有力在X轴和Y轴上投影量之和的比值;(4)在坐标系中将这一组力每次移动一定的角度α,分别计算投影比,绘制出投影比值曲线,即得到投影比波形图。
3.如权利要求1所述的基于旋转不变性的空间场景匹配方法,其特征在于:所述步骤2中,基于微分投影的波形图相似性计算方法为:(1)对波形图归一化处理,遍历所有数据,找出X,Y的最大值和最小值;X,Y的所有值分别减去最小值,然后除以最大值和最小值的差;(2)提取两个波形图曲线的特征点数组,连接邻近点形成两条折线段;(3)分别计算两条折线段中每个线段长度存储至DotsLenA,DotsLenB,总长度分别存至TotalLenA,TotalLenB;(4)待匹配场景折线段a第m段线段及之前线段的全长与折线段a总长度之比存至LengthRatioA;(5)归并LengthRatioA,LengthRatioB,即将其按照从小到大顺序排列;(6)将两条折线段折点按比例互相截取,生成两个新的点串,并求取相似度,相似度为每条线段相似度累加。
4.如权利要求1所述的基于旋转不变性的空间场景匹配方法,其特征在于:所述步骤3中,形状相似度的计算方法为:(1)计算相对参数法的八个参数,分别为①纵横轴比:目标最小面积外接矩形的长宽比值,②矩形度:目标面积与最小面积外接矩形面积的比值,③面积凹凸比:目标面积与其凸包面积的比值,④周长凹凸比:目标的周长与其凸包周长的比值,⑤球状性:目标面积与凸包周长的计算值,⑥圆形度:目标内切圆半径与其外切圆半径的比值,⑦偏心率:目标本身长轴与本身短轴的比值,⑧形状参数:目标本身面积与其周长2次方的比值;(2)将相关参数法中的获得的八个参数组成一个多边形形状特征向量,假设有多边形目标A,B;它们的形状特征向量分别为FormObjectA与FormObjectB,其中fAi,fBi代表相关参数法中的八个参数,那么A与B之间的形状相似度SimF(A,B)表示为:
5.如权利要求1所述的基于旋转不变性的空间场景匹配方法,其特征在于:所述步骤3中,大小相似度的计算方法为:若AreaObjectA,AreaObjectB表示目标面积,假设有两对空间目标A与B,E与F,其中A和B为参照目标,分别计算它们的拓扑特征值Topology(AB),Topology(EF),则A与B之间的大小相似度SimS(A,B)表示为:
SimT(AB,EF)=min{Topology(AB)/Topology(EF),Topology(EF)/Topology(AB)}。
6.如权利要求1所述的基于旋转不变性的空间场景匹配方法,其特征在于:所述步骤3中,几何相似度的计算方法为:
SimG(A,B)=kF×SimF(A,B)+kS×SimS(A,B)
其中,kF,kS分别代表形状、大小的权重系数。
7.如权利要求1所述的基于旋转不变性的空间场景匹配方法,其特征在于:所述步骤4中,拓扑关系相似度计算方法为:(1)假设有两对空间目标A与B,E与F,其中A和B为参照目标,分别计算它们的拓扑特征值Topology(AB),Topology(EF),其中,Topology(AB)=Perimeter(A∩B),Topology(EF)=Perimeter(E∩F);(2)若两对空间关系的拓扑类型不同,则直接断定其相似度为0,若两对目标拓扑类型相同,则拓扑关系相似性为:
SimT(AB,EF)=min{Topology(AB)/Topology(EF),Topology(EF)/Topology(AB)}。
8.如权利要求1所述的基于旋转不变性的空间场景匹配方法,其特征在于:所述步骤4中,距离关系相似度计算方法为:(1)设有两对空间目标A与B,E与F,分别计算它们之间的重心欧式距离distance(A,B)与distance(E,F);(2)计算distance(A,B)与distance(E,F)的最小比值,即为距离关系相似度。
9.如权利要求1所述的基于旋转不变性的空间场景匹配方法,其特征在于:所述步骤4中,方向关系相似性的计算方法为:(1)构造方向关系特征向量,设有两对空间目标A与B,以A为参照目标,根据九交模型A与B的空间方向特征向量可以表示为:Direction(AB)={dNW1,dN1,dNE1,dW1,dO1,dE1,dSW1,dS1,dSE1};
其中:dNW1=Area(B∩NWA)表示B目标在A的西北方向区域所占的面积,后面式子依此类推:dN1=Area(B∩NA),dNE1=Area(B∩NEA),dW1=Area(B∩WA),dO1=Area(B∩OA),dE1=Area(B∩EA),dSW1=Area(B∩SWA),dS1=Area(B∩SA),dSE1=Area(B∩SEA);(2)方向关系相似度SimD(AB,EF)计算式如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910642200.XA CN110580497B (zh) | 2019-07-16 | 2019-07-16 | 一种基于旋转不变性的空间场景匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910642200.XA CN110580497B (zh) | 2019-07-16 | 2019-07-16 | 一种基于旋转不变性的空间场景匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110580497A CN110580497A (zh) | 2019-12-17 |
CN110580497B true CN110580497B (zh) | 2023-03-24 |
Family
ID=68810412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910642200.XA Active CN110580497B (zh) | 2019-07-16 | 2019-07-16 | 一种基于旋转不变性的空间场景匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110580497B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113033644B (zh) * | 2021-03-18 | 2021-12-07 | 中国科学院大学 | 一种基于凸包特征自适应的旋转密集目标检测方法 |
CN115495611B (zh) * | 2022-11-18 | 2023-03-24 | 中国电子科技集团公司第五十四研究所 | 一种面向无人机自主定位的空间场景检索方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007287145A (ja) * | 2006-04-12 | 2007-11-01 | Fujitsu Ltd | 形状比較装置および形状比較方法 |
CN106202379A (zh) * | 2016-07-09 | 2016-12-07 | 兰州交通大学 | 一种基于空间场景相似性的匹配查询方法 |
CN107945221A (zh) * | 2017-12-08 | 2018-04-20 | 北京信息科技大学 | 一种基于rgb‑d图像的三维场景特征表达与高精度匹配方法 |
-
2019
- 2019-07-16 CN CN201910642200.XA patent/CN110580497B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007287145A (ja) * | 2006-04-12 | 2007-11-01 | Fujitsu Ltd | 形状比較装置および形状比較方法 |
CN106202379A (zh) * | 2016-07-09 | 2016-12-07 | 兰州交通大学 | 一种基于空间场景相似性的匹配查询方法 |
CN107945221A (zh) * | 2017-12-08 | 2018-04-20 | 北京信息科技大学 | 一种基于rgb‑d图像的三维场景特征表达与高精度匹配方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110580497A (zh) | 2019-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lavoué et al. | A new CAD mesh segmentation method, based on curvature tensor analysis | |
Kim et al. | Feature detection of triangular meshes based on tensor voting theory | |
Xu et al. | Reconstruction of scaffolds from a photogrammetric point cloud of construction sites using a novel 3D local feature descriptor | |
CN102236794B (zh) | 3d场景中3d对象的识别和姿态确定 | |
CN111553409B (zh) | 一种基于体素形状描述符的点云识别方法 | |
Liu et al. | Automatic segmentation of unorganized noisy point clouds based on the Gaussian map | |
Wenjing et al. | Research on areal feature matching algorithm based on spatial similarity | |
CN112288857A (zh) | 一种基于深度学习的机器人语义地图物体识别方法 | |
CN109359534B (zh) | 一种三维物体几何特征提取方法及系统 | |
CN110222642A (zh) | 一种基于全局图聚类的平面建筑构件点云轮廓提取方法 | |
CN110580497B (zh) | 一种基于旋转不变性的空间场景匹配方法 | |
CN114926699A (zh) | 一种室内三维点云语义分类方法、装置、介质及终端 | |
CN115661374B (zh) | 一种基于空间划分和模型体素化的快速检索方法 | |
Kroemer et al. | Point cloud completion using extrusions | |
Cupec et al. | Object recognition based on convex hull alignment | |
CN113420648B (zh) | 一种具有旋转适应性的目标检测方法及系统 | |
Xu et al. | Segmentation of 3D outdoor scenes using hierarchical clustering structure and perceptual grouping laws | |
JP6623126B2 (ja) | 物体検索装置、三次元物体モデル化装置、方法、及びプログラム | |
Merkurjev | A fast graph-based data classification method with applications to 3D sensory data in the form of point clouds | |
Ruiz et al. | Automatic extraction of road intersections from images based on texture characterisation | |
Liu et al. | Robust 3-d object recognition via view-specific constraint | |
Cupec et al. | Fast 2.5 D Mesh Segmentation to Approximately Convex Surfaces. | |
CN111680571A (zh) | 基于lda降维的多特征融合的植物叶片识别方法 | |
Ji et al. | Point cloud segmentation for complex microsurfaces based on feature line fitting | |
Guili et al. | A man-made object detection algorithm based on contour complexity evaluation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |