CN107437097B - 一种基于角点描述的两阶段局部轮廓匹配方法 - Google Patents
一种基于角点描述的两阶段局部轮廓匹配方法 Download PDFInfo
- Publication number
- CN107437097B CN107437097B CN201710631123.9A CN201710631123A CN107437097B CN 107437097 B CN107437097 B CN 107437097B CN 201710631123 A CN201710631123 A CN 201710631123A CN 107437097 B CN107437097 B CN 107437097B
- Authority
- CN
- China
- Prior art keywords
- contour
- point
- matching
- points
- matched
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000001914 filtration Methods 0.000 claims abstract description 9
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 6
- 238000009499 grossing Methods 0.000 claims abstract description 6
- 238000009792 diffusion process Methods 0.000 claims abstract description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 230000010354 integration Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/752—Contour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于角点描述的两阶段局部轮廓匹配方法,其特征是,包括以下步骤:对于给定的一个作为参考的局部轮廓及待匹配的完整轮廓,分别计算参考轮廓及待匹配轮廓上各轮廓点处的曲率值,并使用各向异性扩散滤波算法对曲率值进行平滑;对于每一个参考轮廓上的角点,计算该点到轮廓端点的曲率积分值,选取对应曲率积分值最大的角点为参考轮廓的主角点,并使用角点描述子进行描述;轮廓粗匹配阶段;轮廓精匹配阶段;综合考虑粗匹配与精匹配阶段的匹配误差。优点:采用轮廓的显著角点作为轮廓特征点,提取的特征点描述具有更强的代表性和判别性,提高了匹配的效率和准确率;将匹配过程分为粗匹配和精匹配两个阶段,明显提高检索速度。
Description
技术领域
本发明涉及一种基于角点描述的两阶段局部轮廓匹配方法,属于形状或图像目标轮廓匹配技术领域。
背景技术
图像目标轮廓匹配是视觉认知和图像理解的重要研究内容。相比于颜色、亮度和纹理等基本视觉特征,目标的轮廓特征是一种高层次的视觉特征,被广泛应用于手势识别、异源图像匹配等众多检测识别系统中。当前,轮廓匹配方法的研究主要集中在实现两个完整轮廓间点对点的匹配,然而,实际图像场景中存在大量遮挡以及目标成像不完整等因素,难以提取完整的目标轮廓,导致针对完整轮廓的匹配方案实用性较差。
局部轮廓匹配旨在通过给定一个参考的局部轮廓,在众多的目标轮廓中寻找出与之最匹配的局部轮廓片段,据此确定参考轮廓所属类别。为了解决这个问题,Saber等人(E.Saber,Y.Xu,A.M.Tekalp,Partial shape recognition by sub-matrix matching forpartial matching guided image labeling,Pattern Recognition38(10)(2005)1560-1573.)选取轮廓上的曲率极值点作为特征点,通过比较参考轮廓和待匹配轮廓上局部连续几个特征点之间的距离矩阵寻找最佳的局部匹配。该方法虽然计算简单,但是对特征点提取的精度要求较高。Latecki等人(L.J.Latecki,V.Megalooikonomou,Q.Wang,D.Yu,Anelastic partial shape matching technique,Pattern Recognition 40(11)(2007)3069-3080.)通过离散曲线演化技术从轮廓上提取特征点,使用局部切线特征描述采样点并设计了一种最小方差匹配方法确定轮廓间特征点的对应关系。由于难以确定离散曲线演化方法的终止条件,并且所用的描述特征判别性不强,导致匹配的效果不佳。Michel等人(D.Michel,I.Oikonomidis,A.Argyros,Scale invariant and deformation tolerantpartial shape matching,Image and Vision Computing 29(7)(2011)459-469.)首先在每个轮廓点处等角度地引出若射线,记录它们与轮廓相交的线段长度,形成轮廓点的描述向量,再通过描述向量确定各轮廓点处的尺度。根据尺度信息采样得到轮廓特征点,并计算其描述向量,通过一种改进的DTW方法匹配参考轮廓与待匹配轮廓上的特征点。尽管该方法可以取得不错的匹配效果,但是需要对轮廓点进行两次描述以估计尺度和提取特征点描述子,导致匹配效率低下。
发明内容
本发明所要解决的技术问题是克服现有技术的缺陷,提供一种基于角点描述的两阶段局部轮廓匹配方法,特别适用于实现复杂场景下的局部轮廓高效率匹配。
为解决上述技术问题,本发明提供一种基于角点描述的两阶段局部轮廓匹配方法,其特征是,包括以下步骤:
步骤1、对于给定的一个作为参考的局部轮廓及待匹配的完整轮廓,分别计算参考轮廓及待匹配轮廓上各轮廓点处的曲率值,并使用各向异性扩散滤波算法对曲率值进行平滑,提取轮廓上的显著角点;
步骤2、对于每一个参考轮廓上的角点,计算该点到轮廓端点的曲率积分值,选取对应曲率积分值最大的角点为参考轮廓的主角点,并使用角点描述子进行描述;
步骤3、轮廓粗匹配阶段,对于待匹配轮廓上的每一个角点依次进行描述,并计算其描述子与参考轮廓主角点描述子之间的距离,初步确定待匹配轮廓上可能存在的与参考轮廓相匹配的片段;
步骤4、轮廓精匹配阶段,以参考轮廓的主角点和待匹配轮廓上与之匹配的角点为起始点,依次匹配剩余的角点;
步骤5、综合考虑粗匹配与精匹配阶段的匹配误差,从众多待匹配轮廓中选取最优的匹配轮廓片段。
进一步的,所述步骤1包括以下步骤:
步骤1-1、依次计算轮廓上各点处的曲率值,并使用各向异性滤波算法对曲率值进行平滑;
步骤1-2、按轮廓点的顺序排列平滑后的曲率值,选取对应曲率值为大于零的局部极大值或小于零的局部极小值的轮廓点作为该轮廓的显著角点。
进一步的,步骤2包括以下步骤:
步骤2-1、对于参考轮廓上的一个角点ti,计算该点到轮廓起始端点和终止端点的曲率积分值如下:
其中,q1和qh分别为参考轮廓的起始端点和终止端点,ΨQ(s)为滤波后的轮廓点曲率值,k为参考轮廓上的角点个数;
步骤2-3、选取对应曲率积分值最大的角点为参考轮廓的主角点:
C(tM)={qj∈OM,j=1,…,h}
其中,h为参考轮廓上的轮廓点个数,qj为第j个参考轮廓点;
步骤2-5、在主角点处建立极坐标系,并利用曲率分布直方图对其进行描述如下:
进一步的,所述步骤3包括以下步骤:
步骤3-1、对于待匹配轮廓上的一个角点si,以该点为起点,沿轮廓计算曲率累积和,直到满足如下条件:
其中,pe表示满足该条件的终点;
其中,l为待匹配轮廓上的轮廓点个数;
步骤3-3、在角点si处建立极坐标系,并利用曲率分布直方图对其进行描述如下:
计算该描述直方图与参考轮廓角点tM描述直方图的距离,记为两个角点间的匹配误差;
步骤3-4、依次计算待匹配轮廓上各角点与参考轮廓主角点tM间的匹配误差,其中匹配误差最小的点对,即为粗匹配点对,其匹配误差记为粗匹配误差CostC。
进一步的,所述步骤3中,对粗匹配误差设置阈值为0.2~0.3,以快速排除不相关的待匹配轮廓。
进一步的,所述步骤4包括以下步骤:
以参考轮廓的主角点tM及与之匹配的待匹配轮廓上的角点为起点,在待匹配轮廓上顺序寻找与点列{tM-1,…,t1}和{tM+1,…,tk}相匹配的角点序列,两段点列的匹配误差为参考轮廓与待匹配轮廓之间的精匹配误差,分别记为CostF-和CostF+。
进一步的,所述步骤5包括以下步骤:
参考轮廓与待匹配轮廓最终的匹配代价计算如下:
其中,对应匹配代价最小的待匹配轮廓片段即为最优的匹配轮廓片段。
本发明所达到的有益效果:
本发明采用轮廓的显著角点作为轮廓特征点,提取的特征点描述具有更强的代表性和判别性,提高了匹配的效率和准确率;将匹配过程分为粗匹配和精匹配两个阶段,能够在粗匹配阶段快速排除不相关的待匹配轮廓,明显提高检索速度。
附图说明
图1为本发明实施例的局部轮廓匹配的流程示意图,其中,1(a)为给定的参考轮廓片段,1(b)为待匹配轮廓,1(c)为轮廓特征点的曲率分布直方图特征描述,1(d)为局部轮廓匹配结果;
图2为本发明实施例的局部轮廓匹配结果与现有技术的局部轮廓匹配结果的对比图,其中,2(a)为本发明申请的检测结果,2(b)为MVM模型的检测结果。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
图1为本发明实施例的局部轮廓匹配的流程示意图。如图1所示,本方法的一种基于角点描述的两阶段局部轮廓匹配方法,包括以下步骤:
步骤1、对于给定的一个作为参考的局部轮廓及待匹配的完整轮廓,分别计算参考轮廓及待匹配轮廓上各轮廓点处的曲率值,并使用各向异性扩散滤波算法对曲率值进行平滑,提取轮廓上的显著角点。图1(a)中的粗实曲线和图1(b)中的曲线所示分别为给定的参考轮廓片段和待匹配轮廓。
步骤2、对于每一个参考轮廓上的角点,计算该点到轮廓端点的曲率积分值,选取对应曲率积分值最大的角点为参考轮廓的主角点,并使用角点描述子进行描述。
获取参考轮廓主角点及其特征描述的具体过程为:
步骤2-1、对于参考轮廓上的一个角点ti,计算该点到轮廓起始端点和终止端点的曲率积分值如下:
其中,q1和qh分别为参考轮廓的起始端点和终止端点,ΨQ(s)为滤波后的轮廓点曲率值,k为参考轮廓上的角点个数;
步骤2-3、选取对应曲率积分值最大的角点为参考轮廓的主角点:
C(tM)={qj∈OM,j=1,…,h}
其中,h为参考轮廓上的轮廓点个数;
步骤2-5、在主角点处建立极坐标系,并利用曲率分布直方图对其进行描述如下:
步骤3、轮廓粗匹配阶段,对于待匹配轮廓上的每一个角点依次进行描述,并计算其描述子与参考轮廓主角点描述子之间的距离,初步确定待匹配轮廓上可能存在的与参考轮廓相匹配的片段。
参考轮廓与待匹配轮廓的粗匹配的具体过程为:
步骤3-1、对于待匹配轮廓上的一个角点si,以该点为起点,沿轮廓计算曲率累积和,直到满足如下条件:
其中,pe表示满足该条件的终点;
其中,l为待匹配轮廓上的轮廓点个数,如图1(b)所示,在描述轮廓特征点B时所确定的区域为图中的圆形区域;
步骤3-3、在角点si处建立极坐标系,并利用曲率分布直方图对其进行描述如下:
计算该描述直方图与参考轮廓角点tM描述直方图的距离,记为两个角点间的匹配误差。如图1(c)中的直方图B和C所示,为图1(b)中轮廓特征点B和C的直方图描述,可见待匹配轮廓上与参考轮廓主角点对应的轮廓特征点具有与其更相似的特征描述;
步骤3-4、依次计算待匹配轮廓上各角点与参考轮廓主角点tM间的匹配误差,其中匹配误差最小的点对,即为粗匹配点对,其匹配误差记为粗匹配误差CostC。此处可设置粗匹配误差阈值为0.2~0.3,以快速排除不相关的待匹配轮廓,通过实际试验确定设置阈值为0.24时可获得最佳的匹配效果。如图1(d)所示,圆圈标记的角点为待匹配轮廓上与参考轮廓主角点相匹配的轮廓特征点。
步骤4、轮廓精匹配阶段,以参考轮廓的主角点和待匹配轮廓上与之匹配的角点为起始点,依次匹配剩余的角点。
参考轮廓与待匹配轮廓的精匹配的具体过程为:以参考轮廓的主角点tM及与之匹配的待匹配轮廓上的角点为起点,在待匹配轮廓上顺序寻找与点列{tM-1,…,t1}和{tM+1,…,tk}相匹配的角点序列,两段点列的匹配误差为参考轮廓与待匹配轮廓之间的精匹配误差,分别记为CostF-和CostF+。如图1(d)所示,粗实线标记的曲线为待匹配轮廓与参考轮廓精匹配的结果。
步骤5、综合考虑粗匹配与精匹配阶段的匹配误差,从众多待匹配轮廓中选取最优的匹配轮廓片段。参考轮廓与待匹配轮廓最终的匹配代价计算如下:
其中,对应匹配代价最小的待匹配轮廓片段即为最优的匹配轮廓片段。
图2为根据本发明的实施例的局部轮廓匹配结果与现有技术的匹配结果的对比图。其中,图2(a)为本发明申请的匹配结果,最左边一列为给定的参考轮廓片段,对于每一个参考轮廓,分别给出其与数据库中所有待匹配轮廓匹配误差最小的10个结果,上面一行为粗匹配阶段的检索结果及对应的匹配误差,下面一行为精匹配结果及对应的匹配误差。图2(b)为MVM模型(L.J.Latecki,V.Megalooikonomou,Q.Wang,D.Yu,An elastic partialshape matching technique,Pattern Recognition 40(11)(2007)3069-3080.)的匹配结果,最左边一列为给定的参考轮廓片段,对于每一个参考轮廓,分别给了出其与数据库中所有待匹配轮廓匹配误差最小的10个结果及对应的匹配误差。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (6)
1.一种基于角点描述的两阶段局部轮廓匹配方法,其特征是,包括以下步骤:
步骤1、对于给定的一个作为参考的局部轮廓及待匹配的完整轮廓,分别计算参考轮廓及待匹配轮廓上各轮廓点处的曲率值,并使用各向异性扩散滤波算法对曲率值进行平滑,提取轮廓上的显著角点;
步骤2、对于每一个参考轮廓上的角点,计算该点到轮廓端点的曲率积分值,选取对应曲率积分值最大的角点为参考轮廓的主角点,并使用角点描述子进行描述,包括以下步骤:
步骤2-1、对于参考轮廓上的一个角点ti,计算该点到轮廓起始端点和终止端点的曲率积分值如下:
其中,q1和qh分别为参考轮廓的起始端点和终止端点,ΨQ(s)为滤波后的轮廓点曲率值,k为参考轮廓上的角点个数;
步骤2-3、选取对应曲率积分值最大的角点为参考轮廓的主角点:
C(tM)={qj∈OM,j=1,…,h}
其中,h为参考轮廓上的轮廓点个数,qj为第j个参考轮廓点;
步骤2-5、在主角点处建立极坐标系,并利用曲率分布直方图对其进行描述如下:
步骤3、轮廓粗匹配阶段,对于待匹配轮廓上的每一个角点依次进行描述,并计算其描述子与参考轮廓主角点描述子之间的距离,初步确定待匹配轮廓上可能存在的与参考轮廓相匹配的片段;
步骤4、轮廓精匹配阶段,以参考轮廓的主角点和待匹配轮廓上与之匹配的角点为起始点,依次匹配剩余的角点;
步骤5、综合考虑粗匹配与精匹配阶段的匹配误差,从众多待匹配轮廓中选取最优的匹配轮廓片段。
2.根据权利要求1所述的一种基于角点描述的两阶段局部轮廓匹配方法,其特征是,所述步骤1包括以下步骤:
步骤1-1、依次计算轮廓上各点处的曲率值,并使用各向异性滤波算法对曲率值进行平滑;
步骤1-2、按轮廓点的顺序排列平滑后的曲率值,选取对应曲率值为大于零的局部极大值或小于零的局部极小值的轮廓点作为该轮廓的显著角点。
3.根据权利要求1所述的一种基于角点描述的两阶段局部轮廓匹配方法,其特征是,所述步骤3包括以下步骤:
步骤3-1、对于待匹配轮廓上的一个角点si,以该点为起点,沿轮廓计算曲率累积和,直到满足如下条件:
其中,pe表示满足该条件的终点;
其中,l为待匹配轮廓上的轮廓点个数;
步骤3-3、在角点si处建立极坐标系,并利用曲率分布直方图对其进行描述如下:
计算该描述直方图与参考轮廓主角点tM描述直方图的距离,记为两个角点间的匹配误差;
步骤3-4、依次计算待匹配轮廓上各角点与参考轮廓主角点tM间的匹配误差,其中匹配误差最小的点对,即为粗匹配点对,其匹配误差记为粗匹配误差CostC。
4.根据权利要求1所述的一种基于角点描述的两阶段局部轮廓匹配方法,其特征是,所述步骤3中,对粗匹配误差设置阈值为0.2~0.3,以快速排除不相关的待匹配轮廓。
5.根据权利要求3所述的一种基于角点描述的两阶段局部轮廓匹配方法,其特征是,所述步骤4包括以下步骤:
以参考轮廓的主角点tM及与之匹配的待匹配轮廓上的角点为起点,在待匹配轮廓上顺序寻找与点列{tM-1,…,t1}和{tM+1,…,tk}相匹配的角点序列,两段点列的匹配误差为参考轮廓与待匹配轮廓之间的精匹配误差,分别记为CostF-和CostF+。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710631123.9A CN107437097B (zh) | 2017-07-28 | 2017-07-28 | 一种基于角点描述的两阶段局部轮廓匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710631123.9A CN107437097B (zh) | 2017-07-28 | 2017-07-28 | 一种基于角点描述的两阶段局部轮廓匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107437097A CN107437097A (zh) | 2017-12-05 |
CN107437097B true CN107437097B (zh) | 2020-06-09 |
Family
ID=60460212
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710631123.9A Active CN107437097B (zh) | 2017-07-28 | 2017-07-28 | 一种基于角点描述的两阶段局部轮廓匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107437097B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113095385B (zh) * | 2021-03-31 | 2023-04-18 | 安徽工业大学 | 一种基于全局和局部特征描述的多模图像匹配方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102968785A (zh) * | 2012-10-18 | 2013-03-13 | 华中科技大学 | 一种基于多核dsp的高速并行图像匹配方法 |
CN103345628A (zh) * | 2013-07-29 | 2013-10-09 | 苏州大学 | 基于分层描述的目标识别和形状检索方法 |
CN104915949A (zh) * | 2015-04-08 | 2015-09-16 | 华中科技大学 | 一种结合点特征和线特征的图像匹配算法 |
-
2017
- 2017-07-28 CN CN201710631123.9A patent/CN107437097B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102968785A (zh) * | 2012-10-18 | 2013-03-13 | 华中科技大学 | 一种基于多核dsp的高速并行图像匹配方法 |
CN103345628A (zh) * | 2013-07-29 | 2013-10-09 | 苏州大学 | 基于分层描述的目标识别和形状检索方法 |
CN104915949A (zh) * | 2015-04-08 | 2015-09-16 | 华中科技大学 | 一种结合点特征和线特征的图像匹配算法 |
Non-Patent Citations (7)
Title |
---|
A novel contour descriptor for 2D shape matching and its application to image retrieval;Xin Shu;《Image and Vision Computing》;20101129;第29卷;全文 * |
Anisotropic diffusion for effective shape corner point detection;Glauco V. Pedrosa;《Pattern Recognition Letters》;20100519;第31卷;全文 * |
Efficient descriptor for full and partial shape matching;Saliha Bouagar · Slimane Larabi;《Multimed Tools Appl》;20141231;第75卷;第2989页至第3011页 * |
Image feature descripto r based on shape salience points;Glauco V. Pedrosa et al;《Neurocomputing》;20131123;第120卷;第156页至第163页 * |
基于曲率乘积的直接曲率尺度空间角点检测;李畅;《中国优秀硕士学位论文全文数据库 信息科技辑》;20111215;全文 * |
基于直接曲率尺度空间的曲率积的角点检测;孙惠英;《电脑知识与技术》;20151028;第11卷(第28期);全文 * |
曲率积分约束的GPS浮动车地图匹配方法;曾喆等;《测绘学报》;20151015;第44卷(第10期);第1167页至第1176页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107437097A (zh) | 2017-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110097093B (zh) | 一种异源图像精确匹配方法 | |
WO2016034059A1 (zh) | 基于颜色-结构特征的目标对象跟踪方法 | |
CN106981077B (zh) | 基于dce和lss的红外图像和可见光图像配准方法 | |
US11030436B2 (en) | Object recognition | |
KR100986809B1 (ko) | 크기불변특징변환을 이용한 다중해상도 위성영상간자동기하보정 방법 | |
CN103337077B (zh) | 一种基于多尺度分割和sift的可见光与红外图像配准的方法 | |
CN107862319B (zh) | 一种基于邻域投票的异源高分光学影像匹配误差剔除方法 | |
CN106709500B (zh) | 一种图像特征匹配的方法 | |
CN112883850B (zh) | 一种基于卷积神经网络的多视角空天遥感图像匹配方法 | |
Shah et al. | A novel biomechanics-based approach for person re-identification by generating dense color sift salience features | |
Shuo et al. | Object tracking method based on SURF | |
CN107610166A (zh) | 一种基于线性特征区域分割的平面地图图像配准方法 | |
CN113095385B (zh) | 一种基于全局和局部特征描述的多模图像匹配方法 | |
CN107437097B (zh) | 一种基于角点描述的两阶段局部轮廓匹配方法 | |
Chao-jian et al. | Image target identification of UAV based on SIFT | |
US7295707B2 (en) | Method for aligning gesture features of image | |
CN117253063A (zh) | 一种基于点线特征描述的两阶段多模图像匹配方法 | |
CN117078726A (zh) | 一种基于边缘提取的异谱图像配准方法 | |
CN109325487B (zh) | 一种基于目标检测的全种类车牌识别方法 | |
CN113792788B (zh) | 一种基于多特征相似度融合的红外和可见光图像匹配方法 | |
CN110222599B (zh) | 一种基于高斯映射的步态识别方法 | |
Apostolidis et al. | Fast object re-detection and localization in video for spatio-temporal fragment creation | |
CN112183553A (zh) | 一种确定场景下sift特征的快速提取方法 | |
Baek et al. | A modified top-hat and bottom-hat transform for edge detection | |
CN111626325B (zh) | 一种基于特征的图像匹配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |