CN107437097A - 一种基于角点描述的两阶段局部轮廓匹配方法 - Google Patents

一种基于角点描述的两阶段局部轮廓匹配方法 Download PDF

Info

Publication number
CN107437097A
CN107437097A CN201710631123.9A CN201710631123A CN107437097A CN 107437097 A CN107437097 A CN 107437097A CN 201710631123 A CN201710631123 A CN 201710631123A CN 107437097 A CN107437097 A CN 107437097A
Authority
CN
China
Prior art keywords
point
profile
msub
mrow
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710631123.9A
Other languages
English (en)
Other versions
CN107437097B (zh
Inventor
徐贵力
王正兵
程月华
王正盛
郭瑞鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201710631123.9A priority Critical patent/CN107437097B/zh
Publication of CN107437097A publication Critical patent/CN107437097A/zh
Application granted granted Critical
Publication of CN107437097B publication Critical patent/CN107437097B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于角点描述的两阶段局部轮廓匹配方法,其特征是,包括以下步骤:对于给定的一个作为参考的局部轮廓及待匹配的完整轮廓,分别计算参考轮廓及待匹配轮廓上各轮廓点处的曲率值,并使用各向异性扩散滤波算法对曲率值进行平滑;对于每一个参考轮廓上的角点,计算该点到轮廓端点的曲率积分值,选取对应曲率积分值最大的角点为参考轮廓的主角点,并使用角点描述子进行描述;轮廓粗匹配阶段;轮廓精匹配阶段;综合考虑粗匹配与精匹配阶段的匹配误差。优点:采用轮廓的显著角点作为轮廓特征点,提取的特征点描述具有更强的代表性和判别性,提高了匹配的效率和准确率;将匹配过程分为粗匹配和精匹配两个阶段,明显提高检索速度。

Description

一种基于角点描述的两阶段局部轮廓匹配方法
技术领域
本发明涉及一种基于角点描述的两阶段局部轮廓匹配方法,属于形状或图像目标轮廓匹配技术领域。
背景技术
图像目标轮廓匹配是视觉认知和图像理解的重要研究内容。相比于颜色、亮度和纹理等基本视觉特征,目标的轮廓特征是一种高层次的视觉特征,被广泛应用于手势识别、异源图像匹配等众多检测识别系统中。当前,轮廓匹配方法的研究主要集中在实现两个完整轮廓间点对点的匹配,然而,实际图像场景中存在大量遮挡以及目标成像不完整等因素,难以提取完整的目标轮廓,导致针对完整轮廓的匹配方案实用性较差。
局部轮廓匹配旨在通过给定一个参考的局部轮廓,在众多的目标轮廓中寻找出与之最匹配的局部轮廓片段,据此确定参考轮廓所属类别。为了解决这个问题,Saber等人(E.Saber,Y.Xu,A.M.Tekalp,Partial shape recognition by sub-matrix matching forpartial matching guided image labeling,Pattern Recognition38(10)(2005)1560-1573.)选取轮廓上的曲率极值点作为特征点,通过比较参考轮廓和待匹配轮廓上局部连续几个特征点之间的距离矩阵寻找最佳的局部匹配。该方法虽然计算简单,但是对特征点提取的精度要求较高。Latecki等人(L.J.Latecki,V.Megalooikonomou,Q.Wang,D.Yu,Anelastic partial shape matching technique,Pattern Recognition 40(11)(2007)3069-3080.)通过离散曲线演化技术从轮廓上提取特征点,使用局部切线特征描述采样点并设计了一种最小方差匹配方法确定轮廓间特征点的对应关系。由于难以确定离散曲线演化方法的终止条件,并且所用的描述特征判别性不强,导致匹配的效果不佳。Michel等人(D.Michel,I.Oikonomidis,A.Argyros,Scale invariant and deformation tolerantpartial shape matching,Image and Vision Computing 29(7)(2011)459-469.)首先在每个轮廓点处等角度地引出若射线,记录它们与轮廓相交的线段长度,形成轮廓点的描述向量,再通过描述向量确定各轮廓点处的尺度。根据尺度信息采样得到轮廓特征点,并计算其描述向量,通过一种改进的DTW方法匹配参考轮廓与待匹配轮廓上的特征点。尽管该方法可以取得不错的匹配效果,但是需要对轮廓点进行两次描述以估计尺度和提取特征点描述子,导致匹配效率低下。
发明内容
本发明所要解决的技术问题是克服现有技术的缺陷,提供一种基于角点描述的两阶段局部轮廓匹配方法,特别适用于实现复杂场景下的局部轮廓高效率匹配。
为解决上述技术问题,本发明提供一种基于角点描述的两阶段局部轮廓匹配方法,其特征是,包括以下步骤:
步骤1、对于给定的一个作为参考的局部轮廓及待匹配的完整轮廓,分别计算参考轮廓及待匹配轮廓上各轮廓点处的曲率值,并使用各向异性扩散滤波算法对曲率值进行平滑,提取轮廓上的显著角点;
步骤2、对于每一个参考轮廓上的角点,计算该点到轮廓端点的曲率积分值,选取对应曲率积分值最大的角点为参考轮廓的主角点,并使用角点描述子进行描述;
步骤3、轮廓粗匹配阶段,对于待匹配轮廓上的每一个角点依次进行描述,并计算其描述子与参考轮廓主角点描述子之间的距离,初步确定待匹配轮廓上可能存在的与参考轮廓相匹配的片段;
步骤4、轮廓精匹配阶段,以参考轮廓的主角点和待匹配轮廓上与之匹配的角点为起始点,依次匹配剩余的角点;
步骤5、综合考虑粗匹配与精匹配阶段的匹配误差,从众多待匹配轮廓中选取最优的匹配轮廓片段。
进一步的,所述步骤1包括以下步骤:
步骤1-1、依次计算轮廓上各点处的曲率值,并使用各向异性滤波算法对曲率值进行平滑;
步骤1-2、按轮廓点的顺序排列平滑后的曲率值,选取对应曲率值为大于零的局部极大值或小于零的局部极小值的轮廓点作为该轮廓的显著角点。
进一步的,步骤2包括以下步骤:
步骤2-1、对于参考轮廓上的一个角点ti,计算该点到轮廓起始端点和终止端点的曲率积分值如下:
其中,q1和qh分别为参考轮廓的起始端点和终止端点,ΨQ(s)为滤波后的轮廓点曲率值,k为参考轮廓上的角点个数;
步骤2-2、选取步骤2-1中较小的曲率积分值作为角点ti对应的曲率积分值对于给定的参考轮廓,可计算得到一组对应所有角点的曲率积分值
步骤2-3、选取对应曲率积分值最大的角点为参考轮廓的主角点:
其中,tM为选取的参考轮廓的主角点,为其对应的曲率积分值;
步骤2-4、记BM为参考轮廓上所有积分到的轮廓点的点集,OM为以参考轮廓主角点tM为圆心,包含所有BM中轮廓点的最小圆形区域,得到用于描述角点tM的点集:
C(tM)={qj∈OM,j=1,…,h}
其中,h为参考轮廓上的轮廓点个数,qj为第j个参考轮廓点;
步骤2-5、在主角点处建立极坐标系,并利用曲率分布直方图对其进行描述如下:
其中,hi(n)为直方图中第n个元素的值,N为直方图的元素个数,为参考轮廓点qj处的曲率绝对值,bin(n)为直方图第n个元素对应的计算区间。
进一步的,所述步骤3包括以下步骤:
步骤3-1、对于待匹配轮廓上的一个角点si,以该点为起点,沿轮廓计算曲率累积和,直到满足如下条件:
其中,pe表示满足该条件的终点;
步骤3-2、记为待匹配轮廓上的点集,为以角点si为圆心,包含所有中轮廓点的最小圆形区域,得到用于描述角点si的点集:
其中,l为待匹配轮廓上的轮廓点个数;
步骤3-3、在角点si处建立极坐标系,并利用曲率分布直方图对其进行描述如下:
计算该描述直方图与参考轮廓角点tM描述直方图的距离,记为两个角点间的匹配误差;
步骤3-4、依次计算待匹配轮廓上各角点与参考轮廓主角点tM间的匹配误差,其中匹配误差最小的点对,即为粗匹配点对,其匹配误差记为粗匹配误差CostC
进一步的,所述步骤3中,对粗匹配误差设置阈值为0.2~0.3,以快速排除不相关的待匹配轮廓。
进一步的,所述步骤4包括以下步骤:
以参考轮廓的主角点tM及与之匹配的待匹配轮廓上的角点为起点,在待匹配轮廓上顺序寻找与点列{tM-1,…,t1}和{tM+1,…,tk}相匹配的角点序列,两段点列的匹配误差为参考轮廓与待匹配轮廓之间的精匹配误差,分别记为CostF-和CostF+
进一步的,所述步骤5包括以下步骤:
参考轮廓与待匹配轮廓最终的匹配代价计算如下:
其中,对应匹配代价最小的待匹配轮廓片段即为最优的匹配轮廓片段。
本发明所达到的有益效果:
本发明采用轮廓的显著角点作为轮廓特征点,提取的特征点描述具有更强的代表性和判别性,提高了匹配的效率和准确率;将匹配过程分为粗匹配和精匹配两个阶段,能够在粗匹配阶段快速排除不相关的待匹配轮廓,明显提高检索速度。
附图说明
图1为本发明实施例的局部轮廓匹配的流程示意图,其中,1(a)为给定的参考轮廓片段,1(b)为待匹配轮廓,1(c)为轮廓特征点的曲率分布直方图特征描述,1(d)为局部轮廓匹配结果;
图2为本发明实施例的局部轮廓匹配结果与现有技术的局部轮廓匹配结果的对比图,其中,2(a)为本发明申请的检测结果,2(b)为MVM模型的检测结果。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
图1为本发明实施例的局部轮廓匹配的流程示意图。如图1所示,本方法的一种基于角点描述的两阶段局部轮廓匹配方法,包括以下步骤:
步骤1、对于给定的一个作为参考的局部轮廓及待匹配的完整轮廓,分别计算参考轮廓及待匹配轮廓上各轮廓点处的曲率值,并使用各向异性扩散滤波算法对曲率值进行平滑,提取轮廓上的显著角点。图1(a)中的粗实曲线和图1(b)中的曲线所示分别为给定的参考轮廓片段和待匹配轮廓。
步骤2、对于每一个参考轮廓上的角点,计算该点到轮廓端点的曲率积分值,选取对应曲率积分值最大的角点为参考轮廓的主角点,并使用角点描述子进行描述。
获取参考轮廓主角点及其特征描述的具体过程为:
步骤2-1、对于参考轮廓上的一个角点ti,计算该点到轮廓起始端点和终止端点的曲率积分值如下:
其中,q1和qh分别为参考轮廓的起始端点和终止端点,ΨQ(s)为滤波后的轮廓点曲率值,k为参考轮廓上的角点个数;
步骤2-2、选取步骤2-1中较小的曲率积分值作为角点ti对应的曲率积分值对于给定的参考轮廓,可计算得到一组对应所有角点的曲率积分值
步骤2-3、选取对应曲率积分值最大的角点为参考轮廓的主角点:
其中,tM为选取的参考轮廓的主角点,为其对应的曲率积分值,如图1(a)所示,计算得到参考轮廓的主角点为轮廓特征点A;
步骤2-4、记BM为参考轮廓上所有积分到的轮廓点的点集,OM为以参考轮廓主角点tM为圆心,包含所有BM中轮廓点的最小圆形区域,如图1(a)中圆形区域所示,得到用于描述角点tM的点集:
C(tM)={qj∈OM,j=1,…,h}
其中,h为参考轮廓上的轮廓点个数;
步骤2-5、在主角点处建立极坐标系,并利用曲率分布直方图对其进行描述如下:
其中,hi(n)为直方图中第n个元素的值,N为直方图的元素个数。为参考轮廓点qj处的曲率绝对值。计算得到图1(a)中参考轮廓主角点的曲率分布直方图特征如图1(c)中的直方图A所示。
步骤3、轮廓粗匹配阶段,对于待匹配轮廓上的每一个角点依次进行描述,并计算其描述子与参考轮廓主角点描述子之间的距离,初步确定待匹配轮廓上可能存在的与参考轮廓相匹配的片段。
参考轮廓与待匹配轮廓的粗匹配的具体过程为:
步骤3-1、对于待匹配轮廓上的一个角点si,以该点为起点,沿轮廓计算曲率累积和,直到满足如下条件:
其中,pe表示满足该条件的终点;
步骤3-2、记为待匹配轮廓上的点集,为以角点si为圆心,包含所有中轮廓点的最小圆形区域,得到用于描述角点si的点集:
其中,l为待匹配轮廓上的轮廓点个数,如图1(b)所示,在描述轮廓特征点B时所确定的区域为图中的圆形区域;
步骤3-3、在角点si处建立极坐标系,并利用曲率分布直方图对其进行描述如下:
计算该描述直方图与参考轮廓角点tM描述直方图的距离,记为两个角点间的匹配误差。如图1(c)中的直方图B和C所示,为图1(b)中轮廓特征点B和C的直方图描述,可见待匹配轮廓上与参考轮廓主角点对应的轮廓特征点具有与其更相似的特征描述;
步骤3-4、依次计算待匹配轮廓上各角点与参考轮廓主角点tM间的匹配误差,其中匹配误差最小的点对,即为粗匹配点对,其匹配误差记为粗匹配误差CostC。此处可设置粗匹配误差阈值为0.2~0.3,以快速排除不相关的待匹配轮廓,通过实际试验确定设置阈值为0.24时可获得最佳的匹配效果。如图1(d)所示,圆圈标记的角点为待匹配轮廓上与参考轮廓主角点相匹配的轮廓特征点。
步骤4、轮廓精匹配阶段,以参考轮廓的主角点和待匹配轮廓上与之匹配的角点为起始点,依次匹配剩余的角点。
参考轮廓与待匹配轮廓的精匹配的具体过程为:以参考轮廓的主角点tM及与之匹配的待匹配轮廓上的角点为起点,在待匹配轮廓上顺序寻找与点列{tM-1,…,t1}和{tM+1,…,tk}相匹配的角点序列,两段点列的匹配误差为参考轮廓与待匹配轮廓之间的精匹配误差,分别记为CostF-和CostF+。如图1(d)所示,粗实线标记的曲线为待匹配轮廓与参考轮廓精匹配的结果。
步骤5、综合考虑粗匹配与精匹配阶段的匹配误差,从众多待匹配轮廓中选取最优的匹配轮廓片段。参考轮廓与待匹配轮廓最终的匹配代价计算如下:
其中,对应匹配代价最小的待匹配轮廓片段即为最优的匹配轮廓片段。
图2为根据本发明的实施例的局部轮廓匹配结果与现有技术的匹配结果的对比图。其中,图2(a)为本发明申请的匹配结果,最左边一列为给定的参考轮廓片段,对于每一个参考轮廓,分别给出其与数据库中所有待匹配轮廓匹配误差最小的10个结果,上面一行为粗匹配阶段的检索结果及对应的匹配误差,下面一行为精匹配结果及对应的匹配误差。图2(b)为MVM模型(L.J.Latecki,V.Megalooikonomou,Q.Wang,D.Yu,An elastic partialshape matching technique,Pattern Recognition 40(11)(2007)3069-3080.)的匹配结果,最左边一列为给定的参考轮廓片段,对于每一个参考轮廓,分别给了出其与数据库中所有待匹配轮廓匹配误差最小的10个结果及对应的匹配误差。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (7)

1.一种基于角点描述的两阶段局部轮廓匹配方法,其特征是,包括以下步骤:
步骤1、对于给定的一个作为参考的局部轮廓及待匹配的完整轮廓,分别计算参考轮廓及待匹配轮廓上各轮廓点处的曲率值,并使用各向异性扩散滤波算法对曲率值进行平滑,提取轮廓上的显著角点;
步骤2、对于每一个参考轮廓上的角点,计算该点到轮廓端点的曲率积分值,选取对应曲率积分值最大的角点为参考轮廓的主角点,并使用角点描述子进行描述;
步骤3、轮廓粗匹配阶段,对于待匹配轮廓上的每一个角点依次进行描述,并计算其描述子与参考轮廓主角点描述子之间的距离,初步确定待匹配轮廓上可能存在的与参考轮廓相匹配的片段;
步骤4、轮廓精匹配阶段,以参考轮廓的主角点和待匹配轮廓上与之匹配的角点为起始点,依次匹配剩余的角点;
步骤5、综合考虑粗匹配与精匹配阶段的匹配误差,从众多待匹配轮廓中选取最优的匹配轮廓片段。
2.根据权利要求1所述的一种基于角点描述的两阶段局部轮廓匹配方法,其特征是,所述步骤1包括以下步骤:
步骤1-1、依次计算轮廓上各点处的曲率值,并使用各向异性滤波算法对曲率值进行平滑;
步骤1-2、按轮廓点的顺序排列平滑后的曲率值,选取对应曲率值为大于零的局部极大值或小于零的局部极小值的轮廓点作为该轮廓的显著角点。
3.根据权利要求1所述的一种基于角点描述的两阶段局部轮廓匹配方法,其特征是,步骤2包括以下步骤:
步骤2-1、对于参考轮廓上的一个角点ti,计算该点到轮廓起始端点和终止端点的曲率积分值如下:
<mrow> <msub> <mover> <mi>I</mi> <mo>&amp;OverBar;</mo> </mover> <mi>i</mi> </msub> <mo>=</mo> <msubsup> <mo>&amp;Integral;</mo> <msub> <mi>q</mi> <mn>1</mn> </msub> <msub> <mi>t</mi> <mi>i</mi> </msub> </msubsup> <mo>|</mo> <msub> <mi>&amp;Psi;</mi> <mi>Q</mi> </msub> <mrow> <mo>(</mo> <mi>s</mi> <mo>)</mo> </mrow> <mo>|</mo> <mi>d</mi> <mi>s</mi> <mo>,</mo> <mrow> <mo>(</mo> <mi>i</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mo>...</mo> <mo>,</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>I</mi> <mi>i</mi> </msub> <mo>=</mo> <msubsup> <mo>&amp;Integral;</mo> <msub> <mi>t</mi> <mi>i</mi> </msub> <msub> <mi>q</mi> <mi>h</mi> </msub> </msubsup> <mo>|</mo> <msub> <mi>&amp;Psi;</mi> <mi>Q</mi> </msub> <mrow> <mo>(</mo> <mi>s</mi> <mo>)</mo> </mrow> <mo>|</mo> <mi>d</mi> <mi>s</mi> <mo>,</mo> <mrow> <mo>(</mo> <mi>i</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mo>...</mo> <mo>,</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow>
其中,q1和qh分别为参考轮廓的起始端点和终止端点,ΨQ(s)为滤波后的轮廓点曲率值,k为参考轮廓上的角点个数;
步骤2-2、选取步骤2-1中较小的曲率积分值作为角点ti对应的曲率积分值对于给定的参考轮廓,可计算得到一组对应所有角点的曲率积分值
步骤2-3、选取对应曲率积分值最大的角点为参考轮廓的主角点:
<mrow> <msub> <mi>t</mi> <mi>M</mi> </msub> <mo>=</mo> <munder> <mrow> <mi>arg</mi> <mi>max</mi> </mrow> <msub> <mi>t</mi> <mi>i</mi> </msub> </munder> <mo>{</mo> <msubsup> <mi>I</mi> <mn>1</mn> <mi>Q</mi> </msubsup> <mo>,</mo> <mo>...</mo> <mo>,</mo> <msubsup> <mi>I</mi> <mi>i</mi> <mi>Q</mi> </msubsup> <mo>,</mo> <mo>...</mo> <mo>,</mo> <msubsup> <mi>I</mi> <mi>k</mi> <mi>Q</mi> </msubsup> <mo>}</mo> </mrow>
<mrow> <msubsup> <mi>I</mi> <mi>M</mi> <mi>Q</mi> </msubsup> <mo>=</mo> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mo>{</mo> <msubsup> <mi>I</mi> <mn>1</mn> <mi>Q</mi> </msubsup> <mo>,</mo> <mo>...</mo> <mo>,</mo> <msubsup> <mi>I</mi> <mi>i</mi> <mi>Q</mi> </msubsup> <mo>,</mo> <mo>...</mo> <mo>,</mo> <msubsup> <mi>I</mi> <mi>k</mi> <mi>Q</mi> </msubsup> <mo>}</mo> </mrow>
其中,tM为选取的参考轮廓的主角点,为其对应的曲率积分值;
步骤2-4、记BM为参考轮廓上所有积分到的轮廓点的点集,OM为以参考轮廓主角点tM为圆心,包含所有BM中轮廓点的最小圆形区域,得到用于描述角点tM的点集:
C(tM)={qj∈OM,j=1,…,h}
其中,h为参考轮廓上的轮廓点个数,qj为第j个参考轮廓点;
步骤2-5、在主角点处建立极坐标系,并利用曲率分布直方图对其进行描述如下:
其中,hi(n)为直方图中第n个元素的值,N为直方图的元素个数,为参考轮廓点qj处的曲率绝对值,bin(n)为直方图第n个元素对应的计算区间。
4.根据权利要求1所述的一种基于角点描述的两阶段局部轮廓匹配方法,其特征是,所述步骤3包括以下步骤:
步骤3-1、对于待匹配轮廓上的一个角点si,以该点为起点,沿轮廓计算曲率累积和,直到满足如下条件:
<mrow> <msubsup> <mo>&amp;Integral;</mo> <msub> <mi>s</mi> <mi>i</mi> </msub> <msub> <mi>p</mi> <mi>e</mi> </msub> </msubsup> <mo>|</mo> <msub> <mi>&amp;Psi;</mi> <mi>A</mi> </msub> <mrow> <mo>(</mo> <mi>s</mi> <mo>)</mo> </mrow> <mo>|</mo> <mi>d</mi> <mi>s</mi> <mo>=</mo> <msubsup> <mi>I</mi> <mi>M</mi> <mi>Q</mi> </msubsup> </mrow>
其中,pe表示满足该条件的终点;
步骤3-2、记为待匹配轮廓上的点集,为以角点si为圆心,包含所有中轮廓点的最小圆形区域,得到用于描述角点si的点集:
<mrow> <mi>C</mi> <mrow> <mo>(</mo> <msub> <mi>s</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mo>{</mo> <msub> <mi>p</mi> <mi>j</mi> </msub> <mo>&amp;Element;</mo> <msubsup> <mi>O</mi> <mi>i</mi> <mi>A</mi> </msubsup> <mo>,</mo> <mi>j</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mo>...</mo> <mo>,</mo> <mi>l</mi> <mo>}</mo> </mrow>
其中,l为待匹配轮廓上的轮廓点个数;
步骤3-3、在角点si处建立极坐标系,并利用曲率分布直方图对其进行描述如下:
计算该描述直方图与参考轮廓角点tM描述直方图的距离,记为两个角点间的匹配误差;
步骤3-4、依次计算待匹配轮廓上各角点与参考轮廓主角点tM间的匹配误差,其中匹配误差最小的点对,即为粗匹配点对,其匹配误差记为粗匹配误差CostC
5.根据权利要求1所述的一种基于角点描述的两阶段局部轮廓匹配方法,其特征是,所述步骤3中,对粗匹配误差设置阈值为0.2~0.3,以快速排除不相关的待匹配轮廓。
6.根据权利要求3或4所述的一种基于角点描述的两阶段局部轮廓匹配方法,其特征是,所述步骤4包括以下步骤:
以参考轮廓的主角点tM及与之匹配的待匹配轮廓上的角点为起点,在待匹配轮廓上顺序寻找与点列{tM-1,…,t1}和{tM+1,…,tk}相匹配的角点序列,两段点列的匹配误差为参考轮廓与待匹配轮廓之间的精匹配误差,分别记为CostF-和CostF+
7.根据权利要求6所述的一种基于角点描述的两阶段局部轮廓匹配方法,其特征是,所述步骤5包括以下步骤:
参考轮廓与待匹配轮廓最终的匹配代价计算如下:
<mrow> <msub> <mi>Cost</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>m</mi> </mrow> </msub> <mo>=</mo> <msub> <mi>Cost</mi> <mi>C</mi> </msub> <mo>+</mo> <mfrac> <mrow> <msub> <mi>Cost</mi> <mrow> <mi>F</mi> <mo>-</mo> </mrow> </msub> <mo>+</mo> <msub> <mi>Cost</mi> <mrow> <mi>F</mi> <mo>+</mo> </mrow> </msub> </mrow> <mrow> <mi>k</mi> <mo>-</mo> <mn>1</mn> </mrow> </mfrac> </mrow>
其中,对应匹配代价最小的待匹配轮廓片段即为最优的匹配轮廓片段。
CN201710631123.9A 2017-07-28 2017-07-28 一种基于角点描述的两阶段局部轮廓匹配方法 Active CN107437097B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710631123.9A CN107437097B (zh) 2017-07-28 2017-07-28 一种基于角点描述的两阶段局部轮廓匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710631123.9A CN107437097B (zh) 2017-07-28 2017-07-28 一种基于角点描述的两阶段局部轮廓匹配方法

Publications (2)

Publication Number Publication Date
CN107437097A true CN107437097A (zh) 2017-12-05
CN107437097B CN107437097B (zh) 2020-06-09

Family

ID=60460212

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710631123.9A Active CN107437097B (zh) 2017-07-28 2017-07-28 一种基于角点描述的两阶段局部轮廓匹配方法

Country Status (1)

Country Link
CN (1) CN107437097B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113095385A (zh) * 2021-03-31 2021-07-09 安徽工业大学 一种基于全局和局部特征描述的多模图像匹配方法
CN113805160A (zh) * 2021-08-04 2021-12-17 杭州电子科技大学 基于曲率和的主动声呐干涉条纹特征提取方法
CN113805160B (zh) * 2021-08-04 2024-05-28 杭州电子科技大学 基于曲率和的主动声呐干涉条纹特征提取方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102968785A (zh) * 2012-10-18 2013-03-13 华中科技大学 一种基于多核dsp的高速并行图像匹配方法
CN103345628A (zh) * 2013-07-29 2013-10-09 苏州大学 基于分层描述的目标识别和形状检索方法
CN104915949A (zh) * 2015-04-08 2015-09-16 华中科技大学 一种结合点特征和线特征的图像匹配算法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102968785A (zh) * 2012-10-18 2013-03-13 华中科技大学 一种基于多核dsp的高速并行图像匹配方法
CN103345628A (zh) * 2013-07-29 2013-10-09 苏州大学 基于分层描述的目标识别和形状检索方法
CN104915949A (zh) * 2015-04-08 2015-09-16 华中科技大学 一种结合点特征和线特征的图像匹配算法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
GLAUCO V. PEDROSA ET AL: "Image feature descripto r based on shape salience points", 《NEUROCOMPUTING》 *
GLAUCO V. PEDROSA: "Anisotropic diffusion for effective shape corner point detection", 《PATTERN RECOGNITION LETTERS》 *
SALIHA BOUAGAR · SLIMANE LARABI: "Efficient descriptor for full and partial shape matching", 《MULTIMED TOOLS APPL》 *
XIN SHU: "A novel contour descriptor for 2D shape matching and its application to image retrieval", 《IMAGE AND VISION COMPUTING》 *
孙惠英: "基于直接曲率尺度空间的曲率积的角点检测", 《电脑知识与技术》 *
曾喆等: "曲率积分约束的GPS浮动车地图匹配方法", 《测绘学报》 *
李畅: "基于曲率乘积的直接曲率尺度空间角点检测", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113095385A (zh) * 2021-03-31 2021-07-09 安徽工业大学 一种基于全局和局部特征描述的多模图像匹配方法
CN113095385B (zh) * 2021-03-31 2023-04-18 安徽工业大学 一种基于全局和局部特征描述的多模图像匹配方法
CN113805160A (zh) * 2021-08-04 2021-12-17 杭州电子科技大学 基于曲率和的主动声呐干涉条纹特征提取方法
CN113805160B (zh) * 2021-08-04 2024-05-28 杭州电子科技大学 基于曲率和的主动声呐干涉条纹特征提取方法

Also Published As

Publication number Publication date
CN107437097B (zh) 2020-06-09

Similar Documents

Publication Publication Date Title
CN109800648B (zh) 基于人脸关键点校正的人脸检测识别方法及装置
CN107316031B (zh) 用于行人重识别的图像特征提取方法
CN103425988B (zh) 一种具有圆弧几何基元的实时定位与匹配方法
Pan et al. Palm vein recognition based on three local invariant feature extraction algorithms
CN106991370B (zh) 基于颜色和深度的行人检索方法
CN108918526A (zh) 一种柔性ic封装基板线路的缺口缺陷检测方法
CN110598692B (zh) 一种基于深度学习的椭圆识别方法
CN109903313A (zh) 一种基于目标三维模型的实时位姿跟踪方法
CN103729631B (zh) 一种基于视觉的连接器表面特征自动识别方法
CN102708364B (zh) 基于分级分类器的指纹图像分类方法
CN101131728A (zh) 一种基于Shape Context的人脸形状匹配方法
CN101964060B (zh) 基于局部纹理特征的sar变体目标识别方法
CN107944354B (zh) 一种基于深度学习的车辆检测方法
CN109711418A (zh) 一种针对物体平面图像的轮廓角点检测方法
CN103778436A (zh) 一种基于图像处理的行人姿态检测方法
CN106936964A (zh) 一种基于霍夫变换模板匹配的手机屏幕角点检测方法
CN105488486A (zh) 防止照片攻击的人脸识别方法及装置
CN114120378A (zh) 一种三级分类指纹识别方法
CN108205645A (zh) 一种异源图像匹配系统的基准图质量评价方法
CN103886296A (zh) 基于反馈的指纹识别方法及装置
CN114898412A (zh) 一种针对低质量指纹、残缺指纹的识别方法
Barroso-Laguna et al. Scalenet: A shallow architecture for scale estimation
CN114333023A (zh) 基于角度估计的人脸步态多模态加权融合身份识别方法与系统
CN107437097A (zh) 一种基于角点描述的两阶段局部轮廓匹配方法
CN113723188A (zh) 一种结合人脸与步态特征的着装一致人员身份核验方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant