CN104156952B - 一种抵抗形变的图像匹配方法 - Google Patents

一种抵抗形变的图像匹配方法 Download PDF

Info

Publication number
CN104156952B
CN104156952B CN201410373199.2A CN201410373199A CN104156952B CN 104156952 B CN104156952 B CN 104156952B CN 201410373199 A CN201410373199 A CN 201410373199A CN 104156952 B CN104156952 B CN 104156952B
Authority
CN
China
Prior art keywords
mrow
msub
sampled
mtd
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410373199.2A
Other languages
English (en)
Other versions
CN104156952A (zh
Inventor
王亮
黄永祯
曹迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201410373199.2A priority Critical patent/CN104156952B/zh
Publication of CN104156952A publication Critical patent/CN104156952A/zh
Application granted granted Critical
Publication of CN104156952B publication Critical patent/CN104156952B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种抵抗形变的图像匹配方法,该方法包括以下步骤:步骤1:对两幅输入图像分别进行二值化处理,从中确定参考图像与待匹配图像,对于参考图像与待匹配图像,利用不同的采样间距进行采样,得到相应的多个采样点;步骤2:从待匹配图像的采样点中依次确定每个参考图像采样点的K1个候选对应点;步骤3:从参考图像中每个采样点的K1个候选对应点中确定K2个更为精细的候选对应点,其中,K2<K1;步骤4:运用偏移量准则,从参考图像中每个采样点的K2个候选对应点中确定一个精确的对应点。本发明运用了图像的全局信息,同时充分利用形变图像的局部特征并结合偏移量准则逐级缩小范围,对于各种形变图像表现出很好的匹配效果。

Description

一种抵抗形变的图像匹配方法
技术领域
本发明涉及图像处理和计算机视觉技术领域,特别涉及一种抵抗形变的图像匹配(Deformation Invariant Image Matching)方法。
背景技术
寻找形状之间的对应关系是图像处理和计算机视觉领域中的一个基本问题,从机器人到医疗成像都具有广泛的应用。非仿射形变的出现是一项极具挑战的图像扰动因素。透视投影下的视角变化或者形变物体的各类变化都能够引起非仿射形变。很长一段时间以来,人们都在努力探索此类形变不变量的表示方式,并试图将其用于检测、识别、跟踪等实际问题中。
在大量相关研究中都使用到了内蕴几何(intrinsic geometry)这一概念。内蕴几何是在非刚性弯曲和其他类型的变换下保持不变的几何结构的统称。在F.Mémoli、A.Elad、N.Thorstensen等人以及后续的研究中,提出使用内蕴度量的失真来衡量对应关系。在几何条件下,严格找出一个具有最小失真的对应关系并将其转化为一个优化问题。一些特别有用的最小失真对应问题还可以被简化为二次分配问题(QAP),但是,二次分配问题的组合性质使得这类问题面临计算量的挑战。
现有的大多数图像匹配方法都是寻找能够抵抗旋转、平移等因素的图像描述子,例如SIFT(Scale-Invariant Feature Transform)、GLOH(Geodesic Location andOrientation Histogram)、shape context和geometric filter等。为了解决一般性的形变问题,Ling提出了一种抵抗形变的图像描述子GIH(Geodesic Intensity Histogram)并取得了较好的效果,但是它存在两个缺陷。首先,它假定沿不同方向的形变都是各向同性的,而这个假设在实际应用中通常都无法满足;其次,形变不变量的获得以降低区分力为代价,所获得的特征基本上失去了支撑区域内所有的方向信息。
总体来看,目前现有的方法存在计算量大、局部区分力不强、不能完全适应实际问题的需要等问题。所以,有必要研究一种方法,可以有效地处理形变问题,实现形变图像的高准确率匹配。
发明内容
本发明的目的在于提出一种适用于形变图像的匹配方法,解决同时满足有效、准确、区分力强三个要求的技术问题。
为实现上述目的,本发明提出了一种抵抗形变的图像匹配方法,该方法包括以下步骤:
步骤1:对两幅输入图像分别进行二值化处理,并从中确定参考图像与待匹配图像,对于所述参考图像与待匹配图像,利用不同的采样间距进行采样,得到相应的多个采样点;
步骤2:从待匹配图像的采样点中依次确定每个参考图像采样点的K1个候选对应点;
步骤3:从所述参考图像中每个采样点的K1个候选对应点中确定K2个更为精细的候选对应点,其中,K2<K1
步骤4:运用偏移量准则,从所述参考图像中每个采样点的K2个候选对应点中确定一个精确的对应点,完成图像的匹配。
本发明所提出的抵抗形变的图像匹配方法,不仅运用了图像的全局信息,同时充分利用形变图像的局部特征并结合偏移量准则逐级缩小范围,算法中还对局部平移的情况做了相应处理,所以对各种形变图像表现出很好的匹配效果。
附图说明
图1是本发明抵抗形变的图像匹配方法的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
图1为本发明抵抗形变的图像匹配方法的流程图,如图1所示,该方法包括以下步骤:
步骤1:对两幅输入图像分别进行二值化处理,并从中确定参考图像与待匹配图像,对于所述参考图像与待匹配图像,利用不同的采样间距进行采样,得到相应的多个采样点;
步骤2:从待匹配图像的采样点中依次确定每个参考图像采样点的K1个候选对应点;
步骤3:从所述参考图像中每个采样点的K1个候选对应点中确定K2个更为精细的候选对应点,其中,K2<K1
步骤4:运用偏移量准则,从所述参考图像中每个采样点的K2个候选对应点中确定一个精确的对应点,从而完成图像的匹配。
下面对于本发明技术方案中所涉及的各个步骤进行详细说明。
所述步骤1进一步包括以下步骤:
步骤1a:采用OSTU算法对于输入图像进行二值化处理,得到相应的二值化图像;
步骤1b:将两幅二值化图像分别确定为参考图像和待匹配图像;
步骤1c:对于所述参考图像,分别以采样间距d1和d2进行采样,对于所述待匹配图像,分别以采样间距d1和d3进行采样,其中,d1<d3<d2,为了方便说明,分别称之为d1-采样点、d2-采样点和d3-采样点,在本发明一实施例中,d1取为4,d2取为18,d3取为12。
所述步骤2进一步包括以下步骤:
步骤2a:分别以所述参考图像中的d2-采样点和待匹配图像中的d3-采样点为圆心,以R为半径建立圆形区域;
步骤2b:针对每个圆形区域生成对数极坐标直方图;
所述步骤2b包括以下步骤:
步骤2b1,把logR和圆形区域的圆周角度分别等分为h区间和l区间,即把所述圆形区域共分为h*l个区间;
在本发明一实施例中,h取为5,l取为12,这样,圆形区域就被分为60个区间。
步骤2b2,在每个区间内统计像素点的个数并生成直方图;
以某一采样点pi为例,以其为圆心的圆形区域中的第k个区间上的直方图表示为:
hi(k)=#{q≠pi:(q-pi)∈bin(k)},
其中,#{.}表示计算其中的元素个数,q代表图像上的另一像素点,运算符“:”表示#{.}针对的对象为同时满足“:”左右两边规定的像素点,bin(k)表示第k个区间。
步骤2b3,对于得到的直方图进行归一化处理,得到该圆形区域对应的对数极坐标直方图。
步骤2c:将所述参考图像中每个d2-采样点的直方图依次与待匹配图像中所有d3-采样点的直方图进行匹配,从待匹配图像的d3-采样点中选出K1个候选对应点。
所述步骤2c包括以下步骤:
步骤2c1,利用下式对于参考图像中的第i个d2-采样点与待匹配图像中的第j个d3-采样点的直方图进行匹配性度量:
其中,C(pi,qj)表示采样点pi与采样点qj之间的匹配性,hi(k)和hj(k)分别代表采样点pi和采样点qj处第k个区间的对数极坐标直方图,K表示区间个数。
步骤2c2,针对参考图像中的每个d2-采样点,对于其对应的匹配度量结果按照从大到小的顺序进行排序,从待匹配图像的d3-采样点中选出前K1个点作为其候选对应点。
所述步骤3进一步包括以下步骤:
步骤3a:分别以参考图像中d2-采样点和相应的K1个候选对应点为圆心,以Rs为半径建立圆形区域,其中,Rs<R;
步骤3b:提取圆形区域内表征物体的d1-采样点,并根据其距离每个圆心的距离建立距离矩阵;
步骤3c:对于得到的距离矩阵进行归一化,并依次运用EMD判断距离矩阵之间的相似性;
所述步骤3c包括以下步骤:
步骤3c1,对参考图像中任一d2-采样点对应的距离矩阵P和其任一候选对应点对应的距离矩阵Q进行归一化,其中,P、Q均为大小为m×n的矩阵:
P={pij:(i,j)∈Γ},Q={qij:(i,j)∈Γ},
其中,Γ={(i,j):1≤i≤m,1≤j≤n},(i,j)表示一个节点。
步骤3c2,运用EMD判断距离矩阵P、Q之间的相似性:
其中,EMD-L1(P,Q)表示距离矩阵P、Q之间的相似性,L1表示曼哈顿距离,即di,j;k,l=|i-k|+|j-l|,G表示从距离矩阵P到Q的一种可行的转换方式,gi,j;k,l表示从矩阵元素(i,j)转换到矩阵元素(k,l),bij=pij-qij为距离矩阵P、Q在(i,j)处的差异程度,J1={(i,j,k,l):(i,j,k,l)∈J,di,j;k,l=1}表示相邻节点之间的转换,其中,J={(i,j,k,l):(i,j)∈Γ,(k,l)∈Γ}。
步骤3d:对每个采样点和相应候选对应点对应的距离矩阵之间的相似性进行排序,从K1个候选对应点中选取前K2个点作为更为精细的候选对应点,其中K2<K1
所述步骤4进一步包括以下步骤:
步骤4a:以所述参考图像中的每个d2-采样点为中心,并以间隔八个采样点的方式,依次确定中心采样点邻域(比如四邻域或八邻域)中的d2-采样点,并将中心采样点及其邻域中的d2-采样点视为同一组数据;
步骤4b:针对每组采样点,依次计算组内每个采样点与各自相应的各候选对应点之间的偏移量,得到大小为K2×2的偏移量矩阵M;
以中心采样点为例,偏移量矩阵的计算方式如下:
其中,(xi,yi)(i=1,···,K2)表示各候选对应点的坐标,(xc,yc)表示中心采样点的坐标。
步骤4c:针对每组采样点,依次计算中心采样点对应的偏移量矩阵与各个邻域采样点偏移量矩阵各行向量之差,得到差值矩阵Md,按照差值的大小顺序对中心采样点的候选对应点进行排序,如果差值相等,则计算偏移量模值之和并依此进行再次排序,记录差值最小的前两个候选对应点;
所述步骤4c包括以下步骤:
步骤4c1:将中心采样点对应的偏移量矩阵依次减去邻域采样点对应的偏移量矩阵的各个行向量,得到K2个差值矩阵,即:
其中,pj(j=1,…,K2)表示中心采样点偏移量矩阵中的第j个行向量,qi表示邻域采样点偏移量矩阵中的第i个行向量。
步骤4c2:对每个差值矩阵按照从小到大的顺序进行排序,如果差值相等,则计算偏移量模值之和,即:|pj|+|qi|(i,j=1,…,K2),并以此排序,记录前两位所对应的候选对应点。
步骤4d:针对每组采样点,根据记录结果,统计中心采样点各候选对应点出现的次数,将出现次数最多的点作为中心采样点的对应点。
根据上述技术方案,本发明不再局限于特定形变的假设条件,结合形变图像的全局与局部信息,逐步缩小范围,克服一般性形变对于图像匹配带来的影响。同时,偏移量准则能够很好的解决局部平移问题,对对应点做出较为准确的定位,从而增强了局部的区分力。因此,本发明用较小的计算代价,实现了抵抗形变的图像匹配。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种抵抗形变的图像匹配方法,其特征在于,该方法包括以下步骤:
步骤1:对两幅输入图像分别进行二值化处理,并从中确定参考图像与待匹配图像,对于所述参考图像与待匹配图像,利用不同的采样间距进行采样,得到相应的多个采样点;
步骤2:从待匹配图像的采样点中依次确定每个参考图像采样点的K1个候选对应点;
步骤3:从所述参考图像中每个采样点的K1个候选对应点中确定K2个更为精细的候选对应点,其中,K2<K1
步骤4:运用偏移量准则,从所述参考图像中每个采样点的K2个候选对应点中确定一个精确的对应点,完成图像的匹配;
所述步骤1进一步包括以下步骤:
步骤1a:采用OSTU算法对于输入图像进行二值化处理,得到相应的二值化图像;
步骤1b:将两幅二值化图像分别确定为参考图像和待匹配图像;
步骤1c:对于所述参考图像,分别以采样间距d1和d2进行采样,对于所述待匹配图像,分别以采样间距d1和d3进行采样,其中,d1<d3<d2,得到d1-采样点、d2-采样点和d3-采样点;
所述步骤2进一步包括以下步骤:
步骤2a:分别以所述参考图像中的d2-采样点和待匹配图像中的d3-采样点为圆心,以R为半径建立圆形区域;
步骤2b:针对每个圆形区域生成对数极坐标直方图;
步骤2c:将所述参考图像中每个d2-采样点的直方图依次与待匹配图像中所有d3-采样点的直方图进行匹配,从待匹配图像的d3-采样点中选出K1个候选对应点;
所述步骤3进一步包括以下步骤:
步骤3a:分别以参考图像中d2-采样点和相应的K1个候选对应点为圆心,以Rs为半径建立圆形区域,其中,Rs<R;
步骤3b:提取圆形区域内表征物体的d1-采样点,并根据其距离每个圆心的距离建立距离矩阵;
步骤3c:对于得到的距离矩阵进行归一化,并依次运用EMD判断距离矩阵之间的相似性;
步骤3d:对每个采样点和相应候选对应点对应的距离矩阵之间的相似性进行排序,从K1个候选对应点中选取前K2个点作为更为精细的候选对应点,其中K2<K1
2.根据权利要求1所述的方法,其特征在于,所述步骤2b包括以下步骤:
步骤2b1,把logR和圆形区域的圆周角度分别等分为h区间和l区间,即把所述圆形区域共分为h*l个区间;
步骤2b2,在每个区间内统计像素点的个数并生成直方图;
步骤2b3,对得到的直方图进行归一化处理,得到该圆形区域对应的对数极坐标直方图。
3.根据权利要求1所述的方法,其特征在于,对于某一采样点pi,以其为圆心的圆形区域中的第k个区间上的直方图表示为:
hi(k)=#{q≠pi:(q-pi)∈bin(k)},
其中,#{.}表示计算其中的元素个数,q代表图像上的另一像素点,运算符“:”表示#{.}针对的对象为同时满足“:”左右两边规定的像素点,bin(k)表示第k个区间。
4.根据权利要求1所述的方法,其特征在于,所述步骤2c包括以下步骤:
步骤2c1,利用下式对于参考图像中的第i个d2-采样点与待匹配图像中的第j个d3-采样点的直方图进行匹配性度量:
<mrow> <msub> <mi>C</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>&amp;equiv;</mo> <mi>C</mi> <mrow> <mo>(</mo> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>q</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <mfrac> <msup> <mrow> <mo>&amp;lsqb;</mo> <msub> <mi>h</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>h</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mn>2</mn> </msup> <mrow> <msub> <mi>h</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>h</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>,</mo> </mrow>
其中,C(pi,qj)表示采样点pi与采样点qj之间的匹配性,hi(k)和hj(k)分别代表采样点pi和采样点qj处第k个区间的对数极坐标直方图,K表示区间个数;
步骤2c2,针对参考图像中的每个d2-采样点,对于其对应的匹配度量结果按照从大到小的顺序进行排序,从待匹配图像的d3-采样点中选出前K1个点作为其候选对应点。
5.根据权利要求1所述的方法,其特征在于,所述步骤3c包括以下步骤:
步骤3c1,对参考图像中任一d2-采样点对应的距离矩阵P和其任一候选对应点对应的距离矩阵Q进行归一化,其中,P、Q均为大小为m×n的矩阵:
P={pij:(i,j)∈Γ},Q={qij:(i,j)∈Γ},
其中,Γ={(i,j):1≤i≤m,1≤j≤n},(i,j)表示一个节点;
步骤3c2,运用EMD判断距离矩阵P、Q之间的相似性:
<mrow> <mi>E</mi> <mi>M</mi> <mi>D</mi> <mo>-</mo> <msub> <mi>L</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <mi>P</mi> <mo>,</mo> <mi>Q</mi> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mrow> <mi>G</mi> <mo>=</mo> <mo>{</mo> <msub> <mi>g</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>;</mo> <mi>k</mi> <mo>,</mo> <mi>l</mi> </mrow> </msub> <mo>:</mo> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>,</mo> <mi>k</mi> <mo>,</mo> <mi>l</mi> <mo>)</mo> </mrow> <mo>&amp;Element;</mo> <msub> <mi>J</mi> <mn>1</mn> </msub> <mo>}</mo> </mrow> </munder> <munder> <mo>&amp;Sigma;</mo> <msub> <mi>J</mi> <mn>1</mn> </msub> </munder> <msub> <mi>g</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>;</mo> <mi>k</mi> <mo>,</mo> <mi>l</mi> </mrow> </msub> <mo>,</mo> </mrow>
<mfenced open = "" close = ""> <mtable> <mtr> <mtd> <mrow> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> </mrow> </mtd> <mtd> <mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>,</mo> <mi>l</mi> <mo>:</mo> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>,</mo> <mi>k</mi> <mo>,</mo> <mi>l</mi> <mo>)</mo> </mrow> <mo>&amp;Element;</mo> <msub> <mi>J</mi> <mn>1</mn> </msub> </mrow> </msub> <mrow> <mo>(</mo> <msub> <mi>g</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>;</mo> <mi>k</mi> <mo>,</mo> <mi>l</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>g</mi> <mrow> <mi>k</mi> <mo>,</mo> <mi>l</mi> <mo>;</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>b</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> </mrow> </mtd> <mtd> <mrow> <mo>&amp;ForAll;</mo> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&amp;Element;</mo> <mi>&amp;Gamma;</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>g</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>;</mo> <mi>k</mi> <mo>,</mo> <mi>l</mi> </mrow> </msub> <mo>&amp;GreaterEqual;</mo> <mn>0</mn> </mrow> </mtd> <mtd> <mrow> <mo>&amp;ForAll;</mo> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>,</mo> <mi>k</mi> <mo>,</mo> <mi>l</mi> <mo>)</mo> </mrow> <mo>&amp;Element;</mo> <msub> <mi>J</mi> <mn>1</mn> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> </mrow> </mtd> </mtr> </mtable> </mfenced>
其中,EMD-L1(P,Q)表示距离矩阵P、Q之间的相似性,L1表示曼哈顿距离,G表示从距离矩阵P到Q的一种可行的转换方式,gi,j;k,l表示从矩阵元素(i,j)转换到矩阵元素(k,l),bij=pij-qij为距离矩阵P、Q在(i,j)处的差异程度,J1={(i,j,k,l):(i,j,k,l)∈J,di,j;k,l=1}表示相邻节点之间的转换,其中,J={(i,j,k,l):(i,j)∈Γ,(k,l)∈Γ}。
6.根据权利要求1所述的方法,其特征在于,所述步骤4进一步包括以下步骤:
步骤4a:以所述参考图像中的每个d2-采样点为中心,并以间隔八个采样点的方式,依次确定中心采样点邻域中的d2-采样点,并将中心采样点及其邻域中的d2-采样点视为同一组数据;
步骤4b:针对每组采样点,依次计算组内每个采样点与各自相应的各候选对应点之间的偏移量,得到大小为K2×2的偏移量矩阵M;
步骤4c:针对每组采样点,依次计算中心采样点对应的偏移量矩阵与各个邻域采样点偏移量矩阵各行向量之差,得到差值矩阵Md,按照差值的大小顺序对中心采样点的候选对应点进行排序,如果差值相等,则计算偏移量模值之和并依此进行再次排序,记录差值最小的前两个候选对应点;
步骤4d:针对每组采样点,根据记录结果,统计中心采样点各候选对应点出现的次数,将出现次数最多的点作为中心采样点的对应点。
7.根据权利要求6所述的方法,其特征在于,所述步骤4c包括以下步骤:
步骤4c1:将中心采样点对应的偏移量矩阵依次减去邻域采样点对应的偏移量矩阵的各个行向量,得到K2个差值矩阵,即:
<mrow> <msub> <mi>Md</mi> <mi>i</mi> </msub> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <msub> <mi>p</mi> <mn>1</mn> </msub> <mo>-</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>p</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>p</mi> <msub> <mi>K</mi> <mn>2</mn> </msub> </msub> <mo>-</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>
步骤4c2:对每个差值矩阵按照从小到大的顺序进行排序,如果差值相等,则计算偏移量模值之和,即:|pj|+|qi|,i,j=1,…,K2,并以此排序,记录前两位所对应的候选对应点;其中,pj表示中心采样点偏移量矩阵中的第j个行向量;qi表示邻域采样点偏移量矩阵中的第i个行向量。
CN201410373199.2A 2014-07-31 2014-07-31 一种抵抗形变的图像匹配方法 Active CN104156952B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410373199.2A CN104156952B (zh) 2014-07-31 2014-07-31 一种抵抗形变的图像匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410373199.2A CN104156952B (zh) 2014-07-31 2014-07-31 一种抵抗形变的图像匹配方法

Publications (2)

Publication Number Publication Date
CN104156952A CN104156952A (zh) 2014-11-19
CN104156952B true CN104156952B (zh) 2017-11-14

Family

ID=51882442

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410373199.2A Active CN104156952B (zh) 2014-07-31 2014-07-31 一种抵抗形变的图像匹配方法

Country Status (1)

Country Link
CN (1) CN104156952B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105354578B (zh) * 2015-10-27 2019-05-21 安徽大学 一种多目标物体图像匹配方法
CN110941989A (zh) * 2019-10-18 2020-03-31 北京达佳互联信息技术有限公司 图像校验、视频校验方法、装置、设备及存储介质
CN113239222B (zh) * 2021-01-19 2023-10-31 佳木斯大学 一种基于图像信息提取与改进emd距离的图像检索方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101131728A (zh) * 2007-09-29 2008-02-27 东华大学 一种基于Shape Context的人脸形状匹配方法
CN103679200A (zh) * 2013-12-14 2014-03-26 复旦大学 一种用于图像匹配、识别、检索的频域形状描述方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101182683B1 (ko) * 2011-02-16 2012-09-17 인하대학교 산학협력단 시각적 형상 디스크립터 생성 방법 및 그 기록매체

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101131728A (zh) * 2007-09-29 2008-02-27 东华大学 一种基于Shape Context的人脸形状匹配方法
CN103679200A (zh) * 2013-12-14 2014-03-26 复旦大学 一种用于图像匹配、识别、检索的频域形状描述方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于H_EMD的形状上下文特征形状匹配方法;郑丹晨 等;《控制与决策》;20121130;第27卷(第11期);第1639-1643页 *
基于改进典型形状上下文特征的形状识别方法;郑丹晨 等;《计算机辅助设计与图形学学报》;20130228;第25卷(第2期);第215-220页 *

Also Published As

Publication number Publication date
CN104156952A (zh) 2014-11-19

Similar Documents

Publication Publication Date Title
CN105957015B (zh) 一种螺纹桶内壁图像360度全景拼接方法及系统
CN110490913B (zh) 基于角点与单线段编组的特征描述算子进行影像匹配方法
CN113012208B (zh) 多视角遥感图像配准方法及系统
CN108596867A (zh) 一种基于orb算法的图片校正方法及系统
Chiang et al. Development of a stereo vision measurement system for a 3D three-axial pneumatic parallel mechanism robot arm
CN107767339B (zh) 一种双目立体图像拼接方法
CN107953329A (zh) 物体识别和姿态估计方法、装置及机械臂抓取系统
CN113012234B (zh) 基于平面变换的高精度相机标定方法
CN106447601A (zh) 一种基于投影‑相似变换的无人机遥感影像拼接方法
CN106709870B (zh) 一种近景影像直线段匹配方法
CN107154017A (zh) 一种基于sift特征点匹配的图像拼接方法
CN102446356A (zh) 一种获取均匀分布匹配点的遥感影像并行自适应匹配方法
CN104156952B (zh) 一种抵抗形变的图像匹配方法
CN108961385A (zh) 一种slam构图方法及装置
CN112652020A (zh) 一种基于AdaLAM算法的视觉SLAM方法
CN114170450A (zh) 一种基于区域一致性和gms的图像特征匹配方法
CN112418250B (zh) 一种复杂3d点云的优化匹配方法
Li et al. Scale-invariant localization of electric vehicle charging port via semi-global matching of binocular images
CN104104911B (zh) 全景图像生成过程中的时间戳消除和重置方法及系统
Kang et al. Robust cylindrical panorama stitching for low-texture scenes based on image alignment using deep learning and iterative optimization
CN107424194A (zh) 键盘轮廓度的检测方法
CN109740405B (zh) 一种非对齐相似车辆前窗差异信息检测方法
JP2008224641A (ja) カメラ姿勢推定システム
CN116630662A (zh) 一种应用于视觉slam的特征点误匹配剔除方法
Yan et al. Focal length estimation guided with object distribution on FocaLens dataset

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant