CN102750691A - 基于角点对cs距离匹配的图像配准方法 - Google Patents

基于角点对cs距离匹配的图像配准方法 Download PDF

Info

Publication number
CN102750691A
CN102750691A CN2012101712930A CN201210171293A CN102750691A CN 102750691 A CN102750691 A CN 102750691A CN 2012101712930 A CN2012101712930 A CN 2012101712930A CN 201210171293 A CN201210171293 A CN 201210171293A CN 102750691 A CN102750691 A CN 102750691A
Authority
CN
China
Prior art keywords
angle point
image
pixel
characteristic
undetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012101712930A
Other languages
English (en)
Other versions
CN102750691B (zh
Inventor
葛永新
杨丹
杨梦宁
张小洪
洪明坚
徐玲
胡海波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Mihong Technology Co ltd
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN201210171293.0A priority Critical patent/CN102750691B/zh
Publication of CN102750691A publication Critical patent/CN102750691A/zh
Application granted granted Critical
Publication of CN102750691B publication Critical patent/CN102750691B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供了一种基于角点对CS距离匹配的图像配准方法,该方法在Harris角点检测算法的基础上进一步进行了角点重定位处理,使得由Harris角点检测算法存在的角点位置偏移得到重定位纠正,并且剔除了伪角点,将经过重定位处理后的角点认定为特征角点,因此进一步提高了提取特征角点的准确性,并且采用了两个特征角点之间的CS距离(即Corner Cauchy-Schwarz Divergence,简称为CCSD)来度量识别两幅图像中相匹配的特征角点对,不仅保证了良好的旋转不变性,还是得计算量得以大幅简化,进而帮助图像配准的准确性得以提升,图像配准的处理效率也得到了提高。

Description

基于角点对CS距离匹配的图像配准方法
技术领域
本发明属于图像处理技术领域,尤其涉及一种基于角点对CS距离匹配的图像配准方法。
背景技术
图像配准(Image Registration),是指将不同时间、不同成像设备或不同条件下(例如天候、照度、摄像位置、角度等条件)获取的两幅图像进行匹配、叠加的过程。现有技术中常用的图像配准方法可分为基于灰度匹配的图像配准方法和基于特征匹配的图像配准方法。基于灰度匹配的图像配准方法计算复杂度较高,对图像的灰度、旋转、形变以及遮挡都比较敏感,实现难度较大,很难获得到比较理想的配准效果;而基于特征匹配的图像配准方法可以克服这些缺点,从而在图像配准技术领域得到了广泛应用。基于特征匹配的图像配准方法的主要处理流程如下:首先对两幅图像进行特征提取得到特征点;然后通过进行相似性度量识别出两幅图像中相匹配的特征点对;最后通过所述相匹配的特征点对得到两幅图像之间的空间坐标变换参数,按照空间坐标变换参数对其中一幅图像进行图像坐标变换,使得两幅图像相匹配的特征点对相互重叠,完成两幅图像的配准叠加处理。
在基于特征匹配的图像配准方法中,特征提取是影响图像配准是否准确的关键,准确的提取特征点为特征对匹配的成功进行提供了保障,能够带来更加准确的图像配准结果;因此,寻求具有良好不变性和准确性的特征提取方法,对于匹配精度至关重要。角点作为图像的一个重要的局部特征,在保留了图像中物体重要特征信息的同时有效地减少了信息的数据量,成为图像理解和模式识别中重要的图像特征,也非常适合作为图像配准方法中的特征点,因此近年来涌现了很多以角点作为特征点来实现图像配准的方法,提取角点的准确性则成为影响图像配准准确性的关键。徐玮等人(参见文献“徐玮,王炜,张茂军,吴玲达.一种基于角点匹配的视图合成方法[J],系统仿真学报,2007,19(14):3263-3265.XU Wei,WANG Wei,ZHANG Mao-jun and WU Ling-da.Corner matching-based approach ofview synthesis[J],Journal of system simulation,2007,19(14):3263-3265.”)利用SUSAN算子分别提取两幅图像的角点来实现基于角点匹配的视图合成方法,但是SUSAN算子只采用固定阈值,并且存在定位不够精确等问题。付朝霞等人(参见文献“付朝霞,韩焱,咎波.基于角点检测的图像镶嵌算法[J],光电工程,2007,30(5):126-130.FU Zhao-xia,HANYan,ZAN Bo.Method of image mosaic based on corner detection[J],Opto-ElectronicEngineering,2007,30(5):126-130.”)和刘贵喜等人(参见文献“刘贵喜,王雷.基于区域选择和特征点匹配的图像配准算法[J],光电子·激光,2007,8:999-1002.LIU Gui-xi,WANGLei.An image registration method based on region selecting and feature points matching[J],Journal of Optoelectronics·Laser,2007,8:999-1002.”)提出了基于Harris角点检测的图像配准算法,其角点提取采用了Harris角点检测算法,Harris角点检测算法(参见文献“C.Harris and M.J.Stephens.A combined corner and edge detector[C].In Alvey Vision Conference,1988:147–152.”)是应用最广泛的一种角点检测算法,具有较好的角点检测效果,但它是在单尺度下对图像进行角点检测,而实际图像中角点常常发生在不同的尺度范围上,并且每一角点的尺度信息是未知的,因此Harris角点检测算法依然存在角点信息丢失、角点位置偏移和易受噪声影响而提取出伪角点等问题,使得其提取角点的准确性依然不太高,进而影响到图像配准的准确性。
另一个方面,在基于特征匹配的图像配准方法中,确认两幅图像中相匹配的特征点对的算法也是影响图像配准是否准确的重要因素,而且还关系到图像配准的处理效率。现有技术中以角点作为特征点的图像配准方法中,朝霞等人(参见文献“付朝霞,韩焱,咎波.基于角点检测的图像镶嵌算法[J],光电工程,2007,30(5):126-130.FU Zhao-xia,HANYan,ZAN Bo.Method of image mosaic based on corner detection[J],Opto-ElectronicEngineering,2007,30(5):126-130.”)使用互相关准则来得到相匹配的角点对,但由于互相关算法受两幅图像灰度差异的影响较大,原本相匹配的角点对若在各自的图像中存在较大的灰度差异将导致该角点对的互相关值降低,或者原本不相匹配的两个角点因灰度差异而具有相对较高的互相关值导致被误识别为相匹配的角点对,从而影响相匹配的角点对的识别准确性。徐玮等人(参见文献“徐玮,王炜,张茂军,吴玲达.一种基于角点匹配的视图合成方法[J],系统仿真学报,2007,19(14):3263-3265.XU Wei,WANG Wei,ZHANGMao-jun and WU Ling-da.Corner matching-based approach of view synthesis[J],Journal ofsystem simulation,2007,19(14):3263-3265.”)和刘贵喜等人(参见文献“刘贵喜,王雷.基于区域选择和特征点匹配的图像配准算法[J],光电子·激光,2007,8:999-1002.LIU Gui-xi,WANG Lei.An image registration method based on region selecting and feature pointsmatching[J],Journal of Optoelectronics·Laser,2007,8:999-1002.”)采用双向最大相关系数法识别相匹配的角点对,该方法可以消除部分冗余匹配角点对,但其算法的复杂度比较高,大大降低了图像配准的效率。加之角点检测过程中角点位置偏移和伪角点的存在,会使得相匹配的角点对的识别过程中会执行大量的由偏移角点、伪角点参与的不必要的匹配识别运算,这也大幅增加了相匹配角点对的识别运算量,导致图像配准的处理效率降低。
由此可见,如何有效提高图像配准的准确度以及处理效率,成为图像配准技术领域的主要研究方向。
发明内容
针对现有技术中存在的上述问题,为了解决现有技术中图像配准的准确性不好、处理效率不高的问题,本发明提供了一种基于角点对CS距离匹配的图像配准方法,采用该方法能够提升图像配准的准确性,提高图像配准的处理效率。
为实现上述目的,本发明采用了如下技术手段:
基于角点对CS距离匹配的图像配准方法,包括如下步骤:
A)采用Harris角点检测算法分别检测出待配准的图像Q1和图像Q2中的角点作为待定角点;
B)对图像Q1和图像Q2中各个待定角点分别进行重定位处理,得到图像Q1和图像Q2中的特征角点;具体为:
b1)预设定最大迭代次数NL,NL为大于1的整数,并将迭代计数值初始化为1;
b2)分别计算当前图像Q1和图像Q2中各个待定角点的像素偏移量;其中,当前图像Q1或图像Q2中任意的第k个待定角点的像素偏移量(Δxk,Δyk)的计算公式为:
Δx k Δy k = - F 1 F 2 F 3 F 4 - 1 · F 5 F 6 ;
F1=f(xk+1,yk)-2f(xk,yk)+f(xk-1,yk);
F2=F3=f(xk+1,yk+1)-f(xk,yk+1)-f(xk+1,yk)+f(x,y);
F4=f(xk,yk+1)-2f(xk,yk)+f(xk,yk-1);
F5=f(xk+1,yk)-f(xk,yk);
F6=f(xk,yk+1)-f(xk,yk);
其中,Δxk,Δyk分别表示所述第k个待定角点的列像素偏移量和行像素偏移量;F1、F2、F3、F4、F5和F6均为公式表示符号;xk,yk表示所述第k个待定角点当前定位于其所在图像中第xk列第yk行的像素点;f(xk,yk)表示所述第k个待定角点的角点响应函数;f(xk+1,yk)表示所述第k个待定角点所在图像中第xk+1列第yk行像素点的角点响应函数;f(xk-1,yk)表示所述第k个待定角点所在图像中第xk-1列第yk行像素点的角点响应函数;f(xk+1,yk+1)表示所述第k个待定角点所在图像中第xk+1列第yk+1行像素点的角点响应函数;f(xk,yk+1)表示所述第k个待定角点所在图像中第xk列第yk+1行像素点的角点响应函数;f(xk,yk-1)表示所述第k个待定角点所在图像中第xk列第yk-1行像素点的角点响应函数;
b3)判断当前图像Q1和图像Q2的各个待定角中是否存在列像素偏移量或行像素偏移量大于0.5的待定角点;若存在,执行步骤b4);若不存在,执行步骤b6);
b4)对当前图像Q1和图像Q2中列像素偏移量或行像素偏移量大于0.5的各个待定角点进行重定位;其中,当前图像Q1或图像Q2中任意的第k′个列像素偏移量或行像素偏移量大于0.5的待定角点重定位后在其所在图像中定位的像素点位置为:
x k ′ ′ y k ′ ′ = x k ′ y k ′ + Δx k ′ Δy k ′ ;
其中,x′k′,y′k′表示所述第k′个列像素偏移量或行像素偏移量大于0.5的待定角点重定位后定位于其所在图像中第x′k′列第y′k′行的像素点;xk′,yk′表示所述第k′个列像素偏移量或行像素偏移量大于0.5的待定角点重定位之前定位于其所在图像中第xk′列第yk′行的像素点;Δxk′,Δyk′分别表示所述第k′个列像素偏移量或行像素偏移量大于0.5的待定角点的列像素偏移量和行像素偏移量;
b5)判断当前迭代计数值是否等于最大迭代次数NL;若不等于,则迭代计数值自加1,并返回步骤b2);若等于,则执行步骤b6);
b6)将当前图像Q1和图像Q2中列像素偏移量和行像素偏移量小于或等于0.5的待定角点均判定为特征角点;
C)从图像Q1和图像Q2的各个特征角点中识别出相匹配的特征角点对;具体为:
c1)预设定邻域距离阈值Ds和CS距离阈值CSD0
c2)分别求取图像Q1和图像Q2中各个特征角点对应的邻域像素区;所述特征角点对应的邻域像素区是指,在特征角点所在图像中与该特征角点的欧氏距离小于或等于邻域距离阈值Ds的各个像素点所构成的像素点集合区域;
c3)求取图像Q1中各个特征角点与图像Q2中特征角点的最大CS距离;其中,计算图像Q1中任意的第i个特征角点s1i与图像Q2中任意的第j个特征角点s2j之间的CS距离CCSD(s1i,s2j)的公式为:
CCSD ( s 1 i , s 2 j ) = Σ g 1 = 0 255 Σ g 2 = 0 255 ( p i , j ( g 1 , g 2 ) ) 2 q Σ g 1 = 0 255 Σ g 2 = 0 255 ( p i ( g 1 ) · p j ( g 2 ) ) 2 q - { Σ g 1 = 0 255 Σ g 2 = 0 255 [ p i , j ( g 1 , g 2 ) · ( p i ( g 1 ) · p j ( g 2 ) ) ] q } 2 ;
其中,pi(g1)表示所述第i个特征角点s1i对应的邻域像素区中灰度值为g1的像素点出现的概率;pj(g2)表示所述第j个特征角点s2j对应的邻域像素区中灰度值为g2的像素点出现的概率;pi,j(g1,g2)表示所述第i个特征角点s1i对应的邻域像素区中出现灰度值为g1的像素点同时所述第j个特征角点s2j对应的邻域像素区中出现灰度值为g2的像素点的联合概率;q为扩展参数,且0<q≤1;g1∈{0,1,2,…,255},g2∈{0,1,2,…,255};由此计算出图像Q1中任意的第i个特征角点s1i分别与图像Q2中各个特征角点之间的CS距离,并取图像Q1中第i个特征角点s1i分别与图像Q2中各个特征角点之间的CS距离中的最大值作为图像Q1中第i个特征角点s1i与图像Q2中特征角点的最大CS距离;由此分别求出图像Q1中各个特征角点与图像Q2中特征角点的最大CS距离;
c4)将图像Q1中各个特征角点与图像Q2中特征角点的最大CS距离分别与CS距离阈值CSD0进行比较,将其中大于CS距离阈值CSD0的每一个最大CS距离对应的一对特征角点判定为图像Q1和图像Q2的一组相匹配的特征角点对,由此从图像Q1和图像Q2的各个特征角点中识别出相匹配的特征角点对;
D)通过图像Q1和图像Q2中各组相匹配的特征角点对得到图像Q1和图像Q2之间的空间坐标变换参数,按照空间坐标变换参数对其中一幅图像进行图像坐标变换,使得图像Q1和图像Q2中相匹配的特征角点对相互重叠,完成两幅图像的配准叠加处理。
上述的图像配准方法中,进一步,所述最大迭代次数NL的取值范围为5~20。
上述的图像配准方法中,进一步,所述邻域距离阈值Ds的取值范围为2~10。
上述的图像配准方法中,进一步,所述CS距离阈值CSD0的取值范围为(0.02)2q~(0.10)2q
相比于现有技术,本发明具有如下有益效果:
1、本发明提供的基于角点对CS距离匹配的图像配准方法,在Harris角点检测算法的基础上进一步进行了角点重定位处理,使得由Harris角点检测算法存在的角点位置偏移得到重定位纠正,并且剔除了伪角点,将经过重定位处理后的角点认定为特征角点,因此进一步提高了提取特征角点的准确性,进而帮助图像配准的准确性得以提升。
2、在本发明基于角点对CS距离匹配的图像配准方法中,采用了两个特征角点之间的CS距离(即Corner Cauchy-Schwarz Divergence,简称为CCSD)来度量识别两幅图像中相匹配的特征角点对,不仅保证了良好的旋转不变性,并且与现有技术中基于信息论的测度相比计算量得以大幅简化,从而在保证准确识别相匹配的特征角点的同时减少了识别运算的时间,帮助提高了图像配准的处理效率。
附图说明
图1为本发明基于角点对CS距离匹配的图像配准方法的流程框图;
图2为实施例中两幅待配准的图像;
图3为实施例中采用现有的图像配准方法从图2所示的两幅图像中识别的相匹配特征点对的对应关系连线示意图;
图4为实施例中采用本发明图像配准方法从图2所示的两幅图像中识别的相匹配特征角点对的对应关系连线示意图;
图5为实施例中采用现有的图像配准方法对图2所示的两幅图像进行配准的图像配准处理结果;
图6为实施例中采用采用本发明图像配准方法对图2所示的两幅图像进行配准的图像配准处理结果。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步的说明。
本发明提出了一种基于角点对CS距离(Corner Cauchy-Schwarz Divergence,可简称为CCSD)匹配的图像配准方法,以针对性的解决现有图像配准技术中存在的配准准确性不好、配准处理效率不高的问题。本发明基于角点对CS距离匹配的图像配准方法的处理流程如图1所示,具体包括如下步骤:
A)采用Harris角点检测算法分别检测出待配准的图像Q1和图像Q2中的角点作为待定角点。
由于现有的Harris角点检测算法(参见文献“C.Harris and M.J.Stephens.A combinedcorner and edge detector[C].In Alvey Vision Conference,1988:147–152.”)存在角点信息丢失、角点位置偏移和易受噪声影响而提取出伪角点等问题,因此,在本发明方法中,对于待配准的图像Q1和图像Q2,将采用Harris角点检测算法从该两幅图像中检测出的角点作为待定角点,在后续步骤中进行进一步的处理。
B)对图像Q1和图像Q2中各个待定角点分别进行重定位处理,得到图像Q1和图像Q2中的特征角点。该步骤就是针对Harris角点检测算法存在的角点信息丢失、角点位置偏移和伪角点等问题,通过重定位处理对由Harris角点检测算法存在的角点位置偏移进行重定位纠正,并剔除伪角点。该步骤具体为:
b1)预设定最大迭代次数NL,NL为大于1的整数,并将迭代计数值初始化为1。
最大迭代次数NL的取值以及迭代计数值的初始化值都可以预先固化设计在图像配准处理程序中,当图像配准程序开始运行进行程序初始化时即可完成最大迭代次数NL的预设定和迭代计数值的初始化。根据具体应用情况的不同,预设定的最大迭代次数NL的取值可能有所不同。
b2)分别计算当前图像Q1和图像Q2中各个待定角点的像素偏移量;其中,当前图像Q1或图像Q2中任意的第k个待定角点的像素偏移量(Δxk,Δyk)的计算公式为:
&Delta;x k &Delta;y k = - F 1 F 2 F 3 F 4 - 1 &CenterDot; F 5 F 6 ;
F1=f(xk+1,yk)-2f(xk,yk)+f(xk-1,yk);
F2=F3=f(xk+1,yk+1)-f(xk,yk+1)-f(xk+1,yk)+f(x,y);
F4=f(xk,yk+1)-2f(xk,yk)+f(xk,yk-1);
F5=f(xk+1,yk)-f(xk,yk);
F6=f(xk,yk+1)-f(xk,yk);
其中,Δxk,Δyk分别表示所述第k个待定角点的列像素偏移量和行像素偏移量;F1、F2、F3、F4、F5和F6均为公式表示符号;xk,yk表示所述第k个待定角点当前定位于其所在图像中第xk列第yk行的像素点;f(xk,yk)表示所述第k个待定角点的角点响应函数;f(xk+1,yk)表示所述第k个待定角点所在图像中第xk+1列第yk行像素点的角点响应函数;f(xk-1,yk)表示所述第k个待定角点所在图像中第xk-1列第yk行像素点的角点响应函数;f(xk+1,yk+1)表示所述第k个待定角点所在图像中第xk+1列第yk+1行像素点的角点响应函数;f(xk,yk+1)表示所述第k个待定角点所在图像中第xk列第yk+1行像素点的角点响应函数;f(xk,yk-1)表示所述第k个待定角点所在图像中第xk列第yk-1行像素点的角点响应函数。
本发明方法是通过判断待定角点的像素偏移量来完成重定位处理的,该像素偏移量的计算基于角点响应函数f(x,y)的Taylor展开式:
f ( x , y ) = f + ( &PartialD; f &PartialD; ( x , y ) ) T ( x , y ) + 1 2 ( x , y ) T &PartialD; 2 f &PartialD; ( x , y ) 2 ( x , y ) ;
其中,f(x,y)表示图像中第x行第y列像素点的角点响应函数;
Figure BDA00001699168800073
为微分符号,
Figure BDA00001699168800074
表示角点响应函数f(x,y)的一阶微分,
Figure BDA00001699168800075
表示角点响应函数f(x,y)的二阶微分;T为转置符号。对上述角点响应函数f(x,y)的Taylor展开式求导,并令求导值为零,则得到极值点位置的像素偏移量(Δx,Δy)为:
( &Delta;x , &Delta;y ) = - ( &PartialD; 2 f &PartialD; ( x , y ) 2 ) - 1 &CenterDot; &PartialD; f &PartialD; ( x , y ) ;
如果像素偏移量(Δx,Δy)中行像素偏移量Δx或列像素偏移量Δy中的任一值大于0.5个像素,则表示真正的极值点(即真正的角点)位于距离当前定位的待定角点较近的另一个像素点位置处,也即认定当前定位的待定角点存在位置偏移。然而,由于图像的像素点位置的值为离散值,无法采用连续求微分的运算方式加以计算,因此,采用待测角点与其邻近位置像素点之间角点响应函数差分运算代替角点响应函数微分运算。
例如,对于图像Q1或图像Q2中任意的第k个待定角点而言,当前定位于其所在图像中第xk行第yk列像素点,即当前定位的像素点位置为(xk,yk),其角点响应函数f(xk,yk)的一阶微分
Figure BDA00001699168800081
可表示为一个二元矩阵 F 5 F 6 ; 其中公式表示符号F5表示在所述第k个待定角点同一行后一列的像素点(xk+1,yk)(即所述第k个待定角点所在图像中第xk+1列第yk行像素点)与所述第k个待定角点的角点响应函数差分值,即F5=f(xk+1,yk)-f(xk,yk);公式表示符号F6表示在所述第k个待定角点同一列下一行的像素点(xk,yk+1)(即所述第k个待定角点所在图像中第xk列第yk+1行像素点)与所述第k个待定角点的角点响应函数差分值,即F6=f(xk,yk+1)-f(xk,yk);述第k个待定角点的角点响应函数f(xk,yk)的二阶微分可表示为一个四元矩阵 F 1 F 2 F 3 F 4 , 其中公式表示符号F1表示先求取在所述第k个待定角点同一行后一列的像素点(xk+1,yk)(即所述第k个待定角点所在图像中第xk+1列第yk行像素点)与所述第k个待定角点的角点响应函数差分值,以及所述第k个待定角点与其同一行前一列的像素点(xk-1,yk)(即所述第k个待定角点所在图像中第xk-1列第yk行像素点)的角点响应函数差分值,再在对该两个差分值求差,即:
F1=[f(xk+1,yk)-f(xk,yk)]-[f(xk,yk)-f(xk-1,yk)];
=f(xk+1,yk)-2f(xk,yk)+f(xk-1,yk)
公式表示符号F2表示先求取在所述第k个待定角点后一列下一行的像素点(xk+1,yk+1)(即所述第k个待定角点所在图像中第xk+1列第yk+1行像素点)与在所述第k个待定角点同一列下一行的像素点(xk,yk+1)(即所述第k个待定角点所在图像中第xk列第yk+1行像素点)的角点响应函数差分值,以及在所述第k个待定角点同一行后一列的像素点(xk+1,yk)(即所述第k个待定角点所在图像中第xk+1列第yk行像素点)与所述第k个待定角点的角点响应函数差分值,再在对该两个差分值求差,即:
F2=[f(xk+1,yk+1)-f(xk,yk+1)]-[f(xk+1,yk)-f(x,y)];
=f(xk+1,yk+1)-f(xk,yk+1)-f(xk+1,yk)+f(x,y)
公式表示符号F3与公式表示符号F2的值相同,即F2=F3;公式表示符号F4表示先求取在所述第k个待定角点同一列下一行的像素点(xk,yk+1)(所述第k个待定角点所在图像中第xk列第yk+1行像素点)与所述第k个待定角点的角点响应函数差分值,以及所述第k个待定角点与其同一列上一行的像素点(xk,yk-1)(所述第k个待定角点所在图像中第xk列第yk-1行像素点)的角点响应函数差分值,再在对该两个差分值求差,即:
F4=[f(xk,yk+1)-f(xk,yk)]-[f(xk,yk)-f(xk,yk-1)];
=f(xk,yk+1)-2f(xk,yk)+f(xk,yk-1)
由此可得,当前图像Q1或图像Q2中任意的第k个待定角点的像素偏移量(Δxk,Δyk)的计算公式为:
&Delta;x k &Delta;y k = - ( &PartialD; 2 f &PartialD; ( x , y ) 2 ) - 1 &CenterDot; &PartialD; f &PartialD; ( x , y ) = - F 1 F 2 F 3 F 4 - 1 &CenterDot; F 5 F 6 ;
其中,F1、F2、F3、F4、F5和F6所表示的具体公式如上所述,这里的F1、F2、F3、F4、F5和F6仅是为了书写方便而采用的表示上述公式的公式表示符号。
b3)判断当前图像Q1和图像Q2的各个待定角中是否存在列像素偏移量或行像素偏移量大于0.5的待定角点;若存在,执行步骤b4);若不存在,执行步骤b6)。
由于认定列像素偏移量或行像素偏移量中的任一值大于0.5个像素,则表示当前定位的待定角点有位置偏移;因此,通过该步骤的判断,如果存在有位置偏移的待定角点,即采用步骤b4)对其进行重定位;如果不存在有位置偏移的待定角点,则无需再进行重定位,直接执行步骤b6)。
b4)对当前图像Q1和图像Q2中列像素偏移量或行像素偏移量大于0.5的各个待定角点进行重定位;其中,当前图像Q1或图像Q2中任意的第k′个列像素偏移量或行像素偏移量大于0.5的待定角点重定位后在其所在图像中定位的像素点位置为:
x k &prime; &prime; y k &prime; &prime; = x k &prime; y k &prime; + &Delta;x k &prime; &Delta;y k &prime; ;
其中,x′k′,y′k′表示所述第k′个列像素偏移量或行像素偏移量大于0.5的待定角点重定位后定位于其所在图像中第x′k′行第y′k′列的像素点;xk′,yk′表示所述第k′个列像素偏移量或行像素偏移量大于0.5的待定角点重定位之前定位于其所在图像中第xk′行第yk′列的像素点;Δxk′,Δyk′分别表示所述第k′个列像素偏移量或行像素偏移量大于0.5的待定角点的列像素偏移量和行像素偏移量。
该步骤是根据计算得到的像素偏移量对认定有位置偏移的待定角点进行重定位。
b5)判断当前迭代计数值是否等于最大迭代次数NL;若不等于,则迭代计数值自加1,并返回步骤b2);若等于,则执行步骤b6)。
由于一些位置偏移较大的待定像素点,难以通过一次重定位将其纠正到准确的像素点位置,因此本发明采用了多次迭代重定位的处理方式,预设定最大迭代次数NL,若迭代计数的次数不足NL,则继续迭代;另一方面,由于伪角点的存在,有可能进过非常多次迭代重定位处理,伪角点的位移偏移量依然较大,因此本发明通过最大迭代次数NL这一个有限值限定迭代次数,以避免长时间的进行反复、无效的重定位处理。考虑到重定位的精度,最大迭代次数NL的取值不宜过小,但取值过大又会增加不必要的迭代运算量,因此综合考虑,最大迭代次数NL的取值范围在5~20之间较为适宜。
b6)将当前图像Q1和图像Q2中列像素偏移量和行像素偏移量小于或等于0.5的待定角点均判定为特征角点。
若执行至该步骤,还存在有列像素偏移量或行像素偏移量大于0.5的待定角点,则可以认定这样的待定角点为伪角点,将之剔除;当前图像Q1和图像Q2中列像素偏移量小于或等于0.5且行像素偏移量小于或等于0.5的待定角点则均判定为特征角点,用于进行特征匹配。至此,步骤B)的处理结束;经过步骤B)的处理,使得由Harris角点检测算法存在的角点位置偏移得到重定位纠正,并且剔除了伪角点,将经过重定位处理后的角点认定为特征角点,因此进一步提高了提取特征角点的准确性,进而可以帮助图像配准的准确性得以提升。
C)从图像Q1和图像Q2的各个特征角点中识别出相匹配的特征角点对。该步骤采用了两个特征角点之间的CS距离(即Corner Cauchy-Schwarz Divergence,简称为CCSD)来度量识别两幅图像中相匹配的特征角点对。R.Jenssen等人(参见文献“R.Jenssen,J.C.Principe,D.Erdogmus and T.Eltoft.The Cauchy-Schwarz divergence and Parzen windowing:Connections to graph theory and Mercer kernels[J].Journal of the Franklin Institute,2006,343:614-629.”)和时永刚(参见文献“时永刚.新的Cauchy-Schwarz距离函数与多模态医学图像配准[J],光学技术,2005,31(5):684-687.”)从对Shannon互信息和Kullback-Leibler距离之间相互关系的分析出发,利用变量间的不等式关系理论,从概率密度函数的角度提出了新的基于Cauchy-Schwarz距离的测度,与双向最大相关系数法等基于信息论的测度相比,CS距离测度在数学计算上更加简单,并且省去了对数和除法运算,这样节省了信息论测度中的额外判断和计算,大大提升了运算速度,减少了运算时间。该步骤具体为:
c1)预设定邻域距离阈值Ds和CS距离阈值CSD0
邻域距离阈值Ds和CS距离阈值CSD0的取值都可以预先固化设计在图像配准处理程序中,当图像配准程序开始运行进行程序初始化时即可完成邻域距离阈值Ds和CS距离阈值CSD0的预设定。根据具体应用情况的不同,邻域距离阈值Ds和CS距离阈值CSD0的取值可能有所不同。
c2)分别求取图像Q1和图像Q2中各个特征角点对应的邻域像素区;所述特征角点对应的邻域像素区是指,在特征角点所在图像中与该特征角点的欧氏距离小于或等于邻域距离阈值Ds的各个像素点所构成的像素点集合区域。
这里求取各个特征角点对应的邻域像素区,是为了以特征角点对应的邻域像素区作为特征角点附近像素点灰度分布情况作为度量对象,若图像Q1和图像Q2中两个特征角点附近像素点灰度分布情况的关联性越大,则表明该两个特征角点为相匹配的特征角点对的可能性就越大。另一方面,由在特征角点所在图像中与该特征角点的欧氏距离小于或等于邻域距离阈值Ds的各个像素点构成该特征角点对应的邻域像素区,使得特征角点附近周边各个方向的像素点都被考虑,因此即便两个特征角点对应的邻域像素区存在旋转关系依然能够很好的体现其关联性,从而保证了度量对象具有良好的旋转不变性。考虑到图像关联性度量的精度,邻域距离阈值Ds的取值不宜过小,但取值过大又会增加像素点灰度分布运算量,因此综合考虑,邻域距离阈值Ds的取值范围在2~10之间较为适宜。
c3)求取图像Q1中各个特征角点与图像Q2中特征角点的最大CS距离;其中,计算图像Q1中任意的第i个特征角点s1i与图像Q2中任意的第j个特征角点s2j之间的CS距离CCSD(s1i,s2j)的公式为:
CCSD ( s 1 i , s 2 j ) = &Sigma; g 1 = 0 255 &Sigma; g 2 = 0 255 ( p i , j ( g 1 , g 2 ) ) 2 q &Sigma; g 1 = 0 255 &Sigma; g 2 = 0 255 ( p i ( g 1 ) &CenterDot; p j ( g 2 ) ) 2 q - { &Sigma; g 1 = 0 255 &Sigma; g 2 = 0 255 [ p i , j ( g 1 , g 2 ) &CenterDot; ( p i ( g 1 ) &CenterDot; p j ( g 2 ) ) ] q } 2 ;
其中,pi(g1)表示所述第i个特征角点s1i对应的邻域像素区中灰度值为g1的像素点出现的概率;pj(g2)表示所述第j个特征角点s2j对应的邻域像素区中灰度值为g2的像素点出现的概率;pi,j(g1,g2)表示所述第i个特征角点s1i对应的邻域像素区中出现灰度值为g1的像素点同时所述第j个特征角点s2j对应的邻域像素区中出现灰度值为g2的像素点的联合概率;q为扩展参数,且0<q≤1;g1∈{0,1,2,…,255},g2∈{0,1,2,…,255};由此计算出图像Q1中任意的第i个特征角点s1i分别与图像Q2中各个特征角点之间的CS距离,并取图像Q1中第i个特征角点s1i分别与图像Q2中各个特征角点之间的CS距离中的最大值作为图像Q1中第i个特征角点s1i与图像Q2中特征角点的最大CS距离;由此分别求出图像Q1中各个特征角点与图像Q2中特征角点的最大CS距离。
由于pi(g1)表示所述第i个特征角点s1i对应的邻域像素区中灰度值为g1的像素点出现的概率,pj(g2)表示所述第j个特征角点s2j对应的邻域像素区中灰度值为g2的像素点出现的概率,pi,j(g1,g2)表示所述第i个特征角点s1i对应的邻域像素区中出现灰度值为g1的像素点同时所述第j个特征角点s2j对应的邻域像素区中出现灰度值为g2的像素点的联合概率,其中灰度值g1和灰度值g2分别在灰度0到灰度255之间任意取值,并且在CCSD(s1i,s2j)的计算公式中分别以灰度值g1和灰度值g2作为求和对象从灰度0到灰度255求和,以充分考量pi(g1)、pj(g2)和pi,j(g1,g2)在各个灰度值的概率分布情况;如果所述第i个特征角点s1i对应的邻域像素区与所述第j个特征角点s2j对应的邻域像素区所表征的区域图像完全不同,彼此间相互完全独立,不存在任何关联性,则可以得知pi,j(g1,g2)=pi(g1)·pj(g2),这时CCSD(s1i,s2j)=0;若所述第i个特征角点s1i对应的邻域像素区与所述第j个特征角点s2j对应的邻域像素区所表征的区域图像越相近,二者关联性越大,则pi,j(g1,g2)与pi(g1)·pj(g2)之间的差异也会增大,因而CCSD(s1i,s2j)的值也越大。因此,可以通过度量图像Q1中各个特征角点与图像Q2中特征角点的最大CS距离值的大小,来度量图像Q1中特征角点对应的邻域像素区与图像Q2中特征角点对应的邻域像素区之间的关联性大小,进而判断该图像Q1中特征角点与图像Q2中特征角点是否为一组相匹配的特征角点对。
c4)将图像Q1中各个特征角点与图像Q2中特征角点的最大CS距离分别与CS距离阈值CSD0进行比较,将其中大于CS距离阈值CSD0的每一个最大CS距离对应的一对特征角点判定为图像Q1和图像Q2的一组相匹配的特征角点对,由此从图像Q1和图像Q2的各个特征角点中识别出相匹配的特征角点对。
该步骤以CS距离阈值CSD0作为识别相匹配的特征角点对的判别标准,大于CS距离阈值CSD0的最大CS距离对应的一对特征角点即判定为图像Q1和图像Q2的一组相匹配的特征角点对。其中,若CS距离阈值CSD0的取值过大,则可能导致识别条件过严,识别出的相匹配特征角点对数量过少,不利于图像配准;但若CS距离阈值CSD0的取值过小,则可能将原本不相关联的两个特征角点误识别为一组相匹配的特征角点对;因此综合考虑,CS距离阈值CSD0的取值范围在(0.02)2q~(0.10)2q之间较为适宜,CS距离阈值CSD0的取值范围与扩展参数q相关,这是因为求取图像Q1中各个特征角点与图像Q2中特征角点的最大CS距离的计算公式与扩展参数q相关;扩展参数q的取值可以根据具体应用情况的需要在0<q≤1范围内任意取值,若为了计算更简便,可以取q=0.5。至此,步骤C)的处理结束;经过步骤C)的处理,采用两个特征角点之间的CS距离来度量识别两幅图像中相匹配的特征角点对,不仅保证了良好的旋转不变性,并且与现有技术中的双向最大相关系数法等基于信息论的测度相比计算量得以大幅简化,从而在保证准确识别相匹配的特征角点的同时减少了识别运算的时间,能够帮助提高图像配准的处理效率。
D)通过图像Q1和图像Q2中各组相匹配的特征角点对得到图像Q1和图像Q2之间的空间坐标变换参数,按照空间坐标变换参数对其中一幅图像进行图像坐标变换,使得图像Q1和图像Q2中相匹配的特征角点对相互重叠,完成两幅图像的配准叠加处理。该步骤则完全可以按照现有图像配准技术中的最后的配准处理步骤来执行。
下面通过实施例对本发明的技术方案作进一步的说明。
实施例:
为了验证本发明基于角点对CS距离匹配的图像配准方法的优良效果,我们做了大量的实验,本实施例给出两幅图像的配准处理实验结果,以此对本发明基于角点对CS距离匹配的图像配准方法作进一步的说明。如图2所示,图2的(a)和(b)为两幅待配准的图像,该两幅图是不同时间不同角度拍摄的重庆大学钟塔图像,为了作为对比,本实施例采用了现有的图像配准方法和本发明方法分别对图2所示的两幅待配准的图像进行配准处理,以对比两种方法的图像配准效果。
本实施例中,现有的图像配准方法直接采用Harris角点检测算法从图2所示的两幅待配准的图像中提取的角点作为特征点,然后通过双向最大相关系数法从该两幅图像的各个特征点中识别出相匹配的特征点对,由此获得的该两幅待配准图像中相匹配的特征点对的对应关系如图3中的连线所示,从图3可以看到,被用于配准的特征点对比较多;最后通过这些相匹配的特征点对,采用RANSAC算法(可参考文献“M.A.Fischler and R.C.Bolles.Random sample consensus:a paradigm for model fitting with applications to image analysis andautomated cartography[J].Communications of ACM,1981,24(6):381-395.”)计算得到到两幅图像之间的空间坐标变换参数,按照空间坐标变换参数对两幅图像进行配准叠加处理;其图像配准的整体处理时间为23.95秒,图像配准处理结果如图5所示。从图5所示的图像配准结果可以看到,采用现有技术进行图像配准,虽然配准后的图中左半部分的大楼配准效果还可以,但配准后的图中右半部分的钟塔在配准结合处具有较明显的角度差异,而且钟塔上的“1929”字样具有明显的重影,配准效果并不理想;这些配准偏差很可能是Harris角点检测算法中存在的角点位置偏移和伪角点所造成的。
接下来,采用本发明基于角点对CS距离匹配的图像配准方法,对图2所示的两幅待配准的图像进行配准处理,先按照步骤A)采用Harris角点检测算法检测出该两幅图像中的角点作为待定角点,并按照步骤B)对两幅图像中各个待定角点分别进行重定位处理;然后再按照步骤C)从重定位处理后确定的两幅图像中的特征角点中识别出相匹配的特征角点对,特征角点对的对应关系如图4中的连线所示,从图4可以看到,特征角点对的数量相比于现有图像配准方法中有所减少,原因在于本发明方法中通过步骤B)的重定位处理剔除了Harris角点检测算法检测出的伪角点,因此减少了一些伪角点被误识别为特征角点对的情况;最后通过这些相匹配的特征角点对,同样采用RANSAC算法计算得到两幅图像之间的空间坐标变换参数,按照空间坐标变换参数对两幅图像进行配准叠加处理;其图像配准的整体处理时间为19.88秒,图像配准处理结果如图6所示。从图6所示的图像配准结果可以看到,采用本发明方法配准后的图中,不仅大楼的配准效果清晰,钟塔在配准结合处的角度一致性也非常好,钟塔上的“1929”字样只是略有重影但并不明显,整体而言配准效果较为理想,相比于图5所示的配准效果而言,本发明图像配准方法的配准准确性具有明显提升;而且,在同样采用RANSAC算法计算空间坐标变换参数进行配准叠加处理的前提下,本发明方法19.88秒的整体配准处理时间也比现有技术23.95秒的整体配准时间更短,图像配准处理效率也得以高,这是因为本发明的图像配准方法中基于特征角点对CS距离的度量来识别相匹配的特征角点对,与双向最大相关系数法等基于信息论的测度相比,CS距离测度在数学计算上更加简单,省去了对数和除法运算,由此提升了运算速度,减少了运算时间,从而提高了图像配准的整体处理效率。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (4)

1.基于角点对CS距离匹配的图像配准方法,其特征在于,包括如下步骤:
A)采用Harris角点检测算法分别检测出待配准的图像Q1和图像Q2中的角点作为待定角点;
B)对图像Q1和图像Q2中各个待定角点分别进行重定位处理,得到图像Q1和图像Q2中的特征角点;具体为:
b1)预设定最大迭代次数NL,NL为大于1的整数,并将迭代计数值初始化为1;
b2)分别计算当前图像Q1和图像Q2中各个待定角点的像素偏移量;其中,当前图像Q1或图像Q2中任意的第k个待定角点的像素偏移量(Δxk,Δyk)的计算公式为:
&Delta;x k &Delta;y k = - F 1 F 2 F 3 F 4 - 1 &CenterDot; F 5 F 6 ;
F1=f(xk+1,yk)-2f(xk,yk)+f(xk-1,yk);
F2=F3=f(xk+1,yk+1)-f(xk,yk+1)-f(xk+1,yk)+f(x,y);
F4=f(xk,yk+1)-2f(xk,yk)+f(xk,yk-1);
F5=f(xk+1,yk)-f(xk,yk);
F6=f(xk,yk+1)-f(xk,yk);
其中,Δxk,Δyk分别表示所述第k个待定角点的列像素偏移量和行像素偏移量;F1、F2、F3、F4、F5和F6均为公式表示符号;xk,yk表示所述第k个待定角点当前定位于其所在图像中第xk列第yk行的像素点;f(xk,yk)表示所述第k个待定角点的角点响应函数;f(xk+1,yk)表示所述第k个待定角点所在图像中第xk+1列第yk行像素点的角点响应函数;f(xk-1,yk)表示所述第k个待定角点所在图像中第xk-1列第yk行像素点的角点响应函数;f(xk+1,yk+1)表示所述第k个待定角点所在图像中第xk+1列第yk+1行像素点的角点响应函数;f(xk,yk+1)表示所述第k个待定角点所在图像中第xk列第yk+1行像素点的角点响应函数;f(xk,yk-1)表示所述第k个待定角点所在图像中第xk列第yk-1行像素点的角点响应函数;
b3)判断当前图像Q1和图像Q2的各个待定角中是否存在列像素偏移量或行像素偏移量大于0.5的待定角点;若存在,执行步骤b4);若不存在,执行步骤b6);
b4)对当前图像Q1和图像Q2中列像素偏移量或行像素偏移量大于0.5的各个待定角点进行重定位;其中,当前图像Q1或图像Q2中任意的第k′个列像素偏移量或行像素偏移量大于0.5的待定角点重定位后在其所在图像中定位的像素点位置为:
x k &prime; &prime; y k &prime; &prime; = x k &prime; y k &prime; + &Delta;x k &prime; &Delta;y k &prime; ;
其中,x′k′,y′k′表示所述第k′个列像素偏移量或行像素偏移量大于0.5的待定角点重定位后定位于其所在图像中第x′k′列第y′k′行的像素点;xk′,yk′表示所述第k′个列像素偏移量或行像素偏移量大于0.5的待定角点重定位之前定位于其所在图像中第xk′列第yk′行的像素点;Δxk′,Δyk′分别表示所述第k′个列像素偏移量或行像素偏移量大于0.5的待定角点的列像素偏移量和行像素偏移量;
b5)判断当前迭代计数值是否等于最大迭代次数NL;若不等于,则迭代计数值自加1,并返回步骤b2);若等于,则执行步骤b6);
b6)将当前图像Q1和图像Q2中列像素偏移量和行像素偏移量小于或等于0.5的待定角点均判定为特征角点;
C)从图像Q1和图像Q2的各个特征角点中识别出相匹配的特征角点对;具体为:
c1)预设定邻域距离阈值Ds和CS距离阈值CSD0
c2)分别求取图像Q1和图像Q2中各个特征角点对应的邻域像素区;所述特征角点对应的邻域像素区是指,在特征角点所在图像中与该特征角点的欧氏距离小于或等于邻域距离阈值Ds的各个像素点所构成的像素点集合区域;
c3)求取图像Q1中各个特征角点与图像Q2中特征角点的最大CS距离;其中,计算图像Q1中任意的第i个特征角点s1i与图像Q2中任意的第j个特征角点s2j之间的CS距离CCSD(s1i,s2j)的公式为:
CCSD ( s 1 i , s 2 j ) = &Sigma; g 1 = 0 255 &Sigma; g 2 = 0 255 ( p i , j ( g 1 , g 2 ) ) 2 q &Sigma; g 1 = 0 255 &Sigma; g 2 = 0 255 ( p i ( g 1 ) &CenterDot; p j ( g 2 ) ) 2 q - { &Sigma; g 1 = 0 255 &Sigma; g 2 = 0 255 [ p i , j ( g 1 , g 2 ) &CenterDot; ( p i ( g 1 ) &CenterDot; p j ( g 2 ) ) ] q } 2 ;
其中,pi(g1)表示所述第i个特征角点s1i对应的邻域像素区中灰度值为g1的像素点出现的概率;pj(g2)表示所述第j个特征角点s2j对应的邻域像素区中灰度值为g2的像素点出现的概率;pi,j(g1,g2)表示所述第i个特征角点s1i对应的邻域像素区中出现灰度值为g1的像素点同时所述第j个特征角点s2j对应的邻域像素区中出现灰度值为g2的像素点的联合概率;q为扩展参数,且0<q≤1;g1∈{0,1,2,…,255},g2∈{0,1,2,…,255};由此计算出图像Q1中任意的第i个特征角点s1i分别与图像Q2中各个特征角点之间的CS距离,并取图像Q1中第i个特征角点s1i分别与图像Q2中各个特征角点之间的CS距离中的最大值作为图像Q1中第i个特征角点s1i与图像Q2中特征角点的最大CS距离;由此分别求出图像Q1中各个特征角点与图像Q2中特征角点的最大CS距离;
c4)将图像Q1中各个特征角点与图像Q2中特征角点的最大CS距离分别与CS距离阈值CSD0进行比较,将其中大于CS距离阈值CSD0的每一个最大CS距离对应的一对特征角点判定为图像Q1和图像Q2的一组相匹配的特征角点对,由此从图像Q1和图像Q2的各个特征角点中识别出相匹配的特征角点对;
D)通过图像Q1和图像Q2中各组相匹配的特征角点对得到图像Q1和图像Q2之间的空间坐标变换参数,按照空间坐标变换参数对其中一幅图像进行图像坐标变换,使得图像Q1和图像Q2中相匹配的特征角点对相互重叠,完成两幅图像的配准叠加处理。
2.根据权利要求1所述的图像配准方法,其特征在于,所述最大迭代次数NL的取值范围为5~20。
3.根据权利要求1所述的图像配准方法,其特征在于,所述邻域距离阈值Ds的取值范围为2~10。
4.根据权利要求1所述的图像配准方法,其特征在于,所述CS距离阈值CSD0的取值范围为(0.02)2q~(0.10)2q
CN201210171293.0A 2012-05-29 2012-05-29 基于角点对cs距离匹配的图像配准方法 Expired - Fee Related CN102750691B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210171293.0A CN102750691B (zh) 2012-05-29 2012-05-29 基于角点对cs距离匹配的图像配准方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210171293.0A CN102750691B (zh) 2012-05-29 2012-05-29 基于角点对cs距离匹配的图像配准方法

Publications (2)

Publication Number Publication Date
CN102750691A true CN102750691A (zh) 2012-10-24
CN102750691B CN102750691B (zh) 2014-08-06

Family

ID=47030840

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210171293.0A Expired - Fee Related CN102750691B (zh) 2012-05-29 2012-05-29 基于角点对cs距离匹配的图像配准方法

Country Status (1)

Country Link
CN (1) CN102750691B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103279952A (zh) * 2013-05-17 2013-09-04 华为技术有限公司 一种目标跟踪方法和装置
CN105224946A (zh) * 2015-09-22 2016-01-06 成都融创智谷科技有限公司 一种伪角点的去除方法
CN106485740A (zh) * 2016-10-12 2017-03-08 武汉大学 一种结合稳定点和特征点的多时相sar图像配准方法
CN104008542B (zh) * 2014-05-07 2017-10-20 华南理工大学 一种针对特定平面图形的快速角点匹配方法
CN109553140A (zh) * 2018-12-05 2019-04-02 江西书源科技有限公司 家用净水机的远程控制方法
CN111380510A (zh) * 2018-12-29 2020-07-07 深圳市优必选科技有限公司 重定位方法及装置、机器人
CN113828948A (zh) * 2021-11-23 2021-12-24 济南邦德激光股份有限公司 一种激光切割机的板材寻边方法、标定系统及寻边系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102446358A (zh) * 2012-01-17 2012-05-09 南京航空航天大学 基于边缘特征和cs信息的多模态医学图像配准方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102446358A (zh) * 2012-01-17 2012-05-09 南京航空航天大学 基于边缘特征和cs信息的多模态医学图像配准方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
YONGXIN GE: "Image registration based on subpixel localization and Cauchy–Schwarz divergence", 《JOURNAL OF ELECTRONIC IMAGING》 *
葛永新: "基于良分布的亚像素定位角点的图像配准", 《电子与信息学报》 *
葛永新: "基于角点对Cauchy-Schwarz距离的图像配准", 《2010全国模式识别学术会议》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103279952A (zh) * 2013-05-17 2013-09-04 华为技术有限公司 一种目标跟踪方法和装置
CN104008542B (zh) * 2014-05-07 2017-10-20 华南理工大学 一种针对特定平面图形的快速角点匹配方法
CN105224946A (zh) * 2015-09-22 2016-01-06 成都融创智谷科技有限公司 一种伪角点的去除方法
CN106485740A (zh) * 2016-10-12 2017-03-08 武汉大学 一种结合稳定点和特征点的多时相sar图像配准方法
CN106485740B (zh) * 2016-10-12 2019-06-25 武汉大学 一种结合稳定点和特征点的多时相sar图像配准方法
CN109553140A (zh) * 2018-12-05 2019-04-02 江西书源科技有限公司 家用净水机的远程控制方法
CN111380510A (zh) * 2018-12-29 2020-07-07 深圳市优必选科技有限公司 重定位方法及装置、机器人
CN113828948A (zh) * 2021-11-23 2021-12-24 济南邦德激光股份有限公司 一种激光切割机的板材寻边方法、标定系统及寻边系统

Also Published As

Publication number Publication date
CN102750691B (zh) 2014-08-06

Similar Documents

Publication Publication Date Title
CN102750691B (zh) 基于角点对cs距离匹配的图像配准方法
Bukhari et al. Automatic radial distortion estimation from a single image
Micusik et al. Structure from motion with line segments under relaxed endpoint constraints
CN102236798B (zh) 一种图像匹配方法及其装置
Chia et al. Ellipse detection with hough transform in one dimensional parametric space
Cheng et al. Remote sensing image matching by integrating affine invariant feature extraction and RANSAC
CN104167003A (zh) 一种遥感影像的快速配准方法
Fathima et al. Image stitching with combined moment invariants and sift features
CN104134208A (zh) 利用几何结构特征从粗到精的红外与可见光图像配准方法
Alemán-Flores et al. Line detection in images showing significant lens distortion and application to distortion correction
CN103761768A (zh) 一种三维重建的立体匹配方法
CN104463129A (zh) 一种指纹注册方法及装置
CN104899892A (zh) 一种快速的星图图像星点提取方法
CN113674220A (zh) 一种图像差异检测方法、检测装置和存储介质
Sellami et al. An invariant similarity registration algorithm based on the analytical fourier-mellin transform
CN104200460B (zh) 基于图像特征和互信息的图像配准方法
Vakil et al. An information theoretic metric for identifying optimum solution for normalized cross correlation based similarity measures
CN101329723B (zh) 指纹核心点快速鲁棒定位方法
WO2015086076A1 (en) Method for determining a similarity value between a first image and a second image
CN110047032B (zh) 一种基于径向基函数拟合的局部自适应误匹配点剔除方法
CN109919998B (zh) 卫星姿态确定方法、装置和终端设备
Huang et al. Circle detection and fitting using laser range finder for positioning system
Wu et al. Real-time robust algorithm for circle object detection
KR101217611B1 (ko) 부 영상 기반의 영상등록 방법 및 이를 이용한 침입영상 탐지 방법
CN103714576A (zh) 基于局部加权非相似性度量的三维关键点检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20180330

Address after: 400000 Chongqing city Shapingba District Jingyuan Road No. 8, No. 6-6 of 15

Patentee after: Chongqing Mihong Technology Co.,Ltd.

Address before: 400044 Shapingba District Sha Street, No. 174, Chongqing

Patentee before: Chongqing University

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140806