CN107067415B - 一种基于图像匹配的目标定位方法 - Google Patents

一种基于图像匹配的目标定位方法 Download PDF

Info

Publication number
CN107067415B
CN107067415B CN201710168768.3A CN201710168768A CN107067415B CN 107067415 B CN107067415 B CN 107067415B CN 201710168768 A CN201710168768 A CN 201710168768A CN 107067415 B CN107067415 B CN 107067415B
Authority
CN
China
Prior art keywords
point
matrix
target
characteristic point
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710168768.3A
Other languages
English (en)
Other versions
CN107067415A (zh
Inventor
曾庆化
潘鹏举
陈艳
王云舒
刘建业
刘昇
张月圆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201710168768.3A priority Critical patent/CN107067415B/zh
Publication of CN107067415A publication Critical patent/CN107067415A/zh
Application granted granted Critical
Publication of CN107067415B publication Critical patent/CN107067415B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30212Military

Abstract

本发明公开了一种基于图像匹配的目标快速精确定位方法。首先利用快速目标提取算法对目标实测图像序列进行处理,从目标实测图像序列中提取出待定位目标有效像素;然后利用快速图像匹配算法对提取目标后的实测图像和机载参考图像进行匹配;最后利用目标高精度定位算法对快速图像匹配结果进行处理,从而获取目标位置信息。本发明与现有目标定位方法相比,能够大幅提高目标定位的实时性和精确度。

Description

一种基于图像匹配的目标定位方法
技术领域
本发明属于目标定位技术领域,特别涉及了一种基于图像匹配的目标定位方法。
背景技术
侦察机、导弹、无人机等在执行任务时,需要精确定位重要目标,目标定位的精度和效率直接决定任务的成败。现有的目标定位方式大多采取几何式定位方式和图像匹配定位方式。几何式定位精度受飞行器自身导航系统及几何量测信息的精度影响,导致目标定位误差较大。图像匹配定位通过将飞行器拍摄目标得到的实测图像与机载参考图像进行匹配获取目标点的精确位置信息。随着图像匹配技术的深入研究,开展利用快速图像匹配辅助目标进行快速精确定位对目标快速精确定位发展具有重要意义。
目前,国内外基于特征的快速图像匹配算法研究比较多,如在2004年DavidG.Lowe提出SIFT算法,SIFT算法的优点为对图像尺度不同、亮度不同和旋转不同的图像拼接效果较好以及抗噪声能力强的特点,成为了应用范围普遍的流行算法。2006年HerbertBay等提出SURF算法,这种算法提取的特征具有平移、缩放、旋转的不变性,并且对光照、仿射及投影差异也有相对较好的鲁棒性。随着对特征点匹配速度的要求提高,2011年EthanRublee在文献中提出ORB算法,2012年Alexandre Alahi等人在文献中提出FREAK算法。FREAK算法模拟人类视网膜的成像特性来进行采样点的设置和对应点对的选择,利用扫视搜索进行特征向量的匹配,是一种二进制描述子,具有稳定的性能,相对于SIFT、SURF算法更具鲁棒性,并且计算过程要远快过这二者,但是它不具备尺度不变性,在图像间场景存在大小尺度差异的状况下,图像间特征点的匹配对的准确度较低。
发明内容
为了解决上述背景技术提出的技术问题,本发明旨在提供一种基于图像匹配的目标定位方法,利用快速目标提取算法、快速图像匹配算法和目标高精度定位算法对目标进行快速精确定位,提高目标定位的实时性和精确度。
为了实现上述技术目的,本发明的技术方案为:
一种基于图像匹配的目标定位方法,包括以下步骤:
(1)采用FAST算法对目标实测图像进行特征点检测;
(2)采用FREAK算法对步骤(1)获取的特征点进行描述和匹配;
(3)采用RANSAC算法对步骤(2)得到的匹配结果进行处理,剔除误匹配点,提取目标有效像素;
(4)采用SURF算法分别对提取目标后的实测图像和参考图像进行特征点检测;
(5)采用FREAK算法对步骤(4)获取的特征点进行描述和匹配;
(6)采用RANSAC算法对步骤(5)得到的匹配结果进行处理,剔除误匹配点,计算单应性矩阵;
(7)根据步骤(3)提取出的目标有效像素和步骤(6)计算的单应性矩阵,获取目标点在参考图像中的精确位置。
进一步地,步骤(1)的过程为,定义一圆形区域,以目标实测图像中的任意一点为该圆形区域的圆心P,将圆心P处的灰度值分别与邻域内16个像素点的灰度值进行比较:
|m-pi|>Δd,1≤i≤16
上式中,m为圆心P处的灰度值,pi为P点邻域内第i个点的灰度值,Δd为预设阈值;若满足上式的P点邻域内的像素点个数大于n,则将P点视为特征点,n为预设值。
进一步地,步骤(2)的具体步骤如下:
A、采用FREAK算法对特征点进行描述:
上式中,F为特征点的FREAK描述符,N为特征向量数,为任意两个采样点经过高斯平滑后的强度值;
B、对特征点的FREAK描述符进行降维:
B1、建立矩阵D,矩阵D每行代表一个FREAK描述符;
B2、计算矩阵D每一列的方差,首先将方差值最大的一列保存到矩阵D’中,然后计算其他列与该方差值最大列的协方差,再将协方差值最小的一列保存到矩阵D’中;
B3、将保留的两列从矩阵D中删除,然后返回步骤B2,直至矩阵D’的维度达到预设维度;
C、计算特征点的方向:
上式中,G为特征点的采样点对集合,M为G中采样点对数,PO为G中的一个点对,分别是Po的前一位和后一位的采样点空间坐标的二维向量,分别是处的灰度值;
D、根据特征点的FREAK描述符和特征点方向进行特征匹配。
进一步地,步骤(3)的具体步骤如下:
a、从匹配点集合S中随机选择s个特征点;
b、利用s个匹配点拟合出一个模型Q;
c、对于集合S中剩余的匹配点,计算每个匹配点与模型Q的距离,距离超过阈值的特征点视为局外点,距离未超过阈值的特征点视为局内点;
d、将上述步骤迭代k次后,将包含局内点数目最多的模型Qk作为拟合结果;
e、将集合S中不满足模型Qk的匹配点剔除,从而提取出目标有效像素。
进一步地,步骤(4)的具体步骤如下:
Ⅰ、设I(x,y)表示图像,X表示图像中某一点,尺度为σ的Hessian矩阵:
上式中,
Ⅱ、用框状滤波器与图像I(x,y)的卷积Dxx、Dxy、Dyy代替Lxx、Lxy、Lyy,得到Hessian矩阵的近似矩阵Happrox,计算矩阵Happrox的行列式:
det(Happrox)=DxxDyy-(ωDxy)2
上式中,ω是为补偿近似所产生的误差而设定的权重系数;
Ⅲ、将矩阵Happrox的行列式最大的像素点作为特征点;
IV、计算特征点的主方向:
以特征点为中心,计算半径为6σ的邻域内的点在x、y方向的Haar小波响应,Haar小波边长取4σ,对x、y方向的响应值进行因子为2σ的高斯加权,得到水平和垂直方向上的方向分量dx、dy;然后,以特征点为中心,张角为π3的扇形滑动,计算扇形窗口w内的dx、dy的累加值:
将mw最大对应的扇形窗口w的θw作为特征点的主方向:
进一步地,在步骤(6)中,计算单应性矩阵的步骤:
ⅰ、设单应性矩阵H的内部参数:
则:
其中,x'、y'、z'=1和x、y、z=1分别为两幅图像上的像素点;
ⅱ、随机选择4对匹配点估计H中的8个参数:
ⅲ、重复步骤ⅱ,得到若干矩阵H,将所有特征点代入下式,将满足下式的特征点数最多所对应的矩阵H作为最终的单应性矩阵:
上式中,t为预设阈值。
采用上述技术方案带来的有益效果:
本发明采用FAST特征检测结合FREAK特征描述的方式,能够快速地对目标实测图像序列进行匹配,采用RANSAC算法能够对匹配得到的特征点进行有效的错误剔除,从而精确提取出待定位目标;采用SURF特征检测结合FREAK特征描述的方式,能够快速地对大视角下的目标实测图像和机载参考图像进行匹配,采用RANSAC算法能够获取目标实测图像与机载参考图像之间的单应性矩阵,最后结合目标提取结果,在机载参考图像中精确定位目标。
本发明能够极大地减小目标定位误差,同时,本发明能够极大地提升目标定位的速度和效率,满足目标定位的实时性要求和高精度要求。
附图说明
图1是本发明的整体流程图;
图2是本发明中快速目标提取算法的流程图;
图3是本发明中快速图像匹配算法的流程图;
图4是本发明中目标高精度定位算法的流程图。
具体实施方式
以下将结合附图,对本发明的技术方案进行详细说明。
一种基于图像匹配的目标定位方法,如图1所示,包括三个部分:快速目标提取算法、快速图像匹配算法和目标高精度定位算法。
(一)快速目标提取算法(如图2所示)
(1)采用FAST算法对目标实测图像进行特征点检测
定义一圆形区域,以目标实测图像中的任意一点为该圆形区域的圆心P,将圆心P处的灰度值分别与邻域内16个像素点的灰度值进行比较:
|m-pi|>Δd,1≤i≤16
上式中,m为圆心P处的灰度值,pi为P点邻域内第i个点的灰度值,Δd为预设阈值;若满足上式的P点邻域内的像素点个数大于n,则将P点视为特征点,n为预设值。在本实施例中,n=9。
(2)采用FREAK(Fast Retina Keypoint,快速视网膜关键点)算法对步骤
(1)获取的特征点进行描述和匹配
FREAK描述符采样点的分布与视网膜感受域的结构相似,特征点的位置为中心点,采样点分布在特征点为圆心的多层同心圆上,且每层同心圆上的采样点妘分布,每个采样点又作为其他圆的圆心。与中心特征点间隔越小,采样点越密集;与中心特征点间隔越大,采样点越零散。层数越多,特征向量描述能力越强,计算量越大。
每个采样点需要进行高斯平滑以去除噪声,周围圆的半径代表高斯核函数的半径。FREAK描述符的形成是通过采样点对的强度比较结果级联组成,属于二进制比特串。设F是某特征点的FREAK描述符,则:
上式中,N为特征向量数,为任意两个采样点经过高斯平滑后的强度值。
为了保证算法的实用性,在图像匹配中需要针对信息量较大的维度实行保留,细节信息不会严重影响图像匹配的效果。通过以下步骤从图像数据中筛选高信息量的维度:
A、建立矩阵D,矩阵D每行代表一个FREAK描述符;
B、计算矩阵D每一列的方差,首先将方差值最大的一列保存到矩阵D’中,然后计算其他列与该方差值最大列的协方差,再将协方差值最小的一列保存到矩阵D’中;
C、将保留的两列从矩阵D中删除,然后返回步骤B,直至矩阵D’的维度达到预设维度。
计算特征点的方向:
上式中,G为特征点的采样点对集合,M为G中采样点对数,PO为G中的一个点对,分别是Po的前一位和后一位的采样点空间坐标的二维向量,分别是处的灰度值。
(3)采用RANSAC算法对步骤(2)得到的匹配结果进行处理,剔除误匹配点,提取目标有效像素
RANSAC(Random Sample Consensus)算法,又称随机抽样一致算法,是一种有效去除噪声影响,估计模型的方法。具体步骤如下。
a、从匹配点集合S中随机选择s个特征点;
b、利用s个匹配点拟合出一个模型Q;
c、对于集合S中剩余的匹配点,计算每个匹配点与模型Q的距离,距离超过阈值的特征点视为局外点Outliers,距离未超过阈值的特征点视为局内点inliers;
d、将上述步骤迭代k次后,将包含局内点数目最多的模型Qk作为拟合结果;
e、将集合S中不满足模型Qk的匹配点剔除,从而提取出目标有效像素。
集合S中的特征点数目通常较大,从中任选s个数据点的组合会很大,导致上面操作的运算量较大。通常情况下,只要保证模型估计需要的s个点都是局内点的概率足够高即可。因此设α为集合S中inliers的比例,z为进行k次选取后,至少有一次选取的s个点都是inliers的概率。则有:
z=1-(1-αs)k
其中,1-αs表示一次选取都不是inliers的概率,(1-αs)k表示k次选取中没有一次都是inliers的概率,则有:
k=log(1-z)/log(1-αs)
这里z一般要求满足大于95%即可。
(二)快速图像匹配算法(如图3所示)
(1)采用SURF(Speeded Up Robust Feature,快速鲁棒特征)算法分别对提取目标后的实测图像和参考图像进行特征点检测
SURF算法是对SIFT算法的一种改进,主要是在算法的执行效率上,比SIFT算法来讲运行更快,作为SIFT算法的加速版,SURF算法在适中的条件下完成两幅图像中物体的匹配基本实现了实时处理,其快速的基础为积分图像haar求导。
Hessian矩阵是Surf算法的核心,为了方便运算,假设函数f(x,y),Hessian矩阵H是由函数f(x,y)偏导数组成:
H矩阵判别式为:
判别式的值是矩阵H的特征值,可以利用判定结果的符号将所有点分类,根据判别式取值正负,来判别该点是或不是极值点。在SURF算法中,针对图像I(x,y)中一个像素点X(x,y),位于X处的σ尺度上对应的Hessian矩阵表达式为:
上式中,
高斯函数常用来做尺度空间的计算,但实际运算中,必须将其离散化并做裁剪,这就改变了复杂的模板,得到仅需若干矩形方块形成的模板。鉴于Lowe在用DOG近似LOG时获得的成功,Bay等提出将这种近似更扩展一步,直接用框状滤波器近似高斯的二阶偏导。用简化后近似的模板处理积分图像时,由于是简单矩形代替了复杂的偏导,运算量与模板的尺寸不相互影响,这就很大程度上减少了运算时间,提高了效率。经过实验表明这种框状滤波的近似并没有降低卷积模板的性能。将上述改变后的模板与图像卷积结果用Dxx、Dxy、Dyy代换Lxx、Lxy、Lyy可得近似Hessian矩阵Happrox的行列式方法:
det(Happrox)=DxxDyy-(ωDxy)2
其中,ω为权重系数,主要用来平衡近似误差,在本实施例中取0.9。根据上式计算原图像X点的响应值,再将对应全部的像素点进行逐个处理,就能够获得相应σ上的响应结果。
SURF算法引入了框状滤波模板和积分图像的概念,用不同大小的模板同原始图像在不同方向上做卷积,从而多尺度空间构建完成。尺度空间的最底层由9×9的模板滤波输入得到,对应二阶高斯滤波σ=1.2,此时近似模板的尺度S=σ=1.2。尺度空间的首层是最初始尺度的近似模板同图像做卷积计算结果而来,同理,使用调整尺寸的方式保持模板慢慢增大,之后的尺度层就是在这种情况下用每个尺寸同目标卷积便可形成。每两个距离最近的模板尺寸之差都固定为偶数个像素,从而保证了模板尺寸的奇数性和其中心像素的存在。每4个模板为1阶(Octave)。每1阶要进行4次滤波,第1阶中相邻的模板尺寸相差6个像素,上1阶第2次滤波模板的大小将作为下1阶最初滤波模板的大小,在第2阶中后1阶滤波模板较前1阶的大小总是增大12,同理第3层每次增加24,以此类推,一般取4阶数就足够了。SURF算法对于每1个像素点的非极大值抑制要在3×3×3的三维立体空间中进行,与该点上1个尺度对应的9个点、下1个尺度层对应的9个点以及自身周围邻域8个点共26个点比较,只有在达到最大或最小的条件下才选择为特征点,极大值被选定后,采用三维线性插值法得到亚像素级的特征点,同时也去除那些值小于一定阈值的点,最终确定特征点的位置及尺度。
以特征点为中心,计算半径为6σ(σ为特征点所在的尺度值)的邻域内的点在x、y方向的Haar小波(Haar小波边长取4σ)响应,计算出图像在Haar小波的x和y方向上的响应值之后,对两个值进行因子为2σ的高斯加权,加权后的值分别表示在水平和垂直方向上的方向分量dx、dy。Harr特征值反应了图像灰度变化的情况,那么这个主方向就是描述那些灰度变化特别剧烈的区域方向。接着,以特征点为中心,张角为π/3的扇形滑动,计算窗口w内的Harr小波响应值dx、dy的累加值:
将mw最大对应的扇形窗口w的θw作为特征点的主方向:
(2)采用FREAK算法对获取的特征点进行描述和匹配
该步骤余上文(一)中的步骤(2)一致,此处不再赘述。
(3)采用RANSAC算法对匹配结果进行处理,剔除误匹配点,计算单应性矩阵
设单应性矩阵H的内部参数:
则:
其中,x'、y'、z'=1和x、y、z=1分别为两幅图像上的像素点;
随机选择4对匹配点估计H中的8个参数:
多次选择匹配点,得到若干矩阵H,将所有特征点代入下式,将满足下式的特征点数最多所对应的矩阵H作为最终的单应性矩阵:
上式中,t为预设阈值。
(三)目标高精度定位算法(如图4所示)
设提取的目标有效像素为P(x,y),目标实测图像与机载参考图像之间匹配后利用RANSAC算法计算得到的像素点对应单应性矩阵为H,则目标在参考图中对应的像素坐标为:
Q(x,y)=H·P(x,y)
式中,Q(x,y)为由目标有效像素经单应性矩阵映射得到的在参考图中的像素坐标,利用该像素坐标即可对目标进行精确定位。
实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。

Claims (6)

1.一种基于图像匹配的目标定位方法,其特征在于,包括以下步骤:
(1)采用FAST算法对目标实测图像进行特征点检测;
(2)采用FREAK算法对步骤(1)获取的特征点进行特征描述,并对目标实测图像序列进行匹配;
(3)采用RANSAC算法对步骤(2)得到的匹配结果进行处理,剔除误匹配点,提取目标有效像素;
(4)采用SURF算法分别对提取目标后的实测图像和参考图像进行特征点检测;
(5)采用FREAK算法对步骤(4)获取的特征点进行描述和匹配;
(6)采用RANSAC算法对步骤(5)得到的匹配结果进行处理,剔除误匹配点,计算单应性矩阵;
(7)根据步骤(3)提取出的目标有效像素和步骤(6)计算的单应性矩阵,获取目标点在参考图像中的精确位置。
2.根据权利要求1所述基于图像匹配的目标定位方法,其特征在于,步骤(1)的过程为,定义一圆形区域,以目标实测图像中的任意一点为该圆形区域的圆心P,将圆心P处的灰度值分别与邻域内16个像素点的灰度值进行比较:
|m-pi|>Δd,1≤i≤16
上式中,m为圆心P处的灰度值,pi为P点邻域内第i个点的灰度值,Δd为预设阈值;若满足上式的P点邻域内的像素点个数大于n,则将P点视为特征点,n为预设值。
3.根据权利要求1所述基于图像匹配的目标定位方法,其特征在于,步骤(2)的具体步骤如下:
A、采用FREAK算法对特征点进行描述:
上式中,F为特征点的FREAK描述符,N为特征向量数,为任意两个采样点经过高斯平滑后的强度值;
B、对特征点的FREAK描述符进行降维:
B1、建立矩阵D,矩阵D每行代表一个FREAK描述符;
B2、计算矩阵D每一列的方差,首先将方差值最大的一列保存到矩阵D’中,然后计算其他列与该方差值最大列的协方差,再将协方差值最小的一列保存到矩阵D’中;
B3、将保留的两列从矩阵D中删除,然后返回步骤B2,直至矩阵D’的维度达到预设维度;
C、计算特征点的方向:
上式中,G为特征点的采样点对集合,M为G中采样点对数,PO为G中的一个点对,分别是Po的前一位和后一位的采样点空间坐标的二维向量,分别是处的灰度值;
D、根据特征点的FREAK描述符和特征点方向进行特征匹配。
4.根据权利要求1所述基于图像匹配的目标定位方法,其特征在于,步骤(3)的具体步骤如下:
a、从匹配点集合S中随机选择s个特征点;
b、利用s个匹配点拟合出一个模型Q;
c、对于集合S中剩余的匹配点,计算每个匹配点与模型Q的距离,距离超过阈值的特征点视为局外点,距离未超过阈值的特征点视为局内点;
d、将上述步骤迭代k次后,将包含局内点数目最多的模型Qk作为拟合结果;
e、将集合S中不满足模型Qk的匹配点剔除,从而提取出目标有效像素。
5.根据权利要求1所述基于图像匹配的目标定位方法,其特征在于,步骤(4)的具体步骤如下:
Ⅰ、设I(x,y)表示图像,X表示图像中某一点,尺度为σ的Hessian矩阵:
上式中,
Ⅱ、用框状滤波器与图像I(x,y)的卷积Dxx、Dxy、Dyy代替Lxx、Lxy、Lyy,得到Hessian矩阵的近似矩阵Happrox,计算矩阵Happrox的行列式:
det(Happrox)=DxxDyy-(ωDxy)2
上式中,ω是为补偿近似所产生的误差而设定的权重系数;
Ⅲ、将矩阵Happrox的行列式最大的像素点作为特征点;
IV、计算特征点的主方向:
以特征点为中心,计算半径为6σ的邻域内的点在x、y方向的Haar小波响应,Haar小波边长取4σ,对x、y方向的响应值进行因子为2σ的高斯加权,得到水平和垂直方向上的方向分量dx、dy;然后,以特征点为中心,张角为π/3的扇形滑动,计算扇形窗口w内的dx、dy的累加值:
将mw最大对应的扇形窗口w的θw作为特征点的主方向:
6.根据权利要求1所述基于图像匹配的目标定位方法,其特征在于:在步骤(6)中,计算单应性矩阵的步骤:
ⅰ、设单应性矩阵H的内部参数:
则:
其中,x'、y'、z'=1和x、y、z=1分别为两幅图像上的像素点;
ⅱ、随机选择4对匹配点估计H中的8个参数:
ⅲ、重复步骤ⅱ,得到若干矩阵H,将所有特征点代入下式,将满足下式的特征点数最多所对应的矩阵H作为最终的单应性矩阵:
上式中,t为预设阈值。
CN201710168768.3A 2017-03-21 2017-03-21 一种基于图像匹配的目标定位方法 Active CN107067415B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710168768.3A CN107067415B (zh) 2017-03-21 2017-03-21 一种基于图像匹配的目标定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710168768.3A CN107067415B (zh) 2017-03-21 2017-03-21 一种基于图像匹配的目标定位方法

Publications (2)

Publication Number Publication Date
CN107067415A CN107067415A (zh) 2017-08-18
CN107067415B true CN107067415B (zh) 2019-07-30

Family

ID=59617839

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710168768.3A Active CN107067415B (zh) 2017-03-21 2017-03-21 一种基于图像匹配的目标定位方法

Country Status (1)

Country Link
CN (1) CN107067415B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109901988A (zh) * 2017-12-11 2019-06-18 北京京东尚科信息技术有限公司 一种用于自动化测试的页面元素定位方法和装置
CN108388854A (zh) * 2018-02-11 2018-08-10 重庆邮电大学 一种基于改进fast-surf算法的定位方法
CN110874850A (zh) * 2018-09-04 2020-03-10 湖北智视科技有限公司 一种面向目标定位的实时单边网格特征配准方法
CN109685069B (zh) * 2018-12-27 2020-03-13 乐山师范学院 图像检测方法、装置及计算机可读存储介质
CN110084783A (zh) * 2019-03-30 2019-08-02 天津大学 星上局部特征实时检测与匹配方法
CN110533647B (zh) * 2019-08-28 2023-02-03 东北大学 一种基于线特征匹配的液晶屏Mark点定位方法
CN112734854A (zh) * 2019-10-28 2021-04-30 天津大学青岛海洋技术研究院 一种基于三目极线约束的相机自标定方法
CN111028292B (zh) * 2019-12-13 2022-12-13 中国电子科技集团公司第二十研究所 一种亚像素级图像匹配导航定位方法
CN113689374B (zh) * 2020-05-18 2023-10-27 浙江大学 一种植物叶片表面粗糙度确定方法及系统
CN111724444B (zh) * 2020-06-16 2023-08-22 中国联合网络通信集团有限公司 目标物的抓取点的确定方法、装置及抓取系统
CN111797925B (zh) * 2020-07-03 2024-04-30 河南辉铠智能科技有限公司 一种电力系统视觉图像分类方法及装置
CN112560666B (zh) * 2020-12-11 2021-08-17 北部湾大学 一种机器人视觉伺服抓取目标定位方法
CN112700374A (zh) * 2021-01-14 2021-04-23 广西师范大学 一种无人机序列图像的快速拼接方法
CN113064831A (zh) * 2021-04-21 2021-07-02 平安普惠企业管理有限公司 基于图像匹配的移动端测试方法、装置、设备及存储介质
CN113418527B (zh) * 2021-06-15 2022-11-29 西安微电子技术研究所 一种强实时双构连续景象融合匹配导航定位方法及系统
CN116485623B (zh) * 2023-06-21 2023-09-01 齐鲁工业大学(山东省科学院) 基于十六元数快速精确矩的多光谱图像灰度特征水印方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102865859A (zh) * 2012-09-21 2013-01-09 西北工业大学 一种基于surf特征的航空序列图像位置估计方法
CN103954283A (zh) * 2014-04-01 2014-07-30 西北工业大学 基于景象匹配/视觉里程的惯性组合导航方法
CN104361314A (zh) * 2014-10-21 2015-02-18 华北电力大学(保定) 基于红外与可见光图像融合的变电设备定位方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102865859A (zh) * 2012-09-21 2013-01-09 西北工业大学 一种基于surf特征的航空序列图像位置估计方法
CN103954283A (zh) * 2014-04-01 2014-07-30 西北工业大学 基于景象匹配/视觉里程的惯性组合导航方法
CN104361314A (zh) * 2014-10-21 2015-02-18 华北电力大学(保定) 基于红外与可见光图像融合的变电设备定位方法及装置

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Image Registration Method Based on SURF and FREAK;Wu Yanhai 等;《2015 IEEE International Conference on Signal Processing,Communications and Computing(ICSPCC)》;20151130;1-4
动态背景下基于ORB特征匹配的运动目标检测算法;薛丽霞 等;《计算机应用与软件》;20151031;第32卷(第10期);294-297
基于FREAK特征的快速景象匹配;王灿进 等;《电子测量与仪器学报》;20150228;第29卷(第2期);204-212
基于快速鲁棒性特征匹配的目标识别;王涛 等;《电光与控制》;20130430;第20卷(第4期);68-71
惯性信息辅助的快速大视角图像匹配方法;王云舒 等;《中国惯性技术学报》;20160831;第24卷(第4期);504-510
航拍视频帧间快速配准算法;申浩 等;《航空学报》;20130625;第34卷(第6期);1405-1413

Also Published As

Publication number Publication date
CN107067415A (zh) 2017-08-18

Similar Documents

Publication Publication Date Title
CN107067415B (zh) 一种基于图像匹配的目标定位方法
CN107358260B (zh) 一种基于表面波cnn的多光谱图像分类方法
CN109100741A (zh) 一种基于3d激光雷达及图像数据的目标检测方法
CN108596108B (zh) 基于三元组语义关系学习的航拍遥感图像变化检测方法
CN107481315A (zh) 一种基于Harris‑SIFT‑BRIEF算法的单目视觉三维环境重建方法
CN109409292A (zh) 基于精细化特征优化提取的异源图像匹配方法
CN106529538A (zh) 一种飞行器的定位方法和装置
CN106651942A (zh) 基于特征点的三维旋转运动检测与旋转轴定位方法
CN104933434A (zh) 一种结合LBP特征提取和surf特征提取方法的图像匹配方法
CN106355197A (zh) 基于K‑means聚类算法的导航图像匹配过滤方法
CN112883850B (zh) 一种基于卷积神经网络的多视角空天遥感图像匹配方法
CN102865859A (zh) 一种基于surf特征的航空序列图像位置估计方法
Lei et al. End-to-end change detection using a symmetric fully convolutional network for landslide mapping
CN107392929A (zh) 一种基于人眼视觉模型的智能化目标检测及尺寸测量方法
CN106023187A (zh) 一种基于sift特征和角度相对距离的图像配准方法
CN105488541A (zh) 增强现实系统中基于机器学习的自然特征点识别方法
CN110516525A (zh) 基于gan和svm的sar图像目标识别方法
CN105631860B (zh) 基于局部排序方向直方图描述子的图像同名点提取方法
CN107689058A (zh) 一种基于surf特征提取的图像配准算法
CN109410233A (zh) 一种边缘特征约束的高分辨率图像道路精准提取方法
CN107345814A (zh) 一种移动机器人视觉定位系统及定位方法
CN110826575A (zh) 一种基于机器学习的水下目标识别方法
CN106951873A (zh) 一种遥感图像目标识别方法
CN114565653B (zh) 一种存在旋转变化和尺度差异的异源遥感图像匹配方法
CN114862883A (zh) 一种目标边缘提取方法、图像分割方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant