CN110569861B - 一种基于点特征和轮廓特征融合的图像匹配定位方法 - Google Patents

一种基于点特征和轮廓特征融合的图像匹配定位方法 Download PDF

Info

Publication number
CN110569861B
CN110569861B CN201910820291.1A CN201910820291A CN110569861B CN 110569861 B CN110569861 B CN 110569861B CN 201910820291 A CN201910820291 A CN 201910820291A CN 110569861 B CN110569861 B CN 110569861B
Authority
CN
China
Prior art keywords
point
image
feature
contour
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910820291.1A
Other languages
English (en)
Other versions
CN110569861A (zh
Inventor
王健
魏红波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 20 Research Institute
Original Assignee
CETC 20 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 20 Research Institute filed Critical CETC 20 Research Institute
Priority to CN201910820291.1A priority Critical patent/CN110569861B/zh
Publication of CN110569861A publication Critical patent/CN110569861A/zh
Application granted granted Critical
Publication of CN110569861B publication Critical patent/CN110569861B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于点特征和轮廓特征融合的图像匹配定位方法,点特征检测之后,计算分割阈值,将图像二值化,通过轮廓边缘点查找后,轮廓近似拟合,使得点特征和轮廓特征融合,进行特征描述和特征匹配,通过映射矩阵点筛选,计算映射矩阵和匹配位置,将实时图中心坐标映射到基准图上,并根据飞行平台姿态信息补偿得到飞行平台当前地理位置信息。本发明点特征具有内在轮廓约束,通过轮廓特征能够快速有效的剔除误匹配点,避免了单一用点特征匹配带来的误匹配问题,提高了匹配正确性,通过点特征和轮廓特征融合实现了飞行平台拍摄实时图和卫星遥感图像基准图的异源图像匹配定位,相对于目前的匹配算法具有较高的正确性。

Description

一种基于点特征和轮廓特征融合的图像匹配定位方法
技术领域
本发明涉及视觉导航领域,提出了一种图像匹配定位方法,可用于飞行平台视觉导航定位,还可以用于各类飞行平台在航路飞行上的目标跟踪等领域。
背景技术
图像匹配是指对不同拍摄环境或拍摄设备下获取的两幅或多幅景象,建立图像间部分或者全部信息的映射关系。图像匹配技术在许多领域都有着广泛的应用,包括导弹的地形和地图匹配定位、视觉导航等。
在视觉导航领域,通过飞行平台的光电设备获取当前实时位置实时图,将实时图和带有地理信息的基准图比较匹配,如果完成实时图和基准图匹配,那么就能知道飞行平台当前地理位置,完成导航定位。
基准图为星载相机拍摄的高分辨率光学遥感图像,实时图为飞行平台的光电设备获取的光学图像,由于不同传感器的成像特性存在差别,成像机理差别较大,同一场景在两幅图像上可能呈现完全不同的表现,为了能够利用图像匹配进行视觉导航,需要一种可靠的异源图像匹配方法。
图像匹配主要有两类方法:基于灰度区域的方法和基于特征的方法。
基于灰度区域的方法通常直接利用整幅图像的灰度像素或梯度信息进行匹配,常用的方法有灰度相关方法、梯度相关方法等,这类方法主要缺点是对图像变形适应性较差,计算量大,对于成像差异较大的图像一般很难得到理想的结果。
基于特征的方法首先提取图像中一些显著性结构,即点、直线、曲线或曲面等,然后对这些特征进行匹配。由于特征是图像中像素一部分,比像素点要少,减少了匹配过程中计算量。常用的方法有Harris、SIFT(Scale Invariant Feature Transform)算法、SURF(Speed Up Robust Feature)、ORB(Oriented Brief)算法等。这些算法对于不同的异源图像匹配,匹配错误较多。
基于SURF的两幅异源图像匹配结果如图1所示,左图是无人机拍摄的实时图,右图是卫星遥感基准图像,通过匹配结果可以看出实时图的A区域错误的和基准图的A’、B’区域匹配,把不相关的区域建立匹配关系,如果根据错误的匹配结果进行定位就会得出错误结论,其它算法(如ORB、SIFT等)都存在类似问题。如何提升飞行平台拍摄的实时图和卫星遥感图像匹配正确性是视觉匹配导航定位的重要研究内容之一。
匹配错误较多的一个原因是缺少有效的误匹配点剔除方法,专利“石悦,付琨,孙显,等.一种多源传感器的遥感图像配准方法[P].中国:CN103020945B,2016”介绍了一种多源遥感图像配准方法,通过随机一致性抽样算法剔除误匹配点,专利“单小军,唐娉,郑柯,等.一种用于包含复杂地形遥感图像的误匹配点剔除方法[P].中国:CN10254265B,2014”介绍了一种有效剔除匹配过程中误匹配点方法,对飞行平台拍摄的实时图和卫星遥感图像匹配时,利用这些方法剔除误匹配点不能取得满意效果。
从目前公开的文献“王晓红,何志伟,邓仕雄,等.利用特征组合检测算法的无人机遥感影像匹配研究[J].测绘通报,2019(1):29-33.”、“邓仕雄,王晓红,刘继庚,等.基于SURF算法和极限约束的无人机影像匹配研究[J].贵州大学学报(自然科学版),2018,35(1):35-39.”、“王瑞瑞,冯伍法,张艳,等.一种结合相位相关法和AKAZE算法的纹理缺乏地区影像匹配技术[J].测绘通报,2017(4):49-52.”中看出,在遥感影像匹配中利用单一图像特征匹配比较困难,为了提高飞行平台拍摄的实时图和卫星遥感图像匹配正确性,需要利用图像的多种特征信息。
发明内容
为了克服现有技术的不足,本发明提供一种基于点特征和轮廓特征融合的图像匹配定位方法。为了解决背景技术中飞行平台拍摄的实时图和卫星遥感图像匹配困难的问题,利用轮廓特征约束点特征分布,让不具有关联关系的点特征之间建立轮廓特征约束,提高了匹配准确性,为飞行平台提供一种视觉导航定位方法。
本发明解决其技术问题所采用的技术方案的具体步骤如下:
1)点特征检测
采用Hessian局部极大值原理进行点特征检测,第i个像素的Hessian矩阵的计算公式为:
Figure BDA0002187351530000021
式中σi,norm为对应图像组中归一化尺度因子,Lxx和Lyy分别为二阶横向和纵向微分,Lxy为二阶交叉微分;
寻找极值点时候,每一个像素点和周围所有的相邻点进行比较,比较范围是当前尺度、上一尺度(当前尺度图像2倍降采样)和下一尺度(当前尺度图像2倍线性插值)上的3×3矩形窗口,当像素点大于所有相邻点时,则像素点是极值点,即搜索空间是一个边长3个像素单位的立方体,将当前像素点和同尺度8个相邻点,以及上下尺度相邻的18个点一一比较,确保在尺度空间和图像空间内都能检测到极值点;
2)分割阈值计算
采用类间方差最大方法实现自适应分割阈值计算,满足动态场景需求;
3)图像二值化
根据分割阈值,图像中像素的灰度值大于阈值的置为255,灰度值小于阈值的置为0,将图像进行二值化处理;
4)轮廓边缘点查找
对于二值化的图像f(x,y),满足f(x,y)=255,f(x,y-1)=0的像素点(x,y)是轮廓外边界起始点,满足f(x,y)≥255,f(x,y+1)=0的像素点(x,y)是轮廓孔边界起始点;
从图像f(x,y)左上角,即图像坐标系原点处,开始逐行对每一个像素点(x,y)进行扫描,遇到外边界和孔边界起点时终止扫描,扫描结束后,从起始点开始标记边界上像素,若为新发现的边界,分配唯一识别符,直至发现所有边界形成的最终轮廓;
5)轮廓近似拟合
针对每一个轮廓,设定一个门限值,对于轮廓上A、B两点连成的直线,找到AB之间点C,若C到AB的距离小于门限值,则认为AB和C属于一组,否则连接AC、CB,继续重复上述操作,直至处理完轮廓上所有点;
对轮廓进行近似拟合,处理所有轮廓,去掉噪点对轮廓边缘特征影响;
6)点特征和轮廓特征融合
对于一个轮廓,选取轮廓附近8个邻域区域,如果特征点在区域内,保留该特征点,否则删除该特征点;
7)特征描述
对于融合后的每一个特征点分别计算梯度方向和梯度幅值,像素点(x,y)的梯度值计算公式为:
Figure BDA0002187351530000031
像素点(x,y)的梯度方向计算公式为:
θ(x,y)=tan-1((f(x,y+1)-f(x,y-1))/(f(x+1,y)-f(x-1,y)))然后用高斯窗口进行加权,并插值计算每个梯度方向的累加值后,建立8个方向的梯度直方图;
分别对4×4个子区域的8个梯度信息根据位置依次排序,形成一个128维的特征向量描述;
8)特征匹配
根据欧式距离、最近/次近邻法则,从实时图和待匹配基准图像的特征点描述集中选出满足条件的匹配点;
9)映射矩阵点筛选
通过随机采样一致性算法(RANSC)消除错误匹配和不精确匹配,噪点剔除后的特征匹配对即映射矩阵点;
10)映射矩阵计算
实时图和基准图在正确匹配后,同名特征具有相同映射关系,映射关系表示为:
Figure BDA0002187351530000041
其中
Figure BDA0002187351530000042
为基准图,
Figure BDA0002187351530000043
为实时图,H为映射矩阵;
基于筛选的映射矩阵点,通过最小二乘得到实时图和基准图的映射矩阵H;
11)匹配位置计算
根据映射矩阵,将实时图中心坐标映射到基准图上,并根据飞行平台姿态信息补偿得到飞行平台当前地理位置信息。
步骤2)中所述类间方差最大方法计算步骤如下:
假定存在一个阈值K,将大小为M×N的图像像素分成两部分,第一部分像素的坐标
Figure BDA0002187351530000044
第二部分像素的坐标
Figure BDA0002187351530000045
第一部分像素数量占总像素数量比为Pa,第二部分像素数量占总像素数量比为Pb,第一部分像素的平均灰度值均值为
Figure BDA0002187351530000046
第二部分像素的平均灰度值均值为
Figure BDA0002187351530000047
则阈值K应满足:
Figure BDA0002187351530000048
通过图像迭代求出分割阈值。
本发明的有益效果在于将点特征和轮廓特征进行融合,让轮廓特征约束点特征,这样做的好处主要体现在:1)点特征具有内在轮廓约束,通过轮廓特征能够快速有效的剔除误匹配点,2)点特征和轮廓特征融合,避免了单一用点特征匹配带来的误匹配问题,提高了匹配正确性。通过点特征和轮廓特征融合实现了飞行平台拍摄实时图和卫星遥感图像基准图的异源图像匹配定位,相对于目前的匹配算法具有较高的正确性。
附图说明
图1为本发明的SURF匹配图。
图2为本发明的图像匹配流程图。
图3为本发明的实时图的点特征检测结果。
图4为本发明的实时图图像二值化结果。
图5为本发明的轮廓查找结果。
图6为本发明的轮廓近似拟合结果。
图7为本发明的点特征和轮廓特征融合结果。
图8为本发明的匹配结果。
图9为本发明的俯仰角补偿示意图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本发明利用点特征和轮廓特征融合进行图像匹配定位,参照图2,对图像分别进行点特征、轮廓特征提取(包括图像二值化、轮廓边缘近似拟合等步骤),然后将点特征和轮廓特征进行融合,对融合的特征构造特征描述向量,通过匹配特征描述得到实时图和基准图的映射矩阵,最后利用映射矩阵将实时图光轴中心位置坐标映射到基准图中,通过查找映射到基准图中点的地理信息确定飞行平台当前位置,完成视觉导航定位。
现对照附图详细说明本发明的具体实施方式。具体实施步骤如下:
1)点特征检测
类似SURF算法,本发明的点特征是图像不同尺度归一化后的Hessian局部极大值点。第i个像素的Hessian矩阵的计算公式为
Figure BDA0002187351530000051
式中
Figure BDA0002187351530000061
为对应图像组中归一化尺度因子,Lxx和Lyy分别为二阶横向和纵向微分,Lxy为二阶交叉微分。
寻找极值点时候,每一个像素点和它附近所有的相邻点进行比较,比较范围是当前尺度、上一尺度和下一尺度上的3×3矩形窗口,当其大于所有相邻点时则认为是极值点。也就是说搜索空间是一个边长3个像素单位的立方体,将当前像素点和同尺度8个相邻点,以及上下尺度相邻的18个点一一比较,确保在尺度空间和图像空间内都能检测到极值点。实时图的点特征检测结果参照图3所示。
2)分割阈值计算
实际图像场景复杂多变,采用固定分割阈值效果不理想,本发明采用类间方差最大原则实现自适应分割阈值,根据实际图像情况进行阈值计算。类间方差最大方法计算步骤如下:
假定存在一个阈值K,将大小为M×N的图像像素分成两部分,第一部分像素的坐标
Figure BDA0002187351530000062
第二部分像素的坐标
Figure BDA0002187351530000063
第一部分像素数量占总像素数量比为Pa,第二部分像素数量占总像素数量比为Pb,第一部分像素的平均灰度值均值为
Figure BDA0002187351530000064
第二部分像素的平均灰度值均值为
Figure BDA0002187351530000065
那么阈值K应满足:
Figure BDA0002187351530000066
通过图像迭代就可以求出分割阈值。
3)图像二值化
根据第二步计算得到的分割阈值,图像中像素的灰度值大于阈值置为255,灰度值小于阈值置为0,实现图像二值化。图像二值化结果参照图4所示。
4)轮廓边缘点查找
对于二值化的图像f(x,y),满足f(x,y)=255,f(x,y-1)=0的像素点(x,y)是轮廓外边界起始点,满足f(x,y)≥255,f(x,y+1)=0的像素点(x,y)是轮廓孔边界起始点。
从图像f(x,y)左上角,即图像坐标系原点处,开始逐行对每一个像素点(x,y)进行扫描,遇到外边界和孔边界起点时终止扫描,扫描结束后从上述起始点开始标记边界上像素,若为新发现的边界,分配唯一识别符,直至发现所有边界形成的最终轮廓。查找完成的图像轮廓边界参照图5所示。
5)轮廓近似拟合
查找的轮廓点受噪声影响,存在不准确现象,为了后续更好的和点特征融合,需要对查找的轮廓进行近似拟合。
针对每一个轮廓,设定一个门限值,对于轮廓上A、B两点连成的直线,找到AB之间点C,若C到AB的距离小于阈值,则认为AB和C属于一组,否则连接AC、CB,继续重复上述操作,直至处理完轮廓上所有点。阈值越小,拟合的轮廓越接近曲线。
对于图像上的所有轮廓做同样处理,直至处理完所有轮廓。轮廓近似拟合结果参照图6所示。通过轮廓近似,有效的去除噪点对图像轮廓特征的影响。
6)点特征和轮廓特征融合
对于一个轮廓,选取轮廓附近8个邻域区域,如果特征点在区域内,保留该特征点,否则删除该特征点。通过轮廓特征约束点特征,让不具有关联性的点特征具有一定内在关联性,关联性就是轮廓边缘。点特征和轮廓特征融合结果参照图7所示,为了更好显示融合结果,图7中只画出点特征和轮廓特征。
7)特征描述
对于融合后的每一个特征点分别进行特征描述,首先以特征点为中心的邻域均匀地分成4×4的子区域,计算子区域内每个像素点的梯度方向和梯度幅值。
像素点(x,y)的梯度值计算公式为
Figure BDA0002187351530000071
像素点(x,y)的梯度方向计算公式为θ(x,y)=tan-1((f(x,y+1)-f(x,y-1))/(f(x+1,y)-f(x-1,y)))
然后用高斯窗口对其进行加权并插值计算每个梯度方向的累加值后建立8个方向的梯度直方图。
分别对4×4个子区域的8个梯度信息根据位置依次排序,形成一个128维的特征向量,该特征向量就是特征点的特征描述。
8)特征匹配
根据欧式距离、最近/次近邻法则,从实时图和待匹配基准图像的特征点描述集中选出满足条件的匹配点。
设定实时图和基准图特征集合分别为P实时图={p1,p2,...,pm},P基准固={P1′,P2′,...,Pn′},在特征匹配过程中,对于每一个实时图特征点pi,从基准图特征点中搜寻与其欧式距离为最近和次近的点,如果最近和次近距离比值小于设定阈值,则认为基准图中该点与实时图pi相匹配,否则匹配失败。
9)映射矩阵点筛选
通过随机采样一致性算法(RANSC)消除错误匹配和不精确匹配,噪点剔除后的特征匹配对就是映射矩阵点。
10)映射矩阵计算
实时图和基准图在正确匹配后,理论上同名特征具有相同映射关系,其关系表示为:
Figure BDA0002187351530000081
其中
Figure BDA0002187351530000082
为基准图,
Figure BDA0002187351530000083
为实时图,H为映射矩阵,H=[h1 h2 h3]=K[r1 r2 T],由于r1,r2正交,矩阵H可以通过对所有特征点计算最小二乘解得到。
根据计算得到的映射矩阵将实时图所有像素映射到基准图上,得到实时图的映射区域,结果参照图8中四边形包围的区域所示。
11)匹配位置计算
如果拍摄实时图和基准图时姿态一致,映射区域应是理想的长方形,参照图8所示,实际中实时图的映射区域非理想长方形,说明飞行平台在拍摄实时图姿态和基准图不一致。
为了更好的计算当前飞行平台地理位置,选用镜头光轴中心,也就是实时图中心坐标(x,y),如图8中左图上虚线标记所示,通过映射矩阵将实时图中心坐标映射到基准图中得到基准图坐标位置(x,Y),如图8中右图上虚线标记所示。
基准图中的坐标位置仅仅是根据视觉匹配得到,利用飞行平台的姿态信息进行视觉匹配位置补偿,得到飞行平台当前地理实时位置。
位置补偿主要是飞行平台的俯仰、航向、横滚造成的。俯仰补偿参照图9所示,距离为L,俯仰角度为θ,俯仰角度影响的位置补偿大小为Lsinθ,航向、横滚补偿具有类似处理方式。
以上实施例仅用于说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。

Claims (2)

1.一种基于点特征和轮廓特征融合的图像匹配定位方法,其特征在于包括下述步骤:
1)点特征检测
采用Hessian局部极大值原理进行点特征检测,第i个像素的Hessian矩阵的计算公式为:
Figure FDA0003859829430000011
式中σi,norm为对应图像组中归一化尺度因子,Lxx和Lyy分别为二阶横向和纵向微分,Lxy为二阶交叉微分;
寻找极值点时候,每一个像素点和周围所有的相邻点进行比较,比较范围是当前尺度、上一尺度和下一尺度上的3×3矩形窗口,上一尺度为当前尺度图像2倍降采样,下一尺度为当前尺度图像2倍线性插值,当像素点大于所有相邻点时,则像素点是极值点,即搜索空间是一个边长3个像素单位的立方体,将当前像素点和同尺度8个相邻点,以及上下尺度相邻的18个点一一比较,确保在尺度空间和图像空间内都能检测到极值点;
2)分割阈值计算
采用类间方差最大方法实现自适应分割阈值计算,满足动态场景需求;
3)图像二值化
根据分割阈值,图像中像素的灰度值大于阈值的置为255,灰度值小于阈值的置为0,将图像进行二值化处理;
4)轮廓边缘点查找
对于二值化的图像f(x,y),满足f(x,y)=255,f(x,y-1)=0的像素点(x,y)是轮廓外边界起始点,满足f(x,y)≥255,f(x,y+1)=0的像素点(x,y)是轮廓孔边界起始点;
从图像f(x,y)左上角,即图像坐标系原点处,开始逐行对每一个像素点(x,y)进行扫描,遇到外边界和孔边界起点时终止扫描,扫描结束后,从起始点开始标记边界上像素,若为新发现的边界,分配唯一识别符,直至发现所有边界形成的最终轮廓;
5)轮廓近似拟合
针对每一个轮廓,设定一个门限值,对于轮廓上A、B两点连成的直线,找到AB之间点C,若C到AB的距离小于门限值,则认为AB和C属于一组,否则连接AC、CB,继续重复上述操作,直至处理完轮廓上所有点;
对轮廓进行近似拟合,处理所有轮廓,去掉噪点对轮廓边缘特征影响;
6)点特征和轮廓特征融合
对于一个轮廓,选取轮廓附近8个邻域区域,如果特征点在区域内,保留该特征点,否则删除该特征点;
7)特征描述
对于融合后的每一个特征点分别计算梯度方向和梯度幅值,像素点(x,y)的梯度值计算公式为:
Figure FDA0003859829430000021
像素点(x,y)的梯度方向计算公式为:
θ(x,y)=tan-1((f(x,y+1)-f(x,y-1))/(f(x+1,y)-f(x-1,y)))
然后用高斯窗口进行加权,并插值计算每个梯度方向的累加值后,建立8个方向的梯度直方图;
分别对4×4个子区域的8个梯度信息根据位置依次排序,形成一个128维的特征向量描述;
8)特征匹配
根据欧式距离、最近/次近邻法则,从实时图和待匹配基准图像的特征点描述集中选出满足条件的匹配点;
9)映射矩阵点筛选
通过随机采样一致性算法(RANSC)消除错误匹配和不精确匹配,噪点剔除后的特征匹配对即映射矩阵点;
10)映射矩阵计算
实时图和基准图在正确匹配后,同名特征具有相同映射关系,映射关系表示为:
Figure FDA0003859829430000022
其中
Figure FDA0003859829430000023
为基准图,
Figure FDA0003859829430000024
为实时图,H为映射矩阵;
基于筛选的映射矩阵点,通过最小二乘得到实时图和基准图的映射矩阵H;
11)匹配位置计算
根据映射矩阵,将实时图中心坐标映射到基准图上,并根据飞行平台姿态信息补偿得到飞行平台当前地理位置信息。
2.根据权利要求1所述的一种基于点特征和轮廓特征融合的图像匹配定位方法,其特征在于:
所述步骤2)中,类间方差最大方法计算步骤如下:
假定存在一个阈值K,将大小为M×N的图像像素分成两部分,第一部分像素的坐标
Figure FDA0003859829430000031
第二部分像素的坐标
Figure FDA0003859829430000032
第一部分像素数量占总像素数量比为Pa,第二部分像素数量占总像素数量比为Pb,第一部分像素的平均灰度值均值为
Figure FDA0003859829430000033
第二部分像素的平均灰度值均值为
Figure FDA0003859829430000034
则阈值K应满足:
Figure FDA0003859829430000035
通过图像迭代求出分割阈值。
CN201910820291.1A 2019-09-01 2019-09-01 一种基于点特征和轮廓特征融合的图像匹配定位方法 Active CN110569861B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910820291.1A CN110569861B (zh) 2019-09-01 2019-09-01 一种基于点特征和轮廓特征融合的图像匹配定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910820291.1A CN110569861B (zh) 2019-09-01 2019-09-01 一种基于点特征和轮廓特征融合的图像匹配定位方法

Publications (2)

Publication Number Publication Date
CN110569861A CN110569861A (zh) 2019-12-13
CN110569861B true CN110569861B (zh) 2022-11-22

Family

ID=68777220

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910820291.1A Active CN110569861B (zh) 2019-09-01 2019-09-01 一种基于点特征和轮廓特征融合的图像匹配定位方法

Country Status (1)

Country Link
CN (1) CN110569861B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112288040B (zh) * 2020-01-10 2021-07-23 牧今科技 执行用于物体识别的图像分类的方法和系统
CN111369594A (zh) * 2020-03-31 2020-07-03 北京旋极信息技术股份有限公司 一种实现目标跟踪的方法、装置、计算机存储介质及终端
CN111767960A (zh) * 2020-07-02 2020-10-13 中国矿业大学 一种应用于图像三维重建的图像匹配方法及系统
CN112100845B (zh) * 2020-09-14 2022-03-11 西北工业大学 一种碳/碳复合材料孔隙的轮廓匹配及空间结构表征方法
CN112419374B (zh) * 2020-11-11 2022-12-27 北京航空航天大学 一种基于图像配准的无人机定位方法
CN113450378B (zh) * 2021-06-28 2022-06-03 河北工业大学 一种判断触点组差平面高度数据匹配程度的方法
CN116309837B (zh) * 2023-03-16 2024-04-26 南京理工大学 一种结合特征点与轮廓点的毁伤元识别定位方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104867126A (zh) * 2014-02-25 2015-08-26 西安电子科技大学 基于点对约束和三角形网的有变化区域的合成孔径雷达图像配准方法
CN108416732A (zh) * 2018-02-02 2018-08-17 重庆邮电大学 一种基于图像配准与多分辨率融合的全景图像拼接方法
CN109398688A (zh) * 2018-11-16 2019-03-01 湖南大学 一种旋翼飞行双机械臂目标定位抓取系统及方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9158963B2 (en) * 2012-10-04 2015-10-13 Adobe Systems Incorporated Fitting contours to features
CN106067025A (zh) * 2016-05-10 2016-11-02 浙江理工大学 一种实物象棋开局的识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104867126A (zh) * 2014-02-25 2015-08-26 西安电子科技大学 基于点对约束和三角形网的有变化区域的合成孔径雷达图像配准方法
CN108416732A (zh) * 2018-02-02 2018-08-17 重庆邮电大学 一种基于图像配准与多分辨率融合的全景图像拼接方法
CN109398688A (zh) * 2018-11-16 2019-03-01 湖南大学 一种旋翼飞行双机械臂目标定位抓取系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
综合特征一致性模型在图像特征检测中的应用;严丹等;《红外与激光工程》;20080615;全文 *

Also Published As

Publication number Publication date
CN110569861A (zh) 2019-12-13

Similar Documents

Publication Publication Date Title
CN110569861B (zh) 一种基于点特征和轮廓特征融合的图像匹配定位方法
CN110097093B (zh) 一种异源图像精确匹配方法
CN110443836B (zh) 一种基于平面特征的点云数据自动配准方法及装置
CN111028277B (zh) 基于伪孪生卷积神经网络的sar和光学遥感图像配准方法
Kang et al. Automatic targetless camera–lidar calibration by aligning edge with gaussian mixture model
Wang et al. Lane detection using catmull-rom spline
CN111145228B (zh) 基于局部轮廓点与形状特征融合的异源图像配准方法
CN104200461B (zh) 基于互信息图像选块和sift特征的遥感图像配准方法
CN102865859B (zh) 一种基于surf特征的航空序列图像位置估计方法
CN112883850B (zh) 一种基于卷积神经网络的多视角空天遥感图像匹配方法
CN110595476A (zh) 一种基于gps和图像视觉融合的无人机降落导航方法及装置
US20100074473A1 (en) System and method of extracting plane features
CN107862319B (zh) 一种基于邻域投票的异源高分光学影像匹配误差剔除方法
CN107240130B (zh) 遥感影像配准方法、装置及系统
CN103136525A (zh) 一种利用广义Hough变换的异型扩展目标高精度定位方法
CN114265427B (zh) 一种基于红外图像匹配的巡检无人机辅助导航系统及方法
CN111967337A (zh) 一种基于深度学习和无人机影像的管道线变化检测方法
CN109671109B (zh) 密集点云生成方法及系统
CN111932565A (zh) 一种多靶标识别跟踪解算方法
JP2023530449A (ja) 空中と地上の位置合わせのためのシステムおよび方法
CN117078717A (zh) 基于无人机单目相机的道路车辆轨迹提取方法
Huang et al. SAR and optical images registration using shape context
CN113221883B (zh) 无人机飞行导航路线实时修正方法
CN110738098A (zh) 一种目标的识别定位与锁定跟踪方法
CN114565653B (zh) 一种存在旋转变化和尺度差异的异源遥感图像匹配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant