CN102938147A - 一种基于快速鲁棒特征的低空无人机视觉定位方法 - Google Patents

一种基于快速鲁棒特征的低空无人机视觉定位方法 Download PDF

Info

Publication number
CN102938147A
CN102938147A CN201210356155XA CN201210356155A CN102938147A CN 102938147 A CN102938147 A CN 102938147A CN 201210356155X A CN201210356155X A CN 201210356155XA CN 201210356155 A CN201210356155 A CN 201210356155A CN 102938147 A CN102938147 A CN 102938147A
Authority
CN
China
Prior art keywords
point
feature
trace
calculate
hessian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201210356155XA
Other languages
English (en)
Inventor
李耀军
潘泉
赵春晖
杨峰
梁彦
程咏梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201210356155XA priority Critical patent/CN102938147A/zh
Publication of CN102938147A publication Critical patent/CN102938147A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种基于快速鲁棒特征的低空无人机视觉定位方法,能够适应低空无人机航空序列图像的旋转、尺度变换及噪声干扰,实现飞行器位置的精确估计。首先,构建了SURF尺度空间,运用快速Hessian矩阵定位极值点,计算出航空图像的64维SURF特征描述子;然后,基于Hessian矩阵迹完成特征点匹配;最后,使用RANSAC方法剔除出格点,实现位置参数的精确估计。本发明用RANSAC算法求解基准图与实时图之间的变换参数。基于RANSAC的局部参数估计完成后,剔除外点后,解算出符合匹配要求的内点,即可得到实时图基于RANSAC估计参数的变换结果以及实时图中心在基准图上的定位结果。

Description

一种基于快速鲁棒特征的低空无人机视觉定位方法
技术领域
本发明涉及一种基于快速鲁棒特征的低空无人机视觉定位方法,能够适应低空无人机航空序列图像的旋转、尺度变换及噪声干扰,实现飞行器获取的实时图在卫星基准图上位置参数的精确估计。
背景技术
在视觉导航中,低空无人机位置参数估计是自主导航的核心,研究高精度、鲁棒图像匹配方法是提高无人机位置参数估计的重要手段。
本发明利用快速鲁棒特征(Speeded-up robust features,SURF)即一种新的局部不变特征方法,对子区域的梯度信息进行了整合,可以有效解决实时图与基准图在几何变换、畸变、仿射变换、视角变换、亮度变换、噪声干扰等情况下的匹配问题。一般情况下,机载摄像机获取的地面影像(实时图)与卫星数字正射影像图(基准图)之间存在较大差异(如尺度、旋转、光照等),传统的基于模板匹配的方法在图像配准前,需要基于规划航迹预测出实时图相对于基准图的航向偏差,增加了方法的复杂度,且配准误差较大。本发明能够克服图像在几何变化、光照变化、噪声干扰时仍保持一定稳定性的图像局部特征。与传统方法相比,基于不变特征的图像匹配在动态环境适应性方面,配准精度和鲁棒性方面均具有较大优势。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种基于快速鲁棒特征的低空无人机视觉定位方法。
技术方案
一种基于快速鲁棒特征的低空无人机视觉定位方法,其特征在于步骤如下:
步骤1多尺度空间构建:以9×9的滤波器而言,高斯二阶导的大小定为3,其滤波器大小的1/3,即9×1/3=3;滤波器尺寸可用size=3+5s公式计算,其中s是σ的倍数;
步骤2快速Hessian矩阵检测:对于图像I中一个给定的点X=(x,y),Hessian矩阵中采用近似的高斯核函数,即箱式滤波器Dxy,Dxy,Dyy,9×9的滤波器是对高斯核函数在σ=1.2处的近似;引入高斯核函数和高斯核函数的比例因子ω,Hessian矩阵的行列式变形为det(Hopprox)=DxxDyy-(ωDxy)2,ω取常量0.9;
步骤3SURF特征描述子提取:以极值点为中心选取半径为6s的圆形区域,计算哈尔小波在x和y方向上的响应值,记为hx,hy;以σ=3s为加权因子对两个响应值高斯加权,记为Whx,Why;对Whx,Why用直方图统计并将360°均分为72组,以极值点为中心的圆均分为6个区,统计各60°扇区内的Whx,Why,记为∑Whx,∑Why,同时计算该区的梯度值,梯度值最大区域所在的方向即为该极值点的主方向,以∑Whx,∑Why反正切计算出主方向度数,s即极值点所在尺度;
首先以极值点为中心选取20×20大小的区域,将区域的方向旋转到极值点的方向;将这个正方形区域分成4×4共16个子区域,每个子区域里有(20/4=5)5×5的像素,在每一个子区域分别计算每个像素点在哈尔小波x和y方向上的响应值;
计算完所有的像素的响应值后,对所有的dx,dy,以极值点为中心进行高斯加权(σ=3.35),分别记为dx,dy,然后求和,记为∑dx,∑dy;并对dx,dy绝对值求和,记为∑|dx|,∑|dy|,均存入特征向量并归一化,形成了一个四维的向量:v=(∑dx,∑dy,∑|dx|,∑|dy|);对16个子区域分别求特征向量,形成一个16×4=64维的特征向量,利用该方法对一对实时图和基准图进行了SURF特征点提取;
步骤4基于Hessian矩阵迹的特征点匹配:在Hessian矩阵迹计算完毕之后,对Hessian矩阵主对角线之和,即trace(i)=∑(dx+dy);在进行相似性度量的时候,首先判断Hessian矩阵的迹的符号,如果trace(i)是大于0的数,令描述子等于1,反之,令描述子等于-1;
若两个描述子的trace(i)相同,可继续比较;反之,后面的描述子则不需要再比较;比较时需先分别计算实时图描述子discriptorsensed和基准图描述子discriptorref的欧氏距离,即
Figure BDA00002173567200031
计算最近邻匹配点distf和次近邻匹配点dists,若distf/distf≤1,则二者匹配;
步骤5基于RANSAC的局部参数估计:流程如下:(1)随机选择N个样本;(2)根据抽取样本估计模型数;(3)用估计模型计算各匹配点对间的距离,将距离小于阈值的匹配点作为内点;(4)上述过程重复k次,选择一个包含内点最多的点集,重新计算模型参数;各参数计算关系为k=log(1-P)/log(1-(1-ε)S),外点概率为ε,采样点对数为s,k次采样至少有一次全部是内点的概率为P。
有益效果
本发明提出的一种基于快速鲁棒特征的低空无人机视觉定位方法,能够适应低空无人机航空序列图像的旋转、尺度变换及噪声干扰,实现飞行器位置的精确估计。首先,构建了SURF尺度空间,运用快速Hessian矩阵定位极值点,计算出航空图像的64维SURF特征描述子;然后,基于Hessian矩阵迹完成特征点匹配;最后,使用RANSAC方法剔除出格点,实现位置参数的精确估计。
本发明用RANSAC算法求解基准图与实时图之间的变换参数。基于RANSAC的局部参数估计完成后,剔除外点后,解算出符合匹配要求的内点,即可得到实时图基于RANSAC估计参数的变换结果以及实时图中心在基准图上的定位结果。
附图说明
图1:基于快速鲁棒特征的低空无人机视觉定位方法实现流程图
具体实施方式
现结合实施例、附图对本发明作进一步描述:
1、一种基于快速鲁棒特征的低空无人机视觉定位方法,其内容包括以下步骤:
A、低空无人机航空序列图像的SURF特征点提取。
B、低空无人机航空序列图像的SURF特征点匹配。
2、本发明专利的低空无人机航空序列图像的快速鲁棒特征提取,其内容包括以下方面:
A、多尺度空间构建。对图像进行预处理时,用箱式滤波器对高斯核近似,利用箱式滤波器在计算卷积时的计算量与滤波器大小无关的性质,极大提高算法的计算速度。通过计算不同尺度的箱式滤波器建立了多尺度空间。
B、快速Hessian矩阵检测。Hessian矩阵中用到的核函数是高斯核函数,这里为了快速计算,对高斯核函数的近似即箱式滤波器,采用9×9的滤波器近似高斯核函数(σ=1.2)。引入一个高斯核函数和高斯核函数的近似的比例因子ω,以保持计算精度。
C、SURF特征描述子提取。为了提取极值点描述子,在极值点周围选取20×20大小的区域。首先以极值点为中心,将区域的方向旋转到极值点的方向。将这个正方形区域分成4×4共16个子区域,在每一个子区域分别计算每个像素点在哈尔小波x和y方向上的响应值。计算完所有的像素的响应值后,对所有的dx,dy,以极值点为中心进行高斯加权(σ=3.35),分别记为dx,dy,这样可以增加对光照变化和定位错误的鲁棒性。对每一个子区域内的小波响应值dx,dy,分别进行求和计算,记为∑dx,∑dy,将这两个和值存入描述子特征向量。为了描述在x和y方向上像素数值的改变情况,分别对每一个子区域上的dx,dy的绝对值进行求和计算,记为∑|dx|,∑|dy|,所得结果也存入特征向量,将特征向量归一化,使得描述子具有光照、尺度不变性,这样就形成了一个四维的向量v=(∑dx,∑dy,∑|dx|,∑|dy|),对16个子区域分别求去特征向量,形成一个16×4=64维的特征向量。
3、本发明专利的低空无人机航空序列图像的快速鲁棒特征匹配,其内容包括以下方面:
A、基于Hessian矩阵迹的特征点匹配。利用Hessian矩阵迹的符号进行特征匹配,因为其符号区分了黑背景中白的斑点区域和白背景中黑的斑点区域,利用该特征可以大大提高匹配效率。Hessian矩阵迹计算完毕之后,对Hessian矩阵主对角线之和即trace(i)=∑(dx+dy),其中的dx,dy仍然是积分图像想滤波器的x和y方向上的响应值。如果两个描述子的trace(i)相同,说明两个描述子具有相等的对比度,可以继续进行描述子的比较。如果两个描述子的trace(i)不相同,则不需要进行后面的描述子的比较,减少了匹配时间,同时不会影响匹配效果。
B、基于RANSAC的局部参数估计。RANSAC算法假定观测数据由符合某种模型的“内点(inliers)”和不符合模型的“出格点(outliers)”组成,这些出格点可能来自观测误差、错误匹配等。基本的RANSAC算法的流程如下:(1)随机选择N个样本;(2)根据抽取样本估计模型参数;(3)用估计的模型计算每一个匹配点对之间的距离,将距离小于阈值的匹配点作为内点;(4)将上述过程重复k次,选择一个包含内点最多的点集,重新计算模型参数。该算法最终可有效去除误匹配点对,实现飞行器实时图中心在卫星基准图上的精确定位。

Claims (1)

1.一种基于快速鲁棒特征的低空无人机视觉定位方法,其特征在于步骤如下:
步骤1多尺度空间构建:以9×9的滤波器而言,高斯二阶导的大小定为3,其滤波器大小的1/3,即9×1/3=3;滤波器尺寸可用size=3+5s公式计算,其中s是σ的倍数;
步骤2快速Hessian矩阵检测:对于图像I中一个给定的点X=(x,y),Hessian矩阵中采用近似的高斯核函数,即箱式滤波器Dxx,Dxy,Dyy,9×9的滤波器是对高斯核函数在σ=1.2处的近似;引入高斯核函数和高斯核函数的比例因子ω,Hessian矩阵的行列式变形为det(Hopprox)=DxxDyy-(ωDxy)2,ω取常量0.9;
步骤3SURF特征描述子提取:以极值点为中心选取半径为6s的圆形区域,计算哈尔小波在x和y方向上的响应值,记为hx,hy;以σ=3s为加权因子对两个响应值高斯加权,记为Whx,Why;对Whx,Why用直方图统计并将360°均分为72组,以极值点为中心的圆均分为6个区,统计各60°扇区内的Whx,Why,记为∑Whx,∑Why,同时计算该区的梯度值,梯度值最大区域所在的方向即为该极值点的主方向,以∑Whx,∑Why反正切计算出主方向度数,s即极值点所在尺度;
首先以极值点为中心选取20×20大小的区域,将区域的方向旋转到极值点的方向;将这个正方形区域分成4×4共16个子区域,每个子区域里有(20/4=5)5×5的像素,在每一个子区域分别计算每个像素点在哈尔小波x和y方向上的响应值;
计算完所有的像素的响应值后,对所有的dx,dy,以极值点为中心进行高斯加权(σ=3.35),分别记为dx,dy,然后求和,记为∑dx,∑dy;并对dx,dy绝对值求和,记为∑|dx|,∑|dy|,均存入特征向量并归一化,形成了一个四维的向量:v=(∑dx,∑dy,∑|dx|,∑|dy|);对16个子区域分别求特征向量,形成一个16×4=64维的特征向量,利用该方法对一对实时图和基准图进行了SURF特征点提取;
步骤4基于Hessian矩阵迹的特征点匹配:在Hessian矩阵迹计算完毕之后,对Hessian矩阵主对角线之和,即trace(i)=∑(dx+dy);在进行相似性度量的时候,首先判断Hessian矩阵的迹的符号,如果trace(i)是大于0的数,令描述子等于1,反之,令描述子等于-1;
若两个描述子的trace(i)相同,可继续比较;反之,后面的描述子则不需要再比较;比较时需先分别计算实时图描述子discriptorsensed和基准图描述子discriptorref的欧氏距离,即
Figure FDA00002173567100021
计算最近邻匹配点distf和次近邻匹配点dists,若distf/distf≤1,则二者匹配;
步骤5基于RANSAC的局部参数估计:流程如下:(1)随机选择N个样本;(2)根据抽取样本估计模型数;(3)用估计模型计算各匹配点对间的距离,将距离小于阈值的匹配点作为内点;(4)上述过程重复k次,选择一个包含内点最多的点集,重新计算模型参数;各参数计算关系为k=log(1-P)/log(1-(1-ε)S),外点概率为ε,采样点对数为s,k次采样至少有一次全部是内点的概率为P。
CN201210356155XA 2012-09-21 2012-09-21 一种基于快速鲁棒特征的低空无人机视觉定位方法 Pending CN102938147A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210356155XA CN102938147A (zh) 2012-09-21 2012-09-21 一种基于快速鲁棒特征的低空无人机视觉定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210356155XA CN102938147A (zh) 2012-09-21 2012-09-21 一种基于快速鲁棒特征的低空无人机视觉定位方法

Publications (1)

Publication Number Publication Date
CN102938147A true CN102938147A (zh) 2013-02-20

Family

ID=47697040

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210356155XA Pending CN102938147A (zh) 2012-09-21 2012-09-21 一种基于快速鲁棒特征的低空无人机视觉定位方法

Country Status (1)

Country Link
CN (1) CN102938147A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102865859A (zh) * 2012-09-21 2013-01-09 西北工业大学 一种基于surf特征的航空序列图像位置估计方法
CN105719314A (zh) * 2016-01-30 2016-06-29 西北工业大学 基于单应性估计和扩展卡尔曼滤波的无人机位置估计方法
CN106023210A (zh) * 2016-05-24 2016-10-12 百度在线网络技术(北京)有限公司 无人车、无人车定位方法、装置和系统
CN106060403A (zh) * 2016-07-05 2016-10-26 董超超 一种具备图像防抖检测功能的摄像装置
CN106251354A (zh) * 2016-07-28 2016-12-21 河北工业大学 用于螺钉自动装配的机器视觉定位方法
CN107202982A (zh) * 2017-05-22 2017-09-26 徐泽宇 一种基于无人机位姿计算的信标布置及图像处理方法
CN107576329A (zh) * 2017-07-10 2018-01-12 西北工业大学 基于机器视觉的固定翼无人机着降引导合作信标设计方法
CN109583484A (zh) * 2018-11-14 2019-04-05 西北工业大学 一种三类海域地标点自动选取方法
CN110310310A (zh) * 2019-03-27 2019-10-08 南京航空航天大学 一种针对航空影像配准的改进方法
CN111984027A (zh) * 2019-05-23 2020-11-24 南京航空航天大学 异构多无人机一致性控制方法
CN112085117A (zh) * 2020-09-16 2020-12-15 北京邮电大学 一种基于MTLBP-Li-KAZE-R-RANSAC的机器人运动监测视觉信息融合方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101441769A (zh) * 2008-12-11 2009-05-27 上海交通大学 单目摄像机实时视觉定位方法
CN102004910A (zh) * 2010-12-03 2011-04-06 上海交通大学 基于surf特征点图匹配和运动生成模型的视频目标跟踪方法
KR20120026864A (ko) * 2010-09-10 2012-03-20 성균관대학교산학협력단 콘텍스트 교차에 근거한 라인 매칭 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101441769A (zh) * 2008-12-11 2009-05-27 上海交通大学 单目摄像机实时视觉定位方法
KR20120026864A (ko) * 2010-09-10 2012-03-20 성균관대학교산학협력단 콘텍스트 교차에 근거한 라인 매칭 방법
CN102004910A (zh) * 2010-12-03 2011-04-06 上海交通大学 基于surf特征点图匹配和运动生成模型的视频目标跟踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
HERBERT BAY等: "Speeded-Up Robust Features(SURF)", 《COMPUTER VISION AND IMAGE UNDERSTANDING》 *
ZHANYU ZHANG等: "Monocular Vision Simultaneous Localization and Mapping using SURF", 《PROCEEDINGS OF INTELLIGENT CONTROL AND AUTOMATION》 *
刘萍萍等: "移动机器人定位图像匹配的快速局部特征算法", 《仪器仪表学报》 *
张锐娟等: "基于SURF的图像配准方法研究", 《红外与激光工程》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102865859A (zh) * 2012-09-21 2013-01-09 西北工业大学 一种基于surf特征的航空序列图像位置估计方法
CN102865859B (zh) * 2012-09-21 2014-11-05 西北工业大学 一种基于surf特征的航空序列图像位置估计方法
CN105719314A (zh) * 2016-01-30 2016-06-29 西北工业大学 基于单应性估计和扩展卡尔曼滤波的无人机位置估计方法
CN106023210A (zh) * 2016-05-24 2016-10-12 百度在线网络技术(北京)有限公司 无人车、无人车定位方法、装置和系统
CN106060403A (zh) * 2016-07-05 2016-10-26 董超超 一种具备图像防抖检测功能的摄像装置
CN106251354A (zh) * 2016-07-28 2016-12-21 河北工业大学 用于螺钉自动装配的机器视觉定位方法
CN106251354B (zh) * 2016-07-28 2018-11-06 河北工业大学 用于螺钉自动装配的机器视觉定位方法
CN107202982B (zh) * 2017-05-22 2018-08-07 徐泽宇 一种基于无人机位姿计算的信标布置及图像处理方法
CN107202982A (zh) * 2017-05-22 2017-09-26 徐泽宇 一种基于无人机位姿计算的信标布置及图像处理方法
CN107576329A (zh) * 2017-07-10 2018-01-12 西北工业大学 基于机器视觉的固定翼无人机着降引导合作信标设计方法
CN107576329B (zh) * 2017-07-10 2020-07-03 西北工业大学 基于机器视觉的固定翼无人机着降引导合作信标设计方法
CN109583484A (zh) * 2018-11-14 2019-04-05 西北工业大学 一种三类海域地标点自动选取方法
CN109583484B (zh) * 2018-11-14 2022-04-05 西北工业大学 一种三类海域地标点自动选取方法
CN110310310A (zh) * 2019-03-27 2019-10-08 南京航空航天大学 一种针对航空影像配准的改进方法
CN111984027A (zh) * 2019-05-23 2020-11-24 南京航空航天大学 异构多无人机一致性控制方法
CN111984027B (zh) * 2019-05-23 2022-07-15 南京航空航天大学 异构多无人机一致性控制方法
CN112085117A (zh) * 2020-09-16 2020-12-15 北京邮电大学 一种基于MTLBP-Li-KAZE-R-RANSAC的机器人运动监测视觉信息融合方法

Similar Documents

Publication Publication Date Title
CN102865859B (zh) 一种基于surf特征的航空序列图像位置估计方法
CN102938147A (zh) 一种基于快速鲁棒特征的低空无人机视觉定位方法
CN110097093B (zh) 一种异源图像精确匹配方法
CN111028277B (zh) 基于伪孪生卷积神经网络的sar和光学遥感图像配准方法
CN103714541B (zh) 一种利用山体轮廓区域约束识别定位建筑物的方法
CN104200461B (zh) 基于互信息图像选块和sift特征的遥感图像配准方法
CN108491838B (zh) 基于sift和hough的指针型仪表示数读取方法
CN107895375B (zh) 基于视觉多特征的复杂道路线提取方法
CN103136525B (zh) 一种利用广义Hough变换的异型扩展目标高精度定位方法
CN110569861B (zh) 一种基于点特征和轮廓特征融合的图像匹配定位方法
CN105160686B (zh) 一种基于改进sift算子的低空多视角遥感影像匹配方法
CN106709500B (zh) 一种图像特征匹配的方法
CN104751465A (zh) 一种基于lk光流约束的orb图像特征配准方法
CN105654421B (zh) 基于变换不变低秩纹理的投影变换图像匹配方法
CN104036524A (zh) 一种改进sift算法的快速目标跟踪方法
CN102800099B (zh) 多特征多级别的可见光与高光谱图像高精度配准方法
CN106023183B (zh) 一种实时的直线段匹配方法
CN104036523A (zh) 一种基于SURF特征的改进Mean Shift的目标跟踪方法
CN109087323A (zh) 一种基于精细cad模型的图像车辆三维姿态估计方法
CN110175615A (zh) 模型训练方法、域自适应的视觉位置识别方法及装置
CN114265427B (zh) 一种基于红外图像匹配的巡检无人机辅助导航系统及方法
CN106203439B (zh) 基于标志物多特征融合的无人机自动寻的着陆方法
CN106886988A (zh) 一种基于无人机遥感的线性目标检测方法及系统
CN103679740B (zh) 一种无人机对地目标roi提取方法
CN103854290A (zh) 一种结合骨架特征点和分布场描述子的扩展目标跟踪方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned

Effective date of abandoning: 20160706

C20 Patent right or utility model deemed to be abandoned or is abandoned