CN109583484B - 一种三类海域地标点自动选取方法 - Google Patents

一种三类海域地标点自动选取方法 Download PDF

Info

Publication number
CN109583484B
CN109583484B CN201811353753.5A CN201811353753A CN109583484B CN 109583484 B CN109583484 B CN 109583484B CN 201811353753 A CN201811353753 A CN 201811353753A CN 109583484 B CN109583484 B CN 109583484B
Authority
CN
China
Prior art keywords
landmark
class
landmark points
image
types
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811353753.5A
Other languages
English (en)
Other versions
CN109583484A (zh
Inventor
白渭津
程咏梅
顾一凡
王强
姚顺
田朝旭
杨速
刘楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201811353753.5A priority Critical patent/CN109583484B/zh
Publication of CN109583484A publication Critical patent/CN109583484A/zh
Application granted granted Critical
Publication of CN109583484B publication Critical patent/CN109583484B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines

Abstract

本发明提供了一种三类海域地标点自动选取方法,将海域地标点分为三类,提取地标点特征,设计多分类器,即可对于三类地标点自动选取,最终得到预测标签。本发明通过对海域三类地标点的划分,解决了海域地标点稀疏、分布不均匀,且特征缺失的问题;通过对不同二分类器、不同特征的核函数优化,提高海域三类地标点分类的正确率;为飞行器海域景象匹配导航的地标点数据库制备提供一种方便、可操作性强的方法,对提升飞行器海域长航时飞行的导航精度具有重要意义,因此本发明有广泛的发展前景以及工程应用价值。

Description

一种三类海域地标点自动选取方法
技术领域
本发明涉及飞行器海域景象匹配导航领域,尤其是一种地标点自动选取方法,利用图像多特征提取方法、支持向量机多核学习方法、纠错输出编码多分类器等,实现三类海域地标点自动选取。
背景技术
景象匹配导航系统具有体积小、成本低、自主性好等优点,作为惯性导航的辅助手段,能够有效的矫正飞行器惯导漂移带来的位置误差,满足飞行器长航时、精确导航要求。地标点具有唯一性、显著性、丰富性和稳定性,是实现基于地标点景象匹配导航的重要前提。飞行器飞到地标点时,采集的实时图像与存贮在飞行器上的地标点匹配,可完成基于地标点的景象匹配导航。目前,地标点的选择多由人工完成,工作量大且具有个体差异。长航时飞行器飞行里程长,地标点数量大,因此,研究地标点的自动选择方法可提高选取效率并统一选取标准,对提高景象匹配的准确性并辅助惯导实现长航时自主导航,具有重要的工程价值。
目前,面向陆地,通常采用一类地标点实现地标点自动选取。海域区域地标点自动选取方法存在大部分区域为海洋、且无明显图像特征;地标点(自然岛屿)分布不均匀、且颜色、纹理等图像特征较接近的问题。
发明内容
为了克服现有技术的不足,本发明提供一种海域地标点自动选取方法。本发明将海域地标点定义为:一类地标点(孤岛型)、二类地标点(大岛型)和三类地标点(多岛型),分别对三类地标点提取图像特征,结合支持向量机多核学习方法和纠错输出编码多分类器,实现三类海域地标点自动选取。
本发明解决其技术问题所采用的技术方案的步骤如下:
第一步:海域地标点分类
本发明对海域自然岛屿进行三种地标点类型划分,定义如下:
一类地标点孤岛型:在视场范围内地标岛屿成像像素占比3%以下且岛屿边缘均包含在视场范围内且无临近岛屿,地标点仅存储中心点地理信息;
二类地标点大岛屿型:在视场范围内成像地标岛屿成像像素占比3%以上,地标点存储为图像灰度信息及图像中心地理信息;
三类地标点多岛屿型:在视场范围内有两个以上岛屿,地标点存储为基准岛屿中心位置与其余任意两个岛屿中心位置构成的三角形边-边-边信息;
第二步:地标点特征提取
对制备的图像样本提取相应特征,详细步骤如下:
步骤1:唯一性特征
对一类和二类地标点的灰度图像选取灰度归一化互相关系数的最高峰尖锐度为唯一性特征,即计算地标点样本图像T与对应基准图S中每个匹配位置的灰度归一化互相关系数R(i,j)的最高峰尖锐度Kacuity为唯一性信息x11,详细步骤如下:
将地标点像素大小为m×n的样本图像T在像素大小为M×N的基准图S上,以步长为1像素进行平移,将样本图像T所覆盖的子图像记为Si,j,其中(i,j)表示子图像左上角在基准图S上的坐标,其搜索范围为:1≤i≤M-m,1≤j≤N-n,R(i,j)归一化计算公式定义为:
Figure RE-GDA0001909296410000021
其中,E(Si,j),E(T)分别为所覆盖子图Si,j和样本图T的灰度均值,Si,j(s,t),T(s,t) 分别为(s,t)处基准图S和样本图T的灰度值;
Vmean-sub是在领域范围内内相关峰的平均值,Vmax为相关峰的最大值,则最高峰尖锐度定义为:
Figure RE-GDA0001909296410000022
最高峰尖锐度的取值范围在[0,1]区间;
对三类地标点,由于其具有明显拓扑结构,构造一种三角形匹配概率参数为唯一性特征x12
在搜索范围d内,每三个岛屿的中心连成一个三角形,对所得三角形在d内进行匹配,匹配时若同时满足:
|d(i,j)-d(1,2)|≤ε
|d(j,k)-d(2,3)|≤ε
|d(i,k)-d(1,3)|≤ε (3)
式中,d(·)为三角形边长,ε表示阈值,1,2,3为当前地标点样本三角形的三个顶点,i,j,k表示与其匹配的三角形三个顶点,
Figure RE-GDA0001909296410000031
Figure RE-GDA0001909296410000032
为d内所有岛屿个数;
若所得三角形同时满足式(3)则匹配成功,完成搜索范围d内匹配后,当前地标点样本的唯一性指标为:
Figure RE-GDA0001909296410000033
式中,
Figure RE-GDA0001909296410000034
为匹配成功三角形个数,
Figure RE-GDA0001909296410000035
为搜索区域三角形总数;
步骤2:投影特征
对一类、二类、三类地标点灰度图像在水平方向与垂直方向分别进行投影,依次连接为行向量构造整体投影特征向量x2
对一类、二类、三类地标点灰度图像先采用prewitt算子进行边缘提取,再对边缘提取后的图像在水平方向和垂直方向分别投影,依次连接为行向量构造边缘投影特征向量x3
步骤3:HOG特征
对一类、二类、三类地标点图像按照颜色空间构建HOG特征向量:
对一类、二类、三类地标点,图像灰度化,将图像大小统一变换为512×512pixel2,设胞元大小为32×32,每个胞元有9个特征,设窗口扫描移动步长为28个像素点,则一个地标点图像,共有8100维HOG特征,构建HOG特征x4
步骤4:LBP特征
对一类、二类、三类地标点灰度图像构建LBP特征:
对一类、二类、三类地标点,图像灰度化,以图中的每一个像素点的灰度值作为阈值,与其3×3邻域内的像素点灰度值作比较,若大于阈值,则为1,否则为0,按照顺时针的顺序比较,得到一个8位的二进制数,以此二进制数作为该像素点的响应,将图像内所有像素点的响应连接为该张图像的LBP特征x5
步骤5:特征归一化
为有效利用各种特征,平均每一种特征对支持向量机SVM训练的影响,使训练更加精确,对各特征进行归一化,即对五种特征x1~x5进行归一化z1~z5,特征x1包含唯一性特征x11和x12,归一化公式如下:
Figure RE-GDA0001909296410000041
式中,zi表示归一化后的特征向量,xi表示初始的第i种特征向量,max(xi)为特征xi中的最大特征值,min(xi)为特征xi中最小特征值;
第三步:多分类器设计
步骤1:构造编码矩阵
对三类地标点考虑6种组合情况,分别建立6个SVM二分类器,构造纠错输出编码ECOC矩阵,详细步骤如下:
对三类地标点按照如下组合情况构建6个SVM二分类器:
F1:一类、二类地标点为正样本,三类地标点为负样本;
F2:一类、三类地标点为正样本,二类地标点为负样本;
F3:二类、三类地标点为正样本,一类地标点为负样本;
F4:一类地标点为正样本,二类地标点为负样本,三类地标点停用;
F5:二类地标点为正样本,三类地标点为负样本,一类地标点停用;
F6:三类地标点为正样本,一类地标点为负样本,二类地标点停用;
对F1,F2,F3分类器使用二元编码,对F4,F5,F6使用三元编码进行ECOC编码矩阵M3×6的构造:
Figure RE-GDA0001909296410000042
根据编码矩阵M3×6构造ECOC编码框架,其中+1表示正样本,-1表示负样本,0 表示停用;
步骤2:核函数选取
将6个SVM二分类器按照五个特征分别扩展为五个分类器,选取SVM的线性核、多项式核和高斯核,对每种特征进行最佳核函数选择,详细步骤如下:
根据提取的五种特征x1~x5,将F1~F6六个分类器的每个分类器扩展为五个分类器,选取SVM的线性核、多项式核和高斯核,计算每种特征在每种核函数的训练过程中的K折验证损失,进行最佳核函数选择;
计算K折验证损失需要K折交叉验证,详细K折交叉验证过程为:
将初始采样分割成K份,一份被保留作为验证模型的数据,其他K-1份用来训练,交叉验证重复K次后,平均K次的结果作为最终误差评估,K折交叉验证的损失计算公式为:
Figure RE-GDA0001909296410000051
其中
Figure RE-GDA0001909296410000052
为每次分类错误率,
Figure RE-GDA0001909296410000053
为每次分类错误数,I 为每次K折交叉验证选出的测试总数,yj为当前分类样本实际结果,
Figure RE-GDA0001909296410000054
为当前分类样本估计结果,N为初始采样样本总数;
选取K=10,由各特征在不同核函数下的K折损失,选取每个特征对应最小K折损失的核函数,得到SVM二分类器组,即多分类器;
第四步:三类地标点自动选取
根据视场角θ、飞行高度H和相机分辨率p,相机分辨率单位为pixel,计算视场大小为R=2Htanθ/2,单位为m,地物分辨率q=R2/p,单位为m/pixel,根据实时图大小R和惯导漂移误差δ,单位为m,设置地标点图像大小r和与其相应的图像搜索范围 d=r+δ/q,的图像搜索范围单位为pixel,其中,r<R,其中,制备三类地标点基准图d×d,并在基准图上截取地标点样本r×r,对地标点样本提取特征x1~x5,并第一步给出三类地标点的标签,将地标五种特征x1~x5和标签一起送入对应SVM二分类器进行多分类器训练,给出三类海域地标点自动预测器,任意选取一张图像大小同地标点的海域图像,提取五种特征,送入自动预测器中进行地标点自动分类;
第五步:三类海域地标点自动选取
步骤1:预测阶段
选取一张海域图像r×r即预测样本,提取所述五种特征并归一化z1~z5,送入分类器组中对应分类器,每个分类器生成一个预测标签labelj,定义每个预测标签出现的频次为f(labelj),则对于一个预测样本,同组分类器最终分类结果:
Label=argmax(f(labelj)|labelj=1,-1) (8)
其中,当labelj=1时表示SVM二分类器预测其为正样本,当labelj=-1时表示SVM二分类器预测其为负样本,j取值范围为当前分类器组中分类器的个数;
一组SVM二分类器给出一个预测码hn∈{-1,0,1},n=1,…,6,当六个分类器组完成预测后,得到一个表示预测样本类别的预测矩阵H1×6=[h1 h2 h3 h4 h5 h6];
步骤2:解码阶段:
计算预测矩阵H1×6与编码矩阵M3×6的之间的汉明距离D(i),汉明距离计算公式为:
Figure RE-GDA0001909296410000061
找到汉明距离最短的行向量Dmin,则:
PredictLabel=Dmin=arg min(D(i)|i=1,2,3) (10)
对应的地标类别Ci即为此测试样本的预测标签PredictLabel。
本发明的有益效果是飞行器海域地标点自动选取方法通过对海域三类地标点的划分,解决了海域地标点稀疏、分布不均匀,且特征缺失的问题;通过对不同二分类器、不同特征的核函数优化,提高海域三类地标点分类的正确率;为飞行器海域景象匹配导航的地标点数据库制备提供一种方便、可操作性强的方法。对提升飞行器海域长航时飞行的导航精度具有重要意义,因此本发明有广泛的发展前景以及工程应用价值。
附图说明
图1为本发明三类海域地标点自动选取系统示意图。
图2为本发明三类地标点唯一性特征示意图,图(a)为当前地标点三角形示意图,图(b)为与其匹配的三角形示意图。
图3为本发明ECOC编码框架示意图。
图4为本发明地标点多分类器组示意图。
图5为本发明ECOC预测解码过程示意图。
图6为本发明三类地标点样本示意图,图6(a)为一类地标点样本示意图,图6(b)为二类地标点样本示意图,图6(c)为三类地标点样本示意图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本发明提出三类海域地标点自动选取方法,为基于地标点的飞行器海域景象匹配导航提供重要技术支持,详细步骤如下:
第一步:海域地标点分类
本发明对海域自然岛屿进行三种地标点类型划分,定义如下:
一类地标点孤岛型:在视场范围内地标岛屿成像像素占比3%以下且岛屿边缘均包含在视场范围内且无临近岛屿,地标点仅存储中心点地理信息;
二类地标点大岛屿型:在视场范围内成像地标岛屿成像像素占比3%以上,地标点存储为图像灰度信息及图像中心地理信息;
三类地标点多岛屿型:在视场范围内有两个以上岛屿,地标点存储为基准岛屿中心位置与其余任意两个岛屿中心位置构成的三角形边-边-边信息;
第二步:地标点特征提取
为满足地标点的显著性、稳定性、唯一性和丰富性,对制备的图像样本提取相应特征,详细步骤如下:
步骤1:唯一性特征
对一类和二类地标点的灰度图像选取灰度归一化互相关系数的最高峰尖锐度为唯一性特征,即计算地标点样本图像T与对应基准图S中每个匹配位置的灰度归一化互相关系数R(i,j)的最高峰尖锐度Kacuity为唯一性信息x11,详细步骤如下:
将地标点像素大小为m×n的样本图像T在像素大小为M×N的基准图S上,以步长为1像素进行平移,将样本图像T所覆盖的子图像记为Si,j,其中(i,j)表示子图像左上角在基准图S上的坐标,其搜索范围为:1≤i≤M-m,1≤j≤N-n,R(i,j)归一化计算公式定义为:
Figure RE-GDA0001909296410000071
其中,E(Si,j),E(T)分别为所覆盖子图Si,j和样本图T的灰度均值,Si,j(s,t),T(s,t) 分别为(s,t)处基准图S和样本图T的灰度值;
Vmean-sub是在某个领域范围内(一般选择为n=8,即8领域)内相关峰的平均值,Vmax为相关峰的最大值,则最高峰尖锐度定义为:
Figure RE-GDA0001909296410000081
最高峰尖锐度的取值范围在[0,1]区间,值越小,说明相关峰越尖锐,区域地物越明显,匹配的可靠性越高;
对三类地标点,由于其具有明显拓扑结构,构造一种三角形匹配概率参数为唯一性特征x12
如图2所示,在搜索范围d内,每三个岛屿的中心连成一个三角形,对所得三角形在d内进行匹配,匹配时若同时满足:
|d(i,J)-d(1,2)|≤ε
|d(j,k)-d(2,3)|≤ε
|d(i,k)-d(1,3)|≤ε (10)
式中,d(·)为三角形边长,ε表示阈值,1,2,3为当前地标点样本三角形的三个顶点,i,j,k表示与其匹配的三角形三个顶点,
Figure RE-GDA0001909296410000082
Figure RE-GDA0001909296410000083
为d内所有岛屿个数;
若所得三角形同时满足式(3)则匹配成功,完成搜索范围d内匹配后,当前地标点样本的唯一性指标为:
Figure RE-GDA0001909296410000084
式中,
Figure RE-GDA0001909296410000085
为匹配成功三角形个数,
Figure RE-GDA0001909296410000086
为搜索区域三角形总数;
步骤2:投影特征
对一类、二类、三类地标点灰度图像在水平方向与垂直方向分别进行投影,依次连接为行向量构造整体投影特征向量x2
对一类、二类、三类地标点灰度图像先采用prewitt算子进行边缘提取,再对边缘提取后的图像在水平方向和垂直方向分别投影,依次连接为行向量构造边缘投影特征向量x3
步骤3:HOG特征
对一类、二类、三类地标点图像按照颜色空间构建HOG特征向量:
对一类、二类、三类地标点,图像灰度化,将图像大小统一变换为512×512pixel2,设胞元大小为32×32,每个胞元有9个特征,设窗口扫描移动步长为28个像素点,则一个地标点图像,共有8100维HOG特征,构建HOG特征x4
步骤4:LBP特征
对一类、二类、三类地标点灰度图像构建LBP特征:
对一类、二类、三类地标点,图像灰度化,以图中的每一个像素点的灰度值作为阈值,与其3×3邻域内的像素点灰度值作比较,若大于阈值,则为1,否则为0,按照顺时针的顺序比较,得到一个8位的二进制数,以此二进制数作为该像素点的响应,将图像内所有像素点的响应连接为该张图像的LBP特征x5
步骤5:特征归一化
为有效利用各种特征,平均每一种特征对SVM(支持向量机)训练的影响,使训练更加精确,对各特征进行归一化,即对五种特征x1~x5进行归一化z1~z5,特征x1包含唯一性特征x11和x12,归一化公式如下:
Figure RE-GDA0001909296410000091
式中,zi表示归一化后的特征向量,xi表示初始的第i种特征向量,max(xi)为特征xi中的最大特征值,min(xi)为特征xi中最小特征值;
第三步:多分类器设计
步骤1:构造编码矩阵
对三类地标点考虑6种组合情况,分别建立6个SVM二分类器,构造纠错输出编码(ECOC)矩阵,详细步骤如下:
对三类地标点按照如下组合情况构建6个SVM二分类器:
F1:一类、二类地标点为正样本,三类地标点为负样本;
F2:一类、三类地标点为正样本,二类地标点为负样本;
F3:二类、三类地标点为正样本,一类地标点为负样本;
F4:一类地标点为正样本,二类地标点为负样本,三类地标点停用;
F5:二类地标点为正样本,三类地标点为负样本,一类地标点停用;
F6:三类地标点为正样本,一类地标点为负样本,二类地标点停用;
对F1,F2,F3分类器使用二元编码,对F4,F5,F6使用三元编码进行ECOC编码矩阵M3×6的构造:
Figure RE-GDA0001909296410000101
根据编码矩阵M3×6构造ECOC编码框架,其中+1表示正样本,-1表示负样本,0表示停用;
步骤2:核函数选取
将6个SVM二分类器按照五个特征分别扩展为五个分类器,选取SVM的线性核、多项式核和高斯核,对每种特征进行最佳核函数选择,详细步骤如下:
根据提取的五种特征x1~x5,将F1~F6六个分类器的每个分类器扩展为五个分类器,选取SVM的线性核、多项式核和高斯核,计算每种特征在每种核函数的训练过程中的K折验证损失,进行最佳核函数选择;
计算K折验证损失需要K折交叉验证,详细K折交叉验证过程为:
将初始采样分割成K份,一份被保留作为验证模型的数据,其他K-1份用来训练,交叉验证重复K次后,平均K次的结果作为最终误差评估,K折交叉验证的损失计算公式为:
Figure RE-GDA0001909296410000102
其中
Figure RE-GDA0001909296410000103
为每次分类错误率,
Figure RE-GDA0001909296410000104
为每次分类错误数,I 为每次K折交叉验证选出的测试总数,yj为当前分类样本实际结果,
Figure RE-GDA0001909296410000105
为当前分类样本估计结果,N为初始采样样本总数;
选取K=10,由各特征在不同核函数下的K折损失,选取每个特征对应最小K折损失的核函数,得到SVM二分类器组,即多分类器,结构如图4所示,其中F1,F2,F3, F4,F5,F6分类器组分别由F11~F15,F21~F25,F31,F41~F45,F51,F61共18个SVM二分类器组成(图中看F31,F51,F61只有1个,那么为何这三列只有1个,而第1,2,4列是5 个?是的)
第四步:三类地标点自动选取
根据视场角θ、飞行高度H和相机分辨率p(单位:pixel),计算视场大小(实时图大小)R=2Htanθ/2(单位:m),地物分辨率q=R2/p(单位:m/pixel),根据实时图大小R和惯导漂移误差δ(单位:m),设置地标点图像大小r(r<R)和与其相应的图像搜索范围d=r+δq(单位:pixel),其中,制备三类地标点基准图d×d(单位: pixel2),并在基准图上截取地标点样本r×r(单位:pixel2),对地标点样本提取特征 x1~x5,并第一步给出三类地标点的标签,将地标五种特征x1~x5和标签一起送入对应 SVM二分类器进行多分类器训练,给出三类海域地标点自动预测器,任意选取一张图像大小同地标点的海域图像,提取五种特征,送入自动预测器中进行地标点自动分类。三类海域地标点自动选取系统如图1所示。
第五步:三类海域地标点自动选取
步骤1:预测阶段
选取一张海域图像r×r即预测样本,提取所述五种特征并归一化z1~z5,送入分类器组中对应分类器,每个分类器生成一个预测标签labelj,定义每个预测标签出现的频次为f(labelj),则对于一个预测样本,同组分类器最终分类结果:
Label=argmax(f(labelj)|labelj=1,-1) (8)
其中,当labelj=1时表示SVM二分类器预测其为正样本,当labelj=-1时表示SVM二分类器预测其为负样本,j取值范围为当前分类器组中分类器的个数;
一组SVM二分类器给出一个预测码hn∈{-1,0,1},n=1,…,6,当六个分类器组完成预测后,得到一个表示预测样本类别的预测矩阵H1×6=[h1 h2 h3 h4 h5 h6];
步骤2:解码阶段:
计算预测矩阵H1×6与编码矩阵M3×6的之间的汉明距离D(i),汉明距离计算公式为:
Figure RE-GDA0001909296410000111
找到汉明距离最短的行向量Dmin,则:
PredictLable=Dmin=arg min(D(i)|i=1,2,3) (10)
对应的地标类别Ci即为此测试样本的预测标签PredictLabel。
实施例如下:
第一步:制备样本数据库
根据视场角θ、飞行高度H和相机分辨率p(单位:pixel),计算视场大小(实时图大小)R=2Htanθ/2(单位:m),地物分辨率q=R2/p(单位:m/pixel),根据实时图大小R和惯导漂移误差δ(单位:m),设置地标点图像大小r(r<R)和与其相应的图像搜索范围d=r+δ/q(单位:pixel),制备三类地标点基准图d×d(单位:pixel2),并在基准图上截取地标点样本r×r(单位:pixel2)。
第二步:地标点特征提取
步骤1:唯一性特征
对一类和二类地标点,将图像灰度化,并将地标点与其对应的基准图,计算灰度归一化互相关系数的最高峰尖锐度,作为地标点唯一性特征x11
对三类地标点,构造一种三角形匹配概率参数,作为唯一性特征x12,如图2所示,在搜索范围d内,每三个岛屿中心可连成一个三角形,对所得三角形在d内进行匹配,匹配时若同时满足:
|d(i,j)-d(1,2)|≤ε
|d(j,k)-d(2,3)|≤ε
|d(i,k)-d(1,3)|≤ε (3)
式中,d(·)为三角形边长,ε表示阈值,1,2,3为当前地标点样本三角形的三个顶点,i,j,k表示与其匹配的三角形三个顶点,
Figure RE-GDA0001909296410000121
Figure RE-GDA0001909296410000122
为d内所有岛屿个数。
若同时满足上式则匹配成功,完成d内匹配后,当前地标点样本的唯一性指标为:
Figure RE-GDA0001909296410000123
式中,
Figure RE-GDA0001909296410000124
为匹配成功三角形个数,
Figure RE-GDA0001909296410000125
为搜索区域三角形总数。
步骤2:投影特征
对一类、二类、三类地标点灰度图像进行垂直与水平方向投影,构造整体投影特征向量x2
对一类、二类、三类地标点灰度图像先采用prewitt算子进行边缘提取,再对边缘提取后的图像进行水平和垂直方向的投影,构造边缘投影特征向量x3
步骤3:HOG特征
对一类、二类、三类地标点,图像灰度化,将图像大小统一变换为512×512pixel2,设胞元大小为32×32,每个胞元有9个特征,设窗口扫描移动步长为28个像素点,则一个地标点图像,共有8100维HOG特征,构建HOG特征x4
步骤4:LBP特征
对一类、二类、三类地标点,图像灰度化,以图中的每一个像素点的灰度值作为阈值,与其3×3邻域内的像素点灰度值作比较,若大于阈值,则为1,否则为0。按照顺时针的顺序比较,得到一个8位的二进制数,以此二进制数作为该像素点的响应。将图像内所有像素点的响应连接为该张图像的LBP特征x5
步骤5:特征归一化
对五种特征x1~x5进行归一化z1~z5,公式如下:
Figure RE-GDA0001909296410000131
式中,zi表示归一化后的特征向量,xi表示初始的第i种特征向量,max(xi)为特征xi中的最大特征值,min(xi)为特征xi中最小特征值。
第三步:多分类器设计
步骤1:构造编码矩阵
对三类地标点充分考虑各种组合情况构建6个SVM二分类器:
F1:一类、二类地标点为正样本,三类地标点为负样本;
F2:一类、三类地标点为正样本,二类地标点为负样本;
F3:二类、三类地标点为正样本,一类地标点为负样本;
F4:一类地标点为正样本,二类地标点为负样本,三类地标点停用;
F5:二类地标点为正样本,三类地标点为负样本,一类地标点停用;
F6:三类地标点为正样本,一类地标点为负样本,二类地标点停用。
对F1,F2,F3分类器使用二元编码,对F4,F5,F6使用三元编码进行ECOC编码矩阵M3×6的构造:
Figure RE-GDA0001909296410000141
ECOC编码框架如图3所示,其中表示正样本,表示负样本,表示停用。
步骤2:核函数选取
根据提取的五种特征,将六个分类器的每个分类器扩展为五个分类器,选取SVM的线性核、多项式核和高斯核,计算每种特征在每种核函数的训练过程中的K折验证损失,进行最佳核函数选择。
K折交叉验证,将初始采样分割成K份,一份被保留作为验证模型的数据,其他K-1份用来训练,交叉验证重复K次后,平均K次的结果作为最终误差评估。K折验证损失计算公式:
Figure RE-GDA0001909296410000142
其中
Figure RE-GDA0001909296410000143
为每次分类错误率,
Figure RE-GDA0001909296410000144
为每次分类错误数,I为每次K折交叉验证选出的测试总数,yj为当前分类样本实际结果,
Figure RE-GDA0001909296410000145
为当前分类样本估计结果,N为初始采样样本总数。
选取K=10,由各特征在不同核函数下的K折损失,选取每个特征对应最小K折损失的核函数,得到SVM二分类器组,即多分类器。
第四步:多分类器训练
将归一化后的五种特征z1~z5和地标点正负标签一同对应送入前文得到的SVM二分类器组进行多分类器训练,给出三类海域地标点自动预测器。三类海域地标点自动选取系统如图1所示。
第五步:三类海域地标点自动选取
步骤1:预测阶段
选取一张海域图像r×r(单位:pixel2)即预测样本,提取前文所述五种特征并归一化z1~z5,送入分类器组中对应分类器,每个分类器生成一个预测标签labelj,定义每个预测标签出现的频次为f(labelj),则对于一个预测样本,同组分类器最终分类结果:
Label=argmax(f(labelj)|labelj=1,-1) (8)
其中,当labelj=1时表示SVM二分类器预测其为正样本,当labelj=-1时表示SVM二分类器预测其为负样本,j取值范围为当前分类器组中分类器的个数。
一组SVM二分类器给出一个预测码hn∈{-1,0,1},n=1,…,6,当六个分类器组完成预测后,得到一个表示预测样本类别的预测矩阵H1×6=[h1 h2 h3 h4 h5 h6]。
步骤2:解码阶段:
计算预测矩阵H1×6与编码矩阵M3×6的之间的汉明距离D(i),如图5所示,汉明距离计算公式:
Figure RE-GDA0001909296410000151
找到汉明距离最短的行向量Dmin,对应的地标类别Ci即为此测试样本的预测标签PredictLabel:
PredictLabel=Dmin=arg min(D(i)|i=1,2,3) (10)
以下对本发明的方法进一步描述:在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程。
实验图像采用ArcGIS卫星图,截取全球部分海域,包括南海海域(北纬2°-20°,东经108°-118°)区域和太平洋海域(南纬27°到北纬23°,东经90°-180°),以飞行高度5000m为例,地物分辨率19.11(单位:mpixel),视场角127°,计算可得地标图像为750×750(单位:pixel2),基准图2000×2000(单位:pixel2)。制备样本数据库一类地标点35个,二类地标点369个,三类地标点166个,选取90%作为训练样本,其余10%为测试样本。对选取的训练样本即一类地标点32个,二类地标点339个,三类地标点150 个分别提取其唯一性特征、HOG特征、LBP特征、整体投影特征和边缘投影特征共五种特征,将提取的特征归一化后和样本标签一同送入对应的SVM二分类器中,进行分类器核函数选择。选择得到核函数如表1所示。
表1各特征对应的SVM核函数
Figure RE-GDA0001909296410000161
消除相同核函数的多个分类器之间的冗余,最终共选取F11~F6118个二分类器,得到地标点多分类器组示意图如图2所示。
对49张测试样本进行预测,首先对每一个测试样本提取前文所述五种特征,将五种特征送入对应分类器中,由上文所述预测及解码方法,结合图1和图5所示过程,得到所有预测样本的统计结果如表1所示,总体分类正确率为97.96%。
表1海域地标点图像分类预测结果
Figure RE-GDA0001909296410000162

Claims (1)

1.一种三类海域地标点自动选取方法,其特征在于包括下述步骤:
第一步:海域地标点分类
对海域自然岛屿进行三种地标点类型划分,定义如下:
一类地标点孤岛型:在视场范围内地标岛屿成像像素占比3%以下且岛屿边缘均包含在视场范围内且无临近岛屿,地标点仅存储中心点地理信息;
二类地标点大岛屿型:在视场范围内成像地标岛屿成像像素占比3%以上,地标点存储为图像灰度信息及图像中心地理信息;
三类地标点多岛屿型:在视场范围内有两个以上岛屿,地标点存储为基准岛屿中心位置与其余任意两个岛屿中心位置构成的三角形边-边-边信息;
第二步:地标点特征提取
对制备的图像样本提取相应特征,详细步骤如下:
步骤1:唯一性特征
对一类和二类地标点的灰度图像选取灰度归一化互相关系数的最高峰尖锐度为唯一性特征,即计算地标点样本图像T与对应基准图S中每个匹配位置的灰度归一化互相关系数R(i,j)的最高峰尖锐度Kacuity为唯一性特征x11,详细步骤如下:
将地标点像素大小为m×n的样本图像T在像素大小为M×N的基准图S上,以步长为1像素进行平移,将样本图像T所覆盖的子图像记为Si,j,其中(i,j)表示子图像左上角在基准图S上的坐标,其搜索范围为:1≤i≤M-m,1≤j≤N-n,R(i,j)归一化计算公式定义为:
Figure FDA0003493221850000011
其中,E(Si,j),E(T)分别为所覆盖子图Si,j和样本图T的灰度均值,Si,j(s,t),T(s,t)分别为(s,t)处基准图S和样本图T的灰度值;
Vmean-sub是在领域范围内相关峰的平均值,Vmax为相关峰的最大值,则最高峰尖锐度定义为:
Figure FDA0003493221850000021
最高峰尖锐度的取值范围在[0,1]区间;
对三类地标点,由于其具有明显拓扑结构,构造一种三角形匹配概率参数为唯一性特征x12
在搜索范围d内,每三个岛屿的中心连成一个三角形,对所得三角形在d内进行匹配,匹配时若同时满足:
|d(γ,β)-d(1,2)|≤ε
|d(β,φ)-d(2,3)|≤ε
|d(γ,φ)-d(1,3)|≤ε (3)
式中,d(.)为三角形边长,ε表示阈值,1,2,3为当前地标点样本三角形的三个顶点,γ,β,φ表示与其匹配的三角形三个顶点,1≤γ,β,φ≤Gall,Gall为d内所有岛屿个数;
若所得三角形同时满足式(3)则匹配成功,完成搜索范围d内匹配后,当前地标点样本的唯一性特征为:
Figure FDA0003493221850000022
式中,Gcorrect为匹配成功三角形个数;
步骤2:投影特征
对一类、二类、三类地标点灰度图像在水平方向与垂直方向分别进行投影,依次连接为行向量构造整体投影特征向量x2
对一类、二类、三类地标点灰度图像先采用prewitt算子进行边缘提取,再对边缘提取后的图像在水平方向和垂直方向分别投影,依次连接为行向量构造边缘投影特征向量x3
步骤3:HOG特征
对一类、二类、三类地标点图像按照颜色空间构建HOG特征向量:
对一类、二类、三类地标点,图像灰度化,将图像大小统一变换为512×512pixel2,设胞元大小为32×32,每个胞元有9个特征,设窗口扫描移动步长为28个像素点,则一个地标点图像,共有8100维HOG特征,构建HOG特征x4
步骤4:LBP特征
对一类、二类、三类地标点灰度图像构建LBP特征:
对一类、二类、三类地标点,图像灰度化,以图中的每一个像素点的灰度值作为阈值,与其3×3邻域内的像素点灰度值作比较,若大于阈值,则为1,否则为0,按照顺时针的顺序比较,得到一个8位的二进制数,以此二进制数作为该像素点的响应,将图像内所有像素点的响应连接为该张图像的LBP特征x5
步骤5:特征归一化
为有效利用各种特征,平均每一种特征对支持向量机SVM训练的影响,使训练更加精确,对各特征进行归一化,即对五种特征x1~x5进行归一化z1~z5,特征x1包含唯一性特征x11和x12,归一化公式如下:
Figure FDA0003493221850000031
式中,zk表示归一化后的特征向量,xk表示初始的第k种特征向量,max(xk)为特征xk中的最大特征值,min(xk)为特征xk中最小特征值;
第三步:多分类器设计;
步骤1:构造编码矩阵
对三类地标点考虑6种组合情况,分别建立6个SVM二分类器,构造纠错输出编码ECOC矩阵,详细步骤如下:
对三类地标点按照如下组合情况构建6个SVM二分类器:
F1:一类、二类地标点为正样本,三类地标点为负样本;
F2:一类、三类地标点为正样本,二类地标点为负样本;
F3:二类、三类地标点为正样本,一类地标点为负样本;
F4:一类地标点为正样本,二类地标点为负样本,三类地标点停用;
F5:二类地标点为正样本,三类地标点为负样本,一类地标点停用;
F6:三类地标点为正样本,一类地标点为负样本,二类地标点停用;
对F1,F2,F3分类器使用二元编码,对F4,F5,F6使用三元编码进行ECOC编码矩阵A3×6的构造:
Figure FDA0003493221850000041
根据编码矩阵A3×6构造ECOC编码框架,其中+1表示正样本,-1表示负样本,0表示停用;
步骤2:核函数选取
将6个SVM二分类器按照五个特征分别扩展为五个分类器,选取SVM的线性核、多项式核和高斯核,对每种特征进行最佳核函数选择,详细步骤如下:
根据提取的五种特征x1~x5,将F1~F6六个分类器的每个分类器扩展为五个分类器,选取SVM的线性核、多项式核和高斯核,计算每种特征在每种核函数的训练过程中的K折验证损失,进行最佳核函数选择;
计算K折验证损失需要K折交叉验证,详细K折交叉验证过程为:
将初始采样分割成K份,一份被保留作为验证模型的数据,其他K-1份用来训练,交叉验证重复K次后,平均K次的结果作为最终误差评估,K折交叉验证的损失计算公式为:
Figure FDA0003493221850000042
其中
Figure FDA0003493221850000043
为每次分类错误率,
Figure FDA0003493221850000044
为每次分类错误数,I为每次K折交叉验证选出的测试总数,yv为当前分类样本实际结果,
Figure FDA0003493221850000045
为当前分类样本估计结果,Q为初始采样样本总数;
选取K=10,由各特征在不同核函数下的K折损失,选取每个特征对应最小K折损失的核函数,得到SVM二分类器组,即多分类器;
第四步:三类地标点自动选取
根据视场角θ、飞行高度B和相机分辨率P,相机分辨率单位为pixel,计算视场大小为L=2H tanθ/2,单位为m,地物分辨率
Figure FDA0003493221850000051
单位为m/pixel,根据视场大小L和惯导漂移误差δ,单位为m,设置地标点图像大小r和与其相应的图像搜索范围d=r+δ/q,图像搜索范围单位为pixel,其中,r<L,其中,制备三类地标点基准图a×a,并在基准图上截取地标点样本r×r,对地标点样本提取特征x1~x5,并第一步给出三类地标点的标签,将地标五种特征x1~x5和标签一起送入对应SVM二分类器进行多分类器训练,给出三类海域地标点自动预测器,任意选取一张图像大小同地标点的海域图像,提取五种特征,送入自动预测器中进行地标点自动分类;
第五步:三类海域地标点自动选取
步骤1:预测阶段
选取一张海域图像e×e即预测样本,提取所述五种特征并归一化z1~z5,送入分类器组中对应分类器,每个分类器生成一个预测标签labelb,定义每个预测标签出现的频次为f(labelb),则对于一个预测样本,同组分类器最终分类结果:
Label=argmax(f(labelb)|labelb=1,-1) (8)
其中,当labelb=1时表示SVM二分类器预测其为正样本,当labelb=-1时表示SVM二分类器预测其为负样本,b取值范围为当前分类器组中分类器的个数;
一组SVM二分类器给出一个预测码hτ∈{-1,0,1},τ=1,…,6,当六个分类器组完成预测后,得到一个表示预测样本类别的预测矩阵Γ1×6=[h1 h2 h3 h4 h5 h6];
步骤2:解码阶段:
计算预测矩阵Γ1×6与编码矩阵A3×6的之间的汉明距离D(α),汉明距离计算公式为:
Figure FDA0003493221850000052
找到汉明距离最短的行向量Dmin,则:
PredictLabel=Dmin=arg min(D(α)|α=1,2,3) (10)
对应的地标类别Cα即为此测试样本的预测标签PredictLabel。
CN201811353753.5A 2018-11-14 2018-11-14 一种三类海域地标点自动选取方法 Active CN109583484B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811353753.5A CN109583484B (zh) 2018-11-14 2018-11-14 一种三类海域地标点自动选取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811353753.5A CN109583484B (zh) 2018-11-14 2018-11-14 一种三类海域地标点自动选取方法

Publications (2)

Publication Number Publication Date
CN109583484A CN109583484A (zh) 2019-04-05
CN109583484B true CN109583484B (zh) 2022-04-05

Family

ID=65922373

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811353753.5A Active CN109583484B (zh) 2018-11-14 2018-11-14 一种三类海域地标点自动选取方法

Country Status (1)

Country Link
CN (1) CN109583484B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111538059B (zh) * 2020-05-11 2022-11-11 东华大学 一种基于改进的玻尔兹曼机的自适应快速动态定位系统及方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102089761A (zh) * 2008-05-12 2011-06-08 谷歌公司 自动发现受欢迎的地标
CN102426019A (zh) * 2011-08-25 2012-04-25 航天恒星科技有限公司 一种无人机景象匹配辅助导航方法及系统
CN102938147A (zh) * 2012-09-21 2013-02-20 西北工业大学 一种基于快速鲁棒特征的低空无人机视觉定位方法
CN104217210A (zh) * 2014-09-05 2014-12-17 中国人民解放军63620部队 基于多特征融合的景象匹配区选取方法
CN104268565A (zh) * 2014-09-05 2015-01-07 中国人民解放军63620部队 基于回归学习的景象匹配区选取方法
CN105241457A (zh) * 2015-08-10 2016-01-13 武汉理工大学 一种用于船舶驾驶的三维辅助导航系统建立方法
CN106709515A (zh) * 2016-12-16 2017-05-24 北京华航无线电测量研究所 一种适用于下视景象匹配选区准则干预方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10054445B2 (en) * 2016-05-16 2018-08-21 Northrop Grumman Systems Corporation Vision-aided aerial navigation

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102089761A (zh) * 2008-05-12 2011-06-08 谷歌公司 自动发现受欢迎的地标
CN102426019A (zh) * 2011-08-25 2012-04-25 航天恒星科技有限公司 一种无人机景象匹配辅助导航方法及系统
CN102938147A (zh) * 2012-09-21 2013-02-20 西北工业大学 一种基于快速鲁棒特征的低空无人机视觉定位方法
CN104217210A (zh) * 2014-09-05 2014-12-17 中国人民解放军63620部队 基于多特征融合的景象匹配区选取方法
CN104268565A (zh) * 2014-09-05 2015-01-07 中国人民解放军63620部队 基于回归学习的景象匹配区选取方法
CN105241457A (zh) * 2015-08-10 2016-01-13 武汉理工大学 一种用于船舶驾驶的三维辅助导航系统建立方法
CN106709515A (zh) * 2016-12-16 2017-05-24 北京华航无线电测量研究所 一种适用于下视景象匹配选区准则干预方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Accurate and efficient survey of the seafloor by multiple AUVs using alternating landmark navigation — Sea experiments using three AUVs;Takumi Matsuda 等;《OCEANS 2017 - Aberdeen》;20171026;第1-10页 *
基于动态关键帧的自然地标景象匹配视觉导航;李耀军 等;《光电工程》;20100930;第37卷(第9期);第32-38页 *
基于路面标志识别的增强导航系统;宋宇鹏;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;20150515;第2015年卷(第5期);C034-257 *
景象匹配导航中的航路点自动提取算法;公续平 等;《计算机仿真》;20140831;第31卷(第8期);第60-63+203页 *
景象匹配辅助组合导航中景象区域适配性研究进展;沈林成 等;《航空学报》;20101231;第31卷(第3期);第553-563页 *

Also Published As

Publication number Publication date
CN109583484A (zh) 2019-04-05

Similar Documents

Publication Publication Date Title
CN110298298B (zh) 目标检测及目标检测网络的训练方法、装置及设备
US10540572B1 (en) Method for auto-labeling training images for use in deep learning network to analyze images with high precision, and auto-labeling device using the same
CN110110642B (zh) 一种基于多通道注意力特征的行人重识别方法
CN106909924B (zh) 一种基于深度显著性的遥感影像快速检索方法
CN109598241B (zh) 基于Faster R-CNN的卫星图像海上舰船识别方法
Wu et al. Inshore ship detection based on convolutional neural network in optical satellite images
Wang et al. Active machine learning approach for crater detection from planetary imagery and digital elevation models
US9042648B2 (en) Salient object segmentation
CN108428220B (zh) 静止轨道卫星序列遥感影像海岛礁区域自动几何校正方法
CN112419374B (zh) 一种基于图像配准的无人机定位方法
US9153203B2 (en) Temporally consistent superpixels
Bianchi et al. UAV localization using autoencoded satellite images
CN102426019A (zh) 一种无人机景象匹配辅助导航方法及系统
US9449395B2 (en) Methods and systems for image matting and foreground estimation based on hierarchical graphs
US10755146B2 (en) Network architecture for generating a labeled overhead image
CN110443279B (zh) 一种基于轻量级神经网络的无人机图像车辆检测方法
US11748449B2 (en) Data processing method, data processing apparatus, electronic device and storage medium
CN114415168A (zh) 一种无人水面艇航迹融合方法及装置
CN113052108A (zh) 基于深度神经网络的多尺度级联航拍目标检测方法和系统
US11074707B2 (en) Method and system of antenna measurement for mobile communication base station
CN114067118B (zh) 一种航空摄影测量数据的处理方法
CN109583484B (zh) 一种三类海域地标点自动选取方法
CN114820668A (zh) 一种端到端的基于同心环卷积的建筑物规则轮廓自动提取方法
Vakalopoulou et al. Simultaneous registration, segmentation and change detection from multisensor, multitemporal satellite image pairs
CN111144466B (zh) 一种图像样本自适应的深度度量学习方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant