CN109583484A - 一种三类海域地标点自动选取方法 - Google Patents
一种三类海域地标点自动选取方法 Download PDFInfo
- Publication number
- CN109583484A CN109583484A CN201811353753.5A CN201811353753A CN109583484A CN 109583484 A CN109583484 A CN 109583484A CN 201811353753 A CN201811353753 A CN 201811353753A CN 109583484 A CN109583484 A CN 109583484A
- Authority
- CN
- China
- Prior art keywords
- landmark point
- classes
- sample
- feature
- landmark
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种三类海域地标点自动选取方法,将海域地标点分为三类,提取地标点特征,设计多分类器,即可对于三类地标点自动选取,最终得到预测标签。本发明通过对海域三类地标点的划分,解决了海域地标点稀疏、分布不均匀,且特征缺失的问题;通过对不同二分类器、不同特征的核函数优化,提高海域三类地标点分类的正确率;为飞行器海域景象匹配导航的地标点数据库制备提供一种方便、可操作性强的方法,对提升飞行器海域长航时飞行的导航精度具有重要意义,因此本发明有广泛的发展前景以及工程应用价值。
Description
技术领域
本发明涉及飞行器海域景象匹配导航领域,尤其是一种地标点自动选取方法,利用图像多特征提取方法、支持向量机多核学习方法、纠错输出编码多分类器等,实现三类海域地标点自动选取。
背景技术
景象匹配导航系统具有体积小、成本低、自主性好等优点,作为惯性导航的辅助手段,能够有效的矫正飞行器惯导漂移带来的位置误差,满足飞行器长航时、精确导航要求。地标点具有唯一性、显著性、丰富性和稳定性,是实现基于地标点景象匹配导航的重要前提。飞行器飞到地标点时,采集的实时图像与存贮在飞行器上的地标点匹配,可完成基于地标点的景象匹配导航。目前,地标点的选择多由人工完成,工作量大且具有个体差异。长航时飞行器飞行里程长,地标点数量大,因此,研究地标点的自动选择方法可提高选取效率并统一选取标准,对提高景象匹配的准确性并辅助惯导实现长航时自主导航,具有重要的工程价值。
目前,面向陆地,通常采用一类地标点实现地标点自动选取。海域区域地标点自动选取方法存在大部分区域为海洋、且无明显图像特征;地标点(自然岛屿)分布不均匀、且颜色、纹理等图像特征较接近的问题。
发明内容
为了克服现有技术的不足,本发明提供一种海域地标点自动选取方法。本发明将海域地标点定义为:一类地标点(孤岛型)、二类地标点(大岛型)和三类地标点(多岛型),分别对三类地标点提取图像特征,结合支持向量机多核学习方法和纠错输出编码多分类器,实现三类海域地标点自动选取。
本发明解决其技术问题所采用的技术方案的步骤如下:
第一步:海域地标点分类
本发明对海域自然岛屿进行三种地标点类型划分,定义如下:
一类地标点孤岛型:在视场范围内地标岛屿成像像素占比3%以下且岛屿边缘均包含在视场范围内且无临近岛屿,地标点仅存储中心点地理信息;
二类地标点大岛屿型:在视场范围内成像地标岛屿成像像素占比3%以上,地标点存储为图像灰度信息及图像中心地理信息;
三类地标点多岛屿型:在视场范围内有两个以上岛屿,地标点存储为基准岛屿中心位置与其余任意两个岛屿中心位置构成的三角形边-边-边信息;
第二步:地标点特征提取
对制备的图像样本提取相应特征,详细步骤如下:
步骤1:唯一性特征
对一类和二类地标点的灰度图像选取灰度归一化互相关系数的最高峰尖锐度为唯一性特征,即计算地标点样本图像T与对应基准图S中每个匹配位置的灰度归一化互相关系数R(i,j)的最高峰尖锐度Kacuity为唯一性信息x11,详细步骤如下:
将地标点像素大小为m×n的样本图像T在像素大小为M×N的基准图S上,以步长为1像素进行平移,将样本图像T所覆盖的子图像记为Si,j,其中(i,j)表示子图像左上角在基准图S上的坐标,其搜索范围为:1≤i≤M-m,1≤j≤N-n,R(i,j)归一化计算公式定义为:
其中,E(Si,j),E(T)分别为所覆盖子图Si,j和样本图T的灰度均值,Si,j(s,t),T(s,t) 分别为(s,t)处基准图S和样本图T的灰度值;
Vmean-sub是在领域范围内内相关峰的平均值,Vmax为相关峰的最大值,则最高峰尖锐度定义为:
最高峰尖锐度的取值范围在[0,1]区间;
对三类地标点,由于其具有明显拓扑结构,构造一种三角形匹配概率参数为唯一性特征x12;
在搜索范围d内,每三个岛屿的中心连成一个三角形,对所得三角形在d内进行匹配,匹配时若同时满足:
|d(i,j)-d(1,2)|≤ε
|d(j,k)-d(2,3)|≤ε
|d(i,k)-d(1,3)|≤ε (3)
式中,d(·)为三角形边长,ε表示阈值,1,2,3为当前地标点样本三角形的三个顶点,i,j,k表示与其匹配的三角形三个顶点, 为d内所有岛屿个数;
若所得三角形同时满足式(3)则匹配成功,完成搜索范围d内匹配后,当前地标点样本的唯一性指标为:
式中,为匹配成功三角形个数,为搜索区域三角形总数;
步骤2:投影特征
对一类、二类、三类地标点灰度图像在水平方向与垂直方向分别进行投影,依次连接为行向量构造整体投影特征向量x2;
对一类、二类、三类地标点灰度图像先采用prewitt算子进行边缘提取,再对边缘提取后的图像在水平方向和垂直方向分别投影,依次连接为行向量构造边缘投影特征向量x3;
步骤3:HOG特征
对一类、二类、三类地标点图像按照颜色空间构建HOG特征向量:
对一类、二类、三类地标点,图像灰度化,将图像大小统一变换为512×512pixel2,设胞元大小为32×32,每个胞元有9个特征,设窗口扫描移动步长为28个像素点,则一个地标点图像,共有8100维HOG特征,构建HOG特征x4;
步骤4:LBP特征
对一类、二类、三类地标点灰度图像构建LBP特征:
对一类、二类、三类地标点,图像灰度化,以图中的每一个像素点的灰度值作为阈值,与其3×3邻域内的像素点灰度值作比较,若大于阈值,则为1,否则为0,按照顺时针的顺序比较,得到一个8位的二进制数,以此二进制数作为该像素点的响应,将图像内所有像素点的响应连接为该张图像的LBP特征x5;
步骤5:特征归一化
为有效利用各种特征,平均每一种特征对支持向量机SVM训练的影响,使训练更加精确,对各特征进行归一化,即对五种特征x1~x5进行归一化z1~z5,特征x1包含唯一性特征x11和x12,归一化公式如下:
式中,zi表示归一化后的特征向量,xi表示初始的第i种特征向量,max(xi)为特征xi中的最大特征值,min(xi)为特征xi中最小特征值;
第三步:多分类器设计
步骤1:构造编码矩阵
对三类地标点考虑6种组合情况,分别建立6个SVM二分类器,构造纠错输出编码ECOC矩阵,详细步骤如下:
对三类地标点按照如下组合情况构建6个SVM二分类器:
F1:一类、二类地标点为正样本,三类地标点为负样本;
F2:一类、三类地标点为正样本,二类地标点为负样本;
F3:二类、三类地标点为正样本,一类地标点为负样本;
F4:一类地标点为正样本,二类地标点为负样本,三类地标点停用;
F5:二类地标点为正样本,三类地标点为负样本,一类地标点停用;
F6:三类地标点为正样本,一类地标点为负样本,二类地标点停用;
对F1,F2,F3分类器使用二元编码,对F4,F5,F6使用三元编码进行ECOC编码矩阵M3×6的构造:
根据编码矩阵M3×6构造ECOC编码框架,其中+1表示正样本,-1表示负样本,0 表示停用;
步骤2:核函数选取
将6个SVM二分类器按照五个特征分别扩展为五个分类器,选取SVM的线性核、多项式核和高斯核,对每种特征进行最佳核函数选择,详细步骤如下:
根据提取的五种特征x1~x5,将F1~F6六个分类器的每个分类器扩展为五个分类器,选取SVM的线性核、多项式核和高斯核,计算每种特征在每种核函数的训练过程中的K折验证损失,进行最佳核函数选择;
计算K折验证损失需要K折交叉验证,详细K折交叉验证过程为:
将初始采样分割成K份,一份被保留作为验证模型的数据,其他K-1份用来训练,交叉验证重复K次后,平均K次的结果作为最终误差评估,K折交叉验证的损失计算公式为:
其中为每次分类错误率,为每次分类错误数,I 为每次K折交叉验证选出的测试总数,yj为当前分类样本实际结果,为当前分类样本估计结果,N为初始采样样本总数;
选取K=10,由各特征在不同核函数下的K折损失,选取每个特征对应最小K折损失的核函数,得到SVM二分类器组,即多分类器;
第四步:三类地标点自动选取
根据视场角θ、飞行高度H和相机分辨率p,相机分辨率单位为pixel,计算视场大小为R=2Htanθ/2,单位为m,地物分辨率q=R2/p,单位为m/pixel,根据实时图大小R和惯导漂移误差δ,单位为m,设置地标点图像大小r和与其相应的图像搜索范围 d=r+δ/q,的图像搜索范围单位为pixel,其中,r<R,其中,制备三类地标点基准图d×d,并在基准图上截取地标点样本r×r,对地标点样本提取特征x1~x5,并第一步给出三类地标点的标签,将地标五种特征x1~x5和标签一起送入对应SVM二分类器进行多分类器训练,给出三类海域地标点自动预测器,任意选取一张图像大小同地标点的海域图像,提取五种特征,送入自动预测器中进行地标点自动分类;
第五步:三类海域地标点自动选取
步骤1:预测阶段
选取一张海域图像r×r即预测样本,提取所述五种特征并归一化z1~z5,送入分类器组中对应分类器,每个分类器生成一个预测标签labelj,定义每个预测标签出现的频次为f(labelj),则对于一个预测样本,同组分类器最终分类结果:
Label=argmax(f(labelj)|labelj=1,-1) (8)
其中,当labelj=1时表示SVM二分类器预测其为正样本,当labelj=-1时表示SVM二分类器预测其为负样本,j取值范围为当前分类器组中分类器的个数;
一组SVM二分类器给出一个预测码hn∈{-1,0,1},n=1,…,6,当六个分类器组完成预测后,得到一个表示预测样本类别的预测矩阵H1×6=[h1 h2 h3 h4 h5 h6];
步骤2:解码阶段:
计算预测矩阵H1×6与编码矩阵M3×6的之间的汉明距离D(i),汉明距离计算公式为:
找到汉明距离最短的行向量Dmin,则:
PredictLabel=Dmin=arg min(D(i)|i=1,2,3) (10)
对应的地标类别Ci即为此测试样本的预测标签PredictLabel。
本发明的有益效果是飞行器海域地标点自动选取方法通过对海域三类地标点的划分,解决了海域地标点稀疏、分布不均匀,且特征缺失的问题;通过对不同二分类器、不同特征的核函数优化,提高海域三类地标点分类的正确率;为飞行器海域景象匹配导航的地标点数据库制备提供一种方便、可操作性强的方法。对提升飞行器海域长航时飞行的导航精度具有重要意义,因此本发明有广泛的发展前景以及工程应用价值。
附图说明
图1为本发明三类海域地标点自动选取系统示意图。
图2为本发明三类地标点唯一性特征示意图,图(a)为当前地标点三角形示意图,图(b)为与其匹配的三角形示意图。
图3为本发明ECOC编码框架示意图。
图4为本发明地标点多分类器组示意图。
图5为本发明ECOC预测解码过程示意图。
图6为本发明三类地标点样本示意图,图6(a)为一类地标点样本示意图,图6(b)为二类地标点样本示意图,图6(c)为三类地标点样本示意图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本发明提出三类海域地标点自动选取方法,为基于地标点的飞行器海域景象匹配导航提供重要技术支持,详细步骤如下:
第一步:海域地标点分类
本发明对海域自然岛屿进行三种地标点类型划分,定义如下:
一类地标点孤岛型:在视场范围内地标岛屿成像像素占比3%以下且岛屿边缘均包含在视场范围内且无临近岛屿,地标点仅存储中心点地理信息;
二类地标点大岛屿型:在视场范围内成像地标岛屿成像像素占比3%以上,地标点存储为图像灰度信息及图像中心地理信息;
三类地标点多岛屿型:在视场范围内有两个以上岛屿,地标点存储为基准岛屿中心位置与其余任意两个岛屿中心位置构成的三角形边-边-边信息;
第二步:地标点特征提取
为满足地标点的显著性、稳定性、唯一性和丰富性,对制备的图像样本提取相应特征,详细步骤如下:
步骤1:唯一性特征
对一类和二类地标点的灰度图像选取灰度归一化互相关系数的最高峰尖锐度为唯一性特征,即计算地标点样本图像T与对应基准图S中每个匹配位置的灰度归一化互相关系数R(i,j)的最高峰尖锐度Kacuity为唯一性信息x11,详细步骤如下:
将地标点像素大小为m×n的样本图像T在像素大小为M×N的基准图S上,以步长为1像素进行平移,将样本图像T所覆盖的子图像记为Si,j,其中(i,j)表示子图像左上角在基准图S上的坐标,其搜索范围为:1≤i≤M-m,1≤j≤N-n,R(i,j)归一化计算公式定义为:
其中,E(Si,j),E(T)分别为所覆盖子图Si,j和样本图T的灰度均值,Si,j(s,t),T(s,t) 分别为(s,t)处基准图S和样本图T的灰度值;
Vmean-sub是在某个领域范围内(一般选择为n=8,即8领域)内相关峰的平均值,Vmax为相关峰的最大值,则最高峰尖锐度定义为:
最高峰尖锐度的取值范围在[0,1]区间,值越小,说明相关峰越尖锐,区域地物越明显,匹配的可靠性越高;
对三类地标点,由于其具有明显拓扑结构,构造一种三角形匹配概率参数为唯一性特征x12;
如图2所示,在搜索范围d内,每三个岛屿的中心连成一个三角形,对所得三角形在d内进行匹配,匹配时若同时满足:
|d(i,J)-d(1,2)|≤ε
|d(j,k)-d(2,3)|≤9
|d(i,k)-d(1,3)|≤ε (10)
式中,d(·)为三角形边长,ε表示阈值,1,2,3为当前地标点样本三角形的三个顶点,i,j,k表示与其匹配的三角形三个顶点, 为d内所有岛屿个数;
若所得三角形同时满足式(3)则匹配成功,完成搜索范围d内匹配后,当前地标点样本的唯一性指标为:
式中,为匹配成功三角形个数,为搜索区域三角形总数;
步骤2:投影特征
对一类、二类、三类地标点灰度图像在水平方向与垂直方向分别进行投影,依次连接为行向量构造整体投影特征向量x2;
对一类、二类、三类地标点灰度图像先采用prewitt算子进行边缘提取,再对边缘提取后的图像在水平方向和垂直方向分别投影,依次连接为行向量构造边缘投影特征向量x3;
步骤3:HOG特征
对一类、二类、三类地标点图像按照颜色空间构建HOG特征向量:
对一类、二类、三类地标点,图像灰度化,将图像大小统一变换为512×512pixel2,设胞元大小为32×32,每个胞元有9个特征,设窗口扫描移动步长为28个像素点,则一个地标点图像,共有8100维HOG特征,构建HOG特征x4;
步骤4:LBP特征
对一类、二类、三类地标点灰度图像构建LBP特征:
对一类、二类、三类地标点,图像灰度化,以图中的每一个像素点的灰度值作为阈值,与其3×3邻域内的像素点灰度值作比较,若大于阈值,则为1,否则为0,按照顺时针的顺序比较,得到一个8位的二进制数,以此二进制数作为该像素点的响应,将图像内所有像素点的响应连接为该张图像的LBP特征x5;
步骤5:特征归一化
为有效利用各种特征,平均每一种特征对SVM(支持向量机)训练的影响,使训练更加精确,对各特征进行归一化,即对五种特征x1~x5进行归一化z1~z5,特征x1包含唯一性特征x11和x12,归一化公式如下:
式中,zi表示归一化后的特征向量,xi表示初始的第i种特征向量,max(xi)为特征xi中的最大特征值,min(xi)为特征xi中最小特征值;
第三步:多分类器设计
步骤1:构造编码矩阵
对三类地标点考虑6种组合情况,分别建立6个SVM二分类器,构造纠错输出编码(ECOC)矩阵,详细步骤如下:
对三类地标点按照如下组合情况构建6个SVM二分类器:
F1:一类、二类地标点为正样本,三类地标点为负样本;
F2:一类、三类地标点为正样本,二类地标点为负样本;
F3:二类、三类地标点为正样本,一类地标点为负样本;
F4:一类地标点为正样本,二类地标点为负样本,三类地标点停用;
F5:二类地标点为正样本,三类地标点为负样本,一类地标点停用;
F6:三类地标点为正样本,一类地标点为负样本,二类地标点停用;
对F1,F2,F3分类器使用二元编码,对F4,F5,F6使用三元编码进行ECOC编码矩阵M3×6的构造:
根据编码矩阵M3×6构造ECOC编码框架,其中+1表示正样本,-1表示负样本,0表示停用;
步骤2:核函数选取
将6个SVM二分类器按照五个特征分别扩展为五个分类器,选取SVM的线性核、多项式核和高斯核,对每种特征进行最佳核函数选择,详细步骤如下:
根据提取的五种特征x1~x5,将F1~F6六个分类器的每个分类器扩展为五个分类器,选取SVM的线性核、多项式核和高斯核,计算每种特征在每种核函数的训练过程中的K折验证损失,进行最佳核函数选择;
计算K折验证损失需要K折交叉验证,详细K折交叉验证过程为:
将初始采样分割成K份,一份被保留作为验证模型的数据,其他K-1份用来训练,交叉验证重复K次后,平均K次的结果作为最终误差评估,K折交叉验证的损失计算公式为:
其中为每次分类错误率,为每次分类错误数,I 为每次K折交叉验证选出的测试总数,yj为当前分类样本实际结果,为当前分类样本估计结果,N为初始采样样本总数;
选取K=10,由各特征在不同核函数下的K折损失,选取每个特征对应最小K折损失的核函数,得到SVM二分类器组,即多分类器,结构如图4所示,其中F1,F2,F3, F4,F5,F6分类器组分别由F11~F15,F21~F25,F31,F41~F45,F51,F61共18个SVM二分类器组成(图中看F31,F51,F61只有1个,那么为何这三列只有1个,而第1,2,4列是5 个?是的)
第四步:三类地标点自动选取
根据视场角θ、飞行高度H和相机分辨率p(单位:pixel),计算视场大小(实时图大小)R=2Htanθ/2(单位:m),地物分辨率q=R2/p(单位:m/pixel),根据实时图大小R和惯导漂移误差δ(单位:m),设置地标点图像大小r(r<R)和与其相应的图像搜索范围d=r+δq(单位:pixel),其中,制备三类地标点基准图d×d(单位: pixel2),并在基准图上截取地标点样本r×r(单位:pixel2),对地标点样本提取特征 x1~x5,并第一步给出三类地标点的标签,将地标五种特征x1~x5和标签一起送入对应 SVM二分类器进行多分类器训练,给出三类海域地标点自动预测器,任意选取一张图像大小同地标点的海域图像,提取五种特征,送入自动预测器中进行地标点自动分类。三类海域地标点自动选取系统如图1所示。
第五步:三类海域地标点自动选取
步骤1:预测阶段
选取一张海域图像r×r即预测样本,提取所述五种特征并归一化z1~z5,送入分类器组中对应分类器,每个分类器生成一个预测标签labelj,定义每个预测标签出现的频次为f(labelj),则对于一个预测样本,同组分类器最终分类结果:
Label=argmax(f(labelj)|labelj=1,-1) (8)
其中,当labelj=1时表示SVM二分类器预测其为正样本,当labelj=-1时表示SVM二分类器预测其为负样本,j取值范围为当前分类器组中分类器的个数;
一组SVM二分类器给出一个预测码hn∈{-1,0,1},n=1,…,6,当六个分类器组完成预测后,得到一个表示预测样本类别的预测矩阵H1×6=[h1 h2 h3 h4 h5 h6];
步骤2:解码阶段:
计算预测矩阵H1×6与编码矩阵M3×6的之间的汉明距离D(i),汉明距离计算公式为:
找到汉明距离最短的行向量Dmin,则:
PredictLable=Dmin=arg min(D(i)|i=1,2,3) (10)
对应的地标类别Ci即为此测试样本的预测标签PredictLabel。
实施例如下:
第一步:制备样本数据库
根据视场角θ、飞行高度H和相机分辨率p(单位:pixel),计算视场大小(实时图大小)R=2Htanθ/2(单位:m),地物分辨率q=R2/p(单位:m/pixel),根据实时图大小R和惯导漂移误差δ(单位:m),设置地标点图像大小r(r<R)和与其相应的图像搜索范围d=r+δ/q(单位:pixel),制备三类地标点基准图d×d(单位:pixel2),并在基准图上截取地标点样本r×r(单位:pixel2)。
第二步:地标点特征提取
步骤1:唯一性特征
对一类和二类地标点,将图像灰度化,并将地标点与其对应的基准图,计算灰度归一化互相关系数的最高峰尖锐度,作为地标点唯一性特征x11。
对三类地标点,构造一种三角形匹配概率参数,作为唯一性特征x12,如图2所示,在搜索范围d内,每三个岛屿中心可连成一个三角形,对所得三角形在d内进行匹配,匹配时若同时满足:
|d(i,j)-d(1,2)|≤ε
|d(j,k)-d(2,3)|≤ε
|d(i,k)-d(1,3)|≤ε (3)
式中,d(·)为三角形边长,ε表示阈值,1,2,3为当前地标点样本三角形的三个顶点,i,j,k表示与其匹配的三角形三个顶点, 为d内所有岛屿个数。
若同时满足上式则匹配成功,完成d内匹配后,当前地标点样本的唯一性指标为:
式中,为匹配成功三角形个数,为搜索区域三角形总数。
步骤2:投影特征
对一类、二类、三类地标点灰度图像进行垂直与水平方向投影,构造整体投影特征向量x2。
对一类、二类、三类地标点灰度图像先采用prewitt算子进行边缘提取,再对边缘提取后的图像进行水平和垂直方向的投影,构造边缘投影特征向量x3。
步骤3:HOG特征
对一类、二类、三类地标点,图像灰度化,将图像大小统一变换为512×512pixel2,设胞元大小为32×32,每个胞元有9个特征,设窗口扫描移动步长为28个像素点,则一个地标点图像,共有8100维HOG特征,构建HOG特征x4。
步骤4:LBP特征
对一类、二类、三类地标点,图像灰度化,以图中的每一个像素点的灰度值作为阈值,与其3×3邻域内的像素点灰度值作比较,若大于阈值,则为1,否则为0。按照顺时针的顺序比较,得到一个8位的二进制数,以此二进制数作为该像素点的响应。将图像内所有像素点的响应连接为该张图像的LBP特征x5。
步骤5:特征归一化
对五种特征x1~x5进行归一化z1~z5,公式如下:
式中,zi表示归一化后的特征向量,xi表示初始的第i种特征向量,max(xi)为特征xi中的最大特征值,min(xi)为特征xi中最小特征值。
第三步:多分类器设计
步骤1:构造编码矩阵
对三类地标点充分考虑各种组合情况构建6个SVM二分类器:
F1:一类、二类地标点为正样本,三类地标点为负样本;
F2:一类、三类地标点为正样本,二类地标点为负样本;
F3:二类、三类地标点为正样本,一类地标点为负样本;
F4:一类地标点为正样本,二类地标点为负样本,三类地标点停用;
F5:二类地标点为正样本,三类地标点为负样本,一类地标点停用;
F6:三类地标点为正样本,一类地标点为负样本,二类地标点停用。
对F1,F2,F3分类器使用二元编码,对F4,F5,F6使用三元编码进行ECOC编码矩阵M3×6的构造:
ECOC编码框架如图3所示,其中表示正样本,表示负样本,表示停用。
步骤2:核函数选取
根据提取的五种特征,将六个分类器的每个分类器扩展为五个分类器,选取SVM的线性核、多项式核和高斯核,计算每种特征在每种核函数的训练过程中的K折验证损失,进行最佳核函数选择。
K折交叉验证,将初始采样分割成K份,一份被保留作为验证模型的数据,其他K-1份用来训练,交叉验证重复K次后,平均K次的结果作为最终误差评估。K折验证损失计算公式:
其中为每次分类错误率,为每次分类错误数,I为每次K折交叉验证选出的测试总数,yj为当前分类样本实际结果,为当前分类样本估计结果,N为初始采样样本总数。
选取K=10,由各特征在不同核函数下的K折损失,选取每个特征对应最小K折损失的核函数,得到SVM二分类器组,即多分类器。
第四步:多分类器训练
将归一化后的五种特征z1~z5和地标点正负标签一同对应送入前文得到的SVM二分类器组进行多分类器训练,给出三类海域地标点自动预测器。三类海域地标点自动选取系统如图1所示。
第五步:三类海域地标点自动选取
步骤1:预测阶段
选取一张海域图像r×r(单位:pixel2)即预测样本,提取前文所述五种特征并归一化z1~z5,送入分类器组中对应分类器,每个分类器生成一个预测标签labelj,定义每个预测标签出现的频次为f(labelj),则对于一个预测样本,同组分类器最终分类结果:
Label=argmax(f(labelj)|labelj=1,-1) (8)
其中,当labelj=1时表示SVM二分类器预测其为正样本,当labelj=-1时表示SVM二分类器预测其为负样本,j取值范围为当前分类器组中分类器的个数。
一组SVM二分类器给出一个预测码hn∈{-1,0,1},n=1,…,6,当六个分类器组完成预测后,得到一个表示预测样本类别的预测矩阵H1×6=[h1 h2 h3 h4 h5 h6]。
步骤2:解码阶段:
计算预测矩阵H1×6与编码矩阵M3×6的之间的汉明距离D(i),如图5所示,汉明距离计算公式:
找到汉明距离最短的行向量Dmin,对应的地标类别Ci即为此测试样本的预测标签PredictLabel:
PredictLabel=Dmin=arg min(D(i)|i=1,2,3) (10)
以下对本发明的方法进一步描述:在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程。
实验图像采用ArcGIS卫星图,截取全球部分海域,包括南海海域(北纬2°-20°,东经108°-118°)区域和太平洋海域(南纬27°到北纬23°,东经90°-180°),以飞行高度5000m为例,地物分辨率19.11(单位:mpixel),视场角127°,计算可得地标图像为750×750(单位:pixel2),基准图2000×2000(单位:pixel2)。制备样本数据库一类地标点35个,二类地标点369个,三类地标点166个,选取90%作为训练样本,其余10%为测试样本。对选取的训练样本即一类地标点32个,二类地标点339个,三类地标点150 个分别提取其唯一性特征、HOG特征、LBP特征、整体投影特征和边缘投影特征共五种特征,将提取的特征归一化后和样本标签一同送入对应的SVM二分类器中,进行分类器核函数选择。选择得到核函数如表1所示。
表1各特征对应的SVM核函数
消除相同核函数的多个分类器之间的冗余,最终共选取F11~F6118个二分类器,得到地标点多分类器组示意图如图2所示。
对49张测试样本进行预测,首先对每一个测试样本提取前文所述五种特征,将五种特征送入对应分类器中,由上文所述预测及解码方法,结合图1和图5所示过程,得到所有预测样本的统计结果如表1所示,总体分类正确率为97.96%。
表1海域地标点图像分类预测结果
Claims (1)
1.一种三类海域地标点自动选取方法,其特征在于包括下述步骤:
第一步:海域地标点分类
本发明对海域自然岛屿进行三种地标点类型划分,定义如下:
一类地标点孤岛型:在视场范围内地标岛屿成像像素占比3%以下且岛屿边缘均包含在视场范围内且无临近岛屿,地标点仅存储中心点地理信息;
二类地标点大岛屿型:在视场范围内成像地标岛屿成像像素占比3%以上,地标点存储为图像灰度信息及图像中心地理信息;
三类地标点多岛屿型:在视场范围内有两个以上岛屿,地标点存储为基准岛屿中心位置与其余任意两个岛屿中心位置构成的三角形边-边-边信息;
第二步:地标点特征提取
对制备的图像样本提取相应特征,详细步骤如下:
步骤1:唯一性特征
对一类和二类地标点的灰度图像选取灰度归一化互相关系数的最高峰尖锐度为唯一性特征,即计算地标点样本图像T与对应基准图S中每个匹配位置的灰度归一化互相关系数R(i,j)的最高峰尖锐度Kacuity为唯一性信息x11,详细步骤如下:
将地标点像素大小为m×n的样本图像T在像素大小为M×N的基准图S上,以步长为1像素进行平移,将样本图像T所覆盖的子图像记为Si,j,其中(i,j)表示子图像左上角在基准图S上的坐标,其搜索范围为:1≤i≤M-m,1≤j≤N-n,R(i,j)归一化计算公式定义为:
其中,E(Si,j),E(T)分别为所覆盖子图Si,j和样本图T的灰度均值,Si,j(s,t),T(s,t)分别为(s,t)处基准图S和样本图T的灰度值;
Vmean-sub是在领域范围内内相关峰的平均值,Vmax为相关峰的最大值,则最高峰尖锐度定义为:
最高峰尖锐度的取值范围在[0,1]区间;
对三类地标点,由于其具有明显拓扑结构,构造一种三角形匹配概率参数为唯一性特征x12;
在搜索范围d内,每三个岛屿的中心连成一个三角形,对所得三角形在d内进行匹配,匹配时若同时满足:
|d(i,j)-d(1,2)|≤ε
|d(j,k)-d(2,3)|≤ε
|d(i,k)-d(1,3)|≤ε (3)
式中,d(·)为三角形边长,ε表示阈值,1,2,3为当前地标点样本三角形的三个顶点,i,j,k表示与其匹配的三角形三个顶点, 为d内所有岛屿个数;
若所得三角形同时满足式(3)则匹配成功,完成搜索范围d内匹配后,当前地标点样本的唯一性指标为:
式中,为匹配成功三角形个数,为搜索区域三角形总数;
步骤2:投影特征
对一类、二类、三类地标点灰度图像在水平方向与垂直方向分别进行投影,依次连接为行向量构造整体投影特征向量x2;
对一类、二类、三类地标点灰度图像先采用prewitt算子进行边缘提取,再对边缘提取后的图像在水平方向和垂直方向分别投影,依次连接为行向量构造边缘投影特征向量x3;
步骤3:HOG特征
对一类、二类、三类地标点图像按照颜色空间构建HOG特征向量:
对一类、二类、三类地标点,图像灰度化,将图像大小统一变换为512×512 pixel2,设胞元大小为32×32,每个胞元有9个特征,设窗口扫描移动步长为28个像素点,则一个地标点图像,共有8100维HOG特征,构建HOG特征x4;
步骤4:LBP特征
对一类、二类、三类地标点灰度图像构建LBP特征:
对一类、二类、三类地标点,图像灰度化,以图中的每一个像素点的灰度值作为阈值,与其3×3邻域内的像素点灰度值作比较,若大于阈值,则为1,否则为0,按照顺时针的顺序比较,得到一个8位的二进制数,以此二进制数作为该像素点的响应,将图像内所有像素点的响应连接为该张图像的LBP特征x5;
步骤5:特征归一化
为有效利用各种特征,平均每一种特征对支持向量机SVM训练的影响,使训练更加精确,对各特征进行归一化,即对五种特征x1~x5进行归一化z1~z5,特征x1包含唯一性特征x11和x12,归一化公式如下:
式中,zi表示归一化后的特征向量,xi表示初始的第i种特征向量,max(xi)为特征xi中的最大特征值,min(xi)为特征xi中最小特征值;
第三步:多分类器设计
步骤1:构造编码矩阵
对三类地标点考虑6种组合情况,分别建立6个SVM二分类器,构造纠错输出编码ECOC矩阵,详细步骤如下:
对三类地标点按照如下组合情况构建6个SVM二分类器:
F1:一类、二类地标点为正样本,三类地标点为负样本;
F2:一类、三类地标点为正样本,二类地标点为负样本;
F3:二类、三类地标点为正样本,一类地标点为负样本;
F4:一类地标点为正样本,二类地标点为负样本,三类地标点停用;
F5:二类地标点为正样本,三类地标点为负样本,一类地标点停用;
F6:三类地标点为正样本,一类地标点为负样本,二类地标点停用;
对F1,F2,F3分类器使用二元编码,对F4,F5,F6使用三元编码进行ECOC编码矩阵M3×6的构造:
根据编码矩阵M3×6构造ECOC编码框架,其中+1表示正样本,-1表示负样本,0表示停用;
步骤2:核函数选取
将6个SVM二分类器按照五个特征分别扩展为五个分类器,选取SVM的线性核、多项式核和高斯核,对每种特征进行最佳核函数选择,详细步骤如下:
根据提取的五种特征x1~x5,将F1~F6六个分类器的每个分类器扩展为五个分类器,选取SVM的线性核、多项式核和高斯核,计算每种特征在每种核函数的训练过程中的K折验证损失,进行最佳核函数选择;
计算K折验证损失需要K折交叉验证,详细K折交叉验证过程为:
将初始采样分割成K份,一份被保留作为验证模型的数据,其他K-1份用来训练,交叉验证重复K次后,平均K次的结果作为最终误差评估,K折交叉验证的损失计算公式为:
其中为每次分类错误率,为每次分类错误数,I为每次K折交叉验证选出的测试总数,yj为当前分类样本实际结果,为当前分类样本估计结果,N为初始采样样本总数;
选取K=10,由各特征在不同核函数下的K折损失,选取每个特征对应最小K折损失的核函数,得到SVM二分类器组,即多分类器;
第四步:三类地标点自动选取
根据视场角θ、飞行高度H和相机分辨率p,相机分辨率单位为pixel,计算视场大小为R=2Htanθ/2,单位为m,地物分辨率q=R2/p,单位为m/pixel,根据实时图大小R和惯导漂移误差δ,单位为m,设置地标点图像大小r和与其相应的图像搜索范围d=r+δ/q,的图像搜索范围单位为pixel,其中,r<R,其中,制备三类地标点基准图d×d,并在基准图上截取地标点样本r×r,对地标点样本提取特征x1~x5,并第一步给出三类地标点的标签,将地标五种特征x1~x5和标签一起送入对应SVM二分类器进行多分类器训练,给出三类海域地标点自动预测器,任意选取一张图像大小同地标点的海域图像,提取五种特征,送入自动预测器中进行地标点自动分类;
第五步:三类海域地标点自动选取
步骤1:预测阶段
选取一张海域图像r×r即预测样本,提取所述五种特征并归一化z1~z5,送入分类器组中对应分类器,每个分类器生成一个预测标签labelj,定义每个预测标签出现的频次为f(labelj),则对于一个预测样本,同组分类器最终分类结果:
Label=argmax(f(labelj)|labelj=1,-1) (8)
其中,当labelj=1时表示SVM二分类器预测其为正样本,当labelj=-1时表示SVM二分类器预测其为负样本,j取值范围为当前分类器组中分类器的个数;
一组SVM二分类器给出一个预测码hn∈{-1,0,1},n=1,…,6,当六个分类器组完成预测后,得到一个表示预测样本类别的预测矩阵H1×6=[h1 h2 h3 h4 h5 h6];
步骤2:解码阶段:
计算预测矩阵H1×6与编码矩阵M3×6的之间的汉明距离D(i),汉明距离计算公式为:
找到汉明距离最短的行向量Dmin,则:
PredictLabel=Dmin=arg min(D(i)|i=1,2,3) (10)
对应的地标类别Ci即为此测试样本的预测标签PredictLabel。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811353753.5A CN109583484B (zh) | 2018-11-14 | 2018-11-14 | 一种三类海域地标点自动选取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811353753.5A CN109583484B (zh) | 2018-11-14 | 2018-11-14 | 一种三类海域地标点自动选取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109583484A true CN109583484A (zh) | 2019-04-05 |
CN109583484B CN109583484B (zh) | 2022-04-05 |
Family
ID=65922373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811353753.5A Active CN109583484B (zh) | 2018-11-14 | 2018-11-14 | 一种三类海域地标点自动选取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109583484B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111538059A (zh) * | 2020-05-11 | 2020-08-14 | 东华大学 | 一种基于改进的玻尔兹曼机的自适应快速动态定位系统及方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102089761A (zh) * | 2008-05-12 | 2011-06-08 | 谷歌公司 | 自动发现受欢迎的地标 |
CN102426019A (zh) * | 2011-08-25 | 2012-04-25 | 航天恒星科技有限公司 | 一种无人机景象匹配辅助导航方法及系统 |
CN102938147A (zh) * | 2012-09-21 | 2013-02-20 | 西北工业大学 | 一种基于快速鲁棒特征的低空无人机视觉定位方法 |
CN104217210A (zh) * | 2014-09-05 | 2014-12-17 | 中国人民解放军63620部队 | 基于多特征融合的景象匹配区选取方法 |
CN104268565A (zh) * | 2014-09-05 | 2015-01-07 | 中国人民解放军63620部队 | 基于回归学习的景象匹配区选取方法 |
CN105241457A (zh) * | 2015-08-10 | 2016-01-13 | 武汉理工大学 | 一种用于船舶驾驶的三维辅助导航系统建立方法 |
CN106709515A (zh) * | 2016-12-16 | 2017-05-24 | 北京华航无线电测量研究所 | 一种适用于下视景象匹配选区准则干预方法 |
US20170328716A1 (en) * | 2016-05-16 | 2017-11-16 | Northrop Grumman Systems Corporation | Vision-aided aerial navigation |
-
2018
- 2018-11-14 CN CN201811353753.5A patent/CN109583484B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102089761A (zh) * | 2008-05-12 | 2011-06-08 | 谷歌公司 | 自动发现受欢迎的地标 |
CN102426019A (zh) * | 2011-08-25 | 2012-04-25 | 航天恒星科技有限公司 | 一种无人机景象匹配辅助导航方法及系统 |
CN102938147A (zh) * | 2012-09-21 | 2013-02-20 | 西北工业大学 | 一种基于快速鲁棒特征的低空无人机视觉定位方法 |
CN104217210A (zh) * | 2014-09-05 | 2014-12-17 | 中国人民解放军63620部队 | 基于多特征融合的景象匹配区选取方法 |
CN104268565A (zh) * | 2014-09-05 | 2015-01-07 | 中国人民解放军63620部队 | 基于回归学习的景象匹配区选取方法 |
CN105241457A (zh) * | 2015-08-10 | 2016-01-13 | 武汉理工大学 | 一种用于船舶驾驶的三维辅助导航系统建立方法 |
US20170328716A1 (en) * | 2016-05-16 | 2017-11-16 | Northrop Grumman Systems Corporation | Vision-aided aerial navigation |
CN106709515A (zh) * | 2016-12-16 | 2017-05-24 | 北京华航无线电测量研究所 | 一种适用于下视景象匹配选区准则干预方法 |
Non-Patent Citations (5)
Title |
---|
TAKUMI MATSUDA 等: "Accurate and efficient survey of the seafloor by multiple AUVs using alternating landmark navigation — Sea experiments using three AUVs", 《OCEANS 2017 - ABERDEEN》 * |
公续平 等: "景象匹配导航中的航路点自动提取算法", 《计算机仿真》 * |
宋宇鹏: "基于路面标志识别的增强导航系统", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 * |
李耀军 等: "基于动态关键帧的自然地标景象匹配视觉导航", 《光电工程》 * |
沈林成 等: "景象匹配辅助组合导航中景象区域适配性研究进展", 《航空学报》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111538059A (zh) * | 2020-05-11 | 2020-08-14 | 东华大学 | 一种基于改进的玻尔兹曼机的自适应快速动态定位系统及方法 |
CN111538059B (zh) * | 2020-05-11 | 2022-11-11 | 东华大学 | 一种基于改进的玻尔兹曼机的自适应快速动态定位系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109583484B (zh) | 2022-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xia et al. | DOTA: A large-scale dataset for object detection in aerial images | |
Liu et al. | Adaptive douglas-peucker algorithm with automatic thresholding for AIS-based vessel trajectory compression | |
CN104134234B (zh) | 一种全自动的基于单幅图像的三维场景构建方法 | |
CN110287960A (zh) | 自然场景图像中曲线文字的检测识别方法 | |
CN109241913A (zh) | 结合显著性检测和深度学习的船只检测方法及系统 | |
CN106909924A (zh) | 一种基于深度显著性的遥感影像快速检索方法 | |
CN112257605B (zh) | 基于自标注训练样本的三维目标检测方法、系统及装置 | |
CN106056605B (zh) | 一种基于图像匹配的在轨高精度图像定位方法 | |
Liu et al. | A multikernel domain adaptation method for unsupervised transfer learning on cross-source and cross-region remote sensing data classification | |
Wang et al. | Window detection from mobile LiDAR data | |
CN112766184B (zh) | 基于多层级特征选择卷积神经网络的遥感目标检测方法 | |
CN108428220A (zh) | 静止轨道卫星序列遥感影像海岛礁区域自动几何校正方法 | |
CN105224935A (zh) | 一种基于Android平台的实时人脸关键点定位方法 | |
CN103854290A (zh) | 一种结合骨架特征点和分布场描述子的扩展目标跟踪方法 | |
CN111325184B (zh) | 一种遥感影像智能解译与变化信息检测方法 | |
CN110136174A (zh) | 一种目标对象跟踪方法和装置 | |
Zhou et al. | A large-scale mapping scheme for urban building from Gaofen-2 images using deep learning and hierarchical approach | |
Sun et al. | Geographic, geometrical and semantic reconstruction of urban scene from high resolution oblique aerial images. | |
Huang et al. | Urban Building Classification (UBC) V2-A Benchmark for Global Building Detection and Fine-grained Classification from Satellite Imagery | |
CN114359709A (zh) | 一种针对遥感图像的目标检测方法及装置 | |
CN114358133A (zh) | 一种基于语义辅助双目视觉slam检测回环帧的方法 | |
CN109583484A (zh) | 一种三类海域地标点自动选取方法 | |
CN105631849B (zh) | 多边形目标的变化检测方法及装置 | |
CN104679011B (zh) | 基于稳定分支特征点的图像匹配导航方法 | |
CN110598702A (zh) | 一种船舰目标检测数据集的制备方法、系统、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |