CN107247917A - 一种基于ELM与DSmT的飞机姿态识别方法 - Google Patents
一种基于ELM与DSmT的飞机姿态识别方法 Download PDFInfo
- Publication number
- CN107247917A CN107247917A CN201710273326.5A CN201710273326A CN107247917A CN 107247917 A CN107247917 A CN 107247917A CN 201710273326 A CN201710273326 A CN 201710273326A CN 107247917 A CN107247917 A CN 107247917A
- Authority
- CN
- China
- Prior art keywords
- mrow
- point
- msup
- vector
- sift
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于ELM与DSmT的飞机姿态识别方法。将飞机的360度飞行姿态分为7大类。对于待识别的飞机图像,经过去噪、灰度化、二值化处理后,提取具备平移、旋转、缩放不变性的SIFT特征与轮廓局部奇异值特征,可以有效解决单一特征提供的目标信息有限而造成算法识别率差这一问题;然后,采用学习速度快的ELM算法训练泛化能力强的SLFNs,将训练好的SLFNs作为算法的分类器;最后,采用DSmT融合理论中的PCR5公式,实现多特征的决策级融合,给出最终的识别结果。基于ELM与DSmT的飞机姿态识别方法可以解决飞机姿态识别中由于飞机姿态种类繁多、外界干扰等造成的识别率低下这一问题,同时在实时性方面,本方法也有一定的优越性。
Description
技术领域
本发明属于自动目标识别技术领域,特别涉及一种基于ELM与DSmT的飞机姿态识别方法。
背景技术
自动目标识别技术(Automatic Target Recognition,ATR)是取得战场控制信息权的关键因素之一。从二十世纪八十年代开始,国内外很多的专家、学者积极参与了ATR技术的研究,使得ATR理论方面得到了完善,应用领域也得到很大的扩展。飞机目标识别作为ATR的重要领域之一,在现代战争和未来战争中都将占有着极为重要的地位。现代军事活动中,飞机的姿态识别越来越发挥着重要的作用,通过定位飞机的姿态,能够更方便准确的定位飞机的局部关键部位(如螺旋浆、机舱、油箱)。
早期的研究主要集中于利用单特征结合模式分类方法对飞机目标做分类和识别。刘刚等(刘刚,梁晓庚,张京国.基于红外图像的飞机目标关键攻击部位识别[J].计算机工程与应用,2011,47(24):174-178)基于红外图像,将飞机图像分割成背景、机身、尾焰三部分,通过计算一种组合矩,同时结合面积比特征来实现飞机识别。涂建平等(涂建平,彭应宁,庄志洪.弹道终端飞机目标红外图像瞄准点识别方法[J].光学技术,2003,29(3):261-265)通过对飞机目标进行骨架提取、霍夫变换等过程,检测飞机机轴,识别飞机。
基于单一特征的飞机目标识别在面对飞机种类繁多时,其算法性能很差,同时基于单一特征的算法在面对图像存在噪声如遮挡、缩放等情况下,误识别率很低。为了解决这个问题,一部分学者提出了基于多特征融合的方法来提高飞机目标识别算法的鲁棒性。曾接贤等(曾接贤,季康.基于多特征融合的多视点飞机目标识别算法[J].南昌航空大学学报:自然科学版,2016,30(2):9-15)提出一种基于DSmT理论和SVM分类器相结合的多特征融合额多视点飞机目标识别算法,该方法首先对处理后的图像提取仿射不变矩与傅里叶描述子,利用SVM分类器对这两个证据源构建信度赋值,最后利用DSmT在决策级进行融合,从而完成对飞机目标的识别。
基于决策级的多特征融合的目标识别算法流程为:
(1)图像特征提取与表示;
(2)分类器的构建与训练;
(3)多特征融合;
多特征融合识别算法在特征方面弥补了单一特征在识别方面的不足,但是面对飞机在飞行过程中姿态多变、外界环境复杂等情况,会给识别结果带来较大的影响,导致识别错误。同时在实际军事应用中,算法的实时性是很关键的指标之一。综上,如何选择鲁棒性好的多个特征,同时降低算法的时间复杂度是很有意义的工作。
发明内容
发明目的:针对现有技术中存在的由于飞机种类繁多、姿态多变导致识别率较低,同时算法的实时性普遍很差等问题,本发明提供一种将SIFT算法引入飞机姿态识别方法中,提取飞机图像的SIFT特征与轮廓局部奇异值特征;将ELM算法训练后的SLFNs作为分类器,可以有效的提高算法的实时性;最终在决策级,采用DSmT融合理论中的PCR5公式实现多特征融合,可以在有效的提高算法的鲁棒性的基于ELM与DSmT的飞机姿态识别方法。
技术方案:为解决上述技术问题,本发明提供一种基于ELM与DSmT的飞机姿态识别方法,具体步骤如下:
第一步:对于飞机图像进行去噪、灰度化和二值化预处理;
第二步:对经过预处理的飞机图像提取二值化图像的SIFT特征描述子和飞机轮廓特征;
第三步:对SIFT特征描述子采用经典的BoW模型进行描述并最终得到BoWSIFT向量;
第四步:对第二步中得出的飞机轮廓特征进行处理得到飞机目标轮廓局部奇异值向量;
第五步:根据BoWSIFT向量,构建SLFNs网络,采用实时性好的ELM算法训练SLFNs网络,得到训练好的SLFNs1;对于轮廓局部奇异值向量,构建SLFNs,然后采用实时性好的ELM算法训练SLFNs网络,得到训练好的SLFNs2;
第六步:将两个训练好的SLFNs1和SLFNs1作为算法的分类器,采用DSmT融合理论中的PCR5公式,实现多特征的决策级融合,得到最终的识别结果。
进一步的,所述第二步中对SIFT特征进行提取的具体步骤如下:
2.1:SIFT特征点检测
I(x,y)表示一幅图像,σ是尺度空间因子,则其尺度空间L(x,y,σ)定义为:
L(x,y,σ)=G(x,y,σ)*I(x,y)
其中G(x,y,σ)为高斯核函数,二维高斯核函数定义为:
Lowe用计算简单、运算速度快的DoG算子替代LoG算子,DoG算子计算公式为:
D(x,y,σ)=L(x,y,kσ)-L(x,y,σ)
其中,k为相邻两个高斯尺度空间的比例因子。
通过DoG算子构建图像差分金字塔后,对每个采样点与同尺度的8个邻点以及上下两个尺度的9个邻点共计26个点进行比较,如果该采样点是最大值或者最小值,则认为其是图像在该尺度下的一个特征点,然后对筛选出来的特征点中的不稳定的边界点进行剔除;
2.2:SIFT特征点描述:
关键点检测完后,利用关键点邻域像素的梯度方向分布特性为每个关键点确定主方向和辅助方向,关键点(x,y)处的梯度幅值m(x,y)和方向θ(x,y)计算公式为:
利用直方图统计关键点邻域内方向分布,将0~360度的角度范围分为36个柱,每柱10度,直方图的峰值方向为关键点的主方向,将大于主方向峰值80%的方向作为该关键点处的辅助方向;
将每个关键点的邻域点分配到4×4的子区域中,计算影响子区域的采样点的梯度方向和幅值,将每个子区域上计算得到的梯度分配到8个方向上,利用直方图统计每个方向的邻域点对关键点的贡献;对于每个关键点,形成了一个4×4×8=128维的特征向量,该向量为每个特征点的特征描述子,最后对特征描述子进行归一化处理。
进一步的,所述第二步中提取飞机轮廓特征的具体步骤如下:首先提取出飞机图像的轮廓,同时计算图像的质心,然后选定固定起始点,从起始点将整条轮廓进行n等分,采样点记为[p1,p2,…,pn],计算每个采样点到质心的距离,并进行归一化,得到归一化距离向量[d1,d2,…,dn]。
进一步的,所述第三步中对SIFT特征采用经典的BoW模型进行描述并最终得到BoWSIFT向量的具体步骤如下:
3.1:提取训练样本库中所有图像的SIFT特征描述子;
3.2:使用KMeans聚类算法,将所有SIFT特征描述子聚为K类,生成K个视觉单词;
3.3:计算样本中每个SIFT特征描述子与K个视觉单词的欧氏距离,通过欧式距离最小的原则统计所有SIFT特征描述子,然后得到K维向量,即为样本的BoWSIFT向量。
进一步的,所述第四步中对轮廓特征进行处理得到轮廓局部奇异值的具体步骤如下:对于得到的归一化距离向量[d1,d2,…,dn],借鉴数字信号处理中的采样思想,利用一个长度为w的采样窗口对归一化距离向量进行采样,两个采样窗口的重叠部分的长度为m,可以得l个采样后维度为w的距离向量,将这l个w维的归一化距离向量构造出l个w×w的循环矩阵,分别计算奇异值,最终按顺序可以组合为一个l×w的轮廓局部奇异值向量,完成图像轮廓局部奇异值的表示。
与现有技术相比,本发明的优点在于:
本发明将对噪声有不错稳定性的SIFT特征引入飞机姿态识别方法中,可以提高算法的识别准确率,同时在发生外界干扰如光照、遮挡等情况下,算法也具有一定的准确率;由于ELM算法相比于基于梯度法的训练算法有收敛速度快、不会陷入局部最优解等优点,将ELM算法训练的SLFNs作为算法的分类器,可以在提升算法识别率的同时,大大降低算法的训练时间开销。
附图说明
图1为本发明的总体流程图;
图2为具体实施例中飞机7个姿态说明图;
图3为具体实施例中SIFT特征128维向量生成过程图;
图4为具体实施例中飞机目标轮廓离散采样图;
图5为具体实施例中物体的BoW模型描述过程图;
图6为具体实施例中基于BoW模型的物体识别过程图;
图7为具体实施例中SLFNs网络结构图;
图8为具体实施例中经典DSmT组合规则在μf(Θ)的描述图。
具体实施方式
下面结合附图和具体实施方式,进一步阐明本发明。
如图1所示一种基于ELM与DSmT的飞机姿态识别方法,首先,对于待识别的飞机姿态图像,提取具备平移、旋转、缩放不变性的SIFT特征与轮廓局部奇异值特征,可以有效解决单一特征提供的目标信息有限而造成算法鲁棒性差这一问题;然后,采用学习速度很快的ELM算法训练泛化能力强的SLFNs,将训练好的SLFNs作为算法的分类器;最终,采用DSmT融合理论中的PCR5公式,实现多特征的决策级融合。下面对本发明加以具体说明。
1、图像特征提取
如图2所示,将飞机飞行的360度姿态分为具有代表性的7类。飞机在飞行过程中姿态多变,同时由于外界环境的影响,容易造成遮挡、缩放的发生,这就要求提取的特征在飞机图像发生平移、旋转、缩放时,具备不变性。对于特定物体识别,局部特征相比于全局特征有更好的鲁棒性,因为全局特征易受外界噪声如光照、遮挡等因素的影响。本发明使用了在目标跟踪与识别方法中应用广泛的SIFT特征,同时提取了轮廓局部奇异值特征,以这两种特征来描述飞机目标。
1.1SIFT特征提取
应用于飞机姿态识别方法中的SIFT特征提取可以分为两个步骤
1.1.1SIFT特征点检测
设I(x,y)表示一幅图像,σ是尺度空间因子,则其尺度空间L(x,y,σ)定义为:
L(x,y,σ)=G(x,y,σ)*I(x,y)
其中G(x,y,σ)为高斯核函数,二维高斯核函数定义为:
Lowe用计算简单、运算速度快的DoG算子替代LoG算子,DoG算子计算公式为:
D(x,y,σ)=L(x,y,kσ)-L(x,y,σ)
其中,k为相邻两个高斯尺度空间的比例因子。
通过DoG算子构建图像差分金字塔后,通过比较每个采样点与同尺度的8个邻点以及上下两个尺度的9个邻点共计26个点进行比较,如果此采样点是最大值或者最小值,则认为其是图像在该尺度下的一个特征点,之后还需要对筛选出来的特征点进行剔除一些不稳定的边界点。
1.1.2SIFT特征点描述
关键点检测完后,为了让算子具备旋转不变形,需要为每个特征点计算一个方向,然后利用关键点邻域像素的梯度方向分布特性为每个关键点确定主方向和辅助方向。关键点(x,y)处的梯度幅值m(x,y)和方向θ(x,y)计算公式为:
利用直方图统计关键点邻域内方向分布,可以将0~360度的角度范围分为36个柱,每柱10度,直方图的峰值方向为关键点的主方向,为增加鲁棒性,将大于主方向峰值80%的方向作为该关键点处的辅助方向。
接下来就是通过一组向量将每个关键点描述出来,将每个关键点的邻域点分配到4×4的子区域中,计算影响子区域的采样点的梯度方向和幅值,将每个子区域上计算得到的梯度分配到8个方向上,利用直方图统计每个方向的邻域点对关键点的贡献。对于每个关键点,形成了一个4×4×8=128维的特征向量,如图3所示。最后还需要对向量进行归一化处理,以降低光照对特征描述子的影响。
1.2轮廓奇异值
对于飞机的二值化图像,首先提取出轮廓,同时计算图像的质心,选定固定起始点,从起始点将整条轮廓进行n等分,采样点记为[p1,p2,…,pn],计算每个采样点到质心的距离,并进行归一化,得到归一化距离向量[d1,d2,…,dn],飞机轮廓的离散采样过程如图4所示。
2图像特征描述
2.1SIFT特征表示
每张图像经过SIFT特征点提取与表示后,均由多个1×128的SIFT特征描述子表示,不同图像的特征点个数可能不同,难以直接采用分类器进行分类。可以采用经典的BoW模型进行描述,可以有效的解决这个问题。基于BoW模型的物体描述如图5所示,具体步骤如下
2.1.1:首先提取训练样本库中所有图像的SIFT特征描述子;
2.1.2:接着使用KMeans聚类算法,将所有SIFT特征描述子聚为K类,生成K个视觉单词;
2.1.3:最后计算样本中每个SIFT特征描述子与K个视觉单词的欧氏距离,通过欧式距离最小的原则统计所有SIFT特征描述子,如此可以得到K维向量,即为样本的BoWSIFT向量。
基于BoW的物体识别过程如图6所示。
2.2轮廓局部奇异值
对于得到的归一化距离向量[d1,d2,…,dn],借鉴数字信号处理中的采样思想,利用一个长度为w的采样窗口对归一化距离向量进行采样,两个采样窗口的重叠部分的长度为m,可以得l个采样后维度为w的距离向量,将这l个w维的归一化距离向量构造出l个w×w的循环矩阵,分别计算奇异值,最终按顺序可以组合为一个l×w的轮廓局部奇异值向量,完成图像轮廓局部奇异值的表示。
3分类器训练环节
单隐层前馈神经网络(Single Hidden-layer FeedforwardNeural Networks)具有较强的学习能力,能够逼近复杂非线性函数,能够解决传统方法无法解决的问题等优点,其网络结构如图7所示。训练SLFNs通常采用的算法是基于梯度下降法,这类学习算法普遍具有收敛速度慢、易陷入局部最优点等缺点,黄广斌等(Huang G B,Zhu Q Y,Siew CK.Extreme Learning Machine:A New Learning Scheme ofFeedforward NeuralNetworks[C].In:Proccedings ofthe IJCNN.2004,2:985-990)提出极限学习机算法,可以改善单隐层神经网络的学习算法以及泛化过程存在的问题。
设H(x)为隐层输出矩阵,β为输出权重,T为给定的监督矩阵,SLFNs一般模型可以表示为:
Hβ=T
其中
极限学习机算法可以总结为如下流程:
给定训练集xi∈Rn,tj∈Rm,激活函数g(),隐层节点个数为
(1)随机生成输入权重wi和隐层偏置
(2)计算隐层输出矩阵H;
(3)计算输出权重β:
β=H+T
H+是隐藏层输出矩阵H的Moore-Penrose增广逆,简称为伪逆。
当β计算完成后,一个单隐层反馈神经网络的训练环节就结束了。对于一个测试样本x,它的标签可以通过训练好的单隐层反馈神经网络推测:
fL(x)=h(x)β
其中h(x)是神经网络隐层关于此样本的响应,初始化参数后,h(x)即保持不变。
4多特征融合识别环节
实际中进行飞机目标识别时,由于飞机种类繁多,可能会出现同类飞机差距很大,不同类飞机在某个姿态下很相似等情况,飞机目标识别在本质上具有高冲突和模糊性的特点,DSmT证据融合理论针对这一特性,为基于决策级融合的飞机目标识别提供了一个非常好的思路。经典DSmT组合规则在μf(Θ)的描述如图8所示。本文针对基于决策级融合的飞机目标识别,在实验过程中做了一定的简化,在超幂集DΘ的基础上,采用完全排他性的约束条件下的DSmT模型,即仅θ1,θ2,…θn具有信度赋值。本文中只有轮廓局部奇异值和SIFT两种特征,采用PCR5组合规实现两特征对应的决策级融合。
以上所述仅为本发明的实施例子而已,并不用于限制本发明。凡在本发明的原则之内,所作的等同替换,均应包含在本发明的保护范围之内。本发明未作详细阐述的内容属于本专业领域技术人员公知的已有技术。
Claims (5)
1.一种基于ELM与DSmT的飞机姿态识别方法,其特征在于,具体步骤如下:
第一步:对于飞机图像进行去噪、灰度化和二值化预处理;
第二步:对经过预处理的飞机图像提取二值化图像的SIFT特征描述子和飞机轮廓特征;
第三步:对SIFT特征描述子采用经典的BoW模型进行描述并最终得到BoWSIFT向量;
第四步:对第二步中得出的飞机轮廓特征进行处理得到飞机目标轮廓局部奇异值向量;
第五步:根据BoWSIFT向量,构建SLFNs网络,采用实时性好的ELM算法训练SLFNs网络,得到训练好的SLFNs1;对于轮廓局部奇异值向量,构建SLFNs,然后采用实时性好的ELM算法训练SLFNs网络,得到训练好的SLFNs2;
第六步:将两个训练好的SLFNs1和SLFNs1作为算法的分类器,采用DSmT融合理论中的PCR5公式,实现多特征的决策级融合,得到最终的识别结果。
2.所述第二步中对SIFT特征进行提取的具体步骤如下:
2.1:SIFT特征点检测
I(x,y)表示一幅图像,σ是尺度空间因子,则其尺度空间L(x,y,σ)定义为:
L(x,y,σ)=G(x,y,σ)*I(x,y)
其中G(x,y,σ)为高斯核函数,二维高斯核函数定义为:
<mrow>
<mi>G</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>,</mo>
<mi>&sigma;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>2</mn>
<msup>
<mi>&pi;&sigma;</mi>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
<msup>
<mi>e</mi>
<mrow>
<mo>-</mo>
<mrow>
<mo>(</mo>
<msup>
<mi>x</mi>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mi>y</mi>
<mn>2</mn>
</msup>
<mo>)</mo>
</mrow>
<mo>/</mo>
<mn>2</mn>
<msup>
<mi>&sigma;</mi>
<mn>2</mn>
</msup>
</mrow>
</msup>
</mrow>
Lowe用计算简单、运算速度快的DoG算子替代LoG算子,DoG算子计算公式为:
D(x,y,σ)=L(x,y,kσ)-L(x,y,σ)
其中,k为相邻两个高斯尺度空间的比例因子。
通过DoG算子构建图像差分金字塔后,对每个采样点与同尺度的8个邻点以及上下两个尺度的9个邻点共计26个点进行比较,如果该采样点是最大值或者最小值,则认为其是图像在该尺度下的一个特征点,然后对筛选出来的特征点中的不稳定的边界点进行剔除;
2.2:SIFT特征点描述:
关键点检测完后,利用关键点邻域像素的梯度方向分布特性为每个关键点确定主方向和辅助方向,关键点(x,y)处的梯度幅值m(x,y)和方向θ(x,y)计算公式为:
<mrow>
<mi>m</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msqrt>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<mi>L</mi>
<mo>(</mo>
<mi>x</mi>
<mo>+</mo>
<mn>1</mn>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
<mo>-</mo>
<mi>L</mi>
<mo>(</mo>
<mi>x</mi>
<mo>-</mo>
<mn>1</mn>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<mi>L</mi>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
<mo>-</mo>
<mi>L</mi>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
</mrow>
<mrow>
<mi>&theta;</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msup>
<mi>tan</mi>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<mi>L</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>L</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>L</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>+</mo>
<mn>1</mn>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>L</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>-</mo>
<mn>1</mn>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
利用直方图统计关键点邻域内方向分布,将0~360度的角度范围分为36个柱,每柱10度,直方图的峰值方向为关键点的主方向,将大于主方向峰值80%的方向作为该关键点处的辅助方向;
将每个关键点的邻域点分配到4×4的子区域中,计算影响子区域的采样点的梯度方向和幅值,将每个子区域上计算得到的梯度分配到8个方向上,利用直方图统计每个方向的邻域点对关键点的贡献;对于每个关键点,形成了一个4×4×8=128维的特征向量,该向量为每个特征点的特征描述子,最后对特征描述子进行归一化处理。
3.所述第二步中提取飞机轮廓特征的具体步骤如下:首先提取出飞机图像的轮廓,同时计算图像的质心,然后选定固定起始点,从起始点将整条轮廓进行n等分,采样点记为[p1,p2,…,pn],计算每个采样点到质心的距离,并进行归一化,得到归一化距离向量[d1,d2,···,dn]。
4.所述第三步中对SIFT特征采用经典的BoW模型进行描述并最终得到BoWSIFT向量的具体步骤如下:
3.1:提取训练样本库中所有图像的SIFT特征描述子;
3.2:使用KMeans聚类算法,将所有SIFT特征描述子聚为K类,生成K个视觉单词;
3.3:计算样本中每个SIFT特征描述子与K个视觉单词的欧氏距离,通过欧式距离最小的原则统计所有SIFT特征描述子,然后得到K维向量,即为样本的BoWSIFT向量。
5.所述第四步中对轮廓特征进行处理得到轮廓局部奇异值的具体步骤如下:对于得到的归一化距离向量[d1,d2,···,dn],借鉴数字信号处理中的采样思想,利用一个长度为w的采样窗口对归一化距离向量进行采样,两个采样窗口的重叠部分的长度为m,可以得l个采样后维度为w的距离向量,将这l个w维的归一化距离向量构造出l个w×w的循环矩阵,分别计算奇异值,最终按顺序可以组合为一个l×w的轮廓局部奇异值向量,完成图像轮廓局部奇异值的表示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710273326.5A CN107247917A (zh) | 2017-04-21 | 2017-04-21 | 一种基于ELM与DSmT的飞机姿态识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710273326.5A CN107247917A (zh) | 2017-04-21 | 2017-04-21 | 一种基于ELM与DSmT的飞机姿态识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107247917A true CN107247917A (zh) | 2017-10-13 |
Family
ID=60016626
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710273326.5A Pending CN107247917A (zh) | 2017-04-21 | 2017-04-21 | 一种基于ELM与DSmT的飞机姿态识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107247917A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805175A (zh) * | 2018-05-21 | 2018-11-13 | 郑州大学 | 一种飞机的飞行姿态聚类分析方法和分析系统 |
CN110263869A (zh) * | 2019-06-25 | 2019-09-20 | 咪咕文化科技有限公司 | 一种Spark任务的时长预测方法及装置 |
CN111797269A (zh) * | 2020-07-21 | 2020-10-20 | 天津理工大学 | 基于多级视图关联卷积网络的多视图三维模型检索方法 |
CN112037282A (zh) * | 2020-09-04 | 2020-12-04 | 北京航空航天大学 | 一种基于关键点以及骨架的飞机姿态估计方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102930302A (zh) * | 2012-10-18 | 2013-02-13 | 山东大学 | 基于在线序贯极限学习机的递增式人体行为识别方法 |
CN104715254A (zh) * | 2015-03-17 | 2015-06-17 | 东南大学 | 一种基于2d和3d sift特征融合的一般物体识别方法 |
CN105261148A (zh) * | 2015-10-14 | 2016-01-20 | 广州医科大学 | 一种基于天网监控系统的踩踏事件预警疏散方法 |
-
2017
- 2017-04-21 CN CN201710273326.5A patent/CN107247917A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102930302A (zh) * | 2012-10-18 | 2013-02-13 | 山东大学 | 基于在线序贯极限学习机的递增式人体行为识别方法 |
CN104715254A (zh) * | 2015-03-17 | 2015-06-17 | 东南大学 | 一种基于2d和3d sift特征融合的一般物体识别方法 |
CN105261148A (zh) * | 2015-10-14 | 2016-01-20 | 广州医科大学 | 一种基于天网监控系统的踩踏事件预警疏散方法 |
Non-Patent Citations (1)
Title |
---|
XIN-DE LI ETAL.: "Automatic Aircraft Recognition using DSmT and HMM", 《17TH INTERNATIONAL CONFERENCE ON INFORMATION FUSION》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805175A (zh) * | 2018-05-21 | 2018-11-13 | 郑州大学 | 一种飞机的飞行姿态聚类分析方法和分析系统 |
CN110263869A (zh) * | 2019-06-25 | 2019-09-20 | 咪咕文化科技有限公司 | 一种Spark任务的时长预测方法及装置 |
CN110263869B (zh) * | 2019-06-25 | 2021-06-08 | 咪咕文化科技有限公司 | 一种Spark任务的时长预测方法及装置 |
CN111797269A (zh) * | 2020-07-21 | 2020-10-20 | 天津理工大学 | 基于多级视图关联卷积网络的多视图三维模型检索方法 |
CN112037282A (zh) * | 2020-09-04 | 2020-12-04 | 北京航空航天大学 | 一种基于关键点以及骨架的飞机姿态估计方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105975931B (zh) | 一种基于多尺度池化的卷积神经网络人脸识别方法 | |
CN103971102B (zh) | 基于手指轮廓和决策树的静态手势识别方法 | |
CN105809198B (zh) | 基于深度置信网络的sar图像目标识别方法 | |
CN109063594A (zh) | 基于YOLOv2的遥感图像快速目标检测方法 | |
CN107247917A (zh) | 一种基于ELM与DSmT的飞机姿态识别方法 | |
CN107480730A (zh) | 电力设备识别模型构建方法和系统、电力设备的识别方法 | |
CN103617328B (zh) | 一种飞机三维姿态解算方法 | |
CN104215935B (zh) | 一种基于决策加权融合的雷达炮弹目标识别方法 | |
CN109299688A (zh) | 基于可变形快速卷积神经网络的舰船检测方法 | |
CN108256436A (zh) | 一种基于联合分类的雷达hrrp目标识别方法 | |
CN103984936A (zh) | 用于三维动态目标识别的多传感器多特征融合识别方法 | |
CN109308483A (zh) | 基于卷积神经网络的双源图像特征提取及融合识别方法 | |
CN109634309B (zh) | 一种飞行器自主避障系统、方法及飞行器 | |
CN106991368A (zh) | 一种基于深度卷积神经网络的指静脉验证身份识别方法 | |
CN110163177A (zh) | 一种风电机组叶片无人机自动感知识别方法 | |
CN109559338A (zh) | 一种基于加权主成分分析法及m估计的三维点云配准方法 | |
CN103778441B (zh) | 一种基于DSmT和HMM的序列飞机目标识别方法 | |
CN105426882B (zh) | 一种人脸图像中快速定位人眼的方法 | |
CN110334584B (zh) | 一种基于区域全卷积网络的手势识别方法 | |
Xiaozhu et al. | Object detection of armored vehicles based on deep learning in battlefield environment | |
CN106327528A (zh) | 无人机运动目标跟踪方法及无人机的工作方法 | |
CN110084211A (zh) | 一种动作识别方法 | |
CN112489089B (zh) | 一种微型固定翼无人机机载地面运动目标识别与跟踪方法 | |
CN106127161A (zh) | 基于级联多层检测器的快速目标检测方法 | |
Wang et al. | Study on the method of transmission line foreign body detection based on deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171013 |
|
RJ01 | Rejection of invention patent application after publication |