CN102222240B - 一种基于DSmT的图像目标多特征融合识别方法 - Google Patents

一种基于DSmT的图像目标多特征融合识别方法 Download PDF

Info

Publication number
CN102222240B
CN102222240B CN 201110178416 CN201110178416A CN102222240B CN 102222240 B CN102222240 B CN 102222240B CN 201110178416 CN201110178416 CN 201110178416 CN 201110178416 A CN201110178416 A CN 201110178416A CN 102222240 B CN102222240 B CN 102222240B
Authority
CN
China
Prior art keywords
target
dsmt
recognition
pnn
represent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN 201110178416
Other languages
English (en)
Other versions
CN102222240A (zh
Inventor
李新德
杨伟东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN 201110178416 priority Critical patent/CN102222240B/zh
Publication of CN102222240A publication Critical patent/CN102222240A/zh
Application granted granted Critical
Publication of CN102222240B publication Critical patent/CN102222240B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于DSmT的图像目标多特征融合识别方法,其首先,我们将提取图像目标的矩和轮廓等多个特征量作为证据源,以获得足够多的有用互补信息;接着,我们通过由广泛应用于分类的PNN神经网络来构造目标识别率矩阵;然后根据PNN网络的初识别结果和类似统计学中极大似然思想的规则,用目标识别率矩阵对基本信度进行赋值;最后用DSmT组合规则进行决策级数据融合,完成对三维目标的识别。本发明提供的基于DSmT的图像目标多特征融合识别方法,能够解决在三维目标识别中由于信息获取的不精确、不确定、不完全和高度冲突等导致目标识别率不高的问题。

Description

一种基于DSmT的图像目标多特征融合识别方法
技术领域
本发明涉及图像识别和人工智能领域,尤其涉及一种通过提取图像目标的多个特征,获取足够多的有用互补信息,应用DSmT信息融合理论在决策层对信息进行融合得到最后的决策结果的方法。
背景技术
三维目标的识别是计算机视觉领域的核心问题之一,目前三维目标信息的获取主要是通过以任意角度观测的二维数字图像得到的,而由于目标相对于摄像机在不同方向角所呈现的图像姿态变化万千,使得利用其二维数字图像进行目标识别的难度大大增加。一方面,在从三维到二维的转化过程中,信息量出现丢失。另一方面,数据库的建立也具有不完全性。
对于三维目标的识别,在现有方法中,单一特征量被广泛用于目标识别、景物匹配、图像分析及字符识别等问题中。Dudani et al“Aircraft identification by moment in variants”(DudaniS A,Breeding K J,McGhee R B.IEEE Trans Comput,1977,(1):39-46)将不变矩理论用于飞机的识别,Wallace et al“An efficient three-dimensional aircraft recognition algorithm usingnormalized Fourier descriptors”(Wallace T P,Wintz P.Computer Graphics ImageProcessing,1980,3:99-126)将傅氏描绘子用于三维物体的识别,Jan Flusser“Pattern recognitionby affine moment invariants”(Jan F,Tomas S.Pattern Recognitiong,1993,26(1):167-174)将仿射不变矩用于形状模式识别中均获得良好的效果。但是,紧依靠获取单一特征量进行识别,获取的信息量比较少,导致识别目标不精确、不确定、不完全以及高度冲突,很难保证在复杂的实际环境背景下有良好的正确识别率。
Dezert-Smarandache Theory(DSmT)是由法国的资深科学家Jean Dezert博士和美国的著名数学家Florentin Smarandache教授于2003年共同提出来的一种新的推理理论《Advances andApplications of DSmT for Information Fusion》(Smarandache F,Dezert J.USA:AmericanResearch Press,2004/2006/2009.Vol1,Vol2and Vol3)。它是从概率论和D-S证据推理理论的基础上发展起来的,能够有效地解决不确定、不精确、模糊、矛盾或者高度冲突、甚至不完全信息的管理和融合问题。目前该理论方法在图像处理、机器人环境感知、军事上的多目标跟踪与识别、多目标决策、雷达目标分类、地理科学、故障诊断、经济金融、地理信息系统等领域得到了广泛的应用。
发明内容
发明目的:为了克服现有技术中存在的不足,本发明提供一种将DSmT推理理论和PNN网络相结合,对图像目标进行识别的多特征融合识别方法,解决在三维目标识别中由于信息获取的不精确、不确定、不完全和高度冲突等导致目标识别率不高的问题。
技术方案:为解决上述技术问题,本发明采样的技术方案为:
一种基于DSmT的图像目标多特征融合识别方法,包括如下步骤:
(1)提取目标图像的的矩特征量和轮廓特征量,其中矩特征量包括Hu矩、归一化转动惯量和仿射不变矩,轮廓特征量包括轮廓离散化参数和奇异值;
(2)依据每个特征量构建PNN神经网络并对其进行训练,得到各自的目标识别率矩阵;
(3)根据PNN网络的初识别结果和类似统计学中极大似然思想的规则,用目标识别率矩阵对基本信度进行赋值;
(4)用DSmT组合规则进行决策级数据融合,完成对三维目标的识别。
经相关文献证明,步骤(1)中提出的5个特征量都具有良好的平移、旋转和比例不变性。多个特征量的提取相对于只提取单一特征,提供了更多有用的互补信息。而且在实际应用中,虽然单一不变量在理论上具有很好的不变性特征,但在具体的实践中有些前提假设是不成立的,这时多个特征量可以弥补单一特征量的不足。
本发明针对三维目标识别问题的复杂性,对应用背景进行了简化处理,在步骤(2)中,采用在完全排他性约束条件下的DSmT模型,提出了针对超幂集空间仅单子焦元和完全未知焦元具有信度赋值的情况(如Θ={θ1,θ2},那么超幂集空间DΘ={θ1,θ2,θ12,θ12}中,仅θ1、θ2和θ12具有信度赋值,而θ12的信度赋值为零),利用DSmT经典组合规则和PCR5重新分配规则进行融合,具体模型如表1:
表1
Figure BDA0000072075310000021
其中mi表示第i种特征量,Tj表示目标T被判定为第j类,It=T1U...UT7表示未知类别,xij表示目标T根据特征i被判定为第j类的信度赋值。再利用PNN网络获得本发明中定义好的目标识别率矩阵,然后借鉴极大似然的思想从目标识别率矩阵中选出一个合适的行向量来作为对应证据体的信度赋值。
有益效果:本发明提供的基于DSmT的图像目标多特征融合识别方法,能够解决在三维目标识别中由于信息获取的不精确、不确定、不完全和高度冲突等导致目标识别率不高的问题,通过仿真实验,将多特征方法与单一特征方法进行比较,结果表明使用本发明方法正确识别率得到了很大提高,而且具有有效拒判能力。
附图说明
图1为多特征融合识别算法框架示意图;
图2为PNN神经网络示意图;
图3为算法流程图;
图4为飞机部分姿态二值图;
图5为正确识别率图;
图6为不属于数据库类别的目标图;
图7为本发明中的识别方法与单一特征的K-近邻方法对比图;
图8为本发明中的识别方法与单一特征的BP神经网络方法对比图。
具体实施方式
下面结合附图对本发明作更进一步的说明。
该项目受国家自然科学基金(青年基金)资助项目(No.60804063);江苏省自然科学基金资助项目(No.BK2010403);图像信息处理与智能控制教育部重点实验室开放基金资助项目(No 200902);航空科学基金项目(20101690001);东南大学创新基金(No.3208000501);东南大学优秀青年教师教学科研资助项目(3208001203)资助。
1 图像特征提取
图像目标识别的第一步是提取有效的图像特征。在这里,我们主要引入矩特征量和轮廓特征量,矩特征量包括Hu矩、归一化转动惯量(NMI)和仿射不变矩,而轮廓特征量包括轮廓离散化参数和奇异值分解。这5个特征量都具有良好的平移、旋转和比例不变性,在图像目标识别中得到了广泛的应用。
1.1Hu矩
对二值数字图像f(x,y),(p+q)阶原点矩和(p+q)阶中心矩分别定义为:
m pq = Σ m = 1 M Σ n = 1 N m p n q f ( m , n ) , - - - ( 1 )
μ pq = Σ m = 1 M Σ n = 1 N ( m - x ‾ ) p ( n - y ‾ ) q f ( m , n ) - - - ( 2 )
其中
Figure BDA0000072075310000033
为图像f(x,y)的重心坐标。归一化中心矩ηpq定义为:
ηpq=μpq00 r,r=(p+q)/2,p+q=2,3,...                       (3)
Hu在文献“Visual pattern recognition by moment invariant”(Hu M K.IRE Trans InformationTheory,1962,1(8):179-187.)中利用二阶和三阶中心矩构造了七个不变矩,具体公式如下:
Ф1=η2002
Ф2=(η2002)2+4η11 2
Ф2=(η30-3η12)2+(3η2103)2
Ф4=(η3012)2+(η2103)2
Ф5=(η30-3η12)-(η3012)[(η3012)2-3(η0321)2]        (4)
+3η2103)(η2103)[3(η3012)2-(η0321)2]
Ф6=(η2002)[(η3012)2-(η0321)2]+4η11
3012)(η0321)
Ф7=(3η2103)(η3012)[(η3012)2-3(η0321)2]
+3η1230)(η2103)[3(η3012)2-(η0321)2]
1.2归一化转动惯量
根据物理上重心的概念,定义灰度图像的质心如下:
x ‾ = Σ x = 1 M Σ y = 1 N xf ( x , y ) Σ x = 1 M Σ y = 1 N f ( x , y ) - - - ( 5 )
y ‾ = Σ x = 1 M Σ y = 1 N yf ( x , y ) Σ x = 1 M Σ y = 1 N f ( x , f ) - - - ( 6 )
其中,质心(x,y)代表图像灰度的重心。
图像围绕质心
Figure BDA0000072075310000043
的转动惯量记为
J ( x ‾ , y ‾ ) = Σ x = 1 M Σ y = 1 N [ ( x , y ) - ( x ‾ , y ‾ ) ] 2 f ( x , y ) - - - ( 7 )
= Σ x = 1 M Σ y = 1 N ( ( x - x ‾ ) 2 + ( y - y ‾ ) 2 ) f ( x , y )
根据图像的质心和转动惯量的定义,可给出灰度图像绕质心的归一化转动惯量即NMI(Normalized Moment of Inertia):
NMI = J ( x ‾ , y ‾ ) m = Σ x = 1 M Σ y = 1 N ( ( x - x ‾ ) 2 + ( y - y ‾ ) 2 ) f ( x , y ) Σ x = 1 M Σ y = 1 N f ( x , y ) - - - ( 8 )
其中,
Figure BDA0000072075310000049
为图像质量,代表图像所有灰度值之和。
在文献“图像特征识别方法研究”(门蓬涛,张秀彬,张峰等.微计算机信息,2004,20(5):77-79.)中经验证,NMI具有良好的缩放、旋转和平移不变性,因此可以作为物体的识别特征。
1.3仿射不变矩
仿射不变矩作为一种基于矩特征的特征量,对于二维仿射变换具有不变性。仿射不变矩可以通过多项式判别式法、Hankel判别法、Apolar法等方法构造。具体细节可参考文献“基于改进的仿射不变矩的钥匙辨识技术研究”(魏嘉杰,刘知贵,唐宜.微计算机信息,2010,26(17):196-197.)。考虑到计算效率和稳定性,本发明采用其中三个,如下:
I1=(μ20μ0211 2)/μ00 4             (9)
I2=(μ30 2μ03 2-6μ30μ21μ12μ03+4μ30μ12 3+4μ21 3μ03
(10)
-3μ12 2μ21 2)/μ00 10
I3=[μ2021μ0312 2)-μ1130μ0321μ12)
(11)
0230μ1221 2)]/μ00 7
1.4轮廓离散化参数
轮廓离散化参数N=[rk,sk,vk,fk]是对图像目标轮廓形状的一种描述,具体构造如下:
r k = min [ z k ( i ) ] max [ z k ( i ) ] - - - ( 12 )
s k = Σ i = 1 N i [ z k ( i ) - z k ‾ ] 3 Σ i = 1 N i [ z k ( i ) ] 3 - - - ( 13 )
v k = Σ i = 1 N i [ z k ( i ) - z k ‾ ] 2 Σ i = 1 N i [ z k ( i ) ] 2 - - - ( 14 )
f k = max [ z k ( i ) ] - min [ z k ( i ) ] z k ‾ - - - ( 15 )
其中,zk(i)表示第i个轮廓离散点到目标形心的距离。
1.5奇异值分解
由矩阵理论得知:
定义1对于任意一个矩阵A∈Crm×n存在正交矩阵U及V使得
U H AV = S 0 0 0 - - - ( 16 )
其中S=diag(σ1,σ2,Lσr),且σ1≥σ2≥Lσr>0,这里σi,i=1,2,L,r为矩阵A的奇异值,是AAH或AHA的特征值λi的算术根,即
Figure BDA0000072075310000056
矩阵的奇异值是一个非常好的代数特征,它具有目标识别所要求的旋转、比例不变性,并具有很强的稳定性。参考文献见“奇异值特征抽取目标识别法”(范建,李孝昌.系统工程与电子技术,1993,(3):14-17.)。
2 多特征融合识别框架
基于DSmT的图像目标多特征融合自动目标识别算法框架如图1所示。下面分别叙述系统框架中的几个重要组成部分。
2.1DSmT建模及其组合规则
本发明针对三维目标识别问题的复杂性,对应用背景进行了简化处理,采用在完全排他性约束条件下的DSmT模型,提出了针对超幂集空间仅单子焦元和完全未知焦元具有信度赋值的情况,如Θ={θ1,θ2},那么超幂集空间DΘ={θ1,θ2,θ12,θ12}中,仅θ1、θ2和θ12具有信度赋值,而θ1 Iθ2的信度赋值为零,利用DSmT经典组合规则和PCR5重新分配规则进行融合。具体模型如表1,其中mi表示第i种特征量,Tj表示目标T被判定为第j类,It=T1U...UT7表示未知类别,xij表示目标T根据特征i被判定为第j类。
法国的Jean Dezert博士和美国的Florentin Smarandache教授在文献“Advances andApplications of DSmT for Information Fusion”(Smarandache F.Dezert J.USA:AmericanResearch Press,2004/2006/2009.Vol1,Vol2and Vol3.)中提出了两个及两个以上信息源的组合规则和PCR5(第5种比例冲突分配规则),这里简单介绍如下:
当在经典DSmT模型下处理信息融合问题时,Bel1(·)和Bel2(·)分别为同一鉴别框Θ下两个独立证据源S1,S2的信任函数,与之相关联的广义基本信度赋值分别为m1(·)和m2(·),其组合规则为:
∀ A ∈ D Θ , m M ( Θ ) f ( A ) ≡ m ( A ) = Σ X i , X j ∈ D Θ X i I X j = A m 1 ( X i ) m 2 ( X j ) - - - ( 17 )
由于超幂集DΘ在Y和I集算子下封闭,表达式(17)给出的经典组合规则能够保证融合后的信度赋值m(·)恰好是一个广义的基本信度赋值,也就是说:m(·):DΘa[0,1]。这里在封闭空间都假设其恒为零,除非在开放空间可以规定其不为零。
PCR5考虑到冲突的规范形式,把部分冲突质量分配到卷入冲突的所有元素上。从数学意义上讲,它是目前最精确的冲突质量重新分配规则。PCR5也满足VBA的中立属性,其两源的重新分配规则如下:
当k=2时, ∀ X ∈ D Θ \ { φ } ,
m PCR 5 ( X ) = m 12 ( X ) +
Σ Y ∈ D Θ / X XIY = φ [ m 1 ( X ) 2 m 2 ( Y ) m 1 ( X ) + m 2 ( Y ) + m 2 ( X ) 2 m 1 ( Y ) m 2 ( X ) + m 1 ( Y ) ] - - - ( 18 )
式(17)~(18)均来自于文献“Advances and Applications ofDSmT for Information Fusion”,其中卷入的所有元素都是规范形式,m12(·)和m12Lk(·)分别对应着两个和两个以上证据源合取一致组合结果。
2.2PNN网络
2.2.1PNN网络的特点及结构
1)PNN网络的特点
PNN网络是统计方法与前馈神经网络相结合的一种神经网络模型。在模式分类中,它可以利用线性学习算法来完成以往非线性算法所做的工作,又可以保持非线性算法高精度的特性。与BP神经网络相比较,PNN网络的主要优点为:(1)网络收敛速度快。网络结构只有三层,且在运算时不需要返回再对网络权值进行修改;(2)无论分类问题多么复杂,只要有足够的训练数据,PNN网络就能够保证获得贝叶斯准则下的最优解;(3)允许增加或减少训练数据而无需重新进行长时间的训练。
2)PNN网络的结构
PNN网络是一种可用于模式分类的径向基神经网络,其实质是基于贝叶斯最小风险准则发展而来的一种并行算法。概率神经网络包括三层,即输入层、隐含层和输出层。网络第一层为输入层,第二层为隐含层,采用径向基函数作为激励函数,一般为高斯函数(即exp-n2,其中n为径向基函数神经元输入值);第三层是输出层,即竞争层。PNN神经网络结构如图2所示。
图2中Q为输入向量个数;R为输入向量维数;IW1,1表示输入权值向量,LW2,1表示层权值向量;K为输出神经元的个数;C称为扩展常数,C值越大,隐含层神经元对输入向量的响应范围也越大。
PNN网络分类方式:首先,径向基层计算该输入向量同样本输入向量之间的距离||dist ||,该层的输出为一个距离向量。竞争层接受距离向量,计算每个模式出现的概率,通过用竞争传递函数compet来寻找输入向量中的最大元素,把相应的神经元输出设为1,其余输出设为0。
2.2.2PNN网络的构建
在总共7类每类各30个样本的训练样本数据库中,全部样本作为训练样本。随机取7个样本作为验证样本,来验证网络训练的效果。
(1)输入层神经元个数的确定。输入层神经元个数的多少与特征量维数相对应。我们采用5个不同的特征量,它们的维数不同,所以对应网络输入层神经元个数也不同。如仿射不变矩,它是3维的,则相应的输入层神经元的个数设为3。
(2)隐含层神经元数目与学习样本数目相同,一共有210个样本,所以隐含层神经元数目设为210。
(3)输出层神经元个数的确定。由于该网络的输出结果分7类,因此取输出神经元个数为7。
2.3基本信度赋值的构造
DSmT推理理论处理不确定、不完备信息的能力已经得到公认,但在用该理论作为目标识别时,BBA的构造是一个难点,需要专家的经验知识、或者需要知识库的支持。可以用距离函数和指数函数来构造基本信度赋值,但这种构造方法计算量较大、实时性不高。人工神经网络由于具有自组织、自学习、自适应的特点,能不断的通过学习来调整网络的连接权值来达到识别、分类的目的。经过训练后的人工神经网络在一定程度上已经具有领域专家的判别能力,因此用神经网络对图像的每次判别输出来构造一个证据源的BBA是切实可行的,另一方面,神经网络可以离线训练,在线实时计算,采用它来构造BBA又可以解决计算量过大的问题。
在2.2节中,我们已经详细地介绍了PNN网络的结构和特点,它被广泛地应用到各种分类问题中,获得了比较好的效果,但识别率上还有待提高。本发明采用PNN网络对目标进行初识别,试将初识别结果和BBA建立某种对应关系,从而解决在DSmT推理理论中BBA构造比较困难的问题。
为了利用PNN网络的初识别结果对基本信度赋值进行赋值,我们先来定义目标识别率矩阵R,定义如下:
定义2目标识别率矩阵R的具体形式如下,
R = r 11 L r 1 n M M M r n 1 L r nn - - - ( 19 )
其中rij表示第i类被判定为第j类的概率,而且只有当i=j成立时,rij才表示正确识别率,否则误识别率。
本发明中提到的特征量、PNN网络和证据源三者之间的关系是一一对应的。根据每个特征量,我们分别对相对应的PNN网络进行训练,在训练过程中根据定义2获得目标识别率矩阵Ri(i=1,L,5)。
目标识别率矩阵Ri(i=1,L,5)是由第i个PNN网络在已知样本目标实际类别的情况下对其分类的识别率结果。其中Ri中的元素表示已知实际类别为第i类的所有样本,其中被判别为第j类所占的百分比。但是,当我们对目标进行识别时,实际类别是未知的而且正是我们想要判别的。那么,我们如何利用已经获得的目标识别率矩阵Ri(i=1,L,5)来构造基本信度赋值呢?
在这里我们将借鉴统计学中极大似然估计的思想:取使得概率p(X=x)最大的那个随机变量X的值作为它的极大似然估计。相应地,我们先根据分别训练好的PNN网络对图像目标进行初识别,而且5个特征量给出的初识别结果一般是不全相同的。根据定义2,我们知道目标识别率矩阵中的第几列表示的是第几类,这样初识别的结果就可以用相应Ri中的第几列来表示。然后,我们选择Ri中使得这一列中识别率最大的那一行作为第i个证据源mi的赋值,即
x ij = r ij i , i=1,K,n,                                (20)
这是因为根据类似极大似然的思想,作者认为使得初识别结果对应的列中,识别率最大的行对应的类别是最佳的估计,即待识别目标最有可能的实际类别。
2.4算法流程
多特征融合目标识别算法的流程图如图3所示,其步骤如下:
第一步:根据各个特征量,对PNN神经网络进行训练,在训练过程中得到根据各特征量进行分类的目标识别率矩阵Ri(i=1,L,5);
第二步:提取待识别目标的各个特征量,分别利用相应训练好的PNN神经网络进行初识别;
第三步:根据各个PNN神经网络的初识别结果和类似极大似然规则的思想,从相应的识别率矩阵中挑选出最有可能的类对应的识别率行向量作为以这个特征量为证据体的信度赋值;
第四步:根据PCR5规则进行信息融合;
第五步:选出融合结果中最大的那个值,将其与设定的门限值进行比较。若最大值>门限值,则判定待识别目标为最大值对应的类别;若最大值<门限值,则拒判。
3 实验结果
仿真实验我们在Matlab7.0环境下进行,采用7类每类取30幅不同姿态的飞机图像作为我们的训练数据库(其中实验4有所不同),限于篇幅,给出飞机部分姿态二值图像,如图4所示。
在下面的实验中,我们将由不同特征量构建的5个PNN网络的传递函数都设为高斯函数radbas,加权函数设为欧氏距离加权函数dist,输入函数设为netprod,输出函数设为compet,加权函数设为dotprod,其中散布常数设为0.1。另外,5个PNN网络中每层的神经元数目按3.2.2节中的方法进行设置。
1)实验1-正确识别率
在这个实验中,我们做10次重复试验,每次试验从训练数据库210个样本中每类随机抽取15个样本,有7类,共105个样本,组成测试样本集。本发明中的识别方法的门限值设置为0.7(后面的实验中若没有特别说明,门限值不变),目标识别率矩阵由训练数据库得到,进行测试并计算正确识别率,即正确识别个数所占的百分比。并将每次的正确识别率结果绘制成图,形成图5。
从图5的结果中,我们可以看出利用我们提出的多特征融合识别方法对在训练数据库中的目标进行识别时,正确识别率可以达到97%以上。
2)实验2-DSmT的作用
在这个实验中,我们从训练数据库210个样本中每类随机抽取1个样本,有7类,共7个样本,组成测试样本集。本发明中的识别方法的门限值设置同上,目标识别率矩阵由训练数据库得到,进行检验DSmT信息融合所起的作用,并将判定的结果以表格的形式表示出来,如表2:
表2
Figure BDA0000072075310000101
从表2的结果中,我们可以看出若只利用其中某个特征量来进行识别,很容易造成误识别,但利用DSmT进行信息融合后,通常能给出正确率比较高且合理的结果。
3)实验3-有效拒判
在这个实验中,我们选取2个不属于训练数据库类别的目标(见图6)作为样本,分别提取它们的5个特征量,用本发明中的识别方法进行测试,看结果是否合理,将结果以表格的形式表示出来,如表3:
表3
Figure BDA0000072075310000102
从表3的结果中,我们可以发现仅利用单一特征量来进行识别的话,它们基本都给出了错误识别的结果,但利用本发明中的识别方法进行识别,结果是对不在数据库中的目标进行了有效的拒判。
4)实验4-对比实验
在这个实验中,我们采用的训练数据库和上面的3个实验有所不同,由7类飞机,每类飞机取25个组成。同时,7类飞机中各剩下的5个样本组成测试样本库用于测试。将本发明中的识别方法分别和单一特征的K-近邻方法以及单一特征的BP神经网络方法进行对比实验。
在第一个对比实验中,本发明中的识别方法的门限值取为0.5,目标识别率矩阵由新的训练数据库得到,K-近邻方法中的K值取为6。在第二个对比实验中,本发明中的识别方法的门限值仍取为0.5,目标识别率矩阵由新的训练数据库得到,BP神经网络方法中5个相应的网络都采用3层结构,隐层和输出层的传递函数取S型的正切函数,网络的训练次数为500,训练函数为Levenberg-Marquardt函数,学习函数为梯度下降动量学习函数,学习率为0.05,隐层节点数由经验公式
Figure BDA0000072075310000112
1≤d≤10决定,其中m表示输入层的节点数,n表示输出层的节点数。正确识别率的对比结果以直方图的形式如图7和图8所示。
从图7和图8的结果中,我们看出本发明中的识别方法的正确识别率比单一特征的K-近邻方法和单一特征的BP神经网络方法要好,达到97.1%。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (1)

1.一种基于DSmT的图像目标多特征融合识别方法,其特征在于:该方法包括如下步骤:
(1)提取目标图像的矩特征量和轮廓特征量,其中矩特征量包括Hu矩、归一化转动惯量和仿射不变矩,轮廓特征量包括轮廓离散化参数和奇异值;
(2)依据每个特征量构建PNN神经网络并对其进行训练,得到各自的目标识别率矩阵;
具体方法为:根据针对超幂集空间仅单子焦元和完全未知焦元具有信度赋值的情况,利用DSmT经典组合规则和PCR5重新分配规则进行融合,具体模型如下表:
Figure FDA00002108310200011
其中mi表示第i种特征量,Tj表示目标T被判定为第j类,It=T1∪...∪T7表示未知类别,xij表示目标T根据特征i被判定为第j类的信度赋值;
(3)根据PNN网络的初识别结果和统计学中极大似然思想的规则,用目标识别率矩阵对基本信度进行赋值;
(4)用DSmT组合规则进行决策级数据融合,完成对三维目标的识别。
CN 201110178416 2011-06-29 2011-06-29 一种基于DSmT的图像目标多特征融合识别方法 Expired - Fee Related CN102222240B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201110178416 CN102222240B (zh) 2011-06-29 2011-06-29 一种基于DSmT的图像目标多特征融合识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201110178416 CN102222240B (zh) 2011-06-29 2011-06-29 一种基于DSmT的图像目标多特征融合识别方法

Publications (2)

Publication Number Publication Date
CN102222240A CN102222240A (zh) 2011-10-19
CN102222240B true CN102222240B (zh) 2013-04-03

Family

ID=44778787

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201110178416 Expired - Fee Related CN102222240B (zh) 2011-06-29 2011-06-29 一种基于DSmT的图像目标多特征融合识别方法

Country Status (1)

Country Link
CN (1) CN102222240B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103577664A (zh) * 2012-07-25 2014-02-12 李鸿飞 混合DSm模型下组合规则的综合评价体系
CN103067706B (zh) * 2012-12-20 2016-01-20 西安电子科技大学 基于fpga的ip核
CN103984936A (zh) * 2014-05-29 2014-08-13 中国航空无线电电子研究所 用于三维动态目标识别的多传感器多特征融合识别方法
CN104462826B (zh) * 2014-12-11 2017-07-18 云南师范大学 基于矩阵奇异值分解的多传感器证据冲突检测与度量方法
CN107247963B (zh) * 2017-05-23 2019-11-08 北京科技大学 一种用于处理模糊和高冲突信息的目标识别方法
CN109344786A (zh) * 2018-10-11 2019-02-15 深圳步智造科技有限公司 目标识别方法、装置及计算机可读存储介质
CN109783844B (zh) * 2018-12-05 2022-02-11 东南大学 一种基于跟踪精度和能量消耗指标下的多传感器管理方法
CN109919223B (zh) * 2019-03-05 2020-10-16 北京联合大学 基于深度神经网络的目标检测方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101639864A (zh) * 2009-08-18 2010-02-03 东南大学 一种分层递阶DSmT快速近似推理融合方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101639864A (zh) * 2009-08-18 2010-02-03 东南大学 一种分层递阶DSmT快速近似推理融合方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
侯俊等.基于DSmT的序列图像智能融合目标识别方法.《计算机应用》.2006,第26卷(第1期),120-122. *
李新德等.一种快速分层递阶DSmT 近似推理融合方法(A).《电子学报》.2010,第38卷(第11期),2566-2572. *
李新德等.一种快速分层递阶DSmT 近似推理融合方法(B).《电子学报》.2011,第39卷(第3A期),31-36. *

Also Published As

Publication number Publication date
CN102222240A (zh) 2011-10-19

Similar Documents

Publication Publication Date Title
CN102222240B (zh) 一种基于DSmT的图像目标多特征融合识别方法
Gao et al. A novel target threat assessment method based on three-way decisions under intuitionistic fuzzy multi-attribute decision making environment
Hodges et al. Wildland fire spread modeling using convolutional neural networks
Wei Grey relational analysis method for 2-tuple linguistic multiple attribute group decision making with incomplete weight information
CN103488886B (zh) 基于模糊动态贝叶斯网络的态势威胁评估方法
Zhang et al. Artificial intelligence and its applications
Yue-bo et al. Research on WNN aerodynamic modeling from flight data based on improved PSO algorithm
CN103778441B (zh) 一种基于DSmT和HMM的序列飞机目标识别方法
CN110348708B (zh) 一种基于极限学习机的地面目标动态威胁评估方法
Wang et al. Research on robot path planning based on fuzzy neural network algorithm
Rajani et al. Stacking with auxiliary features for visual question answering
Stosic et al. Voting based q-generalized extreme learning machine
Xu et al. Diffscene: Diffusion-based safety-critical scenario generation for autonomous vehicles
Jiang et al. Short-range air combat maneuver decision of uav swarm based on multi-agent transformer introducing virtual objects
Zhang et al. Air target intention recognition and causal effect analysis combining uncertainty information reasoning and potential outcome framework
Yang et al. A GRA method for investment alternative selection under dual hesitant fuzzy environment with incomplete weight information
Xing et al. Policy distillation with selective input gradient regularization for efficient interpretability
CN115909027B (zh) 一种态势估计方法及装置
Zhang et al. Automatic curriculum learning for large-scale cooperative multiagent systems
Nair et al. Maximum likelihood uncertainty estimation: Robustness to outliers
Shou et al. Learning path planning algorithm based on kl divergence and d-value matrix similarity
Li et al. An Improved grey wolf optimizer with weighting functions and its application to Unmanned Aerial Vehicles path planning
Warkar et al. A survey on multiclass image classification based on Inception-v3 transfer learning model
Desiani et al. Implementation of Sample Sample Bootstrapping for Resampling Pap Smear Single Cell Dataset
Nguyen et al. A broad-persistent advising approach for deep interactive reinforcement learning in robotic environments

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130403

Termination date: 20150629

EXPY Termination of patent right or utility model