CN106096506B - 基于子类类间判别双字典的sar目标识别方法 - Google Patents
基于子类类间判别双字典的sar目标识别方法 Download PDFInfo
- Publication number
- CN106096506B CN106096506B CN201610368813.5A CN201610368813A CN106096506B CN 106096506 B CN106096506 B CN 106096506B CN 201610368813 A CN201610368813 A CN 201610368813A CN 106096506 B CN106096506 B CN 106096506B
- Authority
- CN
- China
- Prior art keywords
- subclass
- dictionary
- training sample
- classification
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于子类类间判别双字典的SAR目标识别方法,其首先基于每一类训练样本的SAR图像的方位角,在每个类别中划分出若干个子类,从而将每一个子类看做不同的目标类别,通过判别双字典学习方法,学习得到用于重构每个类别的每个子类的子类图像特征训练样本子集所对应的分析子字典和综合子字典,减少了方位角不相关的训练样本对测试样本目标识别的干扰,同时确保了重构时综合字典和分析字典表示系数能通过一个简单的线性投影函数来逼近,大大减少训练处理和重构识别处理的计算量,提升了识别处理效率,并且其重构识别处理过程中利用了各个不同类别中各个子类的训练样本的类标签信息,进而使得识别准确率也得以提高。
Description
技术领域
本发明涉及雷达目标识别技术领域,尤其涉及一种基于子类类间判别双字典的SAR目标识别方法。
背景技术
合成孔径雷达(Synthetic Aperture Radar,简称SAR)技术,是采用搭载在卫星或飞机上的移动雷达,获得高精度地理区域雷达目标图像的一种脉冲雷达技术。合成孔径雷达是一种主动微波成像系统,通过对目标区域进行电磁波照射,并对回波信号进行信号解析,它可以提供目标区域的高分辨率图像。它具有全天候、全天时的工作能力和一定的穿透能力。鉴于它的这些优点,它被广泛应用于矿产探测、海洋环境监测和军事防御等领域。在军事防御领域中对目标的识别的研究又是最广泛的,因此SAR目标自动识别(AutomaticTarget Recognition,ATR)的研究受到了国内外学者的广泛关注。
G.J.Owirk提出的模板匹配方法和Katsushi Ikeuchi提出的基于模型的算法是SAR目标自动识别领域中较早出现的识别算法。在模板匹配算法中,通过训练图像构建一系列的参考图像(空域或时域),即模板,再将所有的模板储存起来构成模板库。在进行识别的时候,将待识别的SAR图像和模板库内的所有的模板进行匹配,然后根据相似度准则将测试图像归到与之最相近的模板所在的类中。而基于模型的目标识别算法的具体步骤是:①提取出未知目标的特征,根据数学模型来推出一些相关的候选目标,然后分别假设这些目标的类别和姿态;②对候选目标通过模型构建技术进行三维成像,提取出散射中心模型,并进一步预测识别目标的特征,看作待识别目标的参考特征;③匹配,判决。基于模型的方法对杂波具有较好的鲁棒性,但是此方法对图像的质量要求较高,并且在构建模型的时候需要较高的理论水平和计算能力,因此,当前基于模板匹配的方法较基于模型的方法应用更为广泛。然而,随着理论计算水平的提高和电磁预估软件的日益发展,基于模型的方法将会受到更多的关注。
随着机器学习的发展,模式识别的发展取得了长足的进步。一些模式识别中的算法也开始应用到SAR目标识别中来,例如。Q.Zhao和Sandirasegaram.NM分别将支撑向量机(support vector machine,SVM)和神经网络(artificial neural network,ANN)用于SAR地面目标识别,并取得了较好的识别效果。SVM是一个功能很强大的分类器,通过对参数的恰当的设置,SVM可以取得很好的分类效果,甚至一些线性不可分问题也可以通过SVM来进行分类。但是当特征维度太高时,SVM分类器就会面临维数灾难的问题。除此之外,SVM的参数的设置也是经验性的,且不同的分类问题的设置一般不相同,这也大大的限制了SVM的泛化能力。ANN具有良好的非线性可分,一个训练良好的神经网络可以有很好的分类性能。然而,在实际应用中,往往需要大量的训练样本才可以训练一个较好的网络,有时候训练的网络会出现过拟合,从而导致泛化能力较差。
近年来,随着压缩感知的理论的发展,基于压缩感知的稀疏表示(sparserepresentation,SR)引起了信号处理和模式识别领域的很多研究人员的关注。稀疏表示理论表明信号可以通过字典中的原子的线性组合来表示,并且这些原子的分布是稀疏的,即大部分的系数是零或者接近零,只有与输入信号有较大相关性的原子的对应的系数才不为零,稀疏系数的这种稀疏性蕴含着鉴别信息,并且能够在非零数据元素较少的前提下描述目标的最主要特征信息。因此稀疏表示和稀疏重构理论在人脸识别、医学肿瘤识别和SAR图像目标识别等领域中都得到了较为广泛的应用。
但是,现有的基于稀疏表示理论的SAR图像目标识别均是利用0°~360°范围方位角的所有训练样本作为一类字典原子进行识别。然而,根据SAR目标特性随成像方位角变化而剧烈变化,所以目标在0°~360°之间的图像具有非常大的差异,对于目标识别来说,同一类别的目标在不同方位角上呈现出来的却好像是多种类别目标。因此在识别过程中,非相关方位角的训练样本在一个类别的字典中对测试样本的目标识别形成了干扰,这些干扰容易形成识别误差,降低了类间的判别能力,在一定程度上导致了目标识别准确性的不足。
另一方面,字典在稀疏表示过程中扮演了很重要的角色。字典学习在图像恢复问题中成功促使了它在图像分类任务中的运用。和图像恢复不同,分配正确的类标签给测试样本是分类问题的目标,因此,学习字典的准确判别性能是主要关心的问题。为此,监督字典学习方法被提出来以提高学习字典的准确判别能力。通过对测试样本在学习字典上的稀疏编码,编码系数和编码残差都能被用于分类,用编码系数还是用编码残差取决于所用的字典学习模型。鉴别字典学习在模式识别问题中有很好的结果。
一个常用的鉴别字典学习的策略是对所有类别学习一个共用的字典,同时给稀疏编码系数加上判别性约束。基于稀疏编码系数的分类器能同时被训练来进行分类。Mairal等人提出了学习字典和学习在编码向量空间中相应的线性分类器。在标签一致的KSVD(LC-KSVD)方法中,蒋等人提出了二值类标签稀疏编码矩阵来激励相同类别的样本具有相似的稀疏编码。Mairal等人提出了任务驱动的字典学习框架(TDDL),使不同任务的编码系数风险最小化。
另一个字典学习中的研究主线是试图学习一个结构化的字典来提升类别之间的鉴别能力。在结构化字典中的原子有类标签,具体类别的表示残差能计算出来用于分类。拉米雷斯等人引入了一种非相干提升项来激励不同类别的子字典相互独立。杨等人提出Fisher判别字典学习方法,这一算法中对表示残差和表示系数都应用了Fisher准则。王等人从最大边缘愿景角度提出了最大边缘化字典学习算法。在大部分现存的字典学习方法中,L0范数或L1范数用来规则化表示参数,因为稀疏稀系数更可能产生好的分类结果。因此,稀疏编码步骤一般包含在迭代字典学习过程中。尽管大量的算法被提出来以提高稀疏编码的效率,L0范数或L1范数的稀疏正则化仍然是一个很大的计算负担,并且使得训练过程和目标识别过程效率很低。
因此,采用怎样的字典学习分类方法来进一步提高SAR目标识别的处理效率和识别准确率,也是SAR目标自动识别技术领域的一个重要研究方向。
发明内容
针对现有技术中存在的上述问题,本发明提供了一种基于子类类间判别双字典的SAR目标识别方法,能够提升基于SAR图像进行雷达目标识别的识别处理效率和识别准确率,用以解决现有SAR目标识别技术的训练过程和目标识别过程较为繁杂、识别处理效率和目标识别准确性不足的问题。
为实现上述目的,本发明采用了如下技术手段:
基于子类类间判别双字典的SAR目标识别方法,包括如下步骤:
1)对于多类不同的已知雷达目标,分别针对每一类在0°~360°方位角范围内分布采集多个已知雷达目标的SAR图像作为训练样本,并分别记录各个训练样本的方位角值;
2)将0°~360°方位角区间等分为S个方位角子区间,使得每个方位角子区间的方位角跨度为Δg=360°/S;将每一类的所有训练样本中方位角值在同一方位角子区间的各个训练样本归为相应类别中的一个子类,从而分别将每一类的训练样本划分为S个子类;
3)分别提取各个类别的各个子类中各个训练样本的图像特征矩阵,将针对每个训练样本所提取的图像特征矩阵作为一个图像特征训练样本,从而由每个类别的每个子类中各个训练样本的图像特征矩阵的集合构成一个子类图像特征训练样本子集,由各个类别的各个子类的子类图像特征训练样本子集的集合构成图像特征训练样本集;
4)采用判别双字典学习算法的重构目标函数对图像特征训练样本集进行学习和训练,求解得到对图像特征训练样本集进行重构的分析字典和综合字典,进而分别得到所述分析字典和综合字典中用于重构每个类别的每个子类的子类图像特征训练样本子集所对应的分析子字典和综合子字典;
5)针对一个待测雷达目标,采集该待测雷达目标的SAR图像作为测试样本,提取测试样本的图像特征矩阵;
6)分别计算利用每个类别的每个子类的子类图像特征训练样本子集所对应的分析子字典和综合子字典对测试样本的图像特征矩阵进行重构的重构误差,将重构误差最小的分析子字典和综合子字典所对应的子类图像特征训练样本子集所属的已知雷达目标类别判定为测试样本对应的待测雷达目标所属的雷达目标类别,实现对待测雷达目标的类别识别。
上述基于子类类间判别双字典的SAR目标识别方法中,作为优选方案,所述步骤2)中,每个方位角子区间的方位角跨度Δg为10°~20°。
上述基于子类类间判别双字典的SAR目标识别方法中,具体而言,所述步骤4)中,对图像特征训练样本集进行学习和训练的判别双字典学习算法的重构目标函数为:
其中,P和D分别表示对图像特征训练样本集X进行重构的分析字典和综合字典;Xk,s∈X表示第k个类别的第s子类的子类图像特征训练样本子集,表示图像特征训练样本集X中除第k个类别的第s子类的子类图像特征训练样本子集Xk,s之外的其它各子类图像特征训练样本子集所集合构成的图像特征训练样本余量集,k∈[1,2,…,K],s∈[1,2,…,S],K表示所采集的已知雷达目标的类别总数,S表示每个类别所划分的子类数;Pk,s∈P表示分析字典P中用于重构第k个类别的第s个子类的子类图像特征训练样本子集Xk,s所对应的分析子字典,Dk,s∈D表示综合字典D中用于重构第k个类别的第s个子类的子类图像特征训练样本子集Xk,s所对应的综合子字典;表示综合子字典Dk,s中对应于第k个类别的第s个子类中第ns个训练样本综合字典重构稀疏,1≤ns≤Ns,Ns表示第k个类别的第s个子类中包含的训练样本的个数;λ>0为标量常数;||·||F为F范数运算符,||·||2为L2范数运算符。
上述基于子类类间判别双字典的SAR目标识别方法中,具体而言,所述步骤6)中,确定测试样本对应的待测雷达目标所属的雷达目标类别的表达式为:
k∈[1,2,…,K],s∈[1,2,…,S];
其中,ly表示测试样本对应的待测雷达目标所属的雷达目标类别;y表示测试样本的图像特征矩阵;Pk,s表示第k个类别的第s个子类的子类图像特征训练样本子集所对应的分析子字典,Dk,s表示第k个类别的第s个子类的子类图像特征训练样本子集所对应的综合子字典;k∈[1,2,…,K],s∈[1,2,…,S],K表示所采集的已知雷达目标的类别总数,S表示每个类别所划分的子类数;||·||2为L2范数运算符;Dk,sPk,sy则表示利用第k个类别的第s个子类的子类图像特征训练样本子集所对应的分析子字典Pk,s和综合子字典Dk,s对测试样本的图像特征矩阵进行重构的重构式。
相比于现有技术,本发明具有如下有益效果:
本发明基于子类类间判别双字典的SAR目标识别方法,其首先基于每一类训练样本的SAR图像的方位角,在每个类别中划分出若干个子类,从而将每一个子类看做不同的目标类别,通过判别双字典学习方法,学习得到用于重构每个类别的每个子类的子类图像特征训练样本子集所对应的分析子字典和综合子字典,减少了方位角不相关的训练样本对测试样本目标识别的干扰,同时在判别双字典学习方法中,综合字典和分析字典被一起训练,确保了重构时综合字典和分析字典表示系数能通过一个简单的线性投影函数来逼近,大大减少训练处理和重构识别处理的计算量,提升了识别处理效率,并且其重构识别处理过程中利用了各个不同类别中各个子类的训练样本的类标签信息,提高了其表示编码系数的准确判别能力,进而使得识别准确率也得以提高,有效解决了现有SAR目标识别技术的训练过程和目标识别过程较为繁杂、识别处理效率和目标识别准确性不足的问题。
附图说明
图1为本发明基于子类类间判别双字典的SAR目标识别方法的流程图。
图2为BMP2、BTR70、T72三个不同类别雷达目标的可见光图像。
图3为BMP2、BTR70、T72三个不同类别雷达目标的SAR图像。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步的说明。
对于字典原子的分类划分以及对于字典学习分类方法的选择,是影响SAR目标识别处理效率和识别准确率的两个重要因素。针对于此,本发明从这两方面加以技术改进,来提升SAR目标识别处理效率和识别准确率。
一、基于成像方位角的SAR目标子类划分。
在现有的SAR图像目标识别方法中,均把目标在0°~360°范围方位角的所有训练样本作为一类字典原子进行识别。但是,根据SAR目标特性随成像方位角变化而剧烈变化,所以目标在0°~360°之间的图像具有非常大的差异,对于目标识别来说,同一类别的目标在不同方位角上呈现出来的却好像是多种类别目标。而根据目标散射特性知识可知,目标上的结构件方位角在偏离中心角度±5°~10°时,散射特性变化不大。因此,可以把0°~360°方位角扇区按每10°~20°划分一个子类。也就是说,每个目标类别可以划分具有18~36个子类。
因此,根据这一机理,本发明提出下述思路:将同一目标在0°~360°之间的训练样本根据方位角区间分为若干子类,将这些子类看做不同的目标类别进行识别。而为了适应这种子类划分方法进一步提升类间的判别能力,本发明结合采用判别双字典学习算法识别这些子类。
二、判别双字典学习分类方法。
S.Gu等人为模式分类提出了一种判别双字典(PDL,projective dictionary pairlearning)框架,参见文献“Shuhang Gu,LeiZhang,Wangmeng Zuo,etal.Projectivedictionary pair learning for pattern classification,Advances in NeuralInformation Processing Systems 27(NIPS2014)”。在该字典学习算法中,对训练样本一起学习一个综合性字典和分析字典。通过高效的线性投影,训练分析字典来产生鉴别编码,同时综合字典被训练来获取具体类别的判别重构。首先,在PDL中,综合字典和分析字典被一起训练,这确保了重构时综合字典和分析字典表示系数能通过一个简单的线性投影函数来逼近。第二,DPL利用了训练样本的类标签信息,提高了表示编码系数的准确判别能力。
下面简要介绍其原理。
2.1判别字典学习。
假设,来自K类的p维训练样本集合用X=[X1,...,Xk,...,XK]表示,是第k类的训练样本,n是每个类的样本数量。判别字典学习方法旨在为识别任务从集合X中学习一个有效的数据表示模型;这个学习是通过挖掘训练数据和其相应的类标签信息获得的。目前的判别字典学习方法大多数能用下面的公式框架表示:
其中,λ≥0是一个标量常数,Y表示在X中样本的类标签矩阵,D是要学习的综合字典,A是X在D上的编码系数矩阵。在训练模型(1)中,数据保真度形式能够保证这一优化过程确保了D的表示能力;||A||p是LP范数在A上的正则化;ψ(D,A,Y)代表的是判别提升函数,确保了D和A的异类之间的判别能力。
然而,这些判别字典学习算法都在编码过程中采用L0或L1范数的稀疏正则化,这就使得训练阶段和后续的测试阶段效率不高。S.Gu等人扩展了传统的字典学习模型(传统的字典学习模型学习一个判别合成字典),提出了一个新的DPL模型,这个DPL模型学习一对综合字典和分析字典。在提出的DPL模型中,不需要L0或L1范数的稀疏正则化过程,编码参数能通过线性投影被清晰的得到。
2.2判别双字典学习模型。
传统的判别字典学习模型旨在学习一个合成字典D来稀疏表示信号X,需要一个耗时的L1范数稀疏编码过程来求解编码矩阵A。假设我们能找到一个分析字典,表示为这样编码矩阵A能用A=PX这样解析的获得,这样X的表示将会计算有效。基于这点,我们提出一起学习一个这样的分析字典P和综合字典D,有下面的DPL模型:
ψ(D,P,X,Y)是某个判别函数。D和P形成一个字典对:分析字典P用来分析编码X,合成字典D用来重构X。
DPL模型的判别能力取决于ψ(D,P,X,Y)的合理设计。我们提出学习一个结构化的综合字典D=[D1,...,Dk,...,DK]和分析字典P=[P1,...,Pk,...,PK],其中构成对应类别k的子字典对。最近在稀疏子空间聚类的研究证明:如果信号满足某种非相干条件,样本能通过相应的字典被稀疏表示。通过结构化字典P,可以使得子字典Pk能将来自第i个类别的样本(i≠k)投影到接近零空间。
明显的是,在(3)式的条件下,矩阵PX将会是近似的块对角矩阵。另一方面,对于结构化的综合字典D,我们希望子字典Dk能很好地从投影编码矩阵PkXk重构数据矩阵Xk;即字典对应该具有最小化重构误差的能力:
基于上述分析,我们有下面的DPL模型优化函数:
其中,代表的是在整个训练集X中除Xk之外的那部分,λ>0是一个标量常数,di代表综合字典D的第i个原子。我们限制了每个原子di的能量,是为了避免Pk=0的解,使DPL模型更稳定。
式(5)中的DPL模型并不是一个稀疏表示模型,然而它强制了对编码矩阵PX的群组稀疏(因为PX是近似块对角)。该判别双字典学习算法的具体优化求解过程,可以参考S.Gu等人的文献“Shuhang Gu,LeiZhang,Wangmeng Zuo,etal.Projective dictionary pairlearning for pattern classification,Advances in Neural Information ProcessingSystems 27(NIPS2014)”。
2.3基于子类判别双字典的SAR目标识别。
显然,对某个SAR目标子类的重构残差可以用来识别测试样本y的类别标签,因此采用下面的识别准则:
identity(y)=argmini||y-DiPiy||2; (6)
由此便可以确定测试样本的所属类别,实现对测试样本的目标识别。
根据上述的技术思路,本发明基于子类类间判别双字典的SAR目标识别方法的流程如图1所示,包括如下步骤:
1)对于多类不同的已知雷达目标,分别针对每一类在0°~360°方位角范围内分布采集多个已知雷达目标的SAR图像作为训练样本,并分别记录各个训练样本的方位角值。
该步骤中,在条件允许的情况下,针对每一类采集多个已知雷达目标的SAR图像在0°~360°方位角范围内分布得越密集越好,这样在基于方位角的子类划分后,能够更好的确保每个子类中都有足够的训练样本,进而更好的确保对测试样本的目标识别准确性。
2)将0°~360°方位角区间等分为S个方位角子区间,使得每个方位角子区间的方位角跨度为Δg=360°/S;将每一类的所有训练样本中方位角值在同一方位角子区间的各个训练样本归为相应类别中的一个子类,从而分别将每一类的训练样本划分为S个子类。
该步骤中,每个方位角子区间的方位角跨度Δg最好为10°~20°,从而分别将每一类的训练样本划分为18~36个子类。因为,根据目标散射特性知识可知,目标上的结构件方位角在偏离中心角度±5°~10°时,散射特性变化不大;因此,把0°~360°方位角扇区按每10°~20°划分一个子类,更有利于准确判断测试目标与每一个子类的散射特性是否匹配,从而更好的保证识别准确率。
3)分别提取各个类别的各个子类中各个训练样本的图像特征矩阵,将针对每个训练样本所提取的图像特征矩阵作为一个图像特征训练样本,从而由每个类别的每个子类中各个训练样本的图像特征矩阵的集合构成一个子类图像特征训练样本子集,由各个类别的各个子类的子类图像特征训练样本子集的集合构成图像特征训练样本集。
由此建立得到的图像特征训练样本集可以表示为:
X=[X1,1,X1,2,…,X1,s,…,X1,S,X2,1,X2,2,…,Xk,s,…,XK,S];
其中,X表示图像特征训练样本集,Xk,s∈X表示第k个类别的第s子类的子类图像特征训练样本子集,k∈[1,2,…,K],s∈[1,2,…,S],K表示所采集的已知雷达目标的类别总数,S表示每个类别所划分的子类数。
该步骤中基于雷达目标图像的何种特征数据来建立其图像特征,是需要根据实际应用个情况进行选择问题。对于一幅雷达目标SAR图像,根据物理光学近似的原理,目标的散射回波近似成多个散射中心的回波响应总和(参见现有技术文献“Potter,L.C.;Ertin,E.;Parker,J.T.;Cetin,M.Sparsity and compressed sensing in radarimaging.Proceedings of the IEEE 2010,98,1006-1020.”),这些稀疏散射中心提供了简明的、物理相关的目标特性描述(参见现有技术文献“M.;Karl,W.C.;Castanon,D.A.Evaluation of a regularized SAR imaging technique based on recognition-oriented features.In Proc.SPIE 4053,Algorithms for Synthetic Aperture RadarImagery VII,Orlando,FL,USA,24April2000;pp.40-51”)。经典的散射中心参数建模方法是基于近似的物理光学模型,其参数包括像素值特征、像素频谱、入射角、接收角和极化等;这些散射中心的参数都可以选择作为SAR目标识别的有效图像识别特征,用以建立图像特征矩阵。
4)采用判别双字典学习算法的重构目标函数对图像特征训练样本集进行学习和训练,求解得到对图像特征训练样本集进行重构的分析字典和综合字典,进而分别得到所述分析字典和综合字典中用于重构每个类别的每个子类的子类图像特征训练样本子集所对应的分析子字典和综合子字典。
该步骤中,图像特征训练样本集进行学习和训练的判别双字典学习算法的重构目标函数为:
其中,P和D分别表示对图像特征训练样本集X进行重构的分析字典和综合字典;Xk,s∈X表示第k个类别的第s子类的子类图像特征训练样本子集,表示图像特征训练样本集X中除第k个类别的第s子类的子类图像特征训练样本子集Xk,s之外的其它各子类图像特征训练样本子集所集合构成的图像特征训练样本余量集,k∈[1,2,…,K],s∈[1,2,…,S],K表示所采集的已知雷达目标的类别总数,S表示每个类别所划分的子类数;Pk,s∈P表示分析字典P中用于重构第k个类别的第s个子类的子类图像特征训练样本子集Xk,s所对应的分析子字典,Dk,s∈D表示综合字典D中用于重构第k个类别的第s个子类的子类图像特征训练样本子集Xk,s所对应的综合子字典;表示综合子字典Dk,s中对应于第k个类别的第s个子类中第ns个训练样本综合字典重构稀疏,1≤ns≤Ns,Ns表示第k个类别的第s个子类中包含的训练样本的个数;λ>0为标量常数;||·||F为F范数运算符,||·||2为L2范数运算符。
5)针对一个待测雷达目标,采集该待测雷达目标的SAR图像作为测试样本,提取测试样本的图像特征矩阵。
同样,该步骤中,测试样本图像的像素值特征、像素频谱、入射角、接收角和极化等散射中心参数都可以选择作为SAR目标识别的有效图像识别特征,用以建立图像特征矩阵。只是,针对训练样本和测试样本所选择建立图像特征矩阵的参数应当相同。
6)分别计算利用每个类别的每个子类的子类图像特征训练样本子集所对应的分析子字典和综合子字典对测试样本的图像特征矩阵进行重构的重构误差,将重构误差最小的分析子字典和综合子字典所对应的子类图像特征训练样本子集所属的已知雷达目标类别判定为测试样本对应的待测雷达目标所属的雷达目标类别,实现对待测雷达目标的类别识别。
该步骤中,确定测试样本对应的待测雷达目标所属的雷达目标类别的表达式为:
k∈[1,2,…,K],s∈[1,2,…,S];
其中,ly表示测试样本对应的待测雷达目标所属的雷达目标类别;y表示测试样本的图像特征矩阵;Pk,s表示第k个类别的第s个子类的子类图像特征训练样本子集所对应的分析子字典,Dk,s表示第k个类别的第s个子类的子类图像特征训练样本子集所对应的综合子字典;k∈[1,2,…,K],s∈[1,2,…,S],K表示所采集的已知雷达目标的类别总数,S表示每个类别所划分的子类数;||·||2为L2范数运算符;Dk,sPk,sy则表示利用第k个类别的第s个子类的子类图像特征训练样本子集所对应的分析子字典Pk,s和综合子字典Dk,s对测试样本的图像特征矩阵进行重构的重构式。
本发明基于子类类间判别双字典的SAR目标识别方法可以应用于基于计算机编程自运行的雷达目标识别系统,实现自动化的雷达目标识别。
下面通过实施例对本发明的技术方案作进一步的说明。
实施例:
本实施例使用MSTAR数据库来做实验,它是由美国圣地亚哥国家实验室X波段的SAR系统获取的实测数据,它具有0.3m×0.3m的分辨率,每一幅SAR图像的像素密度都是128行×128列,在0°~360°的方位角下采集获得的。本实施例中使用MSTAR数据库中BMP2(步兵坦克)、BTR70(装甲运兵车)、T72(T-72型主站坦克)这三类目标来进行实验,BMP2、BTR70、T72三个不同类别雷达目标的可见光图像分别如图2中(2a)、(2b)、(2c)所示,而BMP2、BTR70、T72三个不同类别雷达目标的SAR图像则分别如图3中(3a)、(3b)、(3c)所示。本实施例中,将每一类目标的部分0°~360°的方位角的SAR图像数据用作训练样本数据,而余下部分的SAR图像数据用作测试样本数据。训练样本和测试样本的数量如表1所示:
表1
然后,采用本发明基于子类类间判别双字典的SAR目标识别方法,利用训练样本对测试样本进行目标类别的识别;同时,为了作为对比,还采用了现有技术中基本稀疏表示分类识别方法(将0°~360°范围方位角的所有训练样本作为一类,采用稀疏表示分类方法进行测试目标的分类识别)以及未针对训练样本基于方位角划分子类的判别双字典学习分类方法(将0°~360°范围方位角的所有训练样本作为一类,采用判别双字典学习分类方法进行测试目标的分类识别),也分别通过这两种方法利用训练样本对测试样本进行目标类别的识别,并分别统计本发明方法、基本稀疏表示分类识别方法和未针对训练样本基于方位角划分子类的判别双字典学习分类方法的识别结果混淆矩阵,在识别结果混淆矩阵中,记录了每一类的测试样本被识别为三个不同训练样本类别的数量。基本稀疏表示分类识别方法(将0°~360°范围方位角的所有训练样本作为一类,采用稀疏表示分类方法进行测试目标的分类识别)的识别结果混淆矩阵如表2所示,未针对训练样本基于方位角划分子类的判别双字典学习分类方法(将0°~360°范围方位角的所有训练样本作为一类,采用判别双字典学习分类方法进行测试目标的分类识别)的识别结果混淆矩阵如表3所示,本发明方法的识别结果混淆矩阵如表4所示。
表2
表3
表4
由此统计本发明方法、现有技术中基本稀疏表示分类识别方法和未针对训练样本基于方位角划分子类的判别双字典学习分类方法的识别正确率如表5所示。
表5
可以看到,与现有技术相比,采用本发明基于子类类间判别双字典的SAR目标识别方法的识别正确率在本实验中均为100%,相比于其它两种识别方法的平均识别正确率均有提高。
综上所述,本发明基于子类类间判别双字典的SAR目标识别方法,其首先基于每一类训练样本的SAR图像的方位角,在每个类别中划分出若干个子类,从而将每一个子类看做不同的目标类别,通过判别双字典学习方法,学习得到用于重构每个类别的每个子类的子类图像特征训练样本子集所对应的分析子字典和综合子字典,减少了方位角不相关的训练样本对测试样本目标识别的干扰,同时在判别双字典学习方法中,综合字典和分析字典被一起训练,确保了重构时综合字典和分析字典表示系数能通过一个简单的线性投影函数来逼近,大大减少训练处理和重构识别处理的计算量,提升了识别处理效率,并且其重构识别处理过程中利用了各个不同类别中各个子类的训练样本的类标签信息,提高了其表示编码系数的准确判别能力,进而使得识别准确率也得以提高,有效解决了现有SAR目标识别技术的训练过程和目标识别过程较为繁杂、识别处理效率和目标识别准确性不足的问题。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (3)
1.基于子类类间判别双字典的SAR目标识别方法,其特征在于,包括如下步骤:
1)对于多类不同的已知雷达目标,分别针对每一类在0°~360°方位角范围内分布采集多个已知雷达目标的SAR图像作为训练样本,并分别记录各个训练样本的方位角值;
2)将0°~360°方位角区间等分为S个方位角子区间,使得每个方位角子区间的方位角跨度为Δg=360°/S;将每一类的所有训练样本中方位角值在同一方位角子区间的各个训练样本归为相应类别中的一个子类,从而分别将每一类的训练样本划分为S个子类;
3)分别提取各个类别的各个子类中各个训练样本的图像特征矩阵,将针对每个训练样本所提取的图像特征矩阵作为一个图像特征训练样本,从而由每个类别的每个子类中各个训练样本的图像特征矩阵的集合构成一个子类图像特征训练样本子集,由各个类别的各个子类的子类图像特征训练样本子集的集合构成图像特征训练样本集;
4)采用判别双字典学习算法的重构目标函数对图像特征训练样本集进行学习和训练,求解得到对图像特征训练样本集进行重构的分析字典和综合字典,进而分别得到所述分析字典和综合字典中用于重构每个类别的每个子类的子类图像特征训练样本子集所对应的分析子字典和综合子字典;其中,对图像特征训练样本集进行学习和训练的判别双字典学习算法的重构目标函数为:
其中,P和D分别表示对图像特征训练样本集X进行重构的分析字典和综合字典;Xk,s∈X表示第k个类别的第s子类的子类图像特征训练样本子集,表示图像特征训练样本集X中除第k个类别的第s子类的子类图像特征训练样本子集Xk,s之外的其它各子类图像特征训练样本子集所集合构成的图像特征训练样本余量集,k∈[1,2,…,K],s∈[1,2,…,S],K表示所采集的已知雷达目标的类别总数,S表示每个类别所划分的子类数;Pk,s∈P表示分析字典P中用于重构第k个类别的第s个子类的子类图像特征训练样本子集Xk,s所对应的分析子字典,Dk,s∈D表示综合字典D中用于重构第k个类别的第s个子类的子类图像特征训练样本子集Xk,s所对应的综合子字典;表示综合子字典Dk,s中对应于第k个类别的第s个子类中第ns个训练样本综合字典重构稀疏,1≤ns≤Ns,Ns表示第k个类别的第s个子类中包含的训练样本的个数;λ>0为标量常数;||·||F为F范数运算符,||·||2为L2范数运算符;
5)针对一个待测雷达目标,采集该待测雷达目标的SAR图像作为测试样本,提取测试样本的图像特征矩阵;
6)分别计算利用每个类别的每个子类的子类图像特征训练样本子集所对应的分析子字典和综合子字典对测试样本的图像特征矩阵进行重构的重构误差,将重构误差最小的分析子字典和综合子字典所对应的子类图像特征训练样本子集所属的已知雷达目标类别判定为测试样本对应的待测雷达目标所属的雷达目标类别,实现对待测雷达目标的类别识别。
2.根据权利要求1所述基于子类类间判别双字典的SAR目标识别方法,其特征在于,所述步骤2)中,每个方位角子区间的方位角跨度Δg为10°~20°。
3.根据权利要求1所述基于子类类间判别双字典的SAR目标识别方法,其特征在于,所述步骤6)中,确定测试样本对应的待测雷达目标所属的雷达目标类别的表达式为:
其中,ly表示测试样本对应的待测雷达目标所属的雷达目标类别;y表示测试样本的图像特征矩阵;Pk,s表示第k个类别的第s个子类的子类图像特征训练样本子集所对应的分析子字典,Dk,s表示第k个类别的第s个子类的子类图像特征训练样本子集所对应的综合子字典;k∈[1,2,…,K],s∈[1,2,…,S],K表示所采集的已知雷达目标的类别总数,S表示每个类别所划分的子类数;||·||2为L2范数运算符;Dk,sPk,sy则表示利用第k个类别的第s个子类的子类图像特征训练样本子集所对应的分析子字典Pk,s和综合子字典Dk,s对测试样本的图像特征矩阵进行重构的重构式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610368813.5A CN106096506B (zh) | 2016-05-28 | 2016-05-28 | 基于子类类间判别双字典的sar目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610368813.5A CN106096506B (zh) | 2016-05-28 | 2016-05-28 | 基于子类类间判别双字典的sar目标识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106096506A CN106096506A (zh) | 2016-11-09 |
CN106096506B true CN106096506B (zh) | 2019-04-26 |
Family
ID=57230158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610368813.5A Active CN106096506B (zh) | 2016-05-28 | 2016-05-28 | 基于子类类间判别双字典的sar目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106096506B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106874932B (zh) * | 2016-12-30 | 2020-07-10 | 陕西师范大学 | 基于快速稀疏描述的sar目标型号识别方法 |
CN107403136B (zh) * | 2017-06-23 | 2021-01-05 | 陕西师范大学 | 基于结构保持字典学习的sar目标型号识别方法 |
CN109444880A (zh) * | 2018-10-23 | 2019-03-08 | 重庆大学 | 一种基于多特征低秩表示融合的sar目标识别方法 |
CN109766646B (zh) * | 2019-01-16 | 2021-06-04 | 北京大学 | 一种基于稀疏通道回波数据重建的超声成像方法及装置 |
CN110222634B (zh) * | 2019-06-04 | 2022-11-01 | 河海大学常州校区 | 一种基于卷积神经网络的人体姿态识别方法 |
CN110458137A (zh) * | 2019-08-19 | 2019-11-15 | 重庆大学 | 一种基于两级多任务学习的合成孔径雷达图像识别方法 |
CN110781822B (zh) * | 2019-10-25 | 2022-08-02 | 重庆大学 | 基于自适应多方位角字典对学习的sar图像目标识别方法 |
CN111539385B (zh) * | 2020-05-28 | 2022-05-20 | 北京理工大学 | 基于分辨率金字塔模型的极窄脉冲雷达船只鉴别方法 |
CN112768069A (zh) * | 2021-01-07 | 2021-05-07 | 金陵科技学院 | 基于ad-svm的智能养老机器人系统设计方法 |
CN114241260B (zh) * | 2021-12-14 | 2023-04-07 | 四川大学 | 一种基于深度神经网络的开集目标检测与识别方法 |
CN116702018B (zh) * | 2023-04-19 | 2024-03-01 | 东南大学 | 基于ga-pdpl算法的跨被试脑电情感识别方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103093238A (zh) * | 2013-01-15 | 2013-05-08 | 江苏大学 | 基于d-s证据理论的视觉词典构建方法 |
-
2016
- 2016-05-28 CN CN201610368813.5A patent/CN106096506B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103093238A (zh) * | 2013-01-15 | 2013-05-08 | 江苏大学 | 基于d-s证据理论的视觉词典构建方法 |
Non-Patent Citations (4)
Title |
---|
Projective dictionary pair learning for pattern classification;Shuhang Gu,et al.;《Advances in Neural Information Processing Systems》;20141231;第793-801页 |
Supplementary materials to "Projective dictionary pair learning for pattern classification";Shuhang Gu, et al.;《Advances in Neural Information Processing System》;20141231;第1-3页 |
基于字典学习与稀疏模型的SAR图像压缩技术研究;占新;《中国博士学位论文全文数据库信息科技辑》;20150915;第2015年卷(第09期);I136-32 |
基于稀疏理论的SAR图像目标识别研究;丁军;《中国博士学位论文全文数据库信息科技辑》;20160315;第2016年卷(第03期);I136-268 |
Also Published As
Publication number | Publication date |
---|---|
CN106096506A (zh) | 2016-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106096506B (zh) | 基于子类类间判别双字典的sar目标识别方法 | |
CN109961089B (zh) | 基于度量学习和元学习的小样本和零样本图像分类方法 | |
Al Bashish et al. | A framework for detection and classification of plant leaf and stem diseases | |
CN110135267A (zh) | 一种大场景sar图像细微目标检测方法 | |
Popescu et al. | Contextual descriptors for scene classes in very high resolution SAR images | |
CN106056070B (zh) | 基于低秩矩阵恢复和稀疏表示的sar目标识别方法 | |
CN107451545B (zh) | 基于软标签下多通道判别非负矩阵分解的人脸识别方法 | |
CN105760900B (zh) | 基于近邻传播聚类和稀疏多核学习的高光谱图像分类方法 | |
CN107798345B (zh) | 基于块对角与低秩表示的高光谱伪装目标检测方法 | |
CN104657717B (zh) | 一种基于分层核稀疏表示的行人检测方法 | |
CN102945374B (zh) | 一种高分辨率遥感图像中民航飞机自动检测方法 | |
Lu et al. | P_SegNet and NP_SegNet: New neural network architectures for cloud recognition of remote sensing images | |
CN106326938B (zh) | 基于弱监督学习的sar图像目标鉴别方法 | |
CN110334715A (zh) | 一种基于残差注意网络的sar目标识别方法 | |
CN104809471B (zh) | 一种基于空间光谱信息的高光谱图像残差融合分类方法 | |
CN114998748B (zh) | 遥感图像目标精细识别方法、电子设备及存储介质 | |
CN108446613A (zh) | 一种基于距离中心化与投影向量学习的行人重识别方法 | |
CN109034213B (zh) | 基于相关熵原则的高光谱图像分类方法和系统 | |
He et al. | SAR target recognition and unsupervised detection based on convolutional neural network | |
CN110703221A (zh) | 基于极化特征的城市低空小目标分类识别系统 | |
Tang et al. | Target classification of ISAR images based on feature space optimisation of local non-negative matrix factorisation | |
CN103093243A (zh) | 高分辨率全色遥感图像云判方法 | |
CN107203779A (zh) | 基于空谱信息保持的高光谱降维方法 | |
CN114494777A (zh) | 一种基于3D CutMix-Transformer的高光谱图像分类方法及系统 | |
CN109145993A (zh) | 基于多特征与非负自动编码器的sar图像分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |