CN111626363B - 一种基于期望最大化算法的多视角sar目标识别方法 - Google Patents

一种基于期望最大化算法的多视角sar目标识别方法 Download PDF

Info

Publication number
CN111626363B
CN111626363B CN202010467695.XA CN202010467695A CN111626363B CN 111626363 B CN111626363 B CN 111626363B CN 202010467695 A CN202010467695 A CN 202010467695A CN 111626363 B CN111626363 B CN 111626363B
Authority
CN
China
Prior art keywords
label
view
probability
target
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010467695.XA
Other languages
English (en)
Other versions
CN111626363A (zh
Inventor
郭贤生
张玉坤
李林
万群
沈晓峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202010467695.XA priority Critical patent/CN111626363B/zh
Publication of CN111626363A publication Critical patent/CN111626363A/zh
Application granted granted Critical
Publication of CN111626363B publication Critical patent/CN111626363B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于合成孔径雷达目标识别技术领域,具体的说是涉及一种基于期望最大化算法的多视角SAR目标识别方法。本发明应用卷积神经网络为特征提取器,根据卷积神经网络对目标的预测概率合理地选择标签的数量,不再简单地选择单视角预测概率最大的标签为预测类别,而是根据预测类别的概率分布灵活地选择可靠的标签。考虑到多视角之间的信息补偿特性,随机选择同一目标的多个视角,自适应地构造多视角标签集,运用EM算法求解预测标签的概率分布,得到更加准确的估计标签,实现了多视角融合,提高了识别率。由于对多视角之间的视角间隔没有限制,本发明可灵活应用于实际场景,尤其是对非协作目标进行目标识别。

Description

一种基于期望最大化算法的多视角SAR目标识别方法
技术领域
本发明属于合成孔径雷达(Synthetic Aperture Radar,SAR)目标识别技术领域,具体的说是涉及一种基于期望最大化算法的多视角SAR目标识别方法。
背景技术
合成孔径雷达是一种全天时、全天候工作的高分辨微波成像雷达,被广泛应用于战场感知侦察,地形勘探,环境监测等军事和民用领域。SAR目标识别技术是基于机器学习和信号处理等理论基础,提取目标特征并对目标进行分类,是合成孔径雷达应用中的关键环节,并在SAR领域中成为研究热点之一。
文献[1]构建了单输入卷积神经网络用于解决10类SAR目标图像的识别问题,但单视角网络没有考虑多视角之间的信息补偿和内在互补特性,而且分类器直接选择预测概率最大的标签为预测标签,忽略了真实标签对应的预测概率可能低于最大值的情况,从而造成识别错误。
文献[2]提出基于稀疏表征分类的数据融合方法(Sparse RepresentationClassification for fused data,DSRC),探索多视角之间的内在互补性,利用多视角信息解决SAR目标识别问题,获得更好的识别效果,但是该方法限制了多视角之间的间隔,当视角间隔大于一定范围时,识别准确率会出现下降的趋势,而在实际应用中,尤其是在非合作目标的识别场景中,获取目标的视角常常是随机的,因此,该方法不够灵活,其应用会受到很大限制。
[1]S.Chen and H.Wang,“Sar target recognition based on deep learning,”in 2014International Conference on Data Science and Advanced Analytics(DSAA),Oct 2014,pp.541–547.
[2]R.Huan and Y.Pan,“Target recognition for multi-aspect sar imageswith fusion strategies,”Progress In Electromagnetics Research,vol.134,pp.267–288,2013
发明内容
本发明的目的是,为克服上述不足,提供一种新的基于期望最大化(ExpectationMaximization,EM)算法的多视角SAR目标识别方法,如图1所示,采用卷积神经网络提取特征并得到预测类别的概率分布,根据概率分布灵活地选择可靠的标签,利用多视角之间的信息补偿特性,构建多视角标签集;最后采用EM算法估计可靠的预测类别概率分布,对待测目标进行分类,提高识别准确率。
本发明的技术方案是:一种基于期望最大化算法的多视角SAR目标识别方法,如图2所示,包括以下步骤:
一种基于期望最大化算法的多视角SAR目标识别方法,其特征在于,包括以下步骤:
S1、采集原始SAR图像,经预处理后获得目标SAR图像样本集合X:
X={xi|i=1,2,…,N}
其中,N代表总样本数,包含了对目标在不同方位角下进行观测,采集得到不同视角的样本;设目标样本的类别标签集合对应为:
z={zi|i=1,2,…,N}
其中,zi∈{1,2,…,K},K为目标类别总数;
S2、构建深度卷积神经网络:神经网络共包含4层卷积层和2层全连接层,每个卷积层后都加一层最大池化层;在最后一层全连接层后接softmax层;
S3、训练卷积神经网络:将目标样本及对应的标签输入构建的卷积神经网络进行前向传播,将预测标签和真实标签进行对比,并利用交叉熵损失函数衡量预测错误的代价;使用基于梯度下降的后向传播算法对卷积神经网络参数进行更新;迭代进行前后向传播,直至代价函数收敛,保存此时的神经网络参数,得到训练好的的神经网络模型;
S4、采用训练好的神经网络模型对SAR目标进行识别,对K类待测目标在不同方位角下观测得到M张SAR图像,将神经网络对第m张SAR图像的预测概率表示为:
Figure BDA0002513223700000021
其中,
Figure BDA0002513223700000022
表示卷积神经网络将第m张SAR图像预测为第k类目标的概率,k=1,2,3,…,K;
S5、根据得到的概率分布选择标签,具体为:
将得到的预测概率向量进行降序排列,记为p′m,并将概率对应的标签记为Lm=[l1,l2,…,lK];计算p′m相邻元素的比值,记为:
Figure BDA0002513223700000031
其中,∈为类别数的倒数;取其中最大值以及对应的索引值:
[value,index]=max[ξm(1),ξm(2),…,ξm(k-1)]
选择标签:对于第m张SAR图像构建标签集所采用的标签数量等于索引值的大小:
sm=index
选择Lm的前sm个标签记为:
Figure BDA0002513223700000032
S6、构建多视角标签集,具体为:
随机取同一目标的多个视角SAR图像分别输入神经网络,记为视角1,2,…,n,重复步骤S4和S5,分别得到n个视角各自对应的标签集,依次为
Figure BDA0002513223700000033
用n个标签集的标签构建多视角标签集,记为:
Figure BDA0002513223700000034
S7、根据获得的多视角标签集基于期望最大化算法,迭代估计预测标签的概率,收敛后取概率最大的预测标签作为最终的标签估计,完成对多视角SAR目标的识别。
本发明的有益效果是:本发明应用卷积神经网络为特征提取器,根据卷积神经网络对测试样本的预测概率合理地选择标签的数量,不再简单地选择单视角预测概率最大的标签为预测类别。考虑到多视角之间的信息补偿特性,随机选择同一目标的多个视角,自适应地构造多视角标签集,运用EM算法求解标签质量,得到更加准确的估计标签,实现了多视角融合,提高了识别率。由于对多视角之间的视角间隔没有限制,本发明可灵活应用于实际场景,尤其是对非协作目标进行目标识别。
附图说明
图1为基于EM的多视角SAR目标识别结构示意图;
图2为基于EM的多视角SAR目标识别流程图;
图3为背景技术方法和本发明方法随视角间隔变大的识别准确率对比图;
图4为背景技术方法和本发明方法视角数量不同时的识别准确率对比图。
具体实施方式
下面结合附图及实施例,详细描述本发明的技术方案:
步骤1.采集原始SAR图像,对采集的原始SAR图像进行预处理:
由雷达获取各目标静态时的原始SAR图像,为去除背景杂波的影响,对SAR图像进行中心切割,将切割后的目标样本集合记为:
X={xi|i=1,2,…,N}
其中,N代表目标样本的总样本数;将目标样本对应的类别标签集合记为:
z={zi|i=1,2,…,N}
其中,zi∈{1,2,…,K},K为目标类别数。在固定的俯仰角下,对目标在不同的方位角下进行观测,得到不同视角下的样本。
步骤2.构建深度卷积神经网络:神经网络共包含4层卷积层和2层全连接层,每个卷积层后都加一层最大池化层;在最后一层全连接层后接softmax层,以得到最后预测标签的概率分布和预测标签;
步骤3.训练卷积神经网络:将步骤1预处理之后的目标样本及对应标签输入步骤2构建的卷积神经网络进行前向传播,将预测标签和真实标签进行对比,并利用交叉熵损失函数衡量预测错误的代价;使用基于梯度下降的后向传播算法对卷积神经网络参数进行更新;迭代进行前后向传播,直至代价函数收敛,保存此时的神经网络参数,得到神经网络模型。
步骤4.采用步骤3中获得的神经网络模型对目标进行识别,并将神经网络模型的预测概率输出;对K类待测目标在不同方位角下观测得到M张SAR图像,将神经网络对第m张SAR图像的预测概率表示为:
Figure BDA0002513223700000041
其中,
Figure BDA0002513223700000042
表示卷积神经网络将第m张SAR图像预测为第k类的概率;
步骤5.根据步骤4得到的概率分布选择合适数量的标签,进一步的,所述步骤5的具体步骤为:
步骤5-1.将步骤4得到的预测概率向量进行降序排列,记为p′m,并将概率对应的标签记为Lm=[l1,l2,…,lK];计算p′m相邻元素的比值,记为:
Figure BDA0002513223700000051
其中,k取2,3,…,K.∈取类别数的倒数;
步骤5-2.取其中最大值以及对应的索引值:
[value,index]=max[ξm(1),ξm(2),…,ξm(k-1)] (3)
步骤5-3.选择合适数量的标签:
对于第m张SAR图像构建标签集所采用的标签数量等于索引值的大小:
sm=index (4)
选择Lm的前sm个标签记为:
Figure BDA0002513223700000052
步骤6.构建多视角标签集,进一步的,所述步骤7的具体步骤为:
步骤6-1.随机取同一目标的多个视角分别输入神经网络,记为视角1,2,…,n,重复步骤4、步骤5,分别得到n个视角各自对应的标签集,依次为
Figure BDA0002513223700000053
步骤6-2.将目标n个视角的标签集并起来,构建多视角标签集,记为:
Figure BDA0002513223700000054
步骤7.根据步骤6中的多视角标签集的信息,通过EM算法,迭代估计预测标签的概率,收敛后取概率最大的预测标签作为最终的标签估计,得到目标识别结果,进一步的,所述步骤7的具体步骤为:
步骤7-1.将多视角标签集L中标签值记为:y=[y1,y2,…,yk,…,yK],并记标签值对应的概率分布为:P=[P1,P2,…,Pk,…,PK],其中,K为标签值总数,Pk表示预测标签为yk的概率:
Pk=P(y=yk) (7)
步骤7-2.定义多视角标签集的可信度:假设多视角标签集L中的正确标签出现的次数是Nt,错误的标签出现的次数是Nf,将多视角标签集的可信度定义为:
Figure BDA0002513223700000061
步骤7-3.根据先验信息对参数进行初始化:
(1)初始化多视角标签集的可信度θ
由于多视角标签集L中标签是否正确是未知的,在本发明中,使用beta分布来控制标签可信度θ的先验,用beta分布概率取最大时的值对标签可信度θ进行初始化:
Figure BDA0002513223700000062
其中,β1,β2,分别代表了多视角标签集中正确标签和错误标签的伪计数。
(2)初始化类别标签预测概率P
假设标签出现次数越多,具有的先验概率越大,根据多视角标签集中标签出现的次数,将预测标签为yk的概率Pk的先验概率定义为:
Figure BDA0002513223700000063
其中,nk是标签yk在多视角标签集中出现的次数;
步骤7-4.定义目标函数;
将待测样本的分类问题转化为预测标签概率分布和标签可信度θ的最大后验概率估
计问题,定义目标函数:
Figure BDA0002513223700000064
其中,第一项是标签可信度θ服从beta分布的概率密度函数且β=[β12],表示为:
Figure BDA0002513223700000065
第二项是在给定的标签可信度θ下的似然函数:
Figure BDA0002513223700000071
步骤7-5.最大化目标函数并求解;
为使判定类别标签尽可能正确,需要对目标函数最大化,由于估计标签y是隐变量无法直接求解,采用期望最大化(EM)算法进行迭代求解,EM算法主要包含两步:期望步(E步)和极大步(M步),具体步骤如下:
步骤7-5-1.E步:在给定的估计标签为yl,标签可信度θ(t-1)的条件下,计算第t次迭代后,真实标签为yk的后验概率为:
Figure BDA0002513223700000072
其中,第二项由伯努利分布产生:
Figure BDA0002513223700000073
其中,
Figure BDA0002513223700000074
真实标签为yk的概率为:
Figure BDA0002513223700000075
步骤7-5-2.M步:将标签可信度θ更新为第t次迭代后的值:
Figure BDA0002513223700000076
不断迭代重复E步和M步,当目标函数的值变化程度小于给定阈值δ时,认为算法收敛:
Figure BDA0002513223700000077
步骤7-5-3.类别标签的估计;
假设算法经过t次迭代后收敛,记收敛后的标签的预测概率分布为:
Figure BDA0002513223700000081
取概率最大对应的标签为待测目标的预测类别标签y*,得到目标识别结果:
[value,index]=max P(t) (21)
y*=yindex(22)
实施例
以此模型对美国运动和静止目标获取与识别MSTAR数据集中的十类目标进行实验,采集该数据集的传感器为高分辨率的聚束式合成孔径雷达,该雷达的分辨率为0.3m×0.3m。工作在X波段,所用的极化方式为HH极化方式。对采集到的数据进行前期处理,从中提取出像素大小为128×128包含各类目标的切片图像。该数据大多是静止车辆的SAR切片图像,包含BMP2、T72、BTR70、2S1、BRDM2、BTR60、D7、T62、ZIL131、ZSU234和T72共十类目标,以俯仰角17°观测的样本数据为训练集,俯仰角15°观测的样本数据为测试集,其中,测试集中BMP2和T72还包含了不同型号。训练集和测试集具体样本数目如表1所示。
表1训练集和测试集具体样本数目
Figure BDA0002513223700000082
为去除背景杂波的影响,将SAR图像大小以中心切割为90×90.训练网络中采取的卷积核大小设置为5×5,6×6,全连接层的神经元个数依次为512和10.初始化参数设置为β1=0.75U,β2=0.25U,U为多视角标签集的标签总个数;收敛阈值δ设为10-6
本发明设计了两组实验来验证提出算法的优越性。第一组实验是对比背景技术方法DSRC和本发明方法在不同视角间隔下的性能,每步视角步长代表间隔1°-2°,本实验采用的是三个视角。如图3所示,当多视角间隔之间的间隔大于15个视角步长时,背景技术方法DSRC的性能开始下降,且视角间隔越大,识别准确率下降的越多;本发明方法的识别率浮动在98%左右且均高于DSRC的识别准确率。第二组实验是将背景技术方法和本发明方法的识别准确率在视角数量不同时进行对比,由于本发明方法选取视角具有随机性,实验结果是取10次实验的平均识别准确率作为结果。如图4所示,本发明方法优于背景技术方法,且视角数量越少,优势越明显;当采用三视角进行实验时,本发明方法的总识别准确率可达到99.13%.综上所述,实验结果证明了本发明有效的利用了多视角之间的信息互补特性,实现了较高的识别准确率。

Claims (2)

1.一种基于期望最大化算法的多视角SAR目标识别方法,其特征在于,包括以下步骤:
S1、采集原始SAR图像,经预处理后获得目标SAR图像样本集合X:
X={xi|i=1,2,…,N}
N代表总样本数,包含了对目标在不同方位角下进行观测,采集得到不同视角的样本;设目标样本的类别标签集合对应为:
z={zi|i=1,2,…,N}
其中,zi∈{1,2,…,K},K为目标类别总数;
S2、构建深度卷积神经网络:神经网络共包含4层卷积层和2层全连接层,每个卷积层后都加一层最大池化层;在最后一层全连接层后接softmax层;
S3、训练卷积神经网络:将目标样本及对应的标签输入构建的卷积神经网络进行前向传播,将预测标签和真实标签进行对比,并利用交叉熵损失函数衡量预测错误的代价;使用基于梯度下降的后向传播算法对卷积神经网络参数进行更新;迭代进行前后向传播,直至代价函数收敛,保存此时的神经网络参数,得到训练好的神经网络模型;
S4、采用训练好的神经网络模型对SAR目标进行识别,对K类待测目标在不同方位角下观测得到M张SAR图像,将神经网络对第m张SAR图像的预测概率表示为:
Figure FDA0002513223690000011
其中,
Figure FDA0002513223690000012
表示卷积神经网络将第m张SAR图像预测为第k类目标的概率,k=1,2,3,…,K;
S5、根据得到的概率分布选择标签,具体为:
将得到的预测概率向量进行降序排列,记为p′m,并将概率对应的标签记为Lm=[l1,l2,…,lk];计算p′m相邻元素的比值,记为:
Figure FDA0002513223690000013
其中,∈为类别数的倒数;取其中最大值以及对应的索引值:
[value,index]=max[ξm(1),ξm(2),…,ξm(k-1)]
对于第m张SAR图像构建标签集所采用的标签数量等于索引值的大小:
sm=index
选择Lm的前sm个标签记为:
Figure FDA0002513223690000021
S6、构建多视角标签集,具体为:
随机取同一目标的多个视角SAR图像分别输入神经网络,记为视角1,2,…,n,重复步骤S4和S5,分别得到n个视角各自对应的标签集,依次为
Figure FDA0002513223690000022
将n个标签集的标签构建多视角标签集,记为:
Figure FDA0002513223690000023
S7、根据获得的多视角标签集,基于期望最大化算法,迭代估计预测标签的概率,收敛后取概率最大的预测标签作为最终的标签估计,完成对多视角SAR目标的识别。
2.根据权利要求1所述的一种基于期望最大化算法的多视角SAR目标识别方法,其特征在于,所述步骤S7的具体方法为:
将多视角标签集L中标签值记为:y=[y1,y2,…,yk,…,yK],并记标签值对应的概率分布为:P=[P1,P2,…,Pk,…,PK],其中,K为标签值总数,Pk表示预测标签为yk的概率:
Pk=P(y=yk)
假设多视角标签集L中的正确标签出现的次数是Nt,错误的标签出现的次数是Nf,将多视角标签集的可信度定义为:
Figure FDA0002513223690000024
根据先验信息对参数进行初始化:
初始化多视角标签集的可信度θ,用beta分布概率取最大时的值对标签可信度θ进行初始化:
Figure FDA0002513223690000025
其中,β1,β2分别代表了多视角标签集中正确标签和错误标签的伪计数;
初始化类别标签预测概率P,假设标签出现次数越多,具有的先验概率越大,根据多视角标签集中标签出现的次数,将Pk的先验概率定义为:
Figure FDA0002513223690000031
其中,nk是标签yk在多视角标签集中出现的次数;
将目标的分类问题转化为预测标签概率分布和标签可信度θ的最大后验概率估计问题,定义目标函数为:
Figure FDA0002513223690000032
其中,第一项是标签可信度θ服从beta分布的概率密度函数且β=[β12],表示为:
Figure FDA0002513223690000033
第二项是在给定的标签可信度θ下的似然函数:
Figure FDA0002513223690000034
最大化目标函数并采用期望最大化算法进行迭代求解:
在给定的估计标签为yl,标签可信度θ(t-1)的条件下,计算第t次迭代后,真实标签为yk的后验概率为:
Figure FDA0002513223690000035
其中,第二项由伯努利分布产生:
Figure FDA0002513223690000036
Figure FDA0002513223690000037
Figure FDA0002513223690000038
真实标签为yk的概率为:
Figure FDA0002513223690000041
将标签可信度θ更新为第t次迭代后的值:
Figure FDA0002513223690000042
重复迭代,当目标函数的值变化程度小于给定阈值δ时,认为算法收敛:
Figure FDA0002513223690000043
假设经过t次迭代后收敛,记收敛后的标签的预测概率分布为:
Figure FDA0002513223690000044
取概率最大对应的标签为预测标签y*
[value,index]=maxP(t)
y*=yindex
从而获得目标的识别结果。
CN202010467695.XA 2020-05-28 2020-05-28 一种基于期望最大化算法的多视角sar目标识别方法 Active CN111626363B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010467695.XA CN111626363B (zh) 2020-05-28 2020-05-28 一种基于期望最大化算法的多视角sar目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010467695.XA CN111626363B (zh) 2020-05-28 2020-05-28 一种基于期望最大化算法的多视角sar目标识别方法

Publications (2)

Publication Number Publication Date
CN111626363A CN111626363A (zh) 2020-09-04
CN111626363B true CN111626363B (zh) 2022-06-07

Family

ID=72260096

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010467695.XA Active CN111626363B (zh) 2020-05-28 2020-05-28 一种基于期望最大化算法的多视角sar目标识别方法

Country Status (1)

Country Link
CN (1) CN111626363B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112749751B (zh) * 2021-01-15 2022-04-12 北京航空航天大学 一种基于概率感知的检测器融合方法及系统
CN114677573B (zh) * 2022-05-30 2022-08-26 上海捷勃特机器人有限公司 视觉分类方法、系统、装置及计算机可读介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009032336A1 (en) * 2007-09-07 2009-03-12 The Johns Hopkins University Sar dosimeter for rf power deposition in mri and methods and systems related thereto
EP2523016A2 (en) * 2011-05-10 2012-11-14 Raytheon Company Target Identification for a Radar Image
CN104134076A (zh) * 2014-07-10 2014-11-05 杭州电子科技大学 基于cs和svm决策级融合的sar图像目标识别方法
CN104318242A (zh) * 2014-10-08 2015-01-28 中国人民解放军空军工程大学 一种高效的svm主动半监督学习算法
CN108038445A (zh) * 2017-12-11 2018-05-15 电子科技大学 一种基于多视角深度学习框架的sar自动目标识别方法
CN109117883A (zh) * 2018-08-13 2019-01-01 上海海洋大学 基于长短时记忆网络的sar影像海冰分类方法及系统
CN109308715A (zh) * 2018-09-19 2019-02-05 电子科技大学 一种基于点特征和线特征结合的光学图像配准方法
CN110781830A (zh) * 2019-10-28 2020-02-11 西安电子科技大学 基于空-时联合卷积的sar序列图像分类方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10732277B2 (en) * 2016-04-29 2020-08-04 The Boeing Company Methods and systems for model based automatic target recognition in SAR data
US10677915B2 (en) * 2018-02-07 2020-06-09 Mitsubishi Electric Research Laboratories, Inc. System and method for fused radar imaging under position ambiguity of antennas

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009032336A1 (en) * 2007-09-07 2009-03-12 The Johns Hopkins University Sar dosimeter for rf power deposition in mri and methods and systems related thereto
EP2523016A2 (en) * 2011-05-10 2012-11-14 Raytheon Company Target Identification for a Radar Image
CN104134076A (zh) * 2014-07-10 2014-11-05 杭州电子科技大学 基于cs和svm决策级融合的sar图像目标识别方法
CN104318242A (zh) * 2014-10-08 2015-01-28 中国人民解放军空军工程大学 一种高效的svm主动半监督学习算法
CN108038445A (zh) * 2017-12-11 2018-05-15 电子科技大学 一种基于多视角深度学习框架的sar自动目标识别方法
CN109117883A (zh) * 2018-08-13 2019-01-01 上海海洋大学 基于长短时记忆网络的sar影像海冰分类方法及系统
CN109308715A (zh) * 2018-09-19 2019-02-05 电子科技大学 一种基于点特征和线特征结合的光学图像配准方法
CN110781830A (zh) * 2019-10-28 2020-02-11 西安电子科技大学 基于空-时联合卷积的sar序列图像分类方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Yukun Zhang 等.Multi-view classification with semi-supervised learning for SAR target recognition.《Signal Processing》.2021, *
Yukun Zhang 等.Multi-view Fusion Based on Expectation Maximization for SAR Target Recognition.《IGARSS 2020-2020IEEE International Geoscience and Remote Sensing Symposium》.2021, *
张盼盼等.一种改进的Capsule及其在SAR图像目标识别中的应用.《红外与激光工程》.2020,(第05期), *
贺丰收等.卷积神经网络在雷达自动目标识别中的研究进展.《电子与信息学报》.2020,(第01期), *
陈凤等.一种雷达HRRP在线自适应目标识别方法.《自然科学进展》.2009,(第12期), *

Also Published As

Publication number Publication date
CN111626363A (zh) 2020-09-04

Similar Documents

Publication Publication Date Title
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
CN111814584B (zh) 基于多中心度量损失的多视角环境下车辆重识别方法
CN109214452B (zh) 基于注意深度双向循环神经网络的hrrp目标识别方法
Mou et al. Deep reinforcement learning for band selection in hyperspectral image classification
CN109767438B (zh) 一种基于动态多目标优化的红外热图像缺陷特征识别方法
Li et al. ST-IRGS: A region-based self-training algorithm applied to hyperspectral image classification and segmentation
CN103489005B (zh) 一种基于多分类器融合的高分辨率遥感影像分类方法
CN107491734B (zh) 基于多核融合与空间Wishart LapSVM的半监督极化SAR图像分类方法
CN111626363B (zh) 一种基于期望最大化算法的多视角sar目标识别方法
CN109598711B (zh) 一种基于特征挖掘和神经网络的热图像缺陷提取方法
Hicks et al. Method for classification of snowflakes based on images by a multi-angle snowflake camera using convolutional neural networks
CN109239670B (zh) 基于结构嵌入和深度神经网络的雷达hrrp识别方法
CN113408398B (zh) 基于通道注意力及概率上采样的遥感图像云检测方法
Chehresa et al. Optimum features selection for oil spill detection in SAR image
Leinonen et al. Unsupervised classification of snowflake images using a generative adversarial network and K-medoids classification
Orescanin et al. Bayesian deep learning for passive microwave precipitation type detection
CN115908924A (zh) 一种基于多分类器的小样本高光谱图像语义分割方法及系统
CN116580322A (zh) 一种地面背景下无人机红外小目标检测方法
Lee et al. Generating hard examples for pixel-wise classification
CN111291818A (zh) 一种面向云掩膜的非均匀类别的样本均衡化方法
Qadir et al. Active learning with Bayesian CNN using the BALD method for Hyperspectral Image Classification
CN107529647B (zh) 一种基于多层无监督稀疏学习网络的云图云量计算方法
CN113129336A (zh) 一种端到端多车辆跟踪方法、系统及计算机可读介质
CN115345322B (zh) 一种基于层级化元迁移的小样本雷达目标识别方法
CN109993050B (zh) 一种合成孔径雷达图像识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant