CN112990342B - 一种半监督sar目标识别方法 - Google Patents

一种半监督sar目标识别方法 Download PDF

Info

Publication number
CN112990342B
CN112990342B CN202110378654.8A CN202110378654A CN112990342B CN 112990342 B CN112990342 B CN 112990342B CN 202110378654 A CN202110378654 A CN 202110378654A CN 112990342 B CN112990342 B CN 112990342B
Authority
CN
China
Prior art keywords
training set
semi
data
training
teacher
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110378654.8A
Other languages
English (en)
Other versions
CN112990342A (zh
Inventor
张新征
伍志林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN202110378654.8A priority Critical patent/CN112990342B/zh
Publication of CN112990342A publication Critical patent/CN112990342A/zh
Application granted granted Critical
Publication of CN112990342B publication Critical patent/CN112990342B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种半监督SAR目标识别方法,包括:S1、获取原始训练集;S2、对原始训练集进行方位角扩充,得到扩充训练集;S3、利用扩充训练集训练CWGAN‑GP;S4、利用训练后的CWGAN‑GP生成新的训练集;S5、将新的训练集与原始训练集混合得到增强训练集;S6、利用增强训练集训练Mean‑Teacher半监督分类器直至模型收敛;S7、将待识别SAR图像输入训练后的Mean‑Teacher半监督分类器,得到识别结果。不同于一般的基于生成对抗网络数据增强方法,本发明结合了SAR目标数据的特点,在半监督条件下有标签数据缺失的情况下,实现了对SAR目标图像类别标签的扩充,实现了对数据集中缺失的方位角信息的补足,从而提高了训练集的特征丰富度,以训练得到具有更好性能的分类器,最终提高识别精度。

Description

一种半监督SAR目标识别方法
技术领域
本发明涉及SAR目标图像分类领域,具体涉及一种半监督SAR目标识别方法。
背景技术
SAR是一种全天时、全天候、高分辨率的微波遥感探测平台,并且其具有很强的穿透性,可以透过植被或地表来探测目标的信息,已被广泛应用于例如军事监测、地质勘探以及国防等军事和民用的各个领域。
基于深度学习的方法在图像识别、自然语言处理、语言识别等众多领域都有普遍的应用。深度学习应用于SAR图像目标识别领域的时间相对较晚。由于成像机理,SAR图像易受到相干斑噪声的影响,从而导致图像中产生阴影以及成像时方位角不同,使得基于深度学习方法对SAR图像目标的识别精度难以达到与对光学图像相当的水平。有研究人员提出了一种可直接从训练样本中学习判别特征的深度人工神经网络结构用于SAR目标识别。有研究人员利用卷积神经网络对SAR图像进行识别,取得了较好的实验结果,但在训练过程中进行了上万次的迭代。有研究人员将卷积神经网络引入到SAR ATR中,并提出了一种全卷积网络(All-Convolutional Networks,A-ConvNets)用于解决过拟合问题。实际中,训练集往往只包含少量有标签数据,因而是一个半监督学习问题。当训练集中有标签数据不足时,现有的这些目标识别算法就会存在很多局限,导致算法对目标的识别精度较低。
综上所述,如何在样本数据难以获取的情况下,提高半监督SAR目标识别精度,成为了本领域技术人员急需解决的问题。
发明内容
针对上述现有技术的不足,本发明实际解决的问题包括:如何在样本数据难以获取的情况下,提高半监督SAR目标识别精度。
为了解决上述技术问题,本发明采用了如下的技术方案:
一种半监督SAR目标识别方法,包括:
S1、获取原始训练集;
S2、对原始训练集进行方位角扩充,得到扩充训练集;
S3、利用扩充训练集训练CWGAN-GP;
S4、利用训练后的CWGAN-GP生成新的训练集;
S5、将新的训练集与原始训练集混合得到增强训练集;
S6、利用增强训练集训练Mean-Teacher半监督分类器直至模型收敛;
S7、将待识别SAR图像输入训练后的Mean-Teacher半监督分类器,得到识别结果。
优选地,原始训练集为 表示类别c的第i个样本,θi为/>的方位角,扩充的方位角为θnew,步骤S2包括:
S201、选择方位角与θnew最接近的两个样本,设为与/>且有θ1<θnew<θ2
S202、按下式得到θnew对应的扩充的样本
式中,Rotθ(x)和CRotθ(x)分别表示将SAR图像x顺时针旋转θ度和逆时针旋转θ度,Δθ表示方位角的局部变化范围。
优选地,所述Mean-Teacher半监督分类器的代价损失函数FL(pt)如下:
式中,pt表示样本属于类别t的概率值,αt为类别t的平衡因子大小,γ为聚焦参数,C表示样本类别个数
综上所述,本发明与现有技术相比具有以下技术效果:
(1)基于SAR目标图像本身的特点,结合生成对抗网络强大的数据生成能力,提出基于CWGAN-GP的SAR图像数据增强方法。不同于一般的基于生成对抗网络数据增强方法,本发明结合了SAR目标数据的特点,在半监督条件下有标签数据缺失的情况下,还考虑了SAR目标方位角缺失对分类器性能的影响。本发明能够在实现对SAR目标图像类别标签扩充的情况下,还能实现对数据集中缺失的方位角信息进行补足,从而提高训练集的特征丰富度,以训练得到具有更好性能的分类器。
(2)利用Mean-Teacher半监督分类模型,实现了SAR目标图像的半监督分类。Mean-Teacher分类器由学生模型和老师模型组成,能够同时利用有标签数据和无标签数据,并且能够在学生模型的基础上根据模型参数的滑动平均得到分类性能更优的老师模型。
(3)将Mean-Teacher模型与Focal loss相结合,实现了在线难例挖掘策略以及缓解类别非平衡问题,实现分类器性能的进一步提升。
附图说明
为了使发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步的详细描述,其中:
图1为本发明公开的一种半监督SAR目标识别方法的一种具体实施方式的流程图;
图2为CWGAN-GP生成网络采用的网络结构图;
图3为CWGAN-GP鉴别网络采用的网络结构图;
图4为Mean-Teacher分类模型所采用的网络结构图;
图5为基于CWGAN-GP的SAR目标数据增强方法与CDCGAN生成图像的质量对比图;
图6为不同的生成图像数量对CNNs的分类性能影响示意图;
图7为本发明分类性能与其他分类器分类性能对比图。
具体实施方式
下面结合附图对本发明作进一步的详细说明。
如图1所示,本发明公开了一种半监督SAR目标识别方法,包括:
S1、获取原始训练集;
S2、对原始训练集进行方位角扩充,得到扩充训练集;
S3、利用扩充训练集训练CWGAN-GP;
生成对抗网络作为新提出的生成模型,使用了对抗训练的机制来训练两个神经网络,达到对真实数据的有效建模。原始的GAN并不成熟,存在许多问题,其中梯度消失和模式崩溃问题造成了GAN难以训练。CGAN(Conditional GAN)中为GAN的输入添加了额外的信息,这个额外信息可以是标签信息或是其他辅助信息。DCGAN(Deep Convolutional GAN)的提出对GAN的发展有着极大地推动作用,它将卷积神经网络与GAN结合起来,保证了生成图片的质量和多样性。Arjovsky等人提出了WGAN(Wasserstein GAN),使用Eearth-Mover代替了原始GAN模型中的Jensen-Shannon散度来度量真实样本和生成样本分布之间的距离,同时用一个评价函数f来对应GAN的鉴别网络。WGAN-GP(Wasserstein GAN with GradientPenalty)是针对WGAN为满足Lipschitz连续性条件而进行权重剪枝造成的问题而提出了一种改进模型。鉴于CGAN具有定向生成的能力,而WGAN-GP能在解决原始GAN的模式崩溃以及训练不稳定问题。因而通过像WGAN-GP中添加额外辅助信息以构成CWGAN-GP,从而实现数据定向生成同时兼具训练稳定的优点。
本发明中,基于SAR目标图像本身的特点,结合生成对抗网络强大的数据生成能力,提出基于CWGAN-GP的SAR图像数据增强方法。
在对SAR目标图像扩充方位角的基础上,将方位角扩充后的训练集用于CWGAN-GP网络的训练。生成对抗网络由鉴别网络与生成网络组成,对于CWGAN-GP鉴别网络中,联合隐含表示中将真实数据分布pr和生成数据分布pg与y联系起来;在生成网络中,以相同的表示将y与p(z)联系起来。用公式表示,CWGAN-GP的目标函数可写成如下形式:
其中表示生成网络生成图像,x表示真实图像数据,λ表示惩罚项系数,/>表示真实图像与生成图像之间的插值图像,用公式表示为:
且有ε~U[0,1]。网络训练完成后,可以利用生成网络来定向地生成有标签的各类SAR目标图像,且生成目标是方位角充足的。将生成的目标图像与原始训练集混合,即可实现SAR目标数据增强。
S4、利用训练后的CWGAN-GP生成新的训练集;
S5、将新的训练集与原始训练集混合得到增强训练集;
S6、利用增强训练集训练Mean-Teacher半监督分类器直至模型收敛;
在半监督分类任务中,给定有标签数据集以及无标签数据集xi表示单个数据样本,i=1,2,...,n,且有有标签数据集大小l和无标签数据集大小u满足l+u=n。对于有标签数据,学生模型预测数据的类别标签的分类代价损失为:
Lcross-entropy(xi,yi,δ)=yilogf(xi,δ,η)
其中,η表示数据输入时添加的噪声项,δ表示学生模型的参数,f(x,δ)表示学生模型的输出。
对于一致性损失,对学生模型和老师模型分别添加的输入噪声分别为η和η′,用δ′表示老师模型的参数,f(x,δ′)表示老师模型的输出。从而,定义学生模型和老师模型之间的一致性损失为:
J(δ)=Ex,η,η′[||f(x,δ′,η′)-f(x,δ,η)||2]
在实际中,可以使用均方误差函数作为无标签数据的一致性损失,使用交叉熵函数作为有标签数据的一致性损失,从而对于无标签数据有:
Lcon1(δ)=||f(xi,δ′,η′)-f(xi,δ,η)||2
对于有标签数据,则有:
Lcon2(δ)=f(xi,δ,η)logf(xi,δ′,η′)
最后,得到学生模型的总损失函数为:
其中λ1和λ2为超参数,用于控制一致性损失项对于总损失的贡献。在模型训练时,定义δt′为训练步数为t时与参数δ对应的EMA参数值,即
δt′=αδt-1+(1-α)δ
其中α表示平滑因子。
S7、将待识别SAR图像输入训练后的Mean-Teacher半监督分类器,得到识别结果。
本发明所提出的半监督SAR目标识别算法如图1所示。首先,对利用基于SAR目标邻域方位角的数据合成方法对数据进行方位角扩充,得到方位角扩充后的训练集。然后,使用扩充后的训练集对CWGAN-GP进行训练,生成网络与鉴别网络的结构分别如图2和图3所示。待CWGAN-GP训练完成后,使用生成网络生成一定数量的各类SAR目标图像。进而,将生成的SAR目标数据集与原始训练集混合,得到增强后的新训练集。其次,将增强后的新训练集用于训练改进的Mean-Teacher半监督分类器直至模型收敛,模型结构如图4。最后,输入测试集到训练完成的Mean-Teacher分类器,得到分类结果。
图5给出了本发明实例生成的图像以及使用CDCGAN生成的图像同各类原始图像之间灰度直方图和方向梯度直方图的相似度对比,图5(a)为灰度直方图相似度对比,图5(b)为x方向梯度直方图相似度对比,图5(c)为y方向梯度直方图相似度对比。从图中可以看出,本发明中采取的图像生成方法所生成的SAR目标图像与原始图像间的相似度较一般的CDCGAN网络生成图像与原始图像间的相似度更高。
图6中给出了在原始数据集只包含100个有标签数据的条件下,生成不同数量的图像用于训练CNNs所产生的影响。在图中可以看到,利用本发明所生成的图像训练出的CNNs的分类性能始终优于在原始数据集下训练的CNNs性能。此外,虽然CDCGAN网络生成的图像与原始图像间的相似度也比较高,然而将其生成的图像加入到训练集中训练时,反而会使得CNNs分类器的性能恶化。因而可以证明,该发明生成的图像数据对于SAR目标分类器的训练有促进作用。
图7中给出了在训练集包含不同数量的有标签图像条件下,本发明以及其他识别算法的识别性能对比。从图中可见,本发明的识别性能远远优于现有的其他半监督SAR目标分类器,在不同半监督条件下,本发明均可保持较优的识别性能,实现对SAR目标的准确分类。
根据SAR图像的成像原理,同一目标的散射特性虽然会随方位角的变化而发生改变,但是当方位角在一个较小的局部区间内变化时,SAR目标图像的散射结构却具有一定的稳定性。基于这一特性,可以在小范围的局部方位角区间内使用旋转操作进行数据增强,从而补足一部分原始数据集中缺失的方位角特征。当原始数据集中的样本数量非常少的情况下,仅通过简单的局部区间旋转操作无法将数据集中缺失的目标方位角特征补充至全方位角。在这种情况下需要使用方位角合成的操作来实现数据增强的全方位角覆盖。具体实施时,原始训练集为 表示类别c的第i个样本,θi为/>的方位角,扩充的方位角为θnew,步骤S2包括:
S201、选择方位角与θnew最接近的两个样本,设为与/>且有θ1<θnew<θ2
S202、按下式得到θnew对应的扩充的样本
式中,Rotθ(x)和CRotθ(x)分别表示将SAR图像x顺时针旋转θ度和逆时针旋转θ度,Δθ表示方位角的局部变化范围。
数据非平衡现象广泛存在于生活中,而所谓非平衡分类问题是指训练样本中的各类数量分布不平衡的分类问题。当传统机器学习分类方法应用于非平衡数据集时,分类器为了提高分类的整体精度,会将分类边界偏向少数样本类,导致多数类分类空间增大,少数类样本难以被识别出来。在分类任务中,难例挖掘(Hard Example Mining,HEM)是可以提高类间可鉴别度的一种常见方法。这一技术通过在分类器训练阶段添加难例,来使分类器学习到一个更好的决策边界。所谓难例,就是特征相似然而属于不同类别的样本,具体表现为代价损失大且难以训练。为解决非平衡分类和难例挖掘的问题,Lin T Y等人对交叉熵损失函数进行了改进从而提出了Focal loss(FL)。Focal loss是一种交叉熵损失,它根据分类器的分类误差来权衡每个样本对于损失值的贡献。其主要思想是,如果样本被分类器正确分类,那么该样本对损失值的贡献度应该较小,反之,被错误分类的样本对损失贡献度应该相对较大。通过这种训练策略,Focal loss能够隐式地将损失集中于那些难以训练的类别中,同时缓解类别不平衡的问题。
Focal loss(FL)是一种交叉熵损失,它根据分类器的分类误差来权衡每个样本对于损失值的贡献。对于二分类问题,FL可定义为:
其中,y∈{0,1}是样本的真实类别标签,pt表示样本类别标签为y=1的概率,γ≥0是用于控制调节因子(1-pt)γ的聚焦参数,主要作用是解决难易样本不平衡的问题。当γ=0时,FL退化为一般的交叉熵损失。为了缓解类别不平衡的问题,FL中引入了平衡因子αt来控制不同类别的样本对损失的贡献,从而有
在分类任务中,分类器对每一个样本给出其属于每一类的概率值大小,即有0≤pt≤1。对于简单的易分样本,通常对应的pt值比较大,因而简单样本的调节因子(1-pt)γ更小,对损失函数的贡献相对困难样本更小,从而实现在线难例挖掘。对于类别不平衡问题,对每一类样本给出不同的αt,通常根据训练集中不同类别样本的比例来计算平衡因子,进而缓解训练时的非平衡问题。
具体实施时,所述Mean-Teacher半监督分类器的代价损失函数FL(pt)如下:
式中,pt表示样本属于类别t的概率值,αt为类别t的平衡因子大小,γ为聚焦参数,C表示样本类别个数。
将多分类的FL作为Mean-Teacher模型的代价损失函数,即可实现Mean-Teacher模型框架下的难例挖掘以及非平衡分类。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管通过参照本发明的优选实施例已经对本发明进行了描述,但本领域的普通技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离所附权利要求书所限定的本发明的精神和范围。

Claims (1)

1.一种半监督SAR目标识别方法,其特征在于,包括:
S1、获取原始训练集;
S2、对原始训练集进行方位角扩充,得到扩充训练集;
S3、利用扩充训练集训练CWGAN-GP;
S4、利用训练后的CWGAN-GP生成新的训练集;
S5、将新的训练集与原始训练集混合得到增强训练集;
S6、利用增强训练集训练Mean-Teacher半监督分类器直至模型收敛;
S7、将待识别SAR图像输入训练后的Mean-Teacher半监督分类器,得到识别结果;
其中,原始训练集为 表示类别c的第i个样本,θi为/>的方位角,扩充的方位角为θnew,步骤S2包括:
S201、选择方位角与θnew最接近的两个样本,设为与/>且有θ1<θnew<θ2
S202、按下式得到θnew对应的扩充的样本
式中,Rotθ(x)和CRotθ(x)分别表示将SAR图像x顺时针旋转θ度和逆时针旋转θ度,Δθ表示方位角的局部变化范围;
在半监督分类任务中,给定有标签数据集以及无标签数据集/>xi表示单个数据样本,i=1,2,...,n,且有有标签数据集大小l和无标签数据集大小u满足l+u=n;对于有标签数据,学生模型预测数据的类别标签的分类代价损失为:
Lcross-entropy(xi,yi,δ)=yilog f(xi,δ,η)
其中,η表示数据输入时添加的噪声项,δ表示学生模型的参数,f(x,δ)表示学生模型的输出;
对于一致性损失,对学生模型和老师模型分别添加的输入噪声分别为η和η′,用δ′表示老师模型的参数,f(x,δ′)表示老师模型的输出;从而,定义学生模型和老师模型之间的一致性损失为:
J(δ)=Ex,η,η′[||f(x,δ′,η′)-f(x,δ,η)||2]
使用均方误差函数作为无标签数据的一致性损失,使用交叉熵函数作为有标签数据的一致性损失,从而对于无标签数据有:
Lcon1(δ)=||f(xi,δ′,η′)-f(xi,δ,η)||2
对于有标签数据,则有:
Lcon2(δ)=f(xi,δ,η)logf(xi,δ′,η′)
最后,得到学生模型的总损失函数为:
其中λ1和λ2为超参数,用于控制一致性损失项对于总损失的贡献;在模型训练时,定义δ′t训练步数为t时与参数δ对应的EMA参数值,即
δ′t=αδ′t-1+(1-α)δ
其中α表示平滑因子;
所述Mean-Teacher半监督分类器的代价损失函数FL(pt)如下:
式中,pt表示样本属于类别t的概率值,αt为类别t的平衡因子大小,γ为聚焦参数,C表示样本类别个数。
CN202110378654.8A 2021-04-08 2021-04-08 一种半监督sar目标识别方法 Active CN112990342B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110378654.8A CN112990342B (zh) 2021-04-08 2021-04-08 一种半监督sar目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110378654.8A CN112990342B (zh) 2021-04-08 2021-04-08 一种半监督sar目标识别方法

Publications (2)

Publication Number Publication Date
CN112990342A CN112990342A (zh) 2021-06-18
CN112990342B true CN112990342B (zh) 2023-09-19

Family

ID=76339466

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110378654.8A Active CN112990342B (zh) 2021-04-08 2021-04-08 一种半监督sar目标识别方法

Country Status (1)

Country Link
CN (1) CN112990342B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113553956A (zh) * 2021-07-26 2021-10-26 长沙理工大学 一种基于对抗生成神经网络的单色釉瓷器自动识别方法
CN113486978B (zh) * 2021-07-26 2024-03-05 北京达佳互联信息技术有限公司 文本分类模型的训练方法、装置、电子设备及存储介质
CN113688915B (zh) * 2021-08-24 2023-07-25 北京玖安天下科技有限公司 一种面向内容安全的困难样本挖掘方法及装置
CN113869333B (zh) * 2021-11-29 2022-03-25 山东力聚机器人科技股份有限公司 基于半监督关系度量网络的图像识别方法及装置
CN114399683A (zh) * 2022-01-18 2022-04-26 南京甄视智能科技有限公司 一种基于改进yolov5的端到端半监督目标检测方法
CN115277189B (zh) * 2022-07-27 2023-08-15 中国人民解放军海军航空大学 基于生成式对抗网络的无监督式入侵流量检测识别方法
CN117076871B (zh) * 2023-10-16 2023-12-29 南京邮电大学 一种基于不平衡半监督对抗训练框架的电池故障分类方法
CN117671508B (zh) * 2024-02-01 2024-04-05 中国水利水电第七工程局有限公司 基于sar图像的高陡边坡滑坡检测方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106022383A (zh) * 2016-05-26 2016-10-12 重庆大学 基于方位角相关动态字典稀疏表示的sar目标识别方法
CN108399625A (zh) * 2018-02-28 2018-08-14 电子科技大学 一种基于深度卷积生成对抗网络的sar图像定向生成方法
CN109145832A (zh) * 2018-08-27 2019-01-04 大连理工大学 基于dsfnn与非局部决策的极化sar图像半监督分类方法
CN110097103A (zh) * 2019-04-22 2019-08-06 西安电子科技大学 基于生成对抗网络的半监督图像分类方法
CN110555811A (zh) * 2019-07-02 2019-12-10 五邑大学 一种sar图像数据增强方法、装置及存储介质
CN111027439A (zh) * 2019-12-03 2020-04-17 西北工业大学 基于辅助分类生成对抗网络的sar目标识别方法
CN111832431A (zh) * 2020-06-23 2020-10-27 杭州电子科技大学 一种基于cnn的情绪脑电分类方法
CN111914728A (zh) * 2020-07-28 2020-11-10 河海大学 高光谱遥感影像半监督分类方法、装置及存储介质
CN112101249A (zh) * 2020-09-18 2020-12-18 电子科技大学 一种基于深度卷积记忆网络的sar目标类型识别方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472627B (zh) * 2019-07-02 2022-11-08 五邑大学 一种端到端的sar图像识别方法、装置及存储介质
US11373064B2 (en) * 2019-07-22 2022-06-28 Raytheon Company Cross-modality automatic target recognition

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106022383A (zh) * 2016-05-26 2016-10-12 重庆大学 基于方位角相关动态字典稀疏表示的sar目标识别方法
CN108399625A (zh) * 2018-02-28 2018-08-14 电子科技大学 一种基于深度卷积生成对抗网络的sar图像定向生成方法
CN109145832A (zh) * 2018-08-27 2019-01-04 大连理工大学 基于dsfnn与非局部决策的极化sar图像半监督分类方法
CN110097103A (zh) * 2019-04-22 2019-08-06 西安电子科技大学 基于生成对抗网络的半监督图像分类方法
CN110555811A (zh) * 2019-07-02 2019-12-10 五邑大学 一种sar图像数据增强方法、装置及存储介质
CN111027439A (zh) * 2019-12-03 2020-04-17 西北工业大学 基于辅助分类生成对抗网络的sar目标识别方法
CN111832431A (zh) * 2020-06-23 2020-10-27 杭州电子科技大学 一种基于cnn的情绪脑电分类方法
CN111914728A (zh) * 2020-07-28 2020-11-10 河海大学 高光谱遥感影像半监督分类方法、装置及存储介质
CN112101249A (zh) * 2020-09-18 2020-12-18 电子科技大学 一种基于深度卷积记忆网络的sar目标类型识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A Semi-Supervised Synthetic Aperture Radar (SAR) Image Recognition Algorithm Based on an Attention Mechanism and Bias-Variance Decomposition;Fei Gao等;IEEE Access;第7卷;第108617-108632页 *
SAR图像数据分集与扩容方法研究;张明芯;中国优秀硕士学位论文全文数据库 信息科技辑(第12期);第I136-333页 *
基于多特征-多表示融合的SAR图像目标识别;张新征等;雷达学报;第6卷(第5期);第492-502页 *
基于深度学习的雷达图像目标识别研究进展;潘宗序等;中国科学:信息科学(第12期);第98-111页 *

Also Published As

Publication number Publication date
CN112990342A (zh) 2021-06-18

Similar Documents

Publication Publication Date Title
CN112990342B (zh) 一种半监督sar目标识别方法
CN107194336B (zh) 基于半监督深度距离度量网络的极化sar图像分类方法
CN108038445B (zh) 一种基于多视角深度学习框架的sar自动目标识别方法
Liu et al. Ssd: Single shot multibox detector
CN111583263B (zh) 一种基于联合动态图卷积的点云分割方法
Lv et al. Novel adaptive region spectral-spatial features for land cover classification with high spatial resolution remotely sensed imagery
CN111914728B (zh) 高光谱遥感影像半监督分类方法、装置及存储介质
Gupta et al. Object based information extraction from high resolution satellite imagery using eCognition
CN108492298B (zh) 基于生成对抗网络的多光谱图像变化检测方法
CN111898685B (zh) 一种基于长尾分布数据集的目标检测方法
CN109766936A (zh) 基于信息传递和注意力机制的图像变化检测方法
CN110555841A (zh) 基于自注意图像融合和dec的sar图像变化检测方法
CN104850867A (zh) 一种基于直觉模糊c均值聚类的目标识别方法
CN111461067B (zh) 基于先验知识映射及修正的零样本遥感影像场景识别方法
Liang et al. Review of target detection technology based on deep learning
Zhou et al. Building segmentation from airborne VHR images using Mask R-CNN
CN115049841A (zh) 基于深度无监督多步对抗域自适应的高分辨sar图像地物要素提取方法
Zhu et al. Spatial hierarchy perception and hard samples metric learning for high-resolution remote sensing image object detection
CN113420593B (zh) 基于混合推理网络的小样本sar自动目标识别方法
CN114549909A (zh) 一种基于自适应阈值的伪标签遥感图像场景分类方法
Qin et al. Distance Constraints-based Generative Adversarial Networks for Hyperspectral Image Classification
Qian et al. An effective pest detection method with automatic data augmentation strategy in the agricultural field
CN105512675A (zh) 一种基于记忆性多点交叉引力搜索的特征选择方法
CN116912595A (zh) 一种基于对比学习的跨域多模态遥感图像分类方法
Wang et al. Universal adversarial perturbation for remote sensing images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant