CN110245711B - 基于角度旋转生成网络的sar目标识别方法 - Google Patents

基于角度旋转生成网络的sar目标识别方法 Download PDF

Info

Publication number
CN110245711B
CN110245711B CN201910527819.6A CN201910527819A CN110245711B CN 110245711 B CN110245711 B CN 110245711B CN 201910527819 A CN201910527819 A CN 201910527819A CN 110245711 B CN110245711 B CN 110245711B
Authority
CN
China
Prior art keywords
target
layer
input data
size
phi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910527819.6A
Other languages
English (en)
Other versions
CN110245711A (zh
Inventor
王英华
王聪
孙媛爽
刘宏伟
王宁
王剑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201910527819.6A priority Critical patent/CN110245711B/zh
Publication of CN110245711A publication Critical patent/CN110245711A/zh
Application granted granted Critical
Publication of CN110245711B publication Critical patent/CN110245711B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于角度旋转生成网络ARGN的SAR目标识别方法,主要解决现有技术在训练样本有限情况下目标识别率较低的问题。其实现方案是:1)对给定的数据集进行预处理,获取新的源任务训练样本和目标任务样本;2)构建角度旋转生成网络ARGN;3)用源任务训练样本对ARGN网络进行训练,得到训练好的网络模型;4)用训练好的模型提取目标任务训练集、测试集的特征;5)用训练集的特征训练SVM分类器;6)将测试集的特征输入到训练好的SVM分类器中,得到测试集的分类结果。本发明通过角度旋转生成网络ARGN能够学习目标的姿态信息及位姿差异,提高了目标的识别率,可用于在训练样本有限情况下的目标识别。

Description

基于角度旋转生成网络的SAR目标识别方法
技术领域
本发明属于雷达图像处理领域,主要涉及SAR图像目标识别方法,可用于在训练样本有限情况下的目标识别。
背景技术
合成孔径雷达SAR具有全天时、全天候及穿透力强的特点,被广泛应用于军事侦察和遥感领域。近年来SAR图像的自动目标识别技术SAR ATR发展迅速,基本的SAR图像自动目标识别系统SAR ATR一般包括目标检测、目标鉴别和目标识别三个阶段。目标识别用于区分目标的类别,作为自动目标识别系统的最后一环,具有重要研究意义。
合成孔径雷达SAR的识别研究已经取得了很多的成果。然而,由于现实情况的限制,我们很难得到大量的训练样本。由于训练样本较少,导致了大量目标姿态信息的缺失,这严重影响了目标识别的性能。为了解决这一问题,J.I.Park和K.T.Kim等人设计了一种改进的极坐标映射分类器M-PMC,该方法在训练数据有限的情况下,具有良好的识别性能。但是,该方法中用于分类的特征需要手工设计,严重增加了设计者的负担。GangGang Dong等人还提出了一种基于Monogenic Signal稀疏表示的方法,然而,目标的识别率受有限训练样本的影响较大。此外,用于解决有限样本问题的算法还包括深度卷积高速单元网络、数据扩充等,但是这些算法仍没有从根本上解决有限样本问题。
迁移学习也常被应用于有限样本问题下的目标识别,将在源域中学到的知识迁移到目标域中。Huang等人提出将基于深度卷积神经网络的迁移学习方法应用于SAR目标识别中,使从大量未标记的SAR场景图像中学习到的知识能够转移到有标记的SAR目标数据中。但是这要求未标记的场景与有标记的样本有很强的相关性,且在目标域上的识别率仍有待提高。
发明内容
本发明的目的在于针对上述现有技术的不足,借鉴迁移学习的思想,提出一种基于角度旋转生成网络的目标识别方法,以提高SAR目标识别的精度。
本发明的技术思路是:通过角度旋转生成网络ARGN学习目标的姿态信息及位姿差异,以构建包含完整姿态信息的特征表示。将包含目标完整姿态信息的数据集作为源域训练整个网络,并将从源任务中学到的知识转移到目标任务中。在缺少姿态信息的目标域中,利用在源域中已训练好的网络提取目标域数据集的特征,将其作为支持向量机SVM分类器的输入,完成分类任务。在生成任务中,将提取到的目标域数据集的特征进行特征变换,利用变换后的特征进行图像重构,生成任意姿态角下的目标。其实现步骤包括如下:
(1)实验数据准备:
将运动静止目标MSTAR数据集的图像分为源域数据集和目标域数据集,将源域数据集中大小为128×128的图像裁剪成64×64大小;
对裁剪后的图像进行能量归一化,再将目标类别相同的图像组合成两两一组的数据对x1,x2,计算数据对x1,x2的目标方位角的角度差,并对其进行归一化,得到归一化后的角度差γ;
用数据对x1,x2及角度差γ作为源任务的训练样本;
将目标域数据集中的图像同样裁剪成64×64大小,并对其进行能量归一化,得到目标任务的样本;
(2)构建角度旋转生成网络ARGN:
2a)设置特征提取模块,用于对输入图像x1做特征提取,得到目标的特征提取结果φ(x1);
2b)设置第一数据重构模块,用于对目标特征φ(x1)做数据重构,得到关于样本x1的生成图像δ(φ(x1));
2c)设置特征变换模块,用于对目标特征φ(x1)、角度差γ做特征变换,得到目标的变换特征φ(x1)+γR(φ(x1)),其中R由两层1×1卷积层构成;
2d)设置第二数据重构模块,用于对目标的变换特征φ(x1)+γR(φ(x1))做数据重构,得到与目标角度差为γ的图像,输出结果表示为δ(φ(x1)+γR(φ(x1)));
将以上四个功能模块依次串联,构成角度旋转生成网络ARGN;
(3)用源任务的训练样本对角度旋转生成网络ARGN进行训练,得到训练好的角度旋转生成网络ARGN模型;
(4)将目标任务的样本再分为训练集和测试集,利用已经训练好的角度旋转生成网络ARGN模型中的特征提取模块提取训练集、测试集的目标特征,再将提取到的训练集的目标特征送入到支持向量机SVM分类器中,训练分类器模型,得到训练好的支持向量机SVM分类器;
(5)将提取的测试集的特征输入到已训练好的支持向量机SVM分类器中,得到测试集的分类结果。
本发明与现有技术相比具有以下优点:
1)本发明利用训练好的角度旋转生成网络ARGN中的特征提取模块提取目标特征,不需要人工设计目标特征,大大减少了人力的负担。
2)本发明借鉴了迁移学习的思想,利用具有完整姿态信息的源域数据集训练角度旋转生成网络ARGN,使目标的位姿信息被包含在目标特征的深度表征中,特别是在有限样本情况下,目标域缺乏姿态信息,可将在源任务中学到的知识迁移到目标任务中,使目标任务中的特征表示能够包含完整的目标姿态信息。
实验结果表明,本发明能够在有限样本的目标任务中,提高生成图像的质量,而且提高了SAR目标识别的准确率。
附图说明
图1为本发明的实现流程图;
图2为本发明中的网络框架图;
图3为本发明中特征变换模块的结构图;
图4为本发明的仿真结果图。
具体实施方式
下面结合附图对本发明的实施方案和效果进行详细说明。
参照图1,本实施的实现步骤如下:
步骤1,对实验数据进行预处理。
1a)将运动静止目标MSTAR数据集的图像分为源域数据集和目标域数据集,将源域数据集中大小为128×128的图像裁剪成大小为64×64的图像;
1b)对裁剪后的图像进行能量归一化,再将目标类别相同的图像组合成两两一组的数据对x1,x2,计算数据对x1,x2的目标方位角的角度差,并对其进行归一化,得到归一化后的角度差γ:
Figure BDA0002098783950000041
其中zx1,zx2分别为数据对x1,x2的目标方位角,360为目标方位角的最大值。
1c)用数据对x1,x2及角度差γ作为源任务的训练样本;
1d)将目标域数据集中的图像同样裁剪成64×64大小,并对其进行能量归一化,得到目标任务的样本。
步骤2,构建角度旋转生成网络ARGN。
参照图2,网络ARGN的具体框架如下:
2a)设置特征提取模块,用于对输入图像x1做特征提取,得到目标的特征提取结果φ(x1):
该特征提取模块由四层卷积层组成,即第一卷积层L1、第二卷积层L2、第三卷积层L3、第四卷积层L4,其中:
第一层卷积层L1,输入图像数据x1,尺寸大小为64×64×1,其卷积核KL1的窗口大小为5×5,滑动步长SL1为2,填充参数P=2,对输入数据做卷积运算,输出16个特征图l1,l1尺寸大小为32×32×16;
第二层卷积层L2,输入数据为l1,其卷积核KL2的窗口大小为5×5,滑动步长SL2为2,填充参数P=2,对输入数据做卷积运算,输出32个特征图l2,l2尺寸大小为16×16×32;
第三层卷积层L3,输入数据为l2,其卷积核KL3的窗口大小为5×5,滑动步长SL3为2,填充参数P=2,对输入数据做卷积运算,输出64个特征图l3,l3尺寸大小为8×8×64;
第四层卷积层L4,输入数据为l3,其卷积核KL4的窗口大小为5×5,滑动步长SL4为2,填充参数P=2,对输入数据做卷积运算,输出128个特征图l4,l4尺寸大小为4×4×128,得到目标特征φ(x1);
2b)设置第一数据重构模块,用于对目标特征φ(x1)做数据重构,得到关于样本x1的生成图像δ(φ(x1));
该第一数据重构模块由四层反卷积层组成,即第一反卷积层D1、第二反卷积层D2、第三反卷积层D3、第四反卷积层D4,其中:
第一层反卷积层D1,将目标特征结果φ(x1)作为输入数据,尺寸大小为4×4×128,其卷积核KD1的窗口大小为5×5,滑动步长SD1为2,填充参数P=2,对输入数据做反卷积运算,输出64个特征图dD1,dD1大小为8×8×64;
第二层反卷积层D2,输入数据为dD1,其卷积核KD2的窗口大小为5×5,滑动步长SD2为2,填充参数P=2,对输入数据做反卷积运算,输出32个特征图dD2,dD2大小为16×16×32;
第三层反卷积层D3,输入数据为dD2,卷积核KD3的窗口大小为5×5,滑动步长SD3为2,填充参数P=2,对输入数据做反卷积运算,输出16个特征图dD3,dD3大小为32×32×16;
第四层反卷积层D4,输入数据为dD3,卷积核KD4的窗口大小为5×5,滑动步长SD4为2,填充参数P=2,对输入数据做反卷积运算,输出1个特征图dD4,dD4大小为64×64×1,得到重构图像δ(φ(x1));
2c)设置特征变换模块,用于对目标特征φ(x1)、角度差γ做特征变换,得到目标的变换特征φ(x1)+γR(φ(x1)),其中R由两层1×1卷积层构成。
参照图3,该特征变换模块由两层卷积层和一个残差项组成,即第一卷积层L1'、第二卷积层L2'、残差项,其中:
第1层卷积层L1',将目标特征结果φ(x1)作为输入数据,其卷积核KL'1的窗口大小为1×1,滑动步长SL'1为1,填充参数P=0,对输入数据做卷积运算,输出128个特征图l1',l1'大小为4×4×128;
第2层卷积层L2',输入数据为l1',卷积核KL'2的窗口大小为1×1,滑动步长SL'2为1,填充参数P=0,对输入数据做卷积运算,输出128个特征图l2',l2'大小为4×4×128,得到输出结果R(φ(x1));
残差项,用于先将输出结果R(φ(x1))变换为1×2048的列向量,再与输入的角度差γ做乘积运算,得到运算结果γR(φ(x1)),再将γR(φ(x1))变换为4×4×128的矩阵,再将提取到的目标特征φ(x1)与4×4×128的矩阵加和,得到目标的变换特征φ(x1)+γR(φ(x1));
2d)设置第二数据重构模块,用于对目标的变换特征φ(x1)+γR(φ(x1))做数据重构,得到与目标角度差为γ的图像,输出结果表示为δ(φ(x1)+γR(φ(x1)))。
该数据重构模块由四层反卷积层构成,即第一反卷积层D1'、第二反卷积层D2'、第三反卷积层D3'、第四反卷积层D4',其中:
第1层反卷积层D1',将目标变换特征φ(x1)+γR(φ(x1))作为输入数据,其卷积核KD'1的窗口大小为5×5,滑动步长SD'1为2,填充参数P=2,对输入数据做反卷积运算,输出64个特征图d1',d1'大小为8×8×64;
第2层反卷积层D2',输入数据为d1',其卷积核KD'2的窗口大小为5×5,滑动步长SD'2为2,填充参数P=2,对输入数据做反卷积运算,输出32个特征图d2',d2'大小为16×16×32;
第3层反卷积层D3',输入数据为d2',卷积核KD'3的窗口大小为5×5,滑动步长SD'3为2,填充参数P=2,对输入数据做反卷积运算,输出16个特征图d3',d3'大小为32×32×16;
第4层反卷积层D4',输入数据为d3',卷积核KD'4的窗口大小为5×5,滑动步长SD'4为2,填充参数P=2,对输入数据做反卷积运算,输出1个特征图d4',d4'大小为64×64×1,得到重构图像δ(φ(x1)+γR(φ(x1)));
将以上四个功能模块依次串联,构成角度旋转生成网络ARGN。
步骤3,用源任务的训练样本对角度旋转生成网络ARGN进行训练,得到训练好的角度旋转生成网络ARGN模型。
3a)将源任务的训练样本输入到角度旋转生成网络ARGN中,计算网络输出层的损失Reconloss:
Figure BDA0002098783950000061
式中,Mgφ(x1)=φ(x1)+γR(φ(x1)),x1,x2为输入数据对,γ为归一化的角度差,φ(x1)表示提取到的目标特征,Mgφ(x1)表示目标的变换特征,R(φ(x1))表示变换特征的残差项,δ(φ(x1))表示第一重构图像,δ(Mgφ(x1))表示第二重构图像;
3b)利用反向传播算法将输出层的损失向前传播,并通过随机梯度下降算法计算损失函数Reconloss的梯度向量,更新网络中每一层的参数;
3c)重复3b),反复迭代不断更新网络参数,直到损失函数Reconloss收敛,得到训练好的网络模型。
步骤4,训练SVM分类器。
将目标任务的样本再分为训练集和测试集,利用已经训练好的角度旋转生成网络ARGN模型中的特征提取模块提取训练集、测试集的目标特征;
将提取到的训练集的目标特征送入到支持向量机SVM分类器中,训练分类器模型,得到训练好的支持向量机SVM分类器。
步骤5,将提取的测试集的特征输入到已训练好的支持向量机SVM分类器中,得到测试集的分类结果。
本发明的效果可通过以下实验数据进一步说明:
一.实验条件:
1)实验数据:
实验所用数据为公开的运动静止目标MSTAR数据集,分辨率为0.3m×0.3m。本实验使用的源域数据集包含七类目标:BTR60、2S1、BRDM2、D7、T62、ZIL131、ZSU23/4。目标域数据集包括俯仰角在15°和17°下的三大类目标:BMP2,BTR70和T72。其中,BMP2目标包含三个型号:SNC21、SN9563、SN9566;BTR70目标只包含一个型号C71,T72目标包含三个型号:SN132、SN812、SNS7。因此数据集共包含了14种型号。
实验选取的MSTAR数据集共有4112幅目标切片,其中源域数据集包含2049幅目标图像,目标域包含2063幅目标图像。其中目标域数据集在分类阶段又分为训练集和测试集,其中选取17°俯仰角下的3种型号的图像为训练集,包含698幅目标图像,选取15°俯仰角下的7种型号图像为测试集,包含1365幅目标图像。实验中所有样本原始大小为128×128像素,在预处理中都统一剪切为64×64像素,并对其进行能量归一化。
实验中利用源域数据集训练角度旋转生成网络ARGN,得到训练好的网络模型;为了检验模型学到的特征,将特征提取模块的结果用于训练SVM分类器,并测试分类器的分类结果,与其它分类模型的结果进行对比。
二.实验内容:
实验一:用本发明对上述实验数据进行实验,其中学习率设为1×10-4,训练ARGN网络,对目标域数据进行实验,对得到的结果进行可视化,结果如图4,其中:
图4(a)为原始输入图像;
图4(b)为角度旋转生成网络ARGN仿真结果图;
图4(c)为不同角度下仿真结果的对比。
从图4可见,角度旋转生成网络ARGN的仿真结果图接近原图,尤其是在对原图逆时针旋转45度以上时,仿真图仍然接近原图。由此可以推断,利用角度旋转生成网络ARGN对目标进行特征提取、特征变换是合理的操作。
实验二:用本发明方法与现有方法对上述实验数据进行对比实验。
现有方法包括:改进的极坐标映射分类器M-PMC、基于数据扩充的卷积神经网络DA-CNN、基于卷积神经网络的目标识别A-ConvNets。
为了验证有限样本情况下的识别效果,实验挑选训练集中部分数据训练SVM分类器,并与其它方法进行对比,挑选比例及对比结果如表1所示。
表1本发明方法与现有方法性能对比结果
Figure BDA0002098783950000081
在训练集中,从每类型号的图片中随机选取部分样本训练SVM分类器,例如,如果挑选比例为0.1,则从每类图片中随机挑选10%组成新的训练样本。每组实验被执行20次,取所有结果的平均值作为最后的识别结果。
从表1中可见,在小样本情况下,本发明实验的识别率要优于其它模型的结果。当挑选比例为10%,20%和30%时,ARGN网络有更高的识别率,当挑选比例为40%和50%时,ARGN网络和M-PMC方法的识别率相当,但在小样本问题上有更好的表现。
实验三:用不同分类器对上述实验数据进行目标识别实验对比。
分类器:本发明利用ARGN网络和SVM分类器,Comp-CNN利用目标域数据直接训练ARGN网络和softmax分类器,SVM算法利用原始数据和SVM分类器。
表2不同分类器性能对比结果
Figure BDA0002098783950000091
比较ARGN网络和SVM的结果可知,利用角度旋转生成网络ARGN提取目标特征,再利用支持向量机SVM分类的准确率要高于直接利用支持向量机SVM分类的准确率。对比本发明和Comp-CNN网络的结果可知,从源域中学到的知识确实可以帮助提高目标识别率。
以上描述仅是本发明的一个具体实例,并未构成对本发明的任何限制,显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修改和改变,但是这些基于本发明思想的修正和改变仍在本发明的权利要求保护范围之内。

Claims (7)

1.一种基于角度旋转生成网络ARGN的SAR目标识别方法,其特征在于,包括:
(1)实验数据准备:
将运动静止目标MSTAR数据集的图像分为源域数据集和目标域数据集,将源域数据集中大小为128×128的图像裁剪成64×64大小;
对裁剪后的图像进行能量归一化,再将目标类别相同的图像组合成两两一组的数据对x1,x2,计算数据对x1,x2的目标方位角的角度差,并对其进行归一化,得到归一化后的角度差γ;
用数据对x1,x2及角度差γ作为源任务的训练样本;
将目标域数据集中的图像同样裁剪成64×64大小,并对其进行能量归一化,得到目标任务的样本;
(2)构建角度旋转生成网络ARGN:
2a)设置特征提取模块,用于对输入图像x1做特征提取,得到目标的特征提取结果φ(x1);
2b)设置第一数据重构模块,用于对目标特征φ(x1)做数据重构,得到关于样本x1的生成图像δ(φ(x1));
2c)设置特征变换模块,用于对目标特征φ(x1)、角度差γ做特征变换,得到目标的变换特征φ(x1)+γR(φ(x1)),其中R由两层1×1卷积层构成;
2d)设置第二数据重构模块,用于对目标的变换特征φ(x1)+γR(φ(x1))做数据重构,得到与目标角度差为γ的图像,输出结果表示为δ(φ(x1)+γR(φ(x1)));
将以上四个功能模块依次串联,构成角度旋转生成网络ARGN;
(3)用源任务的训练样本对角度旋转生成网络ARGN进行训练,得到训练好的角度旋转生成网络ARGN模型;
(4)将目标任务的样本再分为训练集和测试集,利用已经训练好的角度旋转生成网络ARGN模型中的特征提取模块提取训练集、测试集的目标特征,再将提取到的训练集的目标特征送入到支持向量机SVM分类器中,训练分类器模型,得到训练好的支持向量机SVM分类器;
(5)将提取的测试集的特征输入到已训练好的支持向量机SVM分类器中,得到测试集的分类结果。
2.根据权利要求1所述的方法,其特征在于,(1)中归一化后的角度差γ,表示如下:
Figure FDA0002098783940000021
其中zx1,zx2分别为数据对x1,x2的目标方位角,360为目标方位角的最大值。
3.根据权利要求1所述的方法,其特征在于,2a)中的特征提取模块,由四层卷积层组成,其中:
第一层卷积层L1,输入图像数据x1,尺寸大小为64×64×1,其卷积核KL1的窗口大小为5×5,滑动步长SL1为2,填充参数P=2,对输入数据做卷积运算,输出16个特征图l1,l1尺寸大小为32×32×16;
第二层卷积层L2,输入数据为l1,其卷积核KL2的窗口大小为5×5,滑动步长SL2为2,填充参数P=2,对输入数据做卷积运算,输出32个特征图l2,l2尺寸大小为16×16×32;
第三层卷积层L3,输入数据为l2,其卷积核KL3的窗口大小为5×5,滑动步长SL3为2,填充参数P=2,对输入数据做卷积运算,输出64个特征图l3,l3尺寸大小为8×8×64;
第四层卷积层L4,输入数据为l3,其卷积核KL4的窗口大小为5×5,滑动步长SL4为2,填充参数P=2,对输入数据做卷积运算,输出128个特征图l4,l4尺寸大小为4×4×128,得到目标特征φ(x1)。
4.根据权利要求1所述的方法,其特征在于,2b)中的第一数据重构模块,由四层反卷积层组成,其中:
第一层反卷积层D1,将目标特征结果φ(x1)作为输入数据,尺寸大小为4×4×128,其卷积核KD1的窗口大小为5×5,滑动步长SD1为2,填充参数P=2,对输入数据做反卷积运算,输出64个特征图dD1,dD1大小为8×8×64;
第二层反卷积层D2,输入数据为dD1,其卷积核KD2的窗口大小为5×5,滑动步长SD2为2,填充参数P=2,对输入数据做反卷积运算,输出32个特征图dD2,dD2大小为16×16×32;
第三层反卷积层D3,输入数据为dD2,卷积核KD3的窗口大小为5×5,滑动步长SD3为2,填充参数P=2,对输入数据做反卷积运算,输出16个特征图dD3,dD3大小为32×32×16;
第四层反卷积层D4,输入数据为dD3,卷积核KD4的窗口大小为5×5,滑动步长SD4为2,填充参数P=2,对输入数据做反卷积运算,输出1个特征图dD4,dD4大小为64×64×1,得到重构图像δ(φ(x1))。
5.根据权利要求1所述的方法,其特征在于,2c)中的特征变换模块,由两层卷积层和一个残差项组成,其中:
2c1)第1层卷积层L1',将目标特征结果φ(x1)作为输入数据,其卷积核KL'1的窗口大小为1×1,滑动步长SL'1为1,填充参数P=0,对输入数据做卷积运算,输出128个特征图l1',l1'大小为4×4×128;
2c2)第2层卷积层L2',输入数据为l1',卷积核KL'2的窗口大小为1×1,滑动步长SL'2为1,填充参数P=0,对输入数据做卷积运算,输出128个特征图l2',l2'大小为4×4×128,得到输出结果R(φ(x1));
2c3)残差项,用于先将输出结果R(φ(x1))变换为1×2048的列向量,再与输入的角度差γ做乘积运算,得到运算结果γR(φ(x1)),再将γR(φ(x1))变换为4×4×128的矩阵,再将提取到的目标特征φ(x1)与4×4×128的矩阵加和,得到目标的变换特征φ(x1)+γR(φ(x1))。
6.根据权利要求1所述的方法,其特征在于,2d)中的第二数据重构模块,由四层反卷积层组成,其中:
第1层反卷积层D1',将目标变换特征φ(x1)+γR(φ(x1))作为输入数据,其卷积核KD'1的窗口大小为5×5,滑动步长SD'1为2,填充参数P=2,对输入数据做反卷积运算,输出64个特征图d1',d1'大小为8×8×64;
第2层反卷积层D2',输入数据为d1',其卷积核KD'2的窗口大小为5×5,滑动步长SD'2为2,填充参数P=2,对输入数据做反卷积运算,输出32个特征图d2',d2'大小为16×16×32;
第3层反卷积层D3',输入数据为dD'2,卷积核KD'3的窗口大小为5×5,滑动步长SD'3为2,填充参数P=2,对输入数据做反卷积运算,输出16个特征图d3',d3'大小为32×32×16;
第4层反卷积层D4',输入数据为d3',卷积核KD'4的窗口大小为5×5,滑动步长SD'4为2,填充参数P=2,对输入数据做反卷积运算,输出1个特征图d4',d4'大小为64×64×1,得到重构图像δ(φ(x1)+γR(φ(x1)))。
7.根据权利要求1所述的方法,其特征在于,(3)中用源任务的训练样本对角度旋转生成网络ARGN进行训练,其实现如下:
3a)将源任务的训练样本输入到角度旋转生成网络ARGN中,计算网络输出层的损失Reconloss:
Figure FDA0002098783940000041
式中,Mgφ(x1)=φ(x1)+γR(φ(x1)),x1,x2为输入数据对,γ为归一化的角度差,φ(x1)表示提取到的目标特征,Mgφ(x1)表示目标的变换特征,R(φ(x1))表示变换特征的残差项,δ(φ(x1))表示第一重构图像,δ(Mgφ(x1))表示第二重构图像;
3b)利用反向传播算法将输出层的损失向前传播,并通过随机梯度下降算法计算损失函数Reconloss的梯度向量,更新网络中每一层的参数;
3c)重复3b),反复迭代不断更新网络参数,直到损失函数Reconloss收敛,得到训练好的网络模型。
CN201910527819.6A 2019-06-18 2019-06-18 基于角度旋转生成网络的sar目标识别方法 Active CN110245711B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910527819.6A CN110245711B (zh) 2019-06-18 2019-06-18 基于角度旋转生成网络的sar目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910527819.6A CN110245711B (zh) 2019-06-18 2019-06-18 基于角度旋转生成网络的sar目标识别方法

Publications (2)

Publication Number Publication Date
CN110245711A CN110245711A (zh) 2019-09-17
CN110245711B true CN110245711B (zh) 2022-12-02

Family

ID=67887914

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910527819.6A Active CN110245711B (zh) 2019-06-18 2019-06-18 基于角度旋转生成网络的sar目标识别方法

Country Status (1)

Country Link
CN (1) CN110245711B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160268B (zh) * 2019-12-30 2024-03-29 北京化工大学 一种基于多任务学习的多角度sar目标识别方法
CN111539357B (zh) * 2020-04-28 2024-01-23 睿魔智能科技(深圳)有限公司 人体识别模型及其训练方法、系统、存储介质及设备
CN111832580B (zh) * 2020-07-22 2023-07-28 西安电子科技大学 结合少样本学习与目标属性特征的sar目标识别方法
CN112132042B (zh) * 2020-09-24 2023-08-01 西安电子科技大学 基于对抗域适应的sar图像目标检测方法
CN112348061A (zh) * 2020-10-26 2021-02-09 上海眼控科技股份有限公司 分类向量生成方法、装置、计算机设备和存储介质
CN112348060A (zh) * 2020-10-26 2021-02-09 上海眼控科技股份有限公司 分类向量生成方法、装置、计算机设备和存储介质
CN112733943B (zh) * 2021-01-13 2024-03-22 浙江工业大学 一种基于数据混剪技术的热泵故障诊断模型迁移方法
CN113240376A (zh) * 2021-05-31 2021-08-10 中邮信息科技(北京)有限公司 物品信息确定方法、装置、电子设备及介质
CN113642448B (zh) * 2021-08-09 2024-01-26 中国人民解放军海军航空大学航空作战勤务学院 一种空中平台对海/地面机动目标的图像识别方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106874889A (zh) * 2017-03-14 2017-06-20 西安电子科技大学 基于卷积神经网络的多特征融合sar目标鉴别方法
CN108764082A (zh) * 2018-05-17 2018-11-06 淘然视界(杭州)科技有限公司 一种飞机目标检测方法、电子设备、存储介质及系统
CN108764330A (zh) * 2018-05-25 2018-11-06 西安电子科技大学 基于超像素分割和卷积反卷积网络的sar图像分类方法
CN108921029A (zh) * 2018-06-04 2018-11-30 浙江大学 一种融合残差卷积神经网络和pca降维的sar自动目标识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9317779B2 (en) * 2012-04-06 2016-04-19 Brigham Young University Training an image processing neural network without human selection of features

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106874889A (zh) * 2017-03-14 2017-06-20 西安电子科技大学 基于卷积神经网络的多特征融合sar目标鉴别方法
CN108764082A (zh) * 2018-05-17 2018-11-06 淘然视界(杭州)科技有限公司 一种飞机目标检测方法、电子设备、存储介质及系统
CN108764330A (zh) * 2018-05-25 2018-11-06 西安电子科技大学 基于超像素分割和卷积反卷积网络的sar图像分类方法
CN108921029A (zh) * 2018-06-04 2018-11-30 浙江大学 一种融合残差卷积神经网络和pca降维的sar自动目标识别方法

Also Published As

Publication number Publication date
CN110245711A (zh) 2019-09-17

Similar Documents

Publication Publication Date Title
CN110245711B (zh) 基于角度旋转生成网络的sar目标识别方法
CN109934282B (zh) 一种基于sagan样本扩充和辅助信息的sar目标分类方法
CN110135366B (zh) 基于多尺度生成对抗网络的遮挡行人重识别方法
CN108038445B (zh) 一种基于多视角深度学习框架的sar自动目标识别方法
CN109191382B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN110781830B (zh) 基于空-时联合卷积的sar序列图像分类方法
CN111524135B (zh) 基于图像增强的输电线路细小金具缺陷检测方法及系统
CN110245678B (zh) 一种基于异构孪生区域选取网络的图像匹配方法
CN113159051A (zh) 一种基于边缘解耦的遥感图像轻量化语义分割方法
CN110334645B (zh) 一种基于深度学习的月球撞击坑识别方法
CN111899168B (zh) 一种基于特征增强的遥感影像超分辨率重建方法和系统
CN110728706B (zh) 基于深度学习的sar图像精细配准方法
CN113420639A (zh) 基于生成对抗网络的近地面红外目标数据集建立方法及装置
CN110751271B (zh) 一种基于深度神经网络的图像溯源特征表征方法
CN114626476A (zh) 基于Transformer与部件特征融合的鸟类细粒度图像识别方法及装置
CN111832580A (zh) 结合少样本学习与目标属性特征的sar目标识别方法
CN114359387A (zh) 基于改进yolov4算法的袋料栽培香菇检测方法
CN114372521A (zh) 基于注意力机制和残差关系网络的sar图像分类方法
CN113420593A (zh) 基于混合推理网络的小样本sar自动目标识别方法
CN112766381A (zh) 有限样本下属性引导的sar图像生成方法
CN115861595B (zh) 一种基于深度学习的多尺度域自适应异源图像匹配方法
CN113111740A (zh) 一种遥感图像目标检测的特征编织方法
CN111680640A (zh) 一种基于领域迁移的车型识别方法及系统
CN114693755B (zh) 多模图像最大矩与空间一致性的非刚性配准方法及系统
Wei et al. L2-norm prototypical networks for tackling the data shift problem in scene classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant