CN108921030B - 一种sar自动目标识别方法 - Google Patents

一种sar自动目标识别方法 Download PDF

Info

Publication number
CN108921030B
CN108921030B CN201810562764.8A CN201810562764A CN108921030B CN 108921030 B CN108921030 B CN 108921030B CN 201810562764 A CN201810562764 A CN 201810562764A CN 108921030 B CN108921030 B CN 108921030B
Authority
CN
China
Prior art keywords
layer
convolution
pooling
multiplied
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201810562764.8A
Other languages
English (en)
Other versions
CN108921030A (zh
Inventor
万子宁
刘兴高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201810562764.8A priority Critical patent/CN108921030B/zh
Publication of CN108921030A publication Critical patent/CN108921030A/zh
Application granted granted Critical
Publication of CN108921030B publication Critical patent/CN108921030B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种SAR自动目标识别方法,该方法首先获取SAR目标图像数据并对其按目标类别加以标注,形成训练集,然后对训练集图像作数据增强并进行预处理,再构建稠密连接卷积神经网络,并将训练样本输入网络中进行训练,最后将待分类样本作预处理后输入网络进行识别。本发明的SAR自动目标识别训练时间短、识别率高、自动化程度高。

Description

一种SAR自动目标识别方法
技术领域
本发明属于雷达数据处理技术领域,特别地涉及一种SAR自动目标识别方法,主要解决现有SAR自动目标识别技术识别准确率较低、训练时间较长的问题。
背景技术
合成孔径雷达(SAR)是一种主动式高分辨率成像雷达,能在云雾遮挡、可见度极低的天气条件下得到与可见光图像相似的图像。SAR具有强穿透力、高分辨率、大范围的监测能力,这些优点使其在环境监测、海洋监测、地图测绘和军事侦查等方面的应用上具有显著的优势。因此,针对SAR雷达相关技术的研究越来越受到世界各国的重视,SAR图像自动目标识别是其中最重要的技术之一。
西安电子科技大学在其申请的专利“基于CNN的SAR目标识别方法”(专利申请号:CN201510165886.X,专利公开号:CN104732243A)中提出了基于CNN的SAR目标识别方法。该方法的实现步骤为:将样本图像多次平移变换,把得到的新样本扩充入训练样本中;在caffe框架中构建CNN网络;将训练样本输入CNN中进行训练;将测试样本平移扩充后输入训练好的CNN网络中进行测试。该方法的不足之处在于其构建的网络为传统CNN结构,参数效率低、对深层特征的提取能力较弱,所以SAR目标识别率较低。
电子科技大学在其申请的专利“一种多源特征融合的SAR图像自动目标识别方法”(专利申请号:CN201710312180.0,专利公开号:CN107239740A)公开了一种多源特征融合的SAR图像目标识别方法。该方法的实现步骤为:读取不同目标的SAR图像和三维模型的二维平面的投影图像并标准化处理;采用余弦傅里叶不变矩方法提取1中投影图像矩特征;采用瑞利分布的CFAR检测方法提取SAR图像峰值特征;利用结合SVM和匹配算法的级联融合分类器对目标进行识别。该方法的不足之处在于需要人为设计和选择的特征提取工作,方法泛化性较差,应用于不同的SAR目标识别任务时效果难以保证。
发明内容
为了克服目前SAR自动目标识别技术的不足,本发明的目的在于提供一种SAR自动目标识别方法,主要解决现有技术训练时间较长、识别准确率较低的问题。
本发明解决其技术问题所采用的技术方案是:一种SAR自动目标识别方法,其实现步骤包含:
1)获取SAR目标图像数据并对其按目标类别加以标注,形成训练集。
对目标识别任务涉及到的多类目标,分别就每一类采集若干SAR图像作为训练样本。
2)对训练集图像作数据增强并进行预处理。
2.1)数据增强:对训练集中的每个SAR图像进行随机平移、翻转、旋转和缩放操作,产生的衍生训练样本标记上原始训练样本一致的标签,得到增强的训练样本集;
2.2)预处理:按公式(1)进行图像预处理:
Figure GDA0003334983980000021
其中x代表样本图像,x(i,j)为图像(i,j)处的像素值,mean(x)为图像像素平均值,
Figure GDA0003334983980000023
为图像像素标准差,x'(x,j)为预处理后(i,j)处的像素值;
3)构建稠密连接卷积神经网络。
3.1)构建的稠密连接卷积神经网络包含的结构有:
3.1.1)卷积层:卷积核在输入的特征图上滑动,卷积核参数与特征图数据作卷积操作,卷积操作公式如下,其中*代表卷积操作,k代表层数,ink为输入到第k层的特征图,outk为第k层输出的特征图,Wk和bk为第k层的卷积参数:
outk=ink*Wk+bk (2)
3.1.2)全连接层:用于将输入的特征图进行降维提纯,为维数与类别数相等的特征向量;
3.1.3)非线性变换层:网络中每个卷积层之后都将采用本方法新提出的Swish-ReLU激活函数进行非线性变换,该函数表达式如下,其中z代表该层输入的特征图:
Figure GDA0003334983980000022
3.1.4)池化层:用到了最大值池化和全局平均池化两种池化方式,全局平均池化用在最后一个卷积层之后,其他地方都采用最大值池化;
3.1.5)稠密连接块:稠密连接块由多个连接层组成,连接层又是由卷积层、池化层和非线性变换层构成;稠密连接块中的每个连接层与其他所有连接层都相连接,其输入由之前的所有卷积层的输入构成,而其输出也将作为所有之后的卷积层的输入,用公式表示为:
lm=δm(lm-1,lm-2,...,l1) (4)
公式(4)中lm为第m个连接层的输出,不同下标代表不同的连接层,(lm-1,lm-2,...,l1)代表第m层之前的1~m-1层连接层的输出采用“concat”操作堆叠而成的特征图,δm()代表第m层连接层中对输入特征图进行的由卷积和非线性变换组合而成的操作,其中卷积操作都先补零使输入输出的特征图大小一致。
3.2)所构建的稠密连接卷积神经网络的具体结构为:
3.2.1)第一卷积池化层:对128×128×1的输入作卷积,卷积核个数为64、大小为7×7、移动步数为2,对卷积层的输出进行Swish_ReLU非线性变换后作最大值池化,池化窗口大小为2×2、移动步数为2,最后输出的特征图维数为32×32×64;
3.2.2)第一稠密连接块:包含6个连接层,每个连接层按顺序为Swish_ReLU非线性变换,卷积核个数为48、大小为1×1、移动步数为1的卷积操作,Swish_ReLU非线性变换,卷积核个数为12、大小为3×3、移动步数为1的卷积操作,第一稠密连接块最后输出的特征图维数为32×32×136;
3.2.3)第二卷积池化层:对第一稠密连接块的输出作卷积,卷积核个数为136、大小为1×1、移动步数为1,对卷积层的输出进行Swish_ReLU非线性变换后作最大值池化,池化窗口大小为2×2、移动步数为2,最后输出的特征图维数为16×16×136;
3.2.4)第二稠密连接块:包含12个连接层,每个连接层按顺序为Swish_ReLU非线性变换,卷积核个数为48、大小为1×1、移动步数为1的卷积操作,Swish_ReLU非线性变换,卷积核个数为12、大小为3×3、移动步数为1的卷积操作,第二稠密连接块最后输出的特征图维数为16×16×280;
3.2.5)第三卷积池化层:对第二稠密连接块的输出作卷积,卷积核个数为280、大小为1×1、移动步数为1,对卷积层的输出进行Swish_ReLU非线性变换后作最大值池化,池化窗口大小为2×2、移动步数为2,最后输出的特征图维数为8×8×280;
3.2.6)第三稠密连接块:包含6个连接层,每个连接层按顺序为Swish_ReLU非线性变换,卷积核个数为48、大小为1×1、移动步数为1的卷积操作,Swish_ReLU非线性变换,卷积核个数为12、大小为3×3、移动步数为1的卷积操作,第二稠密连接块最后输出的特征图维数为8×8×352;
3.2.7)目标识别:对第三稠密连接块的输出作全局平均池化,得到352维的特征向量,再用全连接层对该向量进行降维,全连接层神经元数与目标类别数相等,最后采用softmax分类器作分类,以网络顶层softmax分类的输出为目标识别结果。
4)将第1)步中得到的预处理后的增强的训练样本集输入到第2)步中构造的网络中进行训练,各卷积层、全连接层参数采用Xavier初始化方法,得到训练好的网络模型;
5)将待识别图像按公式(1)作预处理后输入到训练好的网络模型中,输出识别结果。
本发明的技术构思为:本发明针对SAR雷达全天时、全天候工作以及强穿透的特性,基于深度学习架构,将SAR雷达监测得到的目标图像作为训练集,对其进行数据增强和预处理后,输入到所构建的稠密连接卷积神经网络中进行训练,训练完成后即可将待识别SAR图像输入到网络中实现SAR自动目标识别。
本发明的有益效果主要表现在:
1、识别率高:本发明以稠密连接卷积神经网络为基础构建了深层SAR目标识别网络,能够得到比传统方法和普通浅层CNN更好的识别效果;
2、训练时间短;本发明采用新的Swish_ReLU函数作为神经网络的激活函数,使得网络收敛速度更快,实现快速学习;
3、自动化程度高:本发明没有设计和选择特征的步骤,大大减少了传统机器学习SAR自动目标识别技术中的人为干预,使用起来更为简单。
附图说明
图1是本发明的实现流程图。
具体实施方式
下面根据附图具体说明本发明。
参照图1,本发明的具体实施步骤如下:
1)获取SAR目标图像数据并对其按目标类别加以标注,形成训练集。
对目标识别任务涉及到的多类目标,分别就每一类采集若干SAR图像作为训练样本。
2)对训练集图像作数据增强并进行预处理。
2.1)数据增强:对训练集中的每个SAR图像进行随机平移、翻转、旋转和缩放操作,产生的衍生训练样本标记上原始训练样本一致的标签,得到增强的训练样本集;
2.2)预处理:按公式(1)进行图像预处理:
Figure GDA0003334983980000041
其中x代表样本图像,x(i,j)为图像(i,j)处的像素值,mean(x)为图像像素平均值,
Figure GDA0003334983980000042
为图像像素标准差,x'(x,j)为预处理后(i,j)处的像素值;
3)构建稠密连接卷积神经网络。
3.1)构建的稠密连接卷积神经网络包含的结构有:
3.1.1)卷积层:卷积核在输入的特征图上滑动,卷积核参数与特征图数据作卷积操作,卷积操作公式如下,其中*代表卷积操作,k代表层数,ink为输入到第k层的特征图,outk为第k层输出的特征图,Wk和bk为第k层的卷积参数:
outk=ink*Wk+bk (2)
3.1.2)全连接层:用于将输入的特征图进行降维提纯,为维数与类别数相等的特征向量;
3.1.3)非线性变换层:网络中每个卷积层之后都将采用本方法新提出的Swish-ReLU激活函数进行非线性变换,该函数表达式如下,其中z代表该层输入的特征图:
Figure GDA0003334983980000051
3.1.4)池化层:用到了最大值池化和全局平均池化两种池化方式,全局平均池化用在最后一个卷积层之后,其他地方都采用最大值池化;
3.1.5)稠密连接块:稠密连接块由多个连接层组成,连接层又是由卷积层、池化层和非线性变换层构成;稠密连接块中的每个连接层与其他所有连接层都相连接,其输入由之前的所有卷积层的输入构成,而其输出也将作为所有之后的卷积层的输入,用公式表示为:
lm=δm(lm-1,lm-2,...,l1) (4)
公式(4)中lm为第m个连接层的输出,不同下标代表不同的连接层,(lm-1,lm-2,...,l1)代表第m层之前的1~m-1层连接层的输出采用“concat”操作堆叠而成的特征图,δm()代表第m层连接层中对输入特征图进行的由卷积和非线性变换组合而成的操作,其中卷积操作都先补零使输入输出的特征图大小一致。
3.2)所构建的稠密连接卷积神经网络的具体结构为:
3.2.1)第一卷积池化层:对128×128×1的输入作卷积,卷积核个数为64、大小为7×7、移动步数为2,对卷积层的输出进行Swish_ReLU非线性变换后作最大值池化,池化窗口大小为2×2、移动步数为2,最后输出的特征图维数为32×32×64;
3.2.2)第一稠密连接块:包含6个连接层,每个连接层按顺序为Swish_ReLU非线性变换,卷积核个数为48、大小为1×1、移动步数为1的卷积操作,Swish_ReLU非线性变换,卷积核个数为12、大小为3×3、移动步数为1的卷积操作,第一稠密连接块最后输出的特征图维数为32×32×136;
3.2.3)第二卷积池化层:对第一稠密连接块的输出作卷积,卷积核个数为136、大小为1×1、移动步数为1,对卷积层的输出进行Swish_ReLU非线性变换后作最大值池化,池化窗口大小为2×2、移动步数为2,最后输出的特征图维数为16×16×136;
3.2.4)第二稠密连接块:包含12个连接层,每个连接层按顺序为Swish_ReLU非线性变换,卷积核个数为48、大小为1×1、移动步数为1的卷积操作,Swish_ReLU非线性变换,卷积核个数为12、大小为3×3、移动步数为1的卷积操作,第二稠密连接块最后输出的特征图维数为16×16×280;
3.2.5)第三卷积池化层:对第二稠密连接块的输出作卷积,卷积核个数为280、大小为1×1、移动步数为1,对卷积层的输出进行Swish_ReLU非线性变换后作最大值池化,池化窗口大小为2×2、移动步数为2,最后输出的特征图维数为8×8×280;
3.2.6)第三稠密连接块:包含6个连接层,每个连接层按顺序为Swish_ReLU非线性变换,卷积核个数为48、大小为1×1、移动步数为1的卷积操作,Swish_ReLU非线性变换,卷积核个数为12、大小为3×3、移动步数为1的卷积操作,第二稠密连接块最后输出的特征图维数为8×8×352;
3.2.7)目标识别:对第三稠密连接块的输出作全局平均池化,得到352维的特征向量,再用全连接层对该向量进行降维,全连接层神经元数与目标类别数相等,最后采用softmax分类器作分类,以网络顶层softmax分类的输出为目标识别结果。
4)将第1)步中得到的预处理后的增强的训练样本集输入到第2)步中构造的网络中进行训练,各卷积层、全连接层参数采用Xavier初始化方法,得到训练好的网络模型;
5)将待识别图像按公式(1)作预处理后输入到训练好的网络模型中,输出识别结果。
本发明的效果通过以下实验说明:
第一步的获取数据,这里采用SAR目标识别研究常用的MSTAR数据集作为实验数据,实验针对的是MSTAR数据集推荐的三类目标识别任务:训练集和测试集分别包含15°和17°雷达俯仰角下得到的3类目标图像:BTR-70(装甲运输车)、BMP-2(步兵战车)和T-72(坦克),其中BTR-70和T-72类目标还依据配备装备的不同各有三种子型号;测试集同样包含前述三类图像。为了体现识别方法提取有效特征的能力,训练集仅选择BTR70、T72三种子型号中的一种,所以最终训练集的样本数为698,测试集的样本数为1365,具体各类样本数如表1所示。所有样本图像的像素大小为128×128。实际训练中设置每批训练样本数为16,训练轮数为50,每一轮的训练样本数为560,验证样本数为138。
表1:训练集和测试集样本数
Figure GDA0003334983980000071
实验采用分类任务中常用的四个性能指标:识别率、精确率、召回率和F1值,其中识别率为全部测试样本中正确分类的样本数与总样本数之比,精确率是指判断为正例的样本中确实为正例的比例,召回率是某一类样本被正确分类的比例,而F1值是精确率和召回率的调和平均。
将测试集1365张待识别SAR图像输入到训练好的基于稠密连接卷积神经网络的SAR识别网络中,得到的结果为识别率99.41%、精确率99.55%、召回率99.54%、F1值99.54%。
结果优于国际上的公开报道结果,与其他SAR目标识别方法的比较分析见表2,各类样本的详细识别结果见表3。
表2:与其他SAR目标识别方法性能比较
方法 识别率(%)
Gabor+TPLBP+ELM<sup>0</sup> 94.80
联合稀疏表示<sup>[2]</sup> 95.60
AdaBoost<sup>[3]</sup> 96.12
传统CNN 95.90
本发明 99.41
[1]王璐,张帆,李伟等.基于Gabor滤波器和局部纹理特征提取的SAR目标识别算法[J].雷达学报,2015,4(6):658-665.
[2]Zhang H,Nasrabadi N M,Zhang Y,et al.Multi-View Automatic TargetRecognition using Joint Sparse Representation[J].Aerospace&Electronic SystemsIEEE Transactions on,2012,48(3):2481-2497.
[3]Sun Y,Liu Z,Todorovic S,et al.Adaptive boosting for SAR automatictarget recognition[J].IEEE Transactions on Aerospace&Electronic Systems,2007,43(1):112-125.
[4]田壮壮,占荣辉,胡杰民等.基于卷积神经网络的SAR图像目标识别研究[J].雷达学报,2016,5(3):320-325.
表3:SAR目标识别详细结果
Figure GDA0003334983980000081
上述实施例用来解释说明本发明,而不是对本发明进行限制,在本发明的精神和权利要求的保护范围内,对本发明作出的任何修改和改变,都落入本发明的保护范围。

Claims (1)

1.一种SAR自动目标识别方法,其特征在于,包括以下步骤:
(1)获取SAR目标图像数据并对其按目标类别加以标注,形成训练集:对目标识别任务涉及到的多类目标,分别就每一类采集若干SAR图像作为训练样本;
(2)对训练集图像作数据增强并进行预处理;
(3)构建稠密连接卷积神经网络;
(4)将步骤(2)中得到的预处理后的增强的训练样本集输入到步骤(3)中构造的网络中进行训练,各卷积层、全连接层参数采用Xavier初始化方法,得到训练好的网络模型;
(5)将待识别图像按步骤(2)作预处理后输入到步骤(4)训练好的网络模型中,输出识别结果;
所述步骤(2)中,所述数据增强具体为:对训练集中的每个SAR图像进行随机平移、翻转、旋转和缩放操作,产生的衍生训练样本标记上原始训练样本一致的标签,得到增强的训练样本集;
所述步骤(2)中,所述预处理具体为:按公式(1)进行图像预处理:
Figure FDA0003334983970000011
其中,x代表样本图像,x(i,j)为图像(i,j)处的像素值,mean(x)为图像像素平均值,
Figure FDA0003334983970000012
为图像像素标准差,x'(x,j)为预处理后(i,j)处的像素值;
所述步骤(3)中,所构建的稠密连接卷积神经网络包含如下两种结构之一;
第一种结构包括卷积层、全连接层、非线性变换层、池化层和稠密连接块,具体如下:
卷积层:卷积核在输入的特征图上滑动,卷积核参数与特征图数据作卷积操作,卷积操作公式如下:
outk=ink*Wk+bk (2)
其中,*代表卷积操作,k代表层数,ink为输入到第k层的特征图,outk为第k层输出的特征图,Wk和bk为第k层的卷积参数;
全连接层:用于将输入的特征图进行降维提纯,为维数与类别数相等的特征向量;
非线性变换层:网络中每个卷积层之后都将采用Swish-ReLU激活函数进行非线性变换,该函数表达式如下:
Figure FDA0003334983970000013
其中,z代表该层输入的特征图;
池化层:用到了最大值池化和全局平均池化两种池化方式,全局平均池化用在最后一个卷积层之后,其他地方都采用最大值池化;
稠密连接块:稠密连接块由多个连接层组成,连接层又是由卷积层、池化层和非线性变换层构成;稠密连接块中的每个连接层与其他所有连接层都相连接,其输入由之前的所有卷积层的输入构成,而其输出也将作为所有之后的卷积层的输入,用公式表示为:
lm=δm(lm-1,lm-2,...,l1) (4)
公式(4)中,lm为第m个连接层的输出,不同下标代表不同的连接层,(lm-1,lm-2,...,l1)代表第m层之前的1~m-1层连接层的输出采用“concat”操作堆叠而成的特征图,δm()代表第m层连接层中对输入特征图进行的由卷积和非线性变换组合而成的操作,其中卷积操作都先补零使输入输出的特征图大小一致;
第二种结构包括第一卷积池化层、第一稠密连接块、第二卷积池化层、第二稠密连接块、第三卷积池化层、第三稠密连接块和目标识别,具体为:
第一卷积池化层:对128×128×1的输入作卷积,卷积核个数为64、大小为7×7、移动步数为2,对卷积层的输出进行Swish_ReLU非线性变换后作最大值池化,池化窗口大小为2×2、移动步数为2,最后输出的特征图维数为32×32×64;
第一稠密连接块:包含6个连接层,每个连接层按顺序为Swish_ReLU非线性变换,卷积核个数为48、大小为1×1、移动步数为1的卷积操作,Swish_ReLU非线性变换,卷积核个数为12、大小为3×3、移动步数为1的卷积操作,第一稠密连接块最后输出的特征图维数为32×32×136;
第二卷积池化层:对第一稠密连接块的输出作卷积,卷积核个数为136、大小为1×1、移动步数为1,对卷积层的输出进行Swish_ReLU非线性变换后作最大值池化,池化窗口大小为2×2、移动步数为2,最后输出的特征图维数为16×16×136;
第二稠密连接块:包含12个连接层,每个连接层按顺序为Swish_ReLU非线性变换,卷积核个数为48、大小为1×1、移动步数为1的卷积操作,Swish_ReLU非线性变换,卷积核个数为12、大小为3×3、移动步数为1的卷积操作,第二稠密连接块最后输出的特征图维数为16×16×280;
第三卷积池化层:对第二稠密连接块的输出作卷积,卷积核个数为280、大小为1×1、移动步数为1,对卷积层的输出进行Swish_ReLU非线性变换后作最大值池化,池化窗口大小为2×2、移动步数为2,最后输出的特征图维数为8×8×280;
第三稠密连接块:包含6个连接层,每个连接层按顺序为Swish_ReLU非线性变换,卷积核个数为48、大小为1×1、移动步数为1的卷积操作,Swish_ReLU非线性变换,卷积核个数为12、大小为3×3、移动步数为1的卷积操作,第二稠密连接块最后输出的特征图维数为8×8×352;
目标识别:对第三稠密连接块的输出作全局平均池化,得到352维的特征向量,再用全连接层对该向量进行降维,全连接层神经元数与目标类别数相等,最后采用softmax分类器作分类,以网络顶层softmax分类的输出为目标识别结果。
CN201810562764.8A 2018-06-04 2018-06-04 一种sar自动目标识别方法 Expired - Fee Related CN108921030B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810562764.8A CN108921030B (zh) 2018-06-04 2018-06-04 一种sar自动目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810562764.8A CN108921030B (zh) 2018-06-04 2018-06-04 一种sar自动目标识别方法

Publications (2)

Publication Number Publication Date
CN108921030A CN108921030A (zh) 2018-11-30
CN108921030B true CN108921030B (zh) 2022-02-01

Family

ID=64410763

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810562764.8A Expired - Fee Related CN108921030B (zh) 2018-06-04 2018-06-04 一种sar自动目标识别方法

Country Status (1)

Country Link
CN (1) CN108921030B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109657719B (zh) * 2018-12-19 2022-09-30 浙江大学常州工业技术研究院 一种基于卷积神经网络的图像识别方法
CN109726657B (zh) * 2018-12-21 2023-06-09 万达信息股份有限公司 一种深度学习场景文本序列识别方法
CN109815999B (zh) * 2019-01-08 2021-09-21 浙江大学 一种简便高效的自动化煤矸识别方法
CN109977747A (zh) * 2019-01-08 2019-07-05 浙江大学 一种综合时空特征的煤矸识别系统
CN109919994B (zh) * 2019-01-08 2021-07-13 浙江大学 一种基于深度学习图像处理的采煤机滚筒自动调高系统
WO2020171915A1 (en) * 2019-02-19 2020-08-27 Hrl Laboratories, Llc System and method for transferring electro-optical (eo) knowledge for synthetic-aperture-radar (sar)-based object detection
CN109815967A (zh) * 2019-02-28 2019-05-28 北京环境特性研究所 基于特征融合的cnn舰船目标识别系统及方法
CN110110765B (zh) * 2019-04-23 2022-03-08 四川九洲电器集团有限责任公司 一种基于深度学习的多源数据融合目标识别方法
CN110458043B (zh) * 2019-07-20 2023-04-18 中国船舶重工集团公司第七二四研究所 一种基于迁移学习与全连接层输出的sar目标识别方法
CN110532878B (zh) * 2019-07-26 2022-11-29 中山大学 一种基于轻量化卷积神经网络的驾驶员行为识别方法
CN113534120B (zh) * 2021-07-14 2023-06-30 浙江大学 一种基于深度神经网络的多目标恒虚警率检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104732243A (zh) * 2015-04-09 2015-06-24 西安电子科技大学 基于cnn的sar目标识别方法
CN106504064A (zh) * 2016-10-25 2017-03-15 清华大学 基于深度卷积神经网络的服装分类与搭配推荐方法及系统
CN106874889A (zh) * 2017-03-14 2017-06-20 西安电子科技大学 基于卷积神经网络的多特征融合sar目标鉴别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11055063B2 (en) * 2016-05-02 2021-07-06 Marvell Asia Pte, Ltd. Systems and methods for deep learning processor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104732243A (zh) * 2015-04-09 2015-06-24 西安电子科技大学 基于cnn的sar目标识别方法
CN106504064A (zh) * 2016-10-25 2017-03-15 清华大学 基于深度卷积神经网络的服装分类与搭配推荐方法及系统
CN106874889A (zh) * 2017-03-14 2017-06-20 西安电子科技大学 基于卷积神经网络的多特征融合sar目标鉴别方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
ARiA: Utilizing Richard’s Curve for Controlling the Non-monotonicity of the Activation Function in Deep Neural Nets;Narendra Patwardhan 等;《arXiv》;20180522;1-10 *
CondenseNet: An Efficient DenseNet using Learned Group Convolutions;Gao Huang 等;《arXiv》;20171125;1-10 *
Densely Connected Convolutional Networks;Gao Huang 等;《arXiv》;20180128;摘要 *
E-swish: Adjusting Activations to Different Network Depths;Eric Alcaide;《arXiv》;20180122;1-13 *
SparseNet: A Sparse DenseNet for Image Classification;Wenqi Liu 等;《arXiv》;20180415;1-17 *
Swish 激活函数在中小规模数据集上的性能表现;米硕 等;《科技创新与应用》;20180131(第1期);4-5 *
SWISH: A SELF-GATED ACTIVATION FUNCTION;Prajit Ramachandran 等;《arXiv》;20171016;1-12 *

Also Published As

Publication number Publication date
CN108921030A (zh) 2018-11-30

Similar Documents

Publication Publication Date Title
CN108921030B (zh) 一种sar自动目标识别方法
CN108776779B (zh) 基于卷积循环网络的sar序列图像目标识别方法
CN108510467B (zh) 基于深度可变形卷积神经网络的sar图像目标识别方法
CN109271856B (zh) 基于扩张残差卷积的光学遥感图像目标检测方法
CN107564025B (zh) 一种基于深度神经网络的电力设备红外图像语义分割方法
CN107239751B (zh) 基于非下采样轮廓波全卷积网络的高分辨sar图像分类方法
CN108921029A (zh) 一种融合残差卷积神经网络和pca降维的sar自动目标识别方法
CN107103338B (zh) 融合卷积特征和集成超限学习机的sar目标识别方法
CN108280460B (zh) 基于改进卷积神经网络的sar车辆目标识别方法
CN108764310B (zh) 基于多尺度多特征深度森林的sar目标识别方法
CN113240047B (zh) 基于部件解析多尺度卷积神经网络的sar目标识别方法
CN112215296B (zh) 基于迁移学习的红外图像识别方法及存储介质
CN112990334A (zh) 基于改进原型网络的小样本sar图像目标识别方法
CN110110618B (zh) 一种基于pca和全局对比度的sar目标检测方法
CN110969212A (zh) 基于空间变换三通道卷积的isar图像分类方法
CN113536963A (zh) 基于轻量化yolo网络的sar图像飞机目标检测方法
CN117409339A (zh) 一种用于空地协同的无人机作物状态视觉识别方法
Yaohua et al. A SAR oil spill image recognition method based on densenet convolutional neural network
Xiong et al. Oil spills identification in SAR image based on convolutional neural network
CN117351371A (zh) 一种基于深度学习的遥感图像目标检测方法
xi Wang et al. Detection of MMW radar target based on Doppler characteristics and deep learning
CN116843906A (zh) 基于拉普拉斯特征映射的目标多角度本征特征挖掘方法
Zeng et al. An Incept-TextCNN model for ship target detection in SAR range-compressed domain
CN116403120A (zh) 一种基于优化ssd算法的遥感图像目标检测方法及系统
Zhao et al. Classification method of LiDAR point cloud based on threedimensional convolutional neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220201