CN110163275A - 基于深度卷积神经网络的sar图像目标分类方法 - Google Patents

基于深度卷积神经网络的sar图像目标分类方法 Download PDF

Info

Publication number
CN110163275A
CN110163275A CN201910407093.2A CN201910407093A CN110163275A CN 110163275 A CN110163275 A CN 110163275A CN 201910407093 A CN201910407093 A CN 201910407093A CN 110163275 A CN110163275 A CN 110163275A
Authority
CN
China
Prior art keywords
sar image
width
layer
neural networks
layers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910407093.2A
Other languages
English (en)
Other versions
CN110163275B (zh
Inventor
白雪茹
王睿娇
王力
周峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201910407093.2A priority Critical patent/CN110163275B/zh
Publication of CN110163275A publication Critical patent/CN110163275A/zh
Application granted granted Critical
Publication of CN110163275B publication Critical patent/CN110163275B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/30Erosion or dilatation, e.g. thinning

Abstract

本发明提出了一种基于深度卷积神经网络的SAR图像目标分类方法,用于提高SAR图像目标分类精度。实现步骤为:获取包含SAR目标图像的训练样本集和测试样本集;去除训练样本集和测试样本集中每幅SAR图像的背景杂波;构建包含变换sigmoid激活函数构成Enhanced‑SE层的深度卷积神经网络模型;对深度卷积神经网络模型进行训练;用训练后的深度卷积神经网络模型对测试样本集进行分类。本发明通过形态学闭运算方法在去除SAR目标图像中背景杂波时融合目标区域的边缘缺口并填补目标区域的内部缺损,有效保留目标区域的形状特征;通过对sigmoid函数的改造构成Enhanced‑SE层,抑制深度卷积网络对于冗余特征自动提取,提高SAR图像目标分类的精度。

Description

基于深度卷积神经网络的SAR图像目标分类方法
技术领域
本发明属于雷达技术领域,涉及一种SAR图像目标分类方法,具体涉及一种基于深度卷积神经网络的SAR图像目标分类方法,可用于SAR图像的目标检测、目标识别和侦查监视。
背景技术
图像目标分类,是一种根据不同类别的目标各自在图像信息中所反映的不同特征,把不同类别的目标区分开来的图像处理方法。图像目标分类可基于色彩、纹理、形状、空间关系等图像特征对图像目标进行分类。
合成孔径雷达SAR具有全天时、全天候、远作用距离、高分辨等特点,在侦察、探测制导等领域发挥了重要作用。由SAR拍摄的图像被称为SAR图像,高分辨的SAR图像能够体现出目标的散射特性,反映出目标的形状、尺寸、结构等特征,同时包含背景杂波的纹理特征。
与一般图像相比,SAR图像信噪比较低,所以SAR影像中所包含的振幅信息远达不到其他光学影像的成像水平。不同于一般图像的分类方法,如何去除SAR图像中的噪声一直是SAR图像分类技术难点。基于SAR图像的目标分类技术受到各领域的广泛关注。SAR图像的目标分类方法包括模板匹配方法、基于专家设计分类模型的方法、基于神经网络的方法三大类。
与模板匹配方法和基于专家设计分类模型的方法相比,神经网络方法并不需要人工提取特征以及过多专业知识,能够通过神经网络模型的训练自动稳健地提取图像特征,完成图像的分类。卷积神经网络是神经网络中的一种,由于具有局部连接、权值共享、下采样等优势,已成为图像识别与分割、语音识别、人类行为监测等领域的研究热点。
作为卷积神经网络中的一种,深度卷积神经网络由于具有更多的卷积层等结构,能够更多地提取SAR图像特征,完成对于SAR图像的准确分类。
例如申请公布号为CN 108510467A,名称为“基于深度可变形卷积神经网络的SAR图像目标识别方法”的专利申请,公开了一种基于深度可变形卷积神经网络的SAR图像目标分类方法,该方法首先对SAR图像目标切片数据进行数据扩增,构建含有基于像素级的峰值特征提取模块、连通区域标记模块的深度可变性卷积神经网络模型,将数据扩充后的SAR图像输入深度可变性卷积神经网络模型中进行训练及测试,得到SAR图像目标的分类结果。该发明在深度卷积网络中加入可变形卷积网络,带有偏移量的卷积核可以在采样点位置附近任意采样,解决了SAR图像目标分类方法中SAR图像目标特征位置不定影响SAR图像目标准确分类造成的分类精度低的问题,但是该方法由于只采用中值滤波等简单操作去除人工拼接的背景杂波,仍未对SAR图像目标图像中背景杂波进行有效去除以及抑制深度卷积神经网络对于冗余特征的自动提取,因此对SAR图像目标分类的精度依然较低。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于深度卷积神经网络的SAR图像目标分类方法,用于提高SAR图像目标分类的精度。
为了实现上述目的,本发明采用的技术方案包括如下步骤:
(1)获取训练样本集R0和测试样本集E0
(1a)选取包含T类目标且大小为l×l的SAR图像,T≥2,l≥2,每类SAR图像的数量为H幅,H≥10;
(1b)随机选取每类SAR图像中的30%以上组成训练样本集R0,剩余部分组成测试样本集E0,并对R0中每幅SAR图像类别进行标记;
(2)去除训练样本集R0和测试样本集E0中每幅SAR图像的背景杂波:
(2a)对训练样本集R0和测试样本集E0中的每幅SAR图像I0进行幂变换,得到T×H幅幂变换后的SAR图像I1
(2b)使用边长为w的正方形滑窗,按照先行后列的顺序,以步长1在每幅I1上滑动,w≤l,统计每个滑窗区域内像素的均值,并选取所有均值中的最大值a;
(2c)计算每幅I1边缘d×d大小的区域内像素的均值b,
(2d)设置a的权重为u1,b的权重为u2,且u1+u2=1,阈值t=u1×a+u2×b,将每幅I1像素值中所有大于或等于t的像素点组成的区域作为目标区域,并令该目标区域中每一个像素点的像素值为1,同时将其余像素点组成的区域作为背景区域,并令该背景区域中每一个像素点的像素值为0,得到包含目标区域和背景区域的T×H幅SAR图像I2
(2e)采用形态学闭运算方法,对每幅I2中目标区域的边缘缺口进行融合,同时对目标区域的内部缺损进行填补,得到T×H幅SAR图像I3
其中,表示膨胀算子,表示腐蚀算子,S为结构元素,
(2f)令每幅I3中面积最大的连通域内所有像素点的像素值为1,其余区域内所有像素点的像素值为0,得到T×H幅图像I4
(2g)将每幅I0与每幅I0对应的I4点乘,得T×H幅去除背景杂波SAR图像,并根据每幅SAR图像的类别标记,将归属于R0的每幅I0对应的去除背景杂波SAR图像组合成训练样本集R1,同时将归属于E0的每幅I0对应的去除背景杂波SAR图像组合成测试样本集E1
(3)构建深度卷积神经网络模型:
(3a)构建由依次层叠的全局池化层、第一全连接层、ReLu激活层、第二全连接层和sigmoid激活层组成的SE层;
其中sigmoid激活层的sigmoid激活函数为:
其中xi为SE层中第二全连接层输出的分类权重,i=1,2,...,T;
(3b)构建由依次层叠的卷积层、ReLu激活层、全连接层和Enhanced-sigmoid激活层组成的Enhanced-SE层;
其中Enhanced-SE层的Enhanced-sigmoid激活函数p(yx)的表达式为:
p(yi)=(m+n·s(yi))q
n是对sigmoid激活函数s(yi)进行的尺度变换,m为n·s(yi)的平移参数,q为m+n·s(yi)的幂次变换;其中yi为Enhanced-SE层中全连接层输出的分类权重,i=1,2,...,T;
(3c)构建由依次层叠的输入层、隐藏层和输出层组成的深度卷积神经网络模型,其中隐藏层包括多个SE层、多个Enhanced-SE层、多个卷积层、多个池化层和多个Dropout层,输出层由依次层叠的全连接层和LM-softmax分类器组成;
(4)对深度卷积神经网络模型进行训练:
将带类别标记的训练样本集R1作为深度卷积神经网络模型的输入对该模型进行K次迭代监督训练,得到训练后的深度卷积神经网络模型,其中,K≥10000;
(5)获取SAR图像目标的分类结果:
将测试样本集E1输入训练后的深度卷积神经网络模型中对E1中的每幅SAR图像包含的目标进行分类,得到SAR图像目标的分类结果。
本发明与现有技术相比,具有以下优点:
1.本发明构建深度卷积神经网络中的Enhanced-SE层的Enhanced-sigmoid激活函数中的尺度变化参数、平移参数、幂变换参数能够有效调整各图像特征的权值,提高了sigmoid激活函数对不同图像特征的提取效率,抑制深度卷积神经网络对于冗余特征的自动提取,提高SAR图像目标的分类的精度。
2.本发明在根据SAR图像特性去除SAR图像中的背景杂波,减少背景杂波对于分类的影响时,基于形态学闭运算方法对每幅SAR图像中目标区域的边缘缺口进行融合并对目标区域的内部缺损进行填补,有效保留目标区域的形状特征,提高SAR图像目标的分类的精度。
附图说明
图1是本发明的实现流程图;
图2是本发明对一副SAR图像去除背景杂波的示例。
具体实施方式
下面结合附图和具体实施例,对本发明进一步详细说明。
参照图1,一种基于深度卷积神经网络的SAR图像目标分类方法,包括如下步骤:
步骤1)获取训练样本集R0和测试样本集E0
步骤1a)本实施例使用MSTAR数据集中包括俯仰角在15°及17°下的十类地面车辆目标:装甲车:BMP-2、BRDM-2、BTR-60、BTR-70;坦克:T62、T72;火箭发射器:2S1;防空单元:ZSU-234;卡车:ZIL-131;推土机:D7。实验中选取17°俯仰角下包含该10类地面车辆目标且大小为128×128的3671幅SAR图像作为训练样本集R0;选取15°俯仰角下包含该10类地面车辆目标且大小为128×128的3203幅SAR图像作为测试样本集E0,每类目标数据集的构成如表1所示,
表1实施例中的训练集和测试集
步骤1b)R0和E0共计包含10类车面目标6800幅SAR图像,BMP-2、BRDM-2、BTR-60、BTR-70、T62、T72、2S1、ZSU-234、ZIL-131、D7类别SAR图像的54.32%、52.10%、56.76%、54.31%、52.27%、54.28%、52.18%、52.18%、52.18%、52.18%为R0,各类别剩余部分为E0,对R0中每幅SAR图像类别进行标记;
步骤2)参照图2,由于SAR图像中具有相似性十分高的背景杂波,因此会影响SAR图像目标的准确分类,所以去除训练样本集R0和测试样本集E0中每幅SAR图像的背景杂波:
步骤2a)对训练样本集R0和测试样本集E0中的每幅SAR图像I0进行0.5次幂变换,得到6800幅0.5次幂变换后的SAR图像I1
步骤2b)为得到图像中目标区域的平均像素值,使用边长为15的正方形滑窗,按照先行后列的顺序,以步长1在每幅I1上滑动,统计每个滑窗区域内像素的均值,并选取所有均值中的最大值a;
步骤2c)为得到图像中背景区域的平均像素值,计算每幅I1左上角5×5大小的区域内像素的均值b;
步骤2d)为高效率提取目标区域,通过设置合理阈值对图像中的目标区域和背景区域进行0、1二值区分,设置a的权重为0.65,b的权重为0.35,阈值t=0.65×a+0.35×b,将每幅I1像素值中所有大于或等于t的像素点组成的区域作为目标区域,并令该目标区域中每一个像素点的像素值为1,同时将其余像素点组成的区域作为背景区域,并令该背景区域中每一个像素点的像素值为0,通过对阈值的设置来区分目标区域和背景区域,得到包含目标区域和背景区域的6800幅SAR图像I2
步骤2e)由于I2中不光滑的目标区域的边缘缺口和不完整的目标区域的内部缺损造成的目标区域形状的缺失,会影响深度卷积网络对于图像特征的提取,造成SAR图像目标分类的精度降低,采用形态学闭运算方法,对每幅I2中目标区域的边缘缺口进行融合,同时对目标区域的内部缺损进行填补,得到6800幅SAR图像I3
其中,表示膨胀算子,表示腐蚀算子,S为结构元素,
步骤2f)为准确选择出图像中的目标区域,令每幅I3中面积最大的连通域内所有像素点的像素值为1,其余区域内所有像素点的像素值为0,得到6800幅图像I4
步骤2g)将每幅I0与每幅I0对应的I4点乘,得6800幅去除背景杂波SAR图像,并根据每幅SAR图像的类别标记,将归属于R0的每幅I0对应的去除背景杂波SAR图像组合成训练样本集R1,同时将归属于E0的每幅I0对应的去除背景杂波SAR图像组合成测试样本集E1
步骤3)构建深度卷积神经网络模型:
步骤3a)构建由依次层叠的全局池化层、第一全连接层、ReLu激活层、第二全连接层和sigmoid激活层组成的SE层;
其中sigmoid激活层的sigmoid激活函数为:
其中xi为SE层中第二全连接层输出的分类权重,i=1,2,...,T;
步骤3b)构建由依次层叠的卷积层、ReLu激活层、全连接层和Enhanced-sigmoid激活层组成的Enhanced-SE层;
由于sigmoid函数输出各图像特征的大部分权值都非常接近1,不能有效区分图像特征,即原始的SE层对深度卷积神经网络从SAR图像中自动提取的冗余特征的抑制效果有限,影响深度卷积神经网络对SAR图像各目标类别之间不同显著性特征的提取,其中Enhanced-SE层的Enhanced-sigmoid激活函数p(yi):
p(yi)=(m+n·s(yi))q
是通过对sigmoid激活函数s(yi)先进行n倍的尺度变换得到n·s(yi),后对n·s(yi)平移m单位得到m+n·s(yi)、再对m+n·s(yi)进行q次幂变换得到,其中yi为Enhanced-SE层中全连接层输出的分类权重,i=1,2,...,T,m、n、q是对sigmoid函数的平移参数、尺度变换参数,幂变换参数,本实验分别设置m、n、q为0、1、2;
步骤3c)构建由依次层叠的输入层、隐藏层和输出层组成的深度卷积神经网络模型,其中隐藏层包括多个SE层、多个Enhanced-SE层、多个卷积层、多个池化层和多个Dropout层,输出层由依次层叠的全连接层和LM-softmax分类器组成,其中隐藏层的结构和参数设置为:
隐藏层的结构为:第一卷积层→归一化层→第一池化层→第二卷积层→SE层→第二池化层→第三卷积层→第一Dropout层→Enhanced-SE层→第三池化层→第四卷积层→第二Dropout层;
隐藏层的参数设置:
为了较高效率并且较完整地提取SAR图像目标特征,卷积核大小随网络层数的递增而递减,卷积核个数随网络层数的递增而递增,第一卷积层的卷积核大小设置为5,卷积核个数设置为16;
第二卷积层卷积核大小设置为3,卷积核个数设置为32;
SE层中卷积层大小设置为3,卷积核个数设置为32;
第三卷积层的卷积核大小设置为4,卷积核个数设置为64;
第一Dropout层的比率设置为0.5;
Enhanced-SE层中卷积层层大小设置为4,卷积核个数设置为64;
第四卷积层的卷积核大小设置为5,卷积核个数设置为64;
第二Dropout层的比率设置为0.25;
步骤4)对深度卷积神经网络模型进行训练:
首先对网络中所有卷积核的权值赋予初始值,将带类别标记的训练样本集R1作为深度卷积神经网络模型的输入,输入经过深度卷积神经网络中卷积层、池化层等向前传播得出输出分类类别,求出输出分类类别与标记的目标真实类别的误差,当误差大于阈值时,将误差传回深度卷积神经网络中;否则结束训练。对深度卷积神经网络模型进行如上述10000次迭代监督训练,得到训练后的深度卷积神经网络模型;
步骤5)通过训练后的深度卷积神经网络模型对测试样本集E1进行分类:
将测试样本集E1输入训练后的深度卷积神经网络模型中对E1中的每幅SAR图像包含的目标进行分类,得到SAR图像目标的分类结果。
以下结合仿真实验,对本发明的技术效果作进一步说明:
1.仿真条件:
本仿真实验使用MSTAR数据集中包括俯仰角在15°及17°下的十类地面车辆目标:装甲车:BMP-2、BRDM-2、BTR-60、BTR-70;坦克:T62、T72;火箭发射器:2S1;防空单元:ZSU-234;卡车:ZIL-131;推土机:D7。
2.仿真内容与结果:
本实验中选取17°俯仰角下包含该10类地面车辆目标且大小为128×128的3671幅SAR图像作为训练样本集R0;选取15°俯仰角下包含该10类地面车辆目标且大小为128×128的3203幅SAR图像作为测试样本集E0,每类目标数据集的构成如表2所示,
表2仿真实验中的训练集和测试集
R0和E0共计包含10类车面目标6800幅SAR图像,BMP-2、BRDM-2、BTR-60、BTR-70、T62、T72、2S1、ZSU-234、ZIL-131、D7类别SAR图像的54.32%、52.10%、56.76%、54.31%、52.27%、54.28%、52.18%、52.18%、52.18%、52.18%为R0,各类别剩余部分为E0,对R0中每幅SAR图像类别进行标记,将归属于R0的每幅I0对应的去除背景杂波SAR图像组合成训练样本集R1,同时将归属于E0的每幅I0对应的去除背景杂波SAR图像组合成测试样本集E1
构建由依次层叠的输入层、隐藏层和输出层组成的卷积神经网络模型,其隐藏层结构和参数设置为:
隐藏层的结构为:输入层→第一卷积层→第一池化层→第二卷积层→第二池化层→第三卷积层→第三池化层→全连接层;
隐藏层的参数设置:
第一卷积层的卷积核大小设置为5,卷积核个数设置为16;
第二卷积层卷积核大小设置为3,卷积核个数设置为32;
第三卷积层的卷积核大小设置为4,卷积核个数设置为64;
输出层由依次层叠的全连接层和分类器组成;
将训练样本集R1作为输入训练该卷积神经网络模型和本发明的深度卷积神经网络模型,将训练样本E1作为输入测试训练后的该卷积神经网络模型和训练后的本发明的深度卷积神经网络模型,统计两种卷积神经网络模型分类方法对于测试样本集E1中SAR图像目标的分类正确率Accuracy,
其中,N为输入测试样本数量,ti为第i个测试样本两个不同网络所判别的类别,labeli为第i个测试样本真实类别,得到分类正确率结果如表3所示,
表3卷积神经网络方法与本发明分类正确率对比
网络结构 卷积神经网络方法 本发明方法
分类正确率(%) 94.79% 97.32%
由表1可以看出,本发明方法的分类正确率较卷积神经网络方法提高了2.53%,说明该方法中构建对sigmoid激活函数平移、尺度变换、幂变换得到Enhanced-SE激活函数的Enhanced-SE层提高了对SAR图像目标的分类精度。

Claims (2)

1.一种基于深度卷积神经网络的SAR图像目标分类方法,其特征在于,包括如下步骤:
(1)获取训练样本集R0和测试样本集E0
(1a)选取包含T类目标且大小为l×l的SAR图像,T≥2,l≥2,每类SAR图像的数量为H幅,H≥10;
(1b)随机选取每类SAR图像中的30%以上组成训练样本集R0,剩余部分组成测试样本集E0,并对R0中每幅SAR图像类别进行标记;
(2)去除训练样本集R0和测试样本集E0中每幅SAR图像的背景杂波:
(2a)对训练样本集R0和测试样本集E0中的每幅SAR图像I0进行幂变换,得到T×H幅幂变换后的SAR图像I1
(2b)使用边长为w的正方形滑窗,按照先行后列的顺序,以步长1在每幅I1上滑动,w≤l,统计每个滑窗区域内像素的均值,并选取所有均值中的最大值a;
(2c)计算每幅I1边缘d×d大小的区域内像素的均值b,
(2d)设置a的权重为u1,b的权重为u2,且u1+u2=1,阈值t=u1×a+u2×b,将每幅I1像素值中所有大于或等于t的像素点组成的区域作为目标区域,并令该目标区域中每一个像素点的像素值为1,同时将其余像素点组成的区域作为背景区域,并令该背景区域中每一个像素点的像素值为0,得到包含目标区域和背景区域的T×H幅SAR图像I2
(2e)采用形态学闭运算方法,对每幅I2中目标区域的边缘缺口进行融合,同时对目标区域的内部缺损进行填补,得到T×H幅SAR图像I3
其中,表示膨胀算子,表示腐蚀算子,S为结构元素,
(2f)令每幅I3中面积最大的连通域内所有像素点的像素值为1,其余区域内所有像素点的像素值为0,得到T×H幅图像I4
(2g)将每幅I0与每幅I0对应的I4点乘,得T×H幅去除背景杂波SAR图像,并根据每幅SAR图像的类别标记,将归属于R0的每幅I0对应的去除背景杂波SAR图像组合成训练样本集R1,同时将归属于E0的每幅I0对应的去除背景杂波SAR图像组合成测试样本集E1
(3)构建深度卷积神经网络模型:
(3a)构建由依次层叠的全局池化层、第一全连接层、ReLu激活层、第二全连接层和sigmoid激活层组成的SE层;
其中sigmoid激活层的sigmoid激活函数为:
其中xi为SE层中第二全连接层输出的分类权重,i=1,2,...,T;
(3b)构建由依次层叠的卷积层、ReLu激活层、全连接层和Enhanced-sigmoid激活层组成的Enhanced-SE层;
其中Enhanced-SE层的Enhanced-sigmoid激活函数p(yi)的表达式为:
p(yi)=(m+n·s(yi))q
n是对sigmoid激活函数s(yi)进行的尺度变换,m为n·s(yi)的平移参数,q为m+n·s(yi)的幂次变换;其中yi为Enhanced-SE层中全连接层输出的分类权重,i=1,2,...,T;
(3c)构建由依次层叠的输入层、隐藏层和输出层组成的深度卷积神经网络模型,其中隐藏层包括多个SE层、多个Enhanced-SE层、多个卷积层、多个池化层和多个Dropout层,输出层由依次层叠的全连接层和LM-softmax分类器组成;
(4)对深度卷积神经网络模型进行训练:
将带类别标记的训练样本集R1作为深度卷积神经网络模型的输入对该模型进行K次迭代监督训练,得到训练后的深度卷积神经网络模型,其中,K≥10000;
(5)获取SAR图像目标的分类结果:
将测试样本集E1输入训练后的深度卷积神经网络模型中对E1中的每幅SAR图像包含的目标进行分类,得到SAR图像目标的分类结果。
2.根据权利要求1所述的基于深度卷积神经网络的SAR图像目标分类方法,其中特征在于,步骤(3c)所述深度卷积神经网络模型,其隐藏层的结构和参数设置为:
隐藏层的结构为:第一卷积层→归一化层→第一池化层→第二卷积层→SE层→第二池化层→第三卷积层→第一Dropout层→Enhanced-SE层→第三池化层→第四卷积层→第二Dropout层;
隐藏层的参数设置:
第一卷积层的卷积核大小设置为5,卷积核个数设置为16;
第二卷积层卷积核大小设置为3,卷积核个数设置为32;
SE层中卷积层大小设置为3,卷积核个数设置为32;
第三卷积层的卷积核大小设置为4,卷积核个数设置为64;
第一Dropout层的比率设置为0.5;
Enhanced-SE层中卷积层层大小设置为4,卷积核个数设置为64;
第四卷积层的卷积核大小设置为5,卷积核个数设置为64;
第二Dropout层的比率设置为0.25。
CN201910407093.2A 2019-05-16 2019-05-16 基于深度卷积神经网络的sar图像目标分类方法 Active CN110163275B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910407093.2A CN110163275B (zh) 2019-05-16 2019-05-16 基于深度卷积神经网络的sar图像目标分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910407093.2A CN110163275B (zh) 2019-05-16 2019-05-16 基于深度卷积神经网络的sar图像目标分类方法

Publications (2)

Publication Number Publication Date
CN110163275A true CN110163275A (zh) 2019-08-23
CN110163275B CN110163275B (zh) 2021-10-29

Family

ID=67634700

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910407093.2A Active CN110163275B (zh) 2019-05-16 2019-05-16 基于深度卷积神经网络的sar图像目标分类方法

Country Status (1)

Country Link
CN (1) CN110163275B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110781830A (zh) * 2019-10-28 2020-02-11 西安电子科技大学 基于空-时联合卷积的sar序列图像分类方法
CN111126385A (zh) * 2019-12-13 2020-05-08 哈尔滨工程大学 一种可变形活体小目标的深度学习智能识别方法
CN112101251A (zh) * 2020-09-18 2020-12-18 电子科技大学 基于可变卷积神经网络的sar自动目标识别方法
CN112244863A (zh) * 2020-10-23 2021-01-22 京东方科技集团股份有限公司 信号识别方法、信号识别装置、电子设备及可读存储介质
CN112949731A (zh) * 2021-03-11 2021-06-11 江苏禹空间科技有限公司 基于多专家模型的目标检测方法、装置、存储介质及设备
CN113436200A (zh) * 2021-07-27 2021-09-24 西安电子科技大学 基于轻量分割卷积网络的rgb图像分类方法
CN114708236A (zh) * 2022-04-11 2022-07-05 徐州医科大学 一种基于tsn和ssn在超声图像中的甲状腺结节良恶性分类方法
CN116141178A (zh) * 2023-04-17 2023-05-23 杭州鄂达精密机电科技有限公司 一种半导体阀门的加工系统及其方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103955702A (zh) * 2014-04-18 2014-07-30 西安电子科技大学 基于深度rbf网络的sar图像地物分类方法
CN106228124A (zh) * 2016-07-17 2016-12-14 西安电子科技大学 基于卷积神经网络的sar图像目标检测方法
CN107145874A (zh) * 2017-05-13 2017-09-08 复旦大学 复杂背景sar图像中的舰船目标检测与鉴别方法
CN107247930A (zh) * 2017-05-26 2017-10-13 西安电子科技大学 基于cnn和选择性注意机制的sar图像目标检测方法
CN108280460A (zh) * 2017-12-04 2018-07-13 西安电子科技大学 基于改进卷积神经网络的sar车辆目标识别方法
US10289910B1 (en) * 2014-07-10 2019-05-14 Hrl Laboratories, Llc System and method for performing real-time video object recognition utilizing convolutional neural networks

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103955702A (zh) * 2014-04-18 2014-07-30 西安电子科技大学 基于深度rbf网络的sar图像地物分类方法
US10289910B1 (en) * 2014-07-10 2019-05-14 Hrl Laboratories, Llc System and method for performing real-time video object recognition utilizing convolutional neural networks
CN106228124A (zh) * 2016-07-17 2016-12-14 西安电子科技大学 基于卷积神经网络的sar图像目标检测方法
CN107145874A (zh) * 2017-05-13 2017-09-08 复旦大学 复杂背景sar图像中的舰船目标检测与鉴别方法
CN107247930A (zh) * 2017-05-26 2017-10-13 西安电子科技大学 基于cnn和选择性注意机制的sar图像目标检测方法
CN108280460A (zh) * 2017-12-04 2018-07-13 西安电子科技大学 基于改进卷积神经网络的sar车辆目标识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FENG ZHOU等: "SAR ATR of Ground Vehicles Based on LM-BN-CNN", 《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》 *
卢玲等: "结合注意力机制的长文本分类方法", 《计算机应用》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110781830A (zh) * 2019-10-28 2020-02-11 西安电子科技大学 基于空-时联合卷积的sar序列图像分类方法
CN111126385A (zh) * 2019-12-13 2020-05-08 哈尔滨工程大学 一种可变形活体小目标的深度学习智能识别方法
CN112101251A (zh) * 2020-09-18 2020-12-18 电子科技大学 基于可变卷积神经网络的sar自动目标识别方法
CN112244863A (zh) * 2020-10-23 2021-01-22 京东方科技集团股份有限公司 信号识别方法、信号识别装置、电子设备及可读存储介质
CN112949731A (zh) * 2021-03-11 2021-06-11 江苏禹空间科技有限公司 基于多专家模型的目标检测方法、装置、存储介质及设备
CN113436200A (zh) * 2021-07-27 2021-09-24 西安电子科技大学 基于轻量分割卷积网络的rgb图像分类方法
CN113436200B (zh) * 2021-07-27 2023-05-30 西安电子科技大学 基于轻量分割卷积网络的rgb图像分类方法
CN114708236A (zh) * 2022-04-11 2022-07-05 徐州医科大学 一种基于tsn和ssn在超声图像中的甲状腺结节良恶性分类方法
CN116141178A (zh) * 2023-04-17 2023-05-23 杭州鄂达精密机电科技有限公司 一种半导体阀门的加工系统及其方法

Also Published As

Publication number Publication date
CN110163275B (zh) 2021-10-29

Similar Documents

Publication Publication Date Title
CN110163275A (zh) 基于深度卷积神经网络的sar图像目标分类方法
CN110348319B (zh) 一种基于人脸深度信息和边缘图像融合的人脸防伪方法
CN108510467B (zh) 基于深度可变形卷积神经网络的sar图像目标识别方法
CN106910185B (zh) 一种基于cnn深度学习的dbcc分类模型构建方法
CN108229404A (zh) 一种基于深度学习的雷达回波信号目标识别方法
CN105809198B (zh) 基于深度置信网络的sar图像目标识别方法
CN109389080A (zh) 基于半监督wgan-gp的高光谱图像分类方法
CN108776779A (zh) 基于卷积循环网络的sar序列图像目标识别方法
CN106446930A (zh) 基于深层卷积神经网络的机器人工作场景识别方法
CN107229918A (zh) 一种基于全卷积神经网络的sar图像目标检测方法
CN108256436A (zh) 一种基于联合分类的雷达hrrp目标识别方法
CN109766835A (zh) 基于多参数优化生成对抗网络的sar目标识别方法
CN108280460A (zh) 基于改进卷积神经网络的sar车辆目标识别方法
CN106600595A (zh) 一种基于人工智能算法的人体特征尺寸自动测量方法
CN107895139A (zh) 一种基于多特征融合的sar图像目标识别方法
CN113160062B (zh) 一种红外图像目标检测方法、装置、设备及存储介质
CN103246894B (zh) 一种解决光照不敏感问题的地基云图识别方法
US20230162341A1 (en) Half-cast mark identification and damaged flatness evaluation and classification method for blastholes in tunnel blasting
CN108520212A (zh) 基于改进的卷积神经网络的交通标志检测方法
CN110490227A (zh) 一种基于特征转换的少样本图像分类方法
CN110503613A (zh) 基于级联空洞卷积神经网络的面向单幅图像去雨方法
CN104732244A (zh) 基于小波变换、多策略pso和svm集成的遥感图像分类方法
CN108764330A (zh) 基于超像素分割和卷积反卷积网络的sar图像分类方法
CN105354824B (zh) 基于区域提取的双参数恒虚警检测方法
CN103971106A (zh) 多视角人脸图像性别识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant