CN108510467B - 基于深度可变形卷积神经网络的sar图像目标识别方法 - Google Patents
基于深度可变形卷积神经网络的sar图像目标识别方法 Download PDFInfo
- Publication number
- CN108510467B CN108510467B CN201810263825.0A CN201810263825A CN108510467B CN 108510467 B CN108510467 B CN 108510467B CN 201810263825 A CN201810263825 A CN 201810263825A CN 108510467 B CN108510467 B CN 108510467B
- Authority
- CN
- China
- Prior art keywords
- layer
- target
- convolution
- size
- sar image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 8
- 238000012549 training Methods 0.000 claims abstract description 37
- 238000012360 testing method Methods 0.000 claims abstract description 19
- 238000001514 detection method Methods 0.000 claims abstract description 17
- 230000003321 amplification Effects 0.000 claims abstract description 11
- 238000003199 nucleic acid amplification method Methods 0.000 claims abstract description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 16
- 238000003062 neural network model Methods 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 239000002131 composite material Substances 0.000 claims description 5
- 230000007797 corrosion Effects 0.000 claims description 5
- 238000005260 corrosion Methods 0.000 claims description 5
- 230000007613 environmental effect Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 230000011218 segmentation Effects 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 4
- 238000009432 framing Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 2
- 238000010276 construction Methods 0.000 claims description 2
- 230000008034 disappearance Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 abstract description 3
- 238000004088 simulation Methods 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种基于深度可变形卷积神经网络的SAR图像目标识别方法,主要解决现有技术目标识别速度慢,准确率低的问题,其步骤为:1)对于SAR图像目标切片数据进行数据扩增,构建目标与场景的合成图像集合,进而得到训练样本集和测试样本集;2)构建基于像素级的峰值特征模块与连通区域标记模块;3)构建深度可变形卷积神经网络并对其进行训练;4)依据得到的峰值图像标记结果,画出目标检测结果图,将目标送入网络,得到输出的分类标签,完成SAR图像目标识别。本发明利用多层网络结构提取输入图像的特征,提高了SAR目标识别中检测速度和识别准确率,可用于遥感目标的目标检测、目标识别和侦查监视。
Description
技术领域
本发明属于遥感图像处理领域,特别涉及一种SAR图像目标检测与识别方法,可用于遥感目标的目标检测、目标识别和侦查监视。
背景技术
机载和星载合成孔径雷达SAR可以在全天候的白天和夜间条件下运行,并且可以完成获得高分辨率图像和目标信息,获取大面积数据的任务。SAR图像同时包含形状和散射信息,可以很好地表示物体,因此特别适用于目标识别、侦查、监视等任务中。由于其散射/成像机制和散斑,SAR图像的解译与理解同视觉图像存在很大差异,通过人眼搜索大规模SAR图像中的小目标通常是耗时且不切实际的。
MIT林肯实验室将SAR图像的自动目标识别ATR标准体系结构划分为三个阶段:检测、判别和分类。检测使用恒虚警率CFAR检测器从SAR图像中提取候选目标;其结果中可能不仅包含坦克、装甲车、导弹发射装置等目标,还可能包含建筑物、树木、桥梁等虚假警报杂物。在判别阶段,选择合适的特征训练鉴别器来消除误报问题;最后,分类器被用来将每个输入分类为特定的目标类型,目前的三种主流模式为:模板匹配、基于模型的方法和机器学习。基于模型的方法通过对另一个子空间的对象表示以获取区分性特征,而模板匹配法则使用不同的分类规则。这些传统算法忽略了人类学习系统,即通过识别信息来学习对象的分层表示。与人类学习系统多层结构相同的深度学习已经被引入到各个领域,然而对于SAR图像而言,由于其用于针对特定目标学习深层结构的SAR图像数量非常有限,导致将深度卷积网络直接应用会导致严重过拟合,且卷积神经网络对于几何变换的模拟能力十分有限。例如,Chen等人在2016年《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》上发表了一篇题为“Target Classification Using the Deep ConvolutionalNetworks forSAR Images”的文章,公开了一种基于深度卷积神经网络的SAR图像目标识别方法,利用五层卷积层结构实现SAR图像目标识别。该方法在对SAR图像进行预测时未考虑网络的过拟合情况,对数据几何变换的模拟能力不强,同时存在训练参数过多的问题,导致最终目标识别在训练阶段效率偏低,识别准确率达不到理想数值。
发明内容
本发明的目的在于针对上述现有技术存在的缺陷,提出一种基于深度可变形卷积神经网络的SAR目标识别方法,以提高SAR目标识别效率和识别准确率。
本发明的技术思路是:通过提取图像的峰值特征并经过改进,在合成的SAR目标背景图中快速寻找到目标所在位置,完成目标检测过程;通过使用可变形卷积网络对处理好的数据集进行训练及对数据偏移量的学习保证深度卷积网络的稳定性,进而提高识别准确率。
其实现方案包括如下:
(1)对于SAR图像目标切片数据进行数据扩增:
(1a)对于俯视角为17度的数据,在每一类128×128的原始目标切片中扩增获取88×88大小的目标切片;
(1b)对于俯视角为15度的SAR图像目标切片,将每一类目标图像以中心像素点为中心,切取88×88的切片;
(2)将包含目标的10类436个图像切片嵌入不同环境场景的数据图像中,共获得50幅不同场景下的合成图像;
(3)构建网络训练样本集和测试样本集:
(3a)对于10类地物目标,每一类均使用2200幅经过数据扩增的俯视角为17度的目标切片图像,共计22000幅训练图像构成训练样本集,每一个训练样本均有各自的参考标签;
(3b)使用5000幅经过数据扩增的俯视角为17度及2425幅俯视角为15度的目标切片图像,共计7425幅测试图像构成测试样本集,每一个测试样本均有各自的参考标签;
(4)构建基于像素级的峰值特征提取模块:
(4a)对SAR图像使用中值滤波器进行噪声去除,并对中值滤波后SAR图像依次进行膨胀、腐蚀、像素值归一化和阈值分割;
(4b)对SAR图像进行计数滤波,并对计数滤波后的SAR图像进行膨胀处理,得到峰值特征提取模块;
(5)构建连通区域标记模块:
(5a)使用8连通区域判定准则,通过一次对图像的遍历,记录下每一行或列中连续的序列和标记的等价对;
(5b)对标记前的峰值图像利用(5a)得到的等价对进行重新标记,完成连通区域标记模块;
(6)构建一个包括7层结构的深度可变形卷积神经网络模型,即第1层为网络输入层,第2层为第一卷积层,第3层为第二卷积层,第4层为第三卷积层,第5层为第四卷积层,第6层为全局均值池化层,第7层为输出层;
(7)对深度可变形卷积神经网络模型进行训练:
将训练样本集与训练样本集标签作为深度可变形卷积神经网络模型的输入,对深度可变形卷积神经网络模型进行若干次迭代有监督训练,设置初始学习率为2×e-4,数据迭代次数为20;
设置训练集与测试集批块的大小为25,调整深度卷积神经网络的超参数并防止过拟合,得到训练好的深度可变形卷积神经网络模型;
(8)依据(5b)中得到的峰值图像标记结果,画出目标检测结果图,框出检测到的目标,将这些目标送入(7)得到的深度可变形卷积神经网络,得到输出的实际分类标签,完成SAR图像目标识别。
本发明与现有技术相比,具有以下优点:
1.本发明由于在可变形卷积单元中对卷积核的每个采样点位置都增加了一个偏移的变量,使得卷积核可以在当前位置附近任意采样,而不再局限于传统卷积网络中的规则格点,削弱了规则格点采样的局制,使得卷积层具有对几何变换进行建模的能力,大幅提升了SAR图像目标识别的准确率。
2.本发明采用全局均值池化层对于众多基于神经网络的机器学习算法所使用的全连接层进行替代,使得原本数量庞大的参数得以省略,可以大大减小网络规模,避免过拟合,有效地提升了SAR图像目标识别的效率。
3.本发明基于像素级峰值特征进行特征改进与参数设计,可以快速确定目标所在区域,且无需变换滑窗的尺度,更节约了批量处理SAR合成图像所需要的时间,方法不基于学习机制,因此省去对训练集训练的时间,大大提升了检测的效率。
4.本发明通过在每一类128×128的原始目标切片中扩增获取88×88大小的目标切片,对SAR图像目标切片数据实现数据扩增,可以大大增加每一类训练图像的数量,使得训练数据集得到有效扩充,有效地提升所训练出的可变形卷积网络模型稳定性。
附图说明
图1是本发明的实现流程图;
图2是用本发明对MSTAR数据集的合成SAR图像进行目标检测的仿真图。
具体实施方案
以下结合附图和具体实施例,对本发明作进一步的详细描述。
参照图1,本发明基于深度可变形卷积神经网络的运动目标识别方法,包括如下步骤:
步骤1,对于SAR图像目标切片数据进行数据扩增。
1a)对于俯视角为17度的数据:
首先,随机选取一张128×128的原始目标切片,在该目标切片上随机选取(x,y)坐标点,x,y均为10到30间的随机数;
然后,以(x,y)坐标点作为扩充切片的左上角坐标,向右扩增88个像素点,向下扩增88个像素点,获取88×88大小的目标切片;
1b)对于俯视角为15度的SAR图像目标切片,将每一类目标图像以中心像素点为中心,切取88×88的切片。
步骤2,构建目标与场景的合成图像集合。
将包含目标的10类436个图像切片嵌入不同环境场景的数据图像中,共获得50幅不同场景下的合成图像。
步骤3,构建训练样本集和测试样本集。
3a)对于10类地物目标,每一类均使用2200幅经过数据扩增的俯视角为17度的目标切片图像,共计22000幅训练图像构成训练样本集,每一个训练样本均有各自的参考标签;
3b)使用5000幅经过数据扩增的俯视角为17度及2425幅俯视角为15度的目标切片图像,共计7425幅测试图像构成测试样本集,每一个测试样本均有各自的参考标签。
步骤4,构建基于像素级的峰值特征提取模块。
4a)对SAR图像使用中值滤波器进行噪声去除,降低图像里所带有的相干斑噪声;
4b)对中值滤波后SAR图像进行膨胀操作,即使用大小为5×5的块填满当前像素点邻域间隙;
4c)对SAR图像进行腐蚀操作,即使用大小为5×5的块分离目标区域和周围的杂波区域;
4d)将像素值大于200的点通过像素值归一化转换为1,将像素值小于200的点通过像素值归一化转换为0,完成像素值归一化和阈值分割;
4e)以光栅扫描顺序依次对SAR图像像素点进行扫描,判断当前像素点的5×5邻域内像素值大小,若皆为1时,则该点处像素值为1;否则,将该点处的像素值置零,完成SAR图像的计数滤波;
4f)使用大小为11×11的块填满当前像素点邻域间隙,完成膨胀操作。
步骤5,构建连通区域标记模块。
5a)使用8连通区域判定准则,通过一次对图像的遍历,记录下每一行或列中连续的序列和标记的等价对;
5b)对标记前的峰值图像利用5a)得到的等价对进行重新标记,完成连通区域标记模块的构建。
步骤6,构建深度可变形卷积神经网络模型。
设置深度可变形卷积神经网络包括7层结构,即第1层为网络输入层,第2层为第一卷积层,第3层为第二卷积层,第4层为第三卷积层,第5层为第四卷积层,第6层为全局均值池化层,第7层为输出层;
其各层的结构参数设置如下:
输入层,为训练样本集中的SAR目标切片;
第一卷积层,由一个大小为5的卷积核和大小为88×88的16个特征映射图组成,卷积操作步长为1;
第二卷积层,由一个大小为5的卷积核和大小为44×44的32个特征映射图组成,卷积操作步长为2;
第三卷积层,由一个大小为6的卷积核和大小为44×44的64个特征映射图组成,卷积操作步长为1;
第四卷积层,由一个大小为4的卷积核和大小为22×22的128个特征映射图组成,卷积操作步长为2;
输出层,选用Softmax分类器,分类类别数设置为10类。
各卷积层在进行卷积之前需要对每层的输入进行0填充操作,即在通过卷积操作后,为了保留原特征映射图大小,对特征映射图边缘使用0像素值填充;
各卷积层的激活函数均采用修正线性单元ReLU;
各卷积层均使用Batch Normalization归一化操作,以避免梯度消失;
第三卷积层与第四卷积层卷积操作前,需使用可变形卷积单元改变采样点的位置,使得卷积层具有对几何变换进行建模的能力。
步骤7,对深度可变形卷积神经网络模型进行训练。
将训练样本集与训练样本集标签作为深度可变形卷积神经网络模型的输入,设置训练集与测试集批块的大小为25,设置初始学习率为2×e-4,数据迭代次数为20,对深度可变形卷积神经网络模型进行20次迭代有监督训练,得到训练好的深度可变形卷积神经网络模型。
步骤8,获取SAR图像目标检测与识别结果。
依据5b)中得到的峰值图像标记结果,画出目标检测结果图,框出检测到的目标,将这些目标送入步骤7得到的深度可变形卷积神经网络,得到输出的实际分类标签,完成SAR图像目标识别。
以下结合仿真试验,对本发明的技术效果作进一步说明:
本发明的仿真实验是在GPU GeForce GTX 1080 Ti,RAM 20G的硬件环境与Ubuntu14.04的软件环境下基于tensorflow平台实现的。实验中使用的目标和环境场景数据来源于MSTAR数据库。
仿真实验1:对50幅合成图像进行目标检测,得到峰值图像标记结果,根据峰值图像标记画出目标检测结果图,框出检测到的目标,如图2所示,其中:
图2(a)是由MSTAR数据集中目标与环境场景合成的合成SAR图像;
图2(b)是用本发明对一幅合成图像进行目标检测得到的峰值图像标记结果;
图2(c)是用本发明中根据峰值图像标记画出的目标检测结果图。
从图2可见,本发明中提出的目标检测算法,可以有效地从背景中检测出目标,在检测精度方面获得了优良的结果。
仿真实验2:实验共采用22000幅训练图像、7245幅测试图像,对MSTAR数据集中的10类目标进行目标识别,得到实际分类标签,根据分类结果得到目标识别的混淆矩阵、每一类的识别准确率和测试集总准确率,如表1所示。
表1 SAR图像目标识别实验的混淆矩阵与识别准确率
从表1可见,本发明中提出的目标识别算法,总识别准确率达到99.31%,与传统识别算法和最新研究成果相比在性能方面有很大幅度的提升。
综上,本发明使用基于可变形卷积神经网络的SAR图像目标识别算法引入可变形卷积单元,可以有效地改变采样点的位置,使得卷积层具有对几何变换进行建模的能力,另外网络使用全局均值池化层代替CNN中的全卷积层,使得原本数量庞大的参数得以省略,可以大大减小网络规模,避免过拟合。同时,本发明基于像素级峰值特征进行特征改进与参数设计,可以快速确定目标所在区域,且无需变换滑窗的尺度,节约了批量处理SAR合成图像所需要的时间。
Claims (9)
1.一种基于深度可变形卷积神经网络的SAR图像目标识别方法,其特征在于,包括:
(1)对于SAR图像目标切片数据进行数据扩增:
(1a)对于俯视角为17度的数据,在每一类128×128的原始目标切片中扩增获取88×88大小的目标切片;
(1b)对于俯视角为15度的SAR图像目标切片,将每一类目标图像以中心像素点为中心,切取88×88的切片;
(2)将包含目标的10类436个图像切片嵌入不同环境场景的数据图像中,共获得50幅不同场景下的合成图像;
(3)构建网络训练样本集和测试样本集:
(3a)对于10类地物目标,每一类均使用2200幅经过数据扩增的俯视角为17度的目标切片图像,共计22000幅训练图像构成训练样本集,每一个训练样本均有各自的参考标签;
(3b)使用5000幅经过数据扩增的俯视角为17度及2425幅俯视角为15度的目标切片图像,共计7425幅测试图像构成测试样本集,每一个测试样本均有各自的参考标签;
(4)构建基于像素级的峰值特征提取模块:
(4a)对SAR图像使用中值滤波器进行噪声去除,并对中值滤波后SAR图像依次进行膨胀、腐蚀、像素值归一化和阈值分割;
(4b)对SAR图像进行计数滤波,并对计数滤波后的SAR图像进行膨胀处理,得到峰值特征提取模块;
(5)构建连通区域标记模块:
(5a)使用8连通区域判定准则,通过一次对图像的遍历,记录下每一行或列中连续的序列和标记的等价对;
(5b)对标记前的峰值图像利用(5a)得到的等价对进行重新标记,完成连通区域标记模块的构建;
(6)构建一个包括7层结构的深度可变形卷积神经网络模型,即第1层为网络输入层,第2层为第一卷积层,第3层为第二卷积层,第4层为第三卷积层,第5层为第四卷积层,第6层为全局均值池化层,第7层为输出层;
(7)对深度可变形卷积神经网络模型进行训练:
将训练样本集与训练样本集标签作为深度可变形卷积神经网络模型的输入,对深度可变形卷积神经网络模型进行若干次迭代有监督训练,设置初始学习率为2×e-4,数据迭代次数为20;
设置训练集与测试集批块的大小为25,调整深度卷积神经网络的超参数并防止过拟合,得到训练好的深度可变形卷积神经网络模型;
(8)依据(5b)中得到的峰值图像标记结果,画出目标检测结果图,框出检测到的目标,将这些目标送入(7)得到的深度可变形卷积神经网络,得到输出的实际分类标签,完成SAR图像目标识别。
2.根据权利要求1所述的方法,其特征在于,步骤(1a)中对于俯视角为17度的数据,在每一类128×128的原始目标切片中扩增获取88×88大小的目标切片,其实现如下:
首先,随机选取一张128×128的原始目标切片,在该目标切片上随机选取(x,y)坐标点,x,y均为10到30间的随机数;
然后,以(x,y)坐标点作为扩充切片的左上角坐标,向右扩增88个像素点,向下扩增88个像素点,获取88×88大小的目标切片。
3.根据权利要求1所述的方法,其特征在于,步骤(4a)中对中值滤波后SAR图像依次进行膨胀、腐蚀、像素值归一化和阈值分割,是先使用大小为5×5的块填满当前像素点邻域间隙,完成膨胀操作;再使用大小为5×5的块分离目标区域和周围的杂波区域,完成腐蚀操作;再将像素值大于200的点通过像素值归一化转换为1,将像素值小于200的点通过像素值归一化转换为0,完成像素值归一化和阈值分割。
4.根据权利要求1所述的方法,其特征在于,步骤(4b)中对SAR图像进行计数滤波,并进行膨胀处理,其实现如下:
(4b1)以光栅扫描顺序依次对SAR图像像素点进行扫描,判断当前像素点的5×5邻域内像素值大小,若皆为1时则该点处像素值为1,否则置零,完成SAR图像的计数滤波;
(4b2)使用大小为11×11的块填满当前像素点邻域间隙,完成膨胀操作。
5.根据权利要求1所述的方法,其特征在于,步骤(6)中的深度可变形卷积神经网络模型,其各层的结构参数设置如下:
输入层为训练样本集中的SAR目标切片;
第一卷积层由一个大小为5的卷积核和大小为88×88的16个特征映射图组成,卷积操作步长为1;
第二卷积层由一个大小为5的卷积核和大小为44×44的32个特征映射图组成,卷积操作步长为2;
第三卷积层由一个大小为6的卷积核和大小为44×44的64个特征映射图组成,卷积操作步长为1;
第四卷积层由一个大小为4的卷积核和大小为22×22的128个特征映射图组成,卷积操作步长为2;
输出层分类器选用Softmax分类器,分类类别数设置为10类。
6.根据权利要求5所述的方法,其特征在于,各卷积层在进行卷积之前需要对每层的输入进行0填充操作,即在通过卷积操作后,为了保留原特征映射图大小,对特征映射图边缘使用0像素值填充。
7.根据权利要求5所述的方法,其特征在于,各卷积层的激活函数均采用修正线性单元ReLU。
8.根据权利要求5所述的方法,其特征在于,各卷积层均使用Batch Normalization归一化操作,以避免梯度消失。
9.根据权利要求5所述的方法,其特征在于,第三卷积层与第四卷积层卷积操作前,需使用可变形卷积单元改变采样点的位置,使得卷积层具有对几何变换进行建模的能力。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810263825.0A CN108510467B (zh) | 2018-03-28 | 2018-03-28 | 基于深度可变形卷积神经网络的sar图像目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810263825.0A CN108510467B (zh) | 2018-03-28 | 2018-03-28 | 基于深度可变形卷积神经网络的sar图像目标识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108510467A CN108510467A (zh) | 2018-09-07 |
CN108510467B true CN108510467B (zh) | 2022-04-08 |
Family
ID=63378934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810263825.0A Active CN108510467B (zh) | 2018-03-28 | 2018-03-28 | 基于深度可变形卷积神经网络的sar图像目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108510467B (zh) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109325945B (zh) * | 2018-09-13 | 2021-01-08 | 北京旷视科技有限公司 | 图像处理方法、装置、电子设备及储存介质 |
CN109299688B (zh) * | 2018-09-19 | 2021-10-01 | 厦门大学 | 基于可变形快速卷积神经网络的舰船检测方法 |
CN110929865B (zh) * | 2018-09-19 | 2021-03-05 | 深圳云天励飞技术有限公司 | 网络量化方法、业务处理方法及相关产品 |
CN109583297B (zh) * | 2018-10-25 | 2020-10-02 | 清华大学 | 视网膜oct体数据识别方法及装置 |
CN109544468B (zh) * | 2018-10-26 | 2023-10-13 | 浙江师范大学 | 一种图像数据扩增方法 |
CN109685813B (zh) * | 2018-12-27 | 2020-10-13 | 江西理工大学 | 一种自适应尺度信息的u型视网膜血管分割方法 |
CN110211124B (zh) * | 2019-06-17 | 2023-04-07 | 电子科技大学 | 一种基于MobileNetV2的红外成像结冰湖泊检测方法 |
CN110569871B (zh) * | 2019-07-30 | 2022-09-30 | 西安建筑科技大学 | 一种基于深度卷积神经网络的鞍部点识别方法 |
CN111414788B (zh) * | 2019-09-23 | 2023-08-11 | 中国矿业大学 | 基于可变形u型网络的重叠染色体图像分割方法 |
CN110827332B (zh) * | 2019-10-09 | 2022-12-13 | 哈尔滨工程大学 | 一种基于卷积神经网络的sar图像的配准方法 |
CN111259881B (zh) * | 2020-01-13 | 2023-04-28 | 南京航空航天大学 | 基于特征图去噪以及图像增强的敌对样本防护方法 |
CN111260586B (zh) | 2020-01-20 | 2023-07-04 | 北京百度网讯科技有限公司 | 扭曲文档图像的矫正方法和装置 |
CN111414968B (zh) * | 2020-03-26 | 2022-05-03 | 西南交通大学 | 一种基于卷积神经网络特征图的多模态遥感影像匹配方法 |
CN111640087B (zh) * | 2020-04-14 | 2023-07-14 | 中国测绘科学研究院 | 一种基于sar深度全卷积神经网络的影像变化检测方法 |
CN111709307B (zh) * | 2020-05-22 | 2022-08-30 | 哈尔滨工业大学 | 一种基于分辨率增强的遥感图像小目标检测方法 |
CN111667493B (zh) * | 2020-05-27 | 2022-09-20 | 华中科技大学 | 基于可变形卷积神经网络的果园果树区域分割方法和系统 |
CN111739001A (zh) * | 2020-06-17 | 2020-10-02 | 东华大学 | 一种基于可变形卷积的产品表面缺陷检测模型和检测方法 |
CN111860171B (zh) * | 2020-06-19 | 2021-03-23 | 中国科学院空天信息创新研究院 | 一种大规模遥感图像中不规则形状目标的检测方法及系统 |
CN112101251B (zh) * | 2020-09-18 | 2022-06-10 | 电子科技大学 | 基于可变卷积神经网络的sar自动目标识别方法 |
CN112329542B (zh) * | 2020-10-10 | 2022-11-11 | 中国人民解放军战略支援部队航天工程大学 | 基于特征细化网络模型的sar图像舰船目标检测方法 |
CN112348758B (zh) * | 2020-11-12 | 2022-09-02 | 中国电子科技集团公司第五十四研究所 | 一种光学遥感图像数据增强方法及目标识别方法 |
CN112150341B (zh) * | 2020-11-26 | 2021-05-28 | 南京理工大学 | 基于物理约束和数据驱动的双阶段散射成像方法 |
CN113158778A (zh) * | 2021-03-09 | 2021-07-23 | 中国电子科技集团公司第五十四研究所 | 一种sar图像目标检测方法 |
CN113139577B (zh) * | 2021-03-22 | 2024-02-23 | 广东省科学院智能制造研究所 | 一种基于可变形卷积网络的深度学习图像分类方法及系统 |
CN116071658B (zh) * | 2023-03-07 | 2023-06-13 | 四川大学 | 一种基于深度学习的sar图像小目标检测识别方法及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101135729A (zh) * | 2007-09-04 | 2008-03-05 | 西安电子科技大学 | 基于支撑矢量机的合成孔径雷达遮挡目标识别方法 |
CN106251332A (zh) * | 2016-07-17 | 2016-12-21 | 西安电子科技大学 | 基于边缘特征的sar图像机场目标检测方法 |
CN106845372A (zh) * | 2016-12-31 | 2017-06-13 | 华中科技大学 | 一种星载遥感光学图像的船舶目标检测识别方法和系统 |
CN107292319A (zh) * | 2017-08-04 | 2017-10-24 | 广东工业大学 | 一种基于可变形卷积层的特征图像提取的方法及装置 |
-
2018
- 2018-03-28 CN CN201810263825.0A patent/CN108510467B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101135729A (zh) * | 2007-09-04 | 2008-03-05 | 西安电子科技大学 | 基于支撑矢量机的合成孔径雷达遮挡目标识别方法 |
CN106251332A (zh) * | 2016-07-17 | 2016-12-21 | 西安电子科技大学 | 基于边缘特征的sar图像机场目标检测方法 |
CN106845372A (zh) * | 2016-12-31 | 2017-06-13 | 华中科技大学 | 一种星载遥感光学图像的船舶目标检测识别方法和系统 |
CN107292319A (zh) * | 2017-08-04 | 2017-10-24 | 广东工业大学 | 一种基于可变形卷积层的特征图像提取的方法及装置 |
Non-Patent Citations (5)
Title |
---|
"Deformable Convolutional Networks";Dai J 等;《arXiv》;20170605;第1-12页 * |
"Feature Fusion Based on Convolutional Neural Network for SAR ATR";Shi-Qi CHEN 等;《ITM Web of Conferences》;20171231;第1-8页 * |
"Network In Network";Lin M 等;《arXiv》;20131231;第1-10页 * |
"基于可变形卷积神经网络的图像分类研究";欧阳针 等;《软件导刊》;20170630;第16卷(第6期);第198-201页 * |
"基于等价对的图像连通域标记算法";左敏 等;《计算机仿真》;20110131;第28卷(第01期);第14-16+50页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108510467A (zh) | 2018-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108510467B (zh) | 基于深度可变形卷积神经网络的sar图像目标识别方法 | |
CN106910186B (zh) | 一种基于cnn深度学习的桥梁裂缝检测定位方法 | |
CN108776779B (zh) | 基于卷积循环网络的sar序列图像目标识别方法 | |
CN104036239B (zh) | 基于特征融合和聚类的高分辨sar图像快速舰船检测方法 | |
CN109614936B (zh) | 遥感图像飞机目标的分层识别方法 | |
CN108898065B (zh) | 候选区快速筛选与尺度自适应的深度网络舰船目标检测方法 | |
CN102842044B (zh) | 高分辨率可见光遥感图像变化检测方法 | |
CN108446707B (zh) | 基于关键点筛选及dpm确认的遥感图像飞机检测方法 | |
CN102663348A (zh) | 一种光学遥感图像中的海上舰船检测方法 | |
CN112699967B (zh) | 一种基于改进深度神经网络的远距离机场目标检测方法 | |
CN110008900B (zh) | 一种由区域到目标的可见光遥感图像候选目标提取方法 | |
CN104408482A (zh) | 一种高分辨率sar图像目标检测方法 | |
CN111027497B (zh) | 基于高分辨率光学遥感影像的弱小目标快速检测方法 | |
CN111898627B (zh) | 一种基于pca的svm云微粒子优化分类识别方法 | |
Mansour et al. | Automated vehicle detection in satellite images using deep learning | |
CN108734200A (zh) | 基于bing特征的人体目标视觉检测方法和装置 | |
CN111915583A (zh) | 复杂场景中基于车载红外热像仪的车辆和行人检测方法 | |
CN105512622A (zh) | 一种基于图分割和监督学习的可见光遥感图像海陆分割方法 | |
Zheng et al. | Building recognition of UAV remote sensing images by deep learning | |
CN110310263B (zh) | 一种基于显著性分析和背景先验的sar图像居民区检测方法 | |
Liu et al. | Vehicle detection from aerial color imagery and airborne LiDAR data | |
CN113378716A (zh) | 一种基于自监督条件的深度学习sar影像舰船识别方法 | |
CN111832463A (zh) | 一种基于深度学习的交通标志检测方法 | |
CN108985216B (zh) | 一种基于多元logistic回归特征融合的行人头部检测方法 | |
Sirmacek et al. | Road detection from remotely sensed images using color features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |