CN112285712A - 一种提高sar图像中靠岸船只检测精度的方法 - Google Patents

一种提高sar图像中靠岸船只检测精度的方法 Download PDF

Info

Publication number
CN112285712A
CN112285712A CN202011101601.3A CN202011101601A CN112285712A CN 112285712 A CN112285712 A CN 112285712A CN 202011101601 A CN202011101601 A CN 202011101601A CN 112285712 A CN112285712 A CN 112285712A
Authority
CN
China
Prior art keywords
network
data
input
result
adopting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011101601.3A
Other languages
English (en)
Other versions
CN112285712B (zh
Inventor
张晓玲
张天文
柯潇
师君
韦顺军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202011101601.3A priority Critical patent/CN112285712B/zh
Publication of CN112285712A publication Critical patent/CN112285712A/zh
Application granted granted Critical
Publication of CN112285712B publication Critical patent/CN112285712B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9094Theoretical aspects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/937Radar or analogous systems specially adapted for specific applications for anti-collision purposes of marine craft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Ocean & Marine Engineering (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种提高SAR图像中靠岸船只检测精度的方法,它是基于深度学习理论,主要包括生成对抗网络、K‑means聚类、场景扩增、经典检测网络(Faster R‑CNN、Cascade R‑CNN、SSD、RetinaNet)四部分。生成对抗网络实现图像的特征提取,K‑means聚类方法利用提取得到的特征实现图像的二分类、得到每幅图像的分类结果,场景扩增得到更平衡的数据集,经典检测网络使用处理过后的数据集进行训练,执行检测任务。本发明在略微提高离岸船只检测精度的同时,将靠岸船只在Faster R‑CNN、Cascade R‑CNN、SSD、RetinaNet网络上的检测精度分别提高了8.60%,8.32%,18.15%,12.40%,提高了靠岸船只检测精度。

Description

一种提高SAR图像中靠岸船只检测精度的方法
技术领域
本发明属于合成孔径雷达(Synthetic Aperture Radar,SAR)图像解译技术领域,涉及一种提高SAR图像中靠岸船只检测精度的方法。
背景技术
合成孔径雷达(SAR)是一种能够全天时、全天候工作的主动式遥感技术。与光学传感器相比,SAR可以穿透云雾,在恶劣的气象条件下也可以完成观测任务。随着SAR成像分辨率的不断提高,SAR图像船只目标检测技术成为了研究的热点。特别的,在民用方面,SAR图像船只检测技术可以检测搜索遭遇危险的船舶并展开搜救;在军用方面,SAR图像船只检测技术可以监视海面从而维护国家安全。详见文献“王智勇,窦浩,田金文.SAR图像舰船目标快速检测方法研究[J].舰船电子工程,2016,36(09):27-30+88.”。
在合成孔径雷达船只目标检测中,最常用且有效的方法是以CFAR为基础的各类检测算法。CFAR算法首先需要人为确定背景杂波分布模型,接着通过寻求一个检测阈值,将求得的检测阈值与观测强度进行比较,然后通过一个简单的二元假设问题将目标从复杂的背景杂波中检测出来,并且保证检测的恒虚警性。但是,由于海面背景受周围环境和气象所影响,背景杂波分布模型难以拟合真实背景杂波分布。因此,以CFAR为基础的各类检测算法在复杂场景下检测精度较低。详见“杜兰,王兆成,王燕,魏迪,李璐.复杂场景下单通道SAR目标检测及鉴别研究进展综述[J].雷达学报,2020,9(01):34-54.”。
深度学习的出现为SAR图像船只检测提供了一个全新的思路。基于深度学习的SAR图像船只检测方法无需人工确定背景杂波分布模型,只需准备一定量的SAR图像数据及标签,然后通过合理的构造和训练网络,便可以得到比以CFAR为基础的各类检测算法更高的检测精度。目前的一些来自于计算机视觉领域的经典网络,如Faster R-CNN、Cascade R-CNN、SSD、RetinaNet等,已经广泛应用于SAR图像船只检测领域并取得了较好的精度。但是,现有的研究表明,由于靠岸区域具有较强的后向散射特征和大量的人造结构,靠岸船只的检测精度显著低于离岸船只检测精度。
因此,为解决此问题,本发明提出了一种提高SAR图像中靠岸船只检测精度的方法。该方法引入了生成对抗式网络以及K-means聚类方法,在略微提高离岸船只检测精度的同时,提高了靠岸船只检测精度。
发明内容
本发明属于合成孔径雷达(SAR)图像解译技术领域,公开了一种提高SAR图像中靠岸船只检测精度的方法,用来解决现有技术中靠岸船只检测精度不足的问题。该方法基于深度学习理论,主要包括生成对抗网络、K-means聚类、场景扩增、经典检测网络(Faster R-CNN、Cascade R-CNN、SSD、RetinaNet)四部分。生成对抗网络实现图像的特征提取,K-means聚类方法利用提取得到的特征实现图像的二分类、得到每幅图像的分类结果,场景扩增得到更平衡的数据集,经典检测网络使用处理过后的数据集进行训练,执行检测任务。该方法在略微提高离岸船只检测精度的同时,将靠岸船只在Faster R-CNN、Cascade R-CNN、SSD、RetinaNet网络上的检测精度分别提高了8.60%,8.32%,18.15%,12.40%,达到了提高靠岸船只检测精度的要求。
为了方便描述本发明的内容,首先作以下术语定义:
定义1:SSDD数据集获取方法
SSDD数据集是指SAR船只检测数据集,英文全称为SAR Ship Detection Dataset,其可以用于训练和测试深度学习模型,以便于研究人员在这个统一的数据集上去评价他们算法的性能。SSDD数据集主要来源于RadarSat-2,TerraSAR-X和Sentinel-1传感器,包含HH、HV、VV和VH四种极化方式的数据。SSDD的观测场景主要为海域和近岸地区,成像分辨率为1m-5m。SSDD数据集一共有1160幅图像和2456艘船只,平均每幅图像有2.12艘船。相比于有9000多幅图像、20类目标的PASCAL VOC数据集,SSDD足够大到可以对船只这一类目标进行训练检测器。获取SSDD数据集方法可从参考文献“李健伟,曲长文,彭书娟,邓兵.基于卷积神经网络的SAR图像舰船目标检测[J].系统工程与电子技术,2018,40(09):1953-1959.”中获得。
定义2:经典的卷积神经网络
经典的卷积神经网络通常由输入层,隐含层,输出层组成。输入层可以处理多维数据,在计算机视觉领域通常预先假设输入层输入三维输入数据,即平面上的二维像素点和RGB通道。输出层在图像检测和识别当中通常使用逻辑函数或归一化指数函数输出分类标签和相应边框坐标值。隐含层包含卷积层、非线性激活函数、池化层和全连接层构成,卷积层以输入特征的一小块矩形区域为单位,将特征进行高维的抽象;非线性池化层被用来缩小矩阵,进而减少后续神经网络中的参数;全连接层等价于传统前馈神经网络中的隐含层,它将之前抽象得到的高维特征作为输入进行分类和检测任务。经典的卷积神经网络方法详见文献“胡伏原,李林燕,尚欣茹,沈军宇,戴永良.基于卷积神经网络的目标检测算法综述[J].苏州科技大学学报(自然科学版),2020,37(02):1-10+25.”
定义3:传统的全连接层方法
全连接层是为卷积神经网络的一部分,全连接层的输入和输出的尺寸都是固定的,每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。全连接层方法详见“Haoren Wang,Haotian Shi,Ke Lin,Chengjin Qin,Liqun Zhao,YixiangHuang,Chengliang Liu.A high-precision arrhythmia classification method basedon dual fully connected neural network[J].Biomedical Signal Processing andControl,2020,58.”。
定义4:经典的Reshape操作
Reshape操作将指定的矩阵变换成特定维数矩阵的一种操作,且矩阵中元素个数不变,reshape操作可以重新调整矩阵的行数、列数、维数。Reshape操作详见“https://blog.csdn.net/yang6464158/article/details/20129991?biz_id=102&utm_term=reshape&ut m_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-0-20129991&sp m=1018.2118.3001.4187”。
定义5:反卷积
反卷积是一个与卷积相反方向的变换,反卷积事实上也是一种卷积运算。区别在于卷积通常情况下是实现下采样,即输出的个数小于输入的个数,而反卷积则是实现上采样,即输出的个数大于输入的个数。反卷积方法详见“Dumoulin V,Visin F.A guide toconvolution arithmetic for deep learning[J].2016.”。
定义6:卷积核
卷积核是实现将输入的特征图或者图片中的一小部分矩形区域内的值分别加权然后求和作为输出的一个节点。每个卷积核需要人工指定多个参数。一类参数是卷积核所处理的节点矩阵的长和宽,这个节点矩阵的尺寸也是卷积核的尺寸。另外一类卷积核的参数是处理得到的单位节点矩阵的深度,单位节点矩阵的深度也是卷积核的深度。在卷积操作过程中,每个卷积核在输入数据上滑动,然后计算整个卷积核与输入数据相对应位置的内积,之后将内积通过非线性函数得到最终结果,最后所有对应位置的结果组成了一张二维的特征图。每个卷积核都会生成一张二维的特征图,多个卷积核生成的特征图相叠加组成了一个三维的特征图。卷积核方法详见“范丽丽,赵宏伟,赵浩宇,胡黄水,王振.基于深度卷积神经网络的目标检测研究综述[J].光学精密工程,2020,28(05):1152-1164.”。
定义7:级联操作
级联是网络结构设计中重要的一种操作,用于将特征联合,多个卷积特征提取框架提取的特征融合或者是将输出层的信息进行融合,从而增强网络的特征提取能力。级联方法详见“https://blog.csdn.net/alxe_made/article/details/80506051?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-3.channel_param&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-3.channel_param”。
定义8:经典的Adam算法
经典的Adam算法是一种对随机梯度下降法的扩展,最近在计算机视觉和自然语言处理中广泛应用于深度学习应用。经典的Adam与经典的随机梯度下降法是不同的。随机梯度下降保持一个单一的学习速率,用于所有的权重更新,并且在训练过程中学习速率不会改变。每一个网络权重都保持一个学习速率,并随着学习的展开而单独地进行调整。该方法从梯度的第一次和第二次矩的预算来计算不同参数的自适应学习速率。经典的Adam算法详见“Kingma,D.;Ba,J.Adam:A Method for Stochastic Optimization.arXiv 2014,arXiv:1412.6980.”。
定义9:前向传播方法
前向传播方法是深度学习当中最基本的一个方法,主要是将输入依据网络中的参数和连接方法进行前向推理,从而得到网络的输出。前向传播方法详见“https://www.jianshu.com/p/f30c8daebebb”。
定义10:经典的K-means聚类算法
经典的K-means聚类算法是一种迭代求解的聚类分析算法,常用作无监督的分类任务,其步骤是,预将数据分为K组,则随机选取K个对象作为初始的聚类中心,然后计算每个对象与各个种子聚类中心之间的距离,把每个对象分配给距离它最近的聚类中心。聚类中心以及分配给它们的对象就代表一个聚类。每分配一个样本,聚类的聚类中心会根据聚类中现有的对象被重新计算。这个过程将不断重复直到满足某个终止条件。经典的K-means聚类算法详见“李婷婷.改进K-means聚类算法的研究[D].安徽大学,2015.”。
定义11:经典的数据增强方法
数据增强是一种生成新训练样本的技术,该技术通过将原始数据加入一些随机抖动和扰乱,同时保证原始数据的类标签不变,从而达到产生更多训练样本的目的。数据增强的作用是增强网络的泛化性,提高网络的各项指标。常见的数据增强操作包括翻转、旋转、缩放、剪切等。详细的经典数据增强方法详见“https://blog.csdn.net/u010801994/article/details/81914716”。
定义12:经典的Faster R-CNN
经典的Faster R-CNN是一种目标检测网络。该网络由两个模块组成,第一个模块是区域推荐网络,用于推荐可能出现目标的位置,第二个模块是Fast R-CNN网络,用于进行目标的分类和框回归。经典的Faster R-CNN网络的建立方法详见“Ren S,He K,GirshickR,et al.Faster R-CNN:Towards Real-Time Object Detection with Region ProposalNetworks[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2017,39(6):1137-1149.”。
定义13:标准的YOLOv3测试方法
标准的YOLOv3测试方法指在测试集上对检测模型进行最终测试,得到检测模型在测试集上的检测结果。测试过程中,当交并比IOU>0.5,且得分s>0.5时,则该测试结果有效。详见文献“Redmon,J.,&Farhadi,A..(2018).YOLOv3:an incremental improvement.arXiv2018,arXiv:1804.02767.https://arxiv.org/abs/1804.02767.”。
定义14:经典的Cascade R-CNN
经典的Cascade R-CNN是一种具有级联结构和多探测器的检测网络,可以实现在高阈值条件下的高性能检测。相比于Faster R-CNN,Cascade R-CNN的候选框质量更高,定位更加精确。经典的Cascade R-CNN网络的建立方法详见“Cai Z,Vasconcelos N.CascadeR-CNN:Delving into High Quality Object Detection[J].2017.”。
定义15:经典的SSD
经典的SSD是一种单阶段的检测网络,因此相比两阶段的检测网络,在检测速度方面有一定优势。SSD利用VGG作为特征提取层,后续使用6个不同特征图检测不同尺度的目标,从而实现多尺度检测。经典的SSD网络的建立方法详见“Liu W,Anguelov D,Erhan D,etal.SSD:Single Shot MultiBox Detector[J].2016.”。
定义16:经典的RetinaNet
经典的RetinaNet是一种单阶段的检测网络,通过改进标准交叉熵损失,解决了训练正负样本不均衡的问题。在结构方面,RetinaNet本质上是Resent与FPN与两个FCN子网络的结合。RetinaNet网络架构在前馈ResNet架构之上使用功能金字塔网络主干来生成丰富的多尺度卷积特征金字塔。RetinaNet在此主干网络上附加两个子网,一个子网用于分类锚定框,另一个用于从锚定框回归到真实的对象框。经典的RetinaNet网络的建立方法详见“Lin T Y,Goyal P,Girshick R,et al.Focal Loss for Dense Object Detection[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2017,PP(99):2999-3007.”。
定义17:召回率和精确率计算方法
召回率R指在所有的正样本中预测正确的数量,表达式为
Figure BDA0002725534760000051
精确率P指预测为正例的结果中,正确的个数所占的比例表达式为
Figure BDA0002725534760000052
其中,TP(truepositive)表示被模型预测为正值的正样本;FN(false negative)表示被模型预测为负值的负样本;FP(false positive)表示为被模型预测为负值的正样本。召回率和精确率曲线P(R)指以R为自变量,P为因变量的函数,以上参数数值的求法详见文献“李航.统计学习方法[M].北京:清华大学出版社,2012.”。
定义18:非极大值抑制方法
非极大值抑制方法是目标检测领域中用来去除冗余检测框的算法。在经典的检测网络的前向传播结果中,常常会出现同一目标对应多个检测框的情况。因此,需要一种算法从同一目标的多个检测框中筛选出一个质量最好、得分最高的检测框。非极大值抑制通过计算重叠率阈值进行局部最大搜索。非极大值抑制方法详见“https://www.cnblogs.com/makefile/p/nms.html”。
本发明提供了一种提高SAR图像中靠岸船只检测精度的方法,它包括以下几个步骤:
步骤1、初始化数据集
采用随机的方法调整SSDD数据集中的SAR图像次序,得到新的SSDD数据集。
步骤2、建立生成模块
按照经典的卷积神经网络方法,定义生成模块的输入层,记为L1;
以生成模块的输入层L1作为输入,采用传统的全连接层方法对生成模块的输入层L1层进行非线性加权求和,得到8192维的输出向量L2pre;
以8192维的输出向量L2pre作为输入,采用定义4中的经典的reshape操作将L2pre进行矩阵重排,得到4×4×512维的向量,记为L2;
以4×4×512维的向量L2作为输入,采用定义5传统的反卷积方法,初始化反卷积操作的卷积核尺寸参数为4×4×256,对4×4×512维的向量L2进行上采样,得到上采样后的结果,记为L3。
以上采样后结果L3作为输入,采用定义5传统的的反卷积方法,初始化反卷积操作的卷积核尺寸参数为4×4×128,对上采样后结果L3进行上采样,得到上采样后的结果,记为L4。
以上采样后结果L4作为输入,采用定义5传统的的反卷积方法,初始化反卷积操作的卷积核尺寸参数为4×4×64,对L4进行上采样,得到上采样后的结果,记为L5。
以上采样后结果L5作为输入,采用定义5传统的的反卷积方法,初始化反卷积操作的卷积核尺寸参数为4×4×32,对L4进行上采样,得到上采样后的结果,记为L6。
以上采样后结果L6作为输入,采用定义5传统的的反卷积方法,初始化反卷积操作的卷积核尺寸参数为4×4×16,对L4进行上采样,得到上采样后的结果,记为L7。
以上采样后结果L7作为输入,采用定义5传统的的反卷积方法,初始化反卷积操作的卷积核尺寸参数为4×4×3,对L4进行上采样,得到上采样后的结果,记为L8。
定义由上采样后结果L1、L2、L3、L4、L5、L6、L7、L8所组成的网络为生成模块。
步骤3、建立判别模块
以步骤2中得到的上采样后结果L8作为输入,采用定义2中的经典的卷积神经网络方法,初始化卷积操作的卷积核尺寸参数为4×4×16,对L8进行下采样,得到下采样后的结果,记为L9。
以下采样后的结果L9作为输入,采用定义2中的经典的卷积神经网络方法,初始化卷积操作的卷积核尺寸参数为4×4×32,对L9进行下采样,得到下采样后的结果,记为L10。
以下采样后的结果L10作为输入,采用定义2中的经典的卷积神经网络方法,初始化卷积操作的卷积核尺寸参数为4×4×64,对L10进行下采样,得到下采样后的结果,记为L11。
以下采样后的结果L11作为输入,采用定义2中的经典的卷积神经网络方法,初始化卷积操作的卷积核尺寸参数为4×4×128,对L11进行下采样,得到下采样后的结果,记为L12。
以下采样后的结果L12作为输入,采用定义2中的经典的卷积神经网络方法,初始化卷积操作的卷积核尺寸参数为4×4×256,对L12进行下采样,得到下采样后的结果,记为L13。
以下采样后的结果L13作为输入,采用定义2中的经典的卷积神经网络方法,初始化卷积操作的卷积核尺寸参数为4×4×512,对L13进行下采样,得到下采样后的结果,记为L14。
定义由下采样后的结果L9、L10、L11、L12、L13、L14所组成的网络为判别模块。
步骤4、建立多特征层
以步骤3中的下采样后的结果L12、L13、L14作为输入,对L13进行上采样,使该次上采样后的矩阵尺寸与L12的矩阵尺寸相同,将该次上采样后的输出记为L13pre;对L14进行上采样,使该次上采样后的矩阵尺寸与L12的矩阵尺寸相同,将该次上采样后的输出记为L14pre
采用定义7中传统的的级联方法,将L13pre、L14pre与L12叠加,得到多特征层,记为L15。
定义由步骤2得到的生成模块、步骤3得到的判别模块、步骤4得到的多特征层所组成的网络为生成对抗网络,记为GANpre
步骤5、进行场景特征提取
以步骤1中获取得到的新的SSDD数据作为输入,按照定义8中的经典的Adam算法,训练和优化在步骤4中建立的生成对抗网络GANpre,得到训练和优化之后的生成对抗网络,记为GAN。
然后再次以步骤1中获取得到的新的SSDD数据作为输入,按照定义9中传统的的前向传播方法,将步骤1中获取得到的新的SSDD数据输入到训练和优化之后的生成对抗网络GAN中,得到网络的输出向量M={M1,M2,…Mi,…M1160},其中,Mi是新的SSDD数据中第i张图片的输出向量。
定义输出向量M是新的SSDD数据集中所有图片的场景特征,定义Mi为新的SSDD数据集中第i张图片的场景特征。
步骤6、进行场景聚类
以步骤5中得到的新的SSDD数据中所有图片的场景特征的集合M作为输入,采用定义10传统的的K-means聚类算法,借助场景特征Mf对新的SSDD数据集中的图片进行聚类操作:
步骤6.1、初始化参数
对于定义10中的传统的K-means聚类算法中的质心参数,随机初始化第一步迭代中K-means聚类算法的质心参数,记为
Figure BDA0002725534760000081
定义当前迭代次数为t,t=1,2,…,I,I为K-means聚类算法最大迭代次数,初始化I=1000。定义第t步迭代的质心参数为
Figure BDA0002725534760000082
初始化迭代收敛误差ε,作为算法迭代收敛条件之一。
步骤6.2、进行迭代操作
首先采用公式
Figure BDA0002725534760000083
计算第i张图片的场景特征Mi到在第1次迭代中第一个质心
Figure BDA0002725534760000084
的距离,记为
Figure BDA0002725534760000085
采用公式
Figure BDA0002725534760000086
计算第i张图片的场景特征Mi到在第1次迭代中第二个质心
Figure BDA0002725534760000087
的距离,记为
Figure BDA0002725534760000088
比较
Figure BDA0002725534760000089
Figure BDA00027255347600000810
Figure BDA00027255347600000811
则定义在第1次迭代中第i张图片的场景特征Mi属于第二类,反之则定义在第1次迭代中第i张图片的场景特征Mi属于第一类。
定义在第1步迭代后,第一类的所有场景特征的集合为
Figure BDA00027255347600000812
第二类的所有场景特征的集合为
Figure BDA00027255347600000813
然后令t=2,执行以下操作直至收敛:
1)令第t步的质心参数
Figure BDA0002725534760000091
为集合
Figure BDA0002725534760000092
的算术均值,令第t步的质心参数
Figure BDA0002725534760000093
为集合
Figure BDA0002725534760000094
的算术均值。
2)采用公式
Figure BDA0002725534760000095
计算第i张图片的场景特征Mi到在第t次迭代中第一个质心
Figure BDA0002725534760000096
的距离,记为
Figure BDA0002725534760000097
采用
Figure BDA0002725534760000098
第i张图片的场景特征Mi到在第t次迭代中第二个质心
Figure BDA0002725534760000099
的距离,记为
Figure BDA00027255347600000910
3)比较
Figure BDA00027255347600000911
Figure BDA00027255347600000912
Figure BDA00027255347600000913
则定义在第t次迭代中第i张图片的场景特征Mi属于第二类,反之则定义在第t次迭代中第i张图片的场景特征Mi属于第一类。定义在第t步迭代后,第一类的所有场景特征集合为
Figure BDA00027255347600000914
第二类的所有场景特征集合为
Figure BDA00027255347600000915
输出聚类结果,记为CLASS。
4)计算该次迭代与上一次迭代的质心参数变化量,记为σ,表达式为
Figure BDA00027255347600000916
如果σ<ε或t<I,则输出聚类结果CLASS,否则另t=t+1,然后返回到步骤1)继续迭代。
步骤7、进行场景扩增
根据由步骤6中得到的聚类结果CLASS和新的SSDD数据中所有图片,将新的SSDD数据中所有图片分为两类,第一类为靠岸场景图片,记为Data1,第二类为离岸场景图片记为Data2。定义Data1的图片数量为N1,Data2的图片数量为N2
若N2>N1,则从第一类为靠岸场景图片Data1中基于高斯分布随机选取N2-N1张图片进行镜像操作,得到镜像操作之后的N2-N1张图片,记为Data1extra。然后将镜像操作之后的N2-N1张图片Data1extra和第一类为靠岸场景图片Data1合并,输出一个新的图片集合,记为Data1new。定义Data2new=Data2
若N2<=N1,则从第二类为离岸场景图片Data2中基于高斯分布随机选取N1-N2张图片进行镜像操作,得到镜像操作之后的N1-N2张图片,记为Data2extra。然后将镜像操作之后的N1-N2张图片Data2extra和第一类为靠岸场景图片Data2合并,输出一个新的图片集合,记为Data2new。定义Data1new=Data1
定义新的图片集合Datanew={Data1new,Data2new}。
步骤8、在经典的模型上进行实验验证
步骤8.1、图像预处理
以从步骤7中获得的新的图片集合Datanew作为输入,采用定义11的经典的数据增强方法对Datanew进行数据增强,得到数据增强后的SAR图像检测数据集,记作IM,
将数据增强后的SAR图像检测数据集IM按照7:3的比列划分为两部分,得到训练集、和测试集,训练集记为Train,测试集记为Test。
步骤8.2、建立网络
采用定义12中经典的Faster R-CNN方法建立未训练的Faster R-CNN网络;
采用定义14中经典的Cascade R-CNN方法建立未训练的Cascade R-CNN网络;
采用定义15中经典的SSD方法建立未训练的SSD网络;
采用定义16中经典的RetinaNet方法建立未训练的RetinaNet网络。
步骤8.3、训练网络
初始化步骤8.2得到的未训练的网络的图像批处理大小,记为Batchsize;
初始化未训练的网络的正则化参数,记为λ;初始化网络的学习率,记为η;
初始化未训练的网络训练参数的权重衰减率和动量,分别记为DC和MM;
对步骤8.2得到的未训练的Faster R-CNN网络进行随机参数初始化,将初始化后的参数记为W1;对步骤8.2得到的未训练的Cascade R-CNN网络进行随机参数初始化,将初始化后的参数记为W2;对步骤8.2得到的未训练的SSD网络进行随机参数初始化,将初始化后的参数记为W3;对步骤8.2得到的未训练的RetinaNet网络进行随机参数初始化,将初始化后的参数记为W4
使用步骤8.1中的训练集Train,基于定义8中经典的Adam算法对未训练的FasterR-CNN网络进行训练,输出该网络的损失值,记为lossr1
当该网络的损失值lossr1小于理想损失值loss时,停止训练,输出新的网络参数W1NEW
使用步骤8.1中的训练集Train,基于定义8中经典的Adam算法对未训练的CascadeR-CNN网络进行训练,输出该网络的损失值,记为lossr2
当该网络的损失值lossr2小于理想损失值loss时,停止训练,输出新的网络参数W2NEW
使用步骤8.1中的训练集Train,基于定义8中经典的Adam算法对未训练的SSD网络进行训练,输出该网络的损失值,记为lossr3
当该网络的损失值lossr3小于理想损失值loss时,停止训练,输出新的网络参数W3NEW
使用步骤8.1中的训练集Train,基于定义8中经典的Adam算法对未训练的RetinaNet网络进行训练,输出该网络的损失值,记为lossr4
当该网络的损失值lossr4小于理想损失值loss时,停止训练,输出新的网络参数W4NEW
步骤9、评估方法
步骤9.1、前向传播
以步骤8.3中得到的新的网络参数W1NEW和步骤8.1中得到的测试集Tests作为输入,采用定义9传统的前向传播方法,得到的基于Faster R-CNN的船只检测网络得到检测结果,记为R1。
以基于Faster R-CNN的船只检测网络得到检测结果R1作为输入,采用定义19中传统的非极大值抑制方法,去除检测结果R1中的冗余框,具体步骤如下:
步骤(1)首先令检测结果R1中得分最高的框,记为BS1;
步骤(2)然后采用计算公式为:
Figure BDA0002725534760000111
计算检测结果R1所有框的重叠率阈值(IoU);舍弃IoU>0.5的框;
步骤(3)从剩余框中选出得分最高的框BS1;
重复上述步骤(2)中计算IoU和舍弃的过程,直到没有框可以舍弃,最后剩余的框即为最终检测结果,记为R1F
以步骤8.3中得到的新的网络参数W2NEW和步骤8.1中得到的测试集Tests作为输入,采用定义9传统的前向传播方法,得到的基于Cascade R-CNN的船只检测网络得到检测结果,记为R2。
以基于Cascade R-CNN的船只检测网络得到检测结果R2作为输入,采用定义19中传统的非极大值抑制方法,去除R2中的冗余框,具体步骤如下:
步骤(1)首先令检测结果R2中得分最高的框,记为BS2;
步骤(2)然后采用计算公式为:
Figure BDA0002725534760000112
计算检测结果R2所有框的重叠率阈值(IoU);舍弃IoU>0.5的框;
步骤(3)从剩余框中选出得分最高的框BS2;
重复上述步骤(2)中计算IoU和舍弃的过程,直到没有框可以舍弃,最后剩余的框即为最终检测结果,记为R2F
以步骤8.3中得到的新的网络参数W3NEW和步骤8.1中得到的测试集Tests作为输入,采用定义9传统的前向传播方法,得到的基于SSD的船只检测网络得到检测结果,记为R3。
以基于SSD的船只检测网络得到检测结果R3作为输入,采用定义19中传统的非极大值抑制方法,去除R3中的冗余框,具体步骤如下:
步骤(1)首先令检测结果R3中得分最高的框,记为BS3;
步骤(2)然后采用计算公式为:
Figure BDA0002725534760000121
计算检测结果R3所有框的重叠率阈值(IoU);舍弃IoU>0.5的框;
步骤(3)从剩余框中选出得分最高的框BS3;
重复上述步骤(2)中计算IoU和舍弃的过程,直到没有框可以舍弃,最后剩余的框即为最终检测结果,记为R3F
以步骤8.3中得到的新的网络参数W4NEW和步骤8.1中得到的测试集Tests作为输入,采用定义9传统的前向传播方法,得到的基于RetinaNet的船只检测网络得到检测结果,记为R4。
以基于RetinaNet的船只检测网络得到检测结果R4作为输入,采用定义19中传统的非极大值抑制方法,去除R4中的冗余框,具体步骤如下:
步骤(1)首先令检测结果R4中得分最高的框,记为BS4;
步骤(2)然后采用计算公式为:
Figure BDA0002725534760000122
计算检测结果R4所有框的重叠率阈值(IoU);舍弃IoU>0.5的框;
步骤(3)从剩余框中选出得分最高的框BS4;
重复上述步骤(2)中计算IoU和舍弃的过程,直到没有框可以舍弃,最后剩余的框即为最终检测结果,记为R4F
步骤9.2、计算指标
以步骤9.1中得到的Faster R-CNN网络检测结果R1F作为输入,采用定义18中传统的召回率和精确率计算方法,求出Faster R-CNN网络的精确率P1、召回率R1和精确率和召回率曲线P1(R);采用公式
Figure BDA0002725534760000131
计算Faster R-CNN网络的平均精度mAP1
以步骤9.1中得到的Cascade R-CNN网络检测结果R2F作为输入,采用定义18中传统的召回率和精确率计算方法,求出Cascade R-CNN网络的精确率P2,召回率R2和精确率和召回率曲线P2(R);采用公式
Figure BDA0002725534760000132
计算Cascade R-CNN网络的平均精度mAP2
以步骤9.1中得到的SSD网络检测结果R3F作为输入,采用定义18中传统的的召回率和精确率计算方法,求出SSD网络的精确率P3,召回率R3和精确率和召回率曲线P3(R);采用公式
Figure BDA0002725534760000133
计算SSD网络的平均精度mAP3
以步骤9.1中得到的RetinaNet网络检测结果R4F作为输入,采用定义18中传统的的召回率和精确率计算方法,求出RetinaNet网络的精确率P4,召回率R4和精确率和召回率曲线P4(R);采用公式
Figure BDA0002725534760000134
计算RetinaNet网络的平均精度mAP4
本发明的创新点在于引入了生成对抗网络和K-means聚类,提高了SAR图像中靠岸船只的检测精度。该方法具有更多的训练数据,更平衡的靠岸训练样本和离岸训练样本,使得本发明中的船只检测模型具有更好的靠岸船只检测能力:采用本方法的Faster R-CNN船只检测网络的靠岸精度相比现有技术Faster R-CNN船只检测网络的靠岸精度提高了8.80%;采用本方法的Cascade R-CNN船只检测网络的靠岸精度相比现有技术Cascade R-CNN船只检测网络的靠岸精度提高了8.32%;采用本方法的SSD船只检测网络的靠岸精度相比现有技术SSD船只检测网络的靠岸精度提高了18.12%;采用本方法的RetinaNet船只检测网络的靠岸精度相比现有技术RetinaNet船只检测网络的靠岸精度提高了13.40%。
本发明的优点在于能够提高SAR图像中靠岸船只的检测精度,克服现有技术存在的靠岸船只检测精度不足,同时一定程度上提高离岸船只的检测精度。
附图说明
图1为本发明中的提高SAR图像中靠岸船只检测精度的方法的流程示意图。
图2为本发明中的提高SAR图像中靠岸船只检测精度的方法的生成对抗网络结构示意图。
图3为本发明中的提高SAR图像中靠岸船只和离岸船只的检测精度的方法的检测精度。
具体实施方式
下面结合附图1对本发明的作进一步详细描述。
步骤1、初始化数据集
如图2所示,采用随机的方法调整SSDD数据集中的SAR图像次序,得到新的SSDD数据集。
步骤2、建立生成模块
如图1所示,按照经典的卷积神经网络方法,定义生成模块的输入层,记为L1;
以生成模块的输入层L1作为输入,采用传统的全连接层方法对生成模块的输入层L1层进行非线性加权求和,得到8192维的输出向量L2pre;
以8192维的输出向量L2pre作为输入,采用定义4中的经典的reshape操作将L2pre进行矩阵重排,得到4×4×512维的向量,记为L2;
以4×4×512维的向量L2作为输入,采用定义5的反卷积方法,初始化反卷积操作的卷积核尺寸参数为4×4×256,对4×4×512维的向量L2进行上采样,得到上采样后的结果,记为L3。
以上采样后结果L3作为输入,采用定义5的反卷积方法,初始化反卷积操作的卷积核尺寸参数为4×4×128,对上采样后结果L3进行上采样,得到上采样后的结果,记为L4。
以上采样后结果L4作为输入,采用定义5的反卷积方法,初始化反卷积操作的卷积核尺寸参数为4×4×64,对L4进行上采样,得到上采样后的结果,记为L5。
以上采样后结果L5作为输入,采用定义5的反卷积方法,初始化反卷积操作的卷积核尺寸参数为4×4×32,对L4进行上采样,得到上采样后的结果,记为L6。
以上采样后结果L6作为输入,采用定义5的反卷积方法,初始化反卷积操作的卷积核尺寸参数为4×4×16,对L4进行上采样,得到上采样后的结果,记为L7。
以上采样后结果L7作为输入,采用定义5的反卷积方法,初始化反卷积操作的卷积核尺寸参数为4×4×3,对L4进行上采样,得到上采样后的结果,记为L8。
定义由上采样后结果L1、L2、L3、L4、L5、L6、L7、L8所组成的网络为生成模块。
步骤3、建立判别模块
如图1所示,以步骤2中得到的上采样后结果L8作为输入,采用定义2中的经典的卷积神经网络方法,初始化卷积操作的卷积核尺寸参数为4×4×16,对L8进行下采样,得到下采样后的结果,记为L9。
以下采样后的结果L9作为输入,采用定义2中的经典的卷积神经网络方法,初始化卷积操作的卷积核尺寸参数为4×4×32,对L9进行下采样,得到下采样后的结果,记为L10。
以下采样后的结果L10作为输入,采用定义2中的经典的卷积神经网络方法,初始化卷积操作的卷积核尺寸参数为4×4×64,对L10进行下采样,得到下采样后的结果,记为L11。
以下采样后的结果L11作为输入,采用定义2中的经典的卷积神经网络方法,初始化卷积操作的卷积核尺寸参数为4×4×128,对L11进行下采样,得到下采样后的结果,记为L12。
以下采样后的结果L12作为输入,采用定义2中的经典的卷积神经网络方法,初始化卷积操作的卷积核尺寸参数为4×4×256,对L12进行下采样,得到下采样后的结果,记为L13。
以下采样后的结果L13作为输入,采用定义2中的经典的卷积神经网络方法,初始化卷积操作的卷积核尺寸参数为4×4×512,对L13进行下采样,得到下采样后的结果,记为L14。
定义由下采样后的结果L9、L10、L11、L12、L13、L14所组成的网络为判别模块。
步骤4、建立多特征层
如图1所示,以步骤3中的下采样后的结果L12、L13、L14作为输入,对L13进行上采样,使该次上采样后的矩阵尺寸与L12的矩阵尺寸相同,将该次上采样后的输出记为L13pre;对L14进行上采样,使该次上采样后的矩阵尺寸与L12的矩阵尺寸相同,将该次上采样后的输出记为L14pre
采用定义7中的级联方法,将L13pre、L14pre与L12叠加,得到多特征层,记为L15。
定义由步骤2得到的生成模块、步骤3得到的判别模块、步骤4得到的多特征层所组成的网络为生成对抗网络,记为GANpre
步骤5、进行场景特征提取
如图2所示,以步骤1中获取得到的新的SSDD数据作为输入,按照定义8中的经典的Adam算法,训练和优化在步骤4中建立的生成对抗网络GANpre,得到训练和优化之后的生成对抗网络,记为GAN。
然后再次以步骤1中获取得到的新的SSDD数据作为输入,按照定义9中的前向传播方法,将步骤1中获取得到的新的SSDD数据输入到训练和优化之后的生成对抗网络GAN中,得到网络的输出向量M={M1,M2,…Mi,…M1160}。
其中,Mi是新的SSDD数据中第i张图片的输出向量。
定义输出向量M是新的SSDD数据集中所有图片的场景特征,定义Mi为新的SSDD数据集中第i张图片的场景特征。
步骤6、进行场景聚类
以步骤5中得到的新的SSDD数据中所有图片的场景特征的集合M作为输入,采用定义10传统的的K-means聚类算法,借助场景特征Mf对新的SSDD数据集中的图片进行聚类操作:
步骤6.1、初始化参数
对于定义10中的传统的K-means聚类算法中的质心参数,随机初始化第一步迭代中K-means聚类算法的质心参数,记为
Figure BDA0002725534760000161
定义当前迭代次数为t,t=1,2,…,I,I为K-means聚类算法最大迭代次数,初始化I=1000。定义第t步迭代的质心参数为
Figure BDA0002725534760000162
初始化迭代收敛误差ε,作为算法迭代收敛条件之一。
步骤6.2、进行迭代操作
首先采用公式
Figure BDA0002725534760000163
计算第i张图片的场景特征Mi到在第1次迭代中第一个质心
Figure BDA0002725534760000164
的距离,记为
Figure BDA0002725534760000165
采用公式
Figure BDA0002725534760000166
计算第i张图片的场景特征Mi到在第1次迭代中第二个质心
Figure BDA0002725534760000167
的距离,记为
Figure BDA0002725534760000168
比较
Figure BDA0002725534760000169
Figure BDA00027255347600001610
Figure BDA00027255347600001611
则定义在第1次迭代中第i张图片的场景特征Mi属于第二类,反之则定义在第1次迭代中第i张图片的场景特征Mi属于第一类。
定义在第1步迭代后,第一类的所有场景特征的集合为
Figure BDA00027255347600001612
第二类的所有场景特征的集合为
Figure BDA00027255347600001613
然后令t=2,执行以下操作直至收敛:
1)令第t步的质心参数
Figure BDA0002725534760000171
为集合
Figure BDA0002725534760000172
的算术均值,令第t步的质心参数
Figure BDA0002725534760000173
为集合
Figure BDA0002725534760000174
的算术均值。
2)采用公式
Figure BDA0002725534760000175
计算第i张图片的场景特征Mi到在第t次迭代中第一个质心
Figure BDA0002725534760000176
的距离,记为
Figure BDA0002725534760000177
采用
Figure BDA0002725534760000178
第i张图片的场景特征Mi到在第t次迭代中第二个质心
Figure BDA0002725534760000179
的距离,记为
Figure BDA00027255347600001710
3)比较
Figure BDA00027255347600001711
Figure BDA00027255347600001712
Figure BDA00027255347600001713
则定义在第t次迭代中第i张图片的场景特征Mi属于第二类,反之则定义在第t次迭代中第i张图片的场景特征Mi属于第一类。定义在第t步迭代后,第一类的所有场景特征集合为
Figure BDA00027255347600001714
第二类的所有场景特征集合为
Figure BDA00027255347600001715
输出聚类结果,记为CLASS。
4)计算该次迭代与上一次迭代的质心参数变化量,记为σ,表达式为
Figure BDA00027255347600001716
如果σ<ε或t<I,则输出聚类结果CLASS,否则另t=t+1,然后返回到步骤1)继续迭代。
步骤7、进行场景扩增
如图2所示,根据由步骤6中得到的聚类结果CLASS和新的SSDD数据中所有图片,将新的SSDD数据中所有图片分为两类,第一类为靠岸场景图片,记为Data1,第二类为离岸场景图片记为Data2。定义Data1的图片数量为N1,Data2的图片数量为N2
若N2>N1,则从Data1中基于高斯分布随机选取N2-N1张图片进行镜像操作,得到镜像操作之后的N2-N1张图片,记为Data1extra。然后将镜像操作之后的N2-N1张图片Data1extra和第一类为靠岸场景图片Data1合并,输出一个新的图片集合,记为Data1new。定义Data2new=Data2
若N2<=N1,则从Data2中基于高斯分布随机选取N1-N2张图片进行镜像操作,得到镜像操作之后的N1-N2张图片,记为Data2extra。然后将镜像操作之后的N1-N2张图片Data2extra和第一类为靠岸场景图片Data2合并,输出一个新的图片集合,记为Data2new。定义Data1new=Data1
定义新的图片集合Datanew={Data1new,Data2new}。
步骤8、在经典的模型上进行实验验证
步骤8.1、图像预处理
以从步骤7中获得的新的图片集合Datanew作为输入,采用定义11的经典的数据增强方法对Datanew进行数据增强,得到数据增强后的SAR图像检测数据集,记作IM,
将IM按照7:3的比列划分为两部分,得到训练集、和测试集,训练集记为Train,测试集记为Test。
步骤8.2、建立网络
采用定义12中经典的Faster R-CNN方法建立未训练的Faster R-CNN网络;
采用定义14中经典的Cascade R-CNN方法建立未训练的Cascade R-CNN网络;
采用定义15中经典的SSD方法建立未训练的SSD网络;
采用定义16中经典的RetinaNet方法建立未训练的RetinaNet网络。
步骤8.3、训练网络
如图2所示,初始化步骤8.2得到的未训练的网络的图像批处理大小,记为Batchsize;
初始化未训练的网络的正则化参数,记为λ;初始化网络的学习率,记为η;
初始化未训练的网络训练参数的权重衰减率和动量,分别记为DC和MM;
对步骤8.2得到的未训练的Faster R-CNN网络进行随机参数初始化,将初始化后的参数记为W1;对步骤8.2得到的未训练的Cascade R-CNN网络进行随机参数初始化,将初始化后的参数记为W2;对步骤8.2得到的未训练的SSD网络进行随机参数初始化,将初始化后的参数记为W3;对步骤8.2得到的未训练的RetinaNet网络进行随机参数初始化,将初始化后的参数记为W4
使用步骤8.1中的训练集Train,基于定义8中经典的Adam算法对未训练的FasterR-CNN网络进行训练,输出该网络的损失值,记为lossr1
当该网络的损失值lossr1小于理想损失值loss时,停止训练,输出新的网络参数W1NEW
使用步骤8.1中的训练集Train,基于定义8中经典的Adam算法对未训练的CascadeR-CNN网络进行训练,输出该网络的损失值,记为lossr2
当该网络的损失值lossr2小于理想损失值loss时,停止训练,输出新的网络参数W2NEW
使用步骤8.1中的训练集Train,基于定义8中经典的Adam算法对未训练的SSD网络进行训练,输出该网络的损失值,记为lossr3
当该网络的损失值lossr3小于理想损失值loss时,停止训练,输出新的网络参数W3NEW
使用步骤8.1中的训练集Train,基于定义8中经典的Adam算法对未训练的RetinaNet网络进行训练,输出该网络的损失值,记为lossr4
当该网络的损失值lossr4小于理想损失值loss时,停止训练,输出新的网络参数W4NEW
步骤9、评估方法
步骤9.1、前向传播
以步骤8.3中得到的新的网络参数W1NEW和步骤8.1中得到的测试集Tests作为输入,采用定义9的前向传播方法,得到的基于Faster R-CNN的船只检测网络得到检测结果,记为R1。
以基于Faster R-CNN的船只检测网络得到检测结果R1作为输入,采用定义19中的非极大值抑制方法,去除R1中的冗余框,具体步骤如下:
步骤(1)首先令检测结果R1中得分最高的框,记为BS1;
步骤(2)然后采用计算公式为:
Figure BDA0002725534760000191
计算检测结果R1所有框的重叠率阈值(IoU);舍弃IoU>0.5的框;
步骤(3)从剩余框中选出得分最高的框BS1;
重复上述步骤(2)中计算IoU和舍弃的过程,直到没有框可以舍弃,最后剩余的框即为最终检测结果,记为R1F
以步骤8.3中得到的新的网络参数W2NEW和步骤8.1中得到的测试集Tests作为输入,采用定义9的前向传播方法,得到的基于Cascade R-CNN的船只检测网络得到检测结果,记为R2。
以基于Cascade R-CNN的船只检测网络得到检测结果R2作为输入,采用定义19中的非极大值抑制方法,去除R2中的冗余框,具体步骤如下:
步骤(1)首先令检测结果R2中得分最高的框,记为BS2;
步骤(2)然后采用计算公式为:
Figure BDA0002725534760000201
计算检测结果R2所有框的重叠率阈值(IoU);舍弃IoU>0.5的框;
步骤(3)从剩余框中选出得分最高的框BS2;
重复上述步骤(2)中计算IoU和舍弃的过程,直到没有框可以舍弃,最后剩余的框即为最终检测结果,记为R2F
以步骤8.3中得到的新的网络参数W3NEW和步骤8.1中得到的测试集Tests作为输入,采用定义9的前向传播方法,得到的基于SSD的船只检测网络得到检测结果,记为R3。
以基于SSD的船只检测网络得到检测结果R3作为输入,采用定义19中的非极大值抑制方法,去除R3中的冗余框,具体步骤如下:
步骤(1)首先令检测结果R3中得分最高的框,记为BS3;
步骤(2)然后采用计算公式为:
Figure BDA0002725534760000202
计算检测结果R3所有框的重叠率阈值(IoU);舍弃IoU>0.5的框;
步骤(3)从剩余框中选出得分最高的框BS3;
重复上述步骤(2)中计算IoU和舍弃的过程,直到没有框可以舍弃,最后剩余的框即为最终检测结果,记为R3F
以步骤8.3中得到的新的网络参数W4NEW和步骤8.1中得到的测试集Tests作为输入,采用定义9的前向传播方法,得到的基于RetinaNet的船只检测网络得到检测结果,记为R4。
以基于RetinaNet的船只检测网络得到检测结果R4作为输入,采用定义19中的非极大值抑制方法,去除R4中的冗余框,具体步骤如下:
步骤(1)首先令检测结果R4中得分最高的框,记为BS4;
步骤(2)然后采用计算公式为:
Figure BDA0002725534760000203
计算检测结果R4所有框的重叠率阈值(IoU);舍弃IoU>0.5的框;
步骤(3)从剩余框中选出得分最高的框BS4;
重复上述步骤(2)中计算IoU和舍弃的过程,直到没有框可以舍弃,最后剩余的框即为最终检测结果,记为R4F
步骤9.2、计算指标
如图2所示,以步骤9.1中得到的Faster R-CNN网络检测结果R1F作为输入,采用定义18中的召回率和精确率计算方法,求出Faster R-CNN网络的精确率P1,召回率R1和精确率和召回率曲线P1(R);采用公式
Figure BDA0002725534760000211
输出Faster R-CNN网络的平均精度mAP1
以步骤9.1中得到的Cascade R-CNN网络检测结果R2F作为输入,采用定义18中的召回率和精确率计算方法,求出Cascade R-CNN网络的精确率P2,召回率R2和精确率和召回率曲线P2(R);采用公式
Figure BDA0002725534760000212
输出Cascade R-CNN网络的平均精度mAP2
以步骤9.1中得到的SSD网络检测结果R3F作为输入,采用定义18中的召回率和精确率计算方法,求出SSD网络的精确率P3,召回率R3和精确率和召回率曲线P3(R);采用公式
Figure BDA0002725534760000213
输出SSD网络的平均精度mAP3
以步骤9.1中得到的RetinaNet网络检测结果R4F作为输入,采用定义18中的召回率和精确率计算方法,求出RetinaNet网络的精确率P4,召回率R4和精确率和召回率曲线P4(R);采用公式
Figure BDA0002725534760000214
输出RetinaNet网络的平均精度mAP4
如图3所示,本发明中Faster R-CNN的靠岸船只检测平均精度为74.82%,高于现有技术中Faster R-CNN的靠岸船只检测平均精度66.22%;本发明中Faster R-CNN的离岸船只检测平均精度为98.18%,高于现有技术中Faster R-CNN的离岸船只检测平均精度97.68%;本发明中Cascade R-CNN的靠岸船只检测平均精度为76.32%,高于现有技术中Cascade R-CNN的靠岸船只检测平均精度68.00%;本发明中Cascade R-CNN的离岸船只检测平均精度为98.25%,高于现有技术中Cascade R-CNN的离岸船只检测平均精度98.00%;本发明中SSD的靠岸船只检测平均精度为64.67%,高于现有技术中SSD的靠岸船只检测平均精度46.52%;本发明中SSD的离岸船只检测平均精度为82.44%,高于现有技术中SSD的离岸船只检测平均精度79.38%;本发明中RetinaNet的靠岸船只检测平均精度为58.06%,高于现有技术中RetinaNet的靠岸船只检测平均精度45.66%;本发明中RetinaNet的离岸船只检测平均精度为87.50%,高于现有技术中RetinaNet的离岸船只检测平均精度83.35%;因此,本发明实现了比现有技术检测网络更高的靠岸船只检测精度,表明本发明能够实现SAR图像中靠岸船只检测精度的提高。

Claims (1)

1.一种提高SAR图像中靠岸船只检测精度的方法,其特征是它包括以下几个步骤:
步骤1、初始化数据集
采用随机的方法调整SSDD数据集中的SAR图像次序,得到新的SSDD数据集;
步骤2、建立生成模块
按照经典的卷积神经网络方法,定义生成模块的输入层,记为L1;
以生成模块的输入层L1作为输入,采用传统的全连接层方法对生成模块的输入层L1层进行非线性加权求和,得到8192维的输出向量L2pre;
以8192维的输出向量L2pre作为输入,采用经典的reshape操作将L2pre进行矩阵重排,得到4×4×512维的向量,记为L2;
以4×4×512维的向量L2作为输入,采用传统的反卷积方法,初始化反卷积操作的卷积核尺寸参数为4×4×256,对4×4×512维的向量L2进行上采样,得到上采样后的结果,记为L3;
以上采样后结果L3作为输入,采用传统的的反卷积方法,初始化反卷积操作的卷积核尺寸参数为4×4×128,对上采样后结果L3进行上采样,得到上采样后的结果,记为L4;
以上采样后结果L4作为输入,采用传统的的反卷积方法,初始化反卷积操作的卷积核尺寸参数为4×4×64,对L4进行上采样,得到上采样后的结果,记为L5;
以上采样后结果L5作为输入,采用传统的的反卷积方法,初始化反卷积操作的卷积核尺寸参数为4×4×32,对L4进行上采样,得到上采样后的结果,记为L6;
以上采样后结果L6作为输入,采用传统的的反卷积方法,初始化反卷积操作的卷积核尺寸参数为4×4×16,对L4进行上采样,得到上采样后的结果,记为L7;
以上采样后结果L7作为输入,采用传统的的反卷积方法,初始化反卷积操作的卷积核尺寸参数为4×4×3,对L4进行上采样,得到上采样后的结果,记为L8;
定义由上采样后结果L1、L2、L3、L4、L5、L6、L7、L8所组成的网络为生成模块;
步骤3、建立判别模块
以步骤2中得到的上采样后结果L8作为输入,采用经典的卷积神经网络方法,初始化卷积操作的卷积核尺寸参数为4×4×16,对L8进行下采样,得到下采样后的结果,记为L9;
以下采样后的结果L9作为输入,采用经典的卷积神经网络方法,初始化卷积操作的卷积核尺寸参数为4×4×32,对L9进行下采样,得到下采样后的结果,记为L10;
以下采样后的结果L10作为输入,采用经典的卷积神经网络方法,初始化卷积操作的卷积核尺寸参数为4×4×64,对L10进行下采样,得到下采样后的结果,记为L11;
以下采样后的结果L11作为输入,采用经典的卷积神经网络方法,初始化卷积操作的卷积核尺寸参数为4×4×128,对L11进行下采样,得到下采样后的结果,记为L12;
以下采样后的结果L12作为输入,采用经典的卷积神经网络方法,初始化卷积操作的卷积核尺寸参数为4×4×256,对L12进行下采样,得到下采样后的结果,记为L13;
以下采样后的结果L13作为输入,采用经典的卷积神经网络方法,初始化卷积操作的卷积核尺寸参数为4×4×512,对L13进行下采样,得到下采样后的结果,记为L14;
定义由下采样后的结果L9、L10、L11、L12、L13、L14所组成的网络为判别模块;
步骤4、建立多特征层
以步骤3中的下采样后的结果L12、L13、L14作为输入,对L13进行上采样,使该次上采样后的矩阵尺寸与L12的矩阵尺寸相同,将该次上采样后的输出记为L13pre;对L14进行上采样,使该次上采样后的矩阵尺寸与L12的矩阵尺寸相同,将该次上采样后的输出记为L14pre
采用传统的的级联方法,将L13pre、L14pre与L12叠加,得到多特征层,记为L15;
定义由步骤2得到的生成模块、步骤3得到的判别模块、步骤4得到的多特征层所组成的网络为生成对抗网络,记为GANpre
步骤5、进行场景特征提取
以步骤1中获取得到的新的SSDD数据作为输入,按照经典的Adam算法,训练和优化在步骤4中建立的生成对抗网络GANpre,得到训练和优化之后的生成对抗网络,记为GAN;
然后再次以步骤1中获取得到的新的SSDD数据作为输入,按照传统的的前向传播方法,将步骤1中获取得到的新的SSDD数据输入到训练和优化之后的生成对抗网络GAN中,得到网络的输出向量M={M1,M2,…Mi,…M1160},其中,Mi是新的SSDD数据中第i张图片的输出向量;
定义输出向量M是新的SSDD数据集中所有图片的场景特征,定义Mi为新的SSDD数据集中第i张图片的场景特征;
步骤6、进行场景聚类
以步骤5中得到的新的SSDD数据中所有图片的场景特征的集合M作为输入,采用传统的的K-means聚类算法,借助场景特征Mf对新的SSDD数据集中的图片进行聚类操作:
步骤6.1、初始化参数
对于传统的K-means聚类算法中的质心参数,随机初始化第一步迭代中K-means聚类算法的质心参数,记为
Figure FDA0002725534750000031
定义当前迭代次数为t,t=1,2,…,I,I为K-means聚类算法最大迭代次数,初始化I=1000;定义第t步迭代的质心参数为
Figure FDA0002725534750000032
初始化迭代收敛误差ε,作为算法迭代收敛条件之一;
步骤6.2、进行迭代操作
首先采用公式
Figure FDA0002725534750000033
计算第i张图片的场景特征Mi到在第1次迭代中第一个质心
Figure FDA0002725534750000034
的距离,记为
Figure FDA0002725534750000035
采用公式
Figure FDA0002725534750000036
计算第i张图片的场景特征Mi到在第1次迭代中第二个质心
Figure FDA0002725534750000037
的距离,记为
Figure FDA0002725534750000038
比较
Figure FDA0002725534750000039
Figure FDA00027255347500000310
Figure FDA00027255347500000311
则定义在第1次迭代中第i张图片的场景特征Mi属于第二类,反之则定义在第1次迭代中第i张图片的场景特征Mi属于第一类;
定义在第1步迭代后,第一类的所有场景特征的集合为
Figure FDA00027255347500000312
第二类的所有场景特征的集合为
Figure FDA00027255347500000313
然后令t=2,执行以下操作直至收敛:
1)令第t步的质心参数
Figure FDA00027255347500000314
为集合
Figure FDA00027255347500000315
的算术均值,令第t步的质心参数
Figure FDA00027255347500000316
为集合
Figure FDA00027255347500000317
的算术均值;
2)采用公式
Figure FDA00027255347500000318
计算第i张图片的场景特征Mi到在第t次迭代中第一个质心
Figure FDA00027255347500000319
的距离,记为
Figure FDA00027255347500000320
采用
Figure FDA00027255347500000321
第i张图片的场景特征Mi到在第t次迭代中第二个质心
Figure FDA00027255347500000322
的距离,记为
Figure FDA00027255347500000323
3)比较
Figure FDA00027255347500000324
Figure FDA00027255347500000325
Figure FDA00027255347500000326
则定义在第t次迭代中第i张图片的场景特征Mi属于第二类,反之则定义在第t次迭代中第i张图片的场景特征Mi属于第一类;定义在第t步迭代后,第一类的所有场景特征集合为
Figure FDA00027255347500000327
第二类的所有场景特征集合为
Figure FDA00027255347500000328
输出聚类结果,记为CLASS;
4)计算该次迭代与上一次迭代的质心参数变化量,记为σ,表达式为
Figure FDA0002725534750000041
如果σ<ε或t<I,则输出聚类结果CLASS,否则另t=t+1,然后返回到步骤1)继续迭代;
步骤7、进行场景扩增
根据由步骤6中得到的聚类结果CLASS和新的SSDD数据中所有图片,将新的SSDD数据中所有图片分为两类,第一类为靠岸场景图片,记为Data1,第二类为离岸场景图片记为Data2;定义Data1的图片数量为N1,Data2的图片数量为N2
若N2>N1,则从第一类为靠岸场景图片Data1中基于高斯分布随机选取N2-N1张图片进行镜像操作,得到镜像操作之后的N2-N1张图片,记为Data1extra;然后将镜像操作之后的N2-N1张图片Data1extra和第一类为靠岸场景图片Data1合并,输出一个新的图片集合,记为Data1new;定义Data2new=Data2
若N2<=N1,则从第二类为离岸场景图片Data2中基于高斯分布随机选取N1-N2张图片进行镜像操作,得到镜像操作之后的N1-N2张图片,记为Data2extra;然后将镜像操作之后的N1-N2张图片Data2extra和第一类为靠岸场景图片Data2合并,输出一个新的图片集合,记为Data2new;定义Data1new=Data1
定义新的图片集合Datanew={Data1new,Data2new};
步骤8、在经典的模型上进行实验验证
步骤8.1、图像预处理
以从步骤7中获得的新的图片集合Datanew作为输入,采用经典的数据增强方法对Datanew进行数据增强,得到数据增强后的SAR图像检测数据集,记作IM,
将数据增强后的SAR图像检测数据集IM按照7:3的比列划分为两部分,得到训练集、和测试集,训练集记为Train,测试集记为Test;
步骤8.2、建立网络
采用经典的Faster R-CNN方法建立未训练的Faster R-CNN网络;
采用经典的Cascade R-CNN方法建立未训练的Cascade R-CNN网络;
采用经典的SSD方法建立未训练的SSD网络;
采用经典的RetinaNet方法建立未训练的RetinaNet网络;
步骤8.3、训练网络
初始化步骤8.2得到的未训练的网络的图像批处理大小,记为Batchsize;
初始化未训练的网络的正则化参数,记为λ;初始化网络的学习率,记为η;
初始化未训练的网络训练参数的权重衰减率和动量,分别记为DC和MM;
对步骤8.2得到的未训练的Faster R-CNN网络进行随机参数初始化,将初始化后的参数记为W1;对步骤8.2得到的未训练的Cascade R-CNN网络进行随机参数初始化,将初始化后的参数记为W2;对步骤8.2得到的未训练的SSD网络进行随机参数初始化,将初始化后的参数记为W3;对步骤8.2得到的未训练的RetinaNet网络进行随机参数初始化,将初始化后的参数记为W4
使用步骤8.1中的训练集Train,采用经典的Adam算法对未训练的Faster R-CNN网络进行训练,输出该网络的损失值,记为lossr1
当该网络的损失值lossr1小于理想损失值loss时,停止训练,输出新的网络参数W1NEW
使用步骤8.1中的训练集Train,采用经典的Adam算法对未训练的Cascade R-CNN网络进行训练,输出该网络的损失值,记为lossr2
当该网络的损失值lossr2小于理想损失值loss时,停止训练,输出新的网络参数W2NEW
使用步骤8.1中的训练集Train,采用经典的Adam算法对未训练的SSD网络进行训练,输出该网络的损失值,记为lossr3
当该网络的损失值lossr3小于理想损失值loss时,停止训练,输出新的网络参数W3NEW
使用步骤8.1中的训练集Train,采用经典的Adam算法对未训练的RetinaNet网络进行训练,输出该网络的损失值,记为lossr4
当该网络的损失值lossr4小于理想损失值loss时,停止训练,输出新的网络参数W4NEW;步骤9、评估方法
步骤9.1、前向传播
以步骤8.3中得到的新的网络参数W1NEW和步骤8.1中得到的测试集Tests作为输入,采用前向传播方法,得到的基于Faster R-CNN的船只检测网络得到检测结果,记为R1;
以基于Faster R-CNN的船只检测网络得到检测结果R1作为输入,采用传统的非极大值抑制方法,去除检测结果R1中的冗余框,具体步骤如下:
步骤(1)首先令检测结果R1中得分最高的框,记为BS1;
步骤(2)然后采用计算公式为:
Figure FDA0002725534750000051
计算检测结果R1所有框的重叠率阈值(IoU);舍弃IoU>0.5的框;
步骤(3)从剩余框中选出得分最高的框BS1;
重复上述步骤(2)中计算IoU和舍弃的过程,直到没有框可以舍弃,最后剩余的框即为最终检测结果,记为R1F
以步骤8.3中得到的新的网络参数W2NEW和步骤8.1中得到的测试集Tests作为输入,采用传统的前向传播方法,得到的基于Cascade R-CNN的船只检测网络得到检测结果,记为R2;
以基于Cascade R-CNN的船只检测网络得到检测结果R2作为输入,采用传统的非极大值抑制方法,去除R2中的冗余框,具体步骤如下:
步骤(1)首先令检测结果R2中得分最高的框,记为BS2;
步骤(2)然后采用计算公式为:
Figure FDA0002725534750000061
计算检测结果R2所有框的重叠率阈值(IoU);舍弃IoU>0.5的框;
步骤(3)从剩余框中选出得分最高的框BS2;
重复上述步骤(2)中计算IoU和舍弃的过程,直到没有框可以舍弃,最后剩余的框即为最终检测结果,记为R2F
以步骤8.3中得到的新的网络参数W3NEW和步骤8.1中得到的测试集Tests作为输入,采用传统的前向传播方法,得到的基于SSD的船只检测网络得到检测结果,记为R3;
以基于SSD的船只检测网络得到检测结果R3作为输入,采用传统的非极大值抑制方法,去除R3中的冗余框,具体步骤如下:
步骤(1)首先令检测结果R3中得分最高的框,记为BS3;
步骤(2)然后采用计算公式为:
Figure FDA0002725534750000062
计算检测结果R3所有框的重叠率阈值(IoU);舍弃IoU>0.5的框;
步骤(3)从剩余框中选出得分最高的框BS3;
重复上述步骤(2)中计算IoU和舍弃的过程,直到没有框可以舍弃,最后剩余的框即为最终检测结果,记为R3F
以步骤8.3中得到的新的网络参数W4NEW和步骤8.1中得到的测试集Tests作为输入,采用传统的前向传播方法,得到的基于RetinaNet的船只检测网络得到检测结果,记为R4;
以基于RetinaNet的船只检测网络得到检测结果R4作为输入,采用传统的非极大值抑制方法,去除R4中的冗余框,具体步骤如下:
步骤(1)首先令检测结果R4中得分最高的框,记为BS4;
步骤(2)然后采用计算公式为:
Figure FDA0002725534750000071
计算检测结果R4所有框的重叠率阈值(IoU);舍弃IoU>0.5的框;
步骤(3)从剩余框中选出得分最高的框BS4;
重复上述步骤(2)中计算IoU和舍弃的过程,直到没有框可以舍弃,最后剩余的框即为最终检测结果,记为R4F
步骤9.2、计算指标
以步骤9.1中得到的Faster R-CNN网络检测结果R1F作为输入,采用传统的召回率和精确率计算方法,求出Faster R-CNN网络的精确率P1、召回率R1和精确率和召回率曲线P1(R);采用公式
Figure FDA0002725534750000072
计算Faster R-CNN网络的平均精度mAP1
以步骤9.1中得到的Cascade R-CNN网络检测结果R2F作为输入,采用传统的召回率和精确率计算方法,求出Cascade R-CNN网络的精确率P2,召回率R2和精确率和召回率曲线P2(R);采用公式
Figure FDA0002725534750000073
计算Cascade R-CNN网络的平均精度mAP2
以步骤9.1中得到的SSD网络检测结果R3F作为输入,采用传统的的召回率和精确率计算方法,求出SSD网络的精确率P3,召回率R3和精确率和召回率曲线P3(R);采用公式
Figure FDA0002725534750000081
计算SSD网络的平均精度mAP3
以步骤9.1中得到的RetinaNet网络检测结果R4F作为输入,采用传统的的召回率和精确率计算方法,求出RetinaNet网络的精确率P4,召回率R4和精确率和召回率曲线P4(R);采用公式
Figure FDA0002725534750000082
计算RetinaNet网络的平均精度mAP4
CN202011101601.3A 2020-10-15 2020-10-15 一种提高sar图像中靠岸船只检测精度的方法 Active CN112285712B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011101601.3A CN112285712B (zh) 2020-10-15 2020-10-15 一种提高sar图像中靠岸船只检测精度的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011101601.3A CN112285712B (zh) 2020-10-15 2020-10-15 一种提高sar图像中靠岸船只检测精度的方法

Publications (2)

Publication Number Publication Date
CN112285712A true CN112285712A (zh) 2021-01-29
CN112285712B CN112285712B (zh) 2023-09-15

Family

ID=74496242

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011101601.3A Active CN112285712B (zh) 2020-10-15 2020-10-15 一种提高sar图像中靠岸船只检测精度的方法

Country Status (1)

Country Link
CN (1) CN112285712B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113344045A (zh) * 2021-05-21 2021-09-03 电子科技大学 一种结合hog特征提高sar船只分类精度的方法
CN113344046A (zh) * 2021-05-24 2021-09-03 电子科技大学 一种提高sar图像船只分类精度的方法
CN113420594A (zh) * 2021-05-20 2021-09-21 西安电子科技大学 基于改进Faster R-CNN的SAR图像舰船检测方法
CN113657252A (zh) * 2021-08-16 2021-11-16 福州大学 基于编码解码器的高效sar图像船舶目标检测方法
CN113705331A (zh) * 2021-07-08 2021-11-26 电子科技大学 一种基于四元特征金字塔网络的sar船只检测方法
CN113902975A (zh) * 2021-10-08 2022-01-07 电子科技大学 一种用于sar舰船检测的场景感知数据增强方法
CN113989665A (zh) * 2021-10-25 2022-01-28 电子科技大学 一种基于路由聚合感知fpn的sar船只检测方法
CN113989672A (zh) * 2021-10-29 2022-01-28 电子科技大学 一种基于平衡学习的sar图像船只检测方法
CN114022778A (zh) * 2021-10-25 2022-02-08 电子科技大学 一种基于显著性cnn的sar靠岸船只检测方法
CN114998759A (zh) * 2022-05-27 2022-09-02 电子科技大学 一种基于视觉Transformer的高精度SAR舰船检测方法

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106156744A (zh) * 2016-07-11 2016-11-23 西安电子科技大学 基于cfar检测与深度学习的sar目标检测方法
US20170016987A1 (en) * 2015-07-17 2017-01-19 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of National Defence Processing synthetic aperture radar images for ship detection
CN107085733A (zh) * 2017-05-15 2017-08-22 山东工商学院 基于cnn深度学习的近岸红外舰船识别方法
CN107818326A (zh) * 2017-12-11 2018-03-20 珠海大横琴科技发展有限公司 一种基于场景多维特征的船只检测方法及系统
CN108921029A (zh) * 2018-06-04 2018-11-30 浙江大学 一种融合残差卷积神经网络和pca降维的sar自动目标识别方法
CN109766811A (zh) * 2018-12-31 2019-05-17 复旦大学 一种星载sar图像中海面船只的端到端检测与识别方法
CN110070142A (zh) * 2019-04-29 2019-07-30 上海大学 一种基于yolo神经网络的海上船只目标检测方法
CN110109102A (zh) * 2019-04-04 2019-08-09 电子科技大学 一种sar运动目标检测与速度估计的方法
CN110135267A (zh) * 2019-04-17 2019-08-16 电子科技大学 一种大场景sar图像细微目标检测方法
CN110378308A (zh) * 2019-07-25 2019-10-25 电子科技大学 改进的基于Faster R-CNN的港口SAR图像近岸舰船检测方法
CN110688925A (zh) * 2019-09-19 2020-01-14 国网山东省电力公司电力科学研究院 基于深度学习的级联目标识别方法及系统
CN110796009A (zh) * 2019-09-29 2020-02-14 航天恒星科技有限公司 基于多尺度卷积神经网络模型的海上船只检测方法及系统
CN110826428A (zh) * 2019-10-22 2020-02-21 电子科技大学 一种高速的sar图像中船只检测方法
CN111259740A (zh) * 2020-01-09 2020-06-09 北京航空航天大学 基于轻量级cnn与多源特征决策的红外图像舰船检测方法
CN111368671A (zh) * 2020-02-26 2020-07-03 电子科技大学 基于深度学习的sar图像舰船目标检测识别一体化方法

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170016987A1 (en) * 2015-07-17 2017-01-19 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of National Defence Processing synthetic aperture radar images for ship detection
CN106156744A (zh) * 2016-07-11 2016-11-23 西安电子科技大学 基于cfar检测与深度学习的sar目标检测方法
CN107085733A (zh) * 2017-05-15 2017-08-22 山东工商学院 基于cnn深度学习的近岸红外舰船识别方法
CN107818326A (zh) * 2017-12-11 2018-03-20 珠海大横琴科技发展有限公司 一种基于场景多维特征的船只检测方法及系统
CN108921029A (zh) * 2018-06-04 2018-11-30 浙江大学 一种融合残差卷积神经网络和pca降维的sar自动目标识别方法
CN109766811A (zh) * 2018-12-31 2019-05-17 复旦大学 一种星载sar图像中海面船只的端到端检测与识别方法
CN110109102A (zh) * 2019-04-04 2019-08-09 电子科技大学 一种sar运动目标检测与速度估计的方法
CN110135267A (zh) * 2019-04-17 2019-08-16 电子科技大学 一种大场景sar图像细微目标检测方法
CN110070142A (zh) * 2019-04-29 2019-07-30 上海大学 一种基于yolo神经网络的海上船只目标检测方法
CN110378308A (zh) * 2019-07-25 2019-10-25 电子科技大学 改进的基于Faster R-CNN的港口SAR图像近岸舰船检测方法
CN110688925A (zh) * 2019-09-19 2020-01-14 国网山东省电力公司电力科学研究院 基于深度学习的级联目标识别方法及系统
CN110796009A (zh) * 2019-09-29 2020-02-14 航天恒星科技有限公司 基于多尺度卷积神经网络模型的海上船只检测方法及系统
CN110826428A (zh) * 2019-10-22 2020-02-21 电子科技大学 一种高速的sar图像中船只检测方法
CN111259740A (zh) * 2020-01-09 2020-06-09 北京航空航天大学 基于轻量级cnn与多源特征决策的红外图像舰船检测方法
CN111368671A (zh) * 2020-02-26 2020-07-03 电子科技大学 基于深度学习的sar图像舰船目标检测识别一体化方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
康妙: ""基于深度学习的SAR图像舰船目标检测与识别技术研究"", 《中国优秀硕士学位论文全文数据库》, no. 2, pages 036 - 226 *
张晓玲 等: ""基于深度分离卷积神经网络的高速高精度SAR舰船检测"", 《雷达学报》, vol. 8, no. 6, pages 841 - 851 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113420594A (zh) * 2021-05-20 2021-09-21 西安电子科技大学 基于改进Faster R-CNN的SAR图像舰船检测方法
CN113344045A (zh) * 2021-05-21 2021-09-03 电子科技大学 一种结合hog特征提高sar船只分类精度的方法
CN113344045B (zh) * 2021-05-21 2022-03-15 电子科技大学 一种结合hog特征提高sar船只分类精度的方法
CN113344046A (zh) * 2021-05-24 2021-09-03 电子科技大学 一种提高sar图像船只分类精度的方法
CN113705331A (zh) * 2021-07-08 2021-11-26 电子科技大学 一种基于四元特征金字塔网络的sar船只检测方法
CN113705331B (zh) * 2021-07-08 2023-12-05 电子科技大学 一种基于四元特征金字塔网络的sar船只检测方法
CN113657252A (zh) * 2021-08-16 2021-11-16 福州大学 基于编码解码器的高效sar图像船舶目标检测方法
CN113657252B (zh) * 2021-08-16 2023-07-28 福州大学 基于编码解码器的高效sar图像船舶目标检测方法
CN113902975B (zh) * 2021-10-08 2023-05-05 电子科技大学 一种用于sar舰船检测的场景感知数据增强方法
CN113902975A (zh) * 2021-10-08 2022-01-07 电子科技大学 一种用于sar舰船检测的场景感知数据增强方法
CN114022778A (zh) * 2021-10-25 2022-02-08 电子科技大学 一种基于显著性cnn的sar靠岸船只检测方法
CN114022778B (zh) * 2021-10-25 2023-04-07 电子科技大学 一种基于显著性cnn的sar靠岸船只检测方法
CN113989665B (zh) * 2021-10-25 2023-04-07 电子科技大学 一种基于路由聚合感知fpn的sar船只检测方法
CN113989665A (zh) * 2021-10-25 2022-01-28 电子科技大学 一种基于路由聚合感知fpn的sar船只检测方法
CN113989672A (zh) * 2021-10-29 2022-01-28 电子科技大学 一种基于平衡学习的sar图像船只检测方法
CN113989672B (zh) * 2021-10-29 2023-10-17 电子科技大学 一种基于平衡学习的sar图像船只检测方法
CN114998759A (zh) * 2022-05-27 2022-09-02 电子科技大学 一种基于视觉Transformer的高精度SAR舰船检测方法

Also Published As

Publication number Publication date
CN112285712B (zh) 2023-09-15

Similar Documents

Publication Publication Date Title
CN112285712A (zh) 一种提高sar图像中靠岸船只检测精度的方法
CN110135267B (zh) 一种大场景sar图像细微目标检测方法
CN109308483B (zh) 基于卷积神经网络的双源图像特征提取及融合识别方法
Liu et al. Denet: A universal network for counting crowd with varying densities and scales
Al Bashish et al. A framework for detection and classification of plant leaf and stem diseases
Karuppusamy Building detection using two-layered novel convolutional neural networks
CN107977683B (zh) 基于卷积特征提取和机器学习的联合sar目标识别方法
CN108345856B (zh) 基于异构卷积神经网络集成的sar自动目标识别方法
CN107680116A (zh) 一种监测视频图像中运动目标的方法
CN109766934B (zh) 一种基于深度Gabor网络的图像目标识别方法
CN113705331B (zh) 一种基于四元特征金字塔网络的sar船只检测方法
CN113989672B (zh) 一种基于平衡学习的sar图像船只检测方法
CN111105444B (zh) 一种适用于水下机器人目标抓取的连续跟踪方法
CN116363535A (zh) 基于卷积神经网络的无人机航拍影像中的船舶检测方法
CN115272670A (zh) 一种基于掩膜注意交互的sar图像舰船实例分割方法
Babu et al. One-vs-all convolutional neural networks for synthetic aperture radar target recognition
Jiang et al. Semantic segmentation network combined with edge detection for building extraction in remote sensing images
Li et al. Hyperspectral image ship detection based upon two-channel convolutional neural network and transfer learning
CN116953702A (zh) 基于演绎范式的旋转目标检测方法及装置
CN113902975B (zh) 一种用于sar舰船检测的场景感知数据增强方法
Xie et al. Pedestrian detection and location algorithm based on deep learning
Zhang et al. Multi-scale Progressive Fusion Filter Network for Infrared Small Target Detection
Ghosh et al. PB3C-CNN: An integrated PB3C and CNN based approach for plant leaf classification
Wei et al. SCV-UNet: Saliency-Combined Complex-Valued U-Net for SAR Ship Target Segmentation
Joshi et al. Ship Detection from Despeckled Satellite Images using Deep Learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant