CN113344045A - 一种结合hog特征提高sar船只分类精度的方法 - Google Patents

一种结合hog特征提高sar船只分类精度的方法 Download PDF

Info

Publication number
CN113344045A
CN113344045A CN202110562039.2A CN202110562039A CN113344045A CN 113344045 A CN113344045 A CN 113344045A CN 202110562039 A CN202110562039 A CN 202110562039A CN 113344045 A CN113344045 A CN 113344045A
Authority
CN
China
Prior art keywords
fusar
open
sar
ship
hog
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110562039.2A
Other languages
English (en)
Other versions
CN113344045B (zh
Inventor
张晓玲
胥小我
王楠
张天文
师君
韦顺军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110562039.2A priority Critical patent/CN113344045B/zh
Publication of CN113344045A publication Critical patent/CN113344045A/zh
Application granted granted Critical
Publication of CN113344045B publication Critical patent/CN113344045B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种结合HOG特征提高SAR船只分类精度的方法,它是通过融合了深度学习理论和传统手工特征方法,应用了多尺度分类机制,全局注意力机制和全连通平衡机制,从而优化网络结构以提高准确性;同时应用了HOG特征融合机制,实现了传统手工特征与现代抽象特征的融合,进一步提高准确性。在两个开放的SAR船只数据集(即Open‑SARShip数据集和FUSAR‑Ship数据集)上的实验结果共同表明,与基于CNN的方法和传统手工特征方法相比,实现了先进的CNN特征提取与传统的HOG特征提取的融合,能够提供SAR图像中船只目标分类的方法,解决了现有船只目标分类精度不足的问题。

Description

一种结合HOG特征提高SAR船只分类精度的方法
技术领域
本发明属于合成孔径雷达(Synthetic Aperture Radar,SAR)图像解译技术领域,涉及一种提供SAR图像中船只目标分类的方法。
背景技术
合成孔径雷达(SAR)是一种能够全天时、全天候工作的主动式遥感技术。与光学传感器相比,SAR可以穿透云雾,在恶劣的气象条件下也可以完成观测任务。随着SAR成像分辨率的不断提高,SAR图像船只目标监视技术(包括船只检测和船只分类技术)成为了研究的热点。特别的,在民用方面,SAR图像船只监视技术可以检测搜索遭遇危险的船只并展开搜救;在军用方面,SAR图像船只监视技术可以监视海面从而维护国家安全。详见文献“王智勇,窦浩, 田金文.SAR图像船只目标快速检测方法研究[J].船只电子工程,2016,36(09):27-30+88.”。
值得注意的是,作为海洋监测的一个基本和重要步骤,搜救船只分类可以有效区分特定类别的船只,获得更全面的海洋活动信息,有助于全面有效地制定海洋决策。自美国发射第一颗合成孔径雷达卫星Seasat以来,合成孔径雷达船只分类一直是许多学者关注的问题;迄今为止,已经提出了各种方法,包括1)传统的手工制作特征方法和2)基于卷积神经网络(CNN) 的现代方法。对于前者(即传统方法),人们总是需要使用一些成熟且可解释的数学理论来设计一些手工制作的特征以表征不同的船只类别。这是早期的标准解决方案。然而,如今,在各种海洋条件、各种船只分辨率等条件下,可以从越来越多的卫星获得合成孔径雷达图像。这些传统方法在提高模型迁移和泛化能力方面面临巨大挑战。同时,重复性的手工修改模型也是费时费力,效率低下。对于后者(即基于神经网络的方法),人们通常不会过度关注特征设计,因为这个过程通常被简洁高效的神经网络所取代。这实际上得益于人工智能(AI)和深度学习(DL)的破纪录优势,即深度CNNs可以使具有多个处理层的计算模型学习具有多层次抽象的数据表示,这可以保证分类精度并实现巨大的改进。
毫无疑问,通过现代深层神经网络自动提取的抽象特征比传统的手工特征具有更好的表示能力。然而,大多数现有的基于CNN的SAR船只分类器选择不加批判地放弃传统成熟的手工特征,完全依赖抽象的特征。因此,它们可能落入网络结构修改、训练技巧优化、损失函数改进等的单个循环中,这可能会给进一步的性能改进带来巨大的挑战。详见“Y.LeCun,Y. Bengio,and G.Hinton,“Deep learning,”Nature,vol.521,no.7553,pp.436-444,2015.”。
因此,为解决此问题,本发明提出了一种提供SAR图像中船只目标分类的方法。该方法提出了四种机制——多尺度分类机制(MS-CLS机制),全局注意力机制(GS-ATT机制),全连通平衡机制(FC-BAL-机制),HOG特征融合机制(HOG-FF-机制),保证了卓越的SAR图像中船只分类精度。
发明内容
本发明属于合成孔径雷达(SAR)图像解译技术领域,公开了一种结合HOG特征提高SAR 船只分类精度的方法,用来解决现有分类技术精度不足的问题。该方法主要包括准备数据集,船只HOG特征提取,对船只的HOG特征进行主成分分析,船只CNN特征提取,应用全局注意力机制,应用多尺度分类机制,应用HOG特征融合机制,建立船只分类模型,测试船只分类模型和评估船只分类模型十一个部分。该方法融合了深度学习理论和传统手工特征方法,应用了多尺度分类机制,全局注意力机制和全连通平衡机制,从而优化网络结构以提高准确性;同时应用了HOG特征融合机制,实现了传统手工特征与现代抽象特征的融合,以进一步提高准确性。在两个开放的SAR船只数据集(即Open-SARShip数据集和FUSAR-Ship 数据集)上的实验结果共同表明,与基于CNN的方法和传统手工特征方法相比,本发明实现了最先进的SAR船只分类精度。
为了方便描述本发明的内容,首先作以下术语定义:
定义1:FUSAR-Ship数据集
FUSAR-Ship是指一个开放用于SAR船只和海洋目标检测和识别的基准数据集,涵盖各种海洋、陆地、海岸、河流和岛屿场景,其可以用于训练深度学习模型,用于研究人员在这个统一的数据集去评价他们算法的性能。主要包括15个主要船只类别、98个子类别和许多非船只目标,一共有5000多个带有AIS信息的SAR船只。FUSAR-Ship数据集可从参考文献“Hou X Y,Ao W,Song Q,et al.FUSAR-Ship:building a high-resolution SAR-AISmatchup dataset of Gaofen-3for ship detection and recognition.Sci China InfSci,2020,63(4):140303.”中获得。
定义2:Open-SARShip数据集
Open-SARShip是指一个开放用于SAR船只和海洋目标检测和识别的基准数据集,在距离和方位上的船只分辨率约为20米,涵盖各种海洋、陆地、海岸、河流和岛屿场景,其可以用于训练深度学习模型,许多研究人员在这个统一的数据集去评价他们算法的性能。主要包括3个主要船只类别,即散货船、集装箱船和油轮,它们覆盖了大约80%的国际航运市场,一共有11346个带有AIS信息的SAR船只。Open-SARShip数据集可从参考文献“Huang L,Liu B,Li B,et al.OpenSARShip:A Dataset Dedicated to Sentinel-1ShipInterpretation[J].IEEE Journal of Selected Topics in Applied EarthObservations and Remote Sensing,2017.”中获得。定义3:经典的卷积神经网络方法
经典的卷积神经网络指一类包含卷积计算且具有深度结构的前馈神经网络。卷积神经网络仿造生物的视知觉机制构建,可以进行监督学习和非监督学习,其隐含层内的卷积核参数共享和层间连接的稀疏性使得卷积神经网络能够以较小的计算量进行特征提取。近年来,卷积神经网络在计算机视觉、自然语言处理、语音识别等领域取得了突飞猛进的发展,其强大的特征学习能力引起了国内外专家学者广泛的关注。经典的卷积神经网络方法详见文献“张索非,冯烨,吴晓富.基于深度卷积神经网络的目标检测算法进展[J/OL].南京邮电大学学报(自然科学版),2019(05):1-9.https://doi.org/10.14132/j.cnki.1673-5439.2019.05.010.”。
定义4:经典CNN特征提取方法
经典CNN特征提取,即通过CNN对原始输入图像进行特征提取。总而言之,原始输入图像经过不同特征的卷积操作变成了一系列的特征图。在CNN中,卷积层中卷积核在图像上不断滑动运算。同时,最大池化层负责在内积结果上取每一局部块的最大值。因此,CNN通过卷积层和最大池化层实现了图片特征提取方法。经典CNN特征提取详见网站“https://blog.csdn.net/qq_30815237/article/details/86703620”。
定义5:卷积核
卷积核就是图像处理时,给定输入图像,输入图像中一个小区域中像素加权平均后成为输出图像中的每个对应像素,其中权值由一个函数定义,这个函数称为卷积核。卷积核的作用在于特征的抽取,越是大的卷积核尺寸就意味着更大的感受野,当然随之而来的是更多的参数。早在1998年,LeCun发布的LetNet-5模型中就会出,图像空域内具有局部相关性,卷积的过程是对局部相关性的一种抽取。卷积核设置方法详见文献“Lecun Y,BottouL,Bengio Y,et al.Gradient-based learning applied to document recognition[J].Proceedings of the IEEE, 1998,86(11):2278-2324.”。
定义6:经典的卷积核尺寸方法
卷积核尺寸就是指卷积核的长度,宽度,深度,记为L×W×D,其中L代表长度,W代表宽度,D代表深度。设置卷积核的尺寸就是指确定L,W,D的具体数值。一般地,在达到相同感受野的情况下,卷积核越小,所需要的参数和计算量越小。具体来说,卷积核的长度和宽度必须大于1才有提升感受野的作用,而大小为偶数的卷积核即使对称地加补零操作也不能保证输入特征谱尺寸和输出特征谱尺寸不变,一般都用3作为卷积核大小。卷积核尺寸设置方法详见文献“Lecun Y,Bottou L,Bengio Y,et al.Gradient-based learningapplied to document recognition[J].Proceedings of the IEEE,1998,86(11):2278-2324.”。
定义7:经典的卷积核步长设置方法
卷积核步长就是指每次移动卷积核的长度,记为S。设置卷积核的步长就是指确定S的具体数值。一般地,步长越大,提取特征越少;反之,提取特征越多。一般卷积层都用1作为卷积核步长,最大池化层都用2作为卷积核步长。经典的卷积核步长设置方法详见文献“Lecun Y,Bottou L,Bengio Y,et al.Gradient-based learning applied to documentrecognition[J]. Proceedings of the IEEE,1998,86(11):2278-2324.”。
定义8:卷积层
卷积层由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到的。卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的网络能从低级特征中迭代提取更复杂的特征。卷积层详见网站“https://www.zhihu.com/question/49376084”。
定义9:最大池化层
最大池化层用于提取前一层网络区域内所有神经元的最大值,目的是为了在反向传播中,需要把梯度值传到对应最大值所在的位置。最大池化层能减小卷积层参数误差造成估计均值的偏移,更多的保留纹理信息。最大池化层详见网站“https://blog.csdn.net/weixin_43336281/ article/details/102149468”。
定义10:经典的图像重采样方法
经典的图像重采样指在对采样后形成的由离散数据组成的数字图像按所需的像元位置或像元间距重新采样,以构成几何变换后的新图像。重采样过程本质上是图像恢复过程,它用输入的离散数字图像重建代表原始图像二维连续函数,再按新的像元间距和像元位置进行采样。其数学过程是根据重建的连续函数(曲面),用周围二像元点的值估计或内插出新采样点的值, 相当于用采样函数与输入图像作二维卷积运算。经典的图像重采样方法详见文献“李心爱.图像滤波检测和重采样检测方法研究[D].西安理工大学,2017.”。
定义11:经典的自适应伽马校正方法
自适应伽马校正方法,即一种通过伽玛校正和亮度像素的概率分布来提高变暗图像的亮度的自动变换技术。增强技术在数字图像处理、计算机视觉和模式识别中起着重要的作用。自适应伽马校正方法使用关于每帧之间差异的时间信息来降低计算复杂度,从而达到了增强图像的目的。自适应伽马校正方法详见“S.Huang,F.Cheng and Y.Chiu,"Efficient Contrast Enhancement Using Adaptive Gamma Correction With WeightingDistribution,"in IEEE Transactions on Image Processing,vol.22,no.3,pp.1032-1041,March 2013.”。
定义12:HOG特征
HOG特征,即梯度直方图特征。HOG特征最初是由Dalal等人在2005年提出,并在早期被广泛用于行人检测领域。HOG特征的提取主要分为八部分:图像输入,图像归一化,梯度计算,图像单元划分,图像单元梯度直方图计算,块特征计算,块特征集成为HOG特征和HOG特征输出。考虑到梯度主要存在于图像的边缘,梯度可以很好地描述局部目标的形状和边缘信息,可用于表征合成孔径雷达船只特征。本发明将把HOG特征融合到抽象的CNN 特征中,通过实现传统和现代的相互补充来进一步提高分类性能。HOG特征详见“N.Dalal,etal.,“Histograms of oriented gradients for human detection,”IEEEConf.Comput.Vis.Pattern Recognit.(CVPR),pp.886-893,2005.”。
定义13:经典的主成分分析方法
主成分分析,是一种统计方法。通过正交变换将一组可能存在相关性的变量转换为一组线性不相关的变量,转换后的这组变量叫主成分。本发明中的主成分分析方法主要分为四个步骤,首先是特征集中,然后计算协方差矩阵,接下来对协方差矩阵进行特征值分解,最后是选择最大特征值的特征向量。以上参数数值的求法详见文献“李航.统计学习方法[M].北京:清华大学出版社,2012.”。
定义14:经典的梯度计算方法
梯度计算,即计算每个像素的梯度,包括幅度和方向。梯度计算公式为
Figure RE-GDA0003170265550000051
其中Gx(x,y)表示x方向上的梯度幅度,Gy(x,y)表示y方向上的梯度幅度,Gx(x,y)=[H(x+1,y)-H(x-1,y)],Gy(x,y)=[H(x,y+1)-H(x,y-1)],其中H(i,j) 表示图像中第i行和第j列的灰度值。该公式中,G(x,y)表示最终合成振幅,α(x,y)表示梯度方向,范围从0°到360°(即从0°到180°和相反的方向)。以上参数数值的求法详见文献“李航.统计学习方法[M].北京:清华大学出版社,2012.”。
定义15:经典的维度拼接方法
维度拼接,即对相同维度的张量进行拼接操作,形成新的张量。本发明中,是通过对n×1 维张量与m×1维张量进行维度拼接,从而形成(m+n)×1维张量。以上参数数值的求法详见文献“李航.统计学习方法[M].北京:清华大学出版社,2012.”。
定义16:经典的全局注意力机制方法
全局注意力机制模仿的是人类观察模式,旨在抑制某些无效信息的流动,从而使得重要信息得以保留。全局注意力机制可以描述为
Figure RE-GDA0003170265550000052
其中f(·)表示Ii和Ij之间的相似性运算符号,g(·)表示第j个位置的特征表示的运算符号,
Figure RE-GDA0003170265550000061
表示归一化系数运算符号,其中Ii表示第i个位置的输入,Oi表示第i个位置的输出。其中,第i个位置信息表示当前位置的响应,第j个位置信息表示全局响应。全局注意力机制详见文献“A.Vaswani,et al.,“Attention is all you need,”Int.Conf.on Neural InformationProcess-ing Systems(NIPS),pp.6000–6010,2017.”。
定义17:经典的特征维度展平方法
特征维度展平,即把多维张量变成一维张量的方法。本发明中,是对L×W×D三维的张量进行维度展平操作,形成新的(L×W×D)×1一维张量。特征维度展平详见网站“https://blog.csdn.net/Leo_Huang720/article/details/81638815”。
定义18:经典的特征维度平衡方法
特征维度平衡,即把相异的一维特征维度变成统一的特征维度。在本发明中,L1的特征维数为64×64×8=32768,L2的特征维数为32×32×16=16384,L3的特征维数为 16×16×32=8192,L4的特征维数为8×8×64=4096,L5的特征维数为4×4×128=2048。因此,可以发现不同尺度的分类贡献明显不同,即f1具有32768个特征,f2具有16384个特征, f3具有8192个特征,f4具有4096个特征,f5具有2048个特征。这种来自不同尺度的特征数不平衡可能导致学习不稳定。因此,为了解决这个问题,本发明提出了一种完全连接的特征维度平衡机制,以进一步将不同维度的特征集成到统一的特征维度中,以平衡不同比例的分类贡献。特征维度平衡详见网站“https://blog.csdn.net/Jing_xian/article/details/78991279”。
定义19:级联操作
级联操作,即concatenate操作,是网络结构设计中很重要的一种操作,经常用于将特征联合,多个卷积特征提取框架提取的特征融合或者是将输出层的信息进行融合。级联操作是通道数的合并,也就是说描述图像本身的特征增加了,而每一特征下的信息是没有增加。在本发明中实现的二维向量的级联操作,相当于拉长二维向量。级联操作详见网站“https://blog.csdn.net/u012193416/article/details/79479935”。
定义20:全连接操作
全连接操作在CNN中由全连接层(FC层)实现,全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。在本发明中,全连接操作是将1184×1维度特征空间通过线性变换映射到3×1维度样本标记空间。因此,全连接层起到分类器的作用。全连接操作详见网站“https://www.cnblogs.com/ymjyqsx/p/9451739.html”。
定义21:softmax激活函数
softmax激活函数,旨在增加网络的非线性表达能力。softmax通过两步将多分类输出转换为概率:分子方面,通过指数函数,将实数输出映射到零到正无穷;分母方面,将所有结果相加,进行归一化。softmax就是按照这两步将在负无穷到正无穷上的预测结果转换为概率。在本发明中,softmax激活函数在CNN中由softmax层实现。softmax激活函数详见网站“https://blog.csdn.net/lz_peter/article/details/84574716”。
定义22:经典的Adam算法
经典的Adam算法是一种可以替代传统随机梯度下降过程的一阶优化算法,它能基于训练数据迭代地更新神经网络权重。Adam算法和传统的随机梯度下降不同。随机梯度下降保持单一的学习率更新所有的权重,学习率在训练过程中并不会改变。而Adam通过计算梯度的一阶矩估计和二阶矩估计而为不同的参数设计独立的自适应性学习率。详见文献“Kingma, D.;Ba,J.Adam:A Method for Stochastic Optimization.arXiv 2014,arXiv:1412.6980.”。
定义23:标准的分类网络测试方法
标准的分类网络测试方法指在测试集上对检测模型进行最终测试,得到检测模型在测试集上的检测结果。详见文献“C.Lu,and W.Li,“Ship Classification in High-Resolution SAR Images via Transfer Learning with Small Training Dataset,”Sensors,vol.19,no.1,pp.63,2018.”。
定义24:经典的评价指标计算方法
准确率Accuracy指预测为正例的结果中,正确的个数所占的比例。准确率Accuracy定义为
Figure RE-GDA0003170265550000071
其中#表示数字,TP表示真正例,TN表示假正例,FN表示假负例,FP表示真负例,正确的船只分类数为#TP+#TN,所有船只的总数为 #TP+#TN+#FP+#FN;
召回率Recall指在所有的正样本中,预测正确的数量。召回率Recall定义为
Figure RE-GDA0003170265550000072
其中#表示数字,TP表示真正例,FN表示假负例;
精确率Precision指在所有预测得到的正样本中,预测正确的数量。精确率Precision定义为
Figure RE-GDA0003170265550000073
其中#表示数字,TP表示真正例,FP表示真负例;
三级指标F1同时兼顾了分类模型的精确率Precision和召回率Recall。三级指标F1定义为
Figure RE-GDA0003170265550000074
其中Recall表示召回率,Precision表示精度;
评价指标LR+同时兼顾了分类模型的灵敏度TPR和特异度FPR,LR+定义为
Figure RE-GDA0003170265550000081
其中TPR=Recall表示灵敏度,
Figure RE-GDA0003170265550000082
表示特异度,其中#表示数字,FP表示真负例, TN表示假正例;
混淆矩阵是衡量分类型模型准确度中最基本,最直观,计算最简单的方法。混淆矩阵就是分别统计分类模型归错类,归对类的观测值个数,然后把结果放在一个表里展示出来。
以上参数数值的求法详见文献“李航.统计学习方法[M].北京:清华大学出版社,2012.”。
本发明提供的一种结合HOG特征提高SAR船只分类精度的方法,它包括以下步骤:
步骤1、准备数据集
步骤1.1:FUSAR-Ship数据集
对于定义1中提供的公知的FUSAR-Ship数据集,采用随机的方法调整FUSAR-Ship数据集中的SAR图像次序,得到新的FUSAR-Ship数据集,记为FUSAR-Ship_new;
按照7:3的比例将FUSAR-Ship_new数据集划分为两部分,得到训练集和测试集,训练集记为Train_FUSAR-Ship,测试集记为Test_FUSAR-Ship。
步骤1.2:Open-SARShip数据集
对于定义2中提供的公知的Open-SARShip数据集,采用随机的方法调整Open-SARShip 数据集中的SAR图像次序,得到新的Open-SARShip数据集,记为Open-SARShip_new;
按照7:3的比例将Open-SARShip_new数据集划分为两部分,将每个类别的训练样本数量设置为相等,得到训练集和测试集,训练集记为Train_Open-SARShip,测试集记为Test_Open-SARShip。
步骤2、船只HOG特征提取
步骤2.1:图像输入
采用定义10的经典的图像重采样对步骤1.1中得到的训练集Train_FUSAR-Ship进行图像采样,将每个图像重新整形为128×128的大小,得到新的训练集,记为 Train_FUSAR-Ship_Reszie;
采用定义10的经典的图像重采样对步骤1.2中得到的训练集Train_Open-SARShip进行图像采样,将每个图像重新整形为128×128的大小,得到新的训练集,记为Train_Open-SARShip_Resize;
步骤2.2:图像归一化
采用定义11经典的自适应伽马校正方法将步骤2.1得到的Train_FUSAR-Ship_Reszie 归一化为[0,1],得到新的训练集,记为Train_FUSAR-Ship_Normalize;
采用定义11经典的自适应伽马校正方法将步骤2.2得到的 Train_Open-SARShip_Resize归一化为[0,1],得到新的训练集,记为 Train_Open-SARShip_Normalize;
步骤2.3:梯度计算
以步骤2.2得到的训练集Train_FUSAR-Ship_Normalize作为输入,采用定义14经典的梯度计算方法计算,得到最终合成振幅和梯度方向,分别记为GFUSAR(x,y)和αFUSAR(x,y);
以步骤2.2得到的训练集Train_Open-SARShip_Normalize作为输入,采用定义14经典的梯度计算方法计算,得到最终合成振幅和梯度方向,分别记为GOpen-SAR(x,y)和αOpen-SAR(x,y);
步骤2.4:图像单元划分
将步骤2.2得到的训练集Train_FUSAR-Ship_Normalize中的SAR图像分成256个单元,记为CellFUSAR-i,i=1,...,256;
将步骤2.2得到的训练集Train_Open-SARShip_Normalize中的SAR图像分成256个单元,记为CellOpen-SAR-i,i=1,...,256;
步骤2.5:图像单元梯度直方图计算
遍历步骤2.4中得到的单元CellFUSAR-i,i=1,...,256和CellOpen-SAR-i,i=1,...,256,具体步骤是:
以步骤2.4得到的单元CellFUSAR-1和CellOpen-SAR-1作为输入,采用定义14经典的梯度计算方法,计算得到梯度方向,记为αFUSAR-1(x,y)和αOpen-SAR-1(x,y);
以梯度方向αFUSAR-1(x,y)和αOpen-SAR-1(x,y)作为输入,采用定义14经典的梯度计算方法,计算得到梯度幅度,记为GFUSAR-1(x,y)和GOpen-SAR-1(x,y);
以步骤2.4得到的单元CellFUSAR-i和CellOpen-SAR-i作为输入,采用定义14经典的梯度计算方法,计算得到梯度方向,记为αFUSAR-i(x,y)和αOpen-SAR-i(x,y);
以梯度方向αFUSAR-i(x,y)和αOpen-SAR-i(x,y)作为输入,采用定义14经典的梯度计算方法,计算得到梯度幅度,记为GFUSAR-i(x,y)和GOpen-SAR-i(x,y);
以步骤2.4得到的单元CellFUSAR-256和CellOpen-SAR-256作为输入,采用定义14经典的梯度计算方法,计算得到梯度方向,记为αFUSAR-256(x,y)和αOpen-SAR-256(x,y);
以单元CellFUSAR-256的梯度方向αFUSAR-256(x,y)作为输入,采用定义14经典的梯度计算方法,计算得到梯度幅度,记为GFUSAR-256(x,y)和GOpen-SAR-256(x,y);
由此得到遍历后的所有梯度幅度,分别记为GFUSAR-i(x,y),i=1,...,255和GOpen-SAR-i(x,y),i=1,...,255;
步骤2.6:块特征计算
以步骤2.4得到的四个相邻单元CellFUSAR-i-CellFUSAR-i+3,i=1,5,...253和CellOpen-SAR-i-CellOpen-SAR-i+3,i=1,5,...253,采用相邻单元组合的方式组成一个块,得到64个块,分别记为BlockFUSAR-k,k=1,...,64和BlockOpen-SAR-k,k=1,...,64;
遍历块BlockFUSAR-k,k=1,...,64和块BlockOpen-SAR-k,k=1,...,64,具体步骤是:
采用定义15中的经典维度拼接方法对块中BlockFUSAR-1中四个单元CellFUSAR-1-CellFUSAR-4的梯度幅度GFUSAR-1(x,y)-GFUSAR-4(x,y)进行处理,构成块BlockFUSAR-1的最终特征描述符,记为 xHOG-FUSAR-1
采用定义15中的经典维度拼接方法对块中BlockOpen-SAR-1中四个单元CellOpen-SAR-1-CellOpen-SAR-4的梯度幅度GOpen-SAR-1(x,y)-GOpen-SAR-4(x,y)进行处理,构成块BlockOpen-SAR-1的最终特征描述符,记为xHOG-Open-SAR-1
采用定义15中的经典维度拼接方法对块中BlockFUSAR-k中四个单元 CellFUSAR-4k-3-CellFUSAR-4k的梯度幅度GFUSAR-4k-3(x,y)-GFUSAR-4k(x,y)进行处理,构成块BlockFUSAR-k的最终特征描述符,记为xHOG-FUSAR-k
采用定义15中的经典维度拼接方法对块中BlockOpen-SAR-k中四个单元CellOpen-SAR-4k-3-CellOpen-SAR-4k的梯度幅度GOpen-SAR-4k-3(x,y)-GOpen-SAR-4k(x,y)进行处理,构成块 BlockOpen-SAR-k的最终特征描述符,记为xHOG-Open-SAR-k
采用定义15中的经典维度拼接方法对块中BlockFUSAR-64中四个单元 CellFUSAR-253-CellFUSAR-256的梯度幅度GFUSAR-253(x,y)-GFUSAR-256(x,y)进行处理,构成块 BlockFUSAR-64的最终特征描述符,记为xHOG-FUSAR-64
采用定义15中的经典维度拼接方法对块中BlockOpen-SAR-64中四个单元CellOpen-SAR-253-CellOpen-SAR-256的梯度幅度GOpen-SAR-253(x,y)-GOpen-SAR-256(x,y)进行处理,构成块 BlockOpen-SAR-64的最终特征描述符,记为xHOG-Open-SAR-64
由此得到遍历后的所有块的最终特征描述符,分别记为xHOG-FUSAR-k,k=1,...,64和xHOG-Open-SAR-k,k=1,...,64;
步骤2.7:块特征集成为HOG特征
采用定义15中的经典维度拼接方法对所有块的最终特征描述符xHOG-FUSAR-k,k=1,...,64和 xHOG-Open-SAR-k,k=1,...,64进行处理,得到SAR船只图像的最终HOG特征描述符,分别记为 XHOG-FUSAR和XHOG-Open-SAR,其中XHOG-FUSAR和XHOG-Open-SAR的维度均为32448×1;
步骤3、对船只的HOG特征进行主成分分析
采用定义13中的经典主成分分析方法对步骤2.7得到的HOG特征描述符XHOG-FUSAR和XHOG-Open-SAR实施降维处理,得到降维的HOG特征,分别记为YHOG-PCA-FUSAR和YHOG-PCA-Open-SAR,其中YHOG-PCA-FUSAR和YHOG-PCA-Open-SAR的维度分别为256×1和160×1;
步骤4、船只CNN特征提取
步骤4.1:第一层CNN特征提取
采用定义3中的经典的卷积神经网络方法建立船只特征提取网络的输入层,得到由经典的卷积神经网络组成的船只特征提取网络的第1层(输入层),记为f1,该层由定义8中的卷积层和定义9中的最大池化层组成,分别记为C1,M1,其中采用定义7中经典卷积核尺寸设置方法设置C1的卷积核尺寸为3×3×8,采用定义7中经典卷积核步长设置方法设置C1的卷积核步长为1,采用定义7中经典卷积核步长设置方法设置M1的卷积核步长为2;
采用定义4中的经典CNN特征提取方法,对步骤1.2中得到的训练集Train_Open-SARShip 中的一幅SAR图像进行处理,得到第一层特征输出,记为I1
步骤4.2:第二层CNN特征提取
采用定义3中的经典的卷积神经网络方法建立船只特征提取网络的中间层,得到由经典的卷积神经网络组成的船只特征提取网络的第2层(中间层),记为f2,该层由定义8中的卷积层和定义9中的最大池化层组成,分别记为C2,M2,其中采用定义7中经典卷积核尺寸设置方法设置C2的卷积核尺寸为3×3×16,采用定义7中经典卷积核步长设置方法设置C2的卷积核步长为1,采用定义7中经典卷积核步长设置方法设置M2的卷积核步长为2;
采用定义4中的经典CNN特征提取方法,对步骤2.1中得到的第一层特征输出I1进行处理,得到第二层特征输出,记为I2
步骤4.3:第三层CNN特征提取
采用定义3中的经典的卷积神经网络方法建立船只特征提取网络的中间层,得到由经典的卷积神经网络组成的船只特征提取网络的第3层(中间层),记为f3,该层由定义8中的卷积层和定义9中的最大池化层组成,分别记为C3,M3,其中采用定义7中卷积核尺寸设置方法设置C3的卷积核尺寸为3×3×32,采用定义7中经典卷积核步长设置方法设置C3的卷积核步长为1,采用定义7中经典卷积核步长设置方法设置M3的卷积核步长为2;
采用定义4中的经典CNN特征提取方法,对步骤2.2中得到的第二层特征输出I2进行处理,得到第三层特征输出,记为I3
步骤4.4:第四层CNN特征提取
采用定义3中的经典的卷积神经网络方法建立船只特征提取网络的中间层,得到由经典的卷积神经网络组成的船只特征提取网络的第4层(中间层),记为f4,该层由定义8中的卷积层和定义9中的最大池化层组成,分别记为C4,M4,其中采用定义7中经典卷积核尺寸设置方法设置C4的卷积核尺寸为3×3×64,采用定义7中经典卷积核步长设置方法设置C4的卷积核步长为1,采用定义7中经典卷积核步长设置方法设置M4的卷积核步长为2;
采用定义4中的经典CNN特征提取方法,对步骤2.3中得到的第三层特征输出I3进行处理,得到第四层特征输出,记为I4
步骤4.5:第五层CNN特征提取
采用定义3中的经典的卷积神经网络方法建立船只特征提取网络的中间层,得到由经典的卷积神经网络组成的船只特征提取网络的第5层(中间层),记为f5,该层由定义8中的卷积层和定义9中的最大池化层组成,分别记为C5,M5,其中采用定义7中经典卷积核尺寸设置方法设置C5的卷积核尺寸为3×3×128,采用定义7中经典卷积核步长设置方法设置C5的卷积核步长为1,采用定义7中经典卷积核步长设置方法设置M5的卷积核步长为2;
采用定义4中的经典CNN特征提取方法,对步骤2.4中得到的第三层特征输出I4进行处理,得到第五层特征输出,记为I5
最终,得到船只CNN特征提取网络和所有层的特征输出,分别记为ShipCLSNet和Is,s=1,...,5。
步骤5、应用全局注意力机制
遍历步骤4得到的特征输出Is,s=1,...,5,具体步骤是:
采用定义16的经典全局注意力机制方法,得到特征输出I1的自我注意力输出,记为O1
采用公式I′=WOO+I,计算得到全局注意力输出,记为I′1,其中WO为一个待学习的加权矩阵,训练时可以通过1×1卷积层来实现;
采用定义16的经典全局注意力机制方法,得到特征输出Is的自我注意力输出,记为Os
采用公式I′=WOO+I,计算得到全局注意力输出,记为I′s,其中WO为一个待学习的加权矩阵,训练时可以通过1×1卷积层来实现;
采用定义16的经典全局注意力机制方法,得到特征输出I5的自我注意力输出,记为O5
采用公式I′=WOO+I,计算得到全局注意力输出,记为I′5,其中WO为一个待学习的加权矩阵,训练时可以通过1×1卷积层来实现;
由此得到遍历后的所有全局注意力输出,记为I′s,s=1,...,5;
步骤6、应用全连通平衡机制
步骤6.1:特征维度展平
遍历步骤5得到的全局注意力输出I′s,s=1,...,5,具体步骤是:
采用定义17的经典特征展平方法对全局注意力输出I′1进行处理,得到列向量特征,记为 flatten(I′1),其中flatten(I′1)特征维度为32768×1;
采用定义17的经典特征展平方法对全局注意力输出I′s进行处理,得到列向量特征,记为 flatten(I′s),其中flatten(I′s)特征维度为32768/s×1;
采用定义17的经典特征展平方法对全局注意力输出I′5进行处理,得到列向量特征,记为 flatten(I′5),其中flatten(I′5)特征维度为2048×1;
由此得到遍历后的所有列向量特征,记为flatten(I′s),s=1,...,5;
步骤6.2:特征维度平衡
遍历步骤6.2得到的列向量特征flatten(I′s),s=1,...,5,具体步骤是:
采用定义18的经典特征维度平衡方法对列向量特征flatten(I′1)进行处理,得到平衡特征,记为FC1{flatten(I′1)},其中FC1{flatten(I′1)}特征维度为1024×1;
采用定义18的经典特征维度平衡方法对列向量特征flatten(I′s)进行处理,得到平衡特征,记为FCs{flatten(I′s)},其中FCs{flatten(I′s)}特征维度为1024×1;
采用定义18的经典特征维度平衡方法对列向量特征flatten(I′5)进行处理,得到平衡特征,记为FC5{flatten(I′5)},其中FC5{flatten(I′5)}特征维度为1024×1;
由此得到遍历后的所有平衡特征,记为FCs{flatten(I′s)},s=1,...,5;
步骤7、应用多尺度分类机制
采用公式
Figure RE-GDA0003170265550000151
计算得到最终的多尺度CNN抽象特征,记为IMS-CLS,其中I″s=FCs{flatten(I′s)},FCs{flatten(I′s)}特征维度为1024×1;
步骤8、应用HOG特征融合机制
采用公式
Figure RE-GDA0003170265550000152
计算得到最终的输出,记为 OutHOG-ShipCLSNet,其中
Figure RE-GDA0003170265550000153
表示定义19中的级联操作运算符号,FCterminal(·)表示定义20中的全连接操作运算符号,softmax{·}表示定义21中的softmax激活函数运算符号,其中YHOG-PCA为步骤3得到的降维HOG特征,ΙMS-CLS为步骤7得到的最终多尺度CNN抽象特征;
至此,完成了船只分类网络的构建;
步骤9、建立船只分类模型采用
采用步骤2.1中得到的训练集Train_FUSAR-Ship_Reszie和Train_Open-SARShip_Resize 在步骤2、3、4、5、6、7、8所建立的网络上按照采用定义22中的经典的Adam算法进行训练,训练完成后得到船只分类模型,记为HOG-ShipCLSNet。
步骤10、测试船只分类模型
采用定义10的经典的图像重采样方法对步骤1.1中得到的测试集Test_FUSAR-Ship进行图像采样,将每个图像重新整形为128×128的大小,得到新的测试集 Test_FUSAR-Ship_Reszie;
采用定义10的经典的图像重采样方法对步骤1.2中得到的训练集Test_Open-SARShip 进行图像采样,将每个图像重新整形为128×128的大小,得到新的训练集 Test_Open-SARShip_Resize;
采用得到的测试集Test_Open-SARShip_Resize和Test_Open-SARShip,在步骤9中得到的船只分类模型HOG-ShipCLSNet上采用定义23中的标准的分类网络测试方法进行测试,得到两个测试集在船只分类模型的测试结果,分别记为ResultHOG-ShipCLSNet-FUSAR和ResultHOG-ShipCLSNet-Open-SAR
步骤11、评估船只分类模型
以步骤10中得到的船只分类模型的测试结果ResultHOG-ShipCLSNet-FUSAR作为输入,采用定义 24中的标准评价指标计算方法,求出准确率,召回率,精确率,三级指标,评价指标和混淆矩阵,分别记为AccuracyFUSAR,RecallFUSAR,PrecisionFUSAR,F1FUSAR,LR+FUSAR和Confusion-MatrixFUSAR
以步骤10中得到的船只分类模型的测试结果ResultHOG-ShipCLSNet-Open-SAR作为输入,采用定义24中的标准评价指标计算方法,求出准确率,召回率,精确率,三级指标,评价指标和混淆矩阵,分别记为AccuracyOpen-SAR,RecallOpen-SAR,PrecisionOpen-SAR,F1Open-SAR,LR+Open-SAR和 Confusion-MatrixOpen-SAR
至此,整个方法结束。
本发明的创新点在于在CNN基础上引入了HOG特征融合,实现了先进的CNN特征提取与传统的HOG特征提取的融合。该方法不同于之前独立的传统手工特征方法和深度学习方法,而是把两者结合起来,使得本发明中的船只分类模型具有更优越的分类精度。该方法在FUSAR-Ship数据集上达到的准确率是78.15%,在Open-SARShip数据集上的准确率是86.69%。
本发明的优点在于实现了先进的CNN特征提取与传统的HOG特征提取的融合,能够提供SAR图像中船只目标分类的方法,用来解决现有船只目标分类精度不足的问题。
附图说明
图1为本发明中的提供SAR图像中船只目标分类方法的流程示意图。
图2为本发明中的提高SAR图像中船只目标分类方法的准确率,召回率,精确率,三级指标,评价指标和混淆矩阵。
具体实施方式
下面结合附图1对本发明的作进一步详细描述。
步骤1、准备数据集
步骤1.1:FUSAR-Ship数据集
如图1所示,对于定义1中提供的公知的FUSAR-Ship数据集,采用随机的方法调整FUSAR-Ship数据集中的SAR图像次序,得到新的FUSAR-Ship数据集,记为 FUSAR-Ship_new;
按照7:3的比例将FUSAR-Ship_new数据集划分为两部分,得到训练集和测试集,训练集记为Train_FUSAR-Ship,测试集记为Test_FUSAR-Ship。
步骤1.2:Open-SARShip数据集
如图1所示,对于定义2中提供的公知的Open-SARShip数据集,采用随机的方法调整 Open-SARShip数据集中的SAR图像次序,得到新的Open-SARShip数据集,记为 Open-SARShip_new;
按照7:3的比例将Open-SARShip_new数据集划分为两部分,将每个类别的训练样本数量设置为相等,得到训练集和测试集,训练集记为Train_Open-SARShip,测试集记为Test_Open-SARShip。
步骤2、船只HOG特征提取
步骤2.1:图像输入
如图1所示,采用定义10的经典的图像重采样对步骤1.1中得到的训练集 Train_FUSAR-Ship进行图像采样,将每个图像重新整形为128×128的大小,得到新的训练集,记为Train_FUSAR-Ship_Reszie;
如图1所示,采用定义10的经典的图像重采样对步骤1.2中得到的训练集 Train_Open-SARShip进行图像采样,将每个图像重新整形为128×128的大小,得到新的训练集,记为Train_Open-SARShip_Resize;
步骤2.2:图像归一化
如图1所示,采用定义11经典的自适应伽马校正方法将步骤2.1得到的 Train_FUSAR-Ship_Reszie归一化为[0,1],得到新的训练集,记为 Train_FUSAR-Ship_Normalize;
如图1所示,采用定义11经典的自适应伽马校正方法将步骤2.2得到的Train_Open-SARShip_Resize归一化为[0,1],得到新的训练集,记为 Train_Open-SARShip_Normalize;
步骤2.3:梯度计算
如图1所示,以步骤2.2得到的训练集Train_FUSAR-Ship_Normalize作为输入,采用定义14经典的梯度计算方法计算,得到最终合成振幅和梯度方向,分别记为GFUSAR(x,y)和αFUSAR(x,y);
以步骤2.2得到的训练集Train_Open-SARShip_Normalize作为输入,采用定义14经典的梯度计算方法计算,得到最终合成振幅和梯度方向,分别记为GOpen-SAR(x,y)和αOpen-SAR(x,y);
步骤2.4:图像单元划分
如图1所示,将步骤2.2得到的训练集Train_FUSAR-Ship_Normalize中的SAR图像分成256个单元,记为CellFUSAR-i,i=1,...,256;
将步骤2.2得到的训练集Train_Open-SARShip_Normalize中的SAR图像分成256个单元,记为CellOpen-SAR-i,i=1,...,256;
步骤2.5:图像单元梯度直方图计算
如图1所示,遍历步骤2.4中得到的单元CellFUSAR-i,i=1,...,256和CellOpen-SAR-i,i=1,...,256,具体步骤是:
以步骤2.4得到的单元CellFUSAR-1和CellOpen-SAR-1作为输入,采用定义14经典的梯度计算方法,计算得到梯度方向,记为αFUSAR-1(x,y)和αOpen-SAR-1(x,y);
以梯度方向αFUSAR-1(x,y)和αOpen-SAR-1(x,y)作为输入,采用定义14经典的梯度计算方法,计算得到梯度幅度,记为GFUSAR-1(x,y)和GOpen-SAR-1(x,y);
以步骤2.4得到的单元CellFUSAR-i和CellOpen-SAR-i作为输入,采用定义14经典的梯度计算方法,计算得到梯度方向,记为αFUSAR-i(x,y)和αOpen-SAR-i(x,y);
以梯度方向αFUSAR-i(x,y)和αOpen-SAR-i(x,y)作为输入,采用定义14经典的梯度计算方法,计算得到梯度幅度,记为GFUSAR-i(x,y)和GOpen-SAR-i(x,y);
以步骤2.4得到的单元CellFUSAR-256和CellOpen-SAR-256作为输入,采用定义14经典的梯度计算方法,计算得到梯度方向,记为αFUSAR-256(x,y)和αOpen-SAR-256(x,y);
以单元CellFUSAR-256的梯度方向αFUSAR-256(x,y)作为输入,采用定义14经典的梯度计算方法,计算得到梯度幅度,记为GFUSAR-256(x,y)和GOpen-SAR-256(x,y);
由此得到遍历后的所有梯度幅度,分别记为GFUSAR-i(x,y),i=1,...,255和GOpen-SAR-i(x,y),i=1,...,255;
步骤2.6:块特征计算
如图1所示,以步骤2.4得到的四个相邻单元CellFUSAR-i-CellFUSAR-i+3,i=1,5,...253和 CellOpen-SAR-i-CellOpen-SAR-i+3,i=1,5,...253,采用相邻单元组合的方式组成一个块,得到64个块,分别记为BlockFUSAR-k,k=1,...,64和BlockOpen-SAR-k,k=1,...,64;
遍历块BlockFUSAR-k,k=1,...,64和块BlockOpen-SAR-k,k=1,...,64,具体步骤是:
采用定义15中的经典维度拼接方法对块中BlockFUSAR-1中四个单元CellFUSAR-1-CellFUSAR-4的梯度幅度GFUSAR-1(x,y)-GFUSAR-4(x,y)进行处理,构成块BlockFUSAR-1的最终特征描述符,记为 xHOG-FUSAR-1
采用定义15中的经典维度拼接方法对块中BlockOpen-SAR-1中四个单元CellOpen-SAR-1-CellOpen-SAR-4的梯度幅度GOpen-SAR-1(x,y)-GOpen-SAR-4(x,y)进行处理,构成块BlockOpen-SAR-1的最终特征描述符,记为xHOG-Open-SAR-1
采用定义15中的经典维度拼接方法对块中BlockFUSAR-k中四个单元 CellFUSAR-4k-3-CellFUSAR-4k的梯度幅度GFUSAR-4k-3(x,y)-GFUSAR-4k(x,y)进行处理,构成块BlockFUSAR-k的最终特征描述符,记为xHOG-FUSAR-k
采用定义15中的经典维度拼接方法对块中BlockOpen-SAR-k中四个单元CellOpen-SAR-4k-3-CellOpen-SAR-4k的梯度幅度GOpen-SAR-4k-3(x,y)-GOpen-SAR-4k(x,y)进行处理,构成块BlockOpen-SAR-k的最终特征描述符,记为xHOG-Open-SAR-k
采用定义15中的经典维度拼接方法对块中BlockFUSAR-64中四个单元 CellFUSAR-253-CellFUSAR-256的梯度幅度GFUSAR-253(x,y)-GFUSAR-256(x,y)进行处理,构成块 BlockFUSAR-64的最终特征描述符,记为xHOG-FUSAR-64
采用定义15中的经典维度拼接方法对块中BlockOpen-SAR-64中四个单元CellOpen-SAR-253-CellOpen-SAR-256的梯度幅度GOpen-SAR-253(x,y)-GOpen-SAR-256(x,y)进行处理,构成块 BlockOpen-SAR-64的最终特征描述符,记为xHOG-Open-SAR-64
由此得到遍历后的所有块的最终特征描述符,分别记为xHOG-FUSAR-k,k=1,...,64和xHOG-Open-SAR-k,k=1,...,64;
步骤2.7:块特征集成为HOG特征
如图1所示,采用定义15中的经典维度拼接方法对所有块的最终特征描述符xHOG-FUSAR-k,k=1,...,64和xHOG-Open-SAR-k,k=1,...,64进行处理,得到SAR船只图像的最终HOG 特征描述符,分别记为XHOG-FUSAR和XHOG-Open-SAR,其中XHOG-FUSAR和XHOG-Open-SAR的维度均为32448×1;
步骤3、对船只的HOG特征进行主成分分析
如图1所示,采用定义13中的经典主成分分析方法对步骤2.7得到的HOG特征描述符 XHOG-FUSAR和XHOG-Open-SAR实施降维处理,得到降维的HOG特征,分别记为YHOG-PCA-FUSAR和YHOG-PCA-Open-SAR,其中YHOG-PCA-FUSAR和YHOG-PCA-Open-SAR的维度分别为256×1和160×1;
步骤4、船只CNN特征提取
步骤4.1:第一层CNN特征提取
如图1所示,采用定义3中的经典的卷积神经网络方法建立船只特征提取网络的输入层,得到由经典的卷积神经网络组成的船只特征提取网络的第1层(输入层),记为f1,该层由定义8中的卷积层和定义9中的最大池化层组成,分别记为C1,M1,其中采用定义7中经典卷积核尺寸设置方法设置C1的卷积核尺寸为3×3×8,采用定义7中经典卷积核步长设置方法设置C1的卷积核步长为1,采用定义7中经典卷积核步长设置方法设置M1的卷积核步长为2;
采用定义4中的经典CNN特征提取方法,对步骤1.2中得到的训练集Train_Open-SARShip 中的一幅SAR图像进行处理,得到第一层特征输出,记为I1
步骤4.2:第二层CNN特征提取
如图1所示,采用定义3中的经典的卷积神经网络方法建立船只特征提取网络的中间层,得到由经典的卷积神经网络组成的船只特征提取网络的第2层(中间层),记为f2,该层由定义8中的卷积层和定义9中的最大池化层组成,分别记为C2,M2,其中采用定义7中经典卷积核尺寸设置方法设置C2的卷积核尺寸为3×3×16,采用定义7中经典卷积核步长设置方法设置C2的卷积核步长为1,采用定义7中经典卷积核步长设置方法设置M2的卷积核步长为 2;
采用定义4中的经典CNN特征提取方法,对步骤2.1中得到的第一层特征输出I1进行处理,得到第二层特征输出,记为I2
步骤4.3:第三层CNN特征提取
如图1所示,采用定义3中的经典的卷积神经网络方法建立船只特征提取网络的中间层,得到由经典的卷积神经网络组成的船只特征提取网络的第3层(中间层),记为f3,该层由定义8中的卷积层和定义9中的最大池化层组成,分别记为C3,M3,其中采用定义7中卷积核尺寸设置方法设置C3的卷积核尺寸为3×3×32,采用定义7中经典卷积核步长设置方法设置C3的卷积核步长为1,采用定义7中经典卷积核步长设置方法设置M3的卷积核步长为2;
采用定义4中的经典CNN特征提取方法,对步骤2.2中得到的第二层特征输出I2进行处理,得到第三层特征输出,记为I3
步骤4.4:第四层CNN特征提取
如图1所示,采用定义3中的经典的卷积神经网络方法建立船只特征提取网络的中间层,得到由经典的卷积神经网络组成的船只特征提取网络的第4层(中间层),记为f4,该层由定义8中的卷积层和定义9中的最大池化层组成,分别记为C4,M4,其中采用定义7中经典卷积核尺寸设置方法设置C4的卷积核尺寸为3×3×64,采用定义7中经典卷积核步长设置方法设置C4的卷积核步长为1,采用定义7中经典卷积核步长设置方法设置M4的卷积核步长为 2;
采用定义4中的经典CNN特征提取方法,对步骤2.3中得到的第三层特征输出I3进行处理,得到第四层特征输出,记为I4
步骤4.5:第五层CNN特征提取
如图1所示,采用定义3中的经典的卷积神经网络方法建立船只特征提取网络的中间层,得到由经典的卷积神经网络组成的船只特征提取网络的第5层(中间层),记为f5,该层由定义8中的卷积层和定义9中的最大池化层组成,分别记为C5,M5,其中采用定义7中经典卷积核尺寸设置方法设置C5的卷积核尺寸为3×3×128,采用定义7中经典卷积核步长设置方法设置C5的卷积核步长为1,采用定义7中经典卷积核步长设置方法设置M5的卷积核步长为 2;
采用定义4中的经典CNN特征提取方法,对步骤2.4中得到的第三层特征输出I4进行处理,得到第五层特征输出,记为I5
最终,得到船只CNN特征提取网络和所有层的特征输出,分别记为ShipCLSNet和Is,s=1,...,5。
步骤5、应用全局注意力机制
如图1所示,遍历步骤4得到的特征输出Is,s=1,...,5,具体步骤是:
采用定义16的经典全局注意力机制方法,得到特征输出I1的自我注意力输出,记为O1
采用公式I′=WOO+I,计算得到全局注意力输出,记为I′1,其中WO为一个待学习的加权矩阵,训练时可以通过1×1卷积层来实现;
采用定义16的经典全局注意力机制方法,得到特征输出Is的自我注意力输出,记为Os
采用公式I′=WOO+I,计算得到全局注意力输出,记为I′s,其中WO为一个待学习的加权矩阵,训练时可以通过1×1卷积层来实现;
采用定义16的经典全局注意力机制方法,得到特征输出I5的自我注意力输出,记为O5
采用公式I′=WOO+I,计算得到全局注意力输出,记为I′5,其中WO为一个待学习的加权矩阵,训练时可以通过1×1卷积层来实现;
由此得到遍历后的所有全局注意力输出,记为I′s,s=1,...,5;
步骤6、应用全连通平衡机制
步骤6.1:特征维度展平
如图1所示,遍历步骤5得到的全局注意力输出I′s,s=1,...,5,具体步骤是:
采用定义17的经典特征展平方法对全局注意力输出I′1进行处理,得到列向量特征,记为 flatten(I′1),其中flatten(I′1)特征维度为32768×1;
采用定义17的经典特征展平方法对全局注意力输出I′s进行处理,得到列向量特征,记为 flatten(I′s),其中flatten(I′s)特征维度为32768/s×1;
采用定义17的经典特征展平方法对全局注意力输出I′5进行处理,得到列向量特征,记为 flatten(I′5),其中flatten(I′5)特征维度为2048×1;
由此得到遍历后的所有列向量特征,记为flatten(I′s),s=1,...,5;
步骤6.2:特征维度平衡
如图1所示,遍历步骤6.2得到的列向量特征flatten(I′s),s=1,...,5,具体步骤是:
采用定义18的经典特征维度平衡方法对列向量特征flatten(I′1)进行处理,得到平衡特征,记为FC1{flatten(I′1)},其中FC1{flatten(I′1)}特征维度为1024×1;
采用定义18的经典特征维度平衡方法对列向量特征flatten(I′s)进行处理,得到平衡特征,记为FCs{flatten(I′s)},其中FCs{flatten(I′s)}特征维度为1024×1;
采用定义18的经典特征维度平衡方法对列向量特征flatten(I′5)进行处理,得到平衡特征,记为FC5{flatten(I′5)},其中FC5{flatten(I′5)}特征维度为1024×1;
由此得到遍历后的所有平衡特征,记为FCs{flatten(I′s)},s=1,...,5;
步骤7、应用多尺度分类机制
如图1所示,采用公式
Figure RE-GDA0003170265550000241
计算得到最终的多尺度CNN抽象特征,记为IMS-CLS,其中I″s=FCs{flatten(I′s)},FCs{flatten(I′s)}特征维度为1024×1;
步骤8、应用HOG特征融合机制
如图1所示,采用公式
Figure RE-GDA0003170265550000242
计算得到最终的输出,记为OutHOG-ShipCLSNet,其中
Figure RE-GDA0003170265550000243
表示定义19中的级联操作运算符号,FCterminal(·)表示定义20中的全连接操作运算符号,softmax{·}表示定义21中的softmax激活函数运算符号,其中YHOG-PCA为步骤3得到的降维HOG特征,ΙMS-CLS为步骤7得到的最终多尺度CNN抽象特征;
至此,完成了船只分类网络的构建;
步骤9、建立船只分类模型采用
如图1所示,采用步骤2.1中得到的训练集Train_FUSAR-Ship_Reszie和 Train_Open-SARShip_Resize在步骤2、3、4、5、6、7、8所建立的网络上按照采用定义22 中的经典的Adam算法进行训练,训练完成后得到船只分类模型,记为HOG-ShipCLSNet。
步骤10、测试船只分类模型
如图1所示,采用定义10的经典的图像重采样方法对步骤1.1中得到的测试集Test_FUSAR-Ship进行图像采样,将每个图像重新整形为128×128的大小,得到新的测试集Test_FUSAR-Ship_Reszie;
如图1所示,采用定义10的经典的图像重采样方法对步骤1.2中得到的训练集Test_Open-SARShip进行图像采样,将每个图像重新整形为128×128的大小,得到新的训练集Test_Open-SARShip_Resize;
采用得到的测试集Test_Open-SARShip_Resize和Test_Open-SARShip,在步骤9中得到的船只分类模型HOG-ShipCLSNet上采用定义23中的标准的分类网络测试方法进行测试,得到两个测试集在船只分类模型的测试结果,分别记为ResultHOG-ShipCLSNet-FUSAR和ResultHOG-ShipCLSNet-Open-SAR
步骤11、评估船只分类模型
如图1所示,以步骤10中得到的船只分类模型的测试结果ResultHOG-ShipCLSNet-FUSAR作为输入,采用定义24中的标准评价指标计算方法,求出准确率,召回率,精确率,三级指标,评价指标和混淆矩阵,分别记为AccuracyFUSAR,RecallFUSAR,PrecisionFUSAR,F1FUSAR,LR+FUSAR和Confusion-MatrixFUSAR
如图1所示,以步骤10中得到的船只分类模型的测试结果ResultHOG-ShipCLSNet-Open-SAR作为输入,采用定义24中的标准评价指标计算方法,求出准确率,召回率,精确率,三级指标,评价指标和混淆矩阵,分别记为AccuracyOpen-SAR,RecallOpen-SAR,PrecisionOpen-SAR,F1Open-SAR, LR+Open-SAR和Confusion-MatrixOpen-SAR
至此,整个方法结束。
如图2所示,本发明在FUSAR-Ship数据集上达到的准确率是78.15%,在Open-SARShip 数据集上的准确率是86.69%。同时,本发明实现了若干现有技术中最高的检测精度,表明本发明能够实现高精度的SAR图像中船只目标分类。

Claims (1)

1.一种结合HOG特征提高SAR船只分类精度的方法,其特征是它包括以下步骤:
步骤1、准备数据集
步骤1.1:FUSAR-Ship数据集
对于公知的FUSAR-Ship数据集,采用随机的方法调整FUSAR-Ship数据集中的SAR图像次序,得到新的FUSAR-Ship数据集,记为FUSAR-Ship_new;
按照7:3的比例将FUSAR-Ship_new数据集划分为两部分,得到训练集和测试集,训练集记为Train_FUSAR-Ship,测试集记为Test_FUSAR-Ship。
步骤1.2:Open-SARShip数据集
对于公知的Open-SARShip数据集,采用随机的方法调整Open-SARShip数据集中的SAR图像次序,得到新的Open-SARShip数据集,记为Open-SARShip_new;
按照7:3的比例将Open-SARShip_new数据集划分为两部分,将每个类别的训练样本数量设置为相等,得到训练集和测试集,训练集记为Train_Open-SARShip,测试集记为Test_Open-SARShip。
步骤2、船只HOG特征提取
步骤2.1:图像输入
采用经典的图像重采样对步骤1.1中得到的训练集Train_FUSAR-Ship进行图像采样,将每个图像重新整形为128×128的大小,得到新的训练集,记为Train_FUSAR-Ship_Reszie;
采用经典的图像重采样对步骤1.2中得到的训练集Train_Open-SARShip进行图像采样,将每个图像重新整形为128×128的大小,得到新的训练集,记为Train_Open-SARShip_Resize;
步骤2.2:图像归一化
采用经典的自适应伽马校正方法将步骤2.1得到的Train_FUSAR-Ship_Reszie归一化为[0,1],得到新的训练集,记为Train_FUSAR-Ship_Normalize;
采用经典的自适应伽马校正方法将步骤2.2得到的Train_Open-SARShip_Resize归一化为[0,1],得到新的训练集,记为Train_Open-SARShip_Normalize;
步骤2.3:梯度计算
以步骤2.2得到的训练集Train_FUSAR-Ship_Normalize作为输入,采用经典的梯度计算方法计算,得到最终合成振幅和梯度方向,分别记为GFUSAR(x,y)和αFUSAR(x,y);
以步骤2.2得到的训练集Train_Open-SARShip_Normalize作为输入,采用经典的梯度计算方法计算,得到最终合成振幅和梯度方向,分别记为GOpen-SAR(x,y)和αOpen-SAR(x,y);
步骤2.4:图像单元划分
将步骤2.2得到的训练集Train_FUSAR-Ship_Normalize中的SAR图像分成256个单元,记为CellFUSAR-i,i=1,...,256;
将步骤2.2得到的训练集Train_Open-SARShip_Normalize中的SAR图像分成256个单元,记为CellOpen-SAR-i,i=1,...,256;
步骤2.5:图像单元梯度直方图计算
遍历步骤2.4中得到的单元CellFUSAR-i,i=1,...,256和CellOpen-SAR-i,i=1,...,256,具体步骤是:
以步骤2.4得到的单元CellFUSAR-1和CellOpen-SAR-1作为输入,采用经典的梯度计算方法,计算得到梯度方向,记为αFUSAR-1(x,y)和αOpen-SAR-1(x,y);
以梯度方向αFUSAR-1(x,y)和αOpen-SAR-1(x,y)作为输入,采用经典的梯度计算方法,计算得到梯度幅度,记为GFUSAR-1(x,y)和GOpen-SAR-1(x,y);
以步骤2.4得到的单元CellFUSAR-i和CellOpen-SAR-i作为输入,采用经典的梯度计算方法,计算得到梯度方向,记为αFUSAR-i(x,y)和αOpen-SAR-i(x,y);
以梯度方向αFUSAR-i(x,y)和αOpen-SAR-i(x,y)作为输入,采用经典的梯度计算方法,计算得到梯度幅度,记为GFUSAR-i(x,y)和GOpen-SAR-i(x,y);
以步骤2.4得到的单元CellFUSAR-256和CellOpen-SAR-256作为输入,采用经典的梯度计算方法,计算得到梯度方向,记为αFUSAR-256(x,y)和αOpen-SAR-256(x,y);
以单元CellFUSAR-256的梯度方向αFUSAR-256(x,y)作为输入,采用经典的梯度计算方法,计算得到梯度幅度,记为GFUSAR-256(x,y)和GOpen-SAR-256(x,y);
由此得到遍历后的所有梯度幅度,分别记为GFUSAR-i(x,y),i=1,...,255和GOpen-SAR-i(x,y),i=1,...,255;
步骤2.6:块特征计算
以步骤2.4得到的四个相邻单元CellFUSAR-i-CellFUSAR-i+3,i=1,5,...253和CellOpen-SAR-i-CellOpen-SAR-i+3,i=1,5,...253,采用相邻单元组合的方式组成一个块,得到64个块,分别记为BlockFUSAR-k,k=1,...,64和BlockOpen-SAR-k,k=1,...,64;
遍历块BlockFUSAR-k,k=1,...,64和块BlockOpen-SAR-k,k=1,...,64,具体步骤是:
采用经典维度拼接方法对块中BlockFUSAR-1中四个单元CellFUSAR-1-CellFUSAR-4的梯度幅度GFUSAR-1(x,y)-GFUSAR-4(x,y)进行处理,构成块BlockFUSAR-1的最终特征描述符,记为xHOG-FUSAR-1
采用经典维度拼接方法对块中BlockOpen-SAR-1中四个单元CellOpen-SAR-1-CellOpen-SAR-4的梯度幅度GOpen-SAR-1(x,y)-GOpen-SAR-4(x,y)进行处理,构成块BlockOpen-SAR-1的最终特征描述符,记为xHOG-Open-SAR-1
采用经典维度拼接方法对块中BlockFUSAR-k中四个单元CellFUSAR-4k-3-CellFUSAR-4k的梯度幅度GFUSAR-4k-3(x,y)-GFUSAR-4k(x,y)进行处理,构成块BlockFUSAR-k的最终特征描述符,记为xHOG-FUSAR-k
采用经典维度拼接方法对块中BlockOpen-SAR-k中四个单元CellOpen-SAR-4k-3-CellOpen-SAR-4k的梯度幅度GOpen-SAR-4k-3(x,y)-GOpen-SAR-4k(x,y)进行处理,构成块BlockOpen-SAR-k的最终特征描述符,记为xHOG-Open-SAR-k
采用经典维度拼接方法对块中BlockFUSAR-64中四个单元CellFUSAR-253-CellFUSAR-256的梯度幅度GFUSAR-253(x,y)-GFUSAR-256(x,y)进行处理,构成块BlockFUSAR-64的最终特征描述符,记为xHOG-FUSAR-64
采用经典维度拼接方法对块中BlockOpen-SAR-64中四个单元CellOpen-SAR-253-CellOpen-SAR-256的梯度幅度GOpen-SAR-253(x,y)-GOpen-SAR-256(x,y)进行处理,构成块BlockOpen-SAR-64的最终特征描述符,记为xHOG-Open-SAR-64
由此得到遍历后的所有块的最终特征描述符,分别记为xHOG-FUSAR-k,k=1,...,64和xHOG-Open-SAR-k,k=1,...,64;
步骤2.7:块特征集成为HOG特征
采用经典维度拼接方法对所有块的最终特征描述符xHOG-FUSAR-k,k=1,...,64和xHOG-Open-SAR-k,k=1,...,64进行处理,得到SAR船只图像的最终HOG特征描述符,分别记为XHOG-FUSAR和XHOG-Open-SAR,其中XHOG-FUSAR和XHOG-Open-SAR的维度均为32448×1;
步骤3、对船只的HOG特征进行主成分分析
采用经典主成分分析方法对步骤2.7得到的HOG特征描述符XHOG-FUSAR和XHOG-Open-SAR实施降维处理,得到降维的HOG特征,分别记为YHOG-PCA-FUSAR和YHOG-PCA-Open-SAR,其中YHOG-PCA-FUSAR和YHOG-PCA-Open-SAR的维度分别为256×1和160×1;
步骤4、船只CNN特征提取
步骤4.1:第一层CNN特征提取
采用经典的卷积神经网络方法建立船只特征提取网络的输入层,得到由经典的卷积神经网络组成的船只特征提取网络的第1层(输入层),记为f1,该层由卷积层和最大池化层组成,分别记为C1,M1,其中采用经典卷积核尺寸设置方法设置C1的卷积核尺寸为3×3×8,采用经典卷积核步长设置方法设置C1的卷积核步长为1,采用经典卷积核步长设置方法设置M1的卷积核步长为2;
采用经典CNN特征提取方法,对步骤1.2中得到的训练集Train_Open-SARShip中的一幅SAR图像进行处理,得到第一层特征输出,记为I1
步骤4.2:第二层CNN特征提取
采用经典的卷积神经网络方法建立船只特征提取网络的中间层,得到由经典的卷积神经网络组成的船只特征提取网络的第2层(中间层),记为f2,该层由卷积层和最大池化层组成,分别记为C2,M2,其中采用经典卷积核尺寸设置方法设置C2的卷积核尺寸为3×3×16,采用经典卷积核步长设置方法设置C2的卷积核步长为1,采用经典卷积核步长设置方法设置M2的卷积核步长为2;
采用经典CNN特征提取方法,对步骤2.1中得到的第一层特征输出I1进行处理,得到第二层特征输出,记为I2
步骤4.3:第三层CNN特征提取
采用经典的卷积神经网络方法建立船只特征提取网络的中间层,得到由经典的卷积神经网络组成的船只特征提取网络的第3层(中间层),记为f3,该层由卷积层和最大池化层组成,分别记为C3,M3,其中采用卷积核尺寸设置方法设置C3的卷积核尺寸为3×3×32,采用经典卷积核步长设置方法设置C3的卷积核步长为1,采用经典卷积核步长设置方法设置M3的卷积核步长为2;
采用经典CNN特征提取方法,对步骤2.2中得到的第二层特征输出I2进行处理,得到第三层特征输出,记为I3
步骤4.4:第四层CNN特征提取
采用经典的卷积神经网络方法建立船只特征提取网络的中间层,得到由经典的卷积神经网络组成的船只特征提取网络的第4层(中间层),记为f4,该层由卷积层和最大池化层组成,分别记为C4,M4,其中采用经典卷积核尺寸设置方法设置C4的卷积核尺寸为3×3×64,采用经典卷积核步长设置方法设置C4的卷积核步长为1,采用经典卷积核步长设置方法设置M4的卷积核步长为2;
采用经典CNN特征提取方法,对步骤2.3中得到的第三层特征输出I3进行处理,得到第四层特征输出,记为I4
步骤4.5:第五层CNN特征提取
采用经典的卷积神经网络方法建立船只特征提取网络的中间层,得到由经典的卷积神经网络组成的船只特征提取网络的第5层(中间层),记为f5,该层由卷积层和最大池化层组成,分别记为C5,M5,其中采用经典卷积核尺寸设置方法设置C5的卷积核尺寸为3×3×128,采用经典卷积核步长设置方法设置C5的卷积核步长为1,采用经典卷积核步长设置方法设置M5的卷积核步长为2;
采用经典CNN特征提取方法,对步骤2.4中得到的第三层特征输出I4进行处理,得到第五层特征输出,记为I5
最终,得到船只CNN特征提取网络和所有层的特征输出,分别记为ShipCLSNet和Is,s=1,...,5。
步骤5、应用全局注意力机制
遍历步骤4得到的特征输出Is,s=1,...,5,具体步骤是:
采用全局注意力机制方法,得到特征输出I1的自我注意力输出,记为O1
采用公式I′=WOO+I,计算得到全局注意力输出,记为I′1,其中WO为一个待学习的加权矩阵,训练时可以通过1×1卷积层来实现;
采用经典全局注意力机制方法,得到特征输出Is的自我注意力输出,记为Os
采用公式I′=WOO+I,计算得到全局注意力输出,记为I′s,其中WO为一个待学习的加权矩阵,训练时可以通过1×1卷积层来实现;
采用经典全局注意力机制方法,得到特征输出I5的自我注意力输出,记为O5
采用公式I′=WOO+I,计算得到全局注意力输出,记为I′5,其中WO为一个待学习的加权矩阵,训练时可以通过1×1卷积层来实现;
由此得到遍历后的所有全局注意力输出,记为I′s,s=1,...,5;
步骤6、应用全连通平衡机制
步骤6.1:特征维度展平
遍历步骤5得到的全局注意力输出I′s,s=1,...,5,具体步骤是:
采用经典特征展平方法对全局注意力输出I′1进行处理,得到列向量特征,记为flatten(I′1),其中flatten(I′1)特征维度为32768×1;
采用经典特征展平方法对全局注意力输出I′s进行处理,得到列向量特征,记为flatten(I′s),其中flatten(I′s)特征维度为32768/s×1;
采用经典特征展平方法对全局注意力输出I′5进行处理,得到列向量特征,记为flatten(I′5),其中flatten(I′5)特征维度为2048×1;
由此得到遍历后的所有列向量特征,记为flatten(I′s),s=1,...,5;
步骤6.2:特征维度平衡
遍历步骤6.2得到的列向量特征flatten(I′s),s=1,...,5,具体步骤是:
采用经典特征维度平衡方法对列向量特征flatten(I1′)进行处理,得到平衡特征,记为FC1{flatten(I′1)},其中FC1{flatten(I′1)}特征维度为1024×1;
采用经典特征维度平衡方法对列向量特征flatten(I′s)进行处理,得到平衡特征,记为FCs{flatten(I′s)},其中FCs{flatten(I′s)}特征维度为1024×1;
采用经典特征维度平衡方法对列向量特征flatten(I′5)进行处理,得到平衡特征,记为FC5{flatten(I′5)},其中FC5{flatten(I′5)}特征维度为1024×1;
由此得到遍历后的所有平衡特征,记为FCs{flatten(I′s)},s=1,...,5;
步骤7、应用多尺度分类机制
采用公式
Figure RE-FDA0003170265540000071
计算得到最终的多尺度CNN抽象特征,记为IMS-CLS,其中I″s=FCs{flatten(I′s)},FCs{flatten(I′s)}特征维度为1024×1;
步骤8、应用HOG特征融合机制
采用公式
Figure RE-FDA0003170265540000072
计算得到最终的输出,记为OutHOG-ShipCLSNet,其中
Figure RE-FDA0003170265540000073
表示级联操作运算符号,FCterminal(·)表示全连接操作运算符号,softmax{·}表示softmax激活函数运算符号,其中YHOG-PCA为步骤3得到的降维HOG特征,ΙMS-CLS为步骤7得到的最终多尺度CNN抽象特征;
至此,完成了船只分类网络的构建;
步骤9、建立船只分类模型采用
采用步骤2.1中得到的训练集Train_FUSAR-Ship_Reszie和Train_Open-SARShip_Resize在步骤2、3、4、5、6、7、8所建立的网络上采用经典的Adam算法进行训练,训练完成后得到船只分类模型,记为HOG-ShipCLSNet。
步骤10、测试船只分类模型
采用经典的图像重采样方法对步骤1.1中得到的测试集Test_FUSAR-Ship进行图像采样,将每个图像重新整形为128×128的大小,得到新的测试集Test_FUSAR-Ship_Reszie;
采用经典的图像重采样方法对步骤1.2中得到的训练集Test_Open-SARShip进行图像采样,将每个图像重新整形为128×128的大小,得到新的训练集Test_Open-SARShip_Resize;
采用得到的测试集Test_Open-SARShip_Resize和Test_Open-SARShip,在步骤9中得到的船只分类模型HOG-ShipCLSNet上采用标准的分类网络测试方法进行测试,得到两个测试集在船只分类模型的测试结果,分别记为ResultHOG-ShipCLSNet-FUSAR和ResultHOG-ShipCLSNet-Open-SAR
步骤11、评估船只分类模型
以步骤10中得到的船只分类模型的测试结果ResultHOG-ShipCLSNet-FUSAR作为输入,采用标准评价指标计算方法,求出准确率,召回率,精确率,三级指标,评价指标和混淆矩阵,分别记为AccuracyFUSAR,RecallFUSAR,PrecisionFUSAR,F1FUSAR,LR+FUSAR和Confusion-MatrixFUSAR
以步骤10中得到的船只分类模型的测试结果ResultHOG-ShipCLSNet-Open-SAR作为输入,采用标准评价指标计算方法,求出准确率,召回率,精确率,三级指标,评价指标和混淆矩阵,分别记为AccuracyOpen-SAR,RecallOpen-SAR,PrecisionOpen-SAR,F1Open-SAR,LR+Open-SAR和Confusion-MatrixOpen-SAR
至此,整个方法结束。
CN202110562039.2A 2021-05-21 2021-05-21 一种结合hog特征提高sar船只分类精度的方法 Active CN113344045B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110562039.2A CN113344045B (zh) 2021-05-21 2021-05-21 一种结合hog特征提高sar船只分类精度的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110562039.2A CN113344045B (zh) 2021-05-21 2021-05-21 一种结合hog特征提高sar船只分类精度的方法

Publications (2)

Publication Number Publication Date
CN113344045A true CN113344045A (zh) 2021-09-03
CN113344045B CN113344045B (zh) 2022-03-15

Family

ID=77470861

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110562039.2A Active CN113344045B (zh) 2021-05-21 2021-05-21 一种结合hog特征提高sar船只分类精度的方法

Country Status (1)

Country Link
CN (1) CN113344045B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674845A (zh) * 2019-08-28 2020-01-10 电子科技大学 一种结合多感受野注意与特征再校准的菜品识别方法
CN113989665A (zh) * 2021-10-25 2022-01-28 电子科技大学 一种基于路由聚合感知fpn的sar船只检测方法
CN113989557A (zh) * 2021-10-25 2022-01-28 电子科技大学 一种融合双极化特征的sar图像舰船分类方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107609601A (zh) * 2017-09-28 2018-01-19 北京计算机技术及应用研究所 一种基于多层卷积神经网络的舰船目标识别方法
CN109871731A (zh) * 2017-12-05 2019-06-11 上海齐耀重工有限公司 船舶检测的方法、装置及计算机存储介质
US20190222652A1 (en) * 2019-03-28 2019-07-18 Intel Corporation Sensor network configuration mechanisms
CN110414414A (zh) * 2019-07-25 2019-11-05 合肥工业大学 基于多层级特征深度融合的sar图像舰船目标鉴别方法
CN111931953A (zh) * 2020-07-07 2020-11-13 北京工业大学 一种废旧手机多尺度特征深度森林识别方法
CN112285712A (zh) * 2020-10-15 2021-01-29 电子科技大学 一种提高sar图像中靠岸船只检测精度的方法
CN112487900A (zh) * 2020-11-20 2021-03-12 中国人民解放军战略支援部队航天工程大学 一种基于特征融合的sar图像舰船目标检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107609601A (zh) * 2017-09-28 2018-01-19 北京计算机技术及应用研究所 一种基于多层卷积神经网络的舰船目标识别方法
CN109871731A (zh) * 2017-12-05 2019-06-11 上海齐耀重工有限公司 船舶检测的方法、装置及计算机存储介质
US20190222652A1 (en) * 2019-03-28 2019-07-18 Intel Corporation Sensor network configuration mechanisms
CN110414414A (zh) * 2019-07-25 2019-11-05 合肥工业大学 基于多层级特征深度融合的sar图像舰船目标鉴别方法
CN111931953A (zh) * 2020-07-07 2020-11-13 北京工业大学 一种废旧手机多尺度特征深度森林识别方法
CN112285712A (zh) * 2020-10-15 2021-01-29 电子科技大学 一种提高sar图像中靠岸船只检测精度的方法
CN112487900A (zh) * 2020-11-20 2021-03-12 中国人民解放军战略支援部队航天工程大学 一种基于特征融合的sar图像舰船目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
师君 等: ""近场毫米波三维成像与异物检测方法"", 《雷达学报》 *
张晓玲 等: ""基于深度分离卷积神经网络的高速高精度SAR舰船检测"", 《雷达学报》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674845A (zh) * 2019-08-28 2020-01-10 电子科技大学 一种结合多感受野注意与特征再校准的菜品识别方法
CN110674845B (zh) * 2019-08-28 2022-05-31 电子科技大学 一种结合多感受野注意与特征再校准的菜品识别方法
CN113989665A (zh) * 2021-10-25 2022-01-28 电子科技大学 一种基于路由聚合感知fpn的sar船只检测方法
CN113989557A (zh) * 2021-10-25 2022-01-28 电子科技大学 一种融合双极化特征的sar图像舰船分类方法
CN113989665B (zh) * 2021-10-25 2023-04-07 电子科技大学 一种基于路由聚合感知fpn的sar船只检测方法

Also Published As

Publication number Publication date
CN113344045B (zh) 2022-03-15

Similar Documents

Publication Publication Date Title
CN110135267B (zh) 一种大场景sar图像细微目标检测方法
Liu et al. Application of deep convolutional neural networks for detecting extreme weather in climate datasets
CN113344045B (zh) 一种结合hog特征提高sar船只分类精度的方法
Al Bashish et al. A framework for detection and classification of plant leaf and stem diseases
CN111639719B (zh) 基于时空运动和特征融合的足迹图像检索方法
CN108717568A (zh) 一种基于三维卷积神经网络的图像特征提取与训练方法
Liu et al. Remote sensing image change detection based on information transmission and attention mechanism
CN106295124A (zh) 利用多种图像检测技术综合分析基因子图相似概率量的方法
CN111090764B (zh) 基于多任务学习和图卷积神经网络的影像分类方法及装置
CN110633708A (zh) 一种基于全局模型和局部优化的深度网络显著性检测方法
CN111160268A (zh) 一种基于多任务学习的多角度sar目标识别方法
CN113705331B (zh) 一种基于四元特征金字塔网络的sar船只检测方法
CN108734199A (zh) 基于分段深度特征及低秩表示的高光谱图像鲁棒分类方法
CN113011397A (zh) 基于遥感图像4D-FractalNet的多因素蓝藻水华预测方法
Ge et al. Adaptive hash attention and lower triangular network for hyperspectral image classification
CN113435254A (zh) 一种基于哨兵二号影像的耕地深度学习提取方法
CN113128564B (zh) 一种基于深度学习的复杂背景下典型目标检测方法及系统
CN115032602A (zh) 一种基于多尺度卷积胶囊网络的雷达目标识别方法
Liu et al. A novel deep framework for change detection of multi-source heterogeneous images
CN113344046A (zh) 一种提高sar图像船只分类精度的方法
Cui et al. Double-branch local context feature extraction network for hyperspectral image classification
CN116958709A (zh) 一种轻量级张量卷积长短时记忆网络的高光谱分类方法
CN116030304A (zh) 基于加权判别与多分类器的跨域遥感影像对抗迁移方法
DOUTOUM et al. Classification of Guava Leaf Disease using Deep Learning
CN113935413A (zh) 一种基于卷积神经网的配网录波文件波形识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant