CN112699833A - 基于卷积神经网络复杂光照环境下的舰船目标识别方法 - Google Patents

基于卷积神经网络复杂光照环境下的舰船目标识别方法 Download PDF

Info

Publication number
CN112699833A
CN112699833A CN202110034668.8A CN202110034668A CN112699833A CN 112699833 A CN112699833 A CN 112699833A CN 202110034668 A CN202110034668 A CN 202110034668A CN 112699833 A CN112699833 A CN 112699833A
Authority
CN
China
Prior art keywords
illumination
characteristic
ship
convolutions
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202110034668.8A
Other languages
English (en)
Inventor
米乐红
刘坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Maritime University
Original Assignee
Shanghai Maritime University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Maritime University filed Critical Shanghai Maritime University
Priority to CN202110034668.8A priority Critical patent/CN112699833A/zh
Publication of CN112699833A publication Critical patent/CN112699833A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出基于卷积神经网络复杂光照环境下的舰船目标识别方法。首先使用残差网络提取图像特征信息并对光照变化前后的特征进行特征损失约束;然后使用灰度直方图计算特征统计矩的方法得到光照对比度,亮度等六种特征并生成新的特征向量对光照变化前后的特征再次进行特征损失约束,使变化前后特征对光照因素的影响进行削弱;最后将二者约束加入损失函数中进行训练,使用贝叶斯自适应超参数优化训练最佳权重。结果针对舰船光照变化数据库的平均识别率达90.47%,本发明对光照变化有着很好的约束作用,对识别率有显著提升。

Description

基于卷积神经网络复杂光照环境下的舰船目标识别方法
技术领域:
本发明是可见光舰船图像曝光的目标识别领域,具体地说,是一种基于卷积神经网络复杂光照环境下的舰船目标识别方法。
背景技术:
海面气象光照等环境复杂,海面光洁平滑易映射太阳,日照强度不同会使海面上形成不同程度的反光,阳光的强反光反射到舰船上形成不同程度的曝光,折射率越大,反射越剧烈,反射能流越大,在进行舰船目标识别时,反射光照射到船身会泛白,舰船航行产生的海浪与船身不易分离,海面鱼鳞光与海杂波也会干扰舰船识别,这些因素使得常用于海面监控的可见光图像中舰船目标信息模糊甚至缺失。因此复杂光照条件是舰船识别应用中的热点研究问题。目前常用的方法仍倾向于用不变矩,以及图像预处理,易忽略目标局部特征。
传统图像识别方法依赖手工调试参数,人工设计不能保证提取有效或重要的特征,有的过于繁琐会带来大量的冗余信息,这些设计的特征描述符和分类器通常非常复杂,不适用于实时系统。传统的卷积神经网络在信息传输的时候可能会留有信息遗失,耗损等问题,同时导致梯度消失或梯度爆炸。
本发明提出了基于卷积神经网络的舰船目标鲁棒特征的识别方法研究。首先,使用ResNet-50网络提取图像特征信息;然后使用日照鲁棒损失函数使不同日照强度与清晰样本图像特征差异最小化,同时使用灰度直方图计算特征统计矩的方法生成六维特征向量,对不同日照强度与清晰样本特征差再次进行日照鲁棒损失函数约束,减小光照的影响;最后,使用贝叶斯自适应超参数优化来训练得到识别率最高的权重分配。抑制了不同光照对舰船目标识别准确性的干扰,平均识别率可达90.47%。该方法不仅可应用于海面监控监测,也可应用于海防预警、侦察识别领域。
发明内容:
本发明的目的是基于卷积神经网络的复杂光照舰船目标识别方法,用于改善曝光导致遥感图像中舰船目标识别率低、鲁棒性差等问题。具体技术方案如下:
本发明针对海面光照不同使得采集到的可见光图像中舰船目标信息缺失进而影响识别的准确性这一问题,开展了基于卷积神经网络的舰船目标识别研究。首先使用ResNet-50网络提取图像特征信息并对光照变化前后的特征差异最小化,其次使用灰度直方图计算特征统计矩的方法生成新的六维特征向量,对光照变化前后的特征再次进行损失约束,减小光照的影响;最后使用贝叶斯自适应超参数优化来训练得到识别率最高的权重分配。具体地,本发明通过以下步骤实现上述方法:
S1、将样本图片送入网络模型;
S2、进行损失函数特征约束;
S3、采用贝叶斯超参数优化方法对权重进行自适应优化;
S4、使用Adam方法对目标函数进行训练;
S5、得到舰船分类平均识别率;
所述步骤S1包含以下步骤:
S1.1、建立数据库,本发明的数据库建立首先在谷歌地图上收集了不同时间,不同光照程度的真实舰船图像12000张。但由于与光照变化相关的数据集不足,所以通过数据增强生成模拟图像,并将模拟和真实图像一起作为训练数据来进行实验研究。其中6000张7类舰船样本用来模拟光照,剩余6000张不做处理。
S1.2、构造模拟数据集,设置K个光照强度变化系数ψ={ψ123...ψk},和对应的变换
Figure BDA0002893677790000031
对模拟训练样本X={x1,x2,x3...xN}进行变化变换Tψ可以得到K倍的样本数据,且变换过后的训练样本为TψX={Tψx1,Tψx2,Tψx3...TψxN},在这当中单个样本经过变化变换后的新样本为
Figure BDA0002893677790000032
原始样本和变化样本共同构成模拟训练样本。K设置为5,随机曝光程度ψ={10,25,50,65,80},随机分布使用均匀分布,让曝光模块以一定概率随机均匀的分布整张图像。变化处理后的图像加上真实数据集一共42000张。其中将30000张作为训练集,6000张作为验证集,6000张作为测试集。
S1.3、将原图像与不同曝光程度的舰船图像分批次输入到ResNet-50网络,首先将尺寸大小为224×224×3的舰船图像输入,经过64个卷积核为7×7,步长为2的卷积层,得到112×112×64的特征图,再通过步长为2的最大池化,得到56×56×64的特征图。
S1.4、经过三个残差模块,64个1×1卷积,64个步长为2的3×3卷积,256个1×1卷积堆叠而成,从而得到56×56×256的特征图;
S1.5、经过四个残差模块,128个1×1卷积,128个步长为2的3×3卷积,512个1×1卷积堆叠而成,获得28×28×512的特征图;
S1.6、:经过6个残差模块,256个1×1卷积,256个步长为2的3×3卷积,1024个1×1卷积堆叠而成,得到14×14×1024的特征图;
S1.7、:最后经过3个残差模块,512个1×1卷积,512个步长为2的3×3卷积,2048个1×1卷积堆叠而成,得到7×7×2048的特征图;
S1.8、通过平均池化得到1×1×2048的特征图,最后经过尺寸为(7,2048)全连接层得到维度为1×7的特征向量,最后用Softmax函数进行分类识别;
所述步骤S2包含以下步骤:
S2.1、生成特征向量,输入224×224×3的图像经过ResNet-50网络卷积层平均池化后得到的特征均是多层二维灰度特征,尺寸大小为1×1×2048,通过计算光照变化前后图像特征的统计矩A,包括均值m,标准方差σ,平滑度R,三阶矩u3,一致性U,熵e,并组成新的特征向量A=[m,σ,R,u3,U,e]如式(1)所示,再代入Pseudo-Huber损失函数进行特征约束,来减小光照对识别率的影响。L是灰度级总数,zi表示第i个灰度级,p(zi)是归一化直方图灰度级分布中灰度为zi的概率:
Figure BDA0002893677790000051
Figure BDA0002893677790000052
S2.2、特征损失约束,上述与光照,亮度,信息量相关的矢量特征都与原图像的差距减小,减弱了光照变化对识别的影响,会使本发明对舰船的识别率提高。将6个统计矩合成新的特征向量OFC(x)=(m,σ,R,u3,U,e)。O(xi),O(Txi)是光照变化前后图片经过全连接层后的特征向量,OFC(xi),OFC(Txi)是光照变化前后图像经过计算统计矩后生成的新特征矢量。将变化前后的特征分别代入Pseudo-Huber损失函数,建立特征约束函数:
Figure BDA0002893677790000053
Figure BDA0002893677790000054
S2.3、本发明方法总损失函数包括分类交叉熵损失和特征约束函数,λ12是权重。其中C为舰船类别数,
Figure BDA0002893677790000055
表示为样本的真值标签向量,N为采用模拟舰船数,K为光照变化程度数,M为真实舰船数,第一项为交叉熵损失用来分类识别,第二项Pseudo-Huber损失函数约束,第三项为灰度直方图统计矩约束损失项,后两项约束了特征间的差异,λ12为权重系数,W为权值矩阵,b为偏置量。总损失函数如式(4)所示:
Figure BDA0002893677790000056
所述步骤S3包含以下步骤:
S3.1、贝叶斯超参数优化,贝叶斯超参数优化是一种为队列模型求全局优化的方法。经过创立代理函数取代目标函数,估计超参数在代理函数上的分布,减少目标函数被调用的次数,得到使目标函数最优的超参数组合。首先根据历史验证集合找出一个可能使损失函数小的超参数集合λ12,其次计算损失函数的值,更新从超参数到损失函数的树形估计模型。优化准则为预期改进法,根据代理函数选择新的超参数集合λ12进行试验。在历史集合所有的损失函数值中,满足p(c<c*)=0.15的条件,将历史记录分为两部分,l(λ)是由所有风险较小的部分超参数集合形成的分布,g(λ)则相反。然后估计超参数的分布,在c<c*超参数集合,存在n个取值(x1,x2,x3...xn),那l(λ)概率密度的估计为式(5)。在l(λ)分布下采样,计算并选取l(λ)/g(λ)的最大值,作为本次迭代选取的超参数集合λ12,之后进行迭代,达到迭代次数或时间停止训练,最后得到λ1=0.0015,λ2=0.046。
Figure BDA0002893677790000061
其中
Figure BDA0002893677790000062
所述步骤S4包含以下步骤:
S4.1、网络训练。完成网络参数的初始化设置;将样本按batch_size=6送入网络,学习率为0.01,λ1=0.0015,λ2=0.046,然后计算目标值与实际输出偏差以及特征误差,完成网络的前向传播;判断偏差及特征误差是否在容许的范围e内,如果在,继续向前迭代,若不在容许范围,重新通过Adam优化方法更新权值与偏差;重复操作,直至达到迭代次数20000次,训练识别率为98.84%,固定权值和阈值,保存网络模型。
所述步骤S5包含以下步骤:
S5.1、测试网络,在已训练好的网络模型上,输入测试样本6000张,得到输出7×1的特征向量预测值,从而得到正确的舰船分类。通过与样本真实值进行比较,计算网络的平均识别率。平均识别率达到90.47%。
本发明的有益效果在于:提出的网络模型相比于传统的卷积神经网络,不同之处在于其目标函数,能够处理不同曝光环境下特征的差异。通过目标函数将不同曝光程度图像特征特征进行约束,进而使得训练的样本的特征映射彼此接近,共享它们的特征,减少误判,提高舰船目标识别的鲁棒性;通过借鉴ResNet的残差模块,减少梯度爆炸,利用网络优秀的特征提取能力从而提高网络模型训练效率。使用贝叶斯超参数调参减少人工误差,提高识别率。
附图说明:
图1是本发明基于卷积神经网络的复杂光照环境下的舰船目标识别方法简化模型;
图2是本发明基于卷积神经网络的复杂光照环境下的舰船目标识别方法ResNet网络的残差模块;
图3是本发明基于卷积神经网络的复杂光照环境下的舰船目标识别方法超参数优化方法流程。
具体实施方式:
一种基于卷积神经网络的复杂光照环境下的舰船目标识别方法,包括以下步骤:
S1、将样本图片送入网络模型;
S2、进行损失函数特征约束;
S3、采用贝叶斯超参数优化方法对权重进行自适应优化;
S4、使用Adam方法对目标函数进行训练;
S5、测试得到舰船分类平均识别率;
所述步骤S1包含以下步骤:
S1.1、建立数据库,首先在谷歌地图上收集不同时间,不同光照程度的真实舰船图像12000张。然后通过数据增强生成模拟图像,并将模拟和真实图像一起作为训练数据。其中6000张7类舰船样本用来模拟光照,随机曝光程度ψ={10,25,50,65,80},随机分布使用均匀分布,让曝光模块以一定概率随机均匀的分布整张图像,变化处理后的图像加上真实数据集一共42000张,其中将30000张作为训练集,6000张作为验证集,6000张作为测试集;
S1.2、将原图像与不同曝光程度的舰船图像分批次输入到ResNet-50网络,如图1所示,首先将尺寸大小为224×224×3的舰船图像输入,经过64个卷积核为7×7,步长为2的卷积层,得到112×112×64的特征图,再通过步长为2的最大池化,得到56×56×64的特征图;
S1.3、经过三个残差模块,如图2所示,64个1×1卷积,64个步长为2的3×3卷积,256个1×1卷积堆叠而成,从而得到56×56×256的特征图;
S1.4、经过四个残差模块,128个1×1卷积,128个步长为2的3×3卷积,512个1×1卷积堆叠而成,获得28×28×512的特征图;
S1.5、经过6个残差模块,256个1×1卷积,256个步长为2的3×3卷积,1024个1×1卷积堆叠而成,得到14×14×1024的特征图;
S1.6、最后经过3个残差模块,512个1×1卷积,512个步长为2的3×3卷积,2048个1×1卷积堆叠而成,得到7×7×2048的特征图;
S1.7、通过平均池化得到1×1×2048的特征图,最后经过尺寸为(7,2048)全连接层得到维度为1×7的特征向量,最后用Softmax函数进行分类识别;
所述步骤S2包含以下步骤:
S2.1、生成特征向量,计算光照变化前后图像特征的统计矩A,包括均值m,标准方差σ,平滑度R,三阶矩u3,一致性U,熵e,并组成新的特征向量A=[m,σ,R,u3,U,e]如式(1)所示,再代入Pseudo-Huber损失函数进行特征约束,来减小光照对识别率的影响。L是灰度级总数,zi表示第i个灰度级,p(zi)是归一化直方图灰度级分布中灰度为zi的概率;
Figure BDA0002893677790000101
Figure BDA0002893677790000102
S2.2、建立特征损失函数,与光照,亮度,信息量相关的矢量特征都与原图像的差距减小,减弱了光照变化对识别的影响,会使舰船的识别率提高,将6个统计矩合成新的特征向量OFC(x)=(m,σ,R,u3,U,e),O(xi),O(Txi)是光照变化前后图片经过全连接层后的特征向量,OFC(xi),OFC(Txi)是光照变化前后图像经过计算统计矩后生成的新特征矢量,将变化前后的特征分别代入Pseudo-Huber损失函数,建立特征约束函数:
Figure BDA0002893677790000103
Figure BDA0002893677790000104
S2.3、建立总损失函数,总损失函数包括分类交叉熵损失和特征约束函数,λ12是权重。其中C为舰船类别数,
Figure BDA0002893677790000105
表示为样本的真值标签向量,N为采用模拟舰船数,K为光照变化程度数,M为真实舰船数,第一项为交叉熵损失用来分类识别,第二项Pseudo-Huber损失函数约束,第三项为灰度直方图统计矩约束损失项,后两项约束了特征间的差异,λ12为权重系数,W为权值矩阵,b为偏置量。如式(4)所示:
Figure BDA0002893677790000111
所述步骤S3包含以下步骤:
S3.1、贝叶斯超参数优化,如图3所示,根据历史验证集合找出一个可能使损失函数小的超参数集合λ12,其次计算损失函数的值,更新从超参数到损失函数的树形估计模型,优化准则为预期改进法,根据代理函数选择新的超参数集合λ12进行试验,在历史集合所有的损失函数值中,满足p(c<c*)=0.15的条件,将历史记录分为两部分,l(λ)是由所有风险较小的部分超参数集合形成的分布,g(λ)则相反,然后估计超参数的分布,在c<c*超参数集合,存在n个取值(x1,x2,x3...xn),那l(λ)概率密度的估计为式(5),在l(λ)分布下采样,计算并选取l(λ)/g(λ)的最大值,作为本次迭代选取的超参数集合λ12,之后进行迭代,达到迭代次数或时间停止训练;
Figure BDA0002893677790000112
其中
Figure BDA0002893677790000113
所述步骤S4包含以下步骤:
S4.1、训练网络,完成网络参数的初始化设置;将样本按batch_size送入网络,学习率为0.01,λ1=0.0015,λ2=0.046,然后计算目标值与实际输出偏差以及特征误差,完成网络的前向传播;判断偏差及特征误差是否在容许的范围e内,如果在,继续向前迭代,若不在容许范围,重新通过Adam优化方法更新权值与偏差;重复操作,直至达到迭代次数20000次,训练识别率为98.84%,固定权值和阈值,保存网络模型;
所述步骤S5包含以下步骤:
S5.1、测试网络,在已训练好的网络模型上,输入测试样本6000张,得到输出7×1的特征向量预测值,从而得到正确的舰船分类,
通过与样本真实值进行比较,计算网络的平均识别率,平均识别率达到90.47%。

Claims (1)

1.一种基于卷积神经网络的复杂光照环境下的舰船目标识别方法,其特征在于,包括以下步骤:
S1、将样本图片送入网络模型;
S2、进行损失函数特征约束;
S3、采用贝叶斯超参数优化方法对权重进行自适应优化;
S4、使用Adam方法对目标函数进行训练;
S5、测试得到舰船分类平均识别率;
所述步骤S1包含以下步骤:
S1.1、建立数据库,首先在谷歌地图上收集不同时间,不同光照程度的真实舰船图像12000张,然后通过数据增强生成模拟图像,并将模拟和真实图像一起作为训练数据,其中6000张7类舰船样本用来模拟光照,随机曝光程度ψ={10,25,50,65,80},随机分布使用均匀分布,让曝光模块以一定概率随机均匀的分布整张图像,变化处理后的图像加上真实数据集一共42000张,其中将30000张作为训练集,6000张作为验证集,6000张作为测试集;
S1.2、将原图像与不同曝光程度的舰船图像分批次输入到ResNet-50网络,首先将尺寸大小为224×224×3的舰船图像输入,经过64个卷积核为7×7,步长为2的卷积层,得到112×112×64的特征图,再通过步长为2的最大池化,得到56×56×64的特征图;
S1.3、经过三个残差模块,64个1×1卷积,64个步长为2的3×3卷积,256个1×1卷积堆叠而成,从而得到56×56×256的特征图;
S1.4、经过四个残差模块,128个1×1卷积,128个步长为2的3×3卷积,512个1×1卷积堆叠而成,获得28×28×512的特征图;
S1.5、经过6个残差模块,256个1×1卷积,256个步长为2的3×3卷积,1024个1×1卷积堆叠而成,得到14×14×1024的特征图;
S1.6、最后经过3个残差模块,512个1×1卷积,512个步长为2的3×3卷积,2048个1×1卷积堆叠而成,得到7×7×2048的特征图;
S1.7、通过平均池化得到1×1×2048的特征图,最后经过尺寸为(7,2048)全连接层得到维度为1×7的特征向量,最后用Softmax函数进行分类识别;
所述步骤S2包含以下步骤:
S2.1、生成特征向量,计算光照变化前后图像特征的统计矩A,包括均值m,标准方差σ,平滑度R,三阶矩u3,一致性U,熵e,并组成新的特征向量A=[m,σ,R,u3,U,e]如式(1)所示,再代入Pseudo-Huber损失函数进行特征约束,来减小光照对识别率的影响,L是灰度级总数,zi表示第i个灰度级,p(zi)是归一化直方图灰度级分布中灰度为zi的概率;
Figure FDA0002893677780000021
Figure FDA0002893677780000022
S2.2、建立特征损失函数,与光照,亮度,信息量相关的矢量特征都与原图像的差距减小,减弱了光照变化对识别的影响,会使舰船的识别率提高,将6个统计矩合成新的特征向量OFC(x)=(m,σ,R,u3,U,e),O(xi),O(Txi)是光照变化前后图片经过全连接层后的特征向量,OFC(xi),OFC(Txi)是光照变化前后图像经过计算统计矩后生成的新特征矢量,将变化前后的特征分别代入Pseudo-Huber损失函数,建立特征约束函数:
Figure FDA0002893677780000031
Figure FDA0002893677780000032
S2.3、建立总损失函数,总损失函数包括分类交叉熵损失和特征约束函数,λ12是权重,其中C为舰船类别数,
Figure FDA0002893677780000034
表示为样本的真值标签向量,N为采用模拟舰船数,K为光照变化程度数,M为真实舰船数,第一项为交叉熵损失用来分类识别,第二项Pseudo-Huber损失函数约束,第三项为灰度直方图统计矩约束损失项,后两项约束了特征间的差异,λ12为权重系数,W为权值矩阵,b为偏置量,如式(4)所示:
Figure FDA0002893677780000033
所述步骤S3包含以下步骤:
S3.1、贝叶斯超参数优化,根据历史验证集合找出一个可能使损失函数小的超参数集合λ12,其次计算损失函数的值,更新从超参数到损失函数的树形估计模型,优化准则为预期改进法,根据代理函数选择新的超参数集合λ12进行试验,在历史集合所有的损失函数值中,满足p(c<c*)=0.15的条件,将历史记录分为两部分,l(λ)是由所有风险较小的部分超参数集合形成的分布,g(λ)则相反,然后估计超参数的分布,在c<c*超参数集合,存在n个取值(x1,x2,x3...xn),那l(λ)概率密度的估计为式(5),在l(λ)分布下采样,计算并选取l(λ)/g(λ)的最大值,作为本次迭代选取的超参数集合λ12,之后进行迭代,达到迭代次数或时间停止训练;
Figure FDA0002893677780000041
其中
Figure FDA0002893677780000042
所述步骤S4包含以下步骤:
S4.1、训练网络,完成网络参数的初始化设置;将样本按batch_size送入网络,然后计算目标值与实际输出偏差以及特征误差,完成网络的前向传播;判断偏差及特征误差是否在容许的范围e内,如果在,继续向前迭代,若不在容许范围,重新通过Adam优化方法更新权值与偏差;重复操作,直至达到迭代次数20000次,固定权值和阈值,保存网络模型;
所述步骤S5包含以下步骤:
S5.1、测试网络,在已训练好的网络模型上,输入测试样本6000张,得到输出7×1的特征向量预测值,从而得到正确的舰船分类。
CN202110034668.8A 2021-01-12 2021-01-12 基于卷积神经网络复杂光照环境下的舰船目标识别方法 Withdrawn CN112699833A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110034668.8A CN112699833A (zh) 2021-01-12 2021-01-12 基于卷积神经网络复杂光照环境下的舰船目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110034668.8A CN112699833A (zh) 2021-01-12 2021-01-12 基于卷积神经网络复杂光照环境下的舰船目标识别方法

Publications (1)

Publication Number Publication Date
CN112699833A true CN112699833A (zh) 2021-04-23

Family

ID=75514059

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110034668.8A Withdrawn CN112699833A (zh) 2021-01-12 2021-01-12 基于卷积神经网络复杂光照环境下的舰船目标识别方法

Country Status (1)

Country Link
CN (1) CN112699833A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361439A (zh) * 2021-06-17 2021-09-07 中国人民解放军海军航空大学航空作战勤务学院 一种sar图像舰船目标识别方法和系统
WO2023273934A1 (zh) * 2021-06-28 2023-01-05 华为技术有限公司 一种模型超参数的选择方法及相关装置
CN117455762A (zh) * 2023-12-25 2024-01-26 盯盯拍(深圳)技术股份有限公司 基于全景行车记录仪的记录画面分辨率提升方法及系统

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361439A (zh) * 2021-06-17 2021-09-07 中国人民解放军海军航空大学航空作战勤务学院 一种sar图像舰船目标识别方法和系统
CN113361439B (zh) * 2021-06-17 2022-06-17 中国人民解放军海军航空大学航空作战勤务学院 一种sar图像舰船目标识别方法和系统
WO2023273934A1 (zh) * 2021-06-28 2023-01-05 华为技术有限公司 一种模型超参数的选择方法及相关装置
CN117455762A (zh) * 2023-12-25 2024-01-26 盯盯拍(深圳)技术股份有限公司 基于全景行车记录仪的记录画面分辨率提升方法及系统
CN117455762B (zh) * 2023-12-25 2024-04-12 盯盯拍(深圳)技术股份有限公司 基于全景行车记录仪的记录画面分辨率提升方法及系统

Similar Documents

Publication Publication Date Title
CN112699833A (zh) 基于卷积神经网络复杂光照环境下的舰船目标识别方法
CN111950649B (zh) 基于注意力机制与胶囊网络的低照度图像分类方法
CN109492556B (zh) 面向小样本残差学习的合成孔径雷达目标识别方法
CN108647583B (zh) 一种基于多目标学习的人脸识别算法训练方法
CN109508634B (zh) 基于迁移学习的船舶类型识别方法及系统
CN111709315A (zh) 一种基于领域适配的水声目标辐射噪声识别方法
US11585918B2 (en) Generative adversarial network-based target identification
CN110991257B (zh) 基于特征融合与svm的极化sar溢油检测方法
CN112668804B (zh) 一种地波雷达船只断裂航迹预测方法
CN110119753A (zh) 一种重构纹理识别岩性的方法
CN113297572B (zh) 基于神经元激活模式的深度学习样本级对抗攻击防御方法及其装置
Yang et al. Underwater acoustic research trends with machine learning: general background
CN112052817A (zh) 基于迁移学习的改进YOLOv3模型侧扫声纳沉船目标自动识别方法
CN113344045B (zh) 一种结合hog特征提高sar船只分类精度的方法
CN111178439A (zh) 基于卷积神经网络及微调的sar图像分类方法
CN114283325A (zh) 一种基于知识蒸馏的水下目标识别方法
CN116468995A (zh) 一种联合slic超像素和图注意力网络的声呐图像分类方法
CN111126155B (zh) 一种基于语义约束生成对抗网络的行人再识别方法
CN111325259A (zh) 一种基于深度学习和二进制编码的遥感图像分类方法
CN113505712B (zh) 基于类平衡损失函数的卷积神经网络的海面溢油检测方法
CN115294398A (zh) 一种基于多姿态角联合学习的sar图像目标识别方法
CN115204286A (zh) 模拟环境中基于深度学习的目标战术意图在线识别方法
CN114821098A (zh) 一种基于灰度梯度融合特征及cnn的高速路面破损检测算法
CN114048837A (zh) 一种基于分布式类脑图的深度神经网络模型加固方法
Unsalan et al. Defect inspection of wood surfaces

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20210423

WW01 Invention patent application withdrawn after publication