CN115082755A - 基于数据增量的卷积神经网络前视声呐图像识别技术 - Google Patents

基于数据增量的卷积神经网络前视声呐图像识别技术 Download PDF

Info

Publication number
CN115082755A
CN115082755A CN202210679901.2A CN202210679901A CN115082755A CN 115082755 A CN115082755 A CN 115082755A CN 202210679901 A CN202210679901 A CN 202210679901A CN 115082755 A CN115082755 A CN 115082755A
Authority
CN
China
Prior art keywords
target
neural network
convolutional neural
layer
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210679901.2A
Other languages
English (en)
Other versions
CN115082755B (zh
Inventor
张培珍
周光波
莫晴舒
沈晨
刘欢
尹晓锋
王雨菡
邹子航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Ocean University
Original Assignee
Guangdong Ocean University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Ocean University filed Critical Guangdong Ocean University
Priority to CN202210679901.2A priority Critical patent/CN115082755B/zh
Publication of CN115082755A publication Critical patent/CN115082755A/zh
Application granted granted Critical
Publication of CN115082755B publication Critical patent/CN115082755B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/05Underwater scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

本发明公开了基于数据增量的卷积神经网络前视声呐图像识别技术,包括五种不同的水下运动目标,所述五种不同的水下运动目标分别为单柱目标、双柱目标、三柱目标、四柱目标和T型目标,所述卷积神经网络前视声呐图像识别技术如下所示:步骤1、从前视声呐原始目标图像中抽取训练集和测试集;步骤2、居中裁剪目标图像并灰度旋转;步骤3、数据增量;步骤4、输入卷积神经网络进行训练;步骤5、得到已训练的卷积神经网络;步骤6、对测试集进行识别分类;本发明不需要繁琐的特征工程,可以极大的减少人工成本并且泛化能力更强,训练速度更快。

Description

基于数据增量的卷积神经网络前视声呐图像识别技术
技术领域
本发明涉及前视声呐图像识别技术领域,具体是指基于数据增量的卷积神经网络前视声呐图像识别技术。
背景技术
声呐是利用声波作为信息载体的探测设备,按工作方式可分为主动声呐、被动声呐。前视声呐也可称为扇扫声呐,属于主动声呐的一种,声呐图像不仅能够提供目标的大小、方位信息,还能够在大角度范围内同时进行探测,直观地展现水下环境,从而为分类和识别提供了更加稳定、可靠的依据。
早期的水下目标识别主要是依赖于回波信号进行识别,根据回波信号进行分类识别的方法主要有时域波形结构特征提取、信号谱估计、时间-频率分析特征提取等。二十世纪90年代以来,水下无人航行器得到快速发展,为了让机器实现高效快速地自动识别目标,科研人员通过结合先验知识,提取声呐图像目标的特征,再结合支持向量机(SVM)、决策树、人工神经网络等统计机器学习方法进行识别。
本世纪初,由于深度学习方法的快速发展,新的训练方法突破了传统BP神经网络易陷入局部最优的缺点,使得深度学习方法得到了研究人员的关注。其中,基于卷积神经网络的深度学习方法被广泛应用至计算机视觉的各个领域中。卷积神经网络是一种深度人工神经网络,其使用原始的图像数据进行训练,从而避免了信息的丢失。此外,卷积神经网络能够自动提取庞杂的原始数据的特征,解决了传统法方法对于人工经验的依赖,于是将卷积神经网络引入到声呐图像的处理中并实现水下目标识别和检测成为一种研究趋势。本技术方案采用卷积神经网络对水下运动目标前视声呐图像进行识别分类。
现有前视声呐成像技术存在以下技术问题:
1、在探测水下运动目标时,由于回波信号受到混响、环境噪声和浮游生物的干扰以及声波的透射和衰减会造成声呐图像具有对比度差、分辨率低、阴影暗区像素少、目标边缘残缺等特点。此外,在波束形成时,除在较窄的主波束上形成极大值外,其旁瓣一般还在较宽的指向性范围内接收信号,形成旁瓣干扰;当目标运动时,由于声波入射角、目标表面反射、散射等因素影响,可能会造成同一目标具有截然不同的声图像。并且声呐图像的采集需要耗费大量的资源,很多声呐图像都涉及到了保密问题,因此目前在声呐这个领域公开的数据集十分有限,这就导致深度学习在声呐图像检测分类的应用受到了极大限制。
2、在使用传统机器学习方法对目标声呐图像检测时,通常分为定位和识别两个步骤,首先使用人工设计的特征提取器将感兴趣的目标区域从复杂的声呐图像中分离出来,然后对于分离出来的区域,提取相关特征来训练分类器从而做出识别决策并进行识别,这样复杂的检测过程不但消耗时间人力,而且非常依靠人工经验,一旦检测的目标发生变化,就需要重新设计特征和相关算法,可移植性差,不利于提高目标声呐图像检测和识别的效率,由于使用SVM对目标识别是分成定位和分类两步解决的,这样的解决方式需要大量人工成本的同时也缺乏泛化能力,传统机器学习方法的固有缺陷限制了它在水下目标识别领域的进一步发展。
3、BP神经网络存在收敛速度慢、所得的网络容错能力差、网络隐含层层数及隐含层单元数的选取尚无理论上的知道,而是根据经验确定,因此,网络往往有很大的冗余性,无形中增加了网络学习的时间;在对声呐图像进行识别训练时,BP神经网络作为传统训练多层网络的典型算法,网络稍微一深,训练结果就会很不理想,主要问题有梯度越来越稀疏:从顶层越往下,误差校正信号越小;容易收敛到局部最小值,深度结构非凸目标代价函数中普遍存在的局部最小会导致利用BP神经网络训练非常困难。
所以,基于数据增量的卷积神经网络前视声呐图像识别技术成为人们亟待解决的问题。
发明内容
本发明要解决的技术问题是在探测水下运动目标时,由于回波信号受到混响、环境噪声和浮游生物的干扰以及声波的透射和衰减会造成声呐图像具有对比度差、分辨率低、阴影暗区像素少、目标边缘残缺等特点。
为解决上述技术问题,本发明提供的技术方案为:基于数据增量的卷积神经网络前视声呐图像识别技术,包括五种不同的水下运动目标,所述五种不同的水下运动目标分别为单柱目标、双柱目标、三柱目标、四柱目标和T型目标,所述卷积神经网络前视声呐图像识别技术如下所示:
步骤1、从前视声呐原始目标图像中抽取训练集和测试集:通过对实验采集到的五类水下运动目标的前视声纳图像视频进行帧截取获得五类目标图像,抽取部分图像为训练集,再从声呐图像视频中挑选与训练集不重复的图像作为后续神经网络的测试集;
步骤2、居中裁剪目标图像并灰度旋转:对原始声呐图像进行居中裁剪并进行灰度转换,滤除掉声呐图像中除了目标以外的其他杂乱信息得到裁剪后的目标灰度图像;
步骤3、数据增量:在经过上述对图像的操作步骤之后,基于卷积神经网络对扭曲图像的处理具有识别不变的优良特性,再对目标图像进行间隔10度的顺时针旋转,一共经过360度,每旋转一次角度,就对目标图像进行左右镜像对称、平移、高斯加噪并中值滤波、维纳滤波、桶形变换和针垫变换,得到原始目标的增量图像,每类目标由原始的48张图片增量到15552张,五类目标总计增量到77760张图像;
步骤4、输入卷积神经网络进行训练:在将声呐图像数据经过增量处理以后,将其存入到一个新的样本训练集,然后将增量样本集经过一个16层卷积神经网络进行训练,并使用训练集中的35%的卷积神经网络模型进行识别验证;
步骤5、得到已训练的卷积神经网络:得到训练集经过网络的识别,利用训练集中所划分的测试集对神经网络识别的正确率为99.89%;
步骤6、对测试集进行识别分类:对未经训练的测试集的总体识别进行分类,经过计算,对未经训练测试集的识别正确率为99.6129%,再从未经训练的测试集中随机抽取6张图片经网络识别后得到分类结果。
进一步的,所述一个16层卷积神经网络的每层结构如下所示:输入层--卷积层(3,8)--批处理层--激活函数--池化层(2,2)--卷积层(3,16)--批处理层—激活函数—池化层(2,2)--卷积层(3,32)--批处理层—激活函数—池化层(2,2)--全连接层—归一化层—分类层。
进一步的,步骤1所述的前视声呐原始目标图像数据是通过在水声实验站对五种不同的水下运动目标利用多波束前视声呐进行实验获取得到声呐图像,该实验将待测目标悬挂在转台下方,目标旋转360度,并且将图像声呐吊放在目标同一深度,在目标旋转过程中,记录目标全方位的声呐图像。
本发明与现有技术相比的优点在于:本发明不需要繁琐的特征工程,可以极大的减少人工成本并且泛化能力更强,训练速度更快;本发明用到的深层卷积神经网络的结构层次比BP神经网络复杂,其中包含大量的隐藏层。但是,网络结构内部相邻的卷积核或者下采样核采用局部感受野全链接,网络采取神经元权值共享的规则,使得卷积神经网络训练参数的数量远比传统神经网络少,在训练和前向测试的复杂度大幅度降低,同时也减少了神经网络训练参数过拟合的几率;本发明通过实验采集得到五种水下运动目标的前视声呐图像集,再扩大预训练数据集,训练一个尽可能覆盖到声呐图像特征的预训练网络来对目标进行识别并且提升网络的鲁棒性;本发明操作简便,设计合理,值得大力推广。
附图说明
图1是本发明基于数据增量的卷积神经网络前视声呐图像识别技术的流程图。
图2是卷积神经网络结构流程图。
图3是单柱目标的前视声呐原始图像。
图4是双柱目标的前视声呐原始图像。
图5是三柱目标的前视声呐原始图像。
图6是四柱目标的前视声呐原始图像。
图7是T型目标的前视声呐原始图像。
图8是四柱目标灰度图像增量处理过程中顺时针旋转10度的图像。
图9是四柱目标灰度图像增量处理过程中高斯加噪并中值滤波的图像。
图10是四柱目标灰度图像增量处理过程中左右镜像的图像。
图11是四柱目标灰度图像增量处理过程中平移处理的图像。
图12是四柱目标灰度图像增量处理过程中桶形变换的图像。
图13是四柱目标灰度图像增量处理过程中针垫变换的图像。
图14是卷积神经网络训练过程。
图15是训练集样本经过卷积神经网络验证混肴矩阵。
图16是未经训练的测试集对卷积神经网络进行识别验证结果。
图17是随机抽取测试集对神经网络进行验证。
具体实施方式
下面结合附图对本发明基于数据增量的卷积神经网络前视声呐图像识别技术做进一步的详细说明。
结合附图1-17,对本发明进行详细介绍。
基于数据增量的卷积神经网络前视声呐图像识别技术,包括五种不同的水下运动目标,所述五种不同的水下运动目标分别为单柱目标、双柱目标、三柱目标、四柱目标和T型目标,所述卷积神经网络前视声呐图像识别技术如下所示:
步骤1、从前视声呐原始目标图像中抽取训练集和测试集:通过对实验采集到的五类水下运动目标的前视声纳图像视频进行帧截取获得五类目标图像,抽取部分图像为训练集,再从声呐图像视频中挑选与训练集不重复的图像作为后续神经网络的测试集;
步骤2、居中裁剪目标图像并灰度旋转:对原始声呐图像进行居中裁剪并进行灰度转换,滤除掉声呐图像中除了目标以外的其他杂乱信息得到裁剪后的目标灰度图像;
步骤3、数据增量:在经过上述对图像的操作步骤之后,基于卷积神经网络对扭曲图像的处理具有识别不变的优良特性,再对目标图像进行间隔10度的顺时针旋转,一共经过360度,每旋转一次角度,就对目标图像进行左右镜像对称、平移、高斯加噪并中值滤波、维纳滤波、桶形变换和针垫变换,得到原始目标的增量图像,每类目标由原始的48张图片增量到15552张,五类目标总计增量到77760张图像;
步骤4、输入卷积神经网络进行训练:在将声呐图像数据经过增量处理以后,将其存入到一个新的样本训练集,然后将增量样本集经过一个16层卷积神经网络进行训练,并使用训练集中的35%的卷积神经网络模型进行识别验证;
步骤5、得到已训练的卷积神经网络:得到训练集经过网络的识别,利用训练集中所划分的测试集对神经网络识别的正确率为99.89%;
步骤6、对测试集进行识别分类:对未经训练的测试集的总体识别进行分类,经过计算,对未经训练测试集的识别正确率为99.6129%,再从未经训练的测试集中随机抽取6张图片经网络识别后得到分类结果。
所述一个16层卷积神经网络的每层结构如下所示:输入层--卷积层(3,8)--批处理层--激活函数--池化层(2,2)--卷积层(3,16)--批处理层—激活函数—池化层(2,2)--卷积层(3,32)--批处理层—激活函数—池化层(2,2)--全连接层—归一化层—分类层。
步骤1所述的前视声呐原始目标图像数据是通过在水声实验站对五种不同的水下运动目标利用多波束前视声呐进行实验获取得到声呐图像,该实验将待测目标悬挂在转台下方,目标旋转360度,并且将图像声呐吊放在目标同一深度,在目标旋转过程中,记录目标全方位的声呐图像。
本发明基于数据增量的卷积神经网络前视声呐图像识别技术的具体实施过程如下:步骤1、从前视声呐原始目标图像中抽取训练集和测试集:通过对实验采集到的五类水下运动目标的前视声纳图像视频进行帧截取获得五类目标图像,抽取部分图像为训练集,再从声呐图像视频中挑选与训练集不重复的图像作为后续神经网络的测试集;
步骤2、居中裁剪目标图像并灰度旋转:对原始声呐图像进行居中裁剪并进行灰度转换,滤除掉声呐图像中除了目标以外的其他杂乱信息得到裁剪后的目标灰度图像;
步骤3、数据增量:在经过上述对图像的操作步骤之后,基于卷积神经网络对扭曲图像的处理具有识别不变的优良特性,再对目标图像进行间隔10度的顺时针旋转,一共经过360度,每旋转一次角度,就对目标图像进行左右镜像对称、平移、高斯加噪并中值滤波、维纳滤波、桶形变换和针垫变换,得到原始目标的增量图像,每类目标由原始的48张图片增量到15552张,五类目标总计增量到77760张图像;
步骤4、输入卷积神经网络进行训练:在将声呐图像数据经过增量处理以后,将其存入到一个新的样本训练集,然后将增量样本集经过一个16层卷积神经网络进行训练,并使用训练集中的35%的卷积神经网络模型进行识别验证;
步骤5、得到已训练的卷积神经网络:得到训练集经过网络的识别,利用训练集中所划分的测试集对神经网络识别的正确率为99.89%;
步骤6、对测试集进行识别分类:对未经训练的测试集的总体识别进行分类,经过计算,对未经训练测试集的识别正确率为99.6129%,再从未经训练的测试集中随机抽取6张图片经网络识别后得到分类结果。
本发明不需要繁琐的特征工程,可以极大的减少人工成本并且泛化能力更强,训练速度更快;本发明用到的深层卷积神经网络的结构层次比BP神经网络复杂,其中包含大量的隐藏层,相邻的卷积核或者下采样核采用局部感受野全链接,网络采取神经元权值共享的规则,使得卷积神经网络训练参数的数量远比传统神经网络少,在训练和前向测试的复杂度大幅度降低,同时也减少了神经网络训练参数过拟合的几率;本发明通过实验采集得到五种水下运动目标的前视声呐图像集,再扩大预训练数据集,训练一个尽可能覆盖到声呐图像特征的预训练网络来对目标进行识别并且提升网络的鲁棒性;本发明操作简便,设计合理,值得大力推广。
以上对本发明及其实施方式进行了描述,这种描述没有限制性,附图中所示的也只是本发明的实施方式之一,实际的结构并不局限于此。总而言之如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,不经创造性的设计出与该技术方案相似的结构方式及实施例,均应属于本发明的保护范围。

Claims (3)

1.基于数据增量的卷积神经网络前视声呐图像识别技术,包括五种不同的水下运动目标,其特征在于:所述五种不同的水下运动目标分别为单柱目标、双柱目标、三柱目标、四柱目标和T型目标,所述卷积神经网络前视声呐图像识别技术如下所示:
步骤1、从前视声呐原始目标图像中抽取训练集和测试集:通过对实验采集到的五类水下运动目标的前视声纳图像视频进行帧截取获得五类目标图像,抽取部分图像为训练集,再从声呐图像视频中挑选与训练集不重复的图像作为后续神经网络的测试集;
步骤2、居中裁剪目标图像并灰度旋转:对原始声呐图像进行居中裁剪并进行灰度转换,滤除掉声呐图像中除了目标以外的其他杂乱信息得到裁剪后的目标灰度图像;
步骤3、数据增量:在经过上述对图像的操作步骤之后,基于卷积神经网络对扭曲图像的处理具有识别不变的优良特性,再对目标图像进行间隔10度的顺时针旋转,一共经过360度,每旋转一次角度,就对目标图像进行左右镜像对称、平移、高斯加噪并中值滤波、维纳滤波、桶形变换和针垫变换,得到原始目标的增量图像,每类目标由原始的48张图片增量到15552张,五类目标总计增量到77760张图像;
步骤4、输入卷积神经网络进行训练:在将声呐图像数据经过增量处理以后,将其存入到一个新的样本训练集,然后将增量样本集经过一个16层卷积神经网络进行训练,并使用训练集中的35%的卷积神经网络模型进行识别验证;
步骤5、得到已训练的卷积神经网络:得到训练集经过网络的识别,利用训练集中所划分的测试集对神经网络识别的正确率为99.89%;
步骤6、对测试集进行识别分类:对未经训练的测试集的总体识别进行分类,经过计算,对未经训练测试集的识别正确率为99.6129%,再从未经训练的测试集中随机抽取6张图片经网络识别后得到分类结果。
2.根据权利要求1所述的基于数据增量的卷积神经网络前视声呐图像识别技术,其特征在于:所述一个16层卷积神经网络的每层结构如下所示:输入层--卷积层(3,8)--批处理层--激活函数--池化层(2,2)--卷积层(3,16)--批处理层—激活函数—池化层(2,2)--卷积层(3,32)--批处理层—激活函数—池化层(2,2)--全连接层—归一化层—分类层。
3.根据权利要求1所述的基于数据增量的卷积神经网络前视声呐图像识别技术,其特征在于:步骤1所述的前视声呐原始目标图像数据是通过在水声实验站对五种不同的水下运动目标利用多波束前视声呐进行实验获取得到声呐图像,该实验将待测目标悬挂在转台下方,目标旋转360度,并且将图像声呐吊放在目标同一深度,在目标旋转过程中,记录目标全方位的声呐图像。
CN202210679901.2A 2022-06-15 2022-06-15 一种基于数据增量的卷积神经网络前视声呐图像识别方法 Active CN115082755B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210679901.2A CN115082755B (zh) 2022-06-15 2022-06-15 一种基于数据增量的卷积神经网络前视声呐图像识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210679901.2A CN115082755B (zh) 2022-06-15 2022-06-15 一种基于数据增量的卷积神经网络前视声呐图像识别方法

Publications (2)

Publication Number Publication Date
CN115082755A true CN115082755A (zh) 2022-09-20
CN115082755B CN115082755B (zh) 2024-06-07

Family

ID=83252935

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210679901.2A Active CN115082755B (zh) 2022-06-15 2022-06-15 一种基于数据增量的卷积神经网络前视声呐图像识别方法

Country Status (1)

Country Link
CN (1) CN115082755B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108846323A (zh) * 2018-05-28 2018-11-20 哈尔滨工程大学 一种面向水下目标识别的卷积神经网络优化方法
CN109086824A (zh) * 2018-08-01 2018-12-25 哈尔滨工程大学 一种基于卷积神经网络的海底底质声呐图像分类方法
CN112580554A (zh) * 2020-12-25 2021-03-30 北京环境特性研究所 基于cnn的mstar数据噪声强度控制的分类识别方法
WO2021243743A1 (zh) * 2020-06-04 2021-12-09 青岛理工大学 基于深度卷积神经网络的沉底油声呐探测图像识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108846323A (zh) * 2018-05-28 2018-11-20 哈尔滨工程大学 一种面向水下目标识别的卷积神经网络优化方法
CN109086824A (zh) * 2018-08-01 2018-12-25 哈尔滨工程大学 一种基于卷积神经网络的海底底质声呐图像分类方法
WO2021243743A1 (zh) * 2020-06-04 2021-12-09 青岛理工大学 基于深度卷积神经网络的沉底油声呐探测图像识别方法
CN112580554A (zh) * 2020-12-25 2021-03-30 北京环境特性研究所 基于cnn的mstar数据噪声强度控制的分类识别方法

Also Published As

Publication number Publication date
CN115082755B (zh) 2024-06-07

Similar Documents

Publication Publication Date Title
Yi et al. An end‐to‐end steel strip surface defects recognition system based on convolutional neural networks
CN109598287B (zh) 基于深度卷积生成对抗网络样本生成的外观瑕疵检测方法
CN113688941B (zh) 基于生成对抗网络的小样本声呐图像分类识别优化方法
CN113592845A (zh) 一种电池涂布的缺陷检测方法及装置、存储介质
CN111626993A (zh) 一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统
CN107358258A (zh) 基于nsct双cnn通道和选择性注意机制的sar图像目标分类
CN110009622B (zh) 一种显示面板外观缺陷检测网络及其缺陷检测方法
CN110348459B (zh) 基于多尺度快速地毯覆盖法声呐图像分形特征提取方法
CN105931246A (zh) 一种基于小波变换和遗传算法的织物瑕疵检测方法
CN110969121A (zh) 一种基于深度学习的高分辨率雷达目标识别算法
CN116168240A (zh) 基于注意力增强的任意方向密集舰船目标检测方法
CN103425990A (zh) 一种基于纹理特征的合成孔径声纳目标检测方法
CN115661627A (zh) 一种基于GAF-D3Net的单波束水下目标识别方法
CN110503157B (zh) 基于细粒度图像的多任务卷积神经网络的图像隐写分析方法
CN112132104B (zh) 一种基于环路生成对抗网络的isar舰船目标图像域增强识别方法
CN114694014A (zh) 一种基于多层神经网络的sar图像舰船目标检测方法
CN112329538B (zh) 一种基于微波视觉的目标分类方法
CN112683533A (zh) 一种用于轴承故障诊断的信号增强方法及系统
CN117173550A (zh) 合成孔径声纳图像水下小目标检测方法及系统
CN115082755A (zh) 基于数据增量的卷积神经网络前视声呐图像识别技术
CN109934122A (zh) 一种基于深度学习的遥感影像船舶检测方法
CN115830502A (zh) 一种基于背景抑制与特征融合的红外小目标检测方法
Zhu et al. Research on denoising of finger vein image based on deep convolutional neural network
CN114861718A (zh) 基于改进深度残差算法的轴承故障诊断方法及系统
Wang et al. Sonar Objective Detection Based on Dilated Separable Densely Connected CNNs and Quantum‐Behaved PSO Algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant