CN112434716B - 一种基于条件对抗神经网络的水下目标数据扩增方法及系统 - Google Patents

一种基于条件对抗神经网络的水下目标数据扩增方法及系统 Download PDF

Info

Publication number
CN112434716B
CN112434716B CN201910774388.3A CN201910774388A CN112434716B CN 112434716 B CN112434716 B CN 112434716B CN 201910774388 A CN201910774388 A CN 201910774388A CN 112434716 B CN112434716 B CN 112434716B
Authority
CN
China
Prior art keywords
sample
generator
signal
frame
digital signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910774388.3A
Other languages
English (en)
Other versions
CN112434716A (zh
Inventor
徐及
李琛
颜永红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Acoustics CAS
Original Assignee
Institute of Acoustics CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Acoustics CAS filed Critical Institute of Acoustics CAS
Priority to CN201910774388.3A priority Critical patent/CN112434716B/zh
Publication of CN112434716A publication Critical patent/CN112434716A/zh
Application granted granted Critical
Publication of CN112434716B publication Critical patent/CN112434716B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H3/00Measuring characteristics of vibrations by using a detector in a fluid
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Complex Calculations (AREA)

Abstract

本发明公开了一种基于条件对抗生成网络的水下目标数据扩增方法及系统,所述方法包括:将某一目标类别对应的one‑hot向量与随机高斯白噪声级联,输入预先训练好的生成器,输出该目标类别的生成样本。本发明的方法能够利用少量的水下目标数据产生足量的与原样本类似的数据,使得其数据量能够满足深度学习的需求;而且能够利用一个模型实现多个目标类别的样本生成。

Description

一种基于条件对抗神经网络的水下目标数据扩增方法及系统
技术领域
本发明属于水下目标识别技术领域,具体而言,涉及一种基于条件对抗神经网络的水下目标数据扩增方法及系统。
背景技术
水下目标识别技术是根据水听器阵列接收到的舰船的辐射噪声信号,对目标的类型进行判别。
在水下目标识别任务中,实践中发现基于深度学习的识别模型通常能获得比传统的支持向量机等方法更好的效果,但是基于深度学习方法的有效性依赖于足量的有标签的数据,当数据量不充足时会使得识别模型严重过拟合从而降低识别效果。由于实际数据获取的困难性和经济性,给深度学习方法在水下识别任务中的应用推广造成较大的阻碍。
发明内容
本发明的目的在于解决深度学习在水下目标识别的应用出现的数据过少导致训练出现过拟合的问题。
为实现上述目的,本发明提出了一种基于条件对抗神经网络的水下目标数据扩增方法,所述方法包括:
将某一目标类别对应的one-hot向量与随机高斯白噪声级联,输入预先训练好的生成器,输出该目标类别的生成样本。
作为上述方法的改进,所述方法还包括:所述生成器的训练步骤,具体包括:
构建由一个生成器和一个判别器组成的条件对抗生成网络;
获取水听器阵列采集的每个目标类别声源信号,将声源信号转换成数字信号;对数字信号进行加窗预处理并分帧;对每一帧信号做傅里叶变换,得到离散频谱,然后提取每一帧信号的小波能量特征;将小波能量特征作为该目标类别的真实样本;
将随机高斯白噪声与一个目标类别的one-hot向量形式级联输入生成器,输出生成样本;共有N对真实样本和生成样本;N为目标类别的个数;
将每对真实样本和生成样本以标签“真”和“假”训练判别器,得到训练好的判别器;
固定判别器的网络权重,以真的标签更新生成器的权重,通过迭代运算,当最小化的损失函数不大于阈值时,获得训练好的生成器;
最小化的损失函数表示为:
其中,x为真实样本,pdata为真实样本的概率分布,z为随机高斯白噪声,pz为随机高斯白噪声的概率分布,D表示判别器,G表示生成器,c为目标类别,L为Lipschitz条件,用于限制判别器D在每次训练中参数更新的幅度,D(x)为判别器的输出结果,G(z,c)为生成器的输出结果,V(D,G)是所期望最小化的损失函数。
作为上述方法的一种改进,所述对数字信号进行加窗预处理并分帧,具体包括:
对数字信号取N0个采样点作为一帧,对每一帧数字信号先补零到N点,N0<N,N=2i,i为正整数;共M帧数字信号;
对第j帧的数字信号进行加窗或预加重处理,加窗函数采用汉明窗或哈宁窗;窗函数的长度为L;窗函数沿时间序列进行N/2个点的移动,其中1≤j<M。
作为上述方法的一种改进,所述对每一帧信号做傅里叶变换,得到离散频谱,然后提取每一帧信号的小波能量特征,具体包括:
对t时刻的数字信号进行快速傅里叶变换,得到t时刻数字信号的离散频谱;其中,t时刻的数字信号的傅里叶变换系数为:
yt,n表示t时刻的第n个采样点的信号的值,Yt,f表示信号在t时刻的第f个频点的傅里叶变换系数,其中f=0,1,…N-1;
将t时刻的数字信号的离散频谱通过小波包滤波器组的每个滤波器后,计算每个滤波器内的离散频谱信号能量值,对离散频谱信号能量值取对数即为小波能量特征值;其中小波包滤波器组中滤波器的数量对应小波能量特征的维度;
将小波包滤波器组输出的全部小波能量特征值进行拼接,得到每一帧信号的小波能量特征。
作为上述方法的一种改进,所述方法还包括:对生成器输出的生成样本进行有效性评估的步骤:
将生成样本输入到预先训练好的基础分类模型中,得到每一个生成样本的后验概率;若概率低于阈值,则认为其为无效样本数据,否则为有效样本数据,该阈值的取值范围为30%-50%。
作为上述方法的一种改进,所述基础分类模型的训练步骤包括:
建立训练样本,训练样本为:每个目标类型的真实数据,其标签为其对应的one-hot向量;
由训练样本训练出所述基础分类模型。
本发明还提供了一种基于条件对抗生成网络的水下目标数据扩增系统,所述系统包括:预先训练好的生成器和样本生成模块;
所述样本生成模块,用于将某一目标类别对应的one-hot向量与随机高斯白噪声级联,输入预先训练好的生成器,输出该目标类别的生成样本。
与现有技术相比,本发明的优点在于:
1、本发明的方法能够利用少量的水下目标数据产生足量的与原样本类似的数据,使得其数据量能够满足深度学习的需求;
2、本发明的方法利用一个模型实现多个目标类别的样本生成,对领域相关的不同信号源包括同一水域和同一接收源进行建模效果更佳。
附图说明
图1为本发明的基于条件对抗神经网络的水下目标数据扩增方法的方法流程图;
图2为本发明的基于条件对抗神经网络的水下目标数据扩增方法的设计方法示意图;
图3为本发明的条件对抗生成网络的内部结构详细架构示意图;图中FC1024表示全连接层,每层包含1024个节点;ReLU为激活函数;
图4为本发明的网络训练过程中生成器的损失函数随迭代次数增加变换的示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细的说明。
本发明提出一种基于条件对抗神经网络的水下目标数据扩增方法,所述方法在常规的数据扩增技术的提升有限的情况下,依靠条件对抗生成网络在同一模型中实现多种水下目标数据的无限生成,可以有效地解决基于深度学习的水下目标识别任务中数据缺失的问题。
对抗生成网络是一种概率生成模型,概率生成模型的目的是找出给定观测数据内部的统计规律,并且能够基于所得到的概率分布模型,产生全新的、与观测数据类似的数据。
实施例1:
如图1所示,本发明的实施例1提出了一种基于条件对抗神经网络的水下目标数据扩增方法,包括以下步骤:
步骤101:将水听器阵列接收的一个目标类型的声源信号转换成数字信号;
步骤102:对步骤101得到的数字信号进行加窗预处理并分帧;
所述的对数字信号进行预处理包括:取N个采样点作为一帧信号,对每一帧数字信号先补零到N点,N=2i,i为正整数;然后,对每一帧的数字信号进行加窗或预加重处理,加窗函数采用汉明窗(hamming)或哈宁窗(hanning),利用窗函数对信号进行分帧,窗函数的长度即为帧长沿时间序列进行N/2个点的移动,得到第二帧信号,以此类推;具体包括:
步骤102-1)对数字信号取N0个采样点作为一帧,对每一帧数字信号先补零到N点,N=2i,i为正整数;共M帧数字信号,所述M帧数字信号按时间顺序组成时间序列;
步骤102-2)对第j帧的数字信号进行加窗或预加重处理,加窗函数采用汉明窗或哈宁窗;窗函数的长度为L;
步骤102-3)当j<M时,窗函数沿时间序列进行N/2个点的移动,j值加1,执行步骤102-2);
当j≥M时,结束。
步骤103:将步骤102生成的每一帧信号做傅里叶变换,得到离散频谱,然后提取每一帧信号的小波能量特征,作为真实数据“X(真)”,包括:
步骤103-1)对t时刻的数字信号进行快速傅里叶变换,得到t时刻数字信号的离散频谱;其中,t时刻的数字信号的傅里叶变换系数Yt,f为:
yt,n表示t时刻的第n个采样点的信号的值,Yt,f表示信号在t时刻的第f个频点的傅里叶变换系数,其中f=0,1,…N-1;
步骤103-2)将t时刻的数字信号的离散频谱通过小波包滤波器组后,计算每个滤波器内的离散频谱信号能量值,所述能量值取对数后即为需要的小波能量特征值;
步骤103-3)将小波包滤波器组输出的全部小波能量特征值拼接成小波能量特征,其中小波包滤波器组中滤波器的数量对应着小波能量特征的维度;
步骤104)训练条件对抗生成网络;条件对抗生成网络由一个生成器G和一个判别器D组成,如图2所示。
将随机高斯白噪声与one-hot向量形式的类别标签的级联输入生成器G,输出为生成数据“X(假)”,然后将真实数据“X(真)”和生成数据“X(假)”分别以标签“真”和“假”训练判别器D,最后一步是固定判别器D的网络权重,以“真”的标签更新G的网络权重。即G的训练目标是使得生成的数据尽可能的“像”真实的数据,而判别器D的训练目标是尽可能的区分出真实数据和生成数据。如图3所示。
训练的目标是最小化如下所示的损失函数:
其中,其中,x为真实样本,pdata为真实样本的概率分布,z为随机高斯白噪声,pz为随机高斯白噪声的概率分布,D表示判别器,G表示生成器,c为目标类别,用于限制判别器D在每次训练中参数更新的幅度,D(x)为判别器的输出结果,G(z,c)为生成器的输出结果,V(D,G)是所期望最小化的损失函数。L为Lipschitz条件,用于限制判别器D在每次训练中参数更新的幅度,这样做是为了避免过快地将判别器D训练至收敛,导致其总能准确的判决出“假”数据,使得生成器G的训练受到影响。在实际的应用中,通过训练5次生成器G后训练1次判别器D能够使得两个网络模型有效地协同更新。通过不断的迭代,G的生成能力和D的判别能力互相提升,最终使得生成器G可以获得与真实样本类似的生成数据。
固定判别器D的网络权重,以真的标签更新生成器G的权重,通过迭代运算,当损失函数不大于阈值时,固定生成器G的网络权重,获得训练好的生成器G;
如图4所示,训练过程中生成器G的损失函数随迭代次数增加变换变化,从图中可以看出,随着训练的不断进行,对抗生成网络的生成器G的损失函数逐渐变小,最终趋近于0,意味着判别器无法判别生成数据的样本和真实的样本。
步骤105)将某一目标类别对应的one-hot向量与随机高斯白噪声级联,输入生成器G,得到生成样本;
步骤106)对生成数据的质量进行有效性评估,通过阈值设定舍弃掉部分低质量的生成信号;即针对生成器G输出的生成样本,需要对其有效性进行筛选和评估,具体包括:
利用原始真实样本数据及其对应的one-hot向量训练出一个基础的分类模型A和一个条件对抗生成网络M;
通过one-hot向量与随机高斯噪声的级联输入到M中得到某一目标的样本;
将生成样本输入到基础分类模型A中,得到每一个生成样本的后验概率;若概率低于某一阈值(30%,50%),则认为其为无效数据,否则为有效数据。
实施例2
本发明的实施例2提供了一种基于条件对抗生成网络的水下目标数据扩增系统,所述系统包括:预先训练好的生成器和样本生成模块;
所述样本生成模块,用于将某一目标类别对应的one-hot向量与随机高斯白噪声级联,输入预先训练好的生成器,输出该目标类别的生成样本。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (6)

1.一种基于条件对抗生成网络的水下目标数据扩增方法,所述方法包括:
将某一目标类别对应的one-hot向量与随机高斯白噪声级联,输入预先训练好的生成器,输出该目标类别的生成样本;
所述方法还包括:所述生成器的训练步骤,具体包括:
构建由一个生成器和一个判别器组成的条件对抗生成网络;
获取水听器阵列采集的每个目标类别声源信号,将声源信号转换成数字信号;对数字信号进行加窗预处理并分帧;对每一帧信号做傅里叶变换,得到离散频谱,然后提取每一帧信号的小波能量特征;将小波能量特征作为该目标类别的真实样本;
将随机高斯白噪声与一个目标类别的one-hot向量形式级联输入生成器,输出生成样本;共有N对真实样本和生成样本;N为目标类别的个数;
将每对真实样本和生成样本以标签“真”和“假”训练判别器,得到训练好的判别器;
固定判别器的网络权重,以真的标签更新生成器的权重,通过迭代运算,当最小化的损失函数不大于阈值时,获得训练好的生成器;
最小化的损失函数表示为:
其中,x为真实样本,pdata为真实样本的概率分布,z为随机高斯白噪声,pz为随机高斯白噪声的概率分布,D表示判别器,G表示生成器,c为目标类别,L为Lipschitz条件,用于限制判别器D在每次训练中参数更新的幅度,D(x)为判别器的输出结果,G(z,c)为生成器的输出结果,V(D,G)是所期望最小化的损失函数。
2.根据权利要求1所述的基于条件对抗生成网络的水下目标数据扩增方法,其特征在于,所述对数字信号进行加窗预处理并分帧,具体包括:
对数字信号取N0个采样点作为一帧,对每一帧数字信号先补零到N点,N0<N,N=2i,i为正整数;共M帧数字信号;
对第j帧的数字信号进行加窗或预加重处理,加窗函数采用汉明窗或哈宁窗;窗函数的长度为L;窗函数沿时间序列进行N/2个点的移动,其中1≤j<M。
3.根据权利要求2所述的基于条件对抗生成网络的水下目标数据扩增方法,其特征在于,所述对每一帧信号做傅里叶变换,得到离散频谱,然后提取每一帧信号的小波能量特征,具体包括:
对t时刻的数字信号进行快速傅里叶变换,得到t时刻数字信号的离散频谱;其中,t时刻的数字信号的傅里叶变换系数为:
yt,n表示t时刻的第n个采样点的信号的值,Yt,f表示信号在t时刻的第f个频点的傅里叶变换系数,其中f=0,1,…N-1;
将t时刻的数字信号的离散频谱通过小波包滤波器组的每个滤波器后,计算每个滤波器内的离散频谱信号能量值,对离散频谱信号能量值取对数即为小波能量特征值;其中小波包滤波器组中滤波器的数量对应小波能量特征的维度;
将小波包滤波器组输出的全部小波能量特征值进行拼接,得到每一帧信号的小波能量特征。
4.根据权利要求1所述的基于条件对抗生成网络的水下目标数据扩增方法,其特征在于,所述方法还包括:对生成器输出的生成样本进行有效性评估的步骤:
将生成样本输入到预先训练好的基础分类模型中,得到每一个生成样本的后验概率;若概率低于阈值,则认为其为无效样本数据,否则为有效样本数据,该阈值的取值范围为30%-50%。
5.根据权利要求4所述的基于条件对抗生成网络的水下目标数据扩增方法,其特征在于,所述基础分类模型的训练步骤包括:
建立训练样本,训练样本为:每个目标类型的真实数据,其标签为其对应的one-hot向量;
由训练样本训练出所述基础分类模型。
6.一种基于条件对抗生成网络的水下目标数据扩增系统,基于权利要求1-5所述任一方法实现,其特征在于,所述系统包括:预先训练好的生成器和样本生成模块;
所述样本生成模块,用于将某一目标类别对应的one-hot向量与随机高斯白噪声级联,输入预先训练好的生成器,输出该目标类别的生成样本。
CN201910774388.3A 2019-08-21 2019-08-21 一种基于条件对抗神经网络的水下目标数据扩增方法及系统 Active CN112434716B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910774388.3A CN112434716B (zh) 2019-08-21 2019-08-21 一种基于条件对抗神经网络的水下目标数据扩增方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910774388.3A CN112434716B (zh) 2019-08-21 2019-08-21 一种基于条件对抗神经网络的水下目标数据扩增方法及系统

Publications (2)

Publication Number Publication Date
CN112434716A CN112434716A (zh) 2021-03-02
CN112434716B true CN112434716B (zh) 2024-03-29

Family

ID=74690215

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910774388.3A Active CN112434716B (zh) 2019-08-21 2019-08-21 一种基于条件对抗神经网络的水下目标数据扩增方法及系统

Country Status (1)

Country Link
CN (1) CN112434716B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113420870B (zh) * 2021-07-04 2023-12-22 西北工业大学 用于水声目标识别的U-Net结构生成对抗网络及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107220600A (zh) * 2017-05-17 2017-09-29 清华大学深圳研究生院 一种基于深度学习的图片生成方法及生成对抗网络
CN108444447A (zh) * 2018-02-28 2018-08-24 哈尔滨工程大学 一种用于水下避障系统中的渔网实时自主检测方法
CN109064422A (zh) * 2018-07-17 2018-12-21 中国海洋大学 一种基于融合对抗网络的水下图像复原方法
CN109118445A (zh) * 2018-07-27 2019-01-01 杭州电子科技大学 一种基于多分支生成对抗网络的水下图像增强方法
CN109977724A (zh) * 2017-12-27 2019-07-05 中国科学院声学研究所 一种水下目标分类方法
CN110097103A (zh) * 2019-04-22 2019-08-06 西安电子科技大学 基于生成对抗网络的半监督图像分类方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107220600A (zh) * 2017-05-17 2017-09-29 清华大学深圳研究生院 一种基于深度学习的图片生成方法及生成对抗网络
CN109977724A (zh) * 2017-12-27 2019-07-05 中国科学院声学研究所 一种水下目标分类方法
CN108444447A (zh) * 2018-02-28 2018-08-24 哈尔滨工程大学 一种用于水下避障系统中的渔网实时自主检测方法
CN109064422A (zh) * 2018-07-17 2018-12-21 中国海洋大学 一种基于融合对抗网络的水下图像复原方法
CN109118445A (zh) * 2018-07-27 2019-01-01 杭州电子科技大学 一种基于多分支生成对抗网络的水下图像增强方法
CN110097103A (zh) * 2019-04-22 2019-08-06 西安电子科技大学 基于生成对抗网络的半监督图像分类方法

Also Published As

Publication number Publication date
CN112434716A (zh) 2021-03-02

Similar Documents

Publication Publication Date Title
CN110728360B (zh) 一种基于bp神经网络的微能源器件能量识别方法
CN108922560B (zh) 一种基于混合深度神经网络模型的城市噪声识别方法
CN110491416B (zh) 一种基于lstm和sae的电话语音情感分析与识别方法
CN109993280B (zh) 一种基于深度学习的水下声源定位方法
CN109559736B (zh) 一种基于对抗网络的电影演员自动配音方法
CN111723701B (zh) 一种水中目标识别方法
CN112215292B (zh) 一种基于迁移性的图像对抗样本生成装置及方法
CN109711314B (zh) 基于特征融合与sae的雷达辐射源信号分类方法
CN113191178B (zh) 一种基于听觉感知特征深度学习的水声目标识别方法
CN109378014A (zh) 一种基于卷积神经网络的移动设备源识别方法及系统
CN113488060B (zh) 一种基于变分信息瓶颈的声纹识别方法及系统
CN111899757A (zh) 针对目标说话人提取的单通道语音分离方法及系统
CN110458071B (zh) 一种基于dwt-dfpa-gbdt的光纤振动信号特征提取与分类方法
CN112347910A (zh) 一种基于多模态深度学习的信号指纹识别方法
Wang et al. A novel underground pipeline surveillance system based on hybrid acoustic features
CN112183582A (zh) 一种多特征融合的水下目标识别方法
CN114863938A (zh) 一种基于注意力残差和特征融合的鸟语识别方法和系统
CN112434716B (zh) 一种基于条件对抗神经网络的水下目标数据扩增方法及系统
CN113109782B (zh) 一种直接应用于雷达辐射源幅度序列的分类方法
CN114037001A (zh) 基于wgan-gp-c和度量学习的机械泵小样本故障诊断方法
CN110444225B (zh) 基于特征融合网络的声源目标识别方法
CN113095381B (zh) 一种基于改进型dbn的水声目标辨识方法及系统
CN113360485A (zh) 一种基于生成对抗网络的工程数据增强算法
CN112529035B (zh) 识别不同电台个体种类的智能识别方法
CN117275491B (zh) 基于音频转换与时间注意力图神经网络的叫声分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant