CN113191178A - 一种基于听觉感知特征深度学习的水声目标识别方法 - Google Patents
一种基于听觉感知特征深度学习的水声目标识别方法 Download PDFInfo
- Publication number
- CN113191178A CN113191178A CN202011397588.0A CN202011397588A CN113191178A CN 113191178 A CN113191178 A CN 113191178A CN 202011397588 A CN202011397588 A CN 202011397588A CN 113191178 A CN113191178 A CN 113191178A
- Authority
- CN
- China
- Prior art keywords
- spectrogram
- mfcc
- gfcc
- recognition
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/14—Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
- G06F17/141—Discrete Fourier transforms
- G06F17/142—Fast Fourier transforms, e.g. using a Cooley-Tukey type algorithm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Discrete Mathematics (AREA)
- Signal Processing (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Abstract
本发明提出一种基于听觉感知特征深度学习的水声目标识别方法,针对水声数据信噪比低、可分性特征提取困难、识别泛化能力差等现状,首先基于听觉感知方法开展预处理,生成MFCC谱图和GFCC谱图样本,接着针对以上谱图样本,分别基于深度学习方法构建深层网络模型进行处理,最后对多模型结果进行加权联合判决,输出目标识别结果。该方法综合利用了听觉感知方法在特征表征上和深度学习方法在特征抽象上的优势,同时通过多模型联合判决的方法实现了多维听觉感知特征之间的优势互补,有助于提高目标识别稳健性,是人工智能算法在水声信号处理领域应用的创新方法。
Description
技术领域
本发明属于水中目标识别与人工智能技术领域,主要是一种基于听觉感知特征深度学习的水声目标识别方法。
背景技术
水中目标辐射噪声识别是声纳的主要功能之一,能够为声纳员综合决策提供重要依据。受目标噪声产生机理复杂、海洋信道时空变性传输、多目标强干扰、平台背景噪声、高质量数据获取困难等因素影响,水声目标噪声识别长期以来是国际公认亟待解决的难题。
人耳听觉系统经过长期进化,对声音信号具有较强的分析和识别能力,通过借鉴听觉感知方法在语音信号处理中的成功经验,将听觉感知机理引入水声目标噪声识别处理中,在一定程度上有助于提升识别算法在复杂多变环境下的鲁棒性。
近年来,深度学习方法成为人工智能领域的热点,不仅算法研究层出不穷,在语音、图像等领域也得到了广泛应用。针对水声目标识别,也有不少国内外的研究团队开展了深度学习方法的应用研究,但一般所用模型较为单一,未针对水声目标识别特点展开深化研究。
发明内容
本发明的目的在于克服现有技术存在的不足,而提供一种基于听觉感知特征深度学习的水声目标识别方法。鉴于水声目标辐射噪声的复杂性,其可分性可能在不同特征维度具备独立的特性,为充分利用不同多特征的本质属性凸显性,本发明提出生成多种水声目标噪声听觉感知特征并构建相应的深层网络处理模型,基于多模型联合判决体制实现目标识别,从而提升水中目标辐射噪声识别的宽容性。
本发明的目的是通过如下技术方案来完成的。本发明提出一种基于听觉感知特征深度学习的水声目标识别方法,首先对水中目标辐射噪声数据进行预处理,基于听觉感知方法,生成MFCC谱图和GFCC谱图作为深度学习处理对象,其次针对以上听觉感知谱图,分别构建深层网络模型进行处理,输出各类目标识别置信度;接着对多模型置信度结果进行加联合判决,基于梯度下降方法对实现加权系数,最后基于上述模型和准则实现未知目标噪声数据识别。
本发明的有益效果为:本发明利用听觉感知信号处理方法,从高维水声目标噪声中获取能凸显目标特性的谱图样本,进一步基于深度学习方法建立多模型加权联合的处理体制,实现深层次特征信息抽象与识别,实际数据处理结果表明,应用听觉感知特征深度学习方法能够有效分辨三类水声目标。该方法与传统基于物理机理和信号处理手段的特征提取与识别方法相比,具有更强的非线性数据处理能力,能够更有效识别水中目标。
附图说明
图1所示为水声目标噪声听觉感知特征智能识别总体架构。针对水中辐射噪声展开预处理,生成MFCC谱图和GFCC谱图,对于具备先验信息的目标数据,标注后加入样本集中。基于深度学习方法,面向MFCC谱图和GFCC谱图识别,分别构建深层网络模型,并基于上述模型输出的结果进行融合判决,得到综合识别结果。基于样本集对上述深层网络模型展开训练并对融合判决准则进行优化。最后,基于上述方法对未知目标数据进行处理,实现目标智能识别。
图2所示为具体处理流程图,其中包括听觉感知谱图样本集构建、深层网络模型构建、深层网络模型训练、多模型联合判决系数确定和方法应用五个阶段。
图3和图4所示分别为MFCC和GFCC的特征提取过程。
图5所示为本发明中深层网络模型构建时所用的基本卷积模块,模块基于残差网络机制,配置了1个直连分支和2个并行卷积分支,通过设定不同的卷积操作过程参数,能够增强对不同尺度的适应性,捕捉数据精细特征,最后基于网络整合层将这些卷积特征在通道数量维度进行集成,输出多通道卷积特征。各卷积层使用的激活函数均设置为ReLU函数。
图6所示为某目标噪声听觉感知谱图。
具体实施方式
下面将结合附图对本发明做详细的介绍:
本发明公开了一种基于听觉感知特征深度学习的水声目标识别方法,首先对水中目标辐射噪声数据进行预处理,基于听觉感知方法,生成MFCC谱图和GFCC谱图作为深度学习处理对象,其次针对以上听觉感知谱图,分别构建深层网络模型进行处理,输出各类目标识别置信度;接着对多模型置信度结果进行加联合判决,基于梯度下降方法对实现加权系数,最后基于上述模型和准则实现未知目标噪声数据识别。具体实施方式如下:
(1)基于带标签水声目标噪声数据构建MFCC谱图和GFCC谱图样本集,基本过程如下。
(1.1)对水声目标噪声数据按分辨率需求进行分帧和加窗,形成标准长度的信号片段。
(1.2)构建MFCC谱图样本集,具体构建方式如下。
(1.2.1)对单帧信号进行快速傅里叶变换。
(1.2.2)设计Mel滤波器组。根据信号特点确定上限频率、下限频率、滤波器数量等参数,形成滤波器组。
(1.2.3)对快速傅里叶变换后的频谱基于Mel滤波器组进行滤波。
(1.2.4)对Mel滤波器组输出的幅值作对数运算,得到频域输出的对数分布。
(1.2.5)对信号进行离散余弦变换,得到MFCC谱图。
(1.2.6)重复(1.2.1)~(1.2.5)过程,对其余信号帧进行处理,形成MFCC谱图样本集。
(1.2.7)基于随机不放回方式取样方式,对MFCC谱图样本集中的每类目标样本按一定比例划分为训练样本子集和交叉验证样本子集。
(1.3)构建GFCC谱图样本集,具体构建方式如下。
(1.3.1)对单帧信号进行快速傅里叶变换。
(1.3.2)设计Gammatone滤波器组。根据信号特点确定上限频率、下限频率、滤波器数量等参数,形成滤波器组。
(1.3.3)对快速傅里叶变换后的频谱基于Gammatone滤波器组进行滤波。
(1.3.4)对Gammatone滤波器组输出的幅值作指数压缩,得到对数能量谱。
(1.3.5)对信号进行离散余弦变换,得到GFCC谱图。
(1.3.6)重复(1.3.1)~(1.3.5)过程,对其余信号帧进行处理,形成MFCC谱图样本集。
(1.3.7)基于随机不放回方式取样方式,对GFCC谱图样本集中的每类目标样本按一定比例划分为训练样本子集和交叉验证样本子集。
(2)基于TensorFlow框架构建用于目标噪声听觉感知谱图识别的深层网络模型,基本过程如下:
(2.1)构建基本卷积模块,具体构建方式如下。在数据输入层之后添加3个并行分支。分支1为直接分支,不添加任何操作。分支2包括4个卷积层,卷积层1参数为(1×1,x,1),即卷积核尺寸为1×1,卷积核数量可根据需求进行设定,卷积步长为1,表示方法下同。卷积层2~4的参数依次为(1×3,x,1),(3×1,2x,1)和(1×1,nx,1或2)。分支2包括3个卷积层,各卷积层参数依次为(1×1,x,1),(3×3,x,1)和(1×1,nx,1或2)。在3个并行分支之后添加网络整合层,实现卷积特征组合。
(2.2)构建面向MFCC谱图识别的深层网络模型,具体构建方式如下。
(2.2.1)添加数据输入层,输入数据尺寸为48×48×1。
(2.2.2)添加卷积层,参数为(5×5,64,2),各数字依次为卷积核尺寸、输出通道数量和步长值,下同。
(2.2.3)添加卷积层,参数为(3×3,64,2)。
(2.2.4)添加基本卷积模块,参数为(2,64,4,1),各数字依次为模块数量、x值、n值和中间卷积层步长值,需设置的中间卷积层可参见图3,下同。
(2.2.5)添加基本卷积模块,参数为(1,128,4,2)。
(2.2.6)添加基本卷积模块,参数为(2,128,4,1)。
(2.2.7)添加基本卷积模块,参数为(1,256,4,2)。
(2.2.8)添加基本卷积模块,参数为(4,256,4,1)。
(2.2.9)添加基本卷积模块,参数为(1,512,4,2)。
(2.2.9)添加全局平均池化层。
(2.2.10)添加Softmax分类器。
(2.3)构建面向GFCC谱图识别的深层网络模型,具体构建方式参照步骤(2.2.1)~(2.2.10)。
(3)对建立的深层网络模型进行训练,基本过程如下。
(3.1)对面向MFCC谱图识别的深层网络模型进行训练,基本过程如下。
(3.1.1)设定深层网络模型训练参数,包括学习率、优化器等,损失函数设置为交叉熵函数。
(3.1.2)设定顺序取样轮次和随机放回取样次数。
(3.1.3)从MFCC谱图样本集的训练样本子集中按顺序取出一定数量样本。
(3.1.4)针对输入样本,对深层网络模型作前向计算,得到最后分类结果。
(3.1.5)基于梯度下降算法最小化分类结果与对应样本标签之间的误差。
(3.1.6)重复步骤(3.1.3)~(3.1.5),直至完成设定的循环取样轮次。
(3.1.7)从MFCC谱图样本集的训练样本子集中按随机放回方式取出一定数量样本。
(3.1.8)重复步骤(3.1.3)~(3.1.5),直至完成设定的随机放回取样次数。
(3.2)对面向GFCC谱图识别的深层网络模型进行训练,基本过程与面向MFCC谱图识别的深层网络模型训练方法相同。
(4)计算多深层网络模型融合判决系数,基本过程如下。
(4.1)基于面向MFCC谱图识别的深层网络模型对MFCC谱图样本集的交叉验证样本子集中的数据按次序进行处理,输出置信度,得到集合CMFCC(cMFCC,1,cMFCC,2,...,cMFCC,n),其中cMFCC,n表示第n类结果的置信度,下同。
(4.2)基于面向GFCC谱图识别的深层网络模型对GFCC谱图样本集的交叉验证样本子集中的数据按次序进行处理,输出置信度,得到集合CGFCC(cGFCC,1,cGFCC,2,...,cGFCC,n),其中cGFCC,n表示第n类结果的置信度,下同。
(4.3)构建融合判决置信度计算模型,综合置信度计算方法如下所示。
其中,αn,βn分别为面向MFCC谱图识别的深层网络模型、面向GFCC谱图识别的深层网络模型对第n类目标分类置信度的加权系数,针对Cclass,n,取综合置信度最大值为识别类别。
(4.5)对建立的融合判决置信度计算模型进行迭代寻优,得到最佳加权系统组合。
(5)对未知水中目标辐射噪声数据进行识别,基本过程如下:
(5.1)对水中目标辐射噪声数据进行预处理,生成若干帧MFCC谱图和GFCC谱图样本。
(5.2)基于面向MFCC谱图识别的深层网络模型和面向GFCC谱图识别的深层网络模型分别对MFCC谱图和GFCC谱图进行处理,生成各模型的置信度列表。
(5.3)通过对置信度列表进行加权融合判决,得到各帧谱图的识别结果。
(5.4)统计所有帧谱图的识别结果,输出最终的识别结果。
表1
表2
表1所示为二维卷积神经模型构建方案,包含了多个卷积层和基本卷积模块,其中处理类型里面的卷积对应的处理参数依次为卷积核尺寸、通道数量和步长,基本卷积模块对应的处理参数依次为模块数量、x、n和l,Type_num为待识别目标类别数量,下同。输入原始时频图像尺寸为48×48×1,通过一系列卷积层/模块处理后,输出尺寸为2×2×2048的卷积特征,基于全局平均池化层将卷积特征降维变为1×1×2048尺寸,最后添加Softmax分类器,输出分类置信度。
将两个深层网络模型输出的识别类型判别置信度进行决策级加权融合,对各模型加权系数进行优化,该问题为给定约束条件下的最优化问题,目标函数为最大化综合识别正确率,约束为各加权系统的取值区间,基于梯度下降算法对目标函数进行迭代寻优,实现加权系数优化。最后,输出各模型加权判决结果。
针对某三类水中目标噪声识别,基于以上方法进行识别,图6所示为某目标噪声听觉感知谱图,表2所示为多模型及联合判决识别正确率统计结果,可以看到,两个深层网络模型均可以有效分辨三类目标,而联合判决识别模型的总体识别效果最好,验证了上述方法的有效性。
可以理解的是,对本领域技术人员来说,对本发明的技术方案及发明构思加以等同替换或改变都应属于本发明所附的权利要求的保护范围。
Claims (2)
1.一种基于听觉感知特征深度学习的水声目标识别方法,其特征在于:首先对水中目标辐射噪声数据进行预处理,基于听觉感知方法,生成MFCC谱图和GFCC谱图作为深度学习处理对象,其次针对以上听觉感知谱图,分别构建深层网络模型进行处理,输出各类目标识别置信度;接着对多模型置信度结果进行加联合判决,基于梯度下降方法对实现加权系数,最后基于上述模型和准则实现未知目标噪声数据识别。
2.根据权利要求1所述的基于听觉感知特征深度学习的水声目标识别方法,其特征在于:该方法具体步骤如下:
(1)基于带标签水声目标噪声数据构建MFCC谱图和GFCC谱图样本集,基本过程如下:
(1.1)对水声目标噪声数据按分辨率需求进行分帧和加窗,形成标准长度的信号片段;
(1.2)构建MFCC谱图样本集,具体构建方式如下;
(1.2.1)对单帧信号进行快速傅里叶变换;
(1.2.2)设计Mel滤波器组,根据信号特点确定上限频率、下限频率、滤波器数量相关参数,形成滤波器组;
(1.2.3)对快速傅里叶变换后的频谱基于Mel滤波器组进行滤波;
(1.2.4)对Mel滤波器组输出的幅值作对数运算,得到频域输出的对数分布;
(1.2.5)对信号进行离散余弦变换,得到MFCC谱图;
(1.2.6)重复(1.2.1)~(1.2.5)过程,对其余信号帧进行处理,形成MFCC谱图样本集;
(1.2.7)基于随机不放回方式取样方式,对MFCC谱图样本集中的每类目标样本按一定比例划分为训练样本子集和交叉验证样本子集;
(1.3)构建GFCC谱图样本集,具体构建方式如下:
(1.3.1)对单帧信号进行快速傅里叶变换;
(1.3.2)设计Gammatone滤波器组,根据信号特点确定上限频率、下限频率、滤波器数量相关参数,形成滤波器组;
(1.3.3)对快速傅里叶变换后的频谱基于Gammatone滤波器组进行滤波;
(1.3.4)对Gammatone滤波器组输出的幅值作指数压缩,得到对数能量谱;
(1.3.5)对信号进行离散余弦变换,得到GFCC谱图;
(1.3.6)重复(1.3.1)~(1.3.5)过程,对其余信号帧进行处理,形成MFCC谱图样本集;
(1.3.7)基于随机不放回方式取样方式,对GFCC谱图样本集中的每类目标样本按一定比例划分为训练样本子集和交叉验证样本子集;
(2)基于TensorFlow框架构建用于目标噪声听觉感知谱图识别的深层网络模型,基本过程如下:
(2.1)构建基本卷积模块,具体构建方式如下:在数据输入层之后添加3个并行分支,分支1为直接分支,不添加任何操作;分支2包括4个卷积层,卷积层1参数为(1×1,x,1),即卷积核尺寸为1×1,卷积核数量可根据需求进行设定,卷积步长为1,表示方法下同;卷积层2~4的参数依次为(1×3,x,1),(3×1,2x,1)和(1×1,nx,1或2);分支2包括3个卷积层,各卷积层参数依次为(1×1,x,1),(3×3,x,1)和(1×1,nx,1或2);在3个并行分支之后添加网络整合层,实现卷积特征组合;
(2.2)构建面向MFCC谱图识别的深层网络模型,具体构建方式如下:
(2.2.1)添加数据输入层,输入数据尺寸为48×48×1;
(2.2.2)添加卷积层,参数为(5×5,64,2),各数字依次为卷积核尺寸、输出通道数量和步长值,下同;
(2.2.3)添加卷积层,参数为(3×3,64,2);
(2.2.4)添加基本卷积模块,参数为(2,64,4,1),各数字依次为模块数量、x值、n值和中间卷积层步长值,需设置的中间卷积层,下同;
(2.2.5)添加基本卷积模块,参数为(1,128,4,2);
(2.2.6)添加基本卷积模块,参数为(2,128,4,1);
(2.2.7)添加基本卷积模块,参数为(1,256,4,2);
(2.2.8)添加基本卷积模块,参数为(4,256,4,1);
(2.2.9)添加基本卷积模块,参数为(1,512,4,2);
(2.2.9)添加全局平均池化层;
(2.2.10)添加Softmax分类器;
(2.3)构建面向GFCC谱图识别的深层网络模型,具体构建方式参照步骤(2.2.1)~(2.2.10);
(3)对建立的深层网络模型进行训练,基本过程如下:
(3.1)对面向MFCC谱图识别的深层网络模型进行训练,基本过程如下:
(3.1.1)设定深层网络模型训练参数,包括学习率、优化器,损失函数设置为交叉熵函数;
(3.1.2)设定顺序取样轮次和随机放回取样次数;
(3.1.3)从MFCC谱图样本集的训练样本子集中按顺序取出一定数量样本;
(3.1.4)针对输入样本,对深层网络模型作前向计算,得到最后分类结果;
(3.1.5)基于梯度下降算法最小化分类结果与对应样本标签之间的误差;
(3.1.6)重复步骤(3.1.3)~(3.1.5),直至完成设定的循环取样轮次;
(3.1.7)从MFCC谱图样本集的训练样本子集中按随机放回方式取出一定数量样本;
(3.1.8)重复步骤(3.1.3)~(3.1.5),直至完成设定的随机放回取样次数;
(3.2)对面向GFCC谱图识别的深层网络模型进行训练,基本过程与面向MFCC谱图识别的深层网络模型训练方法相同;
(4)计算多深层网络模型融合判决系数,基本过程如下;
(4.1)基于面向MFCC谱图识别的深层网络模型对MFCC谱图样本集的交叉验证样本子集中的数据按次序进行处理,输出置信度,得到集合CMFCC(cMFCC,1,cMFCC,2,...,cMFCC,n),其中cMFCC,n表示第n类结果的置信度,下同;
(4.2)基于面向GFCC谱图识别的深层网络模型对GFCC谱图样本集的交叉验证样本子集中的数据按次序进行处理,输出置信度,得到集合CGFCC(cGFCC,1,cGFCC,2,...,cGFCC,n),其中cGFCC,n表示第n类结果的置信度,下同;
(4.3)构建融合判决置信度计算模型,综合置信度计算方法如下所示
其中,αn,βn分别为面向MFCC谱图识别的深层网络模型、面向GFCC谱图识别的深层网络模型对第n类目标分类置信度的加权系数,针对Cclass,n,取综合置信度最大值为识别类别;
(4.5)对建立的融合判决置信度计算模型进行迭代寻优,得到最佳加权系统组合;
(5)对未知水中目标辐射噪声数据进行识别,基本过程如下:
(5.1)对水中目标辐射噪声数据进行预处理,生成若干帧MFCC谱图和GFCC谱图样本;
(5.2)基于面向MFCC谱图识别的深层网络模型和面向GFCC谱图识别的深层网络模型分别对MFCC谱图和GFCC谱图进行处理,生成各模型的置信度列表;
(5.3)通过对置信度列表进行加权融合判决,得到各帧谱图的识别结果;
(5.4)统计所有帧谱图的识别结果,输出最终的识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011397588.0A CN113191178B (zh) | 2020-12-04 | 2020-12-04 | 一种基于听觉感知特征深度学习的水声目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011397588.0A CN113191178B (zh) | 2020-12-04 | 2020-12-04 | 一种基于听觉感知特征深度学习的水声目标识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113191178A true CN113191178A (zh) | 2021-07-30 |
CN113191178B CN113191178B (zh) | 2022-10-21 |
Family
ID=76972795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011397588.0A Active CN113191178B (zh) | 2020-12-04 | 2020-12-04 | 一种基于听觉感知特征深度学习的水声目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113191178B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114343640A (zh) * | 2022-01-07 | 2022-04-15 | 北京师范大学 | 注意力评估方法及电子设备 |
CN114398925A (zh) * | 2021-12-31 | 2022-04-26 | 厦门大学 | 一种基于多特征的舰船辐射噪声样本长度选取方法与系统 |
CN114636995A (zh) * | 2022-03-16 | 2022-06-17 | 中国水产科学研究院珠江水产研究所 | 一种基于深度学习的水声信号检测方法及系统 |
CN116647376A (zh) * | 2023-05-25 | 2023-08-25 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于声纹信息的水声网络节点身份认证方法 |
CN117711423A (zh) * | 2024-02-05 | 2024-03-15 | 西北工业大学 | 联合听觉场景分析与深度学习的混合水声信号分离方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106250848A (zh) * | 2016-07-29 | 2016-12-21 | 西北工业大学 | 一种基于多模型融合的单类水声目标识别方法 |
CN109800700A (zh) * | 2019-01-15 | 2019-05-24 | 哈尔滨工程大学 | 一种基于深度学习的水下声信号目标分类识别方法 |
US20190266998A1 (en) * | 2017-06-12 | 2019-08-29 | Ping An Technology(Shenzhen) Co., Ltd. | Speech recognition method and device, computer device and storage medium |
CN110807365A (zh) * | 2019-09-29 | 2020-02-18 | 浙江大学 | 一种基于gru与一维cnn神经网络融合的水下目标识别方法 |
CN111723701A (zh) * | 2020-06-08 | 2020-09-29 | 西安交通大学 | 一种水中目标识别方法 |
-
2020
- 2020-12-04 CN CN202011397588.0A patent/CN113191178B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106250848A (zh) * | 2016-07-29 | 2016-12-21 | 西北工业大学 | 一种基于多模型融合的单类水声目标识别方法 |
US20190266998A1 (en) * | 2017-06-12 | 2019-08-29 | Ping An Technology(Shenzhen) Co., Ltd. | Speech recognition method and device, computer device and storage medium |
CN109800700A (zh) * | 2019-01-15 | 2019-05-24 | 哈尔滨工程大学 | 一种基于深度学习的水下声信号目标分类识别方法 |
CN110807365A (zh) * | 2019-09-29 | 2020-02-18 | 浙江大学 | 一种基于gru与一维cnn神经网络融合的水下目标识别方法 |
CN111723701A (zh) * | 2020-06-08 | 2020-09-29 | 西安交通大学 | 一种水中目标识别方法 |
Non-Patent Citations (1)
Title |
---|
程锦盛等: "采用深度学习方法的水下目标听觉特征提取与识别技术研究", 《2018年全国声学大会论文集》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114398925A (zh) * | 2021-12-31 | 2022-04-26 | 厦门大学 | 一种基于多特征的舰船辐射噪声样本长度选取方法与系统 |
CN114343640A (zh) * | 2022-01-07 | 2022-04-15 | 北京师范大学 | 注意力评估方法及电子设备 |
CN114343640B (zh) * | 2022-01-07 | 2023-10-13 | 北京师范大学 | 注意力评估方法及电子设备 |
CN114636995A (zh) * | 2022-03-16 | 2022-06-17 | 中国水产科学研究院珠江水产研究所 | 一种基于深度学习的水声信号检测方法及系统 |
CN116647376A (zh) * | 2023-05-25 | 2023-08-25 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于声纹信息的水声网络节点身份认证方法 |
CN116647376B (zh) * | 2023-05-25 | 2024-01-26 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于声纹信息的水声网络节点身份认证方法 |
CN117711423A (zh) * | 2024-02-05 | 2024-03-15 | 西北工业大学 | 联合听觉场景分析与深度学习的混合水声信号分离方法 |
CN117711423B (zh) * | 2024-02-05 | 2024-05-10 | 西北工业大学 | 联合听觉场景分析与深度学习的混合水声信号分离方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113191178B (zh) | 2022-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113191178B (zh) | 一种基于听觉感知特征深度学习的水声目标识别方法 | |
CN110245608B (zh) | 一种基于半张量积神经网络的水下目标识别方法 | |
CN109841226A (zh) | 一种基于卷积递归神经网络的单通道实时降噪方法 | |
CN110751044B (zh) | 基于深度网络迁移特征与增广自编码的城市噪声识别方法 | |
CN108447495B (zh) | 一种基于综合特征集的深度学习语音增强方法 | |
CN109859767A (zh) | 一种用于数字助听器的环境自适应神经网络降噪方法、系统及存储介质 | |
CN109785852A (zh) | 一种增强说话人语音的方法及系统 | |
CN108922513A (zh) | 语音区分方法、装置、计算机设备及存储介质 | |
CN111341319B (zh) | 一种基于局部纹理特征的音频场景识别方法及系统 | |
CN117095694B (zh) | 一种基于标签层级结构属性关系的鸟类鸣声识别方法 | |
WO2019232833A1 (zh) | 语音区分方法、装置、计算机设备及存储介质 | |
CN112183107A (zh) | 音频的处理方法和装置 | |
CN112183582A (zh) | 一种多特征融合的水下目标识别方法 | |
CN116013276A (zh) | 一种基于轻量化ecapa-tdnn神经网络的室内环境音自动分类方法 | |
Fan et al. | Utterance-level permutation invariant training with discriminative learning for single channel speech separation | |
CN113129908B (zh) | 基于循环帧级特征融合的端到端猕猴声纹验证方法及系统 | |
Xu et al. | Self-supervised learning–based underwater acoustical signal classification via mask modeling | |
CN111785262B (zh) | 一种基于残差网络及融合特征的说话人年龄性别分类方法 | |
CN117310668A (zh) | 融合注意力机制与深度残差收缩网络的水声目标识别方法 | |
CN110580915B (zh) | 基于可穿戴式设备的声源目标识别系统 | |
CN110444225B (zh) | 基于特征融合网络的声源目标识别方法 | |
CN110136741B (zh) | 一种基于多尺度上下文的单通道语音增强方法 | |
CN113488069B (zh) | 基于生成式对抗网络的语音高维特征快速提取方法和装置 | |
CN116417011A (zh) | 基于特征融合和残差cnn的水声目标识别方法 | |
Tan et al. | Multichannel noise reduction using dilated multichannel U-net and pre-trained single-channel network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |