CN112786072A - 基于螺旋桨辐射噪声的船舶分类识别方法 - Google Patents
基于螺旋桨辐射噪声的船舶分类识别方法 Download PDFInfo
- Publication number
- CN112786072A CN112786072A CN202110020036.6A CN202110020036A CN112786072A CN 112786072 A CN112786072 A CN 112786072A CN 202110020036 A CN202110020036 A CN 202110020036A CN 112786072 A CN112786072 A CN 112786072A
- Authority
- CN
- China
- Prior art keywords
- propeller
- radiation noise
- noise
- signal
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000005855 radiation Effects 0.000 title claims abstract description 90
- 238000000034 method Methods 0.000 title claims abstract description 44
- 239000011159 matrix material Substances 0.000 claims abstract description 17
- 230000006870 function Effects 0.000 claims abstract description 15
- 238000012545 processing Methods 0.000 claims abstract description 14
- 238000000605 extraction Methods 0.000 claims abstract description 11
- 230000007246 mechanism Effects 0.000 claims abstract description 11
- 230000002708 enhancing effect Effects 0.000 claims abstract description 7
- 238000013528 artificial neural network Methods 0.000 claims abstract description 6
- 238000001228 spectrum Methods 0.000 claims description 44
- 238000011176 pooling Methods 0.000 claims description 16
- 238000000354 decomposition reaction Methods 0.000 claims description 11
- 230000003068 static effect Effects 0.000 claims description 10
- 230000005284 excitation Effects 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 230000009467 reduction Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 239000000654 additive Substances 0.000 claims description 3
- 230000000996 additive effect Effects 0.000 claims description 3
- 125000004432 carbon atom Chemical group C* 0.000 claims description 3
- 230000006835 compression Effects 0.000 claims description 3
- 238000007906 compression Methods 0.000 claims description 3
- 230000002596 correlated effect Effects 0.000 claims description 3
- 230000000875 corresponding effect Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 abstract description 5
- 230000000694 effects Effects 0.000 abstract description 4
- 230000009286 beneficial effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000011410 subtraction method Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/02—Preprocessing
- G06F2218/04—Denoising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Quality & Reliability (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Abstract
本发明提出了一种基于螺旋桨辐射噪声的船舶分类识别方法,包括3个步骤。步骤一:将收集到的螺旋桨辐射噪声信号进行增强处理,以减少其他噪声的干扰,增强辐射噪声信号的被动识别能力。步骤二:采用改进的MFCC对增强后的辐射噪声进行特征提取。步骤三:将提取到的特征矩阵送入到基于注意力机制的全序列深度卷积神经网络进行船舶分类识别。通过对螺旋桨辐射噪声进行增强,可以减少其他噪声的干扰,以增强螺旋桨辐射信号的被动识别能力。改进的MFCC能够生成多个本征模函数,在特征提取方面有着更好的效果,有助于提高识别率。采用卷积神经网络分类的方法,使网络充分关注重点信息,从而降低分类误差,提高整个系统的识别准确率。
Description
技术领域
本发明涉及船舶目标识别,更具体地,具体涉及基于螺旋桨辐射噪声的船舶分类识别方法。
背景技术
“海洋强国”战略的提出,为我们海洋发展指明了前进方向,加强船舶识别是一个具有军事价值和经济价值的研究方向。在船舶识别方面,应用范围最广、影响最大的船舶自动识别系统(Automatic Identification System,AIS),AIS极大地减少了海洋事故的发生。但AIS有时很难全方位地分析是否本船具有威胁,另外AIS只能处理共享目标,潜在目标不能实现信息的互联互通。在大洋上的各种目标识别中,水声信号一直是研究的重点,而船舶的螺旋桨辐射噪声包含了丰富的船舶目标信息,在船舶目标的分类识别中发挥着重要作用。基于螺旋桨辐射噪声的船舶目标识别的过程大体包括:(1)噪声数据的获取与处理;(2)特征提取;(3)分类器的设计与识别。随着硬件探测设备的升级,关于螺旋桨辐射噪声的收集已经基本得到解决,但对于特征提取以及分类方法还处于研究阶段。传统的方法主要是提取螺旋桨辐射噪声的特征后,将其送入到SVM等分类器进行分类识别,在早期能够实现较好的效果。但随着需求的不断提高,传统的方法开始出现识别率和可靠性不高的情况,主要原因如下:
1.由于海洋环境的复杂性和水声传播通道的特殊性,收集的辐射噪声中仍存在很多其他干扰噪声;
2.传统的特征提取方法无法将螺旋桨噪声信号有效地提取,因此在分类识别方面不能达到良好的效果;
3.传统的分类器存在很多局限性,在分类精度方面无法达到理想的效果。
随着深度学习的发展,各国学者将神经网络运用到船舶分类识别领域,通过采集螺旋桨辐射的噪声信号,对信号进行处理后利用前馈神经网络进行识别。这类方法识别率有所提升,但仍然存在鲁棒性不强的缺陷,需要进一步研究。
发明内容
本发明的目的在于克服以上缺点,提供一种多基于螺旋桨辐射噪声的船舶分类识别方法。本发明通过以下技术方案来达成以上目的:
1、提出一种对螺旋桨辐射噪声进行增强的预处理方法。螺旋桨辐射噪声信号利用水听器进行采集,存在很多无关的噪声。本发明采用谱减法(Spectral Subtraction,SS)对信号增强,以减少其他噪声的干扰,增强辐射噪声信号的被动识别能力,可以有效的提高了船舶的识别率。
2、提出一种新的特征提取方式——EMD-MFCC。传统的梅尔频率倒谱系数法(Mel-Frequency Cepstral Coefficients,MFCC)在处理音频信号时具有单一性,可能会导致部分信息有所损失,影响最终的分类准确性。本发明采用EMD分解对传统的MFCC进行改进,得到多个本征模函数(IMF),然后分别对螺旋桨辐射噪声进行特征提取,结合卷积神经网络实现船舶种类的识别。
3、提出一种基于注意力机制的深度全序列卷积神经网络。深度全序列卷积神经网络(Deep Fully Convolutional Neural Network,DFCNN)是一种性能优秀的声音识别框架,使用大量的卷积层直接对声音信号进行建模,更好地表达了声音的长时相关性。本发明在该网络中引入注意力机制模块,使网络能够忽略无关或者作用小的特征而更多地关注重点特征,从而加强整个系统对船舶的分类识别能力。具体地,本发明详细的技术方案如下:
一种基于螺旋桨辐射噪声的船舶分类识别方法,包含以下步骤:步骤一:将收集到的螺旋桨辐射噪声信号进行增强处理,以减少其他噪声的干扰,增强辐射噪声信号的被动识别能力。具体包括以下步骤:
(1)将带噪声的螺旋桨辐射噪声时域信号转换到频域,计算其功率谱,并利用噪声估计算法得到螺旋桨辐射噪声的功率谱;
(2)利用带噪的螺旋桨辐射信号的功率谱与噪声功率谱相减,从而得到只含有螺旋桨辐射噪声信号的功率谱,并对其开方,从而得到增强后的螺旋桨辐射信号的谱估计;
(3)最后直接提取螺旋桨辐射噪声带噪信号的相位,恢复其相位,并采用傅里叶变换恢复时域信号,得到增强后的螺旋桨辐射噪声。
设带噪的螺旋桨辐射噪声信号为x(n),螺旋桨辐射噪声信号为s(n),噪声信号为n(n),且为平稳加性高斯白噪声,x(n)和n(n)是统计独立的、零均值,它满足:
x(n)=s(n)+n(n) (1)
其中,n代表采样的时间标号,且1≤n≤K,K为信号帧长,帧号为l,总帧为L,且l=1,...,L。
设x(n)的傅里叶变换为Xk=|Xk|exp(jθk)、纯净的桨叶噪声为Sk=|Sk|exp(jαk)、噪声n(n)的傅里叶变换为Nk,并假设各个傅里叶系数之间互不相关,由式(1)可得到带噪声的螺旋桨噪声功率谱为:
|Xk|2=|Sk|2+|Nk|2+Sk *Nk+SkNk * (2)
由于s(n)和x(n)相互独立,Nk是均值为零的高斯分布,对式(2)求数字期望后变为:
E||Xk|2|=E||Sk|2|+E||Nk|2| (3)
由于对一个信号进行分析的前提是进行加窗处理,所以对于螺旋桨辐射噪声信号的帧内平稳信号可以表示为:
步骤二:采用改进的MFCC对增强后的辐射噪声进行特征提取。具体包括以下步骤:
(3)对每个IMF分量做FFT变换,送入到Mel滤波器组计算其能量谱;
(4)对能量谱取对数能量后经过DCT得到静态MFCC;
(5)静态MFCC通过差分变换得到动态MFCC;
(6)静态MFCC与动态MFCC结合得到改进的MFCC。
在步骤(2)EMD分解中,包含以下步骤:
1)首先确定螺旋桨辐射噪声信号x(n)中的局部最大值和最小值点;
2)采用三次样条插值法拟合上下包络线;
3)求各包络线均值m(n),并计算其差h(n)=x(n)-m(n);
4)判断IMF是否满足上述两个条件,如符合,输出分量h(n),不符合则将差值h(n)作为输入,重复以上三个步骤,直到获取所有IMF分量并输出。
步骤三:将提取到的特征矩阵送入到基于注意力机制的全序列深度卷积神经网络进行船舶分类识别。
在步骤三中,为了使网络能够更好区分船舶类别,引入一个注意力机制模块SE-Net模块,实现对重点信息的关注而忽略无关信息。具体包含以下步骤:
(1)其中卷积层实现对音频特征的进一步提取,利用卷积核对输入的特征矩阵进行卷积运算,获取特征中的深层信息,实现特征的选择;
(2)经过卷积层处理后的特征矩阵进入池化层,池化层能够实现特征降维,将卷积得到的特征点进行整合,压缩数据,实现信息过滤。
(3)卷积池化后的特征信息输入到SE-Net模块,增强重要特征的学习,得到更具代表性的特征信息;
(4)将第(3)步的特征矩阵送入到全连接层,连接经过处理后的所有特征,通过Softmax函数得到最终的输出,实现船舶的分类。在步骤(3)SE-Net模块中,主要分成三步:用于全局信息嵌入的Squeeze部分、负责自适应重新校准的Excitation部分和将权重融合进原特征层的Scale层,具体如下:
1)首先根据空间维度进行特征压缩,将每个二维的特征通道变成一个实数,这个实数则携带着全局的信息,并且输出和输入的维度相匹配。他表征着在特征通道上相应的全局分布,而且使得靠近输入的层也可以获得全局信息,此部分的操作由全局平均池化操作完成,公式如下:
其中uc表示U中第c个二维矩阵,下表c表示其中的通道。
2)Excitation操作,目的是比较全面地获取通道级别的依赖。该操作包括两个全连接层和Sigmoid激活函数。全连接层能够很好的融合全部的输入特征信息,而Sigmoid函数也能够很好的将输入映射到0~1区间。该操作的公式如下:
s=Fex(z,W)=σ(g(z,W))=σ(W2δ(W1z)) (7)
其中z为Squeeze操作获得的全局描述,δ表示ReLU函数,保证输出为正,W1,W2为两个全连接层,
3)融合操作,经过上述Excitation之后,就获得了输入特征图U的各个通道的权重,然后将权重和原始的特征融合,公式如下:
附图说明
图1是本发明基于螺旋桨辐射噪声的船舶分类识别方法的流程图;
图2是本发明基于螺旋桨辐射噪声的船舶分类识别方法的谱减法原理图;
图3是本发明基于螺旋桨辐射噪声的船舶分类识别方法的EMD分解流程图;
图4是本发明基于螺旋桨辐射噪声的船舶分类识别方法的改进后的MFCC计算过程图;
图5是本发明基于螺旋桨辐射噪声的船舶分类识别方法的注意力机制DFCNN网络示意图;
图6是本发明基于螺旋桨辐射噪声的船舶分类识别方法的SE-Net模块结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明基于螺旋桨辐射噪声的船舶分类识别方法,的流程图,如
图1所示,包含以下步骤:
步骤一:将收集到的螺旋桨辐射噪声信号进行增强处理,以减少其他噪声的干扰,增强辐射噪声信号的被动识别能力。具体包括以下步骤:
(1)将带噪声的螺旋桨辐射噪声时域信号转换到频域,计算其功率谱,并利用噪声估计算法得到螺旋桨辐射噪声的功率谱。
(2)利用带噪的螺旋桨辐射信号的功率谱与噪声功率谱相减,从而得到只含有螺旋桨辐射噪声信号的功率谱,并对其开方,从而得到增强后的螺旋桨辐射信号的谱估计;本发明谱减法原理图如图2所示;本发明采用谱减法(Spectral Subtraction,SS)对螺旋桨辐射噪声信号做增强处理,目的是减少其他噪声的干扰,提高识别率。其基本原理是:将带噪声的螺旋桨辐射噪声时域信号转换到频域,计算其功率谱,并利用噪声估计算法得到船舶辐射噪声的功率谱;其次利用带噪的螺旋桨辐射信号的功率谱与噪声功率谱相减,从而得到只含有螺旋桨辐射噪声信号的功率谱,并对其开方,从而得到增强后的螺旋桨辐射信号的谱估计;最后直接提取螺旋桨辐射噪声带噪信号的相位,恢复其相位,并采用傅里叶变换恢复时域信号,得到增强后的螺旋桨辐射噪声。
(3)最后直接提取螺旋桨辐射噪声带噪信号的相位,恢复其相位,并采用傅里叶变换恢复时域信号,得到增强后的螺旋桨辐射噪声。
设带噪的螺旋桨辐射噪声信号为x(n),螺旋桨辐射噪声信号为s(n),噪声信号为n(n),且为平稳加性高斯白噪声,x(n)和n(n)是统计独立的、零均值,它满足:
x(n)=s(n)+n(n) (1)
其中,n代表采样的时间标号,且1≤n≤K,K为信号帧长,帧号为l,总帧为L,且l=1,...,L。
设x(n)的傅里叶变换为Xk=|Xk|exp(jθk)、纯净的桨叶噪声为Sk=|Sk|exp(jαk)、噪声n(n)的傅里叶变换为Nk,并假设各个傅里叶系数之间互不相关,由式(1)可得到带噪声的螺旋桨噪声功率谱为:
|Xk|2=|Sk|2+|Nk|2+Sk *Nk+SkNk * (2)
由于s(n)和x(n)相互独立,Nk是均值为零的高斯分布,对式(2)求数字期望后变为:
E||Xk|2|=E||Sk|2|+E||Nk|2| (3)
由于对一个信号进行分析的前提是进行加窗处理,所以对于螺旋桨辐射噪声信号的帧内平稳信号可以表示为:
步骤二:采用改进的MFCC对增强后的辐射噪声进行特征提取。具体包括以下步骤:
(3)对每个IMF分量做FFT变换,送入到Mel滤波器组计算其能量谱;
(4)对能量谱取对数能量后经过DCT得到静态MFCC;
(5)静态MFCC通过差分变换得到动态MFCC;
(6)静态MFCC与动态MFCC结合得到改进的MFCC。
步骤(2)EMD分解的流程图如图3所示。传统的音频信号特征提取直接运用FFT进行处理,但在处理非平稳信号的时候存在局限性,本发明采用EMD改进MFCC算法。改进后的MFCC计算过程图如图4所示。在增强处理与FFT之间加入EMD分解,得到多个IMF分量,然后对每个分量IMF做FFT变换,并计算其能量谱,并在最后将静态MFCC与动态MFCC结合,得到改进后的MFCC。采用EMD分解的主要目的是要得到本征模函数(Intrinsic Mode Function,IMF)分量,根据其分量可以得到多个螺旋桨辐射噪声的变化情况。EMD分解包含以下步骤:
1)首先确定螺旋桨辐射噪声信号x(n)中的局部最大值和最小值点;
2)采用三次样条插值法拟合上下包络线;
3)求各包络线均值m(n),并计算其差h(n)=x(n)-m(n);
4)判断IMF是否满足上述两个条件,如符合,输出分量h(n),不符合则将差值h(n)作为输入,重复以上三个步骤,直到获取所有IMF分量并输出。
步骤三:将提取到的特征矩阵送入到基于注意力机制的全序列深度卷积神经网络进行船舶分类识别。
在步骤三中,为了使网络能够更好区分船舶类别,引入一个注意力机制模块SE-Net模块,实现对重点信息的关注而忽略无关信息。注意力机制DFCNN网络示意图如图5所示。基于注意力机制的深度全序列卷积神经网络主要由卷积层、池化层、SE-Net模块和全连接层构成。卷积层实现对音频特征的进一步提取,获取特征中的深层信息,实现特征的选择;池化层能够实现特征降维,将卷积得到的特征点进行整合,压缩数据,实现信息过滤;卷积池化后的特征信息输入到SE-Net模块,增强重要特征的学习;最后将特征矩阵送入到全连接层,连接经过处理后的所有特征,通过Softmax函数得到最终的输出,实现船舶的分类识别。SE-Net模块结构示意图如图6所示。SE-Net模块由三部分组成,分别为Squeeze操作、Excitation操作和融合操作。Squeeze操作利用全局的池化,将大小为C×H×W的输入特征综合为C×1×1的特征描述;全局描述并不能作为该通道的权重,利用Excitation操作获取到通道级别的依赖,同时满足灵活和能够学习非互斥强调的能力;经过Excitation后就获得了输入特征图U的各个通道的权重,利用融合操作将权重和原始的特征融合,得到新的特征图。具体包含以下步骤:
(1)其中卷积层实现对音频特征的进一步提取,利用卷积核对输入的特征矩阵进行卷积运算,获取特征中的深层信息,实现特征的选择;
(2)经过卷积层处理后的特征矩阵进入池化层,池化层能够实现特征降维,将卷积得到的特征点进行整合,压缩数据,实现信息过滤。
(3)卷积池化后的特征信息输入到SE-Net模块,增强重要特征的学习,得到更具代表性的特征信息;
(4)将第(3)步的特征矩阵送入到全连接层,连接经过处理后的所有特征,通过Softmax函数得到最终的输出,实现船舶的分类。在步骤(3)SE-Net模块中,主要分成三步:用于全局信息嵌入的Squeeze部分、负责自适应重新校准的Excitation部分和将权重融合进原特征层的Scale层,具体如下:
1)首先根据空间维度进行特征压缩,将每个二维的特征通道变成一个实数,这个实数则携带着全局的信息,并且输出和输入的维度相匹配。他表征着在特征通道上相应的全局分布,而且使得靠近输入的层也可以获得全局信息,此部分的操作由全局平均池化操作完成,公式如下:
其中uc表示U中第c个二维矩阵,下表c表示其中的通道。
2)Excitation操作,目的是比较全面地获取通道级别的依赖。该操作包括两个全连接层和Sigmoid激活函数。全连接层能够很好的融合全部的输入特征信息,而Sigmoid函数也能够很好的将输入映射到0~1区间。该操作的公式如下:
s=Fex(z,W)=σ(g(z,W))=σ(W2δ(W1z)) (7)
其中z为Squeeze操作获得的全局描述,δ表示ReLU函数,保证输出为正,W1,W2为两个全连接层,
3)融合操作,经过上述Excitation之后,就获得了输入特征图U的各个通道的权重,然后将权重和原始的特征融合,公式如下:
Claims (1)
1.一种基于螺旋桨辐射噪声的船舶分类识别方法,其特征在于,包含以下步骤:
步骤一:将收集到的螺旋桨辐射噪声信号进行增强处理,以减少其他噪声的干扰,增强辐射噪声信号的被动识别能力;具体包括以下步骤:
(1)将带噪声的螺旋桨辐射噪声时域信号转换到频域,计算其功率谱,并利用噪声估计算法得到螺旋桨辐射噪声的功率谱;
(2)利用带噪的螺旋桨辐射信号的功率谱与噪声功率谱相减,从而得到只含有螺旋桨辐射噪声信号的功率谱,并对其开方,从而得到增强后的螺旋桨辐射信号的谱估计;
(3)最后直接提取螺旋桨辐射噪声带噪信号的相位,恢复其相位,并采用傅里叶变换恢复时域信号,得到增强后的螺旋桨辐射噪声;设带噪的螺旋桨辐射噪声信号为x(n),螺旋桨辐射噪声信号为s(n),噪声信号为n(n),且为平稳加性高斯白噪声,x(n)和n(n)是统计独立的、零均值,它满足:
x(n)=s(n)+n(n) (1)
其中,n代表采样的时间标号,且1≤n≤K,K为信号帧长,帧号为l,总帧为L,且l=1,...,L;
设x(n)的傅里叶变换为Xk=|Xk|exp(jθk)、纯净的桨叶噪声为Sk=|Sk|exp(jαk)、噪声n(n)的傅里叶变换为Nk,并假设各个傅里叶系数之间互不相关,由式(1)可得到带噪声的螺旋桨噪声功率谱为:
|Xk|2=|Sk|2+|Nk|2+Sk *Nk+SkNk * (2)
由于s(n)和x(n)相互独立,Nk是均值为零的高斯分布,对式(2)求数字期望后变为:
E||Xk|2|=E||Sk|2|+E||Nk|2| (3)
由于对一个信号进行分析的前提是进行加窗处理,所以对于螺旋桨辐射噪声信号的帧内平稳信号可以表示为:
步骤二:采用改进的MFCC对增强后的辐射噪声进行特征提取;具体包括以下步骤:
(3)对每个IMF分量做FFT变换,送入到Mel滤波器组计算其能量谱;
(4)对能量谱取对数能量后经过DCT得到静态MFCC;
(5)静态MFCC通过差分变换得到动态MFCC;
(6)静态MFCC与动态MFCC结合得到改进的MFCC;
步骤(2)EMD分解包括以下步骤:
1)首先确定螺旋桨辐射噪声信号x(n)中的局部最大值和最小值点;
2)采用三次样条插值法拟合上下包络线;
3)求各包络线均值m(n),并计算其差h(n)=x(n)-m(n);
4)判断IMF是否满足上述两个条件,如符合,输出分量h(n),不符合则将差值h(n)作为输入,重复步骤2)-4),直到获取所有IMF分量并输出;
步骤三:将提取到的特征矩阵送入到基于注意力机制的全序列深度卷积神经网络进行船舶分类识别;首先引入一个注意力机制模块SE-Net模块,实现对重点信息的关注而忽略无关信息;具体包含以下步骤:
(1)其中卷积层实现对音频特征的进一步提取,利用卷积核对输入的特征矩阵进行卷积运算,获取特征中的深层信息,实现特征的选择;
(2)经过卷积层处理后的特征矩阵进入池化层,池化层能够实现特征降维,将卷积得到的特征点进行整合,压缩数据,实现信息过滤;
(3)卷积池化后的特征信息输入到SE-Net模块,增强重要特征的学习,得到更具代表性的特征信息;
(4)将步骤(3)的特征矩阵送入到全连接层,连接经过处理后的所有特征,通过Softmax函数得到最终的输出,实现船舶的分类;
SE-Net模块中,主要分成三步:用于全局信息嵌入的Squeeze部分、负责自适应重新校准的Excitation部分和将权重融合进原特征层的Scale层,具体如下:
1)首先根据空间维度进行特征压缩,将每个二维的特征通道变成一个实数,这个实数则携带着全局的信息,并且输出和输入的维度相匹配;所述实数表征着在特征通道上相应的全局分布,而且使得靠近输入的层也可以获得全局信息,此部分的操作由全局平均池化操作完成,公式如下:
其中uc表示U中第c个二维矩阵,下表c表示其中的通道;
2)Excitation操作,包括两个全连接层和Sigmoid激活函数;Excitation操作的公式如下:
s=Fex(z,W)=σ(g(z,W))=σ(W2δ(W1z)) (7)
3)融合操作,经过上述Excitation操作之后,就获得了输入特征图U的各个通道的权重,然后将权重和原始的特征融合,公式如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110020036.6A CN112786072A (zh) | 2021-01-07 | 2021-01-07 | 基于螺旋桨辐射噪声的船舶分类识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110020036.6A CN112786072A (zh) | 2021-01-07 | 2021-01-07 | 基于螺旋桨辐射噪声的船舶分类识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112786072A true CN112786072A (zh) | 2021-05-11 |
Family
ID=75756061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110020036.6A Withdrawn CN112786072A (zh) | 2021-01-07 | 2021-01-07 | 基于螺旋桨辐射噪声的船舶分类识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112786072A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114884783A (zh) * | 2022-05-07 | 2022-08-09 | 重庆邮电大学 | 一种利用神经网络进行电力线系信道估计的方法 |
GB2607290A (en) * | 2021-05-28 | 2022-12-07 | Bae Systems Plc | Apparatus and method of classification |
-
2021
- 2021-01-07 CN CN202110020036.6A patent/CN112786072A/zh not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2607290A (en) * | 2021-05-28 | 2022-12-07 | Bae Systems Plc | Apparatus and method of classification |
CN114884783A (zh) * | 2022-05-07 | 2022-08-09 | 重庆邮电大学 | 一种利用神经网络进行电力线系信道估计的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109841226B (zh) | 一种基于卷积递归神经网络的单通道实时降噪方法 | |
CN105976809B (zh) | 基于语音和面部表情的双模态情感融合的识别方法及系统 | |
CN109147763B (zh) | 一种基于神经网络和逆熵加权的音视频关键词识别方法和装置 | |
CN110867181A (zh) | 基于scnn和tcnn联合估计的多目标语音增强方法 | |
Shi et al. | Deep Attention Gated Dilated Temporal Convolutional Networks with Intra-Parallel Convolutional Modules for End-to-End Monaural Speech Separation. | |
CN112017682B (zh) | 一种单通道语音同时降噪和去混响系统 | |
CN112786072A (zh) | 基于螺旋桨辐射噪声的船舶分类识别方法 | |
CN113077806B (zh) | 音频处理方法及装置、模型训练方法及装置、介质和设备 | |
CN111899750B (zh) | 联合耳蜗语音特征和跳变深层神经网络的语音增强算法 | |
Fujimoto et al. | Noisy speech recognition using noise reduction method based on Kalman filter | |
CN112183582A (zh) | 一种多特征融合的水下目标识别方法 | |
Liu et al. | Underwater acoustic target recognition based on dual attention networks and multiresolution convolutional neural networks | |
CN113782044B (zh) | 一种语音增强方法及装置 | |
Abdulatif et al. | Investigating cross-domain losses for speech enhancement | |
CN114065809A (zh) | 一种乘用车异响识别方法、装置、电子设备以及存储介质 | |
CN117310668A (zh) | 融合注意力机制与深度残差收缩网络的水声目标识别方法 | |
Ju et al. | A new low SNR underwater acoustic signal classification method based on intrinsic modal features maintaining dimensionality reduction | |
CN109741733B (zh) | 基于一致性路由网络的语音音素识别方法 | |
CN116417011A (zh) | 基于特征融合和残差cnn的水声目标识别方法 | |
Xie et al. | Data augmentation and deep neural network classification based on ship radiated noise | |
CN113808604B (zh) | 基于伽马通频谱分离的声场景分类方法 | |
CN116665681A (zh) | 一种基于组合滤波的雷声识别方法 | |
CN115267672A (zh) | 声源检测和定位的方法 | |
Lan et al. | Multi-scale informative perceptual network for monaural speech enhancement | |
CN115064182A (zh) | 自适应梅尔滤波器在强噪声环境下风机故障特征识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210511 |