CN112086100B - 基于量化误差熵的多层随机神经网络的城市噪音识别方法 - Google Patents
基于量化误差熵的多层随机神经网络的城市噪音识别方法 Download PDFInfo
- Publication number
- CN112086100B CN112086100B CN202010824747.4A CN202010824747A CN112086100B CN 112086100 B CN112086100 B CN 112086100B CN 202010824747 A CN202010824747 A CN 202010824747A CN 112086100 B CN112086100 B CN 112086100B
- Authority
- CN
- China
- Prior art keywords
- data
- neural network
- error
- multilayer
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000013139 quantization Methods 0.000 title claims abstract description 35
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 33
- 238000012545 processing Methods 0.000 claims abstract description 11
- 230000005236 sound signal Effects 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 20
- 238000013530 stochastic neural network Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 4
- 238000011002 quantification Methods 0.000 claims description 4
- 230000003595 spectral effect Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 238000009795 derivation Methods 0.000 claims description 2
- 238000002474 experimental method Methods 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 238000003801 milling Methods 0.000 claims description 2
- 230000004044 response Effects 0.000 claims description 2
- 238000001228 spectrum Methods 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 230000009191 jumping Effects 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 abstract description 5
- 238000004364 calculation method Methods 0.000 abstract description 5
- 238000004891 communication Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000011089 mechanical engineering Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/45—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of analysis window
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明公开了一种基于量化误差熵的多层随机神经网络的城市噪音识别方法。本发明步骤:1.对采集到的声音信号进行处理,然后进行特征提取,建立声音数据库。2.将最小量化误差熵引入到多层随机神经网络的编码器中,作为编码器输出权重的训练准则,学习数据中的特征。3.确定多层随机神经网络的网络结构和参数,将建立的声音数据库中的数据作为多层随神经网络的训练数据。4.引入非高斯噪声模型。5.生成非高斯噪声数据,加入到原始数据中,然后放入模型中进行训练。本发明采用了算法简单、无需反向迭代、计算速度快,泛化能力强的随机神经网络框架,并在模型的编码层加入QMEE算法作为编码层的训练准则,提高了噪音识别更准确。
Description
技术领域
本发明涉及一种基于量化误差熵的城市噪音识别方法,涉及信号处理、语音识别、模式识别、信息熵、误差熵以及随机神经网络等多种技术领域。
背景技术
随着中国社会经济的快速发展,城市化进程不断加速,在城市化建设的施工过程中产生了大量的噪声,其对居民的日常生活、学习以及身体健康造成较大程度的影响,对噪音的投诉问题也越来越频繁,直接或间接的影响了社会的安定与秩序,因此噪音的识别和管理显得越来越重要。现代技术的发展使得与环境和机械工程施工有关的声学信号可以被收集,人们希望通过信息科学和人工智能等领域的技术能够对环境声音进行有效的识别。在城市噪音识别的过程中通常会考虑到干扰声音的影响,但却很少考虑采集设备中噪音的存在。在数据在采集的过程中,电子元器件会受到电视广播发射器、雷达和无线通讯等设备所产生的电磁脉冲辐射的影响,同时传感器等电子元器件在开关状态切换的时候会产生短时脉冲,加上环境噪音、工频干扰、现场温度变化导致的零点漂移等因素会让采集得到的数据中包含诸多非高斯噪声,使得分类结果难以达到理想状态。
从最优滤波开始,均方误差(MSE)已经成为了包括人工神经网络在内的所有自适应系统训练中的一个普遍准则,其主要原因是分析的可追踪性和二阶统计量可以充分描述现实生活中的随机现象的假设。高斯概率密度函数仅由一阶和二阶统计量决定,但在处理非线性系统时还需要考虑系统和信号的高阶统计量。熵是源于物理学的基本概念,后来C.E.Shannon在信息论中引入了信息熵的概念。1984年C.E.Shannon为解决通信工程中不确定的信息的编码和传输问题创立了信息论,提出了信息的统计定义和信息熵、互信息等概念,解决了信息的不确定性度量问题,并在此基础上对信息论的一系列理论和方法进行了严格的推导和证明,使以信息论为基础的通信工程获得巨大的发展,同时熵作为最优准则扩展了MSE。当熵最小化时,误差概率密度函数所有矩(不仅仅是二阶矩)都会受到约束,而最小均方误差只是简单地限制实际输出信号和期望信号之间的平方差,因此我们采用量化误差熵作为一种更为稳健的训练准则,在神经网络训练的过程中代替MSE。
发明内容
针对上述背景和存在的问题与不足,为了提高城市噪声类别的识别率,本发明提出了一种基于量化误差熵的多层随机神经网络的城市噪音识别方法。本发明的模型是由一层基于极限学习机的自动编码器(ELM-AE)和极限学习机分类器组成的多层随机神经网络,其中自动编码器的隐藏层的输出权重β通过量化最小误差熵作为训练标准,经过梯度下降的方式得到。
QMEE算法可以很好的抑制非高斯噪声,又因为传统的分类算法,其模型训练速度缓慢,泛化能力弱,所以我们采用了算法简单、无需反向迭代、计算速度快,泛化能力强的随机神经网络框架,并在模型的编码层加入QMEE算法作我们编码层的训练准则,加上编码层对数据有一定的去噪能力,可以让我们的噪音识别更准确。
为实现上述目的,本发明采用了以下技术方案,所述方法包括以下步骤:
步骤一.对采集到的声音信号进行处理,然后进行特征提取,建立声音数据库。
步骤二.将最小量化误差熵引入到多层随机神经网络的编码器中,作为输出权重的训练准则,学习数据中的特征。
步骤三.确定多层随机神经网络的网络结构和参数,将建立的声音数据库中的数据作为多层随神经网络的训练数据。
步骤四.为了模拟城市环境的复杂性,引入非高斯噪声模型。
步骤五.生成非高斯噪声数据,加入到原始数据中,然后放入模型中进行训练。
所述步骤一的具体流程如下:
1-1.采集城市里工程机械设备作业环境中的声音信号,并建立同类型的声音数据库,一共采集了11种类型的声音数据,分别是挖掘机、电锤、切割机、引擎、警报、液压锤、铣床、发电机,歌声,人声,风噪声。
1-2.对声音数据库所有声音数据进行预加重,预加重处理就是将声音信号通过一个高通滤波器:H(z)=1-μz-1,其中μ的取值范围为0.9~1.0。
1-3.然后对处理后的声音数据进行分频处理,帧长一般取10~30ms。
1-4.将每一帧数据乘以汉明窗,以增加帧左端和右端的连续性。假设分帧后的信号为S(n),n=0,1,2,...,N*-1,其中N*为帧的大小,进行汉明窗处理可表示为S′(n)=S(n)×W(n),S′(n)为经过汉明窗处理后的声音数据,W(n)采用下面的函数:
不同的a值会产生不同的汉明窗,一般情况下a取值为0.46。
1-5.对经过汉明窗处理的每一帧声音数据进行快速傅里叶变换(FFT),将时域数据转为频域数据。变换公式如下:
1-6.对每一帧FFT后的声音数据计算谱线的能量
E(k)=[S(k)]2 (3)
1-7.把求出的每帧谱线能量谱通过Mel滤波器,并计算在Mel滤波器中的输出对数能量s(m)。
三角滤波器的频率响应定义为:
1-7.将每个滤波器组的输出对数能量s(m),经过离散余弦变化(DCT)得到MFCC系数C(n*)。
L为MFCC倒谱系数的个数,基于MFCC计算倒谱系数,即所求的声音特征,对不同机械的声音特征进行标号,建立声音数据特征库。
所述步骤二的具体流程如下:
V2(e)称为二阶信息潜能(informationpotential)。fe(ξ)为误差的概率密度函数,ξ为随机误差变量。
2-2.概率密度函数难以直接得到,所以需要对概率密度函数进行估计。概率密度函数的估计方法分类两大类:参数估计和非参数估计。参数估计是已知概率密度函数,但其中部分参数或者全部参数未知,其主要方法又有两类:最大似然估计和贝叶斯估计。非参数估计就是概率密度函数的形式也未知,而是用样本把概率密度函数数值化的估计出来。
2-4.设线性系统f(z)=wTz,w为线性模型的权重,z为输入数据,数据的大小为N,其误差为ei=ui-wTzi,zi为第i个输入,ui为第i个期望输出。我们希望误差的尽可能的小,即尽可能的小,又因为log为单调增函数,所以我们只需要让最大化即可。用梯度上升的方法可以实现这一目标。
其中wn为第n次迭代的权重值,η为学习率。
2-5.但是在误差熵的计算过程中,因为要计算误差对ei和ej,在计算较大的数据的时候,其过程会非常的缓慢,所以我们采用了量化误差熵作为训练准则,这样可以减少计算负担,加快计算速度。
2-6.误差的量化过程:
a)误差样本e=[e1,e2,...,en],设定量化阈值ε;
b)初始化:量化码表C。初始化码表C1={e1},其中C1代表第一次迭代后的码表。
c)进行循环i=2,...,n
d)计算ei和Ci-1之间的距离dist(ei,Ci-1)=|ei-Ci-1(j*)|,其中j*=argmin|ei-Ci-1(j)|代表Ci-1中的第j个元素,|Ci-1|代表Ci-1中的元素个数。
e)如果dist(ei,Ci-1)<ε,则保持码表不变,即Ci=Ci-1,将ei量化到最近一次循环得到的码表中,Q[ei]=Ci-1(j*)。否则,更新码表Ci={Ci-1,ei},并将ei量化为自身Q[ei]=ei。
f)重复步骤c)d),直到i>n则停止。
2-7.量化后的信息潜能:
2-10.设定梯度上升的迭代次数,实验证明通常30~100次迭代即可得到最优权重。随机神经网络的隐藏层和输出层之间可以看作线性系统,将量化最小误差熵作为其训练准则,来学习数据中的特征
所述步骤三的具体流程如下:
3-1.给出一个训练集其中xi的维度为d1,ti的维度为d2,为训练样本的个数,自动编码器隐藏层个数L1,分类层隐藏层节点个数L2,在整个多层随机神经网络中激活函数g(x)=1/(1+ex),以保证多层随机神经网络的非线性映射能力。
3-2.初始化编码层的输入权重w1i、偏置b1i和输出权重β0,分类层的输入权重w2i和偏置b2i,计算出编码层中隐藏层的输出h(wti,xi,b1i)=g(w1ixi+b1i),其编码层的输出权重通过量化误差熵的方法进行计算,其初始误差e=x-h(w,x,b)β0。
3-3.对误差e按步骤2-6的方法进行量化。
3-4.通过n次迭代,得到最优的输出权重βn
其中1<iC≤n,iC代表第iC次迭代。,实验证明通常30~100次迭代即可得到最优权重。
3-5.计算编码层的输出Y1
Y1=g(βnx)
3-6.计算本发明中多层随机神经网络的分类层输出权重
3-7.计算网络的输出并识别出城市噪音数据的种类,得到其分类精度。
所述步骤四的具体流程如下:
4-1.为了更真实的体现环境中噪声的复杂性,在特征提取过后得到的数据中加入非高斯噪声。
4-2.在信号处理领域,大多数理论和技术都是在服从高斯分布下取得的,然而实际信号的统计特征并不总是符合高斯假设,我们采用了α稳态分布作为我们的非高斯噪声信号模型。
4-3.稳定分布能够描述多个独立同分布随机变量的分布中微小随机因素的影响,α稳定分布是唯一满足稳定率的分布,在自然科学和工程技术中获得了广泛的应用。α稳定分布作为非高斯噪声模型既可以满足随机噪声产生过程的合理假设又计算方便,α稳定分布的概率密度函数并没有统一的闭合形式,若一个随机变量X服从α稳态分布,可以用以下函数描述:
φ(t)=exp{jδt-γ|t|α[1+jβsgn(t)ω(t,a)]}
其中-∞<δ<+∞,γ>0,0<α≤2,-1≤β≤1。δ表示位置参数,γ代表尺度参数,β为偏斜因子,sgn(t)是符号函数,ω(t,a)代表关于t和α的函数,α表示特征值数,表征α稳定分布概率密度函数拖尾的厚重程度,当β=0、δ=0、α=2时为高斯分布。
4-4.α稳定分布具有如下特点:
a)衰减的速度和α的大小相关,α越小,分布的拖尾越严重;
b)当α≤1时,分布具有无限的均值和方差;
c)分布可以具有不对称分布,β为偏斜因子;
所述步骤五的具体流程如下:
5-1.用上面的α稳定分布模型生成α分别等于0.5、0.75、1.0、1.25、1.5,幅值范围为[-1,1]的噪声数据。
5-2.将生成的噪声加入到原始的数据中,然后再放入我们的网络模型中训练。
本发明有益效果如下:
运用基于最小误差熵的多层随机神经网络模型,可以通过量化误差熵对数据采集过程中的噪声起到抑制作用,可以减少数据中的噪声对分类结果的影响,增强模型的鲁棒性。声音数据在MLELM网络中的识别率为91.23%,而在我们提出的QMEE-MLELM中的分类正确率为92.85%,提升了1.62%。在数据集中加入了α为0.5、0.75、1、1.25、1.5的非高斯噪声后,MLELM的分类结果分别为:84.23%、82.28%、85.86%、84.96%、85.23%;在我们提出的QMEE-MLELM网络中的分类结果分别为:88.31%87.10、89.93%、89.58%、90.10%。相比MLELM最大可提升4.87%的分类准确率,同时体现了我们提出的网络鲁棒性更好。
附图说明
图1为QMEE-MLELM框架图
图2为不同阶的α稳态分布图
图3为未加噪声分类结果图
图4为加入不同阶噪声后的分类结果图
具体实施方式
下面结合附图详细说明本发明的具体实施方式:
如图1-4所示,本发明的第一个主要步骤,其步骤如下:
1-1.采集不同的声音信号,并建立声音数据库。
1-2.对原始声音数据进行预加重。
1-3.对数据进行分帧。
1-4.对数据进行加窗处理。
1-5.对数据进行快速傅里叶变换。
1-6.将数据通过三角带通滤波器。
1-7.计算通过滤波器后的对数能量,然后进过离散余弦变换得到MFCC系数。
本发明第二个主要步骤是对误差的量化,其步骤如下:
2-1.设定量化阈值ε,初始化量化码表。
2-1.计算一个误差与码表中每一个值之间的距离,取其中的最小值。如果该值小于量化阈值保持码表不变,否则更新量化码表。
2-3.重复量化的步骤,直到量化过程结束,得到量化后的误差向量。
本发明第三个主要步骤是对,其步骤如下:
3-1.初始化自动编码器的输入权重w、b,并计算其经过激活函数后的隐藏层输出H(w,x,b)。
3-2.在自动编码器中的误差e=x-hβ,用量化最小误差熵作为训练准则,经过一定的迭代次数后,得到最优的输出权重β。
3-3.β和输入样本相乘,在经过激活函数的非线性映射,得到的数据作为分类层的输入样本。
3-4.初始化分类层的输入权重和偏置,得到分类层中的隐藏层的输入,在通过求逆运算得到分类层中输出层的权重。
3-5.通过输出的权重,得到实际输出。在与期望输出进行比较,得到模型的分类的准确率。
本发明第四个主要步骤是对数据进行加噪,其步骤如下:
4-1.用α稳态分布模型生成不同阶的噪音数据。
4-2.将噪音数据加到原始数据上,生成新的训练数据。
本发明第五步骤为模型对加噪后的数据进行训练,输出分类结果,其步骤如下:
5-1.将加噪后的数据放入模型中进行训练。
本发明所述的方法应用城市噪音的识别,使用了多层随机神经网络模型,通过QMEE训练准则得到编码层的输出权重,然后通过随机神经网络分类层得到分类结果,可以对城市噪声进行更准确的识别。
Claims (4)
1.基于量化误差熵的多层随机神经网络的城市噪音识别方法,其特征在于包括如下步骤:
步骤一.对采集到的声音信号进行处理,然后进行特征提取,建立声音数据库;
步骤二.将最小量化误差熵引入到多层随机神经网络的编码器中,作为输出权重的训练准则,学习数据中的特征;
步骤三.确定多层随机神经网络的网络结构和参数,将建立的声音数据库中的数据作为多层随机 神经网络的训练数据;
步骤四.引入非高斯噪声模型模拟城市环境的复杂性;
步骤五.生成非高斯噪声数据,加入到原始数据中,然后放入多层随机神经网络中进行训练;
所述步骤一的具体流程如下:
1-1.采集城市里工程机械设备作业环境中的声音信号,并建立同类型的声音数据库,一共采集了11种类型的声音数据,分别是挖掘机、电锤、切割机、引擎、警报、液压锤、铣床、发电机、 歌声、 人声、 风噪声;
1-2.对声音数据库所有声音数据进行预加重,预加重处理就是将声音信号通过一个高通滤波器:H(z)=1-μz-1,其中μ的取值范围为0.9~1.0;
1-3.对处理后的声音数据进行分频处理,帧长取10~30ms;
1-4.将每一帧数据乘以汉明窗,以增加帧左端和右端的连续性;假设分帧后的信号为S(n),n=0,1,2,...,N*-1,其中N*为帧的大小,进行汉明窗处理可表示为S'(n)=S(n)×W(n),S'(n)为经过汉明窗处理后的声音数据,W(n)采用下面的函数:
不同的a值会产生不同的汉明窗,a取值为0.46;
1-5.对经过汉明窗处理的每一帧声音数据进行快速傅里叶变换,将时域数据转为频域数据;变换公式如下:
1-6.对每一帧FFT后的声音数据计算谱线的能量
E(k)=[S(k)]2(3)
1-7.把求出的每帧谱线能量谱通过Mel滤波器,并计算在Mel滤波器中的输出对数能量s(m);
三角滤波器的频率响应定义为:
1-7.将每个滤波器组的输出对数能量s(m),经过离散余弦变化得到MFCC系数C(n*);
L为MFCC倒谱系数的个数,基于MFCC计算倒谱系数,即所求的声音特征,对不同机械的声音特征进行标号,建立声音数据特征库;
所述步骤二的具体流程如下:
V2(e)称为二阶信息潜能,fe(ξ)为误差的概率密度函数,ξ为随机误差变量;
2-2.通过估计方法对概率密度函数进行估计;
2-4.设线性系统f(z)=wTz,w为线性模型的权重,z为输入数据,数据的大小为N,其误差为ei=ui-wTzi,zi为第i个输入,ui为第i个期望输出;希望误差的尽可能的小,即尽可能的小,又因为log为单调增函数,所以只需要让最大化即可;用梯度上升的方法实现这一目标;
其中wn为第n次迭代的权重值,η为学习率;
2-5.在误差熵的计算过程中要计算误差对ei和ej,采用量化误差熵作为训练准则;
2-6.误差的量化过程:
a)误差样本e=[e1,e2,...,en],设定量化阈值ε;
b)初始化:量化码表C;初始化码表C1={e1},其中C1代表第一次迭代后的码表;
c)进行循环i=2,...,n
d)计算ei和Ci-1之间的距离dist(ei,Ci-1)=|ei-Ci-1(j*)|,其中j*=arg min|ei-Ci-1(j)|代表Ci-1中的第j个元素,|Ci-1|代表Ci-1中的元素个数;
e)如果dist(ei,Ci-1)<ε,则保持码表不变,即Ci=Ci-1,将ei量化到最近一次循环得到的码表中,Q[ei]=Ci-1(j*);否则,更新码表Ci={Ci-1,ei},并将ei量化为自身Q[ei]=ei;
f)跳转到步骤c),直到i>n则停止;
2-7.量化后的信息潜能:
2-10.设定梯度上升的迭代次数,实验证明通常30~100次迭代即可得到最优权重。
2.根据权利要求1所述的基于量化误差熵的多层随机神经网络的城市噪音识别方法,其特征在于所述步骤三的具体流程如下:
3-1.给出一个训练集其中xi的维度为d1,ti的维度为d2,为训练样本的个数,自动编码器隐藏层个数L1,分类层隐藏层节点个数L2,在整个多层随机神经网络中激活函数g(x)=1/(1+ex),以保证多层随机神经网络的非线性映射能力;
3-2.初始化编码层的输入权重w1i、偏置b1i和输出权重β0,分类层的输入权重w2i和偏置b2i,计算出编码层中隐藏层的输出h(w1i,xi,b1i)=g(w1ixi+b1i),其编码层的输出权重通过量化误差熵的方法进行计算,其初始误差e=x-h(w,x,b)β0;
3-3.对误差e按步骤2-6的方法进行量化;
3-4.通过n次迭代,得到最优的输出权重βn
其中1<iC≤n,iC代表第iC次迭代,实验证明通常30~100次迭代即可得到最优权重;
3-5.计算编码层的输出Y1
Y1=g(βnx) (16)
3-6.计算多层随机神经网络的分类层输出权重
3-7.计算网络的输出并识别出城市噪音数据的种类,得到其分类精度。
3.根据权利要求2所述的基于量化误差熵的多层随机神经网络的城市噪音识别方法,其特征在于所述步骤四的具体流程如下:
4-1.特征提取过后得到的数据中加入非高斯噪声;
4-2.采用了α稳态分布作为非高斯噪声信号模型;
4-3.α稳定分布的概率密度函数并没有统一的闭合形式,若一个随机变量X服从α稳态分布,可以用以下函数描述:
φ(t)=exp{jδt-γ|t|α[1+jβsgn(t)ω(t,a)]} (18)
其中-∞<δ<+∞,γ>0,0<α≤2,-1≤β≤1;δ表示位置参数,γ代表尺度参数,β为偏斜因子,sgn(t)是符号函数,ω(t,a)代表关于t和α的函数,α表示特征值数,表征α稳定分布概率密度函数拖尾的厚重程度,当β=0、δ=0、α=2时为高斯分布;
4-4.α稳定分布具有如下特点:
a)衰减的速度和α的大小相关,α越小,分布的拖尾越严重;
b)当α≤1时,分布具有无限的均值和方差;
c)分布可以具有不对称分布,β为偏斜因子;
4.根据权利要求3所述的基于量化误差熵的多层随机神经网络的城市噪音识别方法,其特征在于所述步骤五的具体流程如下:
5-1.用上面的α稳定分布模型生成α分别等于0.5、0.75、1.0、1.25、1.5,幅值范围为[-1,1]的噪声数据;
5-2.将生成的噪声加入到原始的数据中,然后再放入多层随机神经网络中训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010824747.4A CN112086100B (zh) | 2020-08-17 | 2020-08-17 | 基于量化误差熵的多层随机神经网络的城市噪音识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010824747.4A CN112086100B (zh) | 2020-08-17 | 2020-08-17 | 基于量化误差熵的多层随机神经网络的城市噪音识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112086100A CN112086100A (zh) | 2020-12-15 |
CN112086100B true CN112086100B (zh) | 2022-12-02 |
Family
ID=73729349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010824747.4A Active CN112086100B (zh) | 2020-08-17 | 2020-08-17 | 基于量化误差熵的多层随机神经网络的城市噪音识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112086100B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112953607B (zh) * | 2021-02-22 | 2022-08-09 | 西安交通大学 | 一种mimo-ofdm系统量化噪声消除方法、介质及设备 |
CN113191397B (zh) * | 2021-04-09 | 2024-02-13 | 杭州电子科技大学 | 一种基于最大相关熵准则的多维信号特征融合方法 |
CN113643722B (zh) * | 2021-08-27 | 2024-04-19 | 杭州电子科技大学 | 一种基于多层矩阵随机神经网络的城市噪声识别方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6035270A (en) * | 1995-07-27 | 2000-03-07 | British Telecommunications Public Limited Company | Trained artificial neural networks using an imperfect vocal tract model for assessment of speech signal quality |
CN107357761A (zh) * | 2017-06-28 | 2017-11-17 | 西安交通大学 | 一种量化的最小误差熵计算方法 |
CN108133702A (zh) * | 2017-12-20 | 2018-06-08 | 重庆邮电大学 | 一种基于mee优化准则的深度神经网络语音增强模型 |
CN109858509A (zh) * | 2018-11-05 | 2019-06-07 | 杭州电子科技大学 | 基于多层随机神经网络单分类器异常检测方法 |
CN110751044A (zh) * | 2019-09-19 | 2020-02-04 | 杭州电子科技大学 | 基于深度网络迁移特征与增广自编码的城市噪声识别方法 |
-
2020
- 2020-08-17 CN CN202010824747.4A patent/CN112086100B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6035270A (en) * | 1995-07-27 | 2000-03-07 | British Telecommunications Public Limited Company | Trained artificial neural networks using an imperfect vocal tract model for assessment of speech signal quality |
CN107357761A (zh) * | 2017-06-28 | 2017-11-17 | 西安交通大学 | 一种量化的最小误差熵计算方法 |
CN108133702A (zh) * | 2017-12-20 | 2018-06-08 | 重庆邮电大学 | 一种基于mee优化准则的深度神经网络语音增强模型 |
CN109858509A (zh) * | 2018-11-05 | 2019-06-07 | 杭州电子科技大学 | 基于多层随机神经网络单分类器异常检测方法 |
CN110751044A (zh) * | 2019-09-19 | 2020-02-04 | 杭州电子科技大学 | 基于深度网络迁移特征与增广自编码的城市噪声识别方法 |
Non-Patent Citations (1)
Title |
---|
基于HMM和小波网络模型的抗噪语音识别方法;林遂芳等;《系统仿真学报》;20050720(第07期);第193-196段 * |
Also Published As
Publication number | Publication date |
---|---|
CN112086100A (zh) | 2020-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112086100B (zh) | 基于量化误差熵的多层随机神经网络的城市噪音识别方法 | |
CN112364779B (zh) | 信号处理与深-浅网络多模型融合的水声目标识别方法 | |
CN108922513B (zh) | 语音区分方法、装置、计算机设备及存储介质 | |
CN111723701B (zh) | 一种水中目标识别方法 | |
CN113707176A (zh) | 一种基于声信号及深度学习技术的变压器故障检测方法 | |
CN102693724A (zh) | 一种基于神经网络的高斯混合模型的噪声分类方法 | |
CN109977724B (zh) | 一种水下目标分类方法 | |
CN104751000A (zh) | 一种机电复合传动状态监测信号小波降噪方法 | |
CN111899757A (zh) | 针对目标说话人提取的单通道语音分离方法及系统 | |
CN113111786B (zh) | 基于小样本训练图卷积网络的水下目标识别方法 | |
CN101853661A (zh) | 基于非监督学习的噪声谱估计与语音活动度检测方法 | |
CN107731235A (zh) | 抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类方法及装置 | |
CN114333773A (zh) | 一种基于自编码器的工业场景异常声音检测与识别方法 | |
CN115758082A (zh) | 一种轨道交通变压器故障诊断方法 | |
Li et al. | Multisensory speech enhancement in noisy environments using bone-conducted and air-conducted microphones | |
CN110163419B (zh) | 一种中小河流流域洪水预报的方法 | |
CN115171712A (zh) | 适用于瞬态噪声抑制的语音增强方法 | |
CN117309079A (zh) | 基于时差法的超声飞渡时间测量方法、装置、设备及介质 | |
CN117419915A (zh) | 一种多源信息融合的电机故障诊断方法 | |
CN116739168A (zh) | 一种基于灰色理论与编解码器的径流量预测方法 | |
CN111898476B (zh) | 一种耦合随机共振的自适应线谱增强方法 | |
CN113066483B (zh) | 一种基于稀疏连续约束的生成对抗网络语音增强方法 | |
CN113919388A (zh) | 一种融合信号频谱幅值调制和深度学习的机电装备故障诊断方法及装置 | |
CN111161754B (zh) | 基于深度聚类的车辆鸣笛声分类方法及系统 | |
CN107315713B (zh) | 一种基于非局部相似性的一维信号去噪增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |