CN107657961A - 一种基于vad和ann的噪声消除方法 - Google Patents

一种基于vad和ann的噪声消除方法 Download PDF

Info

Publication number
CN107657961A
CN107657961A CN201710876421.4A CN201710876421A CN107657961A CN 107657961 A CN107657961 A CN 107657961A CN 201710876421 A CN201710876421 A CN 201710876421A CN 107657961 A CN107657961 A CN 107657961A
Authority
CN
China
Prior art keywords
mrow
frame
noise
msub
vad
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710876421.4A
Other languages
English (en)
Other versions
CN107657961B (zh
Inventor
何志连
韩大强
李想
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Changhong Electric Co Ltd
Original Assignee
Sichuan Changhong Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Changhong Electric Co Ltd filed Critical Sichuan Changhong Electric Co Ltd
Priority to CN201710876421.4A priority Critical patent/CN107657961B/zh
Publication of CN107657961A publication Critical patent/CN107657961A/zh
Application granted granted Critical
Publication of CN107657961B publication Critical patent/CN107657961B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Abstract

本发明公开了一种基于VAD和ANN的噪声消除方法,首先用VAD技术将带噪语音分成语音帧和噪声帧,然后通过ANN对语音帧和噪声帧进行不同的降噪处理,对语音帧对应的参考噪声采取顺序训练,对噪声帧对应的参考噪声采取批训练。本发明利用VAD技术把带噪语音分为语音帧和噪声帧。借助神经网络批训练的快速收敛性和高收敛精度,对噪声帧进行处理。一方面,使得自适应滤波在一个噪声帧数据内就得到了收敛;另一方面也提高了收敛精度。

Description

一种基于VAD和ANN的噪声消除方法
技术领域
本发明属于噪声消除方法,具体涉及一种基于VAD和ANN的噪声消除方法,属于信号处理技术领域。
背景技术
噪声消除是信号处理领域中一个非常重要的问题,也是一个很棘手的问题,噪声的存在对系统的正常运行有着巨大的影响。多年来,广大学者对噪声消除做了广泛和深入的研究。噪声消除总的来说可以分为两大类:被动噪声抑制和主动噪声消除。被动噪声抑制就是用物理的方法,选用新型材料来进行吸音、隔音和消音。这种方法的成本较高,不易于维护,效果也不理想,尤其是对低频噪声的降噪能力很差。主动噪声消除,基于声波相消干涉的原理,利用自适应滤波算法产生一个与原始噪声幅度相同相位相反的次级噪声来抵消噪声。主动噪声消除的优点就在于自适应滤波算法能够使噪声主动控制系统实时地跟踪噪声及物理环境的变化,自动更新滤波器的参数,从而保证最大限度的消除噪声。相比于被动噪声抑制,其成本较低,易于维护,消噪效果也比较理想,尤其是对低频噪声的降噪效果显著。
自适应滤波算法是主动降噪系统的核心,其性能直接决定了降噪的性能。目前,主要有LMS算法和RLS算法两大类。由于LMS算法有计算量小,实时处理能力强,结构简单,所需内存小,易于实现的优点而在噪声消除领域得到了广泛的应用。但是由于LMS算法的收敛速度、时变系统跟踪速度比较慢,收敛精度不高的缺点,使得其在实践中的应用受到了一定的限制。虽然RLS算法的收敛速度比较快,收敛精度也比较高,但是计算复杂度很高,所需的内存极大,稳定性和实时处理能力都较差。因此,RLS算法在很多场合都不适用。
由于基本的LMS算法,步长是固定的。较大的步长可以提高收敛速度和时变系统的跟踪速度,但是收敛精度就会比较低。而较小的步长虽然可以提高收敛精度,却牺牲了收敛速度和时变系统跟踪速度。为此,人们做了大量的研究,提出了许多变步长的LMS算法,在一定程度上缓和了这个矛盾,但是并未从根本上得到解决。
近年来,随着经济的快速发展,人民生活水平的日益提高,城市噪声泛滥。人们对环境噪声降噪的需求越来越广,要求也越来越高。在很多应用场合,外部环境噪声是随时间不断变化的,是一个时变的系统。那就要求LMS算法不仅要有较高的收敛精度,而且要有快速的收敛速度和时变系统跟踪速度。
发明内容
本发明旨在解决现有LMS算法在噪声消除领域应用中性能的不足,创造性地提出了一种结合VAD和ANN技术来提高在噪声消除领域中算法的收敛速度和收敛精度的基于VAD和ANN的噪声消除方法。
本发明的总体方案:把带噪语音和参考噪声根据同样的方法进行加窗分帧处理,采用对数频谱距离法VAD技术把带噪语音分为语音帧和噪声帧,在有用语音开始之前设置一定时间的静音,这段时间的语音都是噪声,根据这段时间的噪声算出VAD的初始噪声参数,并设置阈值。根据阈值来判断每帧帯噪语音为语音帧还是噪声帧。根据VAD的检测结果,对语音帧和噪声帧采取不同的处理。当带噪语音经过VAD检测为噪声帧时用线性神经网络对噪声帧的参考噪声进行批训练,采用高级的BP算法,可以使误差平方和迅速收敛,而且收敛精度很高,这样就把噪声能量迅速降为零。当检测为语音帧时,用该线性神经网络对语音帧的参考噪声进行顺序训练。随着VAD技术把带噪语音实时地分为语音帧和噪声帧,神经网络相应地在批训练方式和顺序训练方式中来回切换。线性神经网络不设置阈值,这样的话可以保证训练出来的权值向量刚好就是滤波器的系数向量,线性神经网络工作在顺序训练时相当于LMS算法。
本发明是这样实现的:
一种基于VAD和ANN的噪声消除方法,首先用VAD技术将带噪语音分成语音帧和噪声帧,然后通过ANN对语音帧和噪声帧进行不同的降噪处理,对语音帧对应的参考噪声采取顺序训练,对噪声帧对应的参考噪声采取批训练。
其中,所述的VAD技术,是采用对数频谱距离来实现,包括以下几个步骤:
1)根据采样频率和噪声特性设置合适的帧长,把带噪语音和参考噪声进行加窗分帧处理。
2)根据实际情况设置合适的前导无语音时长,计算出前导无语音帧数,也就是初始噪声帧数NIS。
3)算出每帧带噪语音的对数频谱,用前导NIS帧带噪语音的对数频谱算出初始噪声的对数频谱。
4)算出每帧带噪语音与初始噪声的对数频谱距离,并与阈值相比较,小于阈值则判定为噪声帧,否则为语音帧。
更具体的:
步骤1)中,设置帧叠为M-1,M为ANN输入层神经元的个数。
步骤3)中,对数频谱和对数频谱距离计算方法如下:
ANN采用的是线性神经网络的结构,包含1个输入层1个输出层,且不设置阈值。
更进一步的方案是:
对噪声帧对应的参考噪声采取批训练方式,是采用弹性搜索个体变步长算法,包括以下几个步骤:
1)读入一噪声帧数据作为线性神经网络的目标输出ti,其中N为输入层神经元的个数,下标i表示第i帧数据。读入对应的一帧参考噪声,并转化成输入样本集Xi
t1=[d1(1),d1(2),…,d1(M)]T
X1=[x1(1),x1(2),…,x1(M)]
x1(1)=[x1(1),0,…,0]T
x1(2)=[x1(2),x1(1),0,…,0]T
x1(N)=[x1(N),x1(N-1),…,x1(1)]T
x1(M)=[x1(M),x1(M-1),…,x1(M-N+1)]T
ti=[di(N),di(N+1),…,di(M)]T,i=2,3,4,…
Xi=[xi(1),xi(2),…,xi(M-N+1)]
xi(1)=[xi(N),xi(N-1),…,xi(1)]T
xi(M-N+1)=[xi(M),xi(M-1),…,xi(M-N+1)]T
2)设置步长增大系数a=1.2,步长减小系数为b=0.5。对每一噪声帧训练时都初始化步长向量ηi(0)=0.01×ones(N,1),对第1噪声帧初始化权值向量w1(0)=0.01×randn(N,1),对第i(i>1)噪声帧初始化权值向量为前一帧训练的结果。
3)设置训练终止条件,根据一帧语音的时长和硬件条件在满足实时处理条件下设置合适的最大迭代次数train_num,根据降噪需要达到的效果设置合适的梯度范数最小值min_grad,均方误差E(k)的最小值error_goal。
4)读入样本集,求出均方误差E(k),然后求解均方误差对各权值的偏导,保留其方向为cj(k)。当cj(k)cj(k-1)<0时前后两次第j个梯度分量的方向相反,则减小对应的步长分量;当cj(k)cj(k-1)>0时前后两次第j个梯度分量的方向相同,则增大对应的步长分量;当cj(k)cj(k-1)=0时前后两次至少有一次第j个梯度分量为零,则保持对应的步长分量不变。
p表示样本个数
5)根据梯度和步长修正各权值,判断是否满足终止条件。当达到最大迭代次数tain_num,或者达到梯度范数最小值min_grad,或者均方误差E(k)达到最小值error_goal,输出结果,结束这帧数据的处理;否则进行下一次迭代。
更进一步的方案是:
对语音帧的参考噪声采取顺序训练方式,采用变步长的LMS算法,步长η调整如下,其中α=1/256,β=-11,yy(0)=0。
yy(p)=αx(p)+(1-α)yy(p-1)
yyl(p)=max{yy(p),0.001}
η(p)=2β/yyl(p)
本发明利用VAD技术把带噪语音分为语音帧和噪声帧。借助神经网络批训练的快速收敛性和高收敛精度,对噪声帧进行处理。一方面,使得自适应滤波在一个噪声帧数据内就得到了收敛;另一方面也提高了收敛精度。
附图说明
图1是基于VAD和ANN的自适应噪声消除示意图:由声源、数据采集、VAD和ANN四部分组成。
图2是基于VAD和ANN的噪声消除算法框图:F1(z)主输入噪声通道的建模,F2(z)是参考输入噪声通道的建模。ANN采用线性神经网络结构,不设置阈值,所以其权值向量就是滤波器的系数向量。
图3是线性神经网络的结构图:由一个输入层和一个输出层构成,没有隐含层,传递函数为线性函数。
图4是对数频谱距离法VAD流程图。
图5是线性神经网络批训练流程图。
图6是线性神经网络顺序训练流程图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步的说明。
本发明主要包括两大部分,第一部分是用VAD技术把带噪语音分为语音帧和噪声帧。第二部分是用线性神经网络进行自适应滤波,对噪声帧对应的参考噪声进行批训练,对语音帧对应的参考噪声进行顺序训练。具体如附图1、2、3所示。
本发明的第一部分是采用对数频谱距离法来实现VAD技术把带噪语音分为语音帧和噪声帧。分为以下几个步骤:
步骤1:根据采样频率和噪声特性设置合适的帧长,把带噪语音和参考噪声进行加窗分帧处理。如图2中所示,带噪语音为d(n)=s(n)+v0(n),参考噪声为v1(n),加窗分帧处理后第i帧帯噪语音为di(m),第i帧参考噪声为xi(m)。
式中,为窗函数,T为帧移,M为帧长。
步骤2:根据实际情况设置合适的前导无语音时长,计算出前导无语音帧数,也就是初始噪声帧数NIS。
步骤3:对前导NIS个噪声帧进行离散傅里叶变换,算出噪声频谱,并对噪声频谱取模再取对数算出对数频谱。
步骤4:对每帧带噪语音进行傅里叶变换,算出它们的频谱,并对它们的频谱取模再取对数算出对数频谱。
步骤5:根据算出的噪声对数频谱和各帧语音的对数频谱,求出对数频谱距离。
步骤6:根据算出的对数频谱距离与阈值TH相比较,若小于阈值TH则标记为NF=0表示噪声帧,同时更新噪声对数频谱;若大于阈值TH则标记为NF=1表示语音帧。
本发明的第二部分是建立线性神经网络,以参考噪声为输入时间序列,以自适应滤波器的系数向量作为线性神经网络输入层到输出层的权值向量,以带噪语音和自适应滤波输出(即线性神经网络输出)之间的均方误差为目标函数进行训练。它有两种训练方式,分别是批训练方式和顺序训练方式。
根据本发明第一部分,带噪语音被检测为噪声帧时,线性神经网络工作在批训练方式,批训练采用弹性搜索个体变步长算法,具体包括以下几个步骤。
步骤1:读入一噪声帧数据作为线性神经网络的目标输出ti,其中N为输入层神经元的个数,下标i表示第i帧数据。读入对应的一帧参考噪声,并转化成输入样本集Xi
t1=[d1(1),d1(2),…,d1(M)]T
X1=[x1(1),x1(2),…,x1(M)]
x1(1)=[x1(1),0,…,0]T
x1(2)=[x1(2),x1(1),0,…,0]T
x1(N)=[x1(N),x1(N-1),…,x1(1)]T
x1(M)=[x1(M),x1(M-1),…,x1(M-N+1)]T
ti=[di(N),di(N+1),…,di(M)]T,i=2,3,4,…
Xi=[xi(1),xi(2),…,xi(M-N+1)]
xi(1)=[xi(N),xi(N-1),…,xi(1)]T
xi(M-N+1)=[xi(M),xi(M-1),…,xi(M-N+1)]T
步骤2:初始化权值向量w(0)和步长向量η(0),并设置步长增大系数a和步长减小系数b。其中,w(k)=[w1(k),w2(k),…,wN(k)]T,k表示迭代次数,k=0,1,2,…。
步骤3:设置训练终止条件,包括最大迭代次数train_num,梯度范数最小值min_grad和误差精度error_goal。
步骤4:信号正向传播,求出均方误差E(k),E(k)表示第k次迭代的均方误差。若E(k)≤error_goal,则输出结果,结束训练。
步骤5:求解均方误差E(k)对各权值的偏导,并保存各偏导的方向为cj(k),j=1,2,…N。
步骤6:判断前后两次的偏导方向。若cj(k)cj(k-1)<0则表示前后两次偏导方向相反,此时步长乘以增大系数增大步长;若cj(k)cj(k-1)>0则表示前后两次偏导方向相同,此时步长乘以减小系数减小步长;若cj(k)cj(k-1)=0则表示前后至少有一次偏导为零,此时步长不变。
步骤7:根据求出的步长向量和梯度向量修正各权值。
步骤8:信号正向传播,求出均方误差E(k+1)。
步骤9:判断是否满足终止条件,如果满足终止条件则输出结果,训练结束;如果不满足终止条件则令k=k+1,跳到步骤5进行下一次迭代。
根据本发明第一部分,带噪语音被检测为语音帧时,线性神经网络工作在顺序训练方式,此时相当于LMS算法。具体包括以下几个步骤:
步骤1:读入一噪声帧数据作为线性神经网络的目标输出ti,其中N为输入层神经元的个数,下标i表示第i帧数据。读入对应的一帧参考噪声,并转化成输入样本集Xi
t1=[d1(1),d1(2),…,d1(M)]T
X1=[x1(1),x1(2),…,x1(M)]
x1(1)=[x1(1),0,…,0]T
x1(2)=[x1(2),x1(1),0,…,0]T
x1(N)=[x1(N),x1(N-1),…,x1(1)]T
x1(M)=[x1(M),x1(M-1),…,x1(M-N+1)]T
ti=[di(N),di(N+1),…,di(M)]T,i=2,3,4,…
Xi=[xi(1),xi(2),…,xi(M-N+1)]
xi(1)=[xi(N),xi(N-1),…,xi(1)]T
xi(M-N+1)=[xi(M),xi(M-1),…,xi(M-N+1)]T
步骤2:初始化权值向量w(0),设置步长调节系数α,β,令p=0。其中w(p)=[w1(p),w2(p),…,wN(p)]T,p表示迭代次数,p=0,1,2,…,M-N。
步骤3:读入第p个样本,信号正向传播,算出其误差e(p)。
步骤4:求出误差平方对权值向量的梯度。
步骤5:根据输入信号对步长进行调整。
步骤6:根据梯度和步长对权值向量进行修正。
步骤7:p=p+1,若p<M-N则未训练完所有样本,转到步骤3,进行下一次训练;否则,输出结果结束训练。
下面以一个具体实施例对VAD的实现进行详细阐述。
如附图4所示,包括如下步骤:
1)以采样频率fs=48kHz,线性神经网络输入层神经元个数N=64为例。设置前导无语音时长tr=30ms,一帧数据的时长tm=5ms,对数频谱距离的阈值为THd=2.5。则有:
M=trfs=5×10-3×48×103=240
O=N-1=63
T=M-O=240-63=177
NIS=tr/tm=6
其中M为帧长,O为帧叠,T为帧移,NIS为前导无语音段的帧数。
2)选择矩形窗对带噪语音d(n)和参考噪声v1(n)进行加窗分帧处理。第i帧带噪语音用di(m)表示,第i帧参考噪声用xi(m)表示,则有:
3)对各帧帯噪语音分别进行离散傅里叶变换,求出各帧噪声的频谱Di(k),对前导NIS帧带噪语音的频谱求平均值,其结果作为初始噪声的频谱Xnoise(k)。分别对各帧带噪语音和初始噪声的频谱取模再取对数算出对数频谱的正频率部分计算对数频谱距离TH(i)。计算公式如下式(1)~(5):
4)比较对数频谱距离TH(i)和阈值THd的大小。若TH(i)≥THd则该帧为语音帧;若TH(i)<THd则该帧为噪声帧,然后根据公式(6)更新初始噪声对数频谱。
下面以另一个具体实施例对弹性搜索个体变步长算法实现线性神经网络批训练进行描述。
如附图5所示,包括:
5)读入一噪声帧数据作为线性神经网络的目标输出ti,其中N为输入层神经元的个数,下标i表示第i帧数据。读入对应的一帧参考噪声,并转化成输入样本集Xi
t1=[d1(1),d1(2),…,d1(M)]T
X1=[x1(1),x1(2),…,x1(M)]
x1(1)=[x1(1),0,…,0]T
x1(2)=[x1(2),x1(1),0,…,0]T
x1(N)=[x1(N),x1(N-1),…,x1(1)]T
x1(M)=[x1(M),x1(M-1),…,x1(M-N+1)]T
ti=[di(N),di(N+1),…,di(M)]T,i=2,3,4,…
Xi=[xi(1),xi(2),…,xi(M-N+1)]
xi(1)=[xi(N),xi(N-1),…,xi(1)]T
xi(M-N+1)=[xi(M),xi(M-1),…,xi(M-N+1)]T
6)设置步长增大系数a=1.2,步长减小系数为b=0.5。对每一噪声帧训练时都初始化步长向量ηi(0)=0.01×ones(N,1),对第1噪声帧初始化权值向量w1(0)=0.01×randn(N,1),对第i(i>1)噪声帧初始化权值向量为前一帧训练的结果。
7)设置训练终止条件,根据一帧语音的时长和硬件条件在满足实时处理条件下设置合适的最大迭代次数train_num,根据降噪需要达到的效果设置合适的梯度范数最小值min_grad,均方误差E(k)的最小值error_goal。
8)读入样本集,求出均方误差E(k),然后求解均方误差对各权值的偏导,保留其方向为cj(k)。当cj(k)cj(k-1)<0时前后两次第j个梯度分量的方向相反,则减小对应的步长分量;当cj(k)cj(k-1)>0时前后两次第j个梯度分量的方向相同,则增大对应的步长分量;当cj(k)cj(k-1)=0时前后两次至少有一次第j个梯度分量为零,则保持对应的步长分量不变。
p表示样本个数
9)根据梯度和步长修正各权值,判断是否满足终止条件。当达到最大迭代次数tain_num,或者达到梯度范数最小值min_grad,或者均方误差E(k)达到最小值error_goal,输出结果,结束这帧数据的处理;否则进行下一次迭代。
下面以再一个具体实施例对线性神经网络顺序训练的实现进行详细阐述。
如附图6所示,包括:
10)初始化权值向量为前一帧数据的权值向量训练结果,设置α=1/256,β=-11。读入第1个样本,信号正向传播输出这个样本的训练误差e(p)。
11)求出误差平方对权值向量的梯度,根据式(7),(8)和(9)对步长进行调整。
yy(p)=αx(p)+(1-α)yy(p-1) (7)
yyl(p)=max{yy(p),0.001} (8)
12)根据算出的梯度和调整的步长对权值向量进行修正。判断样本是否训练完,如果所有样本已经训练完则输出结果,结束这帧数据的处理;如果所有样本未训练完则继续下一个样本的训练。
尽管这里参照本发明的解释性实施例对本发明进行了描述,上述实施例仅为本发明较佳的实施方式,本发明的实施方式并不受上述实施例的限制,应该理解,本领域技术人员可以设计出很多其他的修改和实施方式,这些修改和实施方式将落在本申请公开的原则范围和精神之内。

Claims (7)

1.一种基于VAD和ANN的噪声消除方法,其特征在于:首先用VAD技术将带噪语音分成语音帧和噪声帧,然后通过ANN对语音帧和噪声帧进行不同的降噪处理,对语音帧对应的参考噪声采取顺序训练,对噪声帧对应的参考噪声采取批训练。
2.根据权利要求1所述基于VAD和ANN的噪声消除方法,其特征在于:所述的VAD技术,是采用对数频谱距离来实现,包括以下几个步骤:
1)根据采样频率和噪声特性设置合适的帧长,把带噪语音和参考噪声进行加窗分帧处理;
2)根据实际情况设置合适的前导无语音时长,计算出前导无语音帧数,也就是初始噪声帧数NIS;
3)算出每帧带噪语音的对数频谱,用前导NIS帧带噪语音的对数频谱算出初始噪声的对数频谱;
4)算出每帧带噪语音与初始噪声的对数频谱距离,并与阈值相比较,小于阈值则判定为噪声帧,否则为语音帧。
3.根据权利要求2所述基于VAD和ANN的噪声消除方法,其特征在于:
步骤1)中,设置帧叠为M-1,M为ANN输入层神经元的个数。
4.根据权利要求3所述基于VAD和ANN的噪声消除方法,其特征在于:
步骤3)中,对数频谱和对数频谱距离计算方法如下:
<mrow> <msub> <mi>D</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>m</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <msub> <mi>d</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>m</mi> <mo>)</mo> </mrow> <msup> <mi>e</mi> <mrow> <mo>-</mo> <mi>j</mi> <mfrac> <mrow> <mn>2</mn> <mi>&amp;pi;</mi> <mi>k</mi> <mi>m</mi> </mrow> <mi>N</mi> </mfrac> </mrow> </msup> <mo>,</mo> <mn>1</mn> <mo>&amp;le;</mo> <mi>k</mi> <mo>&amp;le;</mo> <mi>M</mi> </mrow>
<mrow> <msub> <mi>X</mi> <mrow> <mi>n</mi> <mi>o</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mi>N</mi> <mi>I</mi> <mi>S</mi> </mrow> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mrow> <mi>N</mi> <mi>I</mi> <mi>S</mi> </mrow> </munderover> <msub> <mi>D</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>,</mo> <mn>1</mn> <mo>&amp;le;</mo> <mi>k</mi> <mo>&amp;le;</mo> <mi>M</mi> </mrow>
<mrow> <msub> <mover> <mi>D</mi> <mo>^</mo> </mover> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <mn>20</mn> <msub> <mi>log</mi> <mn>10</mn> </msub> <mo>|</mo> <msub> <mi>D</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>|</mo> </mrow>
<mrow> <msub> <mover> <mi>X</mi> <mo>^</mo> </mover> <mrow> <mi>n</mi> <mi>o</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <mn>20</mn> <msub> <mi>log</mi> <mn>10</mn> </msub> <mo>|</mo> <msub> <mi>X</mi> <mrow> <mi>n</mi> <mi>o</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>|</mo> </mrow>
<mrow> <mi>T</mi> <mi>H</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <msub> <mi>M</mi> <mn>1</mn> </msub> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>M</mi> <mn>1</mn> </msub> </munderover> <msup> <mrow> <mo>&amp;lsqb;</mo> <msub> <mover> <mi>D</mi> <mo>^</mo> </mover> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mover> <mi>X</mi> <mo>^</mo> </mover> <mrow> <mi>n</mi> <mi>o</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mn>2</mn> </msup> <mo>.</mo> </mrow>
5.根据权利要求1所述基于VAD和ANN的噪声消除方法,其特征在于:
ANN采用的是线性神经网络的结构,包含1个输入层1个输出层,且不设置阈值。
6.根据权利要求1所述基于VAD和ANN的噪声消除方法,其特征在于:
对噪声帧对应的参考噪声采取批训练,是采用弹性搜索个体变步长算法,包括以下几个步骤:
1)读入一噪声帧数据作为线性神经网络的目标输出ti,其中N为输入层神经元的个数,下标i表示第i帧数据;读入对应的一帧参考噪声,并转化成输入样本集Xi
t1=[d1(1),d1(2),…,d1(M)]T
X1=[x1(1),x1(2),…,x1(M)]
x1(1)=[x1(1),0,…,0]T
x1(2)=[x1(2),x1(1),0,…,0]T
x1(N)=[x1(N),x1(N-1),…,x1(1)]T
x1(M)=[x1(M),x1(M-1),…,x1(M-N+1)]T
ti=[di(N),di(N+1),…,di(M)]T,i=2,3,4,…
Xi=[xi(1),xi(2),…,xi(M-N+1)]
xi(1)=[xi(N),xi(N-1),…,xi(1)]T
xi(M-N+1)=[xi(M),xi(M-1),…,xi(M-N+1)]T
2)设置步长增大系数a=1.2,步长减小系数为b=0.5;对每一噪声帧训练时都初始化步长向量ηi(0)=0.01×ones(N,1),对第1噪声帧初始化权值向量w1(0)=0.01×randn(N,1),对第i(i>1)噪声帧初始化权值向量为前一帧训练的结果;
3)设置训练终止条件,根据一帧语音的时长和硬件条件在满足实时处理条件下设置合适的最大迭代次数train_num,根据降噪需要达到的效果设置合适的梯度范数最小值min_grad,均方误差E(k)的最小值error_goal;
4)读入样本集,求出均方误差E(k),然后求解均方误差对各权值的偏导,保留其方向为cj(k);当cj(k)cj(k-1)<0时前后两次第j个梯度分量的方向相反,则减小对应的步长分量;当cj(k)cj(k-1)>0时前后两次第j个梯度分量的方向相同,则增大对应的步长分量;当cj(k)cj(k-1)=0时前后两次至少有一次第j个梯度分量为零,则保持对应的步长分量不变;
p表示样本个数
5)根据梯度和步长修正各权值,判断是否满足终止条件;当达到最大迭代次数tain_num,或者达到梯度范数最小值min_grad,或者均方误差E(k)达到最小值error_goal,输出结果,结束这帧数据的处理;否则进行下一次迭代。
7.根据权利要求1所述基于VAD和ANN的噪声消除方法,其特征在于:
对语音帧的参考噪声采取顺序训练方式,采用变步长的LMS算法,步长η调整如下,其中α=1/256,β=-11,yy(0)=0;
yy(p)=αx(p)+(1-α)yy(p-1)
yyl(p)=max{yy(p),0.001}
η(p)=2β/yyl(p)。
CN201710876421.4A 2017-09-25 2017-09-25 一种基于vad和ann的噪声消除方法 Active CN107657961B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710876421.4A CN107657961B (zh) 2017-09-25 2017-09-25 一种基于vad和ann的噪声消除方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710876421.4A CN107657961B (zh) 2017-09-25 2017-09-25 一种基于vad和ann的噪声消除方法

Publications (2)

Publication Number Publication Date
CN107657961A true CN107657961A (zh) 2018-02-02
CN107657961B CN107657961B (zh) 2020-09-25

Family

ID=61131017

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710876421.4A Active CN107657961B (zh) 2017-09-25 2017-09-25 一种基于vad和ann的噪声消除方法

Country Status (1)

Country Link
CN (1) CN107657961B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109872291A (zh) * 2019-02-21 2019-06-11 中国科学技术大学 一种对抗ann中汇聚噪声的正则化方法及系统
CN112151054A (zh) * 2020-09-07 2020-12-29 北京达佳互联信息技术有限公司 音频降噪处理方法、装置、服务器及存储介质
CN114299938A (zh) * 2022-03-07 2022-04-08 凯新创达(深圳)科技发展有限公司 一种基于深度学习的智能语音识别方法和系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101197130A (zh) * 2006-12-07 2008-06-11 华为技术有限公司 声音活动检测方法和声音活动检测器
US20170221479A1 (en) * 2016-02-02 2017-08-03 Kabushiki Kaisha Toshiba Noise compensation in speaker-adaptive systems
US20170229115A1 (en) * 2014-12-08 2017-08-10 Samsung Electronics Co., Ltd. Method and apparatus for training language model and recognizing speech

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101197130A (zh) * 2006-12-07 2008-06-11 华为技术有限公司 声音活动检测方法和声音活动检测器
US20170229115A1 (en) * 2014-12-08 2017-08-10 Samsung Electronics Co., Ltd. Method and apparatus for training language model and recognizing speech
US20170221479A1 (en) * 2016-02-02 2017-08-03 Kabushiki Kaisha Toshiba Noise compensation in speaker-adaptive systems

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
何志连: "BP神经网络整体变步长与个体变步长算法的比较研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
李晓艳: "基于神经网络的自适应噪声抵消的研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109872291A (zh) * 2019-02-21 2019-06-11 中国科学技术大学 一种对抗ann中汇聚噪声的正则化方法及系统
CN109872291B (zh) * 2019-02-21 2021-04-23 中国科学技术大学 一种对抗ann中汇聚噪声的正则化方法及系统
CN112151054A (zh) * 2020-09-07 2020-12-29 北京达佳互联信息技术有限公司 音频降噪处理方法、装置、服务器及存储介质
CN112151054B (zh) * 2020-09-07 2024-02-13 北京达佳互联信息技术有限公司 音频降噪处理方法、装置、服务器及存储介质
CN114299938A (zh) * 2022-03-07 2022-04-08 凯新创达(深圳)科技发展有限公司 一种基于深度学习的智能语音识别方法和系统
CN114299938B (zh) * 2022-03-07 2022-06-17 凯新创达(深圳)科技发展有限公司 一种基于深度学习的智能语音识别方法和系统

Also Published As

Publication number Publication date
CN107657961B (zh) 2020-09-25

Similar Documents

Publication Publication Date Title
CN107703486A (zh) 一种基于卷积神经网络cnn的声源定位算法
CN104157293B (zh) 一种增强声环境中目标语音信号拾取的信号处理方法
CN105513605B (zh) 手机麦克风的语音增强系统和语音增强方法
Haykin et al. Nonlinear adaptive prediction of nonstationary signals
CN109524020B (zh) 一种语音增强处理方法
CN109741727A (zh) 基于有源噪声控制算法的主动降噪耳机、降噪方法及存储介质
CN106971740A (zh) 基于语音存在概率和相位估计的语音增强方法
CN107657961A (zh) 一种基于vad和ann的噪声消除方法
CN107146601A (zh) 一种用于说话人识别系统的后端i‑vector增强方法
CN106203386B (zh) 电力变压器有源噪声控制抗干扰自适应方法
CN104392718A (zh) 一种基于声学模型阵列的鲁棒语音识别方法
CN109767782A (zh) 一种提高dnn模型泛化性能的语音增强方法
CN105280193A (zh) 基于mmse误差准则的先验信噪比估计方法
CN104270539B (zh) 基于系数差的成比例仿射投影回声消除方法
CN105632512A (zh) 一种基于统计模型的双传感器语音增强方法与装置
CN110189766B (zh) 一种基于神经网络的语音风格转移方法
CN107516065A (zh) 经验模态分解结合字典学习的复杂信号去噪方法
CN105845149A (zh) 声音信号中主音高的获取方法及系统
CN114242099A (zh) 基于改进相位谱补偿和全卷积神经网络的语音增强算法
CN107333017A (zh) 一种重用权系数指数型误差自适应回声消除方法
CN110808057A (zh) 一种基于约束朴素生成对抗网络的语音增强方法
CN106023981A (zh) 基于标准粒子群优化算法的主动噪声控制方法
CN105654959A (zh) 一种自适应滤波的系数更新方法及装置
CN101789771B (zh) 基于对数变换的脉冲噪声有源控制方法
CN111739562B (zh) 一种基于数据选择性和高斯混合模型的语音活动检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant