CN102456351A - 一种语音增强的系统 - Google Patents
一种语音增强的系统 Download PDFInfo
- Publication number
- CN102456351A CN102456351A CN2010105152939A CN201010515293A CN102456351A CN 102456351 A CN102456351 A CN 102456351A CN 2010105152939 A CN2010105152939 A CN 2010105152939A CN 201010515293 A CN201010515293 A CN 201010515293A CN 102456351 A CN102456351 A CN 102456351A
- Authority
- CN
- China
- Prior art keywords
- voice
- submodule
- voice signal
- signal
- noise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
本发明提供了一种语音增强的系统,通过特定的双麦克结构,模拟人耳的听觉场景分析能力来实现语音增强,具有与噪声类型无关的特点,可广泛应用于各类噪声环境下的语音增强,利用计算听觉场景分析的原理,将目标语音从背景噪声中进行分离,从而实现去噪,从而实现了与噪声的具体类型、各种噪声源的个数、目标声源与噪声源的空间拓扑结构无关,在实现较好去噪效果的同时保证较高的语音质量。
Description
技术领域
本发明涉及语音增强技术领域,特别是涉及一种语音增强的系统。
背景技术
语音增强技术应用于噪声环境下的语音通信,可以提高通话质量;应用于人机对话,可以提高识别正确率。在人们的日常生活的各种噪声环境下,人们往往更希望获取经过降噪处理后的语音信息。语音增强的方法按通道个数可以分为单麦克语音增强与麦克风阵列增强技术。传统的单麦克语音增强技术如谱减法、维纳滤波等方法,都是先估计噪声幅值或能量,再将其从带噪语音中减去。对于平稳噪声如白噪声,可以达到一定的效果,然而对于诸如非目标人说话的噪声、音乐噪声等非平稳噪声则可能造成较严重的语音损伤。传统的多麦克语音增强技术是波速形成技术,包括延时相加、延时相减等固定波束,以及广义旁瓣消除等自适应波束。贝尔实验室研发了一种具有自适应特性的差分麦克风阵列(Gary W.Elko,Anh-Tho Nguyen Pong,A simple adaptive first-orderdifferential microphone,In:proc.1995Workshop on Applications of SignalProcessing to Audio and Acoustics,72-169),此类方法通过自适应调整空间滤波的参数,对位于零陷方向的不同类型的噪声均有一定的去噪效果但仍存在例如声源定位、对于来自与主声源相近的角度方向的噪声抑制效果差等问题。此外还有多子带的处理技术,如华为公司申请的一个专利(200410034505.6)“一种语音增强方法”。该方法采用的是多子带处理技术,虽然也能取得一定的去噪效果,但由于其仍是基于对子带信噪比的估计,因而也无法广泛适用于各种噪声类型。
因此,目前需要本领域技术人员迫切解决的一个技术问题就是:如何能够创新地提出一种语音增强的方法或者是系统,以满足各类噪声环境下的语音增强需求。
发明内容
本发明所要解决的技术问题是提供一种语音增强的系统,用以满足各类噪声环境下的语音增强需求,在实现较好去噪效果的同时保证较高的语音质量。
为了解决上述问题,本发明公开了一种语音增强的系统,所述系统包括:
语音采集模块,包括两路麦克,其中一路麦克置于目标声源的近端;另一路麦克置于目标声源的远端;所述采集模块用于采集两路语音信号;
双麦克语音增强模块,用于对采集的两路语音信号进行处理,以获取增强后的目标声源语音信号;所述双麦克语音增强模块包括以下子模块:
波束形成子模块,用于获得目标声源语音的参考信号;
零陷波束形成子模块,用于获得环境噪声的参考信号;
外围分析子模块,用于通过模拟声音进入人耳的过程,将两路语音进行分频及对语音信号进行变换;
特征提取子模块,用于提取分频后两路语音信号的延时差和能量差信息;
生成掩蔽子模块,根据提取的延时差和能量差信息获得不同时频区域对应的掩蔽值;
掩蔽值平滑子模块,用于对提取的掩蔽值进行平滑处理;
语音信号重建子模块,用于对由波束形成模块得到的参考信号进行掩蔽值处理,并合成增强后的语音信号作为输出。
优选的,所述语音采集模块还包括以下子模块:
滤波子模块,用于对两路麦克采集的语音信号进行带通滤波;
放大子模块,用于将滤波后的语音信号进行放大;
A/D转换子模块,用于将放大后的语音信号转换为数字信号。
优选的,所述双麦克语音增强模块还包括以下子模块:
语音激活检测子模块,用于检测纯环境噪声语音段。
优选的,所述外围分析子模块包括以下单元:
内耳耳蜗模拟单元,用于将语音信号进行gammatone滤波分频,获取两路信号在128个不同子频带的语音信号;
内耳非线性神经传导模拟单元,用于将每个频率通道的子带信号进行非线性变换;
中耳模拟单元,用于通过对每个通道的gammatone滤波器的增益按照等响度曲线进行调整。
与现有技术相比,本发明具有以下优点:
本发明通过特定的双麦克结构,模拟人耳的听觉场景分析能力来实现语音增强,具有与噪声类型无关的特点,可广泛应用于各类噪声环境下的语音增强,利用计算听觉场景分析的原理,将目标语音从背景噪声中进行分离,从而实现去噪,从而实现了与噪声的具体类型、各种噪声源的个数、目标声源与噪声源的空间拓扑结构无关,在实现较好去噪效果的同时保证较高的语音质量。
附图说明
图1是本发明具体实施方式中所述的人耳基本结构的示意图;
图2是本发明具体实施方式中所述的外围分析的基本原理与人耳工作机理的对照示意图;
图3是本发明实施例所述的一种语音增强的系统结构图;
图4是本发明实施例所述的语音采集中麦克风阵列分布的结构示意图;
图5是本发明实施例所述的语音信号采集部分结构框图;
图6是本发明实施例所述的双麦克语音增强算法部分总体示意图;
图7是本发明实施例所述的双麦克VAD模块原理示意图图;
图8是本发明实施例所述的Meddis模型原理示意图;
图9是本发明实施例所述的信号重建原理示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
近年来,基于听觉场景分析的语音处理技术的研究日趋活跃。听觉场景分析(Auditory Scene Analysis)是指人类的听觉系统能够从复杂的混合声音中选择并跟踪某一说话人的声音,这一现象首先由Cherry发现,并称之为“鸡尾酒会效应”。听觉场景分析的概念首先是由著名心理听觉学家Albert Bregman在其专著《计算场景分析》中提出。听觉系统利用声音的各种特性(时域、频域、空间位置等),通过自下而上(分解)和自上而下(学习)的双向信息交流,对现实世界的混合声音进行分解,使各成分归属于各自的物理声源。
此后,人们尝试用计算机模拟人的这种听觉特性,产生了计算听觉场景分析(Computational Auditory Scene Analysis,CASA)方法。既然是模拟人的一种生理机能,因此,这里对人耳的生理结构及声音进入人耳、引起神经冲动并由听神经传导、人脑的处理机能做一些介绍并用计算机算法的形式模拟实现。
人耳的基本结构的示意图如图1所示,主要包括外耳、中耳、内耳。其中,外耳包括外耳道和鼓膜,鼓膜是中耳的门户。声音经鼓膜传到中耳,中耳主要由锥骨、镫骨、钻骨三块听小骨组成,其对声音的传播起到一个类似于杠杆的放大作用。内耳里最重要的器官是耳蜗,当声音引起内耳的卵圆窗振动后,这种振动通过耳蜗内的淋巴液的流动传递。而耳蜗内有细小的毛细胞把淋巴液流动转化为生物电信号产生神经冲动,最后由神经把信息送往大脑进一步处理。
模拟声音由空间路径进行传播以及人的外耳部分对声音的影响我们用的是HRTF(Head Related Transfer Function),这个头相关传输函数是通过一个人头模型采集声音信号,再计算出来的一个传输函数。
由于中耳的模拟是与内耳的工作相关的,我们先介绍内耳。内耳的第一个过程是进行耳蜗滤波,将声音分解到不同的频带上。例如,可以采用128个滤波器组成的非均匀的gammatone滤波器组,由于各个频带是依据人耳的听觉特性进行划分的,gammatone滤波器组体现了人耳的听觉特性信息。
而中耳的工作可以对于各个频率通道按照等响度曲线对gammatone滤波器的增益进行调整来进行模拟。
内耳的另一个过程就是产生神经冲动的过程,这是一个非线性变换的过程。可以采用Meddis模型进行模拟。
以上模拟人耳的三个过程我们称为外围分析,外围分析的基本原理与人耳工作机理的示意图如图2所示。
实施例:
参照图3,示出了本发明的一种语音增强的系统结构图,所述系统具体包括:
语音采集模块301,包括两路麦克,其中一路麦克置于目标声源的近端;另一路麦克置于目标声源的远端;所述采集模块用于采集两路语音信号;
本发明提出的语音增强技术采用两路麦克风,因而属于麦克风阵列语音增强技术的一种。
语音采集部分的麦克风阵列分布结构如图4所示。其中一路麦克置于目标声源的近端,另一路麦克置于目标说话人的远端。
优选的,所述语音采集模块301还包括以下子模块:
滤波子模块3011,用于对两路麦克采集的语音信号进行带通滤波;
放大子模块3012,用于将滤波后的语音信号进行放大;
A/D转换子模块3013,用于将放大后的语音信号转换为数字信号。
两个麦克采集两路语音信号,所采集的两路语音信号首先经过滤波和放大处理,再通过A/D变换得到语音数字信号,以备进一步处理。语音信号采集部分的结构框图如图5所示。近端麦克风主要是采集的目标声源语音信号但混杂有环境噪声。为使最后的处理效果更好,先是使用直接采集到的两路语音信号进行波束形成计算,形成主瓣方向对准目标声源的一个波束,以抑制掉一部分环境噪声。
远端麦克风主要是采集的环境噪声的参考信号,但混杂有目标声源语音信号。为使最后的处理效果更好,使用直接采集到的两路语音信号进行零陷波束形成计算,形成零瓣方向对准目标声源的一个波束,以抑制掉一部分目标声源信号。
双麦克语音增强模块302,用于对采集的两路语音信号进行处理,以获取增强后的目标声源语音信号;
所述双麦克语音增强模块302包括以下子模块:
波束形成子模块3021,用于获得目标声源语音的参考信号;
零陷波束形成子模块3022,用于获得环境噪声的参考信号;
波束形成子模块3021与零陷波束形成子模块3022的原理相似,大致如下:
对于位置c处的声源发出的语音信号由采集电路采集到的两路信号x1(n)与x2(n)的频域表达为Xi(k)(i=1,2)如式(13)所示:
Xi(k)=Di(k,c)Ai(k)Ui(k,c)S(k)i=1,2(13)
其中,c={x,y,z}是直角系中声源的坐标,pi={xi,yi,zi}是第i个麦克在直角坐标系中的坐标,S(k)是声源信号,Di(k,c)是表示声音在空间中传播时幅度与相位的变化,其表达式如式(14)所示:
上式中fk表示对应第k个频点的时间频率值,v是声音传播速度值的倒数。Ai(k)是表示图5采集电路中前置放大与A/D转换的影响,Ui(k,c)表示第i个麦克风自身固有的方向性。
对于每个麦克,对应有一个滤波器,其参数矢量用Wi(k)表示,则经麦克阵列波束形成处理后的结果Y(k)如式(15)所示:
归一化后得到对于声源位于位置c时的波束形状表达式如式(16)所示:
对于假定的噪声模型,采用最小噪声能量、以所需的波束形状(波束主瓣对准目标声源或是零瓣对准目标声源)为约束条件,由上式,可以得到波束形成或是零陷波束形成滤波处理时,两个麦克对应的滤波器参数Wi(k)。
外围分析子模块3023,用于通过模拟声音进入人耳的过程,将两路语音进行分频及对语音信号进行变换;
在这一阶段,前一阶段由两路麦克波束形成子模块与零陷波束形成子模块得到的两路输出信号(频域记为Y1(k)与Y2(k),时域记为y1(n)与y2(n))分别经过外围分析,通过模拟声音进入人耳的过程,将两路语音进行分频和变换。
对于声音在空间路径中的传播的过程,我们直接由处于空间中特定位置的两路麦克采集到的语音信号自身体现,本实施例中不考虑外耳部分耳廓与外耳道对于声音信号的影响,则HRTF可以取1。
外围分析子模块3023包括以下单元:
内耳耳蜗模拟单元30231,用于将语音信号进行gammatone滤波分频,获取两路信号在128个不同子频带的语音信号;
内耳非线性神经传导模拟单元30232,用于将每个频率通道的子带信号进行非线性变换;
中耳模拟单元30233,用于通过对每个通道的gammatone滤波器的增益按照等响度曲线进行调整。
这里所述的内耳耳蜗模拟单元30231主要起对语音信号进行分频的作用,它相当于一个带通滤波器组。具体来说,实际应用中采用128滤波器组成的gammatone滤波器组来进行模拟,不同的是它对于频带的划分是依据的人耳的听觉特性、采用等矩形带宽ERB(equivalent rectangular bandwidth),类似于bark频率,在低频有较小的带宽,在高频有较大的带宽。各个频率通道的带宽与中心频率值的关系如式(17)所示,其中c可以取1到128,表示第1到128个频率通道,从而获取到两路信号在128个不同频带的语音信号。
ERB(fc)=24.7(4.37fc/1000+1)(17)
Gammatone滤波器连续时域表达如式(18)所示。
其中,c为频率通道数,N是滤波器的阶数,bc是与频率带宽相关的衰减因子,fc是第c个频率通道的中心频率,φc是相位值(取0).bc的计算如式(19)所示。
bc=1.019ERB(fc)(19)
按式(20)y1(n)与y2(n)与对应的数字滤波器g(c,n)进行离散时间卷积处理后将分别得到两路信号经过gammatone滤波器滤波后的128个子带的信号:
yi(c,n)=yi(n)*g(c,n)i=1,2;c=1,2,...,128(20)
声音进入耳蜗分频后,两路信号的每个频率通道的子带信号将分别通过耳蜗内部的毛细胞感应转化为电信号由听神经传导的过程由meddis模型进行模拟(神经传导过程的非线性变换),其原理图如图8所示。其中,q(t)是t时刻毛细胞内部的自由递质数;k(t)是t时刻,递质从毛细胞穿透到突触间隙里的穿透率,即单位时间的穿透量;s(t)是耳蜗毛细胞感受到的语音信号激励,对应于经过耳蜗滤波处理后得到的各个子带信号;c(t)是突触间隙里的递质数。k(t)与s(t)的关系如式(21)所示。
式(21)中的g、A、B是通过生物医学实验获得的参数。
类似于扩散原理,递质在毛细胞与神经突触之间的运动有如下方面:毛细胞里边的递质可以由递质产生器不断得到新的补充,毛细胞里的递质可以以一定的穿透率被释放进入突触间隙,突触间隙里边的递质可以重新返回到毛细胞里边去,也可以损失掉或是以一定的概率激发神经元后突触,从而继续传递下去最终到大脑。由此得到q(t)和c(t)的微分方程,如式(22)和(23)所示。
其中,y,l,r是常数,表示对应运动过程单位时间的发生比率。突触间隙里边的递质以一定的概率激发神经元后突触,如式(24)所示,其中h是常数,与y,l.r单位相同。
Prob(event)=hc(t)dt(24)
在处理离散的语音数字信号时,以上各式可以相应地转换成差分方程。dt取采样周期值。这样在设定各个量的初值后,每来一个样点,则进行一次迭代,对应得到的各个样点由(24)式输出。
此过程可等效为一个滤波器,记为ghaircell(n),则以两路不同子带的信号yi(c,n)(i=1,2)经过毛细胞与神经纤维间的非线性传导后的输出hi(c,n)(i=1,2)如式(25)所示:
hi(c,n)=yi(c,n)*ghaircell(n)=yi(n)*g(c,n)*ghaircell(n)(25)i=1,2;c=1,2,...,128
中耳模拟单元30233通过对每个通道的gammatone滤波器的增益按照等响度曲线进行调整来实现模拟的,具体实现原理如式(26)、(27)、(28)所示。
phon=(loudnesslevelInphones(cf,loudFunc)-DB)(26)
DB=60 (27)
midEarCoeff=10.0phon/200 (28)
其中,loudnesslevelInphones(cf,loudFunc)部分是一个函数,其值为对应一个等响度曲线loudFunc在中心频率cf处对应的一个响度值,单位为phon.由以上三式可以直接得到128个频率通道的中耳系数midEarCoeff(c)(c=1,2,...,128),其作用方式可以直接将该系数附加到对应的频率通道的gammatone滤波器上,通过外围分析所有过程的两路信号的各子带信号仍以hi(c,n)表示,则最后的输出如式(29)、(30)所示:
h1(c,n)=midEarCoeff(c)·y1(n)*g(c,n)*ghaircell(n)c=1,2,...,128(29)
h2(c,n)=midEarCoeff(c)·y2(n)*g(c,n)*ghaircell(n)c=1,2,...,128(30)
为便于后边的特征提取,需对上边两式中各个子带的信号进行分帧,得到第c个频率通道、第m个时间帧、第n个时间点的信号h1(c,m,n)与h2(c,m,n)。从而通过分频和分帧,获得两个二维的语音信号。
特征提取子模块3024,用于提取分频后两路语音信号的延时差和能量差信息;
由两路麦克的空间拓扑结构图图4可以看出,噪声源特别是较远距离的噪声源同目标声源的延时差存在一定的差异,因此,我们需要提取的特征之一是两路麦克的延时差(ITD)。此外,两路麦克的能量差别(IID)信息也能体现噪声源与目标声源之间的差异性,因而ITD与IID信息是我们需要提取出来的两个主要信息。
耳间延时差(Interaural Time Difference)是指两路麦克的语音信号间的延时差值,由于两路麦克采集到的是带噪语音,这个延时差是各种环境噪声源发出的噪声与目标语音混合作用的结果。当噪声强度不大时,在目标声源发声的时候,它主要体现的是目标声源的延时值;如果与目标语音相比,噪声强度很大或是目标语音没有出现的时候,则它主要体现背景噪声的混合延时。由于不同频带的语音信号的延时会有微小的差异,对于同一时间帧,我们需要计算不同频带的延时差,前边的gammatone滤波等过程为这一过程做好了准备。
通过求互相关的最大值可以求得延时差值。第c个频率通道、第m帧、延时为τ时的互相关可以通过式(31)求得,由式(32)可以求得第c个频率通道、第m时间帧的两路麦克信号的延时差值。
其中,h1(c,m,n)与h2(c,m,n)分别为外围分析输出后,在第c个频率通道、第m个时间帧的第n个采样点处的值,L为320,为一帧信号的样点数。与为第c个频率通道、第m个时间帧的两路语音信号的平均值。
耳间能量差(Interaural Intensity Difference)是指两路麦克语音信号间的能量比值,对于同一时间帧信号的不同频率通道,也需要分别计算IID值。第c个频率通道、第m时间帧的IID值可以通过式(33)求得。
对于第c个频率通道、第m个时间帧的位置的语音信号,称为一个T-F单元(时频单元),ITD(c,m)与IID(c,m)均是由两个通道语音信号的第c个频率通道、第m个时间帧对应时频单元的两帧信号计算出来的。对于每一个时频单元,对应有一个ITD(c,m)跟一个IID(c,m)信息,它们是我们后边选择出目标声源语音信息的依据。
生成掩蔽子模块3025,根据提取的延时差和能量差信息获得不同时频区域对应的掩蔽值;
当声音信息最终由神经传递至大脑后,由人脑根据声音的有关信息,如ITD,IID,IED(耳间信号包络差别)等cue信息,对声音进行选择性分离处理。
CASA在模拟完声音进入人耳的过程之后,通过两路语音信号的T-F二维语音信息计算提取出各T-F单元的ITD与IID等cue信息,然后利用声学掩蔽效应进行语音分离。
声学掩蔽效应是一种心理声学现象,它是指在一个较强的声音附近,相对较弱的声音将不被人耳察觉,即被强音所掩蔽。声学掩蔽分为同时掩蔽与异时掩蔽,我们采用同时掩蔽。
我们先是着眼于每一个T-F单元进行掩蔽处理。对于某一个T-F单元,如果目标声源的强度大于背景噪声的强度,则认为在这个T-F单元目标声源能够将背景噪声掩蔽掉,我们保留这个T-F单元信息或是给予一个较大的权值;反之,则认为不能掩蔽掉背景噪声,我们去掉这一块儿语音信息或是给予其一个较小的权值。为尽可能地保留目标声源语音信息,我们采用加权而不采用或取或舍的形式。对于目标语音与噪声强度比越大的T-F单元,我们给越大的权值;反之,如果越小,给越小的权值。
每一个T-F单元的信号中的目标语音与噪声的强度比是无法直接得到的,正如前面分析,我们可以根据ITD和IID信息间接得到。当目标语音强度占优时,ITD与IID主要体现的是目标语音到两路麦克的ITD与IID值,即实际的ITD与IID值会偏向目标语音单独作用时的ITD与IID值;反之,ITD与IID会偏向背景噪声单独作用时的ITD与IID值。据此关系,我们给定加权掩蔽值的原则是,对于某个T-F单元,若它的ITD或是IID越接近目标语音单独作用时的ITD或是IID值,我们给予较大的权值;若是ITD或是IID值越远离目标语音单独作用时的ITD或是IID值时,我们给予较小的权值。
如果每一个T-F单元都按如上进行掩蔽处理,这样的总体效果就是目标声源得到保留或是增强,噪声得到了抑制,从而将目标语音从带噪语音中分离出来,达到了去噪效果。
对于不同的频率通道使用ITD与IID值进行掩蔽值处理的错误率是不相同的,ITD在低频带(较小的频率通道数)有较低的错误率,IID在高频带(较大的频率通道数)会有较低的错误率。经过实验,我们选取了1500HZ(对应第67个频率通道)作为ITD与IID使用的分界线。
优选的,所述双麦克语音增强模块302还包括以下子模块:
语音激活检测子模块,用于检测纯环境噪声语音段。
为进一步提高无目标语音段的噪声抑制效果,我们需要使用VAD模块的判决结果,对于由VAD模块判定为无语音段的语段,这些语段的每一帧的每个频率通道,即这些语段的每个T-F单元,我们都直接给予较小的掩蔽权值,实现对噪声段的直接抑制。
这里,VAD模块充分利用了两通道语音信息,克服了普通VAD无法适用于复杂多变的噪声环境的局限性,对于各种类型的噪声的带噪语音均能得到有效检测,可以与去噪算法很好地配合应用。在去噪处理时引入VAD模块可以在检测出无目标语音说话语段时对带噪信号进行直接的抑制,使总体的信噪比大大提高。外围分析原理如前所述,采用计算机算法的形式模拟实现人耳对声音的外围分析过程。特征提取主要提取的是两路语音的延时差信息(Interaural Time Difference,ITD)与能量差信息(Interaural IntensityDifference,IID)。生成掩蔽过程是对于已得到的ITD与IID信息,进行计算得到掩蔽值。掩蔽值平滑模块是对已得到的各个通道的掩蔽值进行滤波,以去除掩蔽估计值的野点,获取更好的听觉效果。语音重建是对于各个频带的语音信号进行重建,以得到处理后的时域语音信号。
此VAD模块采用两路语音信号进行VAD检测,其原理如图7所示,第1路与第2路分别为离目标声源的近端和远端麦克风。其中x1(n)与x2(n)(n≥0)是由采集部分采集到的两路数字语音信号,采样率为16KHZ,采样精度为16bit,两路信号VAD判断时以帧为单位进行处理,每一帧时长是20ms,帧移是10ms.x1(m)与x2(m)(m≥0)是两路带噪语音第m帧语音信号,每一帧帧长是L,即x1(m)=x1[mL,...,mL+L-1],x2(m)=x2[mL,...,mL+L-1]。σ1(m)与σ2(m)是经过迭代更新、平滑处理后的两路带噪语音第m帧的能量谱。λ1(m)与λ2(m)是估算的两路带噪语音信号中的噪声能量谱。r1(m)与r2(m)是第m帧的两路后验信噪比。
具体的,(a)初始化噪声能量谱值,前5帧认为是噪声,即VAD的值设为0。将离目标声源稍远的麦克采集到的语音信号的前5帧能量平均值作为两路噪声能量谱初值。初始化两路带噪语音的能量谱为第6帧两路带噪语音的能量谱值。
(b)迭代更新。从第6帧开始每来一帧都分别对两路带噪语音能量谱σ1(m)和σ2(m)进行迭代更新,更新方法如式(1)所示;如果当前帧的前一帧的VAD判决结果为噪声,即判决结果为0,则对当前帧的两路噪声能量谱λ1(m)与λ2(m)进行迭代更新,更新方法如式(2)所示:
σi(m)=α|xi(m)|2+(1-α)σi(m-1),i=1,2(1)
两个迭代因子α和β应分别取0.9与0.01,分别取较大值与较小值是用于跟踪快速变化的带噪语音的变化趋势与噪声的缓变趋势。
(c)计算后验信噪比。两路带噪语音能量谱σ1(m)与σ2(m)中均包含两部分能量,即目标语音能量部分与背景噪声能量部分,σ1(m)与σ2(m)能量分解表达式如式(3)与式(4)所示。其中,λd(m)与λx(m)分别表示第1路语音信号中的噪声能量部分与目标声源能量部分。g是由两麦克不同的性能差异造成的,p是由两路麦克到目标声源不同的距离引起的目标声源能量的差异,l1与l2是两路麦克到目标声源的距离如式(5)所示。
σ1(m)=λd(m)+λx(m)(3)
σ2(m)=g(λd(m)+pλx(m))(4)
λ1(m)与λ2(m)是对σ1(m)与σ2(m)中噪声能量部分的估计,由于迭代速度的不同等原因会与σ1(m)与σ2(m)中的噪声能量部分略有差异,表示成如下式(6)与式(7)所示。
两路后验信噪比计算如下式(8)、(9)所示。
其中,
(d)作差比较。将两后验信噪比作差,再设定一个合适的阈值(如可设为1)并与之进行比较,若差值大于该阈值,则认为第m帧有目标语音,否则认为第m帧是纯噪声段。
u(m)=r1(m)-r2(m)=(1-p)ξ(m)(12)
掩蔽值平滑子模块3026,用于对提取的掩蔽值进行平滑处理;
由于我们的掩蔽处理是对于一个个T-F单元分别进行处理的,因而,相邻的T-F单元之间处理后会存在一定的不连续性,所以我们需要对掩蔽值进行平滑处理。
通过对掩蔽值进行频谱分析,其频率成份主要集中在10HZ以下。我们设计了一个数字滤波器,其3db带宽为10HZ,截止频率为50HZ,在50HZ以后幅值下降到80db。
语音信号重建子模块3027,用于对由波束形成模块得到的参考信号进行掩蔽值处理,并合成增强后的语音信号作为输出。
信号的重建过程框图如图9所示,用于对波束形成模块的输出信号进行掩蔽值处理,并合成增强后的语音信号作为输出。主要步骤如下:
依次进行gammatone滤波器组滤波、各个频率通道信号反折、再一次gammatone滤波、再一次各个频率通道信号的反折。这个过程的主要作用是对语音信号进行gammatone滤波,分频为128个频率通道的同时,增加两次反折处理与一次gammatone处理来消除gammatone滤波器组对于不同频通道的延时的影响。
分帧、加窗。分帧时每帧20ms时长,帧叠10ms,加窗时采用汉明窗。
掩蔽值处理。对于分频、分帧后得到的语音信号的每一个T-F单元,采用前边得到的对应于这个T-F单元的掩蔽值进行相乘处理。
重叠相加,再累加。先将各个频率通道的不同的时间帧信号进行重叠相加,得到该频率通道的重建信号,再对128个频率通道的语音信号对应样点累加,得到最后语音频带的重建信号,作为最后的输出结果。
以上对本发明所提供的一种语音增强的系统进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (4)
1.一种语音增强的系统,其特征在于,所述系统包括:
语音采集模块,包括两路麦克,其中一路麦克置于目标声源的近端;另一路麦克置于目标声源的远端;所述采集模块用于采集两路语音信号;
双麦克语音增强模块,用于对采集的两路语音信号进行处理,以获取增强后的目标声源语音信号;所述双麦克语音增强模块包括以下子模块:
波束形成子模块,用于获得目标声源语音的参考信号;
零陷波束形成子模块,用于获得环境噪声的参考信号;
外围分析子模块,用于通过模拟声音进入人耳的过程,将两路语音进行分频及对语音信号进行变换;
特征提取子模块,用于提取分频后两路语音信号的延时差和能量差信息;
生成掩蔽子模块,根据提取的延时差和能量差信息获得不同时频区域对应的掩蔽值;
掩蔽值平滑子模块,用于对提取的掩蔽值进行平滑处理;
语音信号重建子模块,用于对由波束形成模块得到的参考信号进行掩蔽值处理,并合成增强后的语音信号作为输出。
2.根据权利要求1所述的系统,其特征在于,所述语音采集模块还包括以下子模块:
滤波子模块,用于对两路麦克采集的语音信号进行带通滤波;
放大子模块,用于将滤波后的语音信号进行放大;
A/D转换子模块,用于将放大后的语音信号转换为数字信号。
3.根据权利要求1所述的系统,其特征在于,所述双麦克语音增强模块还包括以下子模块:
语音激活检测子模块,用于检测纯环境噪声语音段。
4.根据权利要求1所述的系统,其特征在于,所述外围分析子模块包括以下单元:
内耳耳蜗模拟单元,用于将语音信号进行gammatone滤波分频,获取两路信号在128个不同子频带的语音信号;
内耳非线性神经传导模拟单元,用于将每个频率通道的子带信号进行非线性变换;
中耳模拟单元,用于通过对每个通道的gammatone滤波器的增益按照等响度曲线进行调整。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010105152939A CN102456351A (zh) | 2010-10-14 | 2010-10-14 | 一种语音增强的系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010105152939A CN102456351A (zh) | 2010-10-14 | 2010-10-14 | 一种语音增强的系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102456351A true CN102456351A (zh) | 2012-05-16 |
Family
ID=46039475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010105152939A Pending CN102456351A (zh) | 2010-10-14 | 2010-10-14 | 一种语音增强的系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102456351A (zh) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103761974A (zh) * | 2014-01-28 | 2014-04-30 | 上海力声特医学科技有限公司 | 一种人工耳蜗 |
CN104464745A (zh) * | 2014-12-17 | 2015-03-25 | 中航华东光电(上海)有限公司 | 一种双通道语音增强系统及其方法 |
CN104581516A (zh) * | 2013-10-15 | 2015-04-29 | 清华大学 | 一种医学声信号的双麦克风消噪方法及装置 |
CN104575511A (zh) * | 2013-10-22 | 2015-04-29 | 陈卓 | 语音增强方法及装置 |
CN104751853A (zh) * | 2013-12-31 | 2015-07-01 | 联芯科技有限公司 | 双麦克风噪声抑制方法及系统 |
CN106601249A (zh) * | 2016-11-18 | 2017-04-26 | 清华大学 | 一种基于听觉感知特性的数字语音实时分解/合成方法 |
CN108235207A (zh) * | 2016-12-15 | 2018-06-29 | 西万拓私人有限公司 | 用于确定有用信号源的方向的方法 |
CN108564965A (zh) * | 2018-04-09 | 2018-09-21 | 太原理工大学 | 一种抗噪语音识别系统 |
CN108806707A (zh) * | 2018-06-11 | 2018-11-13 | 百度在线网络技术(北京)有限公司 | 语音处理方法、装置、设备及存储介质 |
CN109346067A (zh) * | 2018-11-05 | 2019-02-15 | 珠海格力电器股份有限公司 | 语音信息的处理方法及装置、存储介质 |
CN109448726A (zh) * | 2019-01-14 | 2019-03-08 | 李庆湧 | 一种语音控制准确率的调整方法及系统 |
CN109994125A (zh) * | 2017-12-29 | 2019-07-09 | 音科有限公司 | 一种提高具有声音触发预设置的听力设备和系统触发精度的方法 |
CN110364175A (zh) * | 2019-08-20 | 2019-10-22 | 北京凌声芯语音科技有限公司 | 语音增强方法及系统、通话设备 |
CN110459235A (zh) * | 2019-08-15 | 2019-11-15 | 深圳乐信软件技术有限公司 | 一种混响消除方法、装置、设备及存储介质 |
CN110660404A (zh) * | 2019-09-19 | 2020-01-07 | 北京声加科技有限公司 | 基于零陷滤波预处理的语音通信和交互应用系统、方法 |
CN110827847A (zh) * | 2019-11-27 | 2020-02-21 | 高小翎 | 低信噪比见长的麦克风阵列语音去噪增强方法 |
CN110858485A (zh) * | 2018-08-23 | 2020-03-03 | 阿里巴巴集团控股有限公司 | 语音增强方法、装置、设备及存储介质 |
CN110875054A (zh) * | 2018-08-31 | 2020-03-10 | 阿里巴巴集团控股有限公司 | 一种远场噪声抑制方法、装置和系统 |
CN112019977A (zh) * | 2020-09-04 | 2020-12-01 | 广州郝舜科技有限公司 | 一种大数据采集用音频采集装置 |
CN112669877A (zh) * | 2020-09-09 | 2021-04-16 | 珠海市杰理科技股份有限公司 | 噪声检测及压制方法、装置、终端设备和系统、芯片 |
CN113281705A (zh) * | 2021-04-28 | 2021-08-20 | 鹦鹉鱼(苏州)智能科技有限公司 | 一种麦克风阵列装置及基于该装置的移动声源可听化方法 |
CN113302681A (zh) * | 2018-12-17 | 2021-08-24 | 皇家飞利浦有限公司 | 噪声掩蔽设备以及用于掩蔽噪声的方法 |
CN113329288A (zh) * | 2021-04-29 | 2021-08-31 | 开放智能技术(南京)有限公司 | 一种基于陷波技术的蓝牙耳机降噪方法 |
WO2021212287A1 (zh) * | 2020-04-20 | 2021-10-28 | 深圳市大疆创新科技有限公司 | 音频信号处理方法、音频处理装置及录音设备 |
CN113613134A (zh) * | 2021-08-05 | 2021-11-05 | 北京安声浩朗科技有限公司 | 耳机 |
CN113630681A (zh) * | 2021-08-05 | 2021-11-09 | 北京安声浩朗科技有限公司 | 主动降噪耳机 |
CN115240689A (zh) * | 2022-09-15 | 2022-10-25 | 深圳市水世界信息有限公司 | 目标声音确定方法、装置、计算机设备和介质 |
-
2010
- 2010-10-14 CN CN2010105152939A patent/CN102456351A/zh active Pending
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104581516A (zh) * | 2013-10-15 | 2015-04-29 | 清华大学 | 一种医学声信号的双麦克风消噪方法及装置 |
CN104575511A (zh) * | 2013-10-22 | 2015-04-29 | 陈卓 | 语音增强方法及装置 |
CN104575511B (zh) * | 2013-10-22 | 2019-05-10 | 陈卓 | 语音增强方法及装置 |
CN104751853B (zh) * | 2013-12-31 | 2019-01-04 | 辰芯科技有限公司 | 双麦克风噪声抑制方法及系统 |
CN104751853A (zh) * | 2013-12-31 | 2015-07-01 | 联芯科技有限公司 | 双麦克风噪声抑制方法及系统 |
CN103761974B (zh) * | 2014-01-28 | 2017-01-25 | 上海力声特医学科技有限公司 | 一种人工耳蜗 |
CN103761974A (zh) * | 2014-01-28 | 2014-04-30 | 上海力声特医学科技有限公司 | 一种人工耳蜗 |
CN104464745A (zh) * | 2014-12-17 | 2015-03-25 | 中航华东光电(上海)有限公司 | 一种双通道语音增强系统及其方法 |
CN106601249A (zh) * | 2016-11-18 | 2017-04-26 | 清华大学 | 一种基于听觉感知特性的数字语音实时分解/合成方法 |
CN108235207B (zh) * | 2016-12-15 | 2020-09-01 | 西万拓私人有限公司 | 用于确定有用信号源的方向的方法 |
CN108235207A (zh) * | 2016-12-15 | 2018-06-29 | 西万拓私人有限公司 | 用于确定有用信号源的方向的方法 |
CN109994125A (zh) * | 2017-12-29 | 2019-07-09 | 音科有限公司 | 一种提高具有声音触发预设置的听力设备和系统触发精度的方法 |
CN108564965A (zh) * | 2018-04-09 | 2018-09-21 | 太原理工大学 | 一种抗噪语音识别系统 |
CN108806707A (zh) * | 2018-06-11 | 2018-11-13 | 百度在线网络技术(北京)有限公司 | 语音处理方法、装置、设备及存储介质 |
US10839820B2 (en) | 2018-06-11 | 2020-11-17 | Baidu Online Network Technology (Beijing) Co., Ltd. | Voice processing method, apparatus, device and storage medium |
CN108806707B (zh) * | 2018-06-11 | 2020-05-12 | 百度在线网络技术(北京)有限公司 | 语音处理方法、装置、设备及存储介质 |
CN110858485A (zh) * | 2018-08-23 | 2020-03-03 | 阿里巴巴集团控股有限公司 | 语音增强方法、装置、设备及存储介质 |
CN110875054A (zh) * | 2018-08-31 | 2020-03-10 | 阿里巴巴集团控股有限公司 | 一种远场噪声抑制方法、装置和系统 |
CN109346067A (zh) * | 2018-11-05 | 2019-02-15 | 珠海格力电器股份有限公司 | 语音信息的处理方法及装置、存储介质 |
CN109346067B (zh) * | 2018-11-05 | 2021-02-26 | 珠海格力电器股份有限公司 | 语音信息的处理方法及装置、存储介质 |
CN113302681A (zh) * | 2018-12-17 | 2021-08-24 | 皇家飞利浦有限公司 | 噪声掩蔽设备以及用于掩蔽噪声的方法 |
CN113302681B (zh) * | 2018-12-17 | 2024-02-13 | 皇家飞利浦有限公司 | 噪声掩蔽设备以及用于掩蔽噪声的方法 |
CN109448726A (zh) * | 2019-01-14 | 2019-03-08 | 李庆湧 | 一种语音控制准确率的调整方法及系统 |
CN110459235A (zh) * | 2019-08-15 | 2019-11-15 | 深圳乐信软件技术有限公司 | 一种混响消除方法、装置、设备及存储介质 |
CN110364175A (zh) * | 2019-08-20 | 2019-10-22 | 北京凌声芯语音科技有限公司 | 语音增强方法及系统、通话设备 |
CN110364175B (zh) * | 2019-08-20 | 2022-02-18 | 北京凌声芯语音科技有限公司 | 语音增强方法及系统、通话设备 |
CN110660404A (zh) * | 2019-09-19 | 2020-01-07 | 北京声加科技有限公司 | 基于零陷滤波预处理的语音通信和交互应用系统、方法 |
CN110660404B (zh) * | 2019-09-19 | 2021-12-07 | 北京声加科技有限公司 | 基于零陷滤波预处理的语音通信和交互应用系统、方法 |
CN110827847B (zh) * | 2019-11-27 | 2022-10-18 | 添津人工智能通用应用系统(天津)有限公司 | 低信噪比见长的麦克风阵列语音去噪增强方法 |
CN110827847A (zh) * | 2019-11-27 | 2020-02-21 | 高小翎 | 低信噪比见长的麦克风阵列语音去噪增强方法 |
WO2021212287A1 (zh) * | 2020-04-20 | 2021-10-28 | 深圳市大疆创新科技有限公司 | 音频信号处理方法、音频处理装置及录音设备 |
CN112019977A (zh) * | 2020-09-04 | 2020-12-01 | 广州郝舜科技有限公司 | 一种大数据采集用音频采集装置 |
CN112669877A (zh) * | 2020-09-09 | 2021-04-16 | 珠海市杰理科技股份有限公司 | 噪声检测及压制方法、装置、终端设备和系统、芯片 |
CN112669877B (zh) * | 2020-09-09 | 2023-09-29 | 珠海市杰理科技股份有限公司 | 噪声检测及压制方法、装置、终端设备和系统、芯片 |
CN113281705A (zh) * | 2021-04-28 | 2021-08-20 | 鹦鹉鱼(苏州)智能科技有限公司 | 一种麦克风阵列装置及基于该装置的移动声源可听化方法 |
CN113329288A (zh) * | 2021-04-29 | 2021-08-31 | 开放智能技术(南京)有限公司 | 一种基于陷波技术的蓝牙耳机降噪方法 |
CN113613134A (zh) * | 2021-08-05 | 2021-11-05 | 北京安声浩朗科技有限公司 | 耳机 |
CN113613134B (zh) * | 2021-08-05 | 2023-11-07 | 北京安声浩朗科技有限公司 | 耳机 |
CN113630681A (zh) * | 2021-08-05 | 2021-11-09 | 北京安声浩朗科技有限公司 | 主动降噪耳机 |
CN115240689B (zh) * | 2022-09-15 | 2022-12-02 | 深圳市水世界信息有限公司 | 目标声音确定方法、装置、计算机设备和介质 |
CN115240689A (zh) * | 2022-09-15 | 2022-10-25 | 深圳市水世界信息有限公司 | 目标声音确定方法、装置、计算机设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102456351A (zh) | 一种语音增强的系统 | |
CN102157156B (zh) | 一种单通道语音增强的方法和系统 | |
Lai et al. | Deep learning–based noise reduction approach to improve speech intelligibility for cochlear implant recipients | |
Stern et al. | Hearing is believing: Biologically inspired methods for robust automatic speech recognition | |
CN111833896B (zh) | 融合反馈信号的语音增强方法、系统、装置和存储介质 | |
CN101593522B (zh) | 一种全频域数字助听方法和设备 | |
CN110473567A (zh) | 基于深度神经网络的音频处理方法、装置及存储介质 | |
CN105741849A (zh) | 数字助听器中融合相位估计与人耳听觉特性的语音增强方法 | |
US20240079021A1 (en) | Voice enhancement method, apparatus and system, and computer-readable storage medium | |
CN103456312B (zh) | 一种基于计算听觉场景分析的单通道语音盲分离方法 | |
CN104575511B (zh) | 语音增强方法及装置 | |
CN108122559B (zh) | 一种数字助听器中基于深度学习的双耳声源定位方法 | |
CN106782497A (zh) | 一种基于便携式智能终端的智能语音降噪算法 | |
Roman et al. | Pitch-based monaural segregation of reverberant speech | |
CN105931649A (zh) | 基于频谱分析的超低时延音频处理方法与系统 | |
Hummersone | A psychoacoustic engineering approach to machine sound source separation in reverberant environments | |
CN101447189A (zh) | 一种语音干扰方法 | |
CN103731780A (zh) | 数字助听器信号处理方法 | |
Patil et al. | Marathi speech intelligibility enhancement using i-ams based neuro-fuzzy classifier approach for hearing aid users | |
Çolak et al. | A novel voice activity detection for multi-channel noise reduction | |
CN106782588A (zh) | 一种基于听觉小波包的毫米波生物雷达语音增强方法 | |
CN110010150A (zh) | 基于多分辨率的听觉感知语音特征参数提取方法 | |
Chen et al. | Real-time spectrum estimation–based dual-channel speech-enhancement algorithm for cochlear implant | |
Kokkinakis et al. | Optimized gain functions in ideal time-frequency masks and their application to dereverberation for cochlear implants | |
Zhang et al. | A speech separation algorithm based on the comb-filter effect |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C12 | Rejection of a patent application after its publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20120516 |