CN108735229B - 基于信噪比加权的幅度与相位联合补偿抗噪语音增强方法 - Google Patents

基于信噪比加权的幅度与相位联合补偿抗噪语音增强方法 Download PDF

Info

Publication number
CN108735229B
CN108735229B CN201810599063.1A CN201810599063A CN108735229B CN 108735229 B CN108735229 B CN 108735229B CN 201810599063 A CN201810599063 A CN 201810599063A CN 108735229 B CN108735229 B CN 108735229B
Authority
CN
China
Prior art keywords
spectrum
signal
noise
current frame
phase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201810599063.1A
Other languages
English (en)
Other versions
CN108735229A (zh
Inventor
宁更新
谭纬城
赵雪瑾
陈芳炯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201810599063.1A priority Critical patent/CN108735229B/zh
Publication of CN108735229A publication Critical patent/CN108735229A/zh
Application granted granted Critical
Publication of CN108735229B publication Critical patent/CN108735229B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0264Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/84Detection of presence or absence of voice signals for discriminating voice from noise

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)

Abstract

本发明公开了一种基于信噪比加权的幅度与相位联合补偿抗噪语音增强方法及实现装置,该方法在预处理流程中进行预加重,数字滤波,分帧,加窗处理,接着进入常规的语音活动检测,检测当前帧为语音帧还是噪声帧,分别进行相应的处理。若当前帧为噪声帧,则利用谱减法估计去噪语音功率谱Pd(n,k);若当前帧为语音帧,首先利用现有成熟的方法估计输入数字语音信号的信噪比SNR,然后获取输入数字语音信号的谱减法频谱和相位谱补偿频谱,推导两者对应的权重比例并进行加权,得到融合后的改进语音增强频谱,最后通过离散傅里叶反变换输出增强语音y[n,m]。该发明能在任意信噪比环境下取得较好的语音增强效果。

Description

基于信噪比加权的幅度与相位联合补偿抗噪语音增强方法
技术领域
本发明涉及语音信号处理技术领域,具体涉及一种基于信噪比加权的幅度与相位联合补偿抗噪语音增强方法及实现装置。
背景技术
在实际的语音通信系统中,语音信号通常不可避免地会受到外界环境噪声的干扰。这些噪声不仅严重干扰了语音的可懂度,同时也会导致语音处理系统的性能急剧恶化。随着语音识别和语音监控等领域的进一步发展,抑制环境噪声及干扰,提高语音信号的质量和清晰度,从带噪语音中尽可能地恢复纯净语音,已成为国内外众多学者研究的热点,同时也是一个亟待解决的课题。
在语音增强领域,研究者们提出了各种语音增强算法,主要有谱估计法和相位谱补偿法等,其中谱估计法又包括谱减法、最小均方误差估计法、信号子空间法等,而相位谱补偿法又包括自适应相位谱补偿、稀疏低秩模型相位谱补偿等。谱估计法应用相对成熟,算法简单便于实现快速处理,不足之处是低信噪比情况下增强效果不佳,处理后会产生一定的失真。而相位谱补偿法尽管能恢复纯净语音的相位信息,但缺点是仍然保留噪声信号的幅度信息,近年来,相位特性在语音增强中的重要性被逐渐论证,特别是在低信噪比环境下。
无论是基于谱估计法还是相位谱补偿法,传统的语音增强系统抗噪效果往往不佳。
发明内容
基于传统幅度谱估计的语音增强算法由于没有对相位进行改变,仍然保留了带噪语音的相位信息,所以抗噪效果往往不佳。本发明的目的在于克服传统语音增强技术的缺点与不足,提出一种基于信噪比加权的幅度与相位联合补偿语音抗噪方法及实现装置,通过改变幅度谱的同时对相位谱进行相应的补偿,使噪声抑制效果达到最优,并提出根据信噪比加权的权值分配计算方法。该方法能在任意信噪比环境下取得较好的语音增强效果。
根据公开的实施例,本发明的第一方面公开了一种基于信噪比加权的幅度与相位联合补偿抗噪语音增强方法,所述的语音增强方法包括:
对当前帧输入数字语音信号进行预加重、数字滤波、分帧、加窗处理,接着进入常规的语音活动检测,检测当前帧为语音帧还是噪声帧,分别进行相应的处理;
若当前帧为噪声帧,则利用谱减法估计去噪语音功率谱Pd(n,k);
若当前帧为语音帧,首先估计输入数字语音信号的信噪比SNR,然后获取输入数字语音信号的谱减法频谱和相位谱补偿频谱,推导两者对应的权重比例并进行加权,得到融合后的改进语音增强频谱,最后通过离散傅里叶反变换输出增强语音y[n,m]。
进一步地,所述的对当前帧输入数字语音信号进行预加重、数字滤波、分帧、加窗处理的过程如下:
对当前帧输入数字语音信号进行分帧和加窗,得到x[n,m],1<=m<=N,其中n表示第n帧数字语音信号,N表示一帧数字语音信号的长度;
用噪声估计方法估计出噪声功率谱P(n,k),1<=k<=N,k表示语音信号频点数,获取更新长时加权噪声功率谱Pv(n,k),其表达式如下:
Pv(n,k)=(1-r)P(n,k)+rPv(n-1,k)1<=k<=N (公式1)
其中Pv(0,k)=0,1<=k<=N,r为调节因子,其取值范围为(0,1)。
进一步地,所述的估计输入数字语音信号的信噪比SNR,然后获取输入数字语音信号的谱减法频谱和相位谱补偿频谱的过程如下:
估计出当前帧输入数字语音信号的信噪比SNR,分别获取基于谱减法和相位谱补偿法后的数字语音频谱表达式,当前帧输入数字语音信号x[n,m]经过离散傅里叶变换后,极坐标表示形式如下:
X(n,k)=|X(n,k)|exp(j∠X(n,k))1<=k<=N (公式2)
其中,|X(n,k)|表示当前帧输入数字语音信号幅度谱,∠X(n,k)表示当前帧输入数字语音信号相位谱;
现定义一个相位谱补偿函数Λ(n,k),表达式如下:
Λ(n,k)=δT(k)|P(n,k)|1<=k<=N (公式3)
其中,δ是相位谱补偿因子,其取值范围(0,10),T(k)为反对称函数,定义如下:
Figure GDA0002404708320000031
将相位谱补偿函数与当前帧输入数字语音信号频谱相叠加形成一个复合谱信号XΛ(n,k),表达式如下:
XΛ(n,k)=X(n,k)+Λ(n,k)1<=k<=N (公式5)
补偿后的相位谱∠XΛ(n,k)表达式为:
∠XΛ(n,k)=arg[XΛ(n,k)]1<=k<=N (公式6)
其中arg[·]是取相位函数,将补偿后的相位谱与含噪语音的幅度谱相结合,得到语音相位增强后的频谱SΛ(n,k),其表达式如下:
SΛ(n,k)=|X(n,k)|exp(j∠XΛ(n,k))1<=k<=N (公式7)
基于谱减法的去噪语音功率谱Px(n,k)如下:
Figure GDA0002404708320000041
进一步地,所述的推导两者对应的权重比例并进行加权,得到融合后的改进语音增强频谱,最后通过离散傅里叶反变换输出增强语音y[n,m]的过程如下:
获取基于信噪比加权的幅度与相位联合补偿抗噪的语音增强频谱G(n,k):
Figure GDA0002404708320000042
其中满足0<α<1,其取值由信噪比SNR决定,即α=f(SNR),将G(n,k)经过离散傅里叶反变换后得到当前帧输出数字语音信号y[n,m]。
进一步地,所述的f(SNR)在(-∞,+∞)上为一个单调递减函数,由一元线性函数、双边指数函数或argtan函数构造而成。
进一步地,所述的f(SNR)由argtan函数构造而成时,
Figure GDA0002404708320000043
进一步地,所述的若当前帧为噪声帧,则利用谱减法估计去噪语音频谱Pd(n,k)的过程如下:
输入数字语音信号经过离散傅里叶变换推导后,极坐标表示形式如下:
X(n,k)=|X(n,k)|exp(j∠X(n,k))1<=k<=N (公式11)
其中|X(n,k)|表示当前帧输入数字语音信号幅度谱,∠X(n,k)表示当前帧输入数字语音信号相位谱,纯噪声情况下基于谱减法的去噪语音功率谱Pd(n,k)估计如下:
Figure GDA0002404708320000051
其中|X(n,k)|2为当前帧输入数字语音信号功率谱密度,P(n,k)为当前帧输入数字语音信号噪声功率谱密度;
将Pd(n,k)exp(j∠X(n,k))经过离散傅里叶反变换得到当前帧输出数字语音信号。
根据公开的实施例,本发明的第二方面公开了一种基于信噪比加权的幅度与相位联合补偿抗噪语音增强方法的实现装置,所述的实现装置包括用于进行含噪语音信号的信噪比SNR估计、权值计算和改进语音增强频谱合成的DSP语音芯片或ARM微处理器、以及分别与所述的DSP语音芯片或ARM微处理器连接的电源模块、存储模块、输出模块、DSP语音芯片或ARM微处理器、A/D转换器及USB接口,
所述的实现装置还包括语音接收器,用于接收含噪语音信号,并与所述的A/D转换器相连;所述的A/D转换器将输入语音数字化,所述的存储模块存储语音信息,所述的输出模块输出语音增强信号,所述的USB接口用于与外部计算机连接,实现在线实时编程。
进一步地,所述的A/D转换器采用ADC0809芯片。
本发明相对于现有技术具有如下的优点及效果:
1、适应范围广。本发明的应用领域十分宽泛,涉及到周围实际环境的语音传输。
2、效果更佳。本发明应用了语音增强中高信噪比环境下谱减法的去噪效果更佳,而在低信噪比环境下相位谱补偿法鲁棒性更高的特性,改进了传统语音增强方式,提高去噪的准确性,尤其是在低信噪比情况下增强效果更为显著。
3、成本较低。使用一个普通的DSP语音芯片或者ARM微处理器即可完成所有语音信号运算。
4、使用便捷。本装置可以插到任何有USB接口的设备上,即插即用,非常便利。
5、适应性强。对使用环境没有特殊要求,可以在大部分环境中正常工作。
附图说明
图1是本发明的谱减法与相位谱补偿算法流程图;
图2是本发明装置的硬件结构装置图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
如图1所示,本实施例公开了一种基于信噪比加权的幅度与相位联合补偿语音抗噪方法,包括以下步骤:
步骤一:对当前帧输入数字语音信号进行预处理(包括分帧和加窗)得到x[n,m],(1<=m<=N),其中n表示第n帧数字语音信号,N表示一帧数字语音信号的长度。
用现有的噪声估计方法,估计出噪声功率谱P(n,k),1<=k<=N,k表示语音信号频点数,获取更新长时加权噪声功率谱Pv(n,k),其表达式如下:
Pv(n,k)=(1-r)P(n,k)+rPv(n-1,k)1<=k<=N (公式1)
其中Pv(0,k)=0,1<=k<=N,r为调节因子,其取值范围为(0,1)。
对当前帧输入数字语音信号x[n,m]进行常规的语音活动检测(Voice ActivityDetection,VAD)。
(1)若当前帧输入数字语音信号为噪声帧,则跳转到步骤四;
(2)若当前帧输入数字语音信号为含噪语音帧,则进行步骤二。
步骤二:首先利用现有成熟方法估计出当前帧输入数字语音信号的信噪比SNR。
分别获取基于谱减法和相位谱补偿法后的数字语音频谱表达式。当前帧输入数字语音信号x[n,m]经过离散傅里叶变换后,极坐标表示形式如下:
X(n,k)=|X(n,k)|exp(j∠X(n,k))1<=k<=N (公式2)
其中,|X(n,k)|表示当前帧输入数字语音信号幅度谱,∠X(n,k)表示当前帧输入数字语音信号相位谱。
现定义一个相位谱补偿函数Λ(n,k),表达式如下:
Λ(n,k)=δT(k)|P(n,k)|1<=k<=N (公式3)
其中,δ是相位谱补偿因子,其取值范围(0,10),T(k)为反对称函数,定义如下:
Figure GDA0002404708320000071
将相位谱补偿函数与当前帧输入数字语音信号频谱相叠加形成一个复合谱信号XΛ(n,k),表达式如下:
XΛ(n,k)=X(n,k)+Λ(n,k)1<=k<=N (公式5)
补偿后的相位谱∠XΛ(n,k)表达式为:
∠XΛ(n,k)=arg[XΛ(n,k)]1<=k<=N (公式6)
其中arg[·]是取相位函数,将补偿后的相位谱与含噪语音的幅度谱相结合,得到语音相位增强后的频谱SΛ(n,k),其表达式如下:
SΛ(n,k)=|X(n,k)|exp(j∠XΛ(n,k))1<=k<=N (公式7)
基于谱减法的去噪语音功率谱Px(n,k)如下:
Figure GDA0002404708320000081
步骤三:获取基于信噪比加权的幅度与相位联合补偿抗噪的语音增强频谱G(n,k):
Figure GDA0002404708320000082
其中满足0<α<1,其取值由信噪比SNR决定,即α=f(SNR)。则f(SNR)在(-∞,+∞)上为一个单调递减函数,可以由一元线性函数,双边指数函数,argtan函数等构造而成。例如:
Figure GDA0002404708320000083
将G(n,k)经过离散傅里叶反变换后得到当前帧输出数字语音信号y[n,m],然后重复步骤一,对下一帧输入数字语音信号进行处理。
步骤四:输入数字语音信号经过离散傅里叶变换推导后,极坐标表示形式如下:
X(n,k)=|X(n,k)|exp(j∠X(n,k))1<=k<=N (公式11)
其中|X(n,k)|表示当前帧输入数字语音信号幅度谱,∠X(n,k)表示当前帧输入数字语音信号相位谱。纯噪声情况下基于谱减法的去噪语音功率谱Pd(n,k)估计如下:
Figure GDA0002404708320000084
其中|X(n,k)|2为当前帧输入数字语音信号功率谱密度,P(n,k)为当前帧输入数字语音信号噪声功率谱密度。
将Pd(n,k)exp(j∠X(n,k))经过离散傅里叶反变换得到当前帧输出数字语音信号,然后重复步骤一,对下一帧输入数字语音信号进行处理。
实施例二
如附图2所示,本实施例还公开了一种基于信噪比加权的幅度与相位联合补偿语音抗噪方法的实现装置,可以使用DSP系列语音芯片,或者ARM系列微处理器实现(例如TMS320C6748语音芯片或者S3C6410微处理器)。具体通过下述技术方案实现:一种基于信噪比加权的幅度与相位联合补偿语音抗噪增强装置,包括:电源模块、存储模块、输出模块、DSP语音芯片或ARM微处理器、语音接收器、A/D转换器及USB接口组成。语音接收器接收含噪语音信号,A/D转换器将输入语音数字化,DSP语音芯片或ARM微处理器进行含噪语音信号的信噪比SNR估计、权值计算和改进语音增强频谱合成,存储模块存储语音信息,输出模块输出语音增强信号,USB接口可以与计算机连接,实现在线实时编程。其中可以采用ADC0809芯片实现A/D转换。核心计算模块可以使用DSP系列语音芯片或者ARM系列微处理器实现。
实施例三
如图1所示,输入数字语音信号首先进入信号预处理模块,在预处理流程中进行预加重,数字滤波,分帧,加窗处理,接着进入常规的语音活动检测,检测当前帧为语音帧还是噪声帧,分别进行相应的处理。若当前帧为噪声帧,则利用谱减法估计去噪语音频谱Pd(n,k);若当前帧为语音帧,首先利用现有成熟的方法估计输入数字语音信号的信噪比SNR,然后获取输入数字语音信号的谱减法频谱和相位谱补偿频谱,推导两者对应的权重比例并进行加权,得到融合后的改进语音增强频谱,最后通过离散傅里叶反变换输出增强语音y[n,m]。
语音增强装置的具体实现步骤如下:
步骤1:对输入数字语音信号进行数字化处理,采样频率为16kHz,然后进行预加重处理,以20ms为一帧,帧移为10ms,窗函数选择为汉明窗,调节因子r取值为0.4。
步骤2:估计输入数字语音信号的SNR,对预处理后的输入数字语音信号进行常规的语音活动检测,对每帧语音进行分析。若当前帧为噪声帧,跳转到步骤6;若当前帧为语音帧,则进行步骤3。
步骤3:通过(公式3)获取相应的相位谱补偿函数,并且定义相位补偿因子δ为5.5,得到基于相位谱补偿法的语音增强频谱SΛ(n,k)。
步骤4:根据(公式8)计算基于谱减法的语音增强频谱Px(n,k)。
步骤5:设定相位谱补偿法的权重α=f(SNR)=0.5exp(-SNR),则谱减法的权重β=1-f(SNR)=1-0.5exp(-SNR),通过计算相位谱补偿法和谱减法的对应权重,加权后组合成改进复合频谱G(n,k),作为纯净语音信号的估计,最后通过离散傅里叶反变换输出增强语音y[n,m],然后重复步骤1,对下一帧语音进行处理。
步骤6:根据(公式12)计算纯噪声情况下基于谱减法的语音增强频谱Pd(n,k),经过离散傅里叶反变换后得到当前帧的输出数字语音信号,然后重复步骤1,对下一帧语音进行处理。
综上所述,本发明首先利用谱估计法在高信噪比环境下去噪效果更佳,而相位谱补偿法在低信噪比环境下鲁棒性更高的特性,充分结合两者的优势,提出一种基于信噪比加权的幅度与相位联合补偿语音抗噪算法,即结合谱减法和相位谱补偿法,通过在不同信噪比环境下,采取不同的权重取值,二者产生一个新的语音增强复合频谱,最后提出相应的装置模型。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (6)

1.一种基于信噪比加权的幅度与相位联合补偿抗噪语音增强方法,其特征在于,所述的语音增强方法包括:
对当前帧输入数字语音信号进行预加重、数字滤波、分帧、加窗处理,接着进入常规的语音活动检测,检测当前帧为语音帧还是噪声帧,分别进行相应的处理;
若当前帧为噪声帧,则利用谱减法估计去噪语音功率谱Pd(n,k);
若当前帧为语音帧,首先估计输入数字语音信号的信噪比SNR,然后获取输入数字语音信号的谱减法频谱和相位谱补偿频谱,推导两者对应的权重比例α、β并进行加权,获取基于信噪比SNR加权的幅度与相位联合补偿抗噪的语音增强频谱G(n,k),最后将G(n,k)经过离散傅里叶反变换输出增强语音y[n,m];
其中,所述的语音增强频谱G(n,k)表达式如下:
Figure FDA0002440764970000011
满足0<α<1,其取值由信噪比SNR决定,即α=f(SNR),SΛ(n,k)为语音相位增强后的频谱,Px(n,k)为基于谱减法的去噪语音功率谱,n表示第n帧数字语音信号,k表示语音信号频点数,N表示一帧数字语音信号的长度,∠X(n,k)表示当前帧输入数字语音信号相位谱。
2.根据权利要求1所述的基于信噪比加权的幅度与相位联合补偿抗噪语音增强方法,其特征在于,所述的对当前帧输入数字语音信号进行预加重、数字滤波、分帧、加窗处理的过程如下:
对当前帧输入数字语音信号进行分帧和加窗,得到x[n,m],1<=m<=N,其中n表示第n帧数字语音信号,N表示一帧数字语音信号的长度;
用噪声估计方法估计出噪声功率谱P(n,k),1<=k<=N,k表示语音信号频点数,获取更新长时加权噪声功率谱Pv(n,k),其表达式如下:
Pv(n,k)=(1-r)P(n,k)+rPv(n-1,k) 1<=k<=N (公式1)
其中Pv(0,k)=0,1<=k<=N,r为调节因子,其取值范围为(0,1)。
3.根据权利要求2所述的基于信噪比加权的幅度与相位联合补偿抗噪语音增强方法,其特征在于,所述的估计输入数字语音信号的信噪比SNR,然后获取输入数字语音信号的谱减法频谱和相位谱补偿频谱的过程如下:
估计出当前帧输入数字语音信号的信噪比SNR,分别获取基于谱减法和相位谱补偿法后的数字语音频谱表达式,当前帧输入数字语音信号x[n,m]经过离散傅里叶变换后,极坐标表示形式如下:
X(n,k)=|X(n,k)|exp(j∠X(n,k)) 1<=k<=N (公式2)
其中,|X(n,k)|表示当前帧输入数字语音信号幅度谱,∠X(n,k)表示当前帧输入数字语音信号相位谱;
现定义一个相位谱补偿函数Λ(n,k),表达式如下:
Λ(n,k)=δT(k)|P(n,k)| 1<=k<=N (公式3)
其中,δ是相位谱补偿因子,其取值范围(0,10),T(k)为反对称函数,定义如下:
Figure FDA0002440764970000021
将相位谱补偿函数与当前帧输入数字语音信号频谱相叠加形成一个复合谱信号XΛ(n,k),表达式如下:
XΛ(n,k)=X(n,k)+Λ(n,k) 1<=k<=N (公式5)
补偿后的相位谱∠XΛ(n,k)表达式为:
∠XΛ(n,k)=arg[XΛ(n,k)] 1<=k<=N (公式6)
其中arg[·]是取相位函数,将补偿后的相位谱与含噪语音的幅度谱相结合,得到语音相位增强后的频谱SΛ(n,k),其表达式如下:
SΛ(n,k)=|X(n,k)|exp(j∠XΛ(n,k)) 1<=k<=N (公式7)
基于谱减法的去噪语音功率谱Px(n,k)如下:
Figure FDA0002440764970000031
4.根据权利要求1所述的基于信噪比加权的幅度与相位联合补偿抗噪语音增强方法,其特征在于,所述的f(SNR)在(-∞,+∞)上为一个单调递减函数,由一元线性函数、双边指数函数或argtan函数构造而成。
5.根据权利要求4所述的基于信噪比加权的幅度与相位联合补偿抗噪语音增强方法,其特征在于,所述的f(SNR)由argtan函数构造而成时,
Figure FDA0002440764970000032
6.根据权利要求2所述的基于信噪比加权的幅度与相位联合补偿抗噪语音增强方法,其特征在于,所述的若当前帧为噪声帧,则利用谱减法估计去噪语音功率谱Pd(n,k)的过程如下:
输入数字语音信号经过离散傅里叶变换推导后,极坐标表示形式如下:
X(n,k)=|X(n,k)|exp(j∠X(n,k)) 1<=k<=N (公式11)
其中|X(n,k)|表示当前帧输入数字语音信号幅度谱,∠X(n,k)表示当前帧输入数字语音信号相位谱,纯噪声情况下基于谱减法的去噪语音功率谱Pd(n,k)估计如下:
Figure FDA0002440764970000033
其中|X(n,k)|2为当前帧输入数字语音信号功率谱密度,P(n,k)为当前帧输入数字语音信号噪声功率谱密度;
将Pd(n,k)exp(j∠X(n,k))经过离散傅里叶反变换得到当前帧输出数字语音信号。
CN201810599063.1A 2018-06-12 2018-06-12 基于信噪比加权的幅度与相位联合补偿抗噪语音增强方法 Expired - Fee Related CN108735229B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810599063.1A CN108735229B (zh) 2018-06-12 2018-06-12 基于信噪比加权的幅度与相位联合补偿抗噪语音增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810599063.1A CN108735229B (zh) 2018-06-12 2018-06-12 基于信噪比加权的幅度与相位联合补偿抗噪语音增强方法

Publications (2)

Publication Number Publication Date
CN108735229A CN108735229A (zh) 2018-11-02
CN108735229B true CN108735229B (zh) 2020-06-19

Family

ID=63929255

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810599063.1A Expired - Fee Related CN108735229B (zh) 2018-06-12 2018-06-12 基于信噪比加权的幅度与相位联合补偿抗噪语音增强方法

Country Status (1)

Country Link
CN (1) CN108735229B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109727605B (zh) * 2018-12-29 2020-06-12 苏州思必驰信息科技有限公司 处理声音信号的方法及系统
CN111477237B (zh) * 2019-01-04 2022-01-07 北京京东尚科信息技术有限公司 音频降噪方法、装置和电子设备
CN110797039B (zh) * 2019-08-15 2023-10-24 腾讯科技(深圳)有限公司 语音处理方法、装置、终端及介质
CN110931038B (zh) * 2019-11-25 2022-08-16 西安讯飞超脑信息科技有限公司 一种语音增强方法、装置、设备及存储介质
CN110856072B (zh) * 2019-12-04 2021-03-19 北京声加科技有限公司 一种耳机通话降噪方法及耳机
CN111508514A (zh) * 2020-04-10 2020-08-07 江苏科技大学 基于补偿相位谱的单通道语音增强算法
CN111429932A (zh) * 2020-06-10 2020-07-17 浙江远传信息技术股份有限公司 语音降噪方法、装置、设备及介质
CN113035222B (zh) * 2021-02-26 2023-10-27 北京安声浩朗科技有限公司 语音降噪方法、装置、滤波器的确定方法、语音交互设备
CN114400018A (zh) * 2021-12-31 2022-04-26 深圳市优必选科技股份有限公司 语音降噪方法、装置、电子设备及计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1493073A (zh) * 2000-12-28 2004-04-28 �ձ�������ʽ���� 噪声抑制方法和设备
CN102074245A (zh) * 2011-01-05 2011-05-25 瑞声声学科技(深圳)有限公司 基于双麦克风语音增强装置及语音增强方法
CN103456310A (zh) * 2013-08-28 2013-12-18 大连理工大学 一种基于谱估计的瞬态噪声抑制方法
CN103778914A (zh) * 2014-01-27 2014-05-07 华南理工大学 基于信噪比加权模板特征匹配的抗噪语音识别方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4469882B2 (ja) * 2007-08-16 2010-06-02 株式会社東芝 音響信号処理方法及び装置
CN105023580B (zh) * 2015-06-25 2018-11-13 中国人民解放军理工大学 基于可分离深度自动编码技术的无监督噪声估计和语音增强方法
CN106486131B (zh) * 2016-10-14 2019-10-11 上海谦问万答吧云计算科技有限公司 一种语音去噪的方法及装置
CN107680609A (zh) * 2017-09-12 2018-02-09 桂林电子科技大学 一种基于噪声功率谱密度的双通道语音增强方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1493073A (zh) * 2000-12-28 2004-04-28 �ձ�������ʽ���� 噪声抑制方法和设备
CN102074245A (zh) * 2011-01-05 2011-05-25 瑞声声学科技(深圳)有限公司 基于双麦克风语音增强装置及语音增强方法
CN103456310A (zh) * 2013-08-28 2013-12-18 大连理工大学 一种基于谱估计的瞬态噪声抑制方法
CN103778914A (zh) * 2014-01-27 2014-05-07 华南理工大学 基于信噪比加权模板特征匹配的抗噪语音识别方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
语音增强算法研究与实现;徐宁,何晨;《仪表技术》;20150615;全文 *

Also Published As

Publication number Publication date
CN108735229A (zh) 2018-11-02

Similar Documents

Publication Publication Date Title
CN108735229B (zh) 基于信噪比加权的幅度与相位联合补偿抗噪语音增强方法
CN109767783B (zh) 语音增强方法、装置、设备及存储介质
CN108172231B (zh) 一种基于卡尔曼滤波的去混响方法及系统
JP3591068B2 (ja) 音声信号の雑音低減方法
CN113436643B (zh) 语音增强模型的训练及应用方法、装置、设备及存储介质
CN109147763B (zh) 一种基于神经网络和逆熵加权的音视频关键词识别方法和装置
JP2003337594A (ja) 音声認識装置、その音声認識方法及びプログラム
JP6374120B2 (ja) 発話の復元のためのシステムおよび方法
CN108109617A (zh) 一种远距离拾音方法
CN112863535A (zh) 一种残余回声及噪声消除方法及装置
CN106448692A (zh) 应用语音存在概率优化的retf混响消除方法及系统
US9390718B2 (en) Audio signal restoration device and audio signal restoration method
KR101581885B1 (ko) 복소 스펙트럼 잡음 제거 장치 및 방법
CN113241089A (zh) 语音信号增强方法、装置及电子设备
CN115223583A (zh) 一种语音增强方法、装置、设备及介质
CN114566179A (zh) 一种时延可控的语音降噪方法
CN113744752A (zh) 语音处理方法及装置
CN111681649B (zh) 语音识别方法、交互系统及包括该系统的成绩管理系统
CN113160846A (zh) 噪声抑制方法和电子设备
CN117912491A (zh) 基于Unet深度卷积的混合声音滤除无人机噪声方法及系统
US20150162014A1 (en) Systems and methods for enhancing an audio signal
CN103971697A (zh) 基于非局部均值滤波的语音增强方法
CN111968627B (zh) 一种基于联合字典学习和稀疏表示的骨导语音增强方法
CN116665681A (zh) 一种基于组合滤波的雷声识别方法
CN114255780A (zh) 一种基于深度神经网络的噪声鲁棒盲混响时间估计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200619

CF01 Termination of patent right due to non-payment of annual fee