CN106653043B - 降低语音失真的自适应波束形成方法 - Google Patents

降低语音失真的自适应波束形成方法 Download PDF

Info

Publication number
CN106653043B
CN106653043B CN201611218186.3A CN201611218186A CN106653043B CN 106653043 B CN106653043 B CN 106653043B CN 201611218186 A CN201611218186 A CN 201611218186A CN 106653043 B CN106653043 B CN 106653043B
Authority
CN
China
Prior art keywords
signal
fbf
noise signal
noisy speech
adaptive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611218186.3A
Other languages
English (en)
Other versions
CN106653043A (zh
Inventor
曹裕行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Unisound Shanghai Intelligent Technology Co Ltd
Original Assignee
Unisound Shanghai Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Unisound Shanghai Intelligent Technology Co Ltd filed Critical Unisound Shanghai Intelligent Technology Co Ltd
Priority to CN201611218186.3A priority Critical patent/CN106653043B/zh
Publication of CN106653043A publication Critical patent/CN106653043A/zh
Application granted granted Critical
Publication of CN106653043B publication Critical patent/CN106653043B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02165Two microphones, one receiving mainly the noise signal and the other one mainly the speech signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming

Abstract

本发明公开了一种降低语音失真的自适应波束形成方法,其特征在于,所述方法包括如下步骤:录制环境声音形成输入信号;利用固定波束形成器通过波束形成从所述输入信号中获取含噪语音信号;利用阻塞矩阵模块对所述输入信号进行滤波以形成相干噪声信号;利用自适应消除模块从所述含噪语音信号中消除所述相干噪声信号形成输出信号并予以输出;从所述输出信号中获取残余噪声信号,并将所获取的残余噪声信号反馈至所述自适应消除模块以更新所述自适应消除模块的滤波系数,从而实现在输出信号中使残余噪声信号变小的自适应滤波。本发明可以在达到降噪目的的同时保证了目标信号的失真更小。

Description

降低语音失真的自适应波束形成方法
技术领域
本发明涉及人机语音识别领域,尤指一种降低语音失真的自适应波束形成方法
背景技术
基于麦克风阵列的语音增强技术已经广泛应用于通信、人机交互、语音识别系统等中,其中广义旁瓣消除(GSC,Generailized Sidelobe Canceller)方法应用最广,这种方法易于实现且性能很好。其中GSC分成上下两个通路,上通路是固定波束模块(FBF,FixedBeamformer)用于估计目标语音的参考信号,下通路是阻塞矩阵模块(BM,AdaptiveBlocking Matrix)和自适应消除模块(MC,Multiple input Canceller),用于消除固定波束中的残留的噪声,其中阻塞矩阵模块用于消除目标语音信号而得到噪声信号。但是出消除噪声的处理过程不可避免地会对目标语音造成失真,所以,失真和降噪是一对不可调和的矛盾体,只能通过技术手段在稳定降噪的情况下,减小失真。
发明内容
本发明的目的在于克服现有技术的缺陷,提出一种降低语音失真的自适应波束形成方法,所述方法包括如下步骤:
录制环境声音形成输入信号;利用固定波束形成器通过波束形成从所述输入信号中获取含噪语音信号;利用阻塞矩阵模块对所述输入信号进行滤波以形成相干噪声信号;利用自适应消除模块从所述含噪语音信号中消除所述相干噪声信号形成输出信号并予以输出;从所述输出信号中获取残余噪声信号,并将所获取的残余噪声信号反馈至所述自适应消除模块以更新所述自适应消除模块的滤波系数,从而实现在输出信号中使残余噪声信号变小的自适应滤波。
本发明的有益效果为:通过获取输出信号中的残余噪声,并将其反馈至自适应消除模块以更新自适应消除模块中的滤波系数,从而将输出信号中残余噪声信号变小,而保持目标信号不变,在达到降噪目的的同时也保证了目标信号的失真更小。
本发明的进一步改进为:还包括:从所述含噪语音信号中获取噪声信号,包括:
(1)含噪语音信号的双态假设:
H0:X=N
H1:X=S+N (式一)
H0状态表示只存在噪声,N表示噪声信号,H1状态表示含噪语音的状态,S为含噪语音信号中的目标信号;
(2)假定含噪语音信号中语音存在的先验概率:
P(H1)=0.5
P(H0)=1-P(H1) (式二)
(3)求解含噪语音信号的后验信噪比:
式三中,M是麦克风数目w是固定波束形成权重(可用延迟求和或者最小旁瓣类的方法求出权重),xi是第i个麦克风输入信号,FBF是固定波束形成器输出的含噪语音信号,|FBF|2表示波束形成器中含噪语音信号的功率,表示FBF中的噪声信号估计值的功率的估计值;
(4)利用判决引导方法求解含噪语音信号的先验信噪比ε
式四中,η为平滑系数,较佳取值为0.85,γold为含噪语音信号的上一帧的后验信噪比,GH1old表示语音信号上一帧的H1状态时的语音谱增益;
(5)求解含噪语音信号中语音存在似然度GLR
其中
(6)求解含噪语音信号中语音存在的条件先验概率P(H1|FBF)
(7)计算含噪语音信号中当前帧的H1状态语音谱增益GH1
(8)计算含噪语音信号中当前帧的噪声信号的估计值
其中为动态时域一阶平滑系数,其中,α取值0.85,E(N|FBF)是当前帧中FBF条件下中噪声信号的期望估计值,其计算如下:其中,P(H0|FBF)是语音不存在的条件概率,计算方法如下:
P(H0|FBF)=1-P(H1|FBF)
(9)计算FBF中的语音增益
其中,表示H1状态下的语音增益,表示H0状态下的语音增益,在这里Gmin=0.01(-20dB),其中Gmin是H0状态时的下限约束,取值计算公式为10*lg0.01=-20dB;
(10)估计含噪语音信号中的噪声信号
NFBF=FBF*(1-Gain) (式十)
其中,NFBF为FBF中的噪声信号的估计值。
本发明的进一步改进为:从所述目标信号中获取残余噪声信号,包括:利用从所述含噪语音信号中估计出的噪声信号估计值和所述阻塞矩阵模块形成的相干噪声信号计算出所述残余噪声信号:
R=NFBF-wHZ (式十一)
其中,R为残余噪声信号,w为自适应消除模块中自适应算法的权重,H是共轭转置操作,Z为阻塞矩阵模块输出的相干噪声信号,NFBF表示FBF中的噪声信号的估计值。
本发明的进一步改进为:式十一由以下方程推导出,
自适应消除模块的输出Y中包含了目标信号T和残余噪声信号R:
Y=T+R (方程一)
而固定波束形成器中输出的含噪语音信号包含了目标信号T和噪声信号NFBF
FBF=T+NFBF (方程二)
而自适应消除模块的输出Y是由固定波束形成器和阻塞矩阵模块输出的相干噪声信号Z在自适应消除模块中做自适应谱减而得到:
Y=FBF-wHZ (方程三)
由上述方程一至方程三推导得出式十一。
本发明的进一步改进为:更新所述消除模块的滤波系数包括:利用归一化最小均方计算滤波系数:
式十二中,其中w是自适应消除模块中自适应算法的权重,μ是步长,Z是阻塞矩阵模块的输出的相干噪声信号,R是残余噪声信号,k是帧的索引。
附图说明
图1为降低语音失真的自适应波束形成方法的示意图。
具体实施方式
下面结合附图,对本发明作进一步详细说明。语音增强技术已经广泛应用于通信、人机交互、语音识别系统等中,该技术通过将输入的含噪信号中的噪声信号最小化以提高语音通信的质量,而在降噪的过程中,不可避免地造成了目标信号的失真。本发明通过获取输出信号中的残余噪声,并将其反馈至自适应消除模块以更新自适应消除模块中的滤波系数,从而将输出信号中的残余噪声信号变小,而保持目标信号不变,在达到降噪目的的同时也保证了目标信号的失真更小。下面,结合附图对本发明降低语音失真的自适应波束形成方法进行说明。
如图1所示,本发明公开了一种降低语音失真的自适应波束形成方法,该方法首先录制环境中的声音并经过处理形成声音的输入信号;然后将该输入信号输入到固定波束形成器1(FBF,Fixed Beamformer)内,固定波束形成器通过波束形成从输入信号中获取含噪语音信号;接着利用阻塞矩阵模块2(BM,Blocking Matrix)对输入信号进行滤波以形成相干噪声信号;利用自适应消除模块3(MC,Multiple input Canceller)从含噪语音信号中消除相干噪声信号,并形成输出信号输出,最后在输出信号内提取残余噪声信号,并将残余噪声信号反馈至自适应消除模块3以更新自适应消除模块的滤波系数,从而实现在输出信号中的残余噪声信号变小的自适应滤波。即实现了利用当前的输出信号中的残余噪声信号更新自适应消除模块的下一帧滤波系数,以使得下一帧的输出信号中的残余噪声信号变小,从而保证输出信号中的目标信号不变,使得该目标信号的失真大幅减小。
具体地,使用麦克风录制环境中的声音,并进行数字化处理形成输入信号,该麦克风可采用麦克风阵列。固定波束形成器与麦克风通信连接,接收麦克风输入的输入信号通过波束形成获取包括噪声信号和目标信号的含噪语音信号;阻塞矩阵模块2与麦克风通信连接,接收麦克风输入的输入信号,并将目标信号从输入信号中滤除以形成相干噪声信号;自适应消除模块3与固定波束形成器1和阻塞矩阵模块2通信连接,接收固定波束形成器1形成的含噪语音信号以及阻塞矩阵模块中过滤形成的相干噪声信号,并将相干噪声信号从含噪语音信号中滤除形成输出信号并输出,而该输出信号中仍存在残余噪声信号,通过一系列算法计算出输出信号中的残余噪声信号,然后将残余噪声信号反馈至自适应消除模块3,自适应消除模块在进行下一帧自适应滤波时,根据接收到的残余噪声信号更新自适应消除模块的滤波系数,从而将输出信号中的残余噪声信号进一步消除,使得输出信号中的残余信号越来越小,而保持目标信号不变,从而在进一步减小噪声信号的同时达到减小失真的目的。
进一步地,残余噪声信号是通过固定波束形成器中的噪声信号与阻塞矩阵模块中形成的相干噪声信号对比得到的,所以计算残余噪声信号之前首先计算出固定波束形成器1中的噪声信号,计算方法如下:
(1)含噪语音信号的双态假设:
H0:X=N
H1:X=S+N (式一)
H0状态表示只存在噪声,N表示噪声信号,H1状态表示含噪语音的状态,S为含噪语音信号中的目标信号;
(2)假定含噪语音信号中语音存在的先验概率:
P(H1)=0.5
P(H0)=1-P(H1) (式二)
(3)求解含噪语音信号的后验信噪比:
式三中,M是麦克风数目w是固定波束形成器中波束形成权重(可用延迟求和或者最小旁瓣类的方法求出权重),xi是第i个麦克风输入信号,FBF是固定波束形成器输出的含噪语音信号,|FBF|2表示波束形成器中含噪语音信号的功率,表示噪声信号的功率的估计值;
(4)利用判决引导方法求解含噪语音信号的先验信噪比ε
式四中,η为平滑系数,较佳取值为0.85,γold为含噪语音信号的上一帧的后验信噪比,GH1old表示语音信号上一帧的H1状态时的语音谱增益;
(5)求解含噪语音信号中语音存在似然度GLR
其中
(6)求解含噪语音信号中语音存在的条件先验概率P(H1|FBF)
(7)计算含噪语音信号中当前帧的H1状态语音谱增益GH1
(8)计算含噪语音信号中当前帧的噪声信号估计值
其中为动态时域一阶平滑系数,其中,α取值0.85,E(N|FBF)是当前帧中FBF条件下中噪声期望估计值,其计算如下:其中,
P(H0|FBF)是语音不存在的条件概率,计算方法如下:
P(H0|FBF)=1-P(H1|FBF)
(9)计算FBF中的语音增益
其中,表示H1状态下的语音增益,表示H0状态下的语音增益,但是防止H0状态语音衰减过多,通常将GH0改为Gmin,在这里Gmin=0.01(-20dB),其中Gmin是H0状态即语音不存在时的下限约束,这里设置下限为-20dB,取值计算公式为10*lg0.01=-20dB;
(10)估计含噪语音信号中的噪声信号
NFBF=FBF*(1-Gain) (式十)
其中,NFBF为FBF中的噪声信号的估计值。
进一步地,当计算出固定波束形成器输出的含噪语音信号中的噪声信号,由于自适应消除模块的输出Y中包含了目标信号T和残余噪声信号R,即,Y=T+R;而波束形成器中包含了目标信号T和噪声信号N,即FBF=T+N,而输出Y是由FBF和阻塞矩阵模块的输出Z在自适应消除模块中做自适应谱减而得到Y=FBF-wHZ。
由上述三个方程式进行推导计算,即:
Y=T+R (方程一)
FBF=T+NFBF (方程二)
Y=FBF-wHZ (方程三)
通过如下的推导过程得到式十一:
R=Y-T=(FBF-wHZ)-T=(FBF-wHZ)-(FBF-NFBF)=NFBF-wHZ
所以,推导出残余噪声信号的计算公式:
R=NFBF-wHZ (式十一)
根据式十一计算得出参与噪声信号。在计算出噪声残余信号后,将残余噪声信号反馈到自适应消除模块,自适应消除模块在进行下一帧自适应滤波时,根据接收到的残余噪声信号更新自适应消除模块的滤波系数,从而将含噪语音信号中的残余噪声信号进一步消除,使得输出信号中的残余信号越来越小,而保持目标信号不变,从而在进一步减小噪声信号的同时达到减小失真的目的。
式十二中,其中w是MC中自适应算法的权重,μ是步长,Z是阻塞矩阵模块的输出的相干噪声信号,R是残余噪声信号,k是帧的索引。
值得注意的是,在式十中计算出固定波束形成器中的噪声信号后,现有技术中有做法直接利用该噪声信号计算得到目标信号并输出,而本发明是利用该噪声信号计算输出信号中的残余噪声信号,其相比于上述做法得到的输出信号效果更加稳定,且目标信号的失真更小。理由是在利用噪声信号直接计算目标信号并输出时,该噪声信号的值为估计值,存在一定的不稳定性,从而导致利用噪声信号直接输出的目标信号也存在不稳定的情形。而本发明将残余噪声信号通过自适应滤波后不断减小,能够使得目标信号的质量不断提高。
本发明通过获取输出的目标信号中的残余噪声,并将其反馈至自适应消除模块以更新自适应消除模块中的滤波系数,从而将输出信号中残余噪声信号变小,而保持目标信号不变,在达到降噪目的的同时也保证了目标信号的失真更小。
以上结合附图及实施例对本发明进行了详细说明,本领域中普通技术人员可根据上述说明对本发明做出种种变化例。因而,实施例中的某些细节不应构成对本发明的限定,本发明将以所附权利要求书界定的范围作为本发明的保护范围。

Claims (4)

1.一种降低语音失真的自适应波束形成方法,其特征在于,所述方法包括如下步骤:
录制环境声音形成输入信号;
利用固定波束形成器通过波束形成从所述输入信号中获取含噪语音信号;
利用阻塞矩阵模块对所述输入信号进行滤波以形成相干噪声信号;
利用自适应消除模块从所述含噪语音信号中消除所述相干噪声信号形成输出信号并予以输出;
从所述输出信号中获取残余噪声信号,并将所获取的残余噪声信号反馈至所述自适应消除模块以更新所述自适应消除模块的滤波系数,从而实现在输出信号中使残余噪声信号变小的自适应滤波;
还包括:从所述含噪语音信号中获取噪声信号,包括:
(1)含噪语音信号的双态假设:
H0:X=N
H1:X=S+N (式一)
H0状态表示只存在噪声,N表示噪声信号,H1状态表示含噪语音的状态,S为含噪语音信号中的目标信号;
(2)假定含噪语音信号中语音存在的先验概率:
P(H1)=0.5
P(H0)=1-P(H1) (式二)
(3)求解含噪语音信号的后验信噪比:
式三中,M是麦克风数目,w是固定波束形成器中波束形成权重,xi是第i个麦克风输入信号,FBF是固定波束形成器输出的含噪语音信号,|FBF|2表示波束形成器中含噪语音信号的功率,表示噪声信号的功率的估计值;
(4)利用判决引导方法求解含噪语音信号的先验信噪比ε
式四中,η为平滑系数,取值为0.85,γold为含噪语音信号的上一帧的后验信噪比,GH1old表示语音信号上一帧的H1状态时的语音谱增益;
(5)求解含噪语音信号中语音存在似然度GLR
(6)求解含噪语音信号中语音存在的条件先验概率P(H1|FBF)
(7)计算含噪语音信号中当前帧的H1状态语音谱增益GH1
(8)计算含噪语音信号中当前帧的噪声信号估计值
其中为动态时域一阶平滑系数,其中,α取值0.85,E(N|FBF)是当前帧中FBF条件下噪声期望估计值,其计算如下:其中,P(H0|FBF)是语音不存在的条件概率,计算方法如下:
P(H0|FBF)=1-P(H1|FBF)
(9)计算FBF中的语音增益
其中,表示H1状态下的语音增益,表示H0状态下的语音增益,在这里Gmin=0.01(-20dB),其中Gmin是H0状态时的下限约束,取值计算公式为10dB*lg0.01=-20dB;
(10)估计含噪语音信号中的噪声信号
NFBF=FBF*(1-Gain) (式十)
其中,NFBF为FBF中的噪声信号的估计值。
2.如权利要求1所述的方法,其特征在于,从所述目标信号中获取残余噪声信号,包括:
利用从所述含噪语音信号中估计出的噪声信号和所述阻塞矩阵模块形成的相干噪声信号计算出所述残余噪声信号:
R=NFBF-wHZ (式十一)
其中,R为残余噪声信号,w为自适应消除模块中自适应算法的权重,H是共轭转置操作,Z为阻塞矩阵模块输出的相干噪声信号,NFBF表示FBF中的噪声信号的估计值。
3.如权利要求2所述的方法,其特征在于,式十一由以下方程推导出;
自适应消除模块的输出Y中包含了目标信号T和残余噪声信号R:
Y=T+R (方程一)
而固定波束形成器中输出的含噪语音信号包含了目标信号T和噪声信号NFBF
FBF=T+NFBF (方程二)
而自适应消除模块的输出Y是由固定波束形成器和阻塞矩阵模块输出的相干噪声信号Z在自适应消除模块中做自适应谱减而得到:
Y=FBF-wHZ (方程三)
由上述方程一至方程三推导得出式十一。
4.如权利要求3所述的方法,其特征在于,更新所述自适应消除模块的滤波系数包括:
利用归一化最小均方计算滤波系数:
式十二中,其中w是自适应消除模块中自适应算法的权重,μ是步长,Z是阻塞矩阵模块的输出的相干噪声信号,R是残余噪声信号,k是帧的索引。
CN201611218186.3A 2016-12-26 2016-12-26 降低语音失真的自适应波束形成方法 Active CN106653043B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611218186.3A CN106653043B (zh) 2016-12-26 2016-12-26 降低语音失真的自适应波束形成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611218186.3A CN106653043B (zh) 2016-12-26 2016-12-26 降低语音失真的自适应波束形成方法

Publications (2)

Publication Number Publication Date
CN106653043A CN106653043A (zh) 2017-05-10
CN106653043B true CN106653043B (zh) 2019-09-27

Family

ID=58826827

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611218186.3A Active CN106653043B (zh) 2016-12-26 2016-12-26 降低语音失真的自适应波束形成方法

Country Status (1)

Country Link
CN (1) CN106653043B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109389991A (zh) * 2018-10-24 2019-02-26 中国科学院上海微系统与信息技术研究所 一种基于麦克风阵列的信号增强方法
CN110556125B (zh) * 2019-10-15 2022-06-10 出门问问信息科技有限公司 基于语音信号的特征提取方法、设备及计算机存储介质
CN110856072B (zh) * 2019-12-04 2021-03-19 北京声加科技有限公司 一种耳机通话降噪方法及耳机
CN111063366A (zh) * 2019-12-26 2020-04-24 紫光展锐(重庆)科技有限公司 降低噪声的方法、装置、电子设备及可读存储介质
CN112735370B (zh) * 2020-12-29 2022-11-01 紫光展锐(重庆)科技有限公司 一种语音信号处理方法、装置、电子设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080075362A (ko) * 2007-02-12 2008-08-18 인하대학교 산학협력단 잡음 환경에서 음성 신호의 추정치를 구하는 방법
CN101625675A (zh) * 2008-07-08 2010-01-13 索尼株式会社 信息处理装置、信息处理方法和计算机程序
CN101976565A (zh) * 2010-07-09 2011-02-16 瑞声声学科技(深圳)有限公司 基于双麦克风语音增强装置及方法
CN103236260A (zh) * 2013-03-29 2013-08-07 京东方科技集团股份有限公司 语音识别系统
KR20160116440A (ko) * 2015-03-30 2016-10-10 한국전자통신연구원 음성인식 시스템의 신호대잡음비 추정 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080075362A (ko) * 2007-02-12 2008-08-18 인하대학교 산학협력단 잡음 환경에서 음성 신호의 추정치를 구하는 방법
CN101625675A (zh) * 2008-07-08 2010-01-13 索尼株式会社 信息处理装置、信息处理方法和计算机程序
CN101976565A (zh) * 2010-07-09 2011-02-16 瑞声声学科技(深圳)有限公司 基于双麦克风语音增强装置及方法
CN103236260A (zh) * 2013-03-29 2013-08-07 京东方科技集团股份有限公司 语音识别系统
KR20160116440A (ko) * 2015-03-30 2016-10-10 한국전자통신연구원 음성인식 시스템의 신호대잡음비 추정 장치 및 방법

Also Published As

Publication number Publication date
CN106653043A (zh) 2017-05-10

Similar Documents

Publication Publication Date Title
CN106653043B (zh) 降低语音失真的自适应波束形成方法
CN108831495B (zh) 一种应用于噪声环境下语音识别的语音增强方法
CN108735213B (zh) 一种基于相位补偿的语音增强方法及系统
CN107742522B (zh) 基于麦克风阵列的目标语音获取方法及装置
KR101526932B1 (ko) 빔 형성 및 후-필터링 조합에 의한 노이즈 감소 방법
US7773759B2 (en) Dual microphone noise reduction for headset application
TWI398855B (zh) 多重麥克風聲音活動偵測器
KR101339592B1 (ko) 음원 분리 장치, 음원 분리 방법, 및 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체
US11315586B2 (en) Apparatus and method for multiple-microphone speech enhancement
CN110634500B (zh) 一种先验信噪比的计算方法、电子设备及存储介质
CN1670823A (zh) 通过麦克风阵列检测和降低噪声的方法
CN104835503A (zh) 一种改进gsc自适应语音增强方法
TW201205560A (en) Multi-microphone robust noise suppression
US9414157B2 (en) Method and device for reducing voice reverberation based on double microphones
US11277685B1 (en) Cascaded adaptive interference cancellation algorithms
US20180308503A1 (en) Real-time single-channel speech enhancement in noisy and time-varying environments
CN112530451A (zh) 基于去噪自编码器的语音增强方法
CN107731242A (zh) 一种广义最大后验的谱幅度估计的增益函数语音增强方法
KR20080075362A (ko) 잡음 환경에서 음성 신호의 추정치를 구하는 방법
CN106782595B (zh) 一种降低语音泄露的鲁棒阻塞矩阵方法
CN111225317B (zh) 一种回声消除方法
CN103824562B (zh) 基于心理声学模型的语音后置感知滤波器
Xu et al. Adaptive speech enhancement algorithm based on first-order differential microphone array
CN114220450A (zh) 一种空基指控环境强噪音抑制方法
CN113257268A (zh) 结合频率跟踪和频谱修正的降噪和单频干扰抑制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20170929

Address after: 200233 Shanghai City, Xuhui District Guangxi 65 No. 1 Jinglu room 702 unit 03

Applicant after: YUNZHISHENG (SHANGHAI) INTELLIGENT TECHNOLOGY CO.,LTD.

Address before: 200233 Shanghai, Qinzhou, North Road, No. 82, building 2, layer 1198,

Applicant before: SHANGHAI YUZHIYI INFORMATION TECHNOLOGY Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Adaptive beamforming method for reducing speech distortion

Effective date of registration: 20201201

Granted publication date: 20190927

Pledgee: Bank of Hangzhou Limited by Share Ltd. Shanghai branch

Pledgor: YUNZHISHENG (SHANGHAI) INTELLIGENT TECHNOLOGY Co.,Ltd.

Registration number: Y2020310000047

PC01 Cancellation of the registration of the contract for pledge of patent right

Date of cancellation: 20220307

Granted publication date: 20190927

Pledgee: Bank of Hangzhou Limited by Share Ltd. Shanghai branch

Pledgor: YUNZHISHENG (SHANGHAI) INTELLIGENT TECHNOLOGY CO.,LTD.

Registration number: Y2020310000047

PC01 Cancellation of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Adaptive beamforming method for reducing speech distortion

Effective date of registration: 20230210

Granted publication date: 20190927

Pledgee: Bank of Hangzhou Limited by Share Ltd. Shanghai branch

Pledgor: YUNZHISHENG (SHANGHAI) INTELLIGENT TECHNOLOGY CO.,LTD.

Registration number: Y2023310000028

PE01 Entry into force of the registration of the contract for pledge of patent right
PC01 Cancellation of the registration of the contract for pledge of patent right

Granted publication date: 20190927

Pledgee: Bank of Hangzhou Limited by Share Ltd. Shanghai branch

Pledgor: YUNZHISHENG (SHANGHAI) INTELLIGENT TECHNOLOGY CO.,LTD.

Registration number: Y2023310000028

PC01 Cancellation of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Adaptive beamforming method for reducing speech distortion

Granted publication date: 20190927

Pledgee: Bank of Hangzhou Limited by Share Ltd. Shanghai branch

Pledgor: YUNZHISHENG (SHANGHAI) INTELLIGENT TECHNOLOGY CO.,LTD.

Registration number: Y2024310000165

PE01 Entry into force of the registration of the contract for pledge of patent right