CN108074580A - 一种噪声消除方法及装置 - Google Patents
一种噪声消除方法及装置 Download PDFInfo
- Publication number
- CN108074580A CN108074580A CN201611023704.6A CN201611023704A CN108074580A CN 108074580 A CN108074580 A CN 108074580A CN 201611023704 A CN201611023704 A CN 201611023704A CN 108074580 A CN108074580 A CN 108074580A
- Authority
- CN
- China
- Prior art keywords
- signal
- frequency
- frequency domain
- noise
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
Abstract
本发明实施例提供了一种噪声消除方法及装置,应用于音频降噪技术领域,所述方法包括:对接收信号进行预处理,得到所述接收信号在频域上不同频点的第一频域信号;根据独立成分分析算法对所述第一频域信号进行盲源分离,得到不同频点的频域语音信号和不同频点的频域噪声信号;将所述频域语音信号从频域转换至时域,根据转换结果获得对所述接收信号消除噪声后的语音信号。本发明与现有的噪声消除方法相比,不需要对两个麦克风之间的距离进行限制,直接将噪声消除。
Description
技术领域
本发明涉及音频降噪技术领域,特别涉及一种噪声消除方法及装置。
背景技术
在日常工作和生活中,语音通信是人与人之间互相传递信息不可缺少的沟通方式。在语音通信中,语音信号不可避免地受到周围环境中噪声的干扰。最终使听者获得的是被噪声污染过的带噪声的语音信号,严重影响了双方之间的交流。
现有技术中,对于具有双麦克风阵列的设备而言,一般通过麦克风阵列对麦克风采集的信号进行波束形成,得到增强后的语音信号和削弱后的语音信号,检测麦克风采集的信号中是否有噪声,并根据检测结果更新自适应滤波器的系数,通过更新系数后的自适应滤波器对增强后的语音信号和削弱后的语音信号进行滤波,从而达到消除噪声的效果。
然而,上述基于双麦克风阵列的噪声消除方法,一般为大距离麦克风降噪方法,即为了保证能够更好的更新滤波器系数,上述方法中通常会对两个麦克风之间的距离有一定要求,其中,一个麦克风离语音声源近,一个麦克风离语音声源远,因此,应用上述方法虽然可以进行自适应滤波跟踪消除噪声,但是对两个麦克风之间的距离有一定的限制。
发明内容
本发明实施例的目的在于提供一种噪声消除方法及装置,不对麦克风的距离进行限制以达到噪声消除的效果。具体技术方案如下:
本发明实施例公开了一种噪声消除方法,应用于音频降噪技术领域,包括:
对接收信号进行预处理,得到所述接收信号在频域上不同频点的第一频域信号;
根据独立成分分析算法对所述第一频域信号进行盲源分离,得到不同频点的频域语音信号和不同频点的频域噪声信号;
将所述频域语音信号从频域转换至时域,根据转换结果获得对所述接收信号消除噪声后的语音信号。
可选的,所述将所述频域语音信号从频域转换至时域,根据转换结果获得对所述接收信号消除噪声后的语音信号的步骤,包括:
对所述频域语音信号进行频域转时域处理,得到第一时域语音信号;
对所述第一时域语音信号进行加窗处理,得到第二时域语音信号;
根据所述第二时域语音信号,获得对所述接收信号消除噪声后的语音信号。
可选的,所述接收信号,是输入信号按照以下方式经过传输变换后获得的,
其中,x(t)表示t时刻的接收信号,a(p)表示延迟为p时的时域混合矩阵,s(t-p)表示t时刻延迟为p时的输入信号。
可选的,所述对接收信号进行预处理,得到不同频点的第一频域信号,包括:
对所述接收信号进行预处理,得到满足以下关系式的第一频域信号,
X(fk,τ)=A(fk)S(fk,τ),
其中,fk表示所述接收信号在频域上对应的频点,τ表示时间段,X(fk,τ)表示频点为fk和时间段为τ时的第一频域信号,A(fk)表示频点为fk的频域混合矩阵,S(fk,τ)表示频点为fk和时间段为τ时的第二频域信号,所述第二频域信号为输入信号s(t)的频域信号。
可选的,所述根据独立成分分析算法对所述第一频域信号进行盲源分离,得到不同频点的频域语音信号和不同频点的频域噪声信号,包括:
对所述第一频域信号进行中心化及白化处理,得到第三频域信号;
对所述第三频域信号进行分离算法迭代,得到不同频点的第一频域解混矩阵;
对所述第一频域解混矩阵进行幅值调整,得到不同频点的第二频域解混矩阵;
根据所述第二频域解混矩阵和公式S′(fk,τ)=W′(fk)X(fk,τ),对所述第一频域信号进行处理,得到第四频域信号S′(fk,τ);
其中,W′(fk)表示频点为fk的第二频域解混矩阵;
对所述第四频域信号进行顺序调整,得到所述不同频点的频域语音信号和所述不同频点的频域噪声信号。
可选的,所述对所述第三频域信号进行分离算法迭代,得到不同频点的第一频域解混矩阵,包括:
按照以下公式对所述第三频域信号进行处理,得到不同频点的第一频域解混矩阵:Y′(fk,τ)=W(fk)X′(fk,τ),使Y′(fk,τ)独立;
其中,W(fk)表示频点为fk的第一频域解混矩阵,X′(fk,τ)表示频点为fk和时间段为τ时的第三频域信号,Y′(fk,τ)表示所述第二频域信号S(fk,τ)中心化和白化之后所得信号的估计。
本发明实施例还公开了一种噪声消除装置,包括:
预处理模块,用于对接收信号进行预处理,得到所述接收信号在频域上不同频点的第一频域信号;
分离处理模块,用于根据独立成分分析算法对所述第一频域信号进行盲源分离,得到不同频点的频域语音信号和不同频点的频域噪声信号;
后处理模块,用于将所述频域语音信号从频域转换至时域,根据转换结果获得对所述接收信号消除噪声后的语音信号。
可选的,所述后处理模块包括:
频域转时域子模块,用于对所述频域语音信号进行频域转时域处理,得到第一时域语音信号;
加窗子模块,用于对所述第一时域语音信号进行加窗处理,得到第二时域语音信号;
语音信号获取子模块,用于根据所述第二时域语音信号,获得对所述接收信号消除噪声后的语音信号。
可选的,所述接收信号,是输入信号按照以下方式经过传输变换后获得的,
其中,x(t)表示t时刻的接收信号,a(p)表示延迟为p时的时域混合矩阵,s(t-p)表示t时刻延迟为p时的输入信号。
可选的,所述预处理模块具体用于,对所述接收信号进行预处理,得到满足以下关系式的第一频域信号,
X(fk,τ)=A(fk)S(fk,τ),
其中,fk表示所述接收信号在频域上对应的频点,τ表示时间段,X(fk,τ)表示频点为fk和时间段为τ时的第一频域信号,A(fk)表示频点为fk的频域混合矩阵,S(fk,τ)表示频点为fk和时间段为τ时的第二频域信号,所述第二频域信号为输入信号s(t)的频域信号。
可选的,所述分离处理模块包括:
简化子模块,用于对所述第一频域信号进行中心化及白化处理,得到第三频域信号;
分离算法子模块,用于对所述第三频域信号进行分离算法迭代,得到不同频点的第一频域解混矩阵;
幅值调整子模块,用于对所述第一频域解混矩阵进行幅值调整,得到不同频点的第二频域解混矩阵;
信号处理子模块,用于根据所述第二频域解混矩阵和公式S′(fk,τ)=W′(fk)X(fk,τ),对所述第一频域信号进行处理,得到第四频域信号S′(fk,τ);
其中,W′(fk)表示频点为fk的第二频域解混矩阵;
顺序调整子模块,用于对所述第四频域信号进行顺序调整,得到所述不同频点的频域语音信号和所述不同频点的频域噪声信号。
可选的,所述分离算法子模块具体用于,按照以下公式对所述第三频域信号进行处理,得到不同频点的第一频域解混矩阵:
Y′(fk,τ)=W(fk)X′(fk,τ),使Y′(fk,τ)独立;
其中,W(fk)表示频点为fk的第一频域解混矩阵,X′(fk,τ)表示频点为fk和时间段为τ时的第三频域信号,Y′(fk,τ)表示所述第二频域信号S(fk,τ)中心化和白化之后所得信号的估计。
本发明实施例提供的噪声消除方法及装置,通过对接收信号进行预处理,得到接收信号在频域上不同频点的第一频域信号,根据独立成分分析算法对第一频域信号进行盲源分离,得到不同频点的频域语音信号和不同频点的频域噪声信号;将频域语音信号从频域转换至时域,根据转换结果获得对接收信号消除噪声后的语音信号。应用本发明实施例的噪声消除方法,在不用对麦克风之间的距离进行限制的情况下,不需要检测噪声,直接将噪声消除。另外,本发明实施例对声源和麦克风的距离也没有限制,适用场景更灵活。当然,实施本发明的任一产品或方法必不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的噪声消除方法的流程图;
图2为本发明实施例的独立成分分析算法的流程图;
图3为本发明实施例的噪声消除装置的一种结构图;
图4为本发明实施例的噪声消除装置的另一种结构图;
图5为本发明实施例的噪声消除装置的另一种结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种噪声消除方法及装置,能够在不对麦克风之间的距离进行限制的情况下,不用检测噪声直接将噪声消除。下面首先对本发明实施例的噪声消除方法进行详细说明。
一般的,麦克风需要接收的信号为语音信号,但是,语音信号常常受到噪声的干扰,使得接收到的信号为语音信号和噪声信号的叠加信号,因此,需要对麦克风接收的信号进行处理,分离出去除噪声信号之后的语音信号。现有的噪声消除方法主要为单麦克风降噪和麦克风阵列降噪,而麦克风阵列降噪主要利用语音信号和噪声信号在空间域的差别进行信号分离,达到消除噪声的效果。本发明实施例通过将独立成分分析算法应用于音频降噪领域,将语音信号和噪声信号进行盲源分离,达到消除噪声的目的。本发明实施例适用于两个麦克风,当然对于包括三个及以上麦克风的麦克风阵列也是适用的。
参见图1,图1为本发明实施例的噪声消除方法的流程图,包括如下步骤:
步骤S101,对接收信号进行预处理,得到接收信号在频域上不同频点的第一频域信号。
具体的,接收信号为麦克风实际接收到的信号,该信号也是语音信号和噪声信号的叠加信号。以双麦克风为例进行说明,假设输入信号包括:语音信号s1和噪声信号s2,得到的接收信号为第一接收信号x1和第二接收信号x2,接收信号是输入信号经过传输变换后的信号,实际环境中存在延时和反射,因此s1、s2、x1和x2满足关系式:
其中,aij表示信号sj到第i个麦克风之间的传输响应,*表示卷积,i为整数1或2,j为整数1或2。
由上式可以看出,接收信号和输入信号在时域满足卷积关系,因此,在时域求解语音信号s1的过程也就是解卷积的过程。为了简化解卷积的步骤,将时域信号转化到频域,接收信号和输入信号在时域的卷积关系转化为乘法关系,计算过程的复杂性将大大降低。在对接收信号进行时域转频域变换之前,还需要对接收信号进行分帧和加窗处理,因此,本发明的一种实现方式中,预处理过程可以包括:分帧、加窗和时域转频域变换。
由于进行信号处理时,只能对稳态信号进行处理,所以在接收信号不是稳态信号的情况下,需首先对接收信号进行处理,得到稳态信号。鉴于上述情况,在本发明的一种实现方式中,接收信号是准稳态信号时,在处理时可以把信号分帧,例如,每帧长度约20ms-30ms,在这一区间内把接收信号看作为稳态信号,进而得到接收信号的稳态信号。
因为时域转频域的傅立叶变换对应的是无限信号,信号经过分帧后变成有限信号,分帧的信号再进行傅立叶变换后,高频部分将有“泄露”,所以可以对分帧后的接收信号进行加窗处理。
步骤S102,根据独立成分分析算法对第一频域信号进行盲源分离,得到不同频点的频域语音信号和不同频点的频域噪声信号。
由于接收信号是语音信号和噪声信号的叠加信号,所以上述第一频域信号中混合有频域语音信号和频域噪声信号,可以理解的是,为了消除噪声需对上述频域语音信号和频域噪声信号进行分离。
独立成分分析算法是近几年发展的统计方法,其目的是将观察的数据进行线性分解,使其成为统计独立的成分。该算法假设成分统计独立,而且还必须假设独立成分是非高斯分布的,通过计算解混矩阵得到独立成分。
独立成分分析算法基于以下三个假设:
源信号各个元素是统计独立的;
源信号至多有一个是高斯信号;
观测信号不小于源信号个数。
本发明实施例中的语音信号和噪声信号对应上述三个假设中的原信号,原信号的个数为两个。语音信号和噪声信号各元素是统计独立的,语音信号一般为随机信号,不是高斯信号。接收信号对应上述三个假设中的观测信号,本发明的一种实现方式中,接收信号为双麦克风接收的两个接收信号,不小于原信号个数。因此,本发明实施例是满足以上三个假设的,使用独立成分分析算法可以将频域语音信号和频域噪声信号分离。
需要说明的是,根据独立成分分析算法对第一频域信号进行盲源分离,是指对每一个频点的频域信号进行盲源分离,得到每一个频点对应的频域语音信号和频域噪声信号。假设本发明实施例中有N个频点,那么独立成分分析算法需要对N个频点分别进行计算,其中,N为大于或等于1的整数。
步骤S103,将频域语音信号从频域转换至时域,根据转换结果获得对接收信号消除噪声后的语音信号。
步骤S102中得到的频域语音信号是去除噪声后的频域语音信号,对频域语音信号进行频域转时域的变换,即可得到消除噪声后的语音信号。
可见,本发明实施例的噪声消除方法,通过对接收信号进行预处理,得到接收信号在频域上的频域信号,使用独立成分分析算法对频域信号进行盲源分离,得到不同频点的频域语音信号和频域噪声信号,对频域语音信号进行频域转时域变换,即可得到消除噪声后的语音信号。本发明实施例的噪声消除方法不需要对噪声进行检测,也不需要对麦克风之间的距离进行限定,噪声消除的方法更简单,适用场景也更灵活。
可选的,本发明实施例的噪声消除方法中,接收信号是输入信号按照以下方式经过传输变换后获得的,
其中,x(t)表示t时刻的接收信号,a(p)表示延迟为p时的时域混合矩阵,s(t-p)表示t时刻延迟为p时的输入信号。
需要说明的是,输入信号和接收信号都是随时间变化的时域的连续信号,所以接收信号和输入信号满足的卷积关系也是随时间变化的,并且输入信号和接收信号是存在一定时延的。
可选的,本发明实施例的噪声消除方法中,对接收信号进行预处理,得到不同频点的第一频域信号,包括:
对接收信号进行预处理,得到满足以下关系式的第一频域信号,
X(fk,τ)=A(fk)S(fk,τ),
其中,fk表示接收信号在频域上对应的频点,τ表示时间段,X(fk,τ)表示频点为fk和时间段为τ时的第一频域信号,A(fk)表示频点为fk的频域混合矩阵,S(fk,τ)表示频点为fk和时间段为τ时的第二频域信号,第二频域信号为输入信号s(t)的频域信号。
具体的,对接收信号进行预处理,包括:分帧、加窗和时域转频域变换,在对接收信号进行分帧和加窗处理之后,才可以进行时域转频域的傅里叶变换的过程,将接收信号转换为第一频域信号。
在得到第一频域信号之后,根据独立成分分析算法对第一频域信号进行盲源分离,得到不同频点的频域语音信号和不同频点的频域噪声信号。下面对独立成分分析算法对第一频域信号进行盲源分离的过程进行详细描述。参见图2,图2为本发明实施例的独立成分分析算法的流程图,包括如下步骤:
步骤S201,对第一频域信号进行中心化及白化处理,得到第三频域信号。
独立成分分析算法中,为了数据处理和算法的简化,通常对待处理的信号进行中心化和白化处理。中心化也就是归零化,将待处理的信号减去待处理的信号的期望,使得中心化后的信号的均值为零。白化处理是为了减少待处理信号的相关性,使处理后的信号的协方差为1,中心化及白化处理使待处理的信号具有零均值和单位方差。
步骤S202,对第三频域信号进行分离算法迭代,得到不同频点的第一频域解混矩阵。
本发明实施例中,为了方便计算,将时域问题转化为频域问题,下面首先对时域问题进行详细说明。
已知步骤S102中的输入信号x(t)满足以下关系式:
为了在时域混合矩阵和输入信号都未知的情况下,根据已知接收信号x(t)尽可能地分离出输入信号,需要构建一个解混矩阵,使得该解混矩阵作用在x(t)上所获得的信号y(t)是输入信号s(t)的最优逼近,其中,解混矩阵和y(t)满足以下关系式:
其中,w(q)表示延迟为q时的时域解混矩阵,y(t)表示输入信号s(t)的估计。
根据以上理论,上述时域问题转化为以下频域问题,根据关系式:Y(fk,τ)=W(fk)X(fk,τ),求解不同频点的第一频域解混矩阵,使Y(fk,τ)尽可能独立,其中,W(fk)表示频点为fk的第一频域解混矩阵,Y(fk,τ)表示第二频域信号S(fk,τ)的估计。
对第一频域信号进行中心化及白化处理之后,对第三频域信号进行分离算法迭代,也就是通过关系式:Y′(fk,τ)=W(fk)X′(fk,τ),得到不同频点的第一频域解混矩阵,使Y′(fk,τ)尽可能独立,其中,X′(fk,τ)表示频点为fk和时间段为τ时的第三频域信号。
需要说明的是,Y′(fk,τ)表示第二频域信号S(fk,τ)中心化和白化之后所得信号的估计,对第二频域信号进行中心化及白化处理之后所得信号具有零均值和单位方差,那么,Y′(fk,τ)也具有零均值和单位方差。
步骤S203,对第一频域解混矩阵进行幅值调整,得到不同频点的第二频域解混矩阵。
由于经过白化后的信号构成的矩阵是正交矩阵,步骤S201中,第一频域信号进行中心化及白化处理之后,得到的第三频域信号构成正交矩阵。第一频域解混矩阵针对第三频域信号,分离输出的估计Y′(fk,τ)也是正交矩阵,因此,理论得出的第一频域解混矩阵必然是正交矩阵。但是,本发明的一种实现方式中,第一频域解混矩阵并不是正交矩阵,因此,需要对第一频域解混矩阵进行幅值调整,使得调整后的第二频域解混矩阵为正交矩阵。
步骤S204,根据第二频域解混矩阵,对第一频域信号进行处理,得到第四频域信号。
具体的,根据第二频域解混矩阵和公式S′(fk,τ)=W′(fk)X(fk,τ),对第一频域信号进行处理,得到第四频域信号S′(fk,τ);
其中,W′(fk)表示频点为fk的第二频域解混矩阵。
本发明实施例的目的为,根据公式:S(fk,τ)=A-1(fk)X(fk,τ)和第一频域信号,得到第二频域信号。
假设步骤S203中得到的第二频域解混矩阵W′(fk)为频域混合矩阵A(fk)的逆矩阵。那么,根据公式S(fk,τ)=A-1(fk)X(fk,τ)=W′(fk)X(fk,τ)可得到第二频域信号。
但是,独立成分分析算法中,最后要进行顺序调整,因此,本步骤可根据公式:S′(fk,τ)=W′(fk)X(fk,τ)得到第四频域信号,然后对第四频域信号进行顺序调整。第二频域解混矩阵W′(fk)是否为频域混合矩阵A(fk)的逆矩阵、和第四频域信号是否调整为第二频域信号是一致的。也就是说,在对第四频域信号调整顺序之前,第二频域解混矩阵W′(fk)不是频域混合矩阵A(fk)的逆矩阵;在对第四频域信号调整顺序之后,第二频域解混矩阵W′(fk)才是频域混合矩阵A(fk)的逆矩阵。
步骤S205,对第四频域信号进行顺序调整,得到不同频点的频域语音信号和不同频点的频域噪声信号。
本发明的一种实现方式中,需要获得的是不同频点相互分开的频域语音信号和频域噪声信号,也就是不同频点的频域语音信号是排列在一起的,不同频点的频域噪声信号是排列在一起的。但是,得到的第四频域信号中频域语音信号和频域噪声信号的排序是不确定的,需要进行顺序调整,得到第二频域信号,也就是分离的频域语音信号和频域噪声信号。具体的,通过频域语音信号和频域噪声信号的特性进行分离,例如,可以通过信号的功率将频域语音信号和频域噪声信号分离。
可选的,本发明实施例的噪声消除方法中,将频域语音信号从频域转换至时域,根据转换结果获得对接收信号消除噪声后的语音信号的步骤,包括:
对频域语音信号进行频域转时域处理,得到第一时域语音信号;
对第一时域语音信号进行加窗处理,得到第二时域语音信号;
根据第二时域语音信号,获得对接收信号消除噪声后的语音信号。
具体的,在得到不同频点的频域语音信号之后,通过傅里叶逆变换公式将频域语音信号转换为第一时域语音信号。但是,通过傅里叶逆变换会造成频谱泄露的问题,因此,需要对第一时域语音信号做加窗处理,将第一时域语音信号转化为第二时域语音信号,以消除频谱泄露的问题,由此,第二时域语音信号即为消除噪声后的语音信号。
可见,本发明实施例的噪声消除方法,通过使用独立成分分析算法对频域信号进行盲源分离,得到不同频点的频域语音信号和频域噪声信号,对频域语音信号进行频域转时域变换,即可得到消除噪声后的语音信号。本发明实施例的噪声消除方法不需要对噪声进行检测,也不需要对麦克风之间的距离进行限定,噪声消除的方法更简单,适用场景也更灵活。
参见图3,图3为本发明实施例的噪声消除装置的一种结构图,包括:
预处理模块301,用于对接收信号进行预处理,得到接收信号在频域上不同频点的第一频域信号。
分离处理模块302,用于根据独立成分分析算法对第一频域信号进行盲源分离,得到不同频点的频域语音信号和不同频点的频域噪声信号。
后处理模块303,用于将频域语音信号从频域转换至时域,根据转换结果获得对接收信号消除噪声后的语音信号。
可见,本发明实施例的噪声消除装置,通过对接收信号进行预处理,得到接收信号在频域上的频域信号,使用独立成分分析算法对频域信号进行盲源分离,得到不同频点的频域语音信号和频域噪声信号,对频域语音信号进行频域转时域变换,即可得到消除噪声后的语音信号。本发明实施例的噪声消除装置不需要对噪声进行检测,也不需要对麦克风之间的距离进行限定,噪声消除的方法更简单,适用场景也更灵活。
需要说明的是,本发明实施例的装置是应用上述噪声消除方法的装置,则上述噪声消除方法的所有实施例均适用于该装置,且均能达到相同或相似的有益效果。
可选的,本发明实施例的噪声消除装置中,接收信号是输入信号按照以下方式经过传输变换后获得的,
其中,x(t)表示t时刻的接收信号,a(p)表示延迟为p时的时域混合矩阵,s(t-p)表示t时刻延迟为p时的输入信号。
可选的,本发明实施例的噪声消除装置中,预处理模块具体用于,对接收信号进行预处理,得到满足以下关系式的第一频域信号,
X(fk,τ)=A(fk)S(fk,τ),
其中,fk表示接收信号在频域上对应的频点,τ表示时间段,X(fk,τ)表示频点为fk和时间段为τ时的第一频域信号,A(fk)表示频点为fk的频域混合矩阵,S(fk,τ)表示频点为fk和时间段为τ时的第二频域信号,第二频域信号为输入信号s(t)的频域信号。
参见图4,图4为本发明实施例的噪声消除装置的另一种结构图,包括:
简化子模块401,用于对第一频域信号进行中心化及白化处理,得到第三频域信号。
分离算法子模块402,用于对第三频域信号进行分离算法迭代,得到不同频点的第一频域解混矩阵。
幅值调整子模块403,用于对第一频域解混矩阵进行幅值调整,得到不同频点的第二频域解混矩阵。
信号处理子模块404,用于根据第二频域解混矩阵和公式S′(fk,τ)=W′(fk)X(fk,τ),对第一频域信号进行处理,得到第四频域信号S′(fk,τ);
其中,W′(fk)表示频点为fk的第二频域解混矩阵。
顺序调整子模块405,用于对第四频域信号进行顺序调整,得到不同频点的频域语音信号和不同频点的频域噪声信号。
可选的,本发明实施例的噪声消除装置中,分离算法子模块具体用于,按照以下公式对第三频域信号进行处理,得到不同频点的第一频域解混矩阵:Y′(fk,τ)=W(fk)X′(fk,τ),使Y′(fk,τ)独立;
其中,W(fk)表示频点fk的第一频域解混矩阵,X′(fk,τ)表示频点为fk和时间段为τ时的第三频域信号,Y′(fk,τ)表示第二频域信号S(fk,τ)中心化和白化之后所得信号的估计。
参见图5,图5为本发明实施例的噪声消除装置的另一种结构图,包括:
频域转时域子模块501,用于对频域语音信号进行频域转时域处理,得到第一时域语音信号。
加窗子模块502,用于对第一时域语音信号进行加窗处理,得到第二时域语音信号。
语音信号获取子模块503,用于根据第二时域语音信号,获得对接收信号消除噪声后的语音信号。
可见,本发明实施例的噪声消除装置,通过对接收信号进行预处理,得到接收信号在频域上的频域信号,使用独立成分分析算法对频域信号进行盲源分离,得到不同频点的频域语音信号和频域噪声信号,对频域语音信号进行频域转时域变换,即可得到消除噪声后的语音信号。本发明实施例的噪声消除装置不需要对噪声进行检测,也不需要对麦克风之间的距离进行限定,噪声消除的方法更简单,适用场景也更灵活。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (12)
1.一种噪声消除方法,其特征在于,包括:
对接收信号进行预处理,得到所述接收信号在频域上不同频点的第一频域信号;
根据独立成分分析算法对所述第一频域信号进行盲源分离,得到不同频点的频域语音信号和不同频点的频域噪声信号;
将所述频域语音信号从频域转换至时域,根据转换结果获得对所述接收信号消除噪声后的语音信号。
2.根据权利要求1所述的噪声消除方法,其特征在于,所述将所述频域语音信号从频域转换至时域,根据转换结果获得对所述接收信号消除噪声后的语音信号的步骤,包括:
对所述频域语音信号进行频域转时域处理,得到第一时域语音信号;
对所述第一时域语音信号进行加窗处理,得到第二时域语音信号;
根据所述第二时域语音信号,获得对所述接收信号消除噪声后的语音信号。
3.根据权利要求1所述的噪声消除方法,其特征在于,所述接收信号,是输入信号按照以下方式经过传输变换后获得的,
<mrow>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>p</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>p</mi>
</msubsup>
<mi>a</mi>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>)</mo>
</mrow>
<mi>s</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>-</mo>
<mi>p</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
其中,x(t)表示t时刻的接收信号,a(p)表示延迟为p时的时域混合矩阵,s(t-p)表示t时刻延迟为p时的输入信号。
4.根据权利要求3所述的噪声消除方法,其特征在于,所述对接收信号进行预处理,得到不同频点的第一频域信号,包括:
对所述接收信号进行预处理,得到满足以下关系式的第一频域信号,
X(fk,τ)=A(fk)S(fk,τ),
其中,fk表示所述接收信号在频域上对应的频点,τ表示时间段,X(fk,τ)表示频点为fk和时间段为τ时的第一频域信号,A(fk)表示频点为fk的频域混合矩阵,S(fk,τ)表示频点为fk和时间段为τ时的第二频域信号,所述第二频域信号为输入信号s(t)的频域信号。
5.根据权利要求4所述的噪声消除方法,其特征在于,所述根据独立成分分析算法对所述第一频域信号进行盲源分离,得到不同频点的频域语音信号和不同频点的频域噪声信号,包括:
对所述第一频域信号进行中心化及白化处理,得到第三频域信号;
对所述第三频域信号进行分离算法迭代,得到不同频点的第一频域解混矩阵;
对所述第一频域解混矩阵进行幅值调整,得到不同频点的第二频域解混矩阵;
根据所述第二频域解混矩阵和公式S′(fk,τ)=W′(fk)X(fk,τ),对所述第一频域信号进行处理,得到第四频域信号S′(fk,τ);
其中,W′(fk)表示频点为fk的第二频域解混矩阵;
对所述第四频域信号进行顺序调整,得到所述不同频点的频域语音信号和所述不同频点的频域噪声信号。
6.根据权利要求5所述的噪声消除方法,其特征在于,所述对所述第三频域信号进行分离算法迭代,得到不同频点的第一频域解混矩阵,包括:
按照以下公式对所述第三频域信号进行处理,得到不同频点的第一频域解混矩阵:Y′(fk,τ)=W(fk)X′(fk,τ),使Y′(fk,τ)独立;
其中,W(fk)表示频点为fk的第一频域解混矩阵,X′(fk,τ)表示频点为fk和时间段为τ时的第三频域信号,Y′(fk,τ)表示所述第二频域信号S(fk,τ)中心化和白化之后所得信号的估计。
7.一种噪声消除装置,其特征在于,包括:
预处理模块,用于对接收信号进行预处理,得到所述接收信号在频域上不同频点的第一频域信号;
分离处理模块,用于根据独立成分分析算法对所述第一频域信号进行盲源分离,得到不同频点的频域语音信号和不同频点的频域噪声信号;
后处理模块,用于将所述频域语音信号从频域转换至时域,根据转换结果获得对所述接收信号消除噪声后的语音信号。
8.根据权利要求7所述的噪声消除装置,其特征在于,所述后处理模块包括:
频域转时域子模块,用于对所述频域语音信号进行频域转时域处理,得到第一时域语音信号;
加窗子模块,用于对所述第一时域语音信号进行加窗处理,得到第二时域语音信号;
语音信号获取子模块,用于根据所述第二时域语音信号,获得对所述接收信号消除噪声后的语音信号。
9.根据权利要求7所述的噪声消除装置,其特征在于,所述接收信号,是输入信号按照以下方式经过传输变换后获得的,
<mrow>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>p</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>p</mi>
</msubsup>
<mi>a</mi>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>)</mo>
</mrow>
<mi>s</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>-</mo>
<mi>p</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
其中,x(t)表示t时刻的接收信号,a(p)表示延迟为p时的时域混合矩阵,s(t-p)表示t时刻延迟为p时的输入信号。
10.根据权利要求9所述的噪声消除装置,其特征在于,所述预处理模块具体用于,对所述接收信号进行预处理,得到满足以下关系式的第一频域信号,X(fk,τ)=A(fk)S(fk,τ),
其中,fk表示所述接收信号在频域上对应的频点,τ表示时间段,X(fk,τ)表示频点为fk和时间段为τ时的第一频域信号,A(fk)表示频点为fk的频域混合矩阵,S(fk,τ)表示频点为fk和时间段为τ时的第二频域信号,所述第二频域信号为输入信号s(t)的频域信号。
11.根据权利要求10所述的噪声消除装置,其特征在于,所述分离处理模块包括:
简化子模块,用于对所述第一频域信号进行中心化及白化处理,得到第三频域信号;
分离算法子模块,用于对所述第三频域信号进行分离算法迭代,得到不同频点的第一频域解混矩阵;
幅值调整子模块,用于对所述第一频域解混矩阵进行幅值调整,得到不同频点的第二频域解混矩阵;
信号处理子模块,用于根据所述第二频域解混矩阵和公式S′(fk,τ)=W′(fk)X(fk,τ),对所述第一频域信号进行处理,得到第四频域信号S′(fk,τ);
其中,W′(fk)表示频点为fk的第二频域解混矩阵;
顺序调整子模块,用于对所述第四频域信号进行顺序调整,得到所述不同频点的频域语音信号和所述不同频点的频域噪声信号。
12.根据权利要求11所述的噪声消除装置,其特征在于,所述分离算法子模块具体用于,按照以下公式对所述第三频域信号进行处理,得到不同频点的第一频域解混矩阵:Y′(fk,τ)=W(fk)X′(fk,τ),使Y′(fk,τ)独立;
其中,W(fk)表示频点为fk的第一频域解混矩阵,X′(fk,τ)表示频点为fk和时间段为τ时的第三频域信号,Y′(fk,τ)表示所述第二频域信号S(fk,τ)中心化和白化之后所得信号的估计。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611023704.6A CN108074580B (zh) | 2016-11-17 | 2016-11-17 | 一种噪声消除方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611023704.6A CN108074580B (zh) | 2016-11-17 | 2016-11-17 | 一种噪声消除方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108074580A true CN108074580A (zh) | 2018-05-25 |
CN108074580B CN108074580B (zh) | 2021-04-02 |
Family
ID=62160439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611023704.6A Active CN108074580B (zh) | 2016-11-17 | 2016-11-17 | 一种噪声消除方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108074580B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111599375A (zh) * | 2020-04-26 | 2020-08-28 | 云知声智能科技股份有限公司 | 一种语音交互中多路语音的白化方法及其装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101916567A (zh) * | 2009-11-23 | 2010-12-15 | 瑞声声学科技(深圳)有限公司 | 应用于双麦克风系统的语音增强方法 |
CN103219012A (zh) * | 2013-04-23 | 2013-07-24 | 中国人民解放军总后勤部军需装备研究所 | 一种基于声源距离的双麦克风噪声消除方法及装置 |
CN103854660A (zh) * | 2014-02-24 | 2014-06-11 | 中国电子科技集团公司第二十八研究所 | 一种基于独立成分分析的四麦克语音增强方法 |
CN104167214A (zh) * | 2014-08-20 | 2014-11-26 | 电子科技大学 | 一种双麦克风盲声源分离的快速源信号重建方法 |
CN104751853A (zh) * | 2013-12-31 | 2015-07-01 | 联芯科技有限公司 | 双麦克风噪声抑制方法及系统 |
CN105513605A (zh) * | 2015-12-01 | 2016-04-20 | 南京师范大学 | 手机麦克风的语音增强系统和语音增强方法 |
-
2016
- 2016-11-17 CN CN201611023704.6A patent/CN108074580B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101916567A (zh) * | 2009-11-23 | 2010-12-15 | 瑞声声学科技(深圳)有限公司 | 应用于双麦克风系统的语音增强方法 |
CN103219012A (zh) * | 2013-04-23 | 2013-07-24 | 中国人民解放军总后勤部军需装备研究所 | 一种基于声源距离的双麦克风噪声消除方法及装置 |
CN104751853A (zh) * | 2013-12-31 | 2015-07-01 | 联芯科技有限公司 | 双麦克风噪声抑制方法及系统 |
CN103854660A (zh) * | 2014-02-24 | 2014-06-11 | 中国电子科技集团公司第二十八研究所 | 一种基于独立成分分析的四麦克语音增强方法 |
CN104167214A (zh) * | 2014-08-20 | 2014-11-26 | 电子科技大学 | 一种双麦克风盲声源分离的快速源信号重建方法 |
CN105513605A (zh) * | 2015-12-01 | 2016-04-20 | 南京师范大学 | 手机麦克风的语音增强系统和语音增强方法 |
Non-Patent Citations (3)
Title |
---|
丁雪洁等: "一种新型频域快速盲分离算法", 《数据采集与处理》 * |
张彦芳等: "基于独立成分分析的双麦克阵列语音增强算法", 《信息技术》 * |
杜军等: "结合ICA预处理的麦克风阵列语音增强系统", 《数据采集与处理》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111599375A (zh) * | 2020-04-26 | 2020-08-28 | 云知声智能科技股份有限公司 | 一种语音交互中多路语音的白化方法及其装置 |
CN111599375B (zh) * | 2020-04-26 | 2023-03-21 | 云知声智能科技股份有限公司 | 一种语音交互中多路语音的白化方法及其装置 |
Also Published As
Publication number | Publication date |
---|---|
CN108074580B (zh) | 2021-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105324982B (zh) | 用于抑制不需要的音频信号的方法和设备 | |
CN106340292B (zh) | 一种基于连续噪声估计的语音增强方法 | |
CN109841206A (zh) | 一种基于深度学习的回声消除方法 | |
CN112863535B (zh) | 一种残余回声及噪声消除方法及装置 | |
Venkataramani et al. | Adaptive front-ends for end-to-end source separation | |
CN104883462B (zh) | 一种用于消除声学回声的自适应滤波器及滤波方法 | |
CN106782590A (zh) | 基于混响环境下麦克风阵列波束形成方法 | |
CN108389586A (zh) | 一种远程集音装置、监控装置及远程集音方法 | |
Schwartz et al. | Joint estimation of late reverberant and speech power spectral densities in noisy environments using Frobenius norm | |
CN109523999A (zh) | 一种提升远场语音识别的前端处理方法和系统 | |
CN107274907A (zh) | 双麦克风设备上实现指向性拾音的方法和装置 | |
KR20130068869A (ko) | 관심음원 제거방법 및 그에 따른 음성인식방법 | |
Magsi et al. | Analysis of signal noise reduction by using filters | |
Dey et al. | Single channel blind source separation based on variational mode decomposition and PCA | |
CN108074580A (zh) | 一种噪声消除方法及装置 | |
CN104240717B (zh) | 基于稀疏编码和理想二进制掩膜相结合的语音增强方法 | |
Ullah et al. | Single channel speech dereverberation and separation using RPCA and SNMF | |
CN204117590U (zh) | 语音采集降噪装置以及语音质量评价系统 | |
Hosseini et al. | Time difference of arrival estimation of sound source using cross correlation and modified maximum likelihood weighting function | |
CN113095113B (zh) | 一种用于水下目标识别的小波线谱特征提取方法及系统 | |
CN113012709A (zh) | 一种回声消除方法及装置 | |
Ouelha et al. | An improved time–frequency noise reduction method using a psycho-acoustic Mel model | |
Shraddha et al. | Noise cancellation and noise reduction techniques: A review | |
Liu et al. | A time domain algorithm for blind separation of convolutive sound mixtures and L1 constrainted minimization of cross correlations | |
CN103903631A (zh) | 基于变步长自然梯度算法的语音信号盲分离方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |