CN111009256A - 一种音频信号处理方法、装置、终端及存储介质 - Google Patents

一种音频信号处理方法、装置、终端及存储介质 Download PDF

Info

Publication number
CN111009256A
CN111009256A CN201911301727.2A CN201911301727A CN111009256A CN 111009256 A CN111009256 A CN 111009256A CN 201911301727 A CN201911301727 A CN 201911301727A CN 111009256 A CN111009256 A CN 111009256A
Authority
CN
China
Prior art keywords
frequency domain
frequency
matrix
domain estimation
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911301727.2A
Other languages
English (en)
Other versions
CN111009256B (zh
Inventor
侯海宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Intelligent Technology Co Ltd
Original Assignee
Beijing Xiaomi Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Intelligent Technology Co Ltd filed Critical Beijing Xiaomi Intelligent Technology Co Ltd
Priority to CN201911301727.2A priority Critical patent/CN111009256B/zh
Publication of CN111009256A publication Critical patent/CN111009256A/zh
Priority to US16/885,230 priority patent/US11284190B2/en
Priority to EP20180826.8A priority patent/EP3839951B1/en
Application granted granted Critical
Publication of CN111009256B publication Critical patent/CN111009256B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02165Two microphones, one receiving mainly the noise signal and the other one mainly the speech signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/03Synergistic effects of band splitting and sub-band processing

Abstract

本公开是关于一种音频信号处理方法,所述方法包括:由至少两个麦克风获取至少两个声源各自发出的音频信号,以获得所述至少两个麦克风各自在时域上的多帧原始带噪信号;对于时域上的每一帧,根据所述至少两个麦克风各自的所述原始带噪信号,获取所述至少两个声源各自的频域估计信号;对于所述至少两个声源中的每个声源,将所述第一频域估计信号在频域上划分为多个频域估计分量,其中,每个频域估计分量对应一个频域子带并且包含多个频点数据;对于每一个声源,将各频域估计分量的相关矩阵分别进行特征分解,以获得各所述频域估计分量对应的目标特征向量;基于每个声源的各所述目标特征向量和所述频域估计信号,获得每个频点的分离矩阵;基于所述分离矩阵及所述原始带噪信号,获得至少两个声源各自发出的声音的音频信号。本公开还公开了一种音频信号处理装置、终端及存储介质。

Description

一种音频信号处理方法、装置、终端及存储介质
技术领域
本公开涉及通信技术领域,尤其涉及一种音频信号处理方法、装置、终端及存储介质。
背景技术
相关技术中,智能产品设备拾音多采用麦克风阵列,应用麦克风波束形成技术提高语音信号处理质量,以提高真实环境下的语音识别率。但多个麦克风的波束形成技术对麦克风位置误差敏感,性能影响较大,另外麦克风个数增多了也会导致产品成本升高。
因此,目前越来越多的智能产品设备只配置两个麦克风;两个麦克风常采用完全不同于多个麦克风波束形成技术的盲源分离技术对语音进行增强,而如何使得基于盲源分离技术分离后信号的语音质量更高是目前的迫切需要解决的问题。
发明内容
本公开提供一种音频信号处理方法、装置、终端及存储介质。
根据本公开实施例的第一方面,提供一种音频信号处理方法,包括:
由至少两个麦克风获取至少两个声源各自发出的音频信号,以获得所述至少两个麦克风各自在时域上的多帧原始带噪信号;
对于时域上的每一帧,根据所述至少两个麦克风各自的所述原始带噪信号,获取所述至少两个声源各自的频域估计信号;
对于所述至少两个声源中的每个声源,将所述第一频域估计信号在频域上划分为多个频域估计分量,其中,每个频域估计分量对应一个频域子带并且包含多个频点数据;
对于每一个声源,将各频域估计分量的相关矩阵分别进行特征分解,以获得各所述频域估计分量对应的目标特征向量;
基于每个声源的各所述目标特征向量和所述频域估计信号,获得每个频点的分离矩阵;
基于所述分离矩阵及所述原始带噪信号,获得至少两个声源各自发出的声音的音频信号。
上述方案中,所述方法还包括:
对于每一个声源,基于所述第c个频域估计分量、与所述第c个频域估计分量的共轭转置的乘积,获得所述第c个频域估计分量的第一矩阵;
基于第1至第N帧的所述第c个频域估计分量的所述第一矩阵,获取所述第c个频域估计分量的相关矩阵;其中,所述N为所述原始带噪信号的帧数;所述c为小于或等于C的正整数,所述C为所述频域子带的个数。
上述方案中,所述基于每个声源的各所述目标特征向量和所述频域估计信号,获得每个频点的分离矩阵,包括:
对于每一个声源,基于所述第c个频域估计分量的所述目标特征向量的转置矩阵与所述第c个频域估计分量的乘积,获得所述第c个频域估计分量映射到预设空间内的映射数据;
基于所述映射数据,以及第1至第N帧的所述原始带噪信号的迭代运算,获得所述分离矩阵。
上述方案中,所述方法还包括:
按照对数函数对所述映射数据进行非线性变换,以获得更新后的映射数据。
上述方案中,所述基于所述映射数据,以及第1至第N帧的所述原始带噪信号的迭代运算,获得所述分离矩阵,包括:
将所述第c个频域估计分量的所述更新后的映射数据、所述频域估计信号、所述原始带噪信号以及第x-1个备选矩阵进行梯度迭代,得到第x个备选矩阵;其中,第1个备选矩阵为已知的单位矩阵;其中,所述x为大于或等于2的正整数;
当所述第x个备选矩阵满足迭代停止条件时,基于所述第x个备选矩阵,确定第c个所述分离矩阵。
上述方案中,所述将所述第c个频域估计分量的所述更新后的映射数据、所述频域估计信号、所述原始带噪信号以及第x-1个备选矩阵进行梯度迭代,得到第x个备选矩阵,包括:
对所述第c个频域估计分量的所述更新后的映射数据进行一阶求导,以获得一阶导数;
对所述第c个频域估计分量的所述更新后的映射数据进行二阶求导,以获得二阶导数;
将所述一阶导数、所述二阶导数、所述频域估计信号、所述原始带噪信号及所述第x-1个备选矩阵进行梯度迭代,获得第x个备选矩阵。
上述方案中,所述基于所述分离矩阵及所述原始带噪信号,获得至少两个声源各自发出的声音的音频信号,包括:
基于第1个所述分离矩阵至第C个所述分离矩阵,对一个所述频域估计信号对应的第n帧所述原始带噪信号进行分离,获得一个所述频域估计信号对应的第n帧所述原始带噪信号中不同所述声源的音频信号;其中,所述n为小于N的正整数;
组合各所述频域估计信号对应的第n帧所述原始带噪信号中第p个所述声源的音频信号,得到第p个所述声源的所述第n帧音频信号;其中,所述p为小于或等于P的正整数,所述P为声源的个数。
上述方案中,所述方法还包括:
按照时间先后顺序,组合第p个所述声源的第1帧音频信号至第N帧音频信号,得到N帧所述原始带噪信号包含的第p个所述声源的音频信号。
根据本公开实施例的第二方面,提供一种音频信号处理装置,包括:
获取模块,用于由至少两个麦克风获取至少两个声源各自发出的音频信号,以获得所述至少两个麦克风各自在时域上的多帧原始带噪信号;
转换模块,用于对于时域上的每一帧,根据所述至少两个麦克风各自的所述原始带噪信号,获取所述至少两个声源各自的频域估计信号;
划分模块,用于对于所述至少两个声源中的每个声源,将所述第一频域估计信号在频域上划分为多个频域估计分量,其中,每个频域估计分量对应一个频域子带并且包含多个频点数据;
分解模块,用于对每个声源,将各所述频域估计分量的相关矩阵分别进行特征分解,以获得各所述频域估计对应的目标特征向量;
第一处理模块,用于基于所述目标特征向量,获得每个频点的分离矩阵;
第二处理模块,用于基于每个声源各所述目标特征向量和所述频域估计信号,获得至少两个声源各自发出的声音的音频信号。
上述方案中,所述获取模块,用于对于每一个声源,基于所述第c个频域估计分量、与所述第c个频域估计分量的共轭转置的乘积,获得所述第c个频域估计分量的第一矩阵;
基于第1至第N帧的所述第c个频域估计分量的所述第一矩阵,获取所述第c个频域估计分量的相关矩阵;其中,所述N为所述原始带噪信号的帧数;所述c为小于或等于C的正整数,所述C为所述频域子带的个数。
上述方案中,所述第一处理模块,用于基于所述第c个频域估计分量的所述目标特征向量的转置矩阵与所述第c个频域估计分量的乘积,获得所述第c个频域估计分量映射到预设空间内的映射数据;
基于所述映射数据,以及第1至第N帧的所述原始带噪信号的迭代运算,获得所述分离矩阵。
上述方案中,所述第一处理模块,还用于按照对数函数对所述映射数据进行非线性变换,以获得更新后的映射数据。
上述方案中,所述第一处理模块,用于将所述第c个频域估计分量的所述更新后的映射数据、所述频域估计信号、所述原始带噪信号以及第x-1个备选矩阵进行梯度迭代,得到第x个备选矩阵;其中,第1个备选矩阵为已知的单位矩阵;其中,所述x为大于或等于2的正整数;
当所述第x个备选矩阵满足迭代停止条件时,基于所述第x个备选矩阵,确定第c个所述分离矩阵。
上述方案中,所述第一处理模块用于对所述第c个频域估计分量的所述更新后的映射数据进行一阶求导,以获得一阶导数;对所述第c个频域估计分量的所述更新后的映射数据进行二阶求导,以获得二阶导数;
将所述一阶导数、所述二阶导数、所述频域估计信号、所述原始带噪信号及所述第x-1个备选矩阵进行梯度迭代,获得第x个备选矩阵。
上述方案中,所述第二处理模块,用于基于第1个所述分离矩阵至第C个所述分离矩阵,对一个所述频域估计信号对应的第n帧所述原始带噪信号进行分离,获得一个所述频域估计信号对应的第n帧所述原始带噪信号中不同所述声源的音频信号;其中,所述n为小于N的正整数;
组合各所述频域估计信号对应的第n帧所述原始带噪信号中第p个所述声源的音频信号,得到第p个所述声源的所述第n帧音频信号;其中,所述p为小于或等于P的正整数,所述P为声源的个数。
上述方案中,所述第二处理模块,还用于按照时间先后顺序,组合第p个所述声源的第1帧音频信号至第N帧音频信号,得到N帧所述原始带噪信号包含的第p个所述声源的音频信号。
根据本公开实施例的第三方面,提供一种终端,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:用于执行所述可执行指令时,实现本公开任一实施例所述的音频信号处理方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,所述可读存储介质存储有可执行程序,其中,所述可执行程序被处理器执行时实现本公开任一实施例所述的音频信号处理方法。
本公开的实施例提供的技术方案可以包括以下有益效果:
本公开实施例中,可以基于获取的多帧原始带噪信号,获得至少两个声源各自的频域估计分量;并对所述频域估计分量的相关矩阵进行特征分离,以获得目标特征向量;从而基于所述目标特征向量,获得每个频点的分离矩阵。如此,本公开实施例获得的分离矩阵,是基于不同频域子带的频域估计分量的相关矩阵分解出的目标特征向量确定的。如此,本公开实施例可以基于所述目标特征向量对应的子空间来进行信号的分解,从而能够抑制各原始带噪信号中的噪音信号,提高分离出的音频信号的质量。
且,本公开实施例所述使用的音频信号处理方法,相对于现有技术中,利用多个麦克风的波束形成技术实现对声源信号进行分离来说,可不考虑该些麦克风的位置,从而能够实现更高精准度的声源发出声音的音频信号的分离。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是根据一示例性实施例示出的一种音频信号处理方法的流程图。
图2是根据一示例性实施例示出的一种音频信号处理方法的应用场景的框图。
图3是根据一示例性实施例示出的一种音频信号处理方法的流程图。
图4是根据一示例性实施例示出的一种音频信号处理装置的示意图。
图5是根据一示例性实施例示出的一种终端的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
图1是根据一示例性实施例示出的一种音频信号处理方法的流程图,如图1所示,所述方法包括以下步骤。
步骤S11,由至少两个麦克风获取至少两个声源各自发出的音频信号,以获得所述至少两个麦克风各自在时域上的多帧原始带噪信号;
步骤S12,对于时域上的每一帧,根据所述至少两个麦克风各自的所述原始带噪信号,获取所述至少两个声源各自的频域估计信号;
步骤S13,对于所述至少两个声源中的每个声源,将所述第一频域估计信号在频域上划分为多个频域估计分量,其中,每个频域估计分量对应一个频域子带并且包含多个频点数据;
步骤S14,对于每一个声源,将各频域估计分量的相关矩阵分别进行特征分解,以获得各所述频域估计分量对应的目标特征向量;
步骤S15,基于每个声源的各所述目标特征向量和所述频域估计信号,获得每个频点的分离矩阵;
步骤S16,基于所述分离矩阵及所述原始带噪信号,获得至少两个声源各自发出的声音的音频信号。
本公开实施例所述的方法应用在终端中。这里,所述终端为集成了两个或两个以上麦克风的电子设备。例如,所述终端可以为车载终端、计算机、或服务器等。在一实施例中,所述终端还可以是:与集成了两个或两个以上麦克风的预定设备连接的电子设备;所述电子设备基于所述连接接收所述预定设备采集的音频信号,且基于所述连接将处理后的音频信号发送给所述预定设备。例如,所述预定设备为音箱等。
在实际应用中,所述终端中包括至少两个麦克风,所述至少两个麦克风同时检测至少两个声源各自发出的音频信号,以获得所述至少两个麦克风各自的原始带噪信号。这里,可以理解的是,本实施例中所述至少两个麦克风对所述两个声源发出的音频信号是同步进行检测的。
在本公开实施例的所述音频信号处理方法是,需要对预定时间内的音频帧的原始带噪信号获取完之后,才开始对该预定时间内的音频帧的音频信号进行分离。
在本公开实施例中,所述麦克风为2个或2个以上,所述声源为2个或2个以上。
在本公开实施例中,所述原始带噪信号为:包括至少两个声源发出的声音的混合信号。
例如,所述麦克风为2个,分别为麦克风1和麦克风2;所述声源为2个,分别为声源1和声源2;则所述麦克风1的原始带噪信号为包括声源1和声源2的音频信号;所述麦克风2原始带噪信号同样也是均包括声源1和声源2音频信号。
例如,所述麦克风为3个,分别为麦克风1、麦克风2和麦克风3;所述声源为3个,分别为声源1、声源2和声源3;则所述麦克风1的原始带噪信号为包括声源1、声源2和声源3的音频信号;所述麦克风2和所述麦克风3的原始带噪信号同样也是均包括声源1、声源2和声源3的音频信号。
可以理解的是,一个声源发出的声音在一个对应的麦克风中信号为音频信号,则其它声源在所述麦克风中的信号为噪声信号。本公开实施例是需要从至少两个麦克风中恢复至少两个声源发出的声源。
可以理解的是,一般声源个数是与麦克风个数相同的。若在一些实施例中,麦克风的个数小于所述声源的个数,可以对所述声源的个数进行降维,以降到与所述麦克风个数相等的维度。
本公开实施例中,可将所述频域估计信号划分为位于至少两个频域子带内的至少两个频域估计分量;其中,任意两个所述频域子带的频域估计分量中包括的频域估计信号的数量相同或不同。
这里,所述多帧原始带噪信号指多个音频帧的原始带噪信号。在一实施例中,一个音频帧可为预设时长的音频段。
例如,所述频域估计信号总计100个,将所述频域估计信号划分为3个频域子带的频域估计分量;其中,第1个频域子带、第2个频域子带和第3个频域子带的频域估计分量中分别包括的频域估计信号为25、35和40个。又如,所述频域估计信号总计100个,将所述频域估计信号划分为4个频域子带的频域估计分量;其中,4个频域子带的频域估计分量中分别包括的频域估计信号均为25个。
在一实施例中,所述步骤S14,包括:
对所述频域估计分量的相关矩阵进行特征分解,以获得最大特征值;
基于所述最大特征值,获得所述最大特征值所对应的目标特征向量。
可以理解的是,对一个频域估计分量进行特征分解,可以得到多个特征值;其中,基于一个特征值可以求解出一个目标特征向量。这里,一个所述目标特征向量对应一个子空间;所述频域估计分量的各所述目标特征向量对应的子空间,构成所述空间。这里,所述原始带噪信号在所述空间的不同子空间的信噪比是不相同的;其中,所述信噪比是指音频信号与噪声信号的比值。
这里,若所述最大特征值对应的目标特征向量为目标特征向量,则所述目标特征向量所对应的子空间的信噪比是最大的。
本公开实施例中,可以基于获取的多帧原始带噪信号,获得至少两个声源各自的频域估计信号,并将所述频域估计信号划分为不同频域子带内的至少两个频域估计分量;并对所述频域估计分量的相关矩阵进行特征分离,以获得目标特征向量;从而基于所述目标特征向量,获得每个频点的分离矩阵。如此,本公开实施例获得的分离矩阵,是基于不同频域子带的频域估计分量的相关矩阵分解出的目标特征向量确定的。如此本公开实施例可以基于所述目标特征向量对应的子空间来进行信号的分解,从而能够抑制各原始带噪信号中的噪音信号,提高分离出的音频信号的质量。
且,由于本公开实施例中的分离矩阵,是基于各频域子带的频域估计分量的相关矩阵确定的,相对于基于整个频带所有频域估计信号来获的分离矩阵来说,考虑了各频域子带间的频域估计信号具有相同的依赖性,无需考虑整个频带所有频域估计信号存在相同的依赖性,从而具有更高的分离性能。
且,本公开实施例所提供的音频信号处理方法,相对于现有技术中,利用多个麦克风的波束形成技术实现对声源信号进行分离来说,可不需考虑该些麦克风的位置,从而能够实现更高精准度的声源发出声音的音频信号的分离。
且,若所述音频信号处理方法应用在两个麦克风的终端设备中,相对于现有技术中至少3个以上的多个麦克风的波束形成技术来提高语音质量来说,还大大减少了麦克风的个数,降低了终端的硬件成本。
更进一步地,若本公开实施例中是对所述相关矩阵进行特征分解,以获得最大特征值对应的目标特征向量;则基于所述目标特征向量获得的分离矩阵对原始带噪信号进行分离,是基于信噪比最大的子空间对原始带噪信号进行分离。如此,能够进一步提高分离性能,提高分离出的音频信号的质量。
在一实施例中,所述步骤S11,包括:
由至少两个麦克风同时检测至少两个声源各自发出的音频信号,以获取至少两个麦克风各自在时域上采集的每一帧原始带噪信号。
在一些实施例中,所述步骤S12,包括:
将所述时域上的原始带噪信号转换为频域上的原始带噪信号;将所述频域上的原始带噪信号转换为频域估计信号。
这里,可以基于快速傅里叶变换(Fast Fourier Transform,FFT),将时域信号进行频域变换。或者,可以基于短时傅里叶变换(short-time Fourier transform,STFT),将时域信号进行频域变换。或者,还可以基于其它傅里叶变换,将时域信号进行频域变换。
例如,若第p个麦克风在第n帧的时域信号为:
Figure BDA0002321971100000091
将第n帧的时域信号变变换为频域信号,确定第n帧的原始带噪信号为:
Figure BDA0002321971100000092
其中,所述k为频点,所述k=1,…,K;所述m为n帧时域信号的离散时间点数量;所述m=1,…,Nfft。如此,本实施例可以通过所述时域到频域的变化,可以获得每一帧在频域上的原始带噪信号。当然,获得每一帧的原始带噪信号也可以基于其它的傅里叶变换公式获得,在此不做限制。
在一些实施例中,所述方法还包括:
对于每一个声源,基于所述第c个频域估计分量、与所述第c个频域估计分量的共轭转置的乘积,获得所述第c个频域估计分量的第一矩阵;
基于第1至第N帧的所述第c个频域估计分量的所述第一矩阵,获取所述第c个频域估计分量的相关矩阵;其中,所述N为所述原始带噪信号的帧数;所述c为小于或等于C的正整数,所述C为所述频域子带的个数。
例如,若第c个频域估计分量为Yc(n),则所述第p个声源的所述第c个频域估计分量的共轭装置为Yc(n)H;获得所述第c个频域估计分量的第一矩阵为
Figure BDA0002321971100000093
获得所述第c个频域估计分量的相关矩阵为
Figure BDA0002321971100000094
其中,所述c为小于或等于C的正整数,所述C为频域子带的个数。
又如,若第p个声源的所述第c个频域估计分量为
Figure BDA0002321971100000095
则所述第p个声源的所述第c个频域估计分量的共轭装置为
Figure BDA0002321971100000096
获得所述第p个声源的所述第c个频域估计分量的第一矩阵为
Figure BDA0002321971100000097
获得所述第c个频域估计分量的相关矩阵为
Figure BDA0002321971100000098
其中,所述c为小于或等于C的正整数,所述C为频域子带的个数;其中,所述p为小于或等于P的正整数;所述P为声源的个数。
如此,在本公开实施例中,可以基于各频域子带获得所述频域估计分量的相关矩阵;如此,后续基于所述相关矩阵获得的分离矩阵,无需仅考虑了各频域子带间的频域估计信号具有相同的依赖性,无需考虑整个频带所有频域估计信号存在相同的依赖性,从而具有更高的分离性能。
在一些实施例中,所述步骤S15,包括:
对于每一个声源,基于所述第c个频域估计分量的所述目标特征向量的转置矩阵与所述第c个频域估计分量的乘积,获得所述第c个频域估计分量映射到预设空间内的映射数据;
基于所述映射数据,以及第1至第N帧的所述原始带噪信号的迭代运算,获得所述分离矩阵。
这里,所述预设空间为目标特征向量对应的子空间。
在一实施例中,所述目标特征向量为最大特征值对应的目标特征向量,则所述预设空间为所述最大特征值的目标特征向量所对应的子空间。
在一实施例中,所述基于所述第c个频域估计分量的所述目标特征向量的转置矩阵与所述第c个频域估计分量的乘积,获得所述第c个频域估计分量映射到预设空间内的映射数据,包括:
基于所述第c个频域估计分量的所述目标特征向量的转置矩阵,与所述第c个频域估计分量的乘积,获得备选映射数据;
基于所述备选映射数据及第一数值,获得所述第c个频域估计分量映射到预设空间内的映射数据;其中,所述第一数值为:所述目标特征向量对应的特征值的开根方的值。
例如,若对所述第p个声源的所述第c个频域估计分量的相关矩阵进行特征分解,获得最大特征值为
Figure BDA0002321971100000101
获得最大特征值对应的目标特征向量为最大目标特征向量
Figure BDA0002321971100000102
则获得第p个声源的所述第c个频域估计分量的映射数据为
Figure BDA0002321971100000103
其中,所述
Figure BDA0002321971100000104
为所述
Figure BDA0002321971100000105
的转置矩阵,所述α为
Figure BDA0002321971100000106
其中,所述c为小于或等于C的正整数,所述C为频域子带的个数;其中,所述p为小于或等于P的正整数;所述P为声源的个数。
在本公开实施例中,可以基于各所述频域估计分量的目标特征向量的转置矩阵以及同一频域估计分量的乘积,获得同一频域估计分量在对应的子空间内的映射数据;该映射数据可表示将原始带噪信号在子空间进行投影的映射数据;更进一步地,基于各频域估计分量的最大特征值对应的目标特征向量的转置矩阵及同一频域估计分量的乘积,获得最大目标特征向量对应子空间进行投影的映射数据;如此,基于该映射数据获得的分离矩阵具有更高的分离性能,从而能够提高分离出的音频信号的质量。
在一些实施例中,所述所述方法还包括:
按照对数函数对所述映射数据进行非线性变换,以获得更新后的映射数据。
这里,对数函数可以为G(q)=loga(q);其中,所述q为所述映射数据;所述G(q)为更新后的映射数据;所述a为对数函数的底数,所述a为10或e。
在本公开实施例中,基于所述对数函数对所述映射数据进行非线性变化,如此,可以对所述映射数据进行信号熵的估计,从而基于更新后的映射数据获得的分离矩阵的分离性能更好,从而提高获取音频信号的语音质量。
在一些实施例中,所述基于所述映射数据,以及第1至第N帧的所述原始带噪信号的迭代运算,获得所述分离矩阵,包括:
将所述第c个频域估计分量的所述更新后的映射数据、所述频域估计信号、所述原始带噪信号以及第x-1个备选矩阵进行梯度迭代,得到第x个备选矩阵;其中,第1个备选矩阵为已知的单位矩阵;其中,所述x为大于或等于2的正整数;
当所述第x个备选矩阵满足迭代停止条件时,基于所述第x个备选矩阵,确定第c个所述分离矩阵。
在本公开实施例中,可以对所述备选矩阵进行梯度迭代,其中,每进行一次梯度迭代后的备选矩阵越来越接近所需要的分离矩阵。
这里,满足迭代停止条件为:第x个备选矩阵与第x-1个备选矩阵满足收敛条件。在一实施例中,所述第x个备选矩阵与第x-1个备选矩阵满足收敛条件为:所述第x个备选矩阵与第x-1个备选矩阵之积在预定数值范围内。例如,所述预定数值范围为(0.9,1.1)。
其中,所述将所述第c个频域估计分量的所述更新后的映射数据、所述频域估计信号、所述原始带噪信号以及第x-1个备选矩阵进行梯度迭代,得到第x个备选矩阵,包括:
对所述第c个频域估计分量的所述更新后的映射数据进行一阶求导,以获得一阶导数;
对所述第c个频域估计分量的所述更新后的映射数据进行二阶求导,以获得二阶导数;
将所述一阶导数、所述二阶导数、所述频域估计信号、所述原始带噪信号及所述第x-1个备选矩阵进行梯度迭代,获得第x个备选矩阵。
例如,所述将所述一阶导数、所述二阶导数、所述频域估计信号、所述原始带噪信号及所述第x-1个备选矩阵进行梯度迭代,获得第x个备选矩阵,得到第x个备选矩阵的具体公式可以为:
Figure BDA0002321971100000111
其中,Wx(k)为第x个备选矩阵;所述Wx-1(k)为第x-1个备选矩阵;所述n为小于或等于N的正整数,所述N为麦克风采集到的音频帧的帧数;所述φn(k,m)为第n个频域估计分量的加权系数;所述k为频带的频点;所述Y(k,n)在k频点的频域估计信号,所述Y*(k,n)为所述Y(k,m)的共轭转置;所述G'((qc)2)为一阶导数;所述G”((qc)2)为二阶导数。
在一实际应用场景中,上述公式中满足迭代停止条件可以为:|1-tr{abs(W0(k)WH(k))}/N|≤ξ;其中,且所述ξ大于或等于0且小于或等于(1/1010)的数。在一实施例中,所述ξ为(1/1010)。
在一实施例中,所述当所述第x个备选矩阵满足迭代停止条件时,基于所述第x个备选矩阵,确定第c个所述分离矩阵,包括:
当所述第x个备选矩阵满足迭代停止条件时,获取所述第x备选矩阵;
基于所述第x个备选矩阵及所述第x个备选矩阵的共轭转置,获得第c个所述分离矩阵。
例如,在上述实际示例中,若获取到所述第x备选矩阵为:Wx(k);则第c个所述分离矩阵在k频点的分离矩阵可以为:W(k)=(Wx(k)Wx H(k))-1/2Wx(k);其中,所述WxH(k)为所述Wx(k)的共轭转置。
如此,在本公开实施例中,可以基于各个频域子带的频域估计分量的映射数据、及每一帧的频域估计信号等,得到更新后的分离矩阵;如此,基于该更新后的分离矩阵对原始带噪信号进行分分离,能够具有更好的分离性能,从而能够进一步提高分离出的音频信号的精确度。
当前在其它实施例中,所述基于所述映射数据,以及第1至第N帧的所述原始带噪信号的迭代运算,获得所述分离矩阵,也可以是:
将所述第c个频域估计分量的所述映射数据、所述频域估计信号、所述原始带噪信号以及第x-1个备选矩阵进行梯度迭代,得到第x个备选矩阵;其中,第1个备选矩阵为已知的单位矩阵;其中,所述x为大于或等于2的正整数;
当所述第x个备选矩阵满足迭代停止条件时,基于所述第x个备选矩阵,确定第c个所述分离矩阵。
其中,所述将所述第c个频域估计分量的所述映射数据、所述频域估计信号、所述原始带噪信号以及第x-1个备选矩阵进行梯度迭代,得到第x个备选矩阵,包括:
对所述第c个频域估计分量的所述映射数据进行一阶求导,以获得一阶导数;
对所述第c个频域估计分量的所述映射数据进行二阶求导,以获得二阶导数;
将所述一阶导数、所述二阶导数、所述频域估计信号、所述原始带噪信号及所述第x-1个备选矩阵进行梯度迭代,获得第x个备选矩阵。
在本公开实施例中,所述映射数据为更新前的映射数据;本申请也可以基于更新前的所述映射数据获取到分离矩阵;该更新前的映射数据也考虑到基于目标特征向量对应的空间来进行信号分解,从而能够一直各种原始带噪信号中的噪音信号,提高分离出的音频信号质量。
且在本公开实施例中,由于是使用更新前的映射数据,无需对所述映射数据按照对数函数进行非线性变换,从而也能在一定程度上简化分离矩阵的计算。
在一实施例中,所述将所述频域上的原始带噪信号转换为频域估计信号,包括:基于已知的单位矩阵,将所述频域上的原始带噪信号转换为频域估计信号。
在另一实施例中,所述将所述频域上的原始带噪信号转换为频域估计信号,包括:基于备选矩阵,将所述频域上的原始带噪信号转换为频域估计信号。
这里,所述备选矩阵可以为上述实施例中第1至第x-1次备选矩阵。
例如,获取第n帧的k频点的频点数据为:Y(k,n)=W(k)X(k,n);其中,所述X(k,n)为第n帧在频域上的原始带噪信号;所述分离矩阵为W(k)可以为上述实施例中第1至第x-1次备选矩阵;如,所述W(k)为已知单位矩阵,或者第x-1次迭代获得的备选矩阵。
在本公开实施例中,对于第一次迭代时,可以使用已知的单位矩阵作为本次的分离矩阵,对于后续的每一次迭代时,可以将上一次迭代获得备选矩阵作为本次迭代的分离矩阵;如此,为后续获取分离矩阵提供了依据。
在一些实施例中,所述基于所述分离矩阵及所述原始带噪信号,获得至少两个声源各自发出的声音的音频信号,包括:
基于第1个所述分离矩阵至第C个所述分离矩阵,对一个所述频域估计信号对应的第n帧所述原始带噪信号进行分离,获得一个所述频域估计信号对应的第n帧所述原始带噪信号中不同所述声源的音频信号;其中,所述n为小于N的正整数;
组合各所述频域估计信号对应的第n帧所述原始带噪信号中第p个所述声源的音频信号,得到第p个所述声源的所述第n帧音频信号;其中,所述p为小于或等于P的正整数,所述P为声源的个数。
例如,所述麦克风为2个,分别为麦克风1和麦克风2;所述声源为2个,分别为声源1和声源2;所述麦克风1和麦克风2均采集了3帧原始带噪信号;对于第1帧中,第1个频域估计信号至第C个频域估计信号分别算出其对应的分离矩阵;如第1个频域估计信号的分离矩阵为第1个分离矩阵,第2个频域估计信号的分离矩阵为第2个分离矩阵;以此类推,第N个频域估计信号的分离矩阵为第C个分离矩阵。再基于第1个频域估计信号对应的噪声信号与第1个分离矩阵,获取第1个频域估计信号的音频信号;基于第2个频域估计信号对应的噪声信号与第2个分离矩阵,获得第2个频域估计信号的音频信号;依次类推,基于第C个频域估计信号对应的噪声信号与第C个分离矩阵,获得第C个频域估计信号的音频信号。再组合所述第1个频域估计信号的音频信号、第2个频域估计信号的音频信号及第3个频域估计信号的音频信号,获得麦克风1和麦克风2在第1帧的音频信号。
可以理解的是,对于其它帧的音频信号的获取,也可以基于上述示例中类似的方法,在此不作赘述。
在本公开实施例中,可以对于每一帧的各频域估计信号对应的对应的噪声信号及分离矩阵,获得在该帧中各所述频域估计信号的音频信号,再将该帧中各所述频域估计信号的音频信号进行组合,以获得该帧的音频信号。
在本公开实施例中,当获得所述频域估计信号的音频信号之后,还可以将所述音频信号进行时域转换,获得时域上的各声源的音频信号。
例如,可以基于快速傅里叶逆变换(Inverse Fast Fourier Transform,IFFT),将频域信号进行时域变换。或者,可以基于短时傅里叶逆变换(Inverse short-time Fouriertransform,ISTFT),将频域信号变成时域信号。或者,还可以基于其它傅里叶逆变换,将频域信号进行时域变换。
在一些实施例中,所述方法还包括:按照时间先后顺序,组合第p个所述声源的第1帧音频信号至第N帧音频信号,得到N帧所述原始带噪信号包含的第p个所述声源的音频信号。
例如,所述麦克风为2个,分别为麦克风1和麦克风2;所述声源为2个,分别为声源1和声源2;所述麦克风1和麦克风2均采集了3帧原始带噪信号,其中,3帧按照时间的先后顺序分别为:第1帧、第2帧及第3帧。通过计算,分别获得了声源1的第1帧、第2帧、第3帧的音频信号,则所述声源1的音频信号为:按照时间先后顺序,组合了声源1的第1帧、第2帧及第3帧的声源信号。分别获得了声源2的第1帧、第2帧、第3帧的音频信号,则所述声源2的音频信号为:按照时间先后顺序,组合了声源1的第1帧、第2帧及第3帧的声源信号。
在本公开实施例中,可以组合各声源的各音频帧的音频信号,从而获得完整的各声源的音频信号。
为了有助于理解本公开的上述实施例,在此以下面示例为例进行说明。如图2所示,公开了一种音频信号处理方法的应用场景;其中,所述终端包括音箱A,所述音箱A中包括两个麦克风,分别为麦克风1和麦克风2;所述声源为2个,分别为声源1和声源2。所述声源1和所述声源2发出的信号都会被麦克风1和麦克风2采集到。在每个麦克风中两个声源信号都混叠在一起。
图3是根据一示例性实施例示出的一种音频信号处理方法的流程图;其中,所述音频信号处理方法中,如图2所示,声源包括声源1和声源2,麦克风包括麦克风1和麦克风2;基于所述音频信号处理方法,从麦克风1和麦克风2的信号中恢复出声源1和声源2。如图3所示,所述方法包括以下步骤:
若系统帧长为Nfft,则频点K=Nfft/2+1。
步骤S301:初始化W(k);
具体地,初始化各个频点的分离矩阵;
Figure BDA0002321971100000151
其中,所述
Figure BDA0002321971100000152
为单位矩阵;所述k为频域估计信号;所述k=1,…,K。
步骤S302:获得第p个麦克风在第n帧的原始带噪信号;
具体地,对
Figure BDA0002321971100000153
加窗进行Nfft点得到对应的频域信号:
Figure BDA0002321971100000154
其中,所述m为傅里叶变换所选取的点数;其中,所述STFT为短时傅里叶变换;所述
Figure BDA0002321971100000155
为第p个麦克风第n帧的时域信号;这里,所述时域信号为原始带噪信号。
这里,所述p=1时,表示麦克风1;所述p=2时,表示麦克风2。
则所述Xp(k,n)的观测信号为:X(k,n)=[X1(k,n),X2(k,n)]T;其中,所述X1(k,n)和X1(k,n)分为声源1和声源2在频域上的原始带噪信号;其中,[X1(k,n),X2(k,n)]T为[X1(k,n),X2(k,n)]转置矩阵。
步骤S303:分频域子带获得两个声源的先验频域估计;
具体地,令两个声源信号的先验频域估计Y(k,n)=[Y1(k,n),Y2(k,n)]T,其中Y1(k,n)和Y2(k,n)分别为声源1和声源2在频域估计信号(k,n)处的估计值。
通过分离矩阵W(k)对观测矩阵X(k,n)进行分离得到:Y(k,n)=W(k)'X(k,n);其中,W'(k)为上一次迭代获得的分离矩阵(即备选矩阵)。
则第p个声源在第m帧的先验频域估计为:
Figure BDA0002321971100000161
这里,先验频域估计为上述实施例中的频域估计信号。
步骤S304:将整个频带划分为至少两个频域子带;
具体地,将整个频带划分成C个频域子带。
获取第c个频域子带的频域估计信号为:
Figure BDA0002321971100000162
其中,所述n=1,…,N;其中,所述ln、hn分别表示第n个频域子带的第一个频点和最后一个频点;其中,ln<hn-1,所述c=2,…,C。这里,这样保证了相邻频域子带间存在部分频率重合;所述Nn=hn-ln+1代表第c个频域子带的频点个数。
步骤S305:获取各频域子带的相关矩阵;
具体地,计算第c个频域子带的相关矩阵为:
Figure BDA0002321971100000163
其中,所述
Figure BDA0002321971100000164
为所述
Figure BDA0002321971100000165
的共轭矩阵;所述p=1,2。
步骤S306:获取子空间投影的映射数据;
具体地,对第c个频域子带的所述
Figure BDA0002321971100000166
进行特征分解,以获得最大的特征值
Figure BDA0002321971100000167
以及所述最大特征值对应的目标特征向量
Figure BDA0002321971100000168
基于所述
Figure BDA0002321971100000169
获得第c个频域子带的频域估计分量映射到所述目标特征向量对应子空间的映射数据:
Figure BDA00023219711000001610
其中,所述
Figure BDA00023219711000001611
为所述
Figure BDA00023219711000001612
的转置矩阵。
步骤S307:对所述映射数据进行信号熵估计,获得更新后的映射数据;
这里,可以理解的是,对所述映射数据进行信号熵估计实际上为:按照对数函数对所述映射数据进行非线性变换。
具体地,按照对数函数对第c个频域子带对应的所述映射数据进行非线性映射,以获取第c个频域子带对应的更新后的映射数据
Figure BDA00023219711000001613
对所述更新后的映射数据
Figure BDA00023219711000001614
进行一阶求导,以获得一阶导数
Figure BDA00023219711000001615
对所述更新后的映射数据
Figure BDA0002321971100000171
进行二阶求导,以获得二阶导数
Figure BDA0002321971100000172
步骤S308:更新W(k);
具体地,将所述一阶导数、二阶导数、第1至N帧的频域估计信号、第1至N帧的原始带噪信号、以及上依次迭代时的备选矩阵,获得当前迭代的备选矩阵:
Figure BDA0002321971100000173
其中,所述Wx-1(k)为上一次迭代时的备选矩阵,所述Wx(k)为当前迭代的获取的备选矩阵;其中,所述Y*(k,n)为Y(k,n)的共轭装置。
这里,若|1-tr{abs(Wx(k)Wx-1 H(k))}/N|≤ξ,表明获得所述Wx-1(k)已满足收敛条件。若确定所述Wx-1(k)满足收敛条件,则更新W(k),使得k点的分离矩阵为W(k)=(Wx(k)Wx H(k))-1/2Wx(k)。
在一实施例中,所述ξ为小于或等于(1/106)的值。
这里,若上述频域子带的相关矩阵为c频域子带的相关矩阵,则所述k点在所述c频域子带中。
在一实施例中,在进行所述梯度迭代时,按照频率从高到低依次进行。如此,可以确保能够对每个频域子带的各频率的分离矩进行更新。
示例性的,以下提供了一种依次获取各频域估计信号分离矩阵的伪代码:
令converged[m][k]代表第c个频域子带的第k个频点的收敛状态;所述c=1,…,C;所述k=1,…,K。其中,当converged[m][k]=1,则代表当前频点已经收敛;否则未收敛。
Figure BDA0002321971100000174
Figure BDA0002321971100000181
在上述示例中,所述ξ是一个判断W(k)收敛的门限,所述ξ为(1/106)。
步骤S309:获得各声源在各麦克风的音频信号;
具体地,基于更新后的分离矩阵W(k),获得Yp(k,m)=Wp(k)Xp(k,m);其中,所述p=1,2;所述Y(k,n)=[Y1(k,n),Y2(k,n)]T;所述Wp(k)=[W1(k,n),W2(k,n)];所述Xp(k,m)=[X1(k,n),X1(k,n)]T
步骤S310,对频域上的音频信号进行时域变换。
对频域上的音频信号进行时域变换,以获得时域上的音频信号。
分别对
Figure BDA0002321971100000182
进行ISTFT和重叠相加得到估计的时域的第三音频信号:
Figure BDA0002321971100000183
在本公开实施例中,可以基于各频域估计分量的最大特征值对应的目标特征向量的转置矩阵及同一频域估计分量的乘积,获得最大目标特征向量对应子空间进行投影的映射数据;如此,本公开实施例是基于信噪比最大的子空间进行原始带噪信号信号的分解,从而能够抑制各原始带噪信号中的噪音信号、提高分离性能,从而进一步提高分离出的音频信号的质量。
且,本公开实施例所提供的音频信号处理方法,相对于现有技术中,利用多个麦克风的波束形成技术实现对声源信号进行分离来说,无需考虑该些麦克风的位置,从而能够实现更高精准度的声源发出声音的音频信号的分离。且,本公开实施例中仅利用了两个麦克风,相对于现有技术中至少3个以上的多个麦克风的波束形成技术来提高语音质量来说,还大大减少了麦克风的个数,降低了终端的硬件成本。
图4是根据一示例性示出的一种音频信号处理装置的框图。参照图4,该装置包括:获取模块41、转换模块42、划分模块43、分解模块44、第一处理模块45及第二处理模块46;其中,
所述获取模块41,用于由至少两个麦克风获取至少两个声源各自发出的音频信号,以获得所述至少两个麦克风各自在时域上的多帧原始带噪信号;
所述转换模块42,用于对于时域上的每一帧,根据所述至少两个麦克风各自的所述原始带噪信号,获取所述至少两个声源各自的频域估计信号;
所述划分模块43,用于对于所述至少两个声源中的每个声源,将所述第一频域估计信号在频域上划分为多个频域估计分量,其中,每个频域估计分量对应一个频域子带并且包含多个频点数据;
所述分解模块44,用于对每个声源,将各所述频域估计分量的相关矩阵分别进行特征分解,以获得各所述频域估计对应的目标特征向量;
所述第一处理模块45,用于基于每个声源各所述目标特征向量和所述频域估计信号,获得每个频点的分离矩阵;
所述第二处理模块46,用于基于所述分离矩阵及所述原始带噪信号,获得至少两个声源各自发出的声音的音频信号。
在一些实施例中,所述获取模块41,用于对于每一个声源,基于所述第c个频域估计分量、与所述第c个频域估计分量的共轭转置的乘积,获得所述第c个频域估计分量的第一矩阵;
基于第1至第N帧的所述第c个频域估计分量的所述第一矩阵,获取所述第c个频域估计分量的相关矩阵;其中,所述N为所述原始带噪信号的帧数;所述c为小于或等于C的正整数,所述C为所述频域子带的个数。
在一些实施例中,所述第一处理模块45,用于对于每一个声源,基于所述第c个频域估计分量的所述目标特征向量的转置矩阵与所述第c个频域估计分量的乘积,获得所述第c个频域估计分量映射到预设空间内的映射数据;
基于所述映射数据,以及第1至第N帧的所述原始带噪信号的迭代运算,获得所述分离矩阵。
在一些实施例中,所述第一处理模块45,还用于按照对数函数对所述映射数据进行非线性变换,以获得更新后的映射数据。
在一些实施例中,所述第一处理模块45,用于将所述第c个频域估计分量的所述更新后的映射数据、所述频域估计信号、所述原始带噪信号以及第x-1个备选矩阵进行梯度迭代,得到第x个备选矩阵;其中,第1个备选矩阵为已知的单位矩阵;其中,所述x为大于或等于2的正整数;
当所述第x个备选矩阵满足迭代停止条件时,基于所述第x个备选矩阵,确定第c个所述分离矩阵。
在一些实施例中,所述第一处理模块45,用于对所述第c个频域估计分量的所述更新后的映射数据进行一阶求导,以获得一阶导数;对所述第c个频域估计分量的所述更新后的映射数据进行二阶求导,以获得二阶导数;
将所述一阶导数、所述二阶导数、所述频域估计信号、所述原始带噪信号及所述第x-1个备选矩阵进行梯度迭代,获得第x个备选矩阵。
在一些实施例中,所述第二处理模块46,用于基于第1个所述分离矩阵至第C个所述分离矩阵,对一个所述频域估计信号对应的第n帧所述原始带噪信号进行分离,获得一个所述频域估计信号对应的第n帧所述原始带噪信号中不同所述声源的音频信号;其中,所述n为小于N的正整数;
组合各所述频域估计信号对应的第n帧所述原始带噪信号中第p个所述声源的音频信号,得到第p个所述声源的所述第n帧音频信号;其中,所述p为小于或等于P的正整数,所述P为声源的个数。
在一些实施例中,所述第二处理模块46,还用于按照时间先后顺序,组合第p个所述声源的第1帧音频信号至第N帧音频信号,得到N帧所述原始带噪信号包含的第p个所述声源的音频信号。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开的实施例还提供了一种终端,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:用于执行所述可执行指令时时,实现本公开任意实施例所述的音频信号处理方法。
所述存储器可包括各种类型的存储介质,该存储介质为非临时性计算机存储介质,在通信设备掉电之后能够继续记忆存储其上的信息。
所述处理器可以通过总线等与存储器连接,用于读取存储器上存储的可执行程序,例如,实现如图1或图3所示的方法的至少其中之一。
本公开的实施例还提供了一种计算机可读存储介质,所述可读存储介质存储有可执行程序,其中,所述可执行程序被处理器执行时实现本公开任意实施例所述的音频信号处理方法。例如,实现如图1或图3所示的方法的至少其中之一。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图5是根据一示例性实施例示出的一种用于终端800的框图。例如,终端800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图5,终端800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制终端800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在设备800的操作。这些数据的示例包括用于在终端800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为终端800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为终端800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述终端800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当终端800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为终端800提供各个方面的状态评估。例如,传感器组件814可以检测到设备800的打开/关闭状态,组件的相对定位,例如所述组件为终端800的显示器和小键盘,传感器组件814还可以检测终端800或终端800一个组件的位置改变,用户与终端800接触的存在或不存在,终端800方位或加速/减速和终端800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于终端800和其他设备之间有线或无线方式的通信。终端800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,终端800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由终端800的处理器820执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

Claims (18)

1.一种音频信号处理方法,其特征在于,所述方法包括:
由至少两个麦克风获取至少两个声源各自发出的音频信号,以获得所述至少两个麦克风各自在时域上的多帧原始带噪信号;
对于时域上的每一帧,根据所述至少两个麦克风各自的所述原始带噪信号,获取所述至少两个声源各自的频域估计信号;
对于所述至少两个声源中的每个声源,将所述频域估计信号在频域上划分为多个频域估计分量,其中,每个频域估计分量对应一个频域子带并且包含多个频点数据;
对于每一个声源,将各频域估计分量的相关矩阵分别进行特征分解,以获得各所述频域估计分量对应的目标特征向量;
基于每个声源的各所述目标特征向量和所述频域估计信号,获得每个频点的分离矩阵;
基于所述分离矩阵及所述原始带噪信号,获得至少两个声源各自发出的声音的音频信号。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
对于每一个声源,基于所述第c个频域估计分量、与所述第c个频域估计分量的共轭转置的乘积,获得所述第c个频域估计分量的第一矩阵;
基于第1至第N帧的所述第c个频域估计分量的所述第一矩阵,获取所述第c个频域估计分量的相关矩阵;其中,所述N为所述原始带噪信号的帧数;所述c为小于或等于C的正整数,所述C为所述频域子带的个数。
3.根据权利要求2所述的方法,其特征在于,所述基于每个声源的各所述目标特征向量和所述频域估计信号,获得每个频点的分离矩阵,包括:
对于每一个声源,基于所述第c个频域估计分量的所述目标特征向量的转置矩阵与所述第c个频域估计分量的乘积,获得所述第c个频域估计分量映射到预设空间内的映射数据;
基于所述映射数据,以及第1至第N帧的所述原始带噪信号的迭代运算,获得所述分离矩阵。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
按照对数函数对所述映射数据进行非线性变换,以获得更新后的映射数据。
5.根据权利要求4所述的方法,其特征在于,所述基于所述映射数据,以及第1至第N帧的所述原始带噪信号的迭代运算,获得所述分离矩阵,包括:
将所述第c个频域估计分量的所述更新后的映射数据、所述频域估计信号、所述原始带噪信号以及第x-1个备选矩阵进行梯度迭代,得到第x个备选矩阵;其中,第1个备选矩阵为已知的单位矩阵;其中,所述x为大于或等于2的正整数;
当所述第x个备选矩阵满足迭代停止条件时,基于所述第x个备选矩阵,确定第c个所述分离矩阵。
6.根据所述权利要求5所述的方法,其特征在于,所述将所述第c个频域估计分量的所述更新后的映射数据、所述频域估计信号、所述原始带噪信号以及第x-1个备选矩阵进行梯度迭代,得到第x个备选矩阵,包括:
对所述第c个频域估计分量的所述更新后的映射数据进行一阶求导,以获得一阶导数;
对所述第c个频域估计分量的所述更新后的映射数据进行二阶求导,以获得二阶导数;
将所述一阶导数、所述二阶导数、所述频域估计信号、所述原始带噪信号及所述第x-1个备选矩阵进行梯度迭代,获得第x个备选矩阵。
7.根据权利要求1所述的方法,其特征在于,所述基于所述分离矩阵及所述原始带噪信号,获得至少两个声源各自发出的声音的音频信号,包括:
基于第1个所述分离矩阵至第C个所述分离矩阵,对一个所述频域估计信号对应的第n帧所述原始带噪信号进行分离,获得一个所述频域估计信号对应的第n帧所述原始带噪信号中不同所述声源的音频信号;其中,所述n为小于N的正整数;
组合各所述频域估计信号对应的第n帧所述原始带噪信号中第p个所述声源的音频信号,得到第p个所述声源的所述第n帧音频信号;其中,所述p为小于或等于P的正整数,所述P为声源的个数。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
按照时间先后顺序,组合第p个所述声源的第1帧音频信号至第N帧音频信号,得到N帧所述原始带噪信号包含的第p个所述声源的音频信号。
9.一种音频信号处理装置,其特征在于,所述装置包括:
获取模块,用于由至少两个麦克风获取至少两个声源各自发出的音频信号,以获得所述至少两个麦克风各自在时域上的多帧原始带噪信号;
转换模块,用于对于时域上的每一帧,根据所述至少两个麦克风各自的所述原始带噪信号,获取所述至少两个声源各自的频域估计信号;
划分模块,用于对于所述至少两个声源中的每个声源,将所述第一频域估计信号在频域上划分为多个频域估计分量,其中,每个频域估计分量对应一个频域子带并且包含多个频点数据;
分解模块,用于对每个声源,将各所述频域估计分量的相关矩阵分别进行特征分解,以获得各所述频域估计对应的目标特征向量;
第一处理模块,用于基于每个声源各所述目标特征向量和所述频域估计信号,获得每个频点的分离矩阵;
第二处理模块,用于基于所述分离矩阵及所述原始带噪信号,获得至少两个声源各自发出的声音的音频信号。
10.根据权利要求9所述的装置,其特征在于,所述获取模块,用于对于每一个声源,基于所述第c个频域估计分量、与所述第c个频域估计分量的共轭转置的乘积,获得所述第c个频域估计分量的第一矩阵;
基于第1至第N帧的所述第c个频域估计分量的所述第一矩阵,获取所述第c个频域估计分量的相关矩阵;其中,所述N为所述原始带噪信号的帧数;所述c为小于或等于C的正整数,所述C为所述频域子带的个数。
11.根据权利要求10所述的装置,其特征在于,所述第一处理模块,用于对于每一个声源,基于所述第c个频域估计分量的所述目标特征向量的转置矩阵与所述第c个频域估计分量的乘积,获得所述第c个频域估计分量映射到预设空间内的映射数据;
基于所述映射数据,以及第1至第N帧的所述原始带噪信号的迭代运算,获得所述分离矩阵。
12.根据权利要求11所述的装置,其特征在于,所述第一处理模块,还用于按照对数函数对所述映射数据进行非线性变换,以获得更新后的映射数据。
13.根据权利要求12所述的装置,其特征在于,所述第一处理模块,用于将所述第c个频域估计分量的所述更新后的映射数据、所述频域估计信号、所述原始带噪信号以及第x-1个备选矩阵进行梯度迭代,得到第x个备选矩阵;其中,第1个备选矩阵为已知的单位矩阵;其中,所述x为大于或等于2的正整数;
当所述第x个备选矩阵满足迭代停止条件时,基于所述第x个备选矩阵,确定第c个所述分离矩阵。
14.根据所述权利要求13所述的装置,其特征在于,所述第一处理模块用于对所述第c个频域估计分量的所述更新后的映射数据进行一阶求导,以获得一阶导数;对所述第c个频域估计分量的所述更新后的映射数据进行二阶求导,以获得二阶导数;
将所述一阶导数、所述二阶导数、所述频域估计信号、所述原始带噪信号及所述第x-1个备选矩阵进行梯度迭代,获得第x个备选矩阵。
15.根据权利要求9所述的装置,其特征在于,所述第二处理模块,用于基于第1个所述分离矩阵至第C个所述分离矩阵,对一个所述频域估计信号对应的第n帧所述原始带噪信号进行分离,获得一个所述频域估计信号对应的第n帧所述原始带噪信号中不同所述声源的音频信号;其中,所述n为小于N的正整数;
组合各所述频域估计信号对应的第n帧所述原始带噪信号中第p个所述声源的音频信号,得到第p个所述声源的所述第n帧音频信号;其中,所述p为小于或等于P的正整数,所述P为声源的个数。
16.根据权利要求15所述的装置,其特征在于,所述第二处理模块,还用于按照时间先后顺序,组合第p个所述声源的第1帧音频信号至第N帧音频信号,得到N帧所述原始带噪信号包含的第p个所述声源的音频信号。
17.一种终端,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:用于执行所述可执行指令时,实现权利要求1-8任一项所述的音频信号处理方法。
18.一种计算机可读存储介质,其特征在于,所述可读存储介质存储有可执行程序,其中,所述可执行程序被处理器执行时实现权利要求1-8任一项所述的音频信号处理方法。
CN201911301727.2A 2019-12-17 2019-12-17 一种音频信号处理方法、装置、终端及存储介质 Active CN111009256B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201911301727.2A CN111009256B (zh) 2019-12-17 2019-12-17 一种音频信号处理方法、装置、终端及存储介质
US16/885,230 US11284190B2 (en) 2019-12-17 2020-05-27 Method and device for processing audio signal with frequency-domain estimation, and non-transitory computer-readable storage medium
EP20180826.8A EP3839951B1 (en) 2019-12-17 2020-06-18 Method and device for processing audio signal, terminal and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911301727.2A CN111009256B (zh) 2019-12-17 2019-12-17 一种音频信号处理方法、装置、终端及存储介质

Publications (2)

Publication Number Publication Date
CN111009256A true CN111009256A (zh) 2020-04-14
CN111009256B CN111009256B (zh) 2022-12-27

Family

ID=70116520

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911301727.2A Active CN111009256B (zh) 2019-12-17 2019-12-17 一种音频信号处理方法、装置、终端及存储介质

Country Status (3)

Country Link
US (1) US11284190B2 (zh)
EP (1) EP3839951B1 (zh)
CN (1) CN111009256B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112599144A (zh) * 2020-12-03 2021-04-02 Oppo(重庆)智能科技有限公司 音频数据处理方法、音频数据处理装置、介质与电子设备
CN112750455A (zh) * 2020-12-29 2021-05-04 苏州思必驰信息科技有限公司 音频处理方法及装置
CN112863537A (zh) * 2021-01-04 2021-05-28 北京小米松果电子有限公司 一种音频信号处理方法、装置及存储介质
CN113053406A (zh) * 2021-05-08 2021-06-29 北京小米移动软件有限公司 声音信号识别方法及装置
CN113096684A (zh) * 2021-06-07 2021-07-09 成都启英泰伦科技有限公司 一种基于双麦克风阵列的目标语音提取方法
CN113314135A (zh) * 2021-05-25 2021-08-27 北京小米移动软件有限公司 声音信号识别方法及装置
CN113345435A (zh) * 2020-07-03 2021-09-03 北京声智科技有限公司 一种音频降噪方法、装置、设备及介质
CN113362864A (zh) * 2021-06-16 2021-09-07 北京字节跳动网络技术有限公司 音频信号处理的方法、装置、存储介质及电子设备
CN113362848A (zh) * 2021-06-08 2021-09-07 北京小米移动软件有限公司 音频信号处理方法、装置及存储介质
CN113409813A (zh) * 2021-05-26 2021-09-17 北京捷通华声科技股份有限公司 语音分离方法及装置
EP3929920A1 (en) * 2020-06-22 2021-12-29 Beijing Xiaomi Pinecone Electronics Co., Ltd. Method and device for processing audio signal, and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117172135B (zh) * 2023-11-02 2024-02-06 山东省科霖检测有限公司 一种智能噪声监测管理方法与系统

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1855227A (zh) * 2005-01-26 2006-11-01 索尼株式会社 用于分离音频信号的装置和方法
US20070025556A1 (en) * 2005-07-26 2007-02-01 Kabushiki Kaisha Kobe Seiko Sho Sound source separation apparatus and sound source separation method
JP2008219458A (ja) * 2007-03-05 2008-09-18 Kobe Steel Ltd 音源分離装置,音源分離プログラム及び音源分離方法
US20110231185A1 (en) * 2008-06-09 2011-09-22 Kleffner Matthew D Method and apparatus for blind signal recovery in noisy, reverberant environments
CN102890936A (zh) * 2011-07-19 2013-01-23 联想(北京)有限公司 一种音频处理方法、终端设备及系统
JP2013054258A (ja) * 2011-09-06 2013-03-21 Nippon Telegr & Teleph Corp <Ntt> 音源分離装置とその方法とプログラム
WO2014079484A1 (en) * 2012-11-21 2014-05-30 Huawei Technologies Co., Ltd. Method for determining a dictionary of base components from an audio signal
CN106405501A (zh) * 2015-07-29 2017-02-15 中国科学院声学研究所 一种基于相位差回归的单声源定位方法
US20180061432A1 (en) * 2016-08-31 2018-03-01 Kabushiki Kaisha Toshiba Signal processing system, signal processing method, and computer program product
US20180286423A1 (en) * 2017-03-28 2018-10-04 Honda Motor Co., Ltd. Audio processing device, audio processing method, and program
EP3392882A1 (en) * 2017-04-20 2018-10-24 Thomson Licensing Method for processing an input audio signal and corresponding electronic device, non-transitory computer readable program product and computer readable storage medium
US20180366135A1 (en) * 2015-12-02 2018-12-20 Nippon Telegraph And Telephone Corporation Spatial correlation matrix estimation device, spatial correlation matrix estimation method, and spatial correlation matrix estimation program
CN110473565A (zh) * 2019-07-04 2019-11-19 中国人民解放军63892部队 一种无需源数估计的独立向量分析信号分离方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1855227A (zh) * 2005-01-26 2006-11-01 索尼株式会社 用于分离音频信号的装置和方法
US20070025556A1 (en) * 2005-07-26 2007-02-01 Kabushiki Kaisha Kobe Seiko Sho Sound source separation apparatus and sound source separation method
JP2008219458A (ja) * 2007-03-05 2008-09-18 Kobe Steel Ltd 音源分離装置,音源分離プログラム及び音源分離方法
US20110231185A1 (en) * 2008-06-09 2011-09-22 Kleffner Matthew D Method and apparatus for blind signal recovery in noisy, reverberant environments
CN102890936A (zh) * 2011-07-19 2013-01-23 联想(北京)有限公司 一种音频处理方法、终端设备及系统
JP2013054258A (ja) * 2011-09-06 2013-03-21 Nippon Telegr & Teleph Corp <Ntt> 音源分離装置とその方法とプログラム
WO2014079484A1 (en) * 2012-11-21 2014-05-30 Huawei Technologies Co., Ltd. Method for determining a dictionary of base components from an audio signal
CN106405501A (zh) * 2015-07-29 2017-02-15 中国科学院声学研究所 一种基于相位差回归的单声源定位方法
US20180366135A1 (en) * 2015-12-02 2018-12-20 Nippon Telegraph And Telephone Corporation Spatial correlation matrix estimation device, spatial correlation matrix estimation method, and spatial correlation matrix estimation program
US20180061432A1 (en) * 2016-08-31 2018-03-01 Kabushiki Kaisha Toshiba Signal processing system, signal processing method, and computer program product
US20180286423A1 (en) * 2017-03-28 2018-10-04 Honda Motor Co., Ltd. Audio processing device, audio processing method, and program
EP3392882A1 (en) * 2017-04-20 2018-10-24 Thomson Licensing Method for processing an input audio signal and corresponding electronic device, non-transitory computer readable program product and computer readable storage medium
CN110473565A (zh) * 2019-07-04 2019-11-19 中国人民解放军63892部队 一种无需源数估计的独立向量分析信号分离方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MA QIANRU 等: "A Novel Derivation of Nc-FastICA and Convergence Analysis of C-FastICA", 《IAENG INTERNATIONAL JOURNAL OF COMPUTER SCIENCE》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11430460B2 (en) 2020-06-22 2022-08-30 Beijing Xiaomi Pinecone Electronics Co., Ltd. Method and device for processing audio signal, and storage medium
EP3929920A1 (en) * 2020-06-22 2021-12-29 Beijing Xiaomi Pinecone Electronics Co., Ltd. Method and device for processing audio signal, and storage medium
CN113345435A (zh) * 2020-07-03 2021-09-03 北京声智科技有限公司 一种音频降噪方法、装置、设备及介质
CN112599144A (zh) * 2020-12-03 2021-04-02 Oppo(重庆)智能科技有限公司 音频数据处理方法、音频数据处理装置、介质与电子设备
CN112750455A (zh) * 2020-12-29 2021-05-04 苏州思必驰信息科技有限公司 音频处理方法及装置
CN112863537A (zh) * 2021-01-04 2021-05-28 北京小米松果电子有限公司 一种音频信号处理方法、装置及存储介质
CN113053406A (zh) * 2021-05-08 2021-06-29 北京小米移动软件有限公司 声音信号识别方法及装置
CN113314135A (zh) * 2021-05-25 2021-08-27 北京小米移动软件有限公司 声音信号识别方法及装置
CN113314135B (zh) * 2021-05-25 2024-04-26 北京小米移动软件有限公司 声音信号识别方法及装置
CN113409813A (zh) * 2021-05-26 2021-09-17 北京捷通华声科技股份有限公司 语音分离方法及装置
CN113096684A (zh) * 2021-06-07 2021-07-09 成都启英泰伦科技有限公司 一种基于双麦克风阵列的目标语音提取方法
CN113362848A (zh) * 2021-06-08 2021-09-07 北京小米移动软件有限公司 音频信号处理方法、装置及存储介质
CN113362864A (zh) * 2021-06-16 2021-09-07 北京字节跳动网络技术有限公司 音频信号处理的方法、装置、存储介质及电子设备
CN113362864B (zh) * 2021-06-16 2022-08-02 北京字节跳动网络技术有限公司 音频信号处理的方法、装置、存储介质及电子设备

Also Published As

Publication number Publication date
US11284190B2 (en) 2022-03-22
EP3839951A1 (en) 2021-06-23
US20210185438A1 (en) 2021-06-17
EP3839951B1 (en) 2024-01-24
CN111009256B (zh) 2022-12-27

Similar Documents

Publication Publication Date Title
CN111009256B (zh) 一种音频信号处理方法、装置、终端及存储介质
CN111128221B (zh) 一种音频信号处理方法、装置、终端及存储介质
CN111009257B (zh) 一种音频信号处理方法、装置、终端及存储介质
CN111429933B (zh) 音频信号的处理方法及装置、存储介质
CN111179960B (zh) 音频信号处理方法及装置、存储介质
CN111402917B (zh) 音频信号处理方法及装置、存储介质
CN113314135B (zh) 声音信号识别方法及装置
US11430460B2 (en) Method and device for processing audio signal, and storage medium
CN111583958B (zh) 音频信号处理方法、装置、电子设备及存储介质
CN112201267A (zh) 一种音频处理方法、装置、电子设备及存储介质
CN113223553B (zh) 分离语音信号的方法、装置及介质
CN113362848B (zh) 音频信号处理方法、装置及存储介质
CN111667842A (zh) 音频信号处理方法及装置
CN111429934B (zh) 音频信号处理方法及装置、存储介质
EP4113515A1 (en) Sound processing method, electronic device and storage medium
CN113362847A (zh) 音频信号处理方法及装置、存储介质
CN114724578A (zh) 一种音频信号处理方法、装置及存储介质
CN117880732A (zh) 一种空间音频录制方法、装置及存储介质
CN114566175A (zh) 一种语音增强及模型训练方法、装置和电子设备
CN110580910A (zh) 一种音频处理方法、装置、设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant