CN113362848B - 音频信号处理方法、装置及存储介质 - Google Patents

音频信号处理方法、装置及存储介质 Download PDF

Info

Publication number
CN113362848B
CN113362848B CN202110639963.6A CN202110639963A CN113362848B CN 113362848 B CN113362848 B CN 113362848B CN 202110639963 A CN202110639963 A CN 202110639963A CN 113362848 B CN113362848 B CN 113362848B
Authority
CN
China
Prior art keywords
current frame
sound source
frequency domain
signal
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110639963.6A
Other languages
English (en)
Other versions
CN113362848A (zh
Inventor
李涛
侯海宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Beijing Xiaomi Pinecone Electronic Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Beijing Xiaomi Pinecone Electronic Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd, Beijing Xiaomi Pinecone Electronic Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Priority to CN202110639963.6A priority Critical patent/CN113362848B/zh
Publication of CN113362848A publication Critical patent/CN113362848A/zh
Application granted granted Critical
Publication of CN113362848B publication Critical patent/CN113362848B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

本公开涉及一种音频信号处理方法、装置及存储介质,该方法包括:在通过多个麦克风采集多个声源各自发出的音频信号时,对多个麦克风各自采集的多帧原始时域信号进行频域转换,获得每一帧对应的观测信号矩阵;针对当前帧,根据目标麦克风的原始频域信号、以及目标声源的所述频域估计信号,确定噪声声源引起的噪声信号;根据目标声源在当前帧的上一帧对应的频域估计信号对噪声信号进行自适应滤波,以获得噪声声源在当前帧引起的串扰噪声分量;根据频域估计信号和串扰噪声分量,获得目标声源在当前帧对应的有用信号分量,对有用信号分量进行时域转换,获得目标声源的时域声源信号。如此,能提升混响环境中目标声源分离的信噪比。

Description

音频信号处理方法、装置及存储介质
技术领域
本公开涉及通信技术领域,尤其涉及一种音频信号处理方法、装置及存储介质。
背景技术
智能产品设备拾音多采用麦克风阵列,应用盲源分离技术抑制环境噪声以及竞争干扰,改善拾取的远场语音质量,提升真实环境下的语音唤醒率、识别的准确性以及用户的满意度。
相关技术中,盲源分离技术利用不同声源信号间的独立性进行声源的分离,从而将目标信号和噪声源信号分开,提高信号的信噪比。但是,在混响环境中盲源分离的分离性能明显下降,目标声源的语音通路残余串扰噪声多,导致唤醒和识别准确率的降低。
发明内容
为克服相关技术中存在的问题,本公开提供一种音频信号处理方法、装置及存储介质,以提升混响环境中目标声源分离的信噪比。
根据本公开实施例的第一方面,提供一种音频信号处理方法,包括:
在通过多个麦克风采集多个声源各自发出的音频信号时,对所述多个麦克风各自采集的多帧原始时域信号进行频域转换,获得每一帧各自对应的观测信号矩阵,其中,所述观测信号矩阵包括所述多个麦克风各自在所述帧对应的原始频域信号;
针对当前帧,根据所述当前帧对应的分离矩阵对所述当前帧对应的所述观测信号矩阵进行分离,获得每一所述声源在所述当前帧对应的频域估计信号;
根据目标麦克风在所述当前帧对应的所述原始频域信号、以及目标声源在所述当前帧对应的所述频域估计信号,确定噪声声源在所述当前帧引起的噪声信号,其中,所述目标麦克风为所述多个麦克风中任一麦克风,所述目标声源为所述多个声源中的任一声源,所述噪声声源包括所述多个声源中除所述目标声源之外的其他声源;
根据所述目标声源在所述当前帧的上一帧对应的所述频域估计信号对所述噪声信号进行自适应滤波,以获得所述噪声声源在所述当前帧引起的串扰噪声分量;
根据所述目标声源在所述当前帧对应的所述频域估计信号和所述串扰噪声分量,获得所述目标声源在所述当前帧对应的有用信号分量,并对所述有用信号分量进行时域转换,获得所述目标声源在所述当前帧对应的时域声源信号。
可选地,所述根据所述目标声源在所述当前帧的上一帧对应的所述频域估计信号对所述噪声信号进行自适应滤波,以获得所述噪声声源在所述当前帧引起的串扰噪声分量,包括:
确定所述当前帧对应的滤波器系数,其中,在所述当前帧为所述多帧的第一帧时,所述滤波器系数为初始滤波器系数,在所述当前帧不为所述第一帧时,所述滤波器系数根据所述目标声源在所述当前帧的上一帧对应的所述频域估计信号来确定;
根据所述当前帧对应的滤波器系数以及所述噪声声源在所述当前帧引起的所述噪声信号,获得所述噪声声源在所述当前帧引起的所述串扰噪声分量;
将所述当前帧的下一帧作为新的当前帧,并重复执行所述确定所述当前帧对应的滤波器系数的步骤至所述根据所述当前帧对应的滤波器系数以及所述噪声声源在所述当前帧引起的所述噪声信号,获得所述噪声声源在所述当前帧引起的所述串扰噪声分量的步骤,直至所述当前帧为所述多帧的最后一帧。
可选地,在所述当前帧不为所述第一帧时,所述确定所述当前帧对应的滤波器系数,包括:
若所述噪声声源在所述当前帧的上一帧引起的所述串扰噪声分量与所述目标声源在所述当前帧的上一帧对应的所述频域估计信号的幅度差值的绝对值大于或等于预设阈值,将所述当前帧的上一帧对应的滤波器系数确定为所述当前帧对应的滤波器系数。
可选地,在所述当前帧不为所述第一帧时,所述确定所述当前帧对应的滤波器系数,包括:
若所述噪声声源在所述当前帧的上一帧引起的所述串扰噪声分量与所述目标声源在所述当前帧的上一帧对应的所述频域估计信号的幅度差值的绝对值小于预设阈值,基于所述当前帧的上一帧对应的滤波器系数进行滤波器系数更新,以得到所述当前帧对应的滤波器系数。
可选地,所述基于所述当前帧的上一帧对应的滤波器系数进行滤波器系数更新,以得到所述当前帧对应的滤波器系数,包括:
根据所述噪声声源在所述当前帧之前的若干帧引起的所述串扰噪声分量,确定参考向量;
根据所述参考向量、所述目标声源在所述当前帧的上一帧对应的所述频域估计信号以及所述当前帧的上一帧对应的滤波器系数,确定所述目标声源所述当前帧的上一帧的参考信号分量;
根据所述参考向量以及所述参考信号分量,确定所述当前帧对应的滤波器系数的更新梯度向量;
根据所述当前帧的上一帧对应的滤波器系数、预设的更新步长以及所述更新梯度向量,确定所述当前帧对应的滤波器系数。
可选地,所述根据所述目标声源在所述当前帧对应的所述频域估计信号和所述串扰噪声分量,获得所述目标声源在所述当前帧对应的有用信号分量,包括:
在所述目标声源在所述当前帧对应的所述频域估计信号的幅度大于所述串扰噪声分量的幅度的情况下,根据所述目标声源在所述当前帧对应的所述频域估计信号和所述串扰噪声分量,获得所述目标声源在所述当前帧对应的有用信号分量;
在所述目标声源在所述当前帧对应的所述频域估计信号的幅度等于所述串扰噪声分量的幅度的情况下,根据所述目标声源在所述当前帧对应的所述频域估计信号,获得所述目标声源在所述当前帧对应的有用信号分量。
可选地,所述根据所述目标声源在所述当前帧对应的所述频域估计信号和所述串扰噪声分量,获得所述目标声源在所述当前帧对应的有用信号分量,包括:
根据所述目标声源在所述当前帧对应的所述频域估计信号和所述串扰噪声分量,确定所述有用信号分量的幅度;
根据所述目标声源在所述当前帧对应的所述频域估计信号,确定所述有用信号分量的相位。
可选地,所述根据所述目标声源在所述当前帧对应的所述频域估计信号,获得所述目标声源在所述当前帧对应的有用信号分量,包括:
根据所述目标声源在所述当前帧对应的所述频域估计信号确定所述有用信号分量的相位,其中,所述有用信号分量的幅度为预设常量。
根据本公开实施例的第二方面,提供一种音频信号处理装置,包括:
第一获取模块,被配置为在通过多个麦克风采集多个声源各自发出的音频信号时,对所述多个麦克风各自采集的多帧原始时域信号进行频域转换,获得每一帧各自对应的观测信号矩阵,其中,所述观测信号矩阵包括所述多个麦克风各自在所述帧对应的原始频域信号;
第二获取模块,被配置为针对当前帧,根据所述当前帧对应的分离矩阵对所述当前帧对应的所述观测信号矩阵进行分离,获得每一所述声源在所述当前帧对应的频域估计信号;
第一确定模块,被配置为根据目标麦克风在所述当前帧对应的所述原始频域信号、以及目标声源在所述当前帧对应的所述频域估计信号,确定噪声声源在所述当前帧引起的噪声信号,其中,所述目标麦克风为所述多个麦克风中任一麦克风,所述目标声源为所述多个声源中的任一声源,所述噪声声源包括所述多个声源中除所述目标声源之外的其他声源;
滤波模块,被配置为根据所述目标声源在所述当前帧的上一帧对应的所述频域估计信号对所述噪声信号进行自适应滤波,以获得所述噪声声源在所述当前帧引起的串扰噪声分量;
第二确定模块,被配置为根据所述目标声源在所述当前帧对应的所述频域估计信号和所述串扰噪声分量,获得所述目标声源在所述当前帧对应的有用信号分量,并对所述有用信号分量进行时域转换,获得所述目标声源在所述当前帧对应的时域声源信号。
可选地,所述滤波模块包括:
第一确定子模块,被配置为确定所述当前帧对应的滤波器系数,其中,在所述当前帧为所述多帧的第一帧时,所述滤波器系数为初始滤波器系数,在所述当前帧不为所述第一帧时,所述滤波器系数根据所述目标声源在所述当前帧的上一帧对应的所述频域估计信号来确定;
滤波子模块,被配置为根据所述当前帧对应的滤波器系数以及所述噪声声源在所述当前帧引起的所述噪声信号,获得所述噪声声源在所述当前帧引起的所述串扰噪声分量;
循环子模块,被配置为将所述当前帧的下一帧作为新的当前帧,使所述第一确定子模块和滤波子模块依次执行所述确定所述当前帧对应的滤波器系数的步骤至所述根据所述当前帧对应的滤波器系数以及所述噪声声源在所述当前帧引起的所述噪声信号,获得所述噪声声源在所述当前帧引起的所述串扰噪声分量的步骤,直至所述当前帧为所述多帧中的最后一帧。
可选地,在所述当前帧不为所述第一帧时,所述第一确定子模块被配置为通过以下方式确定所述当前帧对应的滤波器系数:
若所述噪声声源在所述当前帧的上一帧引起的所述串扰噪声分量与所述目标声源在所述当前帧的上一帧对应的所述频域估计信号的幅度差值的绝对值大于或等于预设阈值,将所述当前帧的上一帧对应的滤波器系数确定为所述当前帧对应的滤波器系数。
可选地,在所述当前帧不为所述第一帧时,所述第一确定子模块被配置为通过以下方式确定所述当前帧对应的滤波器系数:
若所述噪声声源在所述当前帧的上一帧引起的所述串扰噪声分量与所述目标声源在所述当前帧的上一帧对应的所述频域估计信号的幅度差值的绝对值小于预设阈值,基于所述当前帧的上一帧对应的滤波器系数进行滤波器系数更新,以得到所述当前帧对应的滤波器系数。
可选地,在所述噪声声源在所述当前帧的上一帧引起的所述串扰噪声分量与所述目标声源在所述当前帧的上一帧对应的所述频域估计信号的幅度差值的绝对值小于预设阈值时,所述第一确定子模块被配置为通过以下方式得到所述当前帧对应的滤波器系数:
根据所述噪声声源在所述当前帧之前的若干帧引起的所述串扰噪声分量,确定参考向量;
根据所述参考向量、所述目标声源在所述当前帧的上一帧对应的所述频域估计信号以及所述当前帧的上一帧对应的滤波器系数,确定所述目标声源所述当前帧的上一帧的参考信号分量;
根据所述参考向量以及所述参考信号分量,确定所述当前帧对应的滤波器系数的更新梯度向量;
根据所述当前帧的上一帧对应的滤波器系数、预设的更新步长以及所述更新梯度向量,确定所述当前帧对应的滤波器系数。
可选地,所述第二确定模块包括:
第二确定子模块,被配置为在所述目标声源在所述当前帧对应的所述频域估计信号的幅度大于所述串扰噪声分量的幅度的情况下,根据所述目标声源在所述当前帧对应的所述频域估计信号和所述串扰噪声分量,获得所述目标声源在所述当前帧对应的有用信号分量;
第三确定子模块,被配置为在所述目标声源在所述当前帧对应的所述频域估计信号的幅度等于所述串扰噪声分量的幅度的情况下,根据所述目标声源在所述当前帧对应的所述频域估计信号,获得所述目标声源在所述当前帧对应的有用信号分量。
可选地,所述第二确定子模块被配置为通过以下方式获得所述目标声源在所述当前帧对应的有用信号分量:
根据所述目标声源在所述当前帧对应的所述频域估计信号和所述串扰噪声分量,确定所述有用信号分量的幅度;
根据所述目标声源在所述当前帧对应的所述频域估计信号,确定所述有用信号分量的相位。
可选地,所述第三确定子模块被配置为通过以下方式获得所述目标声源在所述当前帧对应的有用信号分量:
根据所述目标声源在所述当前帧对应的所述频域估计信号确定所述有用信号分量的相位,其中,所述有用信号分量的幅度为预设常量。
根据本公开实施例的第三方面,提供一种音频信号处理装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行本公开第一方面所提供的音频信号处理方法的步骤。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开第一方面所提供的音频信号处理方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:
通过噪声声源在当前帧引起的串扰噪声分量对目标声源在当前帧对应的频域估计信号进行处理,得到目标声源在当前帧对应的有用信号分量,以能提升混响环境下目标声源分离的信噪比,以便于改善语音交互的智能产品的唤醒和识别率。
具体来说,由于串扰噪声分量是由噪声声源在目标声源的频域估计信号中引起的,因此噪声声源引起的噪声信号与串扰噪声分量具有比较强的相关性。基于此,根据目标声源在当前帧的上一帧对应的频域估计信号对噪声声源在当前帧引起的噪声信号进行自适应滤波,可以得到噪声声源在当前帧引起的串扰噪声分量。随后可以根据噪声声源在当前帧引起的串扰噪声分量对目标声源在当前帧对应的频域估计信号进行处理,以得到目标声源在当前帧对应的有用信号分量,最终得到目标声源在当前帧对应的时域声源信号。如此,能够提升混响环境下目标声源分离的信噪比,以便于改善语音交互的智能产品的唤醒和识别率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种音频信号处理方法的流程图。
图2是根据一示例性实施例示出的一种音频信号处理方法的应用场景的示意图。
图3是根据一示例性实施例示出的一种音频信号处理方法的流程图。
图4是根据一示例性实施例示出的一种音频信号处理方法的原理图。
图5是根据一示例性实施例示出的一种音频信号处理装置的框图。
图6是根据一示例性实施例示出的一种音频信号处理装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
如背景技术所述,在混响环境中盲源分离的分离性能明显下降,目标语音通路残余串扰噪声多,导致唤醒和识别准确率的降低。
有鉴于此,本公开提供一种音频信号处理方法、装置及存储介质,可以提高混响环境下目标声源分离的信噪比,以便于改善语音交互的智能产品的唤醒和识别率。
图1是根据一示例性实施例示出的一种音频信号处理方法的流程图,音频信号处理方法可以用于电子设备中,如图1所示,该方法可以包括以下步骤:
在步骤S11中,在通过多个麦克风采集多个声源各自发出的音频信号时,对多个麦克风各自采集的多帧原始时域信号进行频域转换,获得每一帧各自对应的观测信号矩阵,其中,观测信号矩阵包括多个麦克风各自在该帧对应的原始频域信号。
图2是根据一示例性实施例示出的一种音频信号处理方法的应用场景的示意图。参照图2,在一种可能的应用场景中,电子设备可以为终端,终端可以包括音箱A,音箱A中可以包括两个麦克风,分别为麦克风1和麦克风2;声源可以为2个,分别为声源s1和声源s2。声源s1和声源s2发出的信号都会被麦克风1和麦克风2采集到。在每个麦克风中两个声源信号都混叠在一起。此时麦克风1和麦克风2各自采集有原始时域信号。通过对每个麦克风采集的原始时域信号进行频域转换,可以得到对应于原始频域信号的观测信号矩阵。
当然,在另一种可能的实施方式中,也可以通过三个麦克风采集两个声源发出的音频信号。或者,也可以通过三个麦克风采集三个声源发出的音频信号。本公开的应用场景中,麦克风的数量可以为两个或两个以上,声源的数量可以为两个或两个以上。
在步骤S12中,针对当前帧,根据当前帧对应的分离矩阵对当前帧对应的观测信号矩阵进行分离,获得每一声源在当前帧对应的频域估计信号。
在步骤S13中,针对每一帧,根据目标麦克风在当前帧对应的原始频域信号、以及目标声源在当前帧对应的频域估计信号,确定噪声声源在当前帧引起的噪声信号,其中,目标麦克风为多个麦克风中任一麦克风,目标声源为多个声源中的任一声源,噪声声源包括多个声源中除目标声源之外的其他声源。
例如,在图2所示的应用场景中,若以声源s1为目标声源,则声源s2为噪声声源。再例如,若应用场景中存在三个声源(例如为声源s1、声源s2和声源s3),若以声源s1为目标声源,则声源s2和声源s3为噪声声源。可以理解的是,目标麦克风在当前帧对应的原始频域信号,包括目标声源在当前帧对应的频域估计信号和噪声声源在当前帧引起的噪声信号。因此,根据目标麦克风在当前帧对应的原始频域信号、以及目标声源在当前帧对应的频域估计信号,就可以确定出噪声声源当前帧引起的噪声信号。
在步骤S14中,根据目标声源在当前帧的上一帧对应的频域估计信号对噪声声源在当前帧引起的噪声信号进行自适应滤波,以获得噪声声源在当前帧引起的串扰噪声分量。
由于混响环境中盲源分离的分离性能明显下降,目标声源在当前帧对应的频域估计信号中存在噪声声源的串扰噪声分量。同时,串扰噪声分量是由噪声声源在目标声源的频域估计信号中引起的,因此噪声声源引起的噪声信号与串扰噪声分量具有比较强的相关性。基于此,根据目标声源在当前帧的上一帧对应的频域估计信号对噪声声源在当前帧引起的噪声信号进行自适应滤波,可以得到噪声声源在当前帧引起的串扰噪声分量。
在步骤S15中,根据目标声源在当前帧对应的频域估计信号和噪声声源在当前帧引起的串扰噪声分量串扰噪声分量,可以获得目标声源在当前帧对应的有用信号分量,并对该有用信号分量进行时域转换,最终获得目标声源在当前帧对应的时域声源信号。
如此,能够提高混响环境中盲源分离的分离性能,提升目标声源分离的信噪比,以便于改善语音交互的智能产品的唤醒和识别率。
示例性地,在步骤S11中,可以基于快速傅里叶变换(Fast Fourier Transform,FFT),对多个麦克风各自采集的多帧原始时域信号进行频域转换。或者,可以基于短时傅里叶变换(short-time Fourier transform,STFT),对多个麦克风各自采集的多帧原始时域信号进行频域转换。或者,还可以基于其它傅里叶变换,将时域信号进行频域变换。
以基于短时傅里叶变换对原始时域信号进行频域转换为例,若第t个麦克风在第n帧的原始时域信号为
Figure GDA0003749294820000081
第n帧对应的观测信号矩阵为:
Figure GDA0003749294820000082
公式(1)中,Xt(k,n)为第t个麦克风在时频点(k,n)的观测信号矩阵,k为频点,k=1,…,K;m为n帧时域信号的离散时间点数量;m=1,…,Nfft。如此,可以通过短时傅里叶变换对原始时域信号进行频域转换,可以获得每一帧对应的观测信号矩阵。当然,每一帧对应的观测信号矩阵也可以基于其它的傅里叶变换公式获得,本公开中不做限制。
图3是根据一示例性实施例示出的一种音频信号处理方法的流程图。示例性地,参照图3,步骤S12可以包括步骤S121至步骤S127。以图2所示的应用场景为例,设系统帧长为Nfft,则频点K=Nfft/2+1。
在步骤S121中,初始化分离矩阵和协方差矩阵。具体来说,初始化各个频点的分离矩阵W(k):
Figure GDA0003749294820000083
公式(2)中,
Figure GDA0003749294820000084
为单位矩阵,w1(k)为声源s1的分离矩阵,w2(k)为声源s2的分离矩阵。
初始化各个声源在各个频点的加权协方差矩阵Vp(k)为零矩阵,即:
Figure GDA0003749294820000085
公式(3)中,p代表声源对应的编号,p=1,2。
在步骤S122中,获取麦克风在当前帧对应的观测信号矩阵。具体来说,结合上述公式(1),麦克风在当前帧对应的观测信号矩阵X(k,n)可以为:
X(k,n)=[X1(k,n),X2(k,n)]T (4)
公式(4)中,X1(k,n)代表麦克风1在时频点(k,n)的观测信号矩阵,X2(k,n)代表麦克风2在时频点(k,n)的观测信号矩阵。
在步骤S123中,根据声源在当前帧的上一帧对应的分离矩阵,计算声源在当前帧的先验频域估计。也即,根据当前帧的上一帧对应的W(k),求取当前帧中两个声源信号的先验频域估计。具体来说,令第n帧中两个声源信号的先验频域估计Z(k,n)为:
Z(k,n)=[Z1(k,n),Z2(k,n)]T (5)
公式(5)中,Z1(k,n)代表声源s1在时频点(k,n)处的先验频域估计值,Z2(k,n)代表声源s2在时频点(k,n)处的先验频域估计值。
参照公式(2)和公式(4),两个声源信号的先验频域估计Z(k,n)可以通过以下方式获得:
Z(k,n)=W(k)X(k,n) (6)
公式(6)中,在当前帧(第n帧)为多帧的第一帧时,W(k)为初始化的单位矩阵;在当前帧不为多帧的第一帧时,W(k)为当前帧的上一帧(第n-1帧)对应的各个频点的分离矩阵。
则第p个声源在第n帧的整个频带的频域估计
Figure GDA0003749294820000091
为:
Figure GDA0003749294820000092
在步骤S124中,针对每一声源,根据声源在当前帧的上一帧对应的加权协方差矩阵,更新该声源在当前帧的加权协方差矩阵Vp(k,n):
Figure GDA0003749294820000093
公式(8)中,β为平滑系数;
Figure GDA0003749294820000094
为加权系数。在当前帧(第n帧)为多帧中的第一帧时,Vp(k,n-1)为零矩阵。
Figure GDA0003749294820000095
可以通过以下公式获得:
Figure GDA0003749294820000096
公式(9)中,
Figure GDA0003749294820000097
称为对比函数,
Figure GDA0003749294820000098
可以通过以下公式获得:
Figure GDA0003749294820000099
公式(10)中,p(Zp(n))代表了第p个声源的基于整个频带的多维超高斯先验概率密度分布模型。为了兼顾不同距离的频点之间的依赖性强弱,该分布模型可以被基于语音的谐波结构建模,另外通过检测每个时频点分离的情况引入分布的动态调整。因此,p(Zp(n))可以分为静态和动态的两个部分。因此,可以通过步骤(1)至步骤(4)计算p(Zp(n))。
步骤(1),计算p(Zp(n))的静态部分:
按照基音频率范围,将整个频带划分成Q(例如Q=49)个谐波子集。
第q个谐波子集中基频Fq为:
Fq=F1·2(q-1)/12 (11)
公式(11)中,F1为预设常量,例如F1=55Hz,那么基频Fq范围为55Hz至880Hz,可以涵盖整个人类语音基音频率的范围。
令Cq代表第q个谐波子集所包含的频点的集合。它由基频Fq的前M(例如M=8)个倍频点及倍频点附近带宽内的频点构成。如下所示:
Figure GDA0003749294820000101
公式(12)中,fk为第k个频点代表的频率,单位为Hz。第m个频点mFq附近的带宽为2δmFq。δ为用于控制带宽的参数。
步骤(2),计算p(Zp(n))的动态部分:对每帧求每个频点的分离矩阵W(k)的条件数condW(k):
condW(k)=cond(W(k)) (13)
公式(13)中,k=1,…,K。可以将整个频带k=1,..,K平均划分为D个频带,分别在各个频带内搜索出条件数最大的频点记为kmaxd,并分别取其两侧δd带宽内频点,以得到第d个频带中的病态频点集合Od,其中,δd为预设带宽,d=1,...,D。公式如下:
Od={k∈{1,...,K}|abs(k-kmaxd)<δd} (14)
所有Od中的病态频点集合,即为实时的每帧根据各个频点的分离情况挑选出的病态频点的集合O,集合O可以表示为:
O={O1,...,OD} (15)
步骤(3),分别在每一Cq中添加进所有病态频点,以得到更新的频点的集合COq
COq={Cq,O},q=1,...,Q (16)
步骤(4),计算p(Zp(n))。p(Zp(n))可以被表示为:
Figure GDA0003749294820000111
或者,p(Zp(n))可以被表示为:
Figure GDA0003749294820000112
公式(17a)和公式(17b)中,
Figure GDA0003749294820000113
代表方差。
相对应地,加权系数
Figure GDA0003749294820000114
可以通过以下公式获得:
Figure GDA0003749294820000115
或者,加权系数
Figure GDA0003749294820000116
也可以通过以下公式获得:
Figure GDA0003749294820000117
在步骤S125中,计算每一声源在当前帧对应的特征向量ep(k,n),ep(k,n)可以通过以下公式求解:
V2(k,n)ep(k,n)=λp(k,n)V1(k,n)ep(k,n) (19)
公式(19)中,p=1,2,λp(k,n)为特征值,ep(k,n)为特征向量,p=1,2。
ep(k,n)和λp(k,n)可以通过以下公式求解:
Figure GDA0003749294820000118
Figure GDA0003749294820000119
Figure GDA00037492948200001110
Figure GDA00037492948200001111
公式(20)至公式(23)中的H(k,n)可以通过以下公式求解:
H(k,n)=V1 -1(k,n)V2(k,n) (24)
在步骤S126中,根据每一声源在当前帧对应的特征向量以及加权协方差矩阵,计算当前帧中各个频点的分离矩阵W(k)。
具体来说,首先计算各个声源的分离矩阵wp(k):
Figure GDA0003749294820000121
随后,可以通过以下公式计算各个频点的分离矩阵W(k):
W(k)=[w1(k),w2(k)]H (26)
在步骤S127中,根据当前帧对应的分离矩阵,对麦克风在当前帧对应的观测信号矩阵进行分离,获得每一声源在当前帧对应的后验频域估计信号,并确定每一声源在当前帧对应的后验频域估计信号为每一声源在当前帧对应的频域估计信号。
声源的后验频域估计信号Y(k,n)可以表示为:
Y(k,n)=[Y1(k,n),Y2(k,n)]T (27)
公式(27)中,Y1(k,n)表示声源s1在时频点(k,n)的后验频域估计,Y2(k,n)表示声源s2在时频点(k,n)的后验频域估计。
公式(27)中声源的后验频域估计信号Y(k,n)可以通过以下公式获得:
Y(k,n)=W(k)X(k,n) (28)
公式(28)中,W(k)为当前帧(第n帧)对应的分离矩阵。
示例性地,为了减少幅度模糊对分离信号造成损失,在利用公式(25)计算出当前帧对应的分离矩阵后,可以对当前帧对应的分离矩阵W(k)进行最小失真变换,以得到最优分离器:
W(k)=diag(diag(W(k)-1))W(k) (29)
公式(29)中,diag(·)表示取矩阵的主对角线元素的函数。
随后将进行最小失真变换后的分离矩阵W(k)代入公式(28)中,以获得声源在时频点(k,n)的后验频域估计信号。
在一种可选实施方式中,步骤S14可以包括以下步骤:
在步骤S141中,确定当前帧对应的滤波器系数,其中,在当前帧为多帧的第一帧时,滤波器系数为初始滤波器系数,在当前帧不为第一帧时,滤波器系数根据目标声源在当前帧的上一帧对应的频域估计信号来确定。
例如,初始滤波器系数可以取0或1。
在步骤S142中,根据当前帧对应的滤波器系数以及噪声声源在当前帧引起的噪声信号,获得噪声声源在当前帧引起的串扰噪声分量;
在步骤S143中,将当前帧的下一帧作为新的当前帧,并重复执行确定当前帧对应的滤波器系数的步骤至根据当前帧对应的滤波器系数以及噪声声源在当前帧引起的噪声信号,获得噪声声源在当前帧引起的串扰噪声分量的步骤,直至当前帧为多帧中的最后一帧。
如此,可以逐帧更新滤波器系数,并可以根据当前帧对应的滤波器系数以及噪声声源在当前帧引起的噪声信号,获得噪声声源在当前帧引起的串扰噪声分量。
示例性地,防止滤波器系数发散导致后续误差变大以及重收敛的过程,在当前帧不为第一帧时,确定当前帧对应的滤波器系数,可以包括:若噪声声源在当前帧的上一帧引起的串扰噪声分量与目标声源在当前帧的上一帧对应的频域估计信号的幅度差值的绝对值大于或等于预设阈值,将当前帧的上一帧对应的滤波器系数确定为当前帧对应的滤波器系数。
本示例的方案中,若噪声声源在当前帧的上一帧引起的串扰噪声分量与目标声源在当前帧的上一帧对应的频域估计信号的幅度差值的绝对值大于或等于预设阈值,此时当前帧的上一帧中有用信号分量的幅度较大,为了防止滤波器系数发散导致后续误差变大以及重收敛的过程,将当前帧的上一帧对应的滤波器系数确定为当前帧对应的滤波器系数,即当前帧对应的滤波器系数不进行更新。
示例性地,在当前帧不为第一帧时,确定当前帧对应的滤波器系数,可以包括:若噪声声源在当前帧的上一帧引起的串扰噪声分量与目标声源在当前帧的上一帧对应的频域估计信号的幅度差值的绝对值小于预设阈值,基于当前帧的上一帧对应的滤波器系数进行滤波器系数更新,以得到当前帧对应的滤波器系数。
本示例的方案中,若噪声声源在当前帧的上一帧引起的串扰噪声分量与目标声源在当前帧的上一帧对应的频域估计信号的幅度差值的绝对值小于预设阈值,此时有用信号分量的幅度较小,通过更新滤波器系数,便于准确确定串扰噪声分量,便于以提高提升目标声源分离的信噪比。
示例性地,基于当前帧的上一帧对应的滤波器系数进行滤波器系数更新,以得到当前帧对应的滤波器系数,可以包括以下步骤:
根据噪声声源在当前帧之前的若干帧引起的串扰噪声分量,确定参考向量;
根据参考向量、目标声源在当前帧的上一帧对应的频域估计信号以及当前帧的上一帧对应的滤波器系数,确定目标声源当前帧的上一帧的参考信号分量;
根据参考向量以及参考信号分量,确定当前帧对应的滤波器系数的更新梯度向量;
根据当前帧的上一帧对应的滤波器系数、预设的更新步长以及更新梯度向量,确定当前帧对应的滤波器系数。
本示例的方案中,根据参考向量以及参考信号分量,能够得到当前帧对应的滤波器系数的更新梯度向量,根据当前帧的上一帧对应的滤波器系数、预设的更新步长以及更新梯度向量,确定当前帧对应的滤波器系数,实现滤波器系数的自适应更新。
示例性地,根据目标声源在当前帧对应的频域估计信号和串扰噪声分量,获得目标声源在当前帧对应的有用信号分量,可以包括:
在目标声源在当前帧对应的频域估计信号的幅度大于串扰噪声分量的幅度的情况下,根据目标声源在当前帧对应的频域估计信号和串扰噪声分量,获得目标声源在当前帧对应的有用信号分量;
在目标声源在当前帧对应的频域估计信号的幅度等于串扰噪声分量的幅度的情况下,根据目标声源在当前帧对应的频域估计信号,获得目标声源在当前帧对应的有用信号分量。
本示例的方案中,在目标声源在当前帧对应的频域估计信号的幅度大于串扰噪声分量的幅度的情况下,此时目标声源在当前帧对应的频域估计信号包括串扰噪声分量以及有用信号分量,因此,此时根据目标声源在当前帧对应的频域估计信号和串扰噪声分量,获得目标声源在当前帧对应的有用信号分量。
在目标声源在当前帧对应的频域估计信号的幅度等于串扰噪声分量的幅度的情况下,此时目标声源在当前帧对应的频域估计信号仅仅包括串扰噪声分量,即目标声源在当前帧对应的频域估计信号全是噪声,此时根据目标声源在当前帧对应的频域估计信号,获得目标声源在当前帧对应的有用信号分量。
示例性地,根据目标声源在当前帧对应的频域估计信号和串扰噪声分量,获得目标声源在当前帧对应的有用信号分量,可以包括:根据目标声源在当前帧对应的频域估计信号和串扰噪声分量,确定有用信号分量的幅度;根据目标声源在当前帧对应的频域估计信号,确定有用信号分量的相位。
如此,可以准确确定有用信号分量。
示例性地,根据目标声源在当前帧对应的频域估计信号,获得目标声源在当前帧对应的有用信号分量,可以包括:根据目标声源在当前帧对应的频域估计信号确定有用信号分量的相位,其中,有用信号分量的幅度为预设常量。
如此,在目标声源在当前帧对应的频域估计信号全是噪声的情况下,可以实现减噪,以能尽量还原目标声源的音频信号。
图4是根据一示例性实施例示出的一种音频信号处理方法的原理图。参照图4,在根据公式(1)得到麦克风1在时频点(k,n)的观测信号矩阵X1(k,n)、得到麦克风2在时频点(k,n)的观测信号矩阵X2(k,n)后,可以根据公式(2)至公式(28),进行盲源分离,以得到声源s1在时频点(k,n)的后验频域估计Y1(k,n)和声源s2在时频点(k,n)的后验频域估计Y2(k,n)。
示例性地,参照图2和图4,例如将麦克风1作为目标麦克风,将声源s1作为目标声源,此时噪声声源为声源s2。
声源s1的后验频域估计信号可以表示为:
Y1(k,n)=Y1 t(k,n)+Y1 n(k,n) (30)
公式(30)中,Y1 n(k,n)表示噪声声源在时频点(k,n)引起的串扰噪声分量,Y1 t(k,n)表示目标声源在时频点(k,n)的有用信号分量,Y1(k,n)表示声源s1在时频点(k,n)的后验频域估计信号。
麦克风1在时频点(k,n)的观测信号矩阵X1(k,n)可以表示为:
X1(k,n)=Y1(k,n)+N1(k,n) (31)
公式(31)中,N1(k,n)表示噪声声源(即声源s2)在时频点(k,n)引起的噪声信号。
在对噪声声源引起的噪声信号进行自适应滤波时,可以基于最小均方误差算法(Least Mean Square,LMS)对噪声声源引起的噪声信号进行自适应滤波。或者,也可以基于归一化LMS算法(Normalized LMS,NLMS)对噪声声源引起的噪声信号进行自适应滤波。或者,还可以基于其他自适应滤波算法,本公开中不做限制。
以基于NLMS算法对噪声声源引起的噪声信号进行自适应滤波为例,首先初始化滤波器系数a(p)(k,n),其中,p代表声源对应的编号,p=1,2。本示例中将声源s1作为目标声源,因此本示例中p为1。
在当前帧为第一帧时,确定当前帧对应的滤波器系数为初始滤波器系数。在当前帧不是第一帧时,可以根据以下公式确定当前帧(公式(32)以当前帧为第n+1帧为例)的滤波器系数:
Figure GDA0003749294820000151
在公式32中,n(1)(k,n)代表参考向量,g(k,n)代表参考信号分量,η代表更新步长,
Figure GDA0003749294820000152
代表更新梯度向量,ξ为无穷小的常数,用于避免更新梯度向量的分母项为零,μ为预设阈值。
其中,a(1)(k,n)可以通过以下公式确定:
Figure GDA0003749294820000153
g(k,n)可以通过以下公式确定:
g(k,n)=|Y1(k,n)|2-a(1)(k,n)Tn(1)(k,n) (34)
n(1)(k,n)可以通过以下公式确定:
n(1)(k,n)=[|N1(k,n)|2,|N1(k,n-1)|2,...,|N1(k,n-L+1)|2] (35)
公式(33)至公式(35)中,L代表滤波器的阶数,l为滤波器索引参数。
目标声源在时频点(k,n)的有用信号分量Y1 t(k,n)可以通过以下公式确定:
Figure GDA0003749294820000161
公式(36)中,α为正常数。
如此,在目标声源在当前帧对应的频域估计信号的幅度等于串扰噪声分量的幅度的情况下,能够减弱谱减法带来的频谱空洞以及音乐噪声。
其中,公式(36)中|Y1 n(k,n)|2可以通过以下公式确定:
Figure GDA0003749294820000162
公式(37)中,
Figure GDA0003749294820000163
为L阶滤波器系数。
根据公式(30)至公式(37),可以计算目标声源在每一时频点(k,n)的目标信号分量Y1 t(k,n),目标声源在当前帧的有用信号分量
Figure GDA0003749294820000164
可以通过以下公式计算:
Figure GDA0003749294820000165
公式(38)中,p代表目标声源的编号,例如本实例中p为1.
以基于短时傅里叶变换对原始时域信号进行频域转换为例,目标声源在当前帧对应的时域声源信号
Figure GDA0003749294820000166
可以通过以下公式计算:
Figure GDA0003749294820000167
对每一当前帧,可以根据公式(30)至公式(39)计算目标声源在当前帧对应的时域声源信号,直至当前帧为多帧的最后一帧。以能对目标声源的完整时域声源信号进行还原。
在另一种可能的实施方式中,也可以将麦克风2作为目标麦克风,也能实现上述实施例的方案,此处不再赘述。
在另一种可能的实施方式中,可以将声源s2作为目标声源,同时将声源s1作为噪声声源,将麦克风1或麦克风2作为目标麦克风,也能够分离出声源s2在当前帧的时域声源信号,此处不再赘述。
在另一种可能的实施方式中,声源的数量可以为3个,例如可以为声源s1、声源s2以及声源s3,麦克风的数量也可以为三个,例如可以为麦克风1、麦克风2以及麦克风3。例如将声源s1作为目标声源,则声源s2和声源s3作为噪声声源,将麦克风1作为目标声源:
在得到目标麦克风在当前帧对应的观测信号矩阵、以及目标声源在当前帧对应的频域估计信号后,可以利用上述公式(30)至公式(39)得到目标声源在当前帧对应的时域声源信号。与上述实施例的不同之处在于,本示例中,公式(30)中的Y1 n(k,n)表示声源s2和声源s3在时频点(k,n)引起的串扰噪声分量,公式(31)中的N1(k,n)表示声源s2和声源s3在时频点(k,n)引起的噪声信号。
同理,也可分别将声源s2或声源s3作为目标声源,以获得声源s2或声源s3在当前帧对应的时域声源信号,此处不再赘述。
在声源的个数大于3的情况下,也可以利用上述示例的方案得到目标声源在当前帧的时域声源信号,此处不再赘述。
基于同一发明构思,本公开还提供了一种音频信号处理装置。图5是根据一示例性实施例示出的一种音频信号处理装置的框图。参照图5,该装置可以包括第一获取模块401、第二获取模块402、第一确定模块403、滤波模块404以及第二确定模块405。
该第一获取模块401可以被配置为在通过多个麦克风采集多个声源各自发出的音频信号时,对多个麦克风各自采集的多帧原始时域信号进行频域转换,获得每一帧各自对应的观测信号矩阵,其中,观测信号矩阵包括多个麦克风各自在帧对应的原始频域信号;
该第二获取模块402可以被配置为针对当前帧,根据当前帧对应的分离矩阵对当前帧对应的观测信号矩阵进行分离,获得每一声源在当前帧对应的频域估计信号;
该第一确定模块403可以被配置为根据目标麦克风在当前帧对应的原始频域信号、以及目标声源在当前帧对应的频域估计信号,确定噪声声源在当前帧引起的噪声信号,其中,目标麦克风为多个麦克风中任一麦克风,目标声源为多个声源中的任一声源,噪声声源包括多个声源中除目标声源之外的其他声源;
该滤波模块404可以被配置为根据目标声源在当前帧的上一帧对应的频域估计信号对噪声信号进行自适应滤波,以获得噪声声源在当前帧引起的串扰噪声分量;
该第二确定模块405可以被配置为根据目标声源在当前帧对应的频域估计信号和串扰噪声分量,获得目标声源在当前帧对应的有用信号分量,并对有用信号分量进行时域转换,获得目标声源在当前帧对应的时域声源信号。
本方案中,由于串扰噪声分量是由噪声声源在目标声源的频域估计信号中引起的,因此噪声声源引起的噪声信号与串扰噪声分量具有比较强的相关性。基于此,根据目标声源在当前帧的上一帧对应的频域估计信号对噪声声源在当前帧引起的噪声信号进行自适应滤波,可以得到噪声声源在当前帧引起的串扰噪声分量。随后可以根据噪声声源在当前帧引起的串扰噪声分量对目标声源在当前帧对应的频域估计信号进行处理,以得到目标声源在当前帧对应的有用信号分量,最终得到目标声源在当前帧对应的时域声源信号。如此,能够提升混响环境下目标声源分离的信噪比,以便于改善语音交互的智能产品的唤醒和识别率。
示例性地,滤波模块404可以包括:第一确定子模块,被配置为确定当前帧对应的滤波器系数,其中,在当前帧为多帧的第一帧时,滤波器系数为初始滤波器系数,在当前帧不为第一帧时,滤波器系数根据目标声源在当前帧的上一帧对应的频域估计信号来确定;滤波子模块,被配置为根据当前帧对应的滤波器系数以及噪声声源在当前帧引起的噪声信号,获得噪声声源在当前帧引起的串扰噪声分量;循环子模块,被配置为将当前帧的下一帧作为新的当前帧,使第一确定子模块和滤波子模块依次执行确定当前帧对应的滤波器系数的步骤至根据当前帧对应的滤波器系数以及噪声声源在当前帧引起的噪声信号,获得噪声声源在当前帧引起的串扰噪声分量的步骤,直至当前帧为多帧中的最后一帧。
示例性地,在当前帧不为第一帧时,第一确定子模块可以被配置为通过以下方式确定当前帧对应的滤波器系数:若噪声声源在当前帧的上一帧引起的串扰噪声分量与目标声源在当前帧的上一帧对应的频域估计信号的幅度差值的绝对值大于或等于预设阈值,将当前帧的上一帧对应的滤波器系数确定为当前帧对应的滤波器系数。
示例性地,在当前帧不为第一帧时,第一确定子模块可以被配置为通过以下方式确定当前帧对应的滤波器系数:若噪声声源在当前帧的上一帧引起的串扰噪声分量与目标声源在当前帧的上一帧对应的频域估计信号的幅度差值的绝对值小于预设阈值,基于当前帧的上一帧对应的滤波器系数进行滤波器系数更新,以得到当前帧对应的滤波器系数。
示例性地,在噪声声源在当前帧的上一帧引起的串扰噪声分量与目标声源在当前帧的上一帧对应的频域估计信号的幅度差值的绝对值小于预设阈值时,第一确定子模块可以被配置为通过以下方式得到当前帧对应的滤波器系数:根据噪声声源在当前帧之前的若干帧引起的串扰噪声分量,确定参考向量;根据参考向量、目标声源在当前帧的上一帧对应的频域估计信号以及当前帧的上一帧对应的滤波器系数,确定目标声源当前帧的上一帧的参考信号分量;根据参考向量以及参考信号分量,确定当前帧对应的滤波器系数的更新梯度向量;根据当前帧的上一帧对应的滤波器系数、预设的更新步长以及更新梯度向量,确定当前帧对应的滤波器系数。
示例性地,第二确定模块405可以包括:第二确定子模块,被配置为在目标声源在当前帧对应的频域估计信号的幅度大于串扰噪声分量的幅度的情况下,根据目标声源在当前帧对应的频域估计信号和串扰噪声分量,获得目标声源在当前帧对应的有用信号分量;第三确定子模块,被配置为在目标声源在当前帧对应的频域估计信号的幅度等于串扰噪声分量的幅度的情况下,根据目标声源在当前帧对应的频域估计信号,获得目标声源在当前帧对应的有用信号分量。
示例性地,第二确定子模块可以被配置为通过以下方式获得目标声源在当前帧对应的有用信号分量:根据目标声源在当前帧对应的频域估计信号和串扰噪声分量,确定有用信号分量的幅度;根据目标声源在当前帧对应的频域估计信号,确定有用信号分量的相位。
示例性地,第三确定子模块可以被配置为通过以下方式获得目标声源在当前帧对应的有用信号分量:根据目标声源在当前帧对应的频域估计信号确定有用信号分量的相位,其中,有用信号分量的幅度为预设常量。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开还提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开提供的音频信号处理方法的步骤。
图6是根据一示例性实施例示出的一种音频信号处理装置800的框图。例如,装置800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图6,装置800可以包括以下一个或多个组件:处理组件802,存储器804,电力组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制装置800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的音频信号处理方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在装置800的操作。这些数据的示例包括用于在装置800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件806为装置800的各种组件提供电力。电力组件806可以包括电源管理系统,一个或多个电源,及其他与为装置800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述装置800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当装置800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为装置800提供各个方面的状态评估。例如,传感器组件814可以检测到装置800的打开/关闭状态,组件的相对定位,例如所述组件为装置800的显示器和小键盘,传感器组件814还可以检测装置800或装置800一个组件的位置改变,用户与装置800接触的存在或不存在,装置800方位或加速/减速和装置800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于装置800和其他设备之间有线或无线方式的通信。装置800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述音频信号处理方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由装置800的处理器820执行以完成上述音频信号处理方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在另一示例性实施例中,还提供一种计算机程序产品,该计算机程序产品包含能够由可编程的装置执行的计算机程序,该计算机程序具有当由该可编程的装置执行时用于执行上述的音频信号处理方法的代码部分。
本领域技术人员在考虑说明书及实践本公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (11)

1.一种音频信号处理方法,其特征在于,所述方法包括:
在通过多个麦克风采集多个声源各自发出的音频信号时,对所述多个麦克风各自采集的多帧原始时域信号进行频域转换,获得每一帧各自对应的观测信号矩阵,其中,所述观测信号矩阵包括所述多个麦克风各自在所述帧对应的原始频域信号;
针对当前帧,根据所述当前帧对应的分离矩阵对所述当前帧对应的所述观测信号矩阵进行分离,获得每一所述声源在所述当前帧对应的频域估计信号;
根据目标麦克风在所述当前帧对应的所述原始频域信号、以及目标声源在所述当前帧对应的所述频域估计信号,确定噪声声源在所述当前帧引起的噪声信号,其中,所述目标麦克风为所述多个麦克风中任一麦克风,所述目标声源为所述多个声源中的任一声源,所述噪声声源包括所述多个声源中除所述目标声源之外的其他声源;
根据所述目标声源在所述当前帧的上一帧对应的所述频域估计信号对所述噪声信号进行自适应滤波,以获得所述噪声声源在所述当前帧引起的串扰噪声分量;
根据所述目标声源在所述当前帧对应的所述频域估计信号和所述串扰噪声分量,获得所述目标声源在所述当前帧对应的有用信号分量,并对所述有用信号分量进行时域转换,获得所述目标声源在所述当前帧对应的时域声源信号。
2.根据权利要求1所述的音频信号处理方法,其特征在于,所述根据所述目标声源在所述当前帧的上一帧对应的所述频域估计信号对所述噪声信号进行自适应滤波,以获得所述噪声声源在所述当前帧引起的串扰噪声分量,包括:
确定所述当前帧对应的滤波器系数,其中,在所述当前帧为所述多帧的第一帧时,所述滤波器系数为初始滤波器系数,在所述当前帧不为所述第一帧时,所述滤波器系数根据所述目标声源在所述当前帧的上一帧对应的所述频域估计信号来确定;
根据所述当前帧对应的滤波器系数以及所述噪声声源在所述当前帧引起的所述噪声信号,获得所述噪声声源在所述当前帧引起的所述串扰噪声分量;
将所述当前帧的下一帧作为新的当前帧,并重复执行所述确定所述当前帧对应的滤波器系数的步骤至所述根据所述当前帧对应的滤波器系数以及所述噪声声源在所述当前帧引起的所述噪声信号,获得所述噪声声源在所述当前帧引起的所述串扰噪声分量的步骤,直至所述当前帧为所述多帧的最后一帧。
3.根据权利要求2所述的音频信号处理方法,其特征在于,在所述当前帧不为所述第一帧时,所述确定所述当前帧对应的滤波器系数,包括:
若所述噪声声源在所述当前帧的上一帧引起的所述串扰噪声分量与所述目标声源在所述当前帧的上一帧对应的所述频域估计信号的幅度差值的绝对值大于或等于预设阈值,将所述当前帧的上一帧对应的滤波器系数确定为所述当前帧对应的滤波器系数。
4.根据权利要求2所述的音频信号处理方法,其特征在于,在所述当前帧不为所述第一帧时,所述确定所述当前帧对应的滤波器系数,包括:
若所述噪声声源在所述当前帧的上一帧引起的所述串扰噪声分量与所述目标声源在所述当前帧的上一帧对应的所述频域估计信号的幅度差值的绝对值小于预设阈值,基于所述当前帧的上一帧对应的滤波器系数进行滤波器系数更新,以得到所述当前帧对应的滤波器系数。
5.根据权利要求4所述的音频信号处理方法,其特征在于,所述基于所述当前帧的上一帧对应的滤波器系数进行滤波器系数更新,以得到所述当前帧对应的滤波器系数,包括:
根据所述噪声声源在所述当前帧之前的若干帧引起的所述串扰噪声分量,确定参考向量;
根据所述参考向量、所述目标声源在所述当前帧的上一帧对应的所述频域估计信号以及所述当前帧的上一帧对应的滤波器系数,确定所述目标声源所述当前帧的上一帧的参考信号分量;
根据所述参考向量以及所述参考信号分量,确定所述当前帧对应的滤波器系数的更新梯度向量;
根据所述当前帧的上一帧对应的滤波器系数、预设的更新步长以及所述更新梯度向量,确定所述当前帧对应的滤波器系数。
6.根据权利要求1至5中任一项所述的音频信号处理方法,其特征在于,所述根据所述目标声源在所述当前帧对应的所述频域估计信号和所述串扰噪声分量,获得所述目标声源在所述当前帧对应的有用信号分量,包括:
在所述目标声源在所述当前帧对应的所述频域估计信号的幅度大于所述串扰噪声分量的幅度的情况下,根据所述目标声源在所述当前帧对应的所述频域估计信号和所述串扰噪声分量,获得所述目标声源在所述当前帧对应的有用信号分量;
在所述目标声源在所述当前帧对应的所述频域估计信号的幅度等于所述串扰噪声分量的幅度的情况下,根据所述目标声源在所述当前帧对应的所述频域估计信号,获得所述目标声源在所述当前帧对应的有用信号分量。
7.根据权利要求6所述的音频信号处理方法,其特征在于,所述根据所述目标声源在所述当前帧对应的所述频域估计信号和所述串扰噪声分量,获得所述目标声源在所述当前帧对应的有用信号分量,包括:
根据所述目标声源在所述当前帧对应的所述频域估计信号和所述串扰噪声分量,确定所述有用信号分量的幅度;
根据所述目标声源在所述当前帧对应的所述频域估计信号,确定所述有用信号分量的相位。
8.根据权利要求6所述的音频信号处理方法,其特征在于,所述根据所述目标声源在所述当前帧对应的所述频域估计信号,获得所述目标声源在所述当前帧对应的有用信号分量,包括:
根据所述目标声源在所述当前帧对应的所述频域估计信号确定所述有用信号分量的相位,其中,所述有用信号分量的幅度为预设常量。
9.一种音频信号处理装置,其特征在于,所述装置包括:
第一获取模块,被配置为在通过多个麦克风采集多个声源各自发出的音频信号时,对所述多个麦克风各自采集的多帧原始时域信号进行频域转换,获得每一帧各自对应的观测信号矩阵,其中,所述观测信号矩阵包括所述多个麦克风各自在所述帧对应的原始频域信号;
第二获取模块,被配置为针对当前帧,根据所述当前帧对应的分离矩阵对所述当前帧对应的所述观测信号矩阵进行分离,获得每一所述声源在所述当前帧对应的频域估计信号;
第一确定模块,被配置为根据目标麦克风在所述当前帧对应的所述原始频域信号、以及目标声源在所述当前帧对应的所述频域估计信号,确定噪声声源在所述当前帧引起的噪声信号,其中,所述目标麦克风为所述多个麦克风中任一麦克风,所述目标声源为所述多个声源中的任一声源,所述噪声声源包括所述多个声源中除所述目标声源之外的其他声源;
滤波模块,被配置为根据所述目标声源在所述当前帧的上一帧对应的所述频域估计信号对所述噪声信号进行自适应滤波,以获得所述噪声声源在所述当前帧引起的串扰噪声分量;
第二确定模块,被配置为根据所述目标声源在所述当前帧对应的所述频域估计信号和所述串扰噪声分量,获得所述目标声源在所述当前帧对应的有用信号分量,并对所述有用信号分量进行时域转换,获得所述目标声源在所述当前帧对应的时域声源信号。
10.一种音频信号处理装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行权利要求1至8中任一项所述方法的步骤。
11.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,该程序指令被处理器执行时实现权利要求1-8中任一项所述方法的步骤。
CN202110639963.6A 2021-06-08 2021-06-08 音频信号处理方法、装置及存储介质 Active CN113362848B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110639963.6A CN113362848B (zh) 2021-06-08 2021-06-08 音频信号处理方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110639963.6A CN113362848B (zh) 2021-06-08 2021-06-08 音频信号处理方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN113362848A CN113362848A (zh) 2021-09-07
CN113362848B true CN113362848B (zh) 2022-10-04

Family

ID=77533290

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110639963.6A Active CN113362848B (zh) 2021-06-08 2021-06-08 音频信号处理方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN113362848B (zh)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101727908B (zh) * 2009-11-24 2012-01-18 哈尔滨工业大学 基于混合信号局部峰值方差检测的盲源分离方法
JP5406866B2 (ja) * 2011-02-23 2014-02-05 日本電信電話株式会社 音源分離装置、その方法及びプログラム
CN102222508A (zh) * 2011-07-12 2011-10-19 大连理工大学 一种基于矩阵变换的欠定盲分离方法
CN105792074B (zh) * 2016-02-26 2019-02-05 西北工业大学 一种语音信号处理方法和装置
CN111009256B (zh) * 2019-12-17 2022-12-27 北京小米智能科技有限公司 一种音频信号处理方法、装置、终端及存储介质
CN111179960B (zh) * 2020-03-06 2022-10-18 北京小米松果电子有限公司 音频信号处理方法及装置、存储介质

Also Published As

Publication number Publication date
CN113362848A (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
CN111009256B (zh) 一种音频信号处理方法、装置、终端及存储介质
CN111128221B (zh) 一种音频信号处理方法、装置、终端及存储介质
CN111009257B (zh) 一种音频信号处理方法、装置、终端及存储介质
CN111179960B (zh) 音频信号处理方法及装置、存储介质
CN111429933B (zh) 音频信号的处理方法及装置、存储介质
CN113314135B (zh) 声音信号识别方法及装置
CN111968662A (zh) 音频信号的处理方法及装置、存储介质
CN110970046A (zh) 一种音频数据处理的方法及装置、电子设备、存储介质
KR20210117120A (ko) 오디오 신호 처리 방법 및 장치, 저장 매체
CN111986693A (zh) 音频信号的处理方法及装置、终端设备和存储介质
US11430460B2 (en) Method and device for processing audio signal, and storage medium
CN113506582B (zh) 声音信号识别方法、装置及系统
CN113053406B (zh) 声音信号识别方法及装置
CN112447184B (zh) 语音信号处理方法及装置、电子设备、存储介质
CN112201267A (zh) 一种音频处理方法、装置、电子设备及存储介质
CN113362848B (zh) 音频信号处理方法、装置及存储介质
CN112863537B (zh) 一种音频信号处理方法、装置及存储介质
CN113223553B (zh) 分离语音信号的方法、装置及介质
CN113488066B (zh) 音频信号处理方法、音频信号处理装置及存储介质
CN111667842A (zh) 音频信号处理方法及装置
CN111429934B (zh) 音频信号处理方法及装置、存储介质
CN113362841B (zh) 音频信号处理方法、装置和存储介质
CN113223543B (zh) 语音增强方法、装置和存储介质
CN114724578A (zh) 一种音频信号处理方法、装置及存储介质
CN113362847A (zh) 音频信号处理方法及装置、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant