CN114203194A - 一种基于复数门控循环单元的波束形成方法 - Google Patents

一种基于复数门控循环单元的波束形成方法 Download PDF

Info

Publication number
CN114203194A
CN114203194A CN202111524413.6A CN202111524413A CN114203194A CN 114203194 A CN114203194 A CN 114203194A CN 202111524413 A CN202111524413 A CN 202111524413A CN 114203194 A CN114203194 A CN 114203194A
Authority
CN
China
Prior art keywords
complex
speaker
audio
matrix
audio features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111524413.6A
Other languages
English (en)
Inventor
姜宇
王龙标
葛檬
党建武
本多清志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202111524413.6A priority Critical patent/CN114203194A/zh
Publication of CN114203194A publication Critical patent/CN114203194A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02087Noise filtering the noise being separate speech, e.g. cocktail party
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

本发明公开一种基于复数门控循环单元的波束形成方法,包括以下步骤:(1)进行复数掩蔽预测;预测的复数掩蔽数量和说话人的个数对应;(2)将复数掩蔽和复数混合音频特征做元素乘积得到说话人复数音频特征,将所述说话人复数音频特征与自身的共轭转置做矩阵乘,标准化后沿着时间维度求和得到复数功率谱密度矩阵;(3)复数功率谱密度矩阵有若干个,分别与每个说话人的音频对应;(4)构建复数门控循环单元网络,将拼接好的复数矩阵特征输入到复数门控循环单元网络中,充分利用复数网络的特点,预测波束形成的加权系数;波束形成的加权系数和复数混合音频特征做矩阵乘后,即可得到更精确的说话人复数音频特征。

Description

一种基于复数门控循环单元的波束形成方法
技术领域
本发明属于语音分离领域,具体涉及一种基于复数门控循环单元的波束形成方法,主要是深度学习结合信号处理知识提升多通道说话人分离语音的信号失真比(SDR)、客观语音质量评估(PESQ)、短时客观可懂度(STOI)等指标的技术,为语音识别等模块提供更干净的音频。
背景技术
语音分离的目标是从混合音频中分离出每个说话人的音频,旨在使机器在复杂的声学环境下依然能够识别多个说话人声音内容的前端技术。在嘈杂的声学环境中,例如经典的鸡尾酒会场景,人们能够精准地关注并理解某些说话人的语音内容,而忽略场景噪音、混响和其他说话人的声音。对机器而言,语音分离便是实现复杂场景下与人自然交互的前提。早期的研究大多从听觉场景和信号处理的角度出发,例如波束形成、听觉场景分析等,涉及到复杂的信号处理算法和流程。近些年来,随着深度学习的发展,神经网络架构代替了一些传统的信号处理方法,语音分离技术得到了飞速发展。在多通道领域,使用深度学习结合信号处理的方法得到了广泛的研究[1],尤其是波束形成在深度学习领域的应用,例如最小方差无失真响应(Minimum Variance Distortionless Response,MVDR),极大的提升了多通道多说话人语音分离的性能。
而在深度学习领域使用波束形成,仍然需要很多数学操作,例如在计算波束形成的加权系数的时候需要对功率谱密度矩阵求逆,这种求逆操作常常会导致数值不稳定[2];除此之外,MVDR方法滤波后虽然会减少失真,但仍存在较高的干扰残留。一般来讲,MVDR常常在语句级别进行操作,这种粗糙的操作往往忽略了帧与帧之间的相关性信息,不是最佳选择。帧级别的波束形成,在每个帧上分别计算波束形成的加权系数,而非用一个系数完成整条语音的波束,能够实现逐帧分离,其性能优于传统的MVDR方法。最近,有学者在多模态领域,将音频和视频特征结合,使用基于门控循环单元的波束形成方法,提升了视频中目标说话人提取的性能[3,4]。本发明认为,基于门控循环单元的波束形成方法具有广泛的应用前景,可以应用到多通道多说话人语音分离场景。所不足的是,基于门控循环单元的波束形成的输入是实部和虚部拼接的特征,简单的拼接不利于特征的充分利用。
发明内容
本发明的目的是为了克服现有技术中的不足,针对多通道多说话人语音分离中数值不稳定、干扰残留严重以及复数特征利用不充分的问题,提供一种基于复数门控循环单元的波束形成方法,旨在通过改善波束形成加权系数的预测方式提升混响条件下多通道多说话人语音分离的整体性能,并力求发掘本身的特性促进语音分离领域的发展。
本发明的目的是通过以下技术方案实现的:
一种基于复数门控循环单元的波束形成方法,包括以下步骤:
(1)进行复数掩蔽预测;混合音频经过短时傅里叶变换,转为复数混合音频特征,利用复数混合音频特征的实部和虚部计算对数功率谱,复数混合音频特征和对数功率谱的最小单位为时频单元,也称为帧;将对数功率谱输入到双向长短时记忆网络预测复数掩蔽[5],由于混合音频由若干名说话人的音频组成,为了提取每个说话人的音频,预测的复数掩蔽数量和说话人的个数对应;
(2)将复数掩蔽和复数混合音频特征做元素乘积得到说话人复数音频特征,将所述说话人复数音频特征与自身的共轭转置做矩阵乘,标准化后沿着时间维度求和得到复数功率谱密度矩阵;元素乘积时,考虑深度滤波[6]:计算得到的说话人复数音频特征的当前帧,数值上等于复数混合音频特征当前帧以及前后若干帧与复数掩蔽乘积的求和,实现多以一映射;
(3)复数功率谱密度矩阵有若干个,分别与每个说话人的音频对应;为了分离出其中一名说话人的音频,将其中一说话人的音频对应的复数功率谱密度矩阵视作目标,即为语音功率谱密度矩阵;其余所有说话人的音频对应的复数功率谱密度矩阵求和后视作干扰功率谱密度矩阵;将语音功率谱密度矩阵和干扰功率谱密度矩阵的实部与实部拼接,虚部与虚部拼接,得到复数矩阵特征;
(4)构建复数门控循环单元网络,将拼接好的复数矩阵特征输入到复数门控循环单元网络中,充分利用复数网络的特点,预测波束形成的加权系数;波束形成的加权系数和复数混合音频特征做矩阵乘后,即可得到更精确的说话人复数音频特征,对说话人复数音频特征做逆傅里叶变换,得到分离的说话人的音频;基于复数门控循环单元的波束形成方法以尺度不变的信噪比作为损失函数。
进一步的,步骤(2)中深度滤波的具体过程如下:复数混合音频特征的当前帧,在时间维度前后各取K个,频率维度前后各取L个,共计(2K+1)*(2L+1)帧,复数掩蔽同样的取用方式,(2K+1)*(2L+1)帧做完元素乘积后求和,即为说话人复数音频特征的当前帧。
进一步的,复数门控循环单元网络的输入和输出皆是复数,拼接好的复数矩阵特征输入到复数门控循环单元网络后,充分交互复数矩阵特征的实部和虚部,输出的预测结果作为波束形成的加权系数。
进一步的,一个加权系数实现一个说话人的音频分离,为了分离出每个说话人的音频,需要重复执行权力要求1中步骤(3)和步骤(4),预测波束形成的加权系数的数量等于说话人的个数。
与现有技术相比,本发明的技术方案所带来的有益效果是:
以往深度学习实现多通道多说话人语音分离的方法,大多是复数掩蔽结合语句级别最小方差无失真响应(MVDR)波束形成的方案,存在较多风险。本发明不仅使用深度滤波后的复数掩蔽,充分利用前后帧提升复数功率谱密度矩阵计算的精确度,而且利用门控循环单元,直接预测帧级别的波束形成加权系数,避免了复杂的数学计算,提升数值稳定性的同时,也抑制了MVDR方法产生的干扰残留;在构建网络时,使用了复数门控循环单元,相比单纯使用门控循环单元进行实数特征处理,交替预测复数波束形成加权系数的实部和虚部,性能又有了一些提升。
此外本发明将深度学习和信号处理的知识运用在一起,为推动现有的多通道语音分离方案提供了一个新的思考角度。
附图说明
图1是现有技术中基线方法的流程示意图;
图2深度滤波的图表解释,图中L和K的取值都是1,表明在时间和频率维度上向前向后各取1帧;
图3a是门控循环单元结构的示意图,图3b复数门控循环单元结构的示意图;
图4是本发明的整体示意图,是实验的主要内容,这里省略了图1中的一些具体步骤,以整体模块展示;
图5a和图5b分别是同一混合音频在通过传统基线方法和本发明方法解码得到的结果,二者选取的是较短的音频。
具体实施方式
下面结合实验过程及实验结果对本发明做进一步描述和证明。本发明在目前多通道多说话人语音分离的通用方法的基础上,从分析掩蔽预测的提升空间和改进波束形成的精确度出发,将深度滤波技术运用到复数掩蔽中;使用复数门控循环神经单元代替最小方差无失真响应波束形成中的数学计算部分,使得整个方法的中间结果皆依赖于神经网络的非线性,避免大矩阵的求逆等复杂计算;同时复数门控循环神经单元使得特征处理时保持复数特性不变,直接预测帧级别波束形成的加权系数。具体技术方案要点分为以下三部分:
(1)复数掩蔽预测网络
在语音分离领域,最经典的方法之一是基于掩蔽的方法。无论是单通道还是多通道多说话人语音分离,亦或是时域和时频域解决方案,该方法都非常有效。本质上该方法是预测了一种滤波器,滤波器能从复数混合音频特征中过滤出目标音频特征。对单通道语音分离而言,得到掩蔽后直接进行对位元素的乘积即可得到分离后的音频:
Figure BDA0003409543160000041
其中t、f表示时间和频率,
Figure BDA0003409543160000042
是分离后的说话人的音频,M(t,f)通常指掩蔽,⊙指对位元素乘法,X(t,f)是复数混合音频特征。对于复数掩蔽而言,掩蔽的数值类型是复数域。在多通道混合音频进行短时傅里叶变换后,进一步计算对数功率谱(LPS),作为复数掩蔽预测网络的输入,对数功率谱的计算公式如下:
LPS=Log(Sqrt(real2+imag2)) (2)
其中real和imag便是短时傅里叶变换后复数混合音频特征的实部和虚部部分。该特征对单通道和多通道音频计算方法皆适用。多通道音频的特征多一个维度,其大小等于阵列麦克风的数量。为了符合网络输入形式,将通道维度和批维度叠加到一起,多通道对数功率谱特征维度便和单通道一致,网络可以直接预测复数掩蔽。
整个复数掩蔽预测网络细节与图1展示的结构基本一致。使用双向长短时记忆网络(BLSTM)作为基本框架,依次串联三个BLSTM层和一个全连接层,以及ReLU激活函数层。全连接层将复数掩蔽的频率维度映射到257*2维,其中257为原始复数混合音频特征的频率维度大小,2便意味着掩蔽使用复数,将维度拆分并组合成复数张量,便得到了复数掩蔽。而基线方法中预测实数掩蔽,全连接层将实数掩蔽的频率维度映射到257维。复数掩蔽与输入的复数混合音频特征相乘以提取说话人的复数音频特征,以便进一步计算复数功率谱密度矩阵。
复数掩蔽实部和虚部是分别预测得到的。和复数域的音频相乘能直接得到说话人的复数音频特征,并且能各自反映两部分的数值特性。而实数域的掩蔽和复数的音频相乘时,本质上是做了数据广播,实数掩蔽分别和复数混合音频特征的实部和虚部相乘,容易导致失配等问题。因此复数掩蔽在近年来使用率极高,性能上也比实数掩蔽效果略好。
进一步使用深度滤波进行多对一映射。映射方式如图2所示。利用复数掩蔽预测网络的全连接层,将复数掩蔽的频率维度映射为257*2*(2L+1)*(2K+1),并拆分为(257,2,2L+1,2K+1)。这么做可行的原因是,复数掩蔽没有物理含义,只有将其和对应的复数混合音频特征相乘,才有了滤波作用。因此要使深度滤波的方法奏效,仅需将复数混合音频特征扩展两个维度,大小分别为2L+1和2K+1,其中L和K分别是指当前帧的时间维度和频率维度分别向前和向后延申的长度。当L和K皆取1时,便是图2所示的映射方式。在计算完对位元素乘积后,沿着(2L+1)和(2K+1)的维度求和,得到说话人的复数音频特征的当前帧。
(2)功率谱密度矩阵的计算
在多通道语音分离领域,类似单通道的简单掩蔽滤波失真严重,为了提升音质,波束形成必不可少。功率谱密度矩阵的计算是为了波束形成加权系数的推导。在基线方法中,使用MVDR波束形成作为波束算法。下面简单介绍传统MVDR波束形成算法的流程。
MVDR波束形成是基于最大信干噪比(SINR)准则的自适应波束形成算法。该算法可以自适应的使麦克风阵列输出在期望的方向上功率最小同时信干噪比最大,以抑制噪音和干扰。MVDR在军事领域有着比较广泛的应用,常被用于水声无线通信技术,可以实现水面舰艇和潜艇之间的通信等。MVDR算法采用了自适应波束形成中常用的采样矩阵求逆算法,该算法在信干噪比下具有较快的收敛速度。将多通道音频信号写成矩阵的形式为:
x(n)=αs(n-τ)+v(n) (3)
其中x,α,s,τ和v分别表示阵列接收的音频、导向矢量、声源发出的音频、传播时延以及干扰,n为时间采样点。*表示卷积操作。对上式进行傅里叶变换,将时域信号转为时频域:
X(t,f)=αS(t,f)+V(t,f) (4)
α为阵列的导向矢量,反应了麦克风阵列对方向的敏感程度,该矢量是有具体值的:
Figure BDA0003409543160000051
其中ω表示角频率,M表示麦克风个数,e为指数,j表示虚部。而其他元素的意义参考前述。将αS(t,f)使用一个参数表达。此时波束形成后的信号在时频域上可以表示为:
Figure BDA0003409543160000052
其中Wi(f)为第i个麦克风在频率f下的加权系数,写成矩阵后即为W,H表示共轭转置,Y(t,f)为增强后的单通道音频。而MVDR波束形成的关键则是计算信号的功率谱密度矩阵,输出信号的功率谱密度矩阵为:
φ=E(YYH)=WHE(XXH)W (7)
其中Y和X分别表示麦克风阵列的增强信号和原始输出信号。W表示加权系数,φ表示协方差矩阵,E通常指计算期望。
对于频域的一个信号S(t,f),一般采用下式计算信号S(t,f)的功率谱密度矩阵,这里假设噪声和音频之间不相关:
φSS=E[S(t,f)S(t,f)] (8)
故而对于接收音频、声源发出的音频和干扰,三者之间满足:
φXX=φSSVV (9)
φXX、φSS和φVV依次对应接收音频、声源发出的音频和干扰的功率谱密度矩阵。输入和输出音频的功率谱密度矩阵决定着信号的信干噪比。MVDR方法就是使得输出音频的功率最小,来获得最优加权系数的预测。而输出功率谱由上式决定,在最优化过程中要避免使得加权系数变为0,即保证信号在期望的方向上没有失真:
WHα= (10)
在该约束条件下求解最优问题,即在上式的情况下,求式7中加权系数最小:
minwWHφXXW s.t.WHα=1 (11)
这样,经过求解约束优化问题,可以得到MVDR波束形成的自适应加权系数为:
Figure BDA0003409543160000061
符号定义与前述一致。。从MVDR的加权系数表达式中可以看出,该系数可以根据干扰的功率谱密度矩阵的变化而变化,因而MVDR算法可以自适应的使麦克风阵列输出在期望方向上的SINR最大,达到最佳效果。当麦克风阵列中阵元数下降,或者高信噪比的环境下,期望信号和干扰往往存在明显的相干性,这在很大程度上影响了MVDR算法的性能。从公式12中可以看出,在进行波束形成时,需要对大矩阵求逆,这种方式本身非常不稳定,这也是本发明使用神经网络代替数学计算的原因。
在深度学习联合MVDR的方法中,计算功率谱密度矩阵的公式与上述类似,以实数掩蔽为例,结合复数混合音频特征,语句级别的功率谱密度矩阵计算公式为:
Figure BDA0003409543160000062
其中分母部分是使用实数掩蔽作为标准化的方法,T为时间维度总长,其余符号定义与前述一致。而
Figure BDA0003409543160000063
是指掩蔽和复数混合音频特征相乘后得到的说话人复数音频特征。使用语句级别的复数功率谱密度矩阵,计算得到的波束形成加权系数计算也是语句级别,直接使用比较粗造。另一方面,缺乏时间维度使得特征不适合输入到复数门控循环单元中,无法学习时序特征。因此在上式的基础上,计算帧级别的功率谱密度矩阵是有必要的。该计算公式相比式13,不需要在时间维度求和:
Figure BDA0003409543160000064
分别计算语音的功率谱密度矩阵和干扰的功率谱密度矩阵,最终输入到复数门控循环单元的特征是二者拼接得到的复数矩阵特征。
(3)复数门控循环单元波束形成
整个基线方法的训练流程如图1所示。图3b展示了复数门控循环单元的结构,主要由两个GRU组成,分别为实部GRU和虚部GRU。单个GRU结构如图3a所示,门控循环单元GRU是长短时记忆网络LSTM的一种变体,本身比LSTM计算量小,效果也非常可观。可以解决循环神经网络中的长依赖问题。不同于LSTM中输入门,遗忘门和输出门三种门来控制输入,记忆和输出,GRU只需要更新和重置两个门即可做到将重要的特征保留,且参数量要比LSTM要少,训练速度快。
对于复数网络,已经有实验证明,在增强领域,效果要略微优于实数网络结构。因此本发明构建复数门控循环单元网络。在整个复数网络中,使用两个门控循环单元,整个波束形成加权系数计算流程可以总结为下面几条公式:
Rr=GRUr(Real)
Ir=GRUr(Imag)
Ri=GRUi(Real)
Ii=GRUi(Imag)
Outreal=Rt-Ii
Outimag=Ir+Ri (15)
其中Real和Imag是复数矩阵特征的实部和虚部部分,GRUr为实部GRU,GRUi为虚部GRU,而Rr、Ir、Ri和Ii皆为网络中间产物,四者相互组合,最终得到预测的实部Outreal和虚部Outimag,组成波束形成加权系数。激活函数选择PReLU,这是一种改进的ReLU函数,对梯度的负数处理更加灵活。使用波束形成加权系数和复数混合音频特征进行矩阵乘法,得到精度更高的分离后的单通道音频特征,进行逆傅里叶变换后完成一次波束过程。波束形成时选择第一个通道为参考通道,因此计算尺度不变的信噪比(SISNR)时也选择标签的第一个通道。整个网络使用串行管道结构,复数掩蔽预测网络和复数门控循环单元波束形成同时训练,最终本发明的方法框架图如图4所示。
本发明中使用的数据共28000条音频,其中训练集∶验证集∶测试集=20∶5∶3,混合音频使用代码模拟生成。模拟时提供单通道的干净音频,声源来自华尔街日报数据集wsj0。首先生成单通道的混合音频wsj0-2mix。该步骤不需要空间和阵列信息的参与,其模拟过程相对简单。之后采用基于图像法的房间脉冲响应发生器(RIR)对wsj0-2mix数据集进行空间化,该方法在虚拟房间中设置麦克风阵列的坐标,两个说话人的坐标,以及图像法产生的混响的位置坐标等等。最后的数据集包含一个干净多通道数据集和一个带混响的多通道数据集,两者都是八通道两个说话人的混合音频,采样率为8kHZ。为了突出实验环境的复杂,本发明主要使用混响版本的数据。在混响条件下实现多通道两说话人语音分离。混响的存在会影响分离的性能,研究表明,无混响的场景要比有混响的场景性能好大约20%。干净的多通道音频数据主要用来做预实验,用于观察混响对多通道语音分离的影响程度。值得一提的是,在本次实验中不引入去混响方法如加权预测误差(Weighted Prediction Errors,WPE)。除此之外,使用一些数据清洗工作,保证音频的长度皆在1秒以上。
实验中由于验证集和训练集具有相同的说话人,因此验证集也被称作封闭集(Closed Condition,CC),表示说话人在解码时方法已知。测试集的说话人不同于训练集,又被称为开放集(Open Condition,OC),这意味着测试时说话人是未知的。测试封闭集和开放集下本发明的表现,开放集的解码结果作为主要观察对象。
基线方法训练参数设置如表1。使用2块NVIDIA3090型号的GPU,完成方法的训练以及解码工作,每个GPU的显存为24GB。基线方法基于espnet,一个开源的语音工具,集成了语音领域的前沿技术方法,其中包括多通道语音分离的方案,即掩蔽和MVDR波束形成结合的框架。本发明的最终方法也集成于espnet,通过对该工具最底层的代码改进,完成新方法的设计。
表1基线方法的结构及训练参数
Figure BDA0003409543160000081
基线改进后即为本发明,由于网络更加复杂,因此需要的显存也急剧上升。本发明的参数如表2所示。训练参数上保持和基线方法的训练参数一致,而复数掩蔽预测网络中全连接层的维度相比基线方法有较大的变化,主要完成复数和映射操作。复数门控循环单元网络由实部GRU单元和虚部GRU单元组成,每个GRU节点都设置为300。由于复数门控循环单元是时间敏感的,需要将复数矩阵特征做维度变换,将批维度和频率维度叠加,时间维度保持不变,剩余所有维度进行叠加后才可输入到复数门控循环单元中,对上述剩余所有维度叠加的新维度进行非线性操作。
表2本发明方法的网络参数及训练参数
Figure BDA0003409543160000082
Figure BDA0003409543160000091
首先是验证性实验,在图1基线方法下分别测试干净数据集和混响数据集分离后的性能,针对不同的数据集进行训练并解码打分,经过实验初步验证,在方法和参数一致的情况下,带混响的混合音频分离难度要远高于干净音频。如表3所示,在一些关键指标如PESQ,STOI和SDR中,带混响的数据表现都远低于干净数据。结合实际生活场景,混响数据更具有研究价值和提升空间,真正干净的语音在真实环境下几乎不存在。
表3基线方法下混响数据和干净数据的对比
Figure BDA0003409543160000092
在基线方法的基础上改进,使用混响数据训练本发明。实验结果如表4所示。实验结果表明,本发明使得带混响的混合音频的分离性能有较好的提升。三种评价指标相比基线均有提升,且无论是封闭集还是开放集。以开放集为例,PESQ、STOI和SDR分别相对提升了32.08%、12.20%和31.54%,提升效果非常明显。为了进一步观察分离后的音频质量,挑选了同一混合音频在基线和本发明方法下分离的音频语谱图。原始混合音频由一个长音频和一个短音频组成,混合后的音频会出现末尾只有一人发声的情况,挑选了分离后的短音频进行观察。理论上,分离后的短音频在后半段应该全是静音段,事实上标签也是如此。观察图5a和图5b发现,基线方法得到的解码音频在后半段出现了不该出现的语谱信息,意味着分离不干净,出现了干扰残留,播放该音频也确实得到该结论。而在本发明解码的音频中,后半段声音抑制的非常好,几乎过滤掉所有长音频的声音,从听感上数据恢复的也更加清晰,这是符合预期的。
表4基线方法和本发明在混响数据下的表现
Figure BDA0003409543160000101
参考文献:
[1]R.Gu,S.-X.Zhang,and et al.,Multi-modal multi-channel target speechseparation,IEEE Journal of Selected Topics in Signal Processing,vol.14,no.3,pp.530–541,2020.
[2]X.Mestre and M.A.Lagunas,On diagonal loading for minimum variancebeamformers,in Proceedings of the 3rd IEEE International Symposium on SignalProcessing and Information Technology,2003,pp.459–462.
[3]Zhuohuang Zhang,Yong Xu,Meng Yu,Shi-Xiong Zhang,Lianwu Chen,DongYu,ADL-MVDR:All deep learning MVDR beamformer for target speech separation,icassp,2020
[4]Yong Xu,Zhuohuang Zhang,Meng Yu,Shi-Xiong Zhang,Lianwu Chen,DongYu,G eneralized RNN Beamformer for Target Speech Separation,arXiv:2101.01280,2021
[5]D.S.Williamson,Y.Wang,and D.Wang,Complex ratio masking formonaural speech separation,IEEE TASLP,vol.24,no.3,pp.483–492,2015.
[6]W.Mack and E.A.Habets,Deep filtering:Signal extraction andreconstruction using complex time-frequency filters,IEEE Signal ProcessingLetters,vol.27,pp.61–65,2019.
本发明并不限于上文描述的实施方式。以上对具体实施方式的描述旨在描述和说明本发明的技术方案,上述的具体实施方式仅仅是示意性的,并不是限制性的。在不脱离本发明宗旨和权利要求所保护的范围情况下,本领域的普通技术人员在本发明的启示下还可做出很多形式的具体变换,这些均属于本发明的保护范围之内。

Claims (4)

1.一种基于复数门控循环单元的波束形成方法,其特征在于,包括以下步骤:
(1)进行复数掩蔽预测;混合音频经过短时傅里叶变换,转为复数混合音频特征,利用复数混合音频特征的实部和虚部计算对数功率谱,复数混合音频特征和对数功率谱的最小单位为时频单元,也称为帧;将对数功率谱输入到双向长短时记忆网络预测复数掩蔽,由于混合音频由若干名说话人的音频组成,为了提取每个说话人的音频,预测的复数掩蔽数量和说话人的个数对应;
(2)将复数掩蔽和复数混合音频特征做元素乘积得到说话人复数音频特征,将所述说话人复数音频特征与自身的共轭转置做矩阵乘,标准化后沿着时间维度求和得到复数功率谱密度矩阵;元素乘积时,考虑深度滤波:计算得到的说话人复数音频特征的当前帧,数值上等于复数混合音频特征当前帧以及前后若干帧与复数掩蔽乘积的求和,实现多以一映射;
(3)复数功率谱密度矩阵有若干个,分别与每个说话人的音频对应;为了分离出其中一名说话人的音频,将其中一说话人的音频对应的复数功率谱密度矩阵视作目标,即为语音功率谱密度矩阵;其余所有说话人的音频对应的复数功率谱密度矩阵求和后视作干扰功率谱密度矩阵;将语音功率谱密度矩阵和干扰功率谱密度矩阵的实部与实部拼接,虚部与虚部拼接,得到复数矩阵特征;
(4)构建复数门控循环单元网络,将拼接好的复数矩阵特征输入到复数门控循环单元网络中,充分利用复数网络的特点,预测波束形成的加权系数;波束形成的加权系数和复数混合音频特征做矩阵乘后,即可得到更精确的说话人复数音频特征,对说话人复数音频特征做逆傅里叶变换,得到分离的说话人的音频;基于复数门控循环单元的波束形成方法以尺度不变的信噪比作为损失函数。
2.根据权利要求1所述的一种基于复数门控循环单元的波束形成方法,其特征在于,步骤(2)中深度滤波的具体过程如下:复数混合音频特征的当前帧,在时间维度前后各取K个,频率维度前后各取L个,共计(2K+1)*(2L+1)帧,复数掩蔽同样的取用方式,(2K+1)*(2L+1)帧做完元素乘积后求和,即为说话人复数音频特征的当前帧。
3.根据权利要求1所述的一种基于复数门控循环单元的波束形成方法,其特征在于,复数门控循环单元网络的输入和输出皆是复数,拼接好的复数矩阵特征输入到复数门控循环单元网络后,充分交互复数矩阵特征的实部和虚部,输出的预测结果作为波束形成的加权系数。
4.根据权利要求1所述的一种基于复数门控循环单元的波束形成方法,其特征在于,一个加权系数实现一个说话人的音频分离,为了分离出每个说话人的音频,需要重复执行权力要求1中步骤(3)和步骤(4),预测波束形成的加权系数的数量等于说话人的个数。
CN202111524413.6A 2021-12-14 2021-12-14 一种基于复数门控循环单元的波束形成方法 Pending CN114203194A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111524413.6A CN114203194A (zh) 2021-12-14 2021-12-14 一种基于复数门控循环单元的波束形成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111524413.6A CN114203194A (zh) 2021-12-14 2021-12-14 一种基于复数门控循环单元的波束形成方法

Publications (1)

Publication Number Publication Date
CN114203194A true CN114203194A (zh) 2022-03-18

Family

ID=80653355

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111524413.6A Pending CN114203194A (zh) 2021-12-14 2021-12-14 一种基于复数门控循环单元的波束形成方法

Country Status (1)

Country Link
CN (1) CN114203194A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115359804A (zh) * 2022-10-24 2022-11-18 北京快鱼电子股份公司 一种基于麦克风阵列的定向音频拾取方法和系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115359804A (zh) * 2022-10-24 2022-11-18 北京快鱼电子股份公司 一种基于麦克风阵列的定向音频拾取方法和系统
CN115359804B (zh) * 2022-10-24 2023-01-06 北京快鱼电子股份公司 一种基于麦克风阵列的定向音频拾取方法和系统

Similar Documents

Publication Publication Date Title
Wang et al. Complex spectral mapping for single-and multi-channel speech enhancement and robust ASR
Li et al. ICASSP 2021 deep noise suppression challenge: Decoupling magnitude and phase optimization with a two-stage deep network
Li et al. Embedding and beamforming: All-neural causal beamformer for multichannel speech enhancement
Tan et al. Real-time speech enhancement using an efficient convolutional recurrent network for dual-microphone mobile phones in close-talk scenarios
Saruwatari et al. Blind source separation based on a fast-convergence algorithm combining ICA and beamforming
Zhang et al. On end-to-end multi-channel time domain speech separation in reverberant environments
WO2009110574A1 (ja) 信号強調装置、その方法、プログラム及び記録媒体
Xiao et al. The NTU-ADSC systems for reverberation challenge 2014
Zhao et al. Noisy-Reverberant Speech Enhancement Using DenseUNet with Time-Frequency Attention.
Xu et al. Generalized spatio-temporal RNN beamformer for target speech separation
CN110047478B (zh) 基于空间特征补偿的多通道语音识别声学建模方法及装置
Heymann et al. Frame-online DNN-WPE dereverberation
Wang et al. Recurrent deep stacking networks for supervised speech separation
Zhang et al. Multi-channel multi-frame ADL-MVDR for target speech separation
Wang et al. Convolutive prediction for monaural speech dereverberation and noisy-reverberant speaker separation
CN110660406A (zh) 近距离交谈场景下双麦克风移动电话的实时语音降噪方法
CN115424627A (zh) 基于卷积循环网络和wpe算法的语音增强混合处理方法
Sawata et al. Improving character error rate is not equal to having clean speech: Speech enhancement for asr systems with black-box acoustic models
CN114203194A (zh) 一种基于复数门控循环单元的波束形成方法
Xu et al. Improving dual-microphone speech enhancement by learning cross-channel features with multi-head attention
Lee et al. Improved mask-based neural beamforming for multichannel speech enhancement by snapshot matching masking
Shubo et al. Spatial-DCCRN: DCCRN equipped with frame-level angle feature and hybrid filtering for multi-channel speech enhancement
Tu et al. LSTM-based iterative mask estimation and post-processing for multi-channel speech enhancement
Giacobello et al. Speech dereverberation based on convex optimization algorithms for group sparse linear prediction
CN115713943A (zh) 基于复空间角中心高斯混合聚类模型和双向长短时记忆网络的波束成形语音分离方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination