CN111971743A - 用于改进的实时音频处理的系统、方法和计算机可读介质 - Google Patents
用于改进的实时音频处理的系统、方法和计算机可读介质 Download PDFInfo
- Publication number
- CN111971743A CN111971743A CN201980025444.1A CN201980025444A CN111971743A CN 111971743 A CN111971743 A CN 111971743A CN 201980025444 A CN201980025444 A CN 201980025444A CN 111971743 A CN111971743 A CN 111971743A
- Authority
- CN
- China
- Prior art keywords
- neural network
- speech
- estimate
- calculated
- clean
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 89
- 238000012545 processing Methods 0.000 title claims abstract description 41
- 238000003062 neural network model Methods 0.000 claims abstract description 35
- 238000003860 storage Methods 0.000 claims abstract description 13
- 238000013528 artificial neural network Methods 0.000 claims description 82
- 230000000306 recurrent effect Effects 0.000 claims description 61
- 230000001629 suppression Effects 0.000 claims description 41
- 238000012549 training Methods 0.000 claims description 33
- 238000001228 spectrum Methods 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 14
- 238000012360 testing method Methods 0.000 claims description 14
- 210000002569 neuron Anatomy 0.000 claims description 11
- 238000013500 data storage Methods 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 description 27
- 230000006870 function Effects 0.000 description 14
- 238000013135 deep learning Methods 0.000 description 13
- 238000010801 machine learning Methods 0.000 description 13
- 238000013459 approach Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 7
- 238000010200 validation analysis Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000002829 reductive effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 5
- 230000002457 bidirectional effect Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 230000006403 short-term memory Effects 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000007476 Maximum Likelihood Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000001939 inductive effect Effects 0.000 description 2
- 238000012417 linear regression Methods 0.000 description 2
- 230000000116 mitigating effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 102100032202 Cornulin Human genes 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 101000920981 Homo sapiens Cornulin Proteins 0.000 description 1
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0316—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
- G10L21/0364—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
公开了用于改进的实时音频处理的系统、方法和计算机可读存储设备。一种方法包括:接收具有多个频率区间的、包括多个帧的音频数据;针对每个频率区间,基于多个帧计算近似语音信号估计;针对每个近似语音信号估计,使用经训练的神经网络模型计算干净语音估计和包括理想比率掩码的至少一个附加目标;以及针对每个频率区间,使用包括所计算的理想比率掩码的所计算的至少一个附加目标和所计算的干净语音估计来计算最终干净语音估计。
Description
技术领域
本公开涉及改进实时音频质量、语音识别和/或语音检测的音频处理。具体地,本公开涉及使用统计信号处理算法、机器学习、时域信息、频域信息、和/或转换域信息来改进增强和/或音频数据中的语音和噪声的检测的实时音频处理。
背景技术
语音增强技术可以采用统计信号处理算法,即使在未知噪声条件下,该算法也可以提高计算效率并且提高语音质量。这种语音增强技术可以优选用于可能存在未知噪声条件的不可预测环境中的部署。但是,采用统计信号处理算法的语音增强技术可能无法抑制非平稳噪声。基于深度学习的算法可以克服无法抑制非平稳噪声的问题。但是,基于深度学习的算法在面对未被捕获在训练数据集中的噪声条件时可能表现不佳。
因此,将采用统计信号处理算法的语音增强技术的优点与基于深度学习的算法相组合的单通道语音增强技术可以在既未知又非平稳的噪声条件下实现改进的侦听质量和识别准确性。通过将有噪声的输入声谱图特征与增益向量(也称为抑制规则)相乘,可以使用采用统计信号处理算法的语音增强技术来产生输入数据的中间表示。输入数据的中间表示然后可以通过基于深度学习的算法(诸如基于长短期记忆(“LSTM)”单元的递归神经网络)进行处理。此外,可以训练基于LSTM单元的递归神经网络以共同学习两个目标:对干净语音特征的直接估计和降噪掩码。
基于深度学习的其他算法可以包括用于语音增强的基于卷积神经网络和递归神经网络的端到端模型。端到端模型可以是数据驱动的,并且可以不对噪声的类型或噪声的平稳性做出任何假定。采用卷积和递归神经网络架构都可以允许在时域、频域和/或转换域中利用局部结构。此外,通过将语音信号的先验知识合并到模型结构的设计中,这样的端到端模型可以具有更高的数据效率,并且可以实现对见过的噪声和未见过的噪声的更好泛化。
尽管本公开具体地讨论了音频处理,但是本公开的各方面不仅可以适用于音频处理,而且还可以适用于回归处理和分类问题。
发明内容
根据某些实施例,公开了用于改进的实时音频处理的系统、方法和计算机可读介质。
根据某些实施例,公开了一种用于经改进的实时音频处理的计算机实现的方法。一种方法包括:接收具有多个频率区间(frequency bin)的、包括多个帧的音频数据;针对每个频率区间,基于多个帧计算近似语音信号估计;针对每个近似语音信号估计,使用经训练的神经网络模型计算干净语音估计和包括理想比率掩码的至少一个附加目标;以及针对每个频率区间,使用包括所计算的理想比率掩码的所计算的至少一个附加目标和所计算的干净语音估计来计算最终干净语音估计。
根据某些实施例,公开了一种用于经改进的实时音频处理的系统。一种系统包括:存储用于经改进的实时音频处理的指令的数据存储设备;以及被配置为执行指令以执行方法的处理器,该方法包括:接收具有多个频率区间的、包括多个帧的音频数据;针对每个频率区间,基于多个帧计算近似语音信号估计;针对每个近似语音信号估计,使用经训练的神经网络模型计算干净语音估计和包括理想比率掩码的至少一个附加目标;以及针对每个频率区间,使用包括所计算的理想比率掩码的所计算的至少一个附加目标和所计算的干净语音估计来计算最终干净语音估计。
根据某些实施例,公开了一种存储指令的计算机可读存储设备,该指令在由计算机执行时引起计算机执行用于经改进的实时音频处理的方法。一种计算机可读存储设备的方法包括:接收具有多个频率区间的、包括多个帧的音频数据;针对每个频率区间,基于多个帧计算近似语音信号估计;针对每个近似语音信号估计,使用经训练的神经网络模型计算干净语音估计和包括理想比率掩码的至少一个附加目标;以及针对每个频率区间,使用包括所计算的理想比率掩码的所计算的至少一个附加目标和所计算的干净语音估计来计算最终干净语音估计。
所公开的实施例的其他目的和优点将在下面的描述中部分地阐述,并且部分地将从该描述中变得很清楚,或者可以通过实践所公开的实施例而获知。所公开的实施例的目的和优点将通过所附权利要求中特别指出的元件和组合来实现和获取。
应当理解,前面的一般描述和下面的详细描述都只是示例性和说明性的,并且不限制所要求保护的公开实施例。
附图说明
在下面的详细描述过程中,将参考附图。附图示出了本公开的不同方面,并且在适当的情况下,示出了不同附图中的相似结构、组件、材料和/或元件的附图标记被相似地标记。应当理解,除了具体示出的那些以外的结构、组件和/或元件的各种组合是可以预期的并且在本公开的范围内。
此外,本文中描述和示出了本公开的很多实施例。本公开既不限于任何单个方面或其实施例,也不限于这些方面和/或实施例的任何组合和/或排列。而且,本公开和/或其实施例的每个方面可以单独使用,或者与本公开和/或其实施例的一个或多个其他方面结合使用。为了简洁起见,本文中不单独讨论和/或图示某些排列和组合。
图1描绘了根据本公开的实施例的深度学习框架的框图;
图2描绘了根据本公开的实施例的LSTM-MT模型的结构,其是基于LSTM的多目标深度学习块;
图3A-3E描绘了根据本公开的实施例的使用不同增强方法的声谱图;
图4描绘了根据本公开的实施例的卷积递归神经网络的模型架构;
图5A-5F描绘了根据本公开的实施例的有噪声的和干净声谱图、以及使用不同模型的去噪声谱图。
图6描绘了根据本公开的实施例的用于训练深度神经网络以用于经改进的实时音频处理的方法600;
图7描绘了根据本公开的实施例的可以根据本文中公开的系统、方法和计算机可读介质来使用的示例性计算设备的高级图示;以及
图8描绘了根据本公开的实施例的可以根据本文中公开的系统、方法和计算机可读介质来使用的示例性计算系统的高级图示。
再次,本文中描述和示出了很多实施例。本公开既不限于任何单个方面或其实施例,也不限于这样的方面和/或实施例的任何组合和/或排列。本公开和/或其实施例的每个方面可以单独使用,或者与本公开和/或其实施例的一个或多个其他方面结合使用。为了简洁起见,本文中没有单独讨论很多那些组合和排列。
具体实施方式
本领域技术人员将认识到,可以根据说明书来实践本公开的各种实现和实施例。所有这些实现和实施例旨在被包括在本公开的范围内。
如本文中使用的,术语“包括(comprises)”、“包括(comprising)”、“具有(have)”、“具有(having)”、“包括(include)”、“包括(including)”或其任何其他变型旨在覆盖非排他性的包括,使得包括一系列元素的过程、方法、物品或装置不仅仅包括这些元素,而且还可以包括未明确列出或这样的过程、方法、物品或装置固有的其他元素。术语“示例性”在“示例”而不是“理想”的意义上使用。另外,术语“或”旨在表示包括性“或”而不是排他性的“或”。也就是说,除非另有说明或从上下文中清楚得知,否则短语“X使用A或B”旨在表示任何自然的包括性排列。例如,短语“X使用A或B”在以下任何情况下均满足:X使用A;X使用B;或者X同时使用A和B。此外,除非另外指定或从上下文中清楚得知指向单数形式,否则本申请和所附权利要求书中使用的冠词“一个(a)”和“一个(an)”通常应当解释为表示“一个或多个”。
为简洁起见,与系统和服务器有关的用于执行方法的常规技术和系统和服务器的其他功能方面(以及系统的各个操作组件)可能在本文中没有详细描述。此外,本文中包含的各个附图中所示的连接线旨在表示各个元件之间的示例性功能关系和/或物理耦合。应当注意,在主题的实施例中可以存在很多备选和/或附加的功能关系或物理连接。
现在将详细参考本公开的示例性实施例,其示例在附图中示出。在所有附图中,将尽可能使用相同的附图标记表示相同或相似的部件。
除其他事项以外,本公开总体上涉及一种方法,该方法有效地将采用统计信号处理算法的语音增强技术与用于音频处理任务(诸如语音增强和/或语音识别)的深度学习技术相结合。音频信号可能会被背景噪声和/或干扰损坏。采用统计信号处理算法的语音增强技术可以能够去除这些背景噪声和/或干扰,这可以提高人和/或自动语音识别(“ASR”)引擎的可理解度。
采用统计信号处理算法的语音增强技术可以在转换域(诸如频域)中工作,转换域可以是通过将时域信号分解为重叠帧,对重叠帧进行加权,并且利用短时傅立叶变换(“STFT”)对重叠帧进行变换而产生的表示。这些信号处理算法可以基于语音的所估计的存在和/或噪声的所估计的存在将时变的实值抑制增益应用到每个频率区间。时变的实值抑制增益的范围可以在0到1之间,其中0表示只有噪声,而1表示只有语音。
为了估计抑制增益,可以假定噪声和语音信号幅度具有高斯分布,并且噪声变化比语音信号慢。可以建立具有针对每个频率区间的噪声方差的噪声模型。噪声模型可以通过使用话音活动检测器(“VAD”)来建立。抑制规则(suppression rule)可以是先验和后验信噪比(“SNR”)的函数。这样的抑制规则可以包括在均方误差方面最优的Wiener抑制规则、声谱幅度估计器、最大似然幅度估计器、短期最小均方误差(“MMSE”)估计器、以及对数谱最小均值平方误差(“对数MMSE”)估计器。此外,对于MMSE估计器,可以计算作为当前和先前帧的最大似然估计的几何平均值的先验SNR,这可以称为判决导引方法(“DDA”)。在估计幅度之后,可以使用重叠和相加将信号转换回时域。这些技术可以适配噪声水平,并且在准平稳噪声下表现良好,但是脉冲非语音信号可能无法被抑制。
当使用基于大规模深度神经网络的数据驱动方法建立系统时,用于训练系统的干净数据与在部署系统时遇到的有噪声的数据之间可能会不匹配。因此,语音增强算法可以用作预处理模块,该模块有助于在音频数据被馈送到这些系统中之前减少语音信号中的噪声。
通过对底层(underlying)噪声的性质进行假定,基于统计的方法(包括声谱减法、最小均方误差对数谱方法等)可以获取针对噪声抑制的解析解。但是,由于这些不切实际的假定,基于统计的方法可能无法建立近似真实世界中的复杂场景的估计器。结果,可能在恢复的信号中引入附加的噪声伪像。因此,与仅基于统计的方法相比,使用基于回归的深度神经网络的数据驱动方法可以显著提高性能。
监督式学习框架可以解决上面讨论的问题,其中可以训练深度神经网络(“DNN”)以从输入映射到输出特征。可以采用回归DNN,使用基于映射的方法直接根据有噪声的声谱预测干净声谱。具有两个输出的DNN结构可以同时估计目标语音和干扰。此外,DNN可以估计理想掩码,该理想掩码包括针对每个时频(TF)区间(bin)的理想二进制掩码(“IBM”)(如果SNR高于预定阈值,则可以分配为1,否则为0)和针对每个TF区间的理想比率掩码(“IRM”)(其可以定义为目标信号与混合信号的功率之间的比率)。IRM可以表示噪声抑制器中的抑制规则,并且估计IRM可能会比估计IBM带来更好的语音增强性能。
尽管上述技术可以基于全连接的DNN,其中可以不明确地建模邻近帧之间的关系,但是递归神经网络(RNN)可以使用先前帧与当前帧之间的递归结构来捕获长期上下文信息,这可以做出更好的预测。此外,长短期记忆递归神经网络(“LSTM-RNN”)可以用于语音增强,这可以在低SNR时提供改进的降噪表现。
深度神经网络(诸如使用多层感知器(“MLP”)的深度神经网络)可以作为通用非线性函数近似器应用于从有噪声的话语(utterance)到干净版本的近似映射。然后可以使用数值方法优化基于多元回归的目标来拟合模型参数。为了捕获语音信号的时间特性,递归神经网络可以去除对MLP中上下文窗口的明确选择的需求。
如下面更详细的讨论,在基于用于语音增强的卷积神经网络和递归神经网络的端到端模型中,网络可以是数据驱动的,并且网络可能不会对底层噪声做出任何假定。卷积递归神经网络可以包括三个组件:(i)卷积组件,其可以利用空间和时间域中的声谱图中的局部图案(pattern);其次(ii)双向递归组件,其可以对连续帧之间的动态相关性进行建模;最后(iii)预测干净声谱图的全连接层。
由于卷积核的稀疏性,与MLP和RNN相比,卷积递归神经网络可能更具数据效率,并且在计算上更易于处理。此外,双向递归组件可以允许卷积递归神经网络自适应地对连续帧之间的动态相关性进行建模,这可以实现对见过的噪声和未见过的噪声的更好泛化。
在下面描述的本公开的实施例中,混合方法可以将噪声抑制的优点(诸如减轻准平稳噪声)与神经网络(诸如LSTM或卷积递归神经网络)的性能(用于抑制快速变化的噪声和干扰信号)组合。例如,首先,可以通过将统计信号处理算法与基于深度学习的语音增强相组合来增强语音,从而减少平稳噪声,其中记为近似语音信号估计(“ASSE”)。可以使用判决导引方法来将抑制规则估计为来自先前帧的抑制规则与使用估计技术针对当前帧的估计的几何平均值,并且干净语音估计器可以保留语音资格(qualify),但也可能留下噪音和干扰。然后,基于LSTM的直接映射回归模型可以用来根据经增强的语音估计干净语音和抑制规则。输出可以是所估计的干净语音和/或将抑制规则应用于有噪声的语音中的一种或两种。备选地和/或另外地,可以使用卷积递归神经网络根据经增强的语音估计干净语音和抑制规则。
图1描绘了根据本公开的实施例的深度学习框架的框图。在深度学习框架的训练阶段,可以使用训练数据集的对数功率谱(“LPS”)作为输入特征并且使用干净LPS和IRM作为参考来训练LSTM多样式(“LSTM-MT”)模型。如图1所示,LSTM-LPS和LSTM-IRM可以分别标记在LSTM-MT的两个输出处的所估计的干净LPS和IRM。
在增强阶段,针对第l音频帧的增强过程可以分为三个连续步骤。在第一步骤(其可以记为近似语音信号估计(“ASSE”)(如下所述))中,可以通过计算和应用抑制规则来对有噪声的LPS进行预处理,这可以产生干净语音近似估计Y(l)。在第二步骤中,经训练的LSTM-MT神经网络可以使用Y(l)产生干净语音的估计和IRM的估计M(l)。在第三步骤中,可以使用所估计的IRMM(l)和近似的干净语音估计Y(l)来估计输出语音信号Z(l)。
在噪声抑制中(诸如使用统计信号处理算法),先验和后验SNR可以发挥关键作用,其分别记为ξ(k,l)和γ(k,l),并且可以定义如下:
其中λ(k,l)可以标记针对时间帧l和频率区间k的噪声方差,X(k,l)可以是有噪声的信号的短时傅立叶变换(“STFT”)。
由于干净语音幅度可能未知,因此可以使用以下判决导引方法估计干净语音幅度:
在此,可以利用连续的语音帧高度相关的这一事实,这可以允许使用根据先前帧的干净语音幅度估计。在大多是噪声的地方,输出可能是0,而在大多是语音的地方,输出可能要高得多。
因此,抑制规则可以是先验和后验SNR的函数,如下:
G(k,l)=g(γ(k,l),ξ(k,l)) (3)
然后,可以将所估计的抑制规则应用于有噪声的信号以接收干净语音估计,如下:
在每个帧的处理之后,可以更新噪声模型:
其中T可以是帧步长,τN可以是自适应时间常数,P(k,l)可以是语音存在概率。最后一个可以由VAD估计和/或由抑制规则G(k,l)近似。
在处理输入数据以进行噪声抑制(诸如使用统计信号处理算法)以估计先验和后验SNR(分别记为上式(2)和(1)中的ξ(k,l)和γ(k,l))之后,可以估计抑制规则G(k,l)(公式(3)。然后,可以将抑制规则与可以由LSTM-MT估计的IRM进行组合,并且可以如下计算近似语音信号估计(“ASSE”)作为针对LSTM-LPS的预处理:
Y(k,l)=log[δM(k,l)+(1-δ)G(k,l)]+X(k,l) (6)
为了与LPS一起工作,可以使用抑制规则的对数,并且公式(4)的乘法变为求和。公式如图1所示,在推理期间,可以先运行LSTM-IRM模型以单独估计IRM。然后,如公式(6)所示,可以组合所估计的IRM。因此,神经网络模型可以在同一数据帧上运行两次,即,一次用于估计IRM,而另一次用于LPS。
图2描绘了根据本公开的实施例的LSTM-MT模型的结构,其是基于LSTM的多目标深度学习块。可以训练基于LSTM的多目标深度学习块以学习从有噪声的LPS特征到干净LPS的复杂变换以及IRM。
LSTM可以充分利用沿若干个邻近音频帧的段和所有频率区间的声音上下文信息,以在不利环境中获取LPS和IRM估计。所估计的IRM可以被限制在0到1之间的范围内,其中0可以表示仅存在噪声,而1可以表示仅存在语音。所估计的IRM可以直接用于表示语音存在概率。作为学习目标的IRM可以被定义为在对应T-F区间中的干净语音和有噪声的语音的功率的比例,如下:
如图2所示,神经网络可能需要具有分别已知的干净语音和噪声信号的合成数据集,以便进行训练。为了训练LSTM-MT模型,可以使用监督式微调来使LSTM-LPS输出与参考LPSS(k,l)以及LSTM-IRM输出M(k,l)与参考IRMMref(k,l)之间的均方误差(“MSE”)最小化,其可以定义如下:
在小批量模式下,可以使用基于随机梯度下降的反向传播方法使MSE最小化。
LSTM-IRM输出M(k,l)可以经由LPS域中的简单加权平均运算而用于如下的后处理:
Z(k,l)=ηY(k,l)+(1-η){X(k,l)+log[M(k,l)]} (9)
输出Z(k,l)可以被直接馈送到波形重构模块。LPS域的输出可能比线性声谱域的输出更有效。下面的算法中总结了所组合的噪声抑制和基于LSTM的方法。
尽管图1和2描绘了神经网络框架,但是本领域技术人员将意识到,可以关于模型执行神经网络,并且可以包括以下阶段:模型创建(神经网络训练)、模型验证(神经网络测试)和模型利用(神经网络评估),尽管这些阶段可能不会互相排斥。根据本公开的实施例,可以通过训练、推理和评估阶段来实现神经网络。可以利用有噪声的语音声谱图窗口。对于基线深度神经网络,如图2所示,模型可以具有1792个神经元的输入层、两个中间(隐藏)层(LSTM层1和LSTM层2)(每个层包括1024个神经元)、以及具有256个神经元的两个输出层。
至少一个服务器可以执行本文中描述的音频处理系统的机器学习组件。如本领域技术人员将理解的,可以关于模型进行机器学习,并且机器学习可以包括至少三个阶段:模型创建、模型验证、和模型利用,尽管这些阶段可能不是互相排斥的。如以下更详细讨论的,模型创建、验证和利用可以是机器学习的持续过程。
对于机器学习,模型创建阶段可以涉及从训练数据集的有噪声的语音中提取特征。机器学习组件可以监测进行中的音频数据以从有噪声的语音中提取特征。如本领域技术人员将理解的,这些所提取的特征和/或其他数据可以从基于模式的对随时间收集的大量数据的统计分析和机器学习技术中得出。基于对该监测的观察,机器学习组件可以创建用于从音频数据中提取特征的模型(即,一组规则或试探法)。如上所述,可以训练深度神经网络以使平方误差最小化。
在机器学习的第二阶段,可以验证在模型创建阶段创建的模型的准确性。在该阶段期间,机器学习组件可以监测来自测试数据集的有噪声的语音,从测试数据集中提取特征,并且将这些提取的特征与由模型做出的预测标签进行比较。通过持续跟踪和比较该信息并且在一段时间内,机器学习组件可以确定模型是否准确地预测音频数据的哪些部分可能是噪声和/或语音。这种验证通常以准确性来表达:即,模型预测标签的时间的百分比是多少。可以将关于由模型进行的预测的成功或失败的信息反馈到模型创建阶段以改进模型,并且从而改进模型的准确性。
为了进行性能比较,获取各种音频处理技术的性能指标。如下所示,表1提供了采用不同的方法和测试集的百分比的字错误率(“WER”)、百分比的句错误率(“SER”)、和语音质量的感知评估(“PESQ”)(范围为1到5,其中1是差,5是优异)的比较。
表1
机器学习的第三阶段可以基于经过验证达到预定阈值准确度的模型。例如,被确定为具有至少50%的准确率的模型可以适用于利用阶段。根据本公开的实施例,在该第三利用阶段,机器学习组件可以从音频数据中提取特征,其中该模型建议存在噪声和/或语音。在遇到音频数据中的语音和/或其他数据时,该模型建议语音可能存在并且可以存储为数据段。当然,基于对各种所存储数据段的确认或拒绝的信息可以作为用于完善模型的数据返回到前两个阶段(验证和创建),以提高模型的准确性。
如本文中使用的,用于评估语音增强算法的数据集被合成生成。干净的语音语料库包括134个录音,每个录音有以大致相同的比例的由男性、女性和儿童声音发音的10个单句话语。这些录音的平均持续时间约为1分30秒。噪声语料库包括377个记录,每个记录持续5分钟,表示25种类型的噪声(机场、咖啡厅、厨房、酒吧等)。使用了在T60=300ms并且扬声器与麦克风之间的距离在1-3米之间变化的情况下从房间获取的48个房间脉冲响应(“RIR”)。为了生成有噪声的文件,随机选择干净语音文件,并且根据人类话音响度模型设置干净的语音文件的级别(高斯分布μs=65dB SPL@1m,σs=8dB)。然后随机选择RIR,并且将语音信号与RIR卷积以生成回响的语音信号。最后,随机选择噪声文件,根据房间噪声模型设置噪声文件的级别(高斯分布μN=50dB SPL,σN=10dB),并且然后将噪声文件添加到回响的语音信号中。
所得到的文件SNR可以限制在[0,+30]dB的范围。所有信号均以16kHz采样率采样并且以24位准确性存储。假定麦克风的削波电平为120dB。使用这种方法,生成了7,500个用于训练的有噪声的文件、150个用于验证的有噪声的文件、和150个用于测试的有噪声的文件。训练数据集的总长度为100小时。
如表1所示,为了评估输出信号质量(如人类所感知的),使用PESQ算法。PESQ被标准化为IUT-T建议P.862。对于语音增强算法的测试,使用基于DNN的语音识别器。如上所述,使用字错误率(“WER”)和句错误率(“SER”)来评估语音识别结果。
对于LSTM-MT网络的结构和训练,帧长和移位分别为512和256个样本,其产生针对每个帧的256个频率区间。可以将对数功率谱计算为特征,并且保留相位以进行波形重构。可以通过展平声谱图的对称七个帧窗口来准备对LSTM-MT网络的输入特征。七帧声谱图窗口包括当前帧之前的三个帧和当前帧之后的三个帧。
如上所述,LSTM-MT模型可以具有包括1792个神经元的输入层(用于LPS输入特征的256*7维向量)、两个中间(隐藏)层(LSTM层1和LSTM层2,如图2所示)(每个中间(隐藏)层包括1024个神经元)、以及两个输出层(每个输出层包括256个神经元(合512个))。512个神经元分别用于输出TF LPS和IRM,两个256维特征向量用于LPS和IRM目标。
整个深度神经框架可以使用计算网络工具包(“CNTK”)实现,并且模型参数可以随机初始化。对于前十个时期,学习速率可以被初始化为0.01,并且然后在每个时期之后可以降低0.9。时期的数目可以固定为45。每个随时间反向传播(“BPTT”)段可以包括16个帧和16个话语,其可以同时进行处理。
对于噪声抑制器,在公式(2)中可以使用α=0.9,在公式(5)中可以使用时间常数τN=1sec,在公式(6)中可以使用加权平均δ=0.5,可以在公式(9)中使用η=0.5。对于公式(3)中的抑制规则估计,可以使用对数MMSE抑制规则。
如上所述,实验结果在表1中给出。图3A-3E描绘了根据本公开的实施例的使用不同增强方法的声谱图。
表1的第1行中的“没有处理”包含对没有进行任何处理的数据集的评估,这可以提供基线数字以用于与不同增强方法进行比较。基线数字包括15.86%的WER和2.65的PESQ。如表1的第2行所示,应用噪声抑制器,WER可以降低到14.24%,PESQ可以增加到2.69。
表1的第2行和第4行列出了针对LPS的直接估计的平均WER、SER和PESQ。在第一情况下(表1的第2行),对LSTM-MT网络的输入可以是有噪声的信号。在第二情况下(表1的第4行),对LSTM-MT网络的输入可以是在使用经典噪声抑制器进行处理之后的输入。在第一情况下,WER可以降低到10.34%,而PESQ可以增加到3.37。使用噪声抑制与LSTM一起之后的结果的变差可以忽略不计。
表1的第5行示出了将通过LSTM-IRM从有噪声的语音中估计的IRM与噪声抑制方法结合起来时基于近似语音信号估计(“ASSE”)的结果。WER可以降低到12.63%,PESQ可以增加到2.71。
表1的第6行中示出了使用基于ASSE的经增强的语音作为对LPS的直接估计的预处理的结果。LSTM-MT神经网络的LPS输出可以用于波形合成,并且WER可以降低到9.22%,PESQ可以增加到3.41。
最后,表1的第7行描绘了将噪声抑制与LSTM-MT相组合的完整算法的结果,如上所述。LSTM-MT神经网络的IRM输出可以用于波形合成以估计Z(l)(如公式(9)中所述),并且WER可以降低到8.29%,这是相对WER的47.73%的改进。此外,实质上使用该算法,PESQ增加到3.30。
如上所述,图3A-3E描绘了根据本公开的实施例的使用不同增强方法的经处理话语的声谱图。特别地,图3A和3B分别描绘了噪声和干净语音信号的声谱图。图3C和3D描绘了由以IRM作为抑制规则的LSTM-MT以及噪声抑制器方法处理的语音声谱图。如图3C所示,LSTM-MT方法可能会破坏目标语音声谱,而噪声抑制器(图3D)的攻击力可能较小并且可能使得噪声和干扰未被抑制。图3E描绘了由具有预处理的LSTM-MT LPS估计方法处理的语音的声谱图。如图3E所示,具有预处理的LSTM-MT LPS估计方法可以获取目标语音并且可以抑制背景噪声。因此,本公开的实施例提供了具有LSTM深度学习网络的噪声抑制器的优点。
转向使用卷积递归神经网络代替LSTM深度学习网络时,可以利用卷积递归神经网络根据经增强的语音估计干净语音和抑制规则。如上所述,卷积递归神经网络可以包括三个组件:(i)卷积组件,其可以在空间和时间域中利用声谱图中的局部图案;其次(ii)双向递归组件,其可以对连续帧之间的动态相关性进行建模;最后(iii)预测干净声谱图的全连接层。
图4描绘了根据本公开的实施例的卷积递归神经网络的模型架构。在卷积递归神经网络的卷积组件中,有噪声的声谱图可以与核卷积在一起以形成特征图,然后这些特征图被联接以形成2D特征图。在双向递归组件中,可以通过双向RNN沿时间维度转换2D特征图。然后,在最后一个组件中,可以使用全连接的网络逐帧预测声谱图。因此,可以通过定义预测声谱图与干净声谱图之间的损失函数来端到端地训练卷积递归神经网络。
卷积递归神经网络可以使用归纳偏置(inductive bias)来解决音频增强问题。音频增强问题可以是多元回归问题,其中非线性回归函数可以由网络参数化,如图4所示。备选地,整个卷积递归神经网络可以被解释为用于频域中的降噪的复杂滤波器。
卷积递归神经网络解决的问题可以表述为:有噪声的声谱图可以是其对应的干净版本可以是其中d可以是每个帧的维数(声谱图中的频率区间的数目),t可以是声谱图的长度。给定训练数据集包括n对有噪声的声谱图和干净声谱图中,语音增强问题可以公式化为找到映射该映射将有噪声的话语映射到干净声谱,其中gθ可以用θ进行参数化。然后,可以解决以下优化问题以找到最佳模型参数θ,如下:
在该设置下,关键是找到用于去噪函数gθ的参数族,使得其既丰富又有效。
去噪函数可以是多层感知器(“MLP”)。但是,尽管是通用函数近似器,但是MLP的全连接的网络结构可能无法利用声谱图中存在的丰富图案。例如,如图4所示,声谱图中的信号可以沿时间维度是连续的,并且它们在邻近频率区间中也可以具有相似的值。因此,卷积神经网络可以被应用来从输入声谱图中有效地提取局部图案。
可以是大小为b×w的卷积核,特征图hZ可以是声谱图x与核z的卷积,之后是逐元素非线性映射σ:hZ(x)=σ(x*z)。σ(a)=max{a,0}可以被选择为整流线性函数(“ReLU”),因为其在减轻梯度消失问题方面可以很有效。每个这样的卷积核z可以产生2D特征图,并且k个单独的卷积核可以被应用于输入声谱图,这可以导致2D特征图的汇集
在没有填补并使用单位步幅的情况下,每个特征图hz(x)的大小可以为(d-b+1)×(t-w+1)。但是,为了恢复原始语音信号,模型的最终预测可以在时间维度上具有与输入声谱图的长度完全相同的长度。因此,w可以选择为奇数整数,并且在可以向x应用卷积之前在x的两侧应用大小为的零填补,这可以确保特征图hz(x)具有t个时间步长,以与x的时间步长相匹配。
相反,由于声谱图在邻近频率区间中的局部相似性,当与核z卷积时,可以沿频率维度使用大小为b/2的步幅。如以下详细讨论的,这种设计可以减少卷积递归神经网络的递归组件中所需要的参数的数目和计算,而不会损失任何预测准确性。
因此,卷积核的应用可能非常适合于频域中的语音增强,因为每个核都可以被理解为检测存在于有噪声的声谱图中的特定种类的局部图案的非线性滤波器,并且核的宽度具有作为上下文窗口的长度的自然解释。此外,在计算侧,由于卷积层也可以被理解为具有共享和稀疏连接权重的全连接层的特例,因此卷积的引入可以减少具有相同表达能力的MLP所需要的计算。
卷积递归神经网络的双向递归组件可以用于自动建模有噪声的声谱图中的邻近帧之间的动态相关性。双向递归神经网络(“BRNN”)可以包括双向的递归连接。卷积组件的输出可以是k个特征图的汇集在将特征图馈送到BRNN中之前,可以如下将k个特征图中的每个转换为2D特征图:
在卷积递归神经网络中,如上所述,深度双向长期短期记忆(LSTM)由于其可以建模长期交互的能力而可以用作递归组件。在每个时间步长t,给定输入Ht:=Ht(x),每个单向LSTM单元可以使用其内部门计算隐藏表示如下:
为了证明卷积递归神经网络(“CRNN”)在语音增强方面的有效性,创建了合成数据集,该合成数据集包括分别用于训练数据集、验证数据集和测试数据集的7,500、1,500和1,500个录音(干净/有噪声的语音)。通过将随机选择的干净语音文件与可用的48个房间脉冲响应之一进行卷积并且添加随机选择的噪声文件来合成每个录音。干净语音语料库包括150个文件,其包含带有男性、女性和儿童声音的十种话语。噪声数据集由表示25种不同类型的噪声的377个记录组成。针对在1-3米之间的距离测量房间脉冲响应。32个文件的辅噪声数据集(其中的噪声未出现在训练数据集中)被表示为未见过的噪声,并且用于生成1,500个文件的另一测试数据集。随机生成的语音和噪声级别提供0到30dB之间的信噪比。所有文件均以16kHz采样率采样并且以24位分辨率存储。
作为预处理步骤,我们首先使用短时傅立叶变换(“STFT”)从每个话语中提取声谱图,并且声谱图具有256个频率区间(d=256)和约500帧(t≈500帧)。为了充分地测量卷积递归神经网络在语音增强方面的增强质量,使用了5个指标来评估不同模型:信噪比(“SNR”,dB)、对数谱失真(LSD,dB)、时域上的均值平方误差(“MSE”)、字错误率(“WER”,%)和PESQ度量。为了测量WER,使用了基于DNN的语音识别器。在实验过程中,系统保持固定(未微调)。将卷积递归神经网络与各种语音增强系统进行了比较,各种语音增强系统包括Microsoft(“MS”)内部语音增强系统、DNN-SYMM、DNN-CASUAL和RNN-NG。
MS(在生产中使用的Microsoft内部语音增强系统)使用基于统计的增强规则的组合。DNN-SYMM包括3个隐藏层,所有这些隐藏层均具有2048个隐藏单元,并且使用大小为11的对称上下文窗口。DNN-CASUAL与DNN-SYMM类似,包括3个大小为2048的隐藏层,但不是对称的上下文窗口,并且使用大小为7的随意(casual)上下文窗口。RNN-NG是递归神经网络,具有3个大小为500的隐藏层,并且每个时间步长的输入覆盖长度为3的上下文窗口中的帧。
表2描绘了以5种不同的指标在具有见过的噪声和未见过的噪声的合成数据集上进行评估的实验结果。有噪声的语音可以对应于未经增强而获取的得分,而干净语音可以对应于使用地面事实(ground truth)干净语音而获取的得分。对于每个指标,达到最佳性能的模型以粗体突出显示。如下表所示,在表2中,利用以下指标示出了比较:信噪比(“SNR”)(以dB为单位)、对数谱失真(“LSD”)(以dB为单位)、均方误差(“MSE”)、百分比的字错误率(“WER”)、以及语音质量的感知评估(“PESQ”)(范围为1到5,其中1是较差,5是优异)。
表2
卷积递归神经网络的架构可以如下:卷积组件可以包括256个大小为32×11的核,沿频率和时间维度的步幅分别为16×1。在卷积组件之后可以使用两层双向LSTM,每层LSTM可以具有1024个隐藏单元。
为了训练卷积递归神经网络,可以将时期数固定为200个,每60个时期具有计划的学习速率{1.0,0.1,0.01}。对于每种方法,如上面的表2和下面的图5B-5E所示,使用验证数据集进行早期停止并且保存在验证数据集上的最佳模型以用于对测试数据集进行评估。
卷积递归神经网络可以不被过拟合,因为权重衰减和丢失(drop out)都可能损害最终性能。较深的卷积递归神经网络可以与更多层的双向LSTM一起使用。此外,减少卷积递归神经网络在频率维度上的卷积步幅可能不会显著提高性能,并且可能会带来其他计算。
如表2所示,在带有见过的噪声的测试数据集上,卷积递归神经网络可能始终优于包括MS、DNN-SYMM、DNN-CASUAL和RNN-NG在内的各种语音增强系统。具体地,卷积递归神经网络能够将PESQ测度提高0.6个点,而不会降低识别准确性,作为一个潜在的ASR系统,作为黑匣子,并且在实验过程中没有对其进行微调,这是出乎意料的。作为比较,尽管所有各种语音增强系统都可以提高SNR比,但是各种语音增强系统都可以降低识别准确性。此外,卷积递归神经网络也可以泛化到未见过的噪声,并且卷积递归神经网络可以在感知质量上实现更大的提升(0.64),同时可以提高识别准确性。
将来自不同模型的去噪声谱图可视化以提供对实验结果的更好理解。图5A-5F描绘了根据本公开的实施例的有噪声的和干净的声谱图以及使用不同模型的去噪声谱图。具体地,图5A和5F分别描绘了有噪声的语音声谱图和干净的语音声谱图。
如图5B所示,MS的去噪声谱图可以是卷积递归神经网络和其他各种语音增强系统之中最保守的算法。通过不去除很多噪声,MS算法也可以将大多数真实信号保留在语音中。但是,尽管基于DNN的方法可以去除背景噪声,但是基于DNN的方法也可以从声谱图中消除真实的语音信号。因此,基于DNN的方法可能会降低识别准确性,如表2所示。与基于DNN的方法相比,基于RNN的方法可能有所改进,但是基于RNN的方法也可能无法保持在低频率区间中的真实信号。如图5E所示,卷积递归神经网络可以提供改进的背景噪声去除,并且可以保留干净的语音信号。与分别示出了基于DNN的方法和基于RNN的方法的去噪声谱图的图5C和5D相比,卷积递归神经网络可以证明改进了对高/低频率区间的保留,并且与MS算法相比,改进了背景噪声的去除,如图5B所示。此外,卷积递归神经网络可以产生最接近于如图5F所示的地面真实声谱图的去噪声谱图。
根据本公开的实施例,卷积递归神经网络组合了卷积神经网络和递归神经网络以用于语音增强。卷积递归神经网络的归纳偏置可以非常适合于解决语音增强,因为卷积核可以有效地检测声谱图中的局部图案,并且双向递归连接可以自动对邻近帧之间的动态相关性进行建模。由于卷积的稀疏性,与MLP和RNN相比,卷积递归神经网络可能需要更少的计算。如上所述,实验结果可能表明,卷积递归神经网络在五个不同指标上的表现可以优于其他各种语音增强系统,包括MS、DNN-SYMM、DNN-CASUAL和RNN-NG,并且卷积递归神经网络可以能够泛化到未见过的噪声,这可以确认卷积递归神经网络在语音增强中的有效性。
尽管本公开具体地讨论了音频处理,但是本公开的各方面不仅可以适用于诸如语音增强等音频处理,而且还可以适用于话音活动保护、回归处理和分类问题。例如,本公开的各方面还可以改进分类任务(诸如源分离和麦克风波束形成)以及估计任务(诸如声学回声消除)。
如上文和下文所述,本公开的实施例允许降低计算复杂度和存储器需求,这也可以降低功耗。本公开的实施例可以在诸如智能电话、平板电脑等移动设备和/或甚至可穿戴物品、智能扬声器、计算机、膝上型计算机、汽车娱乐系统等上实现。
图6描绘了根据本公开的实施例的用于改进的实时音频处理的方法600。方法600可以在步骤602开始,其中可以接收具有多个频率区间的、包括多个帧的音频数据。如上所述,可以接收诸如实时音频数据等音频数据,并且音频数据可以包括以时域或转换域之一表示的一个或多个音频帧。音频数据可以在时域中,并且可以随后被转换为频域。例如,时域信号可以被转换成若干个频率依赖域(frequency dependent domain)。此外,时域信号可以被转换成转换域中的一个或多个,诸如频域、已修改的复杂重叠变换(“MCLT”)域、梅尔滤波器组域等中的一个或多个。一个或多个转换域还可以被转换为一个或多个转换域,诸如调制域、倒谱域、梅尔频率倒谱系数(“MFCC”)域、对数功率频域中的一个或多个。此外,在处理音频数据之后,如果音频数据以转换域表示,则音频数据可以被转换为时域。
然后,在步骤604,针对每个频率区间,可以计算基于多个帧的先验信噪比和后验信噪比。在步骤606,针对每个频率区间,可以基于所计算的先验信噪比和所计算的后验信噪比计算抑制增益。在步骤608中,针对每个频率区间,可以基于包括所计算的抑制增益和理想比率掩码的多个帧来计算近似语音信号估计。
在步骤610,可以构造包括多个神经元的神经网络模型,该神经网络模型被配置为输出音频数据的理想比率掩码和干净语音估计,多个神经元被布置在包括至少一个隐藏层的多个层中,并且可以通过多个连接而连接。神经网络模型的至少一个隐藏层可以包括至少一个长短期记忆层。当然,神经网络模型的构造可以在使用神经网络模型之前的任何时间,并且神经网络模型的构造可以不限于在对音频数据的至少以上计算的之前和/或之后发生。
在步骤612,可以接收包括音频数据的训练数据集。训练数据集可以包括用于训练的具有单独已知的干净语音和噪声信号的合成数据集。然后,在步骤614,可以使用训练数据集训练神经网络模型。使用训练数据集训练神经网络模型可以包括:使用训练数据集的对数功率谱作为输入特征并且使用干净对数功率谱和参考理想比率掩码来训练神经网络模型。使用训练数据集训练神经网络模型可以包括使对数功率谱和干净对数功率谱之间的均方误差与所计算的理想比率掩码和参考理想比率掩码之间的均方误差最小化。一旦训练了神经网络模型,则在步骤616,可以输出被配置为输出音频数据的理想比率掩码和干净语音估计的经训练的神经网络模型。
经训练的神经网络模型可以包括基于至少一个长期短期记忆层的递归神经网络。备选地和/或另外地,经训练的神经网络模型可以包括卷积递归神经网络模型。卷积递归神经网络模型可以包括卷积组件、至少一个双向递归组件和全连接层。卷积组件可以在空间域和时间域两者中利用声谱图中的局部图案,至少一个双向递归组件可以对连续帧之间的动态相关性进行建模,并且全连接层可以预测干净声谱图。
卷积组件可以将有噪声的声谱图与核进行卷积以形成特征图,并且卷积组件可以将所形成的特征图进行联接以形成2D特征图。双向递归组件可以通过双向递归神经网络沿时间维度来变换2D特征图。另外地和/或备选地,双向递归组件可以通过使用在两个方向上包括递归连接的双向递归神经网络来自动建模有噪声的声谱图中邻近帧之间的动态相关性。
一旦输出经训练的神经网络模型,则在步骤618,可以接收包括具有未见过的噪声的音频数据的测试数据集。然后,在步骤620,可以评估使用所接收的测试数据集的经训练的深度神经网络。备选地,步骤618和620可以被省略,和/或可以在不同的时间执行。一旦被评估为通过预定阈值,就可以利用经训练的深度神经网络。另外,在本公开的某些实施例中,可以重复方法600的步骤以产生多个经训练的深度神经网络。然后可以将多个经训练的深度神经网络彼此比较和/或与其他深度神经网络进行比较。
在步骤622,对于每个近似语音信号估计,可以使用经训练的神经网络模型来计算干净语音估计和理想比率掩码。可以基于对应时频区间中干净语音与有噪声的语音的功率的比例来计算理想比率掩码。最终,在步骤624,对于每个频率区间,可以使用所计算的理想比率掩码和所计算的干净语音估计来计算最终干净语音估计。
图7描绘了根据本公开的实施例的可以根据本文中公开的系统、方法、模块和计算机可读介质来使用的示例性计算设备700的高级图示。例如,根据本公开的实施例,计算设备700可以用在使用深度神经网络来处理诸如音频数据等数据的系统中。计算设备700可以包括执行存储在存储器704中的指令的至少一个处理器702。该指令可以是例如用于实现被描述为由以上讨论的一个或多个组件执行的功能的指令或用于实现上述一种或多种方法的指令。处理器702可以通过系统总线706来访问存储器704。除了存储可执行指令,存储器704还可以存储数据、音频、一个或多个深度神经网络等。
计算设备700还可以包括处理器702可以通过系统总线706访问的数据存储库,也称为数据库708。数据存储库708可以包括可执行指令、数据、示例、特征等。计算设备700还可以包括允许外部设备与计算设备700通信的输入接口710。例如,输入接口710可以用于从外部计算机设备、用户等接收指令。计算设备700还可以包括将计算设备700与一个或多个外部设备接口的输出接口712。例如,计算设备700可以通过输出接口712显示文本、图像等。
预期经由输入接口710和输出接口712与计算设备700通信的外部设备可以被包括在提供用户可以与之交互的基本上任何类型的用户接口的环境中。用户接口类型的示例包括图形用户接口、自然用户接口等。例如,图形用户接口可以接受来自采用诸如键盘、鼠标、遥控器等输入设备的用户的输入,并且可以在诸如显示器等输出设备上提供输出。此外,自然用户接口可以使得用户能够以不受诸如键盘、鼠标、遥控器等输入设备所施加的约束的方式与计算设备1000交互。相反,自然的用户接口可以依赖于语音识别、触摸和手写笔识别、屏幕上及其屏幕附近的手势识别、空中手势、头部和眼睛跟踪、语音和语音、视觉、触摸、手势、机器智能等。
另外,尽管被示出为单个系统,但是应当理解,计算设备700可以是分布式系统。因此,例如,几个设备可以通过网络连接进行通信,并且可以共同执行被描述为由计算设备700执行的任务。
转到图8,图8描绘了根据本公开的实施例的可以根据本文中公开的系统、方法、模块和计算机可读介质来使用的示例性计算系统800的高级图示。例如,计算系统800可以是或可以包括计算设备700。另外地和/或备选地,计算设备700可以是或可以包括计算系统800。
计算系统800可以包括多个服务器计算设备,诸如服务器计算设备802和服务器计算设备804(统称为服务器计算设备802-804)。服务器计算设备802可以包括至少一个处理器和存储器;至少一个处理器执行存储在存储器中的指令。该指令可以是例如用于实现被描述为由上述一个或多个组件执行的功能的指令或用于实现上述一种或多种方法的指令。与服务器计算设备802相似,除了服务器计算设备802,服务器计算设备802-804的至少一个子集可以分别包括至少一个处理器和存储器。此外,服务器计算设备802-804的至少一个子集可以包括相应数据存储库。
一个或多个服务器计算设备802-804的处理器可以是或可以包括该处理器,诸如处理器702。此外,一个或多个服务器计算设备802-804的一个或多个存储器可以是或包括存储器,诸如存储器704。此外,一个或多个服务器计算设备802-804的一个或多个数据存储库可以是或可以包括数据存储库,诸如数据存储库708。
计算系统800还可以包括在服务器计算设备802-804之间传输数据的各种网络节点806。此外,网络节点806可以通过网络808将数据从服务器计算设备802-804传输到外部节点(例如,在计算系统800外部)。网络节点802还可以通过网络808将数据从外部节点传输到服务器计算设备802-804。网络808例如可以是因特网、蜂窝网络等。网络节点806可以包括交换机、路由器、负载均衡器等。
计算系统800的结构控制器810可以管理服务器计算设备802-804的硬件资源(例如,服务器计算设备802-804的处理器、存储器、数据存储等)。架构控制器810还可以管理网络节点806。此外,架构控制器810可以管理在服务器计算设备802-804上实例化的被管理运行时环境的创建、供应、取消供应和监督。
如本文中使用的,术语“组件”和“系统”旨在涵盖配置有计算机可执行指令的计算机可读数据存储,该计算机可执行指令在由处理器执行时使某些功能被执行。该计算机可执行指令可以包括例程、函数等。还应当理解,组件或系统可以位于单个设备上或分布在多个设备上。
本文中描述的各种功能可以以硬件、软件或其任何组合来实现。如果以软件实现,则功能可以作为一个或多个指令或代码存储在计算机可读介质上和/或通过计算机可读介质传输。计算机可读介质可以包括计算机可读存储介质。计算机可读存储介质可以是计算机可以访问的任何可用存储介质。作为示例而非限制,这样的计算机可读存储介质可以包括RAM、ROM、EEPROM、CD-ROM或其他光盘存储、磁盘存储或其他磁性存储设备、或者可以用于以指令或数据结构的形式存储期望的程序代码并且可以由计算机访问的任何其他介质。本文中使用的磁盘和光盘可以包括压缩盘(“CD”)、激光光盘、光盘、数字多功能光盘(“DVD”)、软盘和蓝光光盘(“BD”),其中磁盘通常磁性地复制数据,而光盘通常使用激光光学地复制数据。此外,传播信号未被包括在计算机可读存储介质的范围内。计算机可读介质还可以包括通信介质,包括有助于将计算机程序从一个地方转移到另一地方的任何介质。连接例如可以是通信介质。例如,如果使用同轴电缆、光纤电缆、双绞线、数字用户线(“DSL”)或无线技术(诸如红外、无线电和微波)从网站、服务器或其他远程源传输软件,则同轴电缆、光纤电缆、双绞线、DSL或无线技术(诸如红外、无线电和微波)被包括在通信介质的定义中。上述各项的组合也可以被包括在计算机可读介质的范围内。
备选地和/或另外地,本文中描述的功能可以至少部分由一个或多个硬件逻辑组件执行。例如而非限制,可以使用的说明性类型的硬件逻辑组件包括现场可编程门阵列(“FPGA”)、专用集成电路(“ASIC”)、专用标准产品(“ASSP”)、片上系统(“SOC”)、复杂可编程逻辑设备(“CPLD”)等。
以上描述的内容包括一个或多个实施例的示例。当然,不可能为了描述上述方面而描述上述设备或方法的每个可能的修改和变更,但是本领域的普通技术人员可以认识到,各个方面的很多进一步的修改和置换是可能的。因此,所描述的各方面旨在涵盖落入所附权利要求的范围内的所有这样的改变、修改和变化。
Claims (15)
1.一种用于经改进的实时音频处理的计算机实现的方法,所述方法包括:
接收具有多个频率区间的、包括多个帧的音频数据;
针对每个频率区间,基于所述多个帧计算近似语音信号估计;
针对每个近似语音信号估计,使用经训练的神经网络模型计算干净语音估计和包括理想比率掩码的至少一个附加目标;以及
针对每个频率区间,使用包括所计算的所述理想比率掩码的所计算的所述至少一个附加目标和所计算的所述干净语音估计来计算最终干净语音估计。
2.根据权利要求1所述的方法,还包括:
针对每个频率区间,基于所述多个帧计算先验信噪比和后验信噪比;以及
针对每个频率区间,基于所计算的所述先验信噪比和所计算的所述后验信噪比计算抑制增益,
其中针对每个频率区间,基于所述多个帧计算所述近似语音信号估计包括:
针对每个频率区间,基于所计算的所述抑制增益和所述理想比率掩码计算所述近似语音信号估计。
3.根据权利要求2所述的方法,其中所述理想比率掩码是基于对应时频区间中干净语音的功率与有噪声的语音的功率的比例来计算的。
4.根据权利要求1所述的方法,其中所述经训练的神经网络模型包括基于至少一个长短期记忆层的递归神经网络。
5.根据权利要求1所述的方法,还包括:
构造包括多个神经元的神经网络模型,所述神经网络模型被配置为输出音频数据的所述理想比率掩码和所述干净语音估计,所述多个神经元被布置在包括至少一个隐藏层的多个层中,并且通过多个连接被连接;
接收训练数据集,所述训练数据集包括音频数据;
使用所述训练数据集训练所述神经网络模型;以及
输出被配置为输出音频数据的所述理想比率掩码和所述干净语音估计的所述经训练的神经网络模型。
6.根据权利要求5所述的方法,其中所述神经网络模型的所述至少一个隐藏层包括至少一个长短期记忆层。
7.根据权利要求5所述的方法,其中使用所述训练数据集训练所述神经网络模型包括:
使用(i)训练数据集的对数功率谱和(ii)训练数据集的线性功率谱中的一项或两项作为输入特征,并且使用(i)干净对数功率谱和(ii)干净线性功率谱中的一项或两项以及参考理想比率掩码,来训练所述神经网络模型。
8.根据权利要求5所述的方法,其中所述训练数据集包括用于训练的合成数据集,所述合成数据集具有单独已知的干净语音和噪声信号。
9.根据权利要求7所述的方法,其中训练所述神经网络模型还包括:
使以下项中的一项之间的均方误差最小化:(i)所述对数功率谱与所述干净对数功率谱、和所计算的所述理想比率掩码与所述参考理想比率掩码两者,或者(ii)所述线性功率谱与所述干净线性功率谱、和所计算的所述理想比率掩码与所述参考理想比率掩码两者。
10.根据权利要求1所述的方法,还包括:
接收测试数据集,所述测试数据集包括具有未见过的噪声的音频数据;以及
使用所接收的所述测试数据集,评估所述经训练的深度神经网络。
11.根据权利要求1所述的方法,其中所述经训练的神经网络模型包括卷积递归神经网络模型。
12.一种用于经改进的实时音频处理的系统,所述系统包括:
数据存储设备,存储用于经改进的实时音频处理的指令;以及
处理器,被配置为执行所述指令以执行方法,所述方法包括:
接收具有多个频率区间的、包括多个帧的音频数据;
针对每个频率区间,基于所述多个帧计算近似语音信号估计;
针对每个近似语音信号估计,使用经训练的神经网络模型计算干净语音估计和包括理想比率掩码的至少一个附加目标;以及
针对每个频率区间,使用包括所计算的所述理想比率掩码的所计算的所述至少一个附加目标和所计算的所述干净语音估计来计算最终干净语音估计。
13.根据权利要求12所述的系统,其中所述处理器还被配置为执行所述指令以执行所述方法,所述方法包括:
针对每个频率区间,基于所述多个帧计算先验信噪比和后验信噪比;以及
针对每个频率区间,基于所计算的所述先验信噪比和所计算的所述后验信噪比计算抑制增益,
其中针对每个频率区间,基于所述多个帧计算所述近似语音信号估计包括:
针对每个频率区间,基于所计算的所述抑制增益和所述理想比率掩码计算所述近似语音信号估计。
14.一种存储指令的计算机可读存储设备,所述指令在由计算机执行时使所述计算机执行用于经改进的实时音频处理的方法,所述方法包括:
接收具有多个频率区间的、包括多个帧的音频数据;
针对每个频率区间,基于所述多个帧计算近似语音信号估计;
针对每个近似语音信号估计,使用经训练的神经网络模型计算干净语音估计和包括理想比率掩码的至少一个附加目标;以及
针对每个频率区间,使用包括所计算的所述理想比率掩码的所计算的所述至少一个附加目标和所计算的所述干净语音估计来计算最终干净语音估计。
15.根据权利要求14所述的计算机可读存储设备,其中所述方法还包括:
针对每个频率区间,基于所述多个帧计算先验信噪比和后验信噪比;以及
针对每个频率区间,基于所计算的所述先验信噪比和所计算的所述后验信噪比计算抑制增益,
其中针对每个频率区间,基于所述多个帧计算所述近似语音信号估计包括:
针对每个频率区间,基于所计算的所述抑制增益和所述理想比率掩码计算所述近似语音信号估计。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/952,353 US10672414B2 (en) | 2018-04-13 | 2018-04-13 | Systems, methods, and computer-readable media for improved real-time audio processing |
US15/952,353 | 2018-04-13 | ||
PCT/US2019/025089 WO2019199501A1 (en) | 2018-04-13 | 2019-04-01 | Systems, methods, and computer-readable media for improved real-time audio processing |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111971743A true CN111971743A (zh) | 2020-11-20 |
CN111971743B CN111971743B (zh) | 2024-03-19 |
Family
ID=66175501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980025444.1A Active CN111971743B (zh) | 2018-04-13 | 2019-04-01 | 用于改进的实时音频处理的系统、方法和计算机可读介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10672414B2 (zh) |
EP (1) | EP3776534B1 (zh) |
CN (1) | CN111971743B (zh) |
WO (1) | WO2019199501A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112713966A (zh) * | 2020-12-30 | 2021-04-27 | 大连大学 | 基于似然估计修正信噪比的编码调制切换方法 |
CN113286047A (zh) * | 2021-04-22 | 2021-08-20 | 维沃移动通信(杭州)有限公司 | 语音信号处理方法、装置及电子设备 |
CN114283829A (zh) * | 2021-12-13 | 2022-04-05 | 电子科技大学 | 一种基于动态门控卷积循环网络的语音增强方法 |
Families Citing this family (67)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102417047B1 (ko) * | 2016-06-24 | 2022-07-06 | 삼성전자주식회사 | 잡음 환경에 적응적인 신호 처리방법 및 장치와 이를 채용하는 단말장치 |
CN108510987B (zh) * | 2018-03-26 | 2020-10-23 | 北京小米移动软件有限公司 | 语音处理方法及装置 |
CN108550364B (zh) * | 2018-04-20 | 2019-04-30 | 百度在线网络技术(北京)有限公司 | 语音识别方法、装置、设备及存储介质 |
US11138471B2 (en) * | 2018-05-18 | 2021-10-05 | Google Llc | Augmentation of audiographic images for improved machine learning |
US10991379B2 (en) * | 2018-06-22 | 2021-04-27 | Babblelabs Llc | Data driven audio enhancement |
US11100941B2 (en) * | 2018-08-21 | 2021-08-24 | Krisp Technologies, Inc. | Speech enhancement and noise suppression systems and methods |
US11922314B1 (en) * | 2018-11-30 | 2024-03-05 | Ansys, Inc. | Systems and methods for building dynamic reduced order physical models |
TWI759591B (zh) * | 2019-04-01 | 2022-04-01 | 威聯通科技股份有限公司 | 語音增強方法及系統 |
US11146607B1 (en) * | 2019-05-31 | 2021-10-12 | Dialpad, Inc. | Smart noise cancellation |
US11205445B1 (en) * | 2019-06-10 | 2021-12-21 | Amazon Technologies, Inc. | Language agnostic automated voice activity detection |
US11380312B1 (en) * | 2019-06-20 | 2022-07-05 | Amazon Technologies, Inc. | Residual echo suppression for keyword detection |
US11355134B2 (en) * | 2019-08-02 | 2022-06-07 | Audioshake, Inc. | Deep learning segmentation of audio using magnitude spectrogram |
US11521630B2 (en) * | 2020-10-02 | 2022-12-06 | Audioshake, Inc. | Deep learning segmentation of audio using magnitude spectrogram |
KR20210017252A (ko) * | 2019-08-07 | 2021-02-17 | 삼성전자주식회사 | 다채널 오디오 신호 처리 방법 및 전자 장치 |
CN110379412B (zh) * | 2019-09-05 | 2022-06-17 | 腾讯科技(深圳)有限公司 | 语音处理的方法、装置、电子设备及计算机可读存储介质 |
US11341988B1 (en) * | 2019-09-23 | 2022-05-24 | Apple Inc. | Hybrid learning-based and statistical processing techniques for voice activity detection |
US11587575B2 (en) * | 2019-10-11 | 2023-02-21 | Plantronics, Inc. | Hybrid noise suppression |
KR102680097B1 (ko) * | 2019-11-01 | 2024-07-02 | 삼성전자주식회사 | 전자 장치 및 그 동작 방법 |
CN113053400B (zh) * | 2019-12-27 | 2024-06-07 | 武汉Tcl集团工业研究院有限公司 | 音频信号降噪模型的训练方法、音频信号降噪方法及设备 |
CN111144347B (zh) * | 2019-12-30 | 2023-06-27 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置、平台及存储介质 |
CN111179957B (zh) * | 2020-01-07 | 2023-05-12 | 腾讯科技(深圳)有限公司 | 一种语音通话的处理方法以及相关装置 |
CN111210802A (zh) * | 2020-01-08 | 2020-05-29 | 厦门亿联网络技术股份有限公司 | 一种生成混响语音数据的方法和系统 |
CN113223545A (zh) * | 2020-02-05 | 2021-08-06 | 字节跳动有限公司 | 一种语音降噪方法、装置、终端及存储介质 |
US20200184987A1 (en) * | 2020-02-10 | 2020-06-11 | Intel Corporation | Noise reduction using specific disturbance models |
CN111276125B (zh) * | 2020-02-11 | 2023-04-07 | 华南师范大学 | 一种面向边缘计算的轻量级语音关键词识别方法 |
EP3866165B1 (en) * | 2020-02-14 | 2022-08-17 | System One Noc & Development Solutions, S.A. | Method for enhancing telephone speech signals based on convolutional neural networks |
US11678120B2 (en) | 2020-05-14 | 2023-06-13 | Nvidia Corporation | Audio noise determination using one or more neural networks |
CN113763976B (zh) * | 2020-06-05 | 2023-12-22 | 北京有竹居网络技术有限公司 | 音频信号的降噪方法、装置、可读介质和电子设备 |
US11854564B1 (en) * | 2020-06-16 | 2023-12-26 | Amazon Technologies, Inc. | Autonomously motile device with noise suppression |
CN111863007A (zh) * | 2020-06-17 | 2020-10-30 | 国家计算机网络与信息安全管理中心 | 一种基于深度学习的语音增强方法及系统 |
US11580425B2 (en) | 2020-06-30 | 2023-02-14 | Microsoft Technology Licensing, Llc | Managing defects in a model training pipeline using synthetic data sets associated with defect types |
TWI747392B (zh) * | 2020-07-22 | 2021-11-21 | 國立雲林科技大學 | 嬰兒哭聲辨識修正方法及其系統 |
US12014748B1 (en) * | 2020-08-07 | 2024-06-18 | Amazon Technologies, Inc. | Speech enhancement machine learning model for estimation of reverberation in a multi-task learning framework |
CN112002343B (zh) * | 2020-08-18 | 2024-01-23 | 海尔优家智能科技(北京)有限公司 | 语音纯度的识别方法、装置、存储介质及电子装置 |
US11521637B1 (en) * | 2020-08-19 | 2022-12-06 | Amazon Technologies, Inc. | Ratio mask post-filtering for audio enhancement |
US12062369B2 (en) * | 2020-09-25 | 2024-08-13 | Intel Corporation | Real-time dynamic noise reduction using convolutional networks |
CN112420073B (zh) * | 2020-10-12 | 2024-04-16 | 北京百度网讯科技有限公司 | 语音信号处理方法、装置、电子设备和存储介质 |
KR102492212B1 (ko) | 2020-10-19 | 2023-01-27 | 주식회사 딥히어링 | 음성 데이터의 품질 향상 방법, 및 이를 이용하는 장치 |
CN112382265B (zh) * | 2020-10-21 | 2024-05-28 | 西安交通大学 | 基于深度循环神经网络的主动降噪方法、存储介质及系统 |
TWI755901B (zh) * | 2020-10-21 | 2022-02-21 | 美商音美得股份有限公司 | 包括移頻功能之即時音訊處理系統以及包括移頻功能之即時音訊處理程序 |
CN112466318B (zh) * | 2020-10-27 | 2024-01-19 | 北京百度网讯科技有限公司 | 语音处理方法、装置及语音处理模型的生成方法、装置 |
CN112700786B (zh) * | 2020-12-29 | 2024-03-12 | 西安讯飞超脑信息科技有限公司 | 语音增强方法、装置、电子设备和存储介质 |
CN112885375A (zh) * | 2021-01-08 | 2021-06-01 | 天津大学 | 基于听觉滤波器组和卷积神经网络的全局信噪比估计方法 |
TWI768676B (zh) * | 2021-01-25 | 2022-06-21 | 瑞昱半導體股份有限公司 | 音頻處理方法及音頻處理裝置以及非暫態計算機可讀取媒體 |
US20220254369A1 (en) * | 2021-02-10 | 2022-08-11 | Samsung Electronics Co., Ltd. | Electronic device supporting improved voice activity detection |
US11538461B1 (en) | 2021-03-18 | 2022-12-27 | Amazon Technologies, Inc. | Language agnostic missing subtitle detection |
CN113077812B (zh) * | 2021-03-19 | 2024-07-23 | 北京声智科技有限公司 | 语音信号生成模型训练方法、回声消除方法和装置及设备 |
CN113744754B (zh) * | 2021-03-23 | 2024-04-05 | 京东科技控股股份有限公司 | 语音信号的增强处理方法和装置 |
CN113241083B (zh) * | 2021-04-26 | 2022-04-22 | 华南理工大学 | 一种基于多目标异质网络的集成语音增强系统 |
CN113470618A (zh) * | 2021-06-08 | 2021-10-01 | 阿波罗智联(北京)科技有限公司 | 唤醒测试的方法、装置、电子设备和可读存储介质 |
CN113593591B (zh) * | 2021-07-27 | 2024-06-11 | 北京小米移动软件有限公司 | 语料降噪方法及装置、电子设备和存储介质 |
CN113591866B (zh) * | 2021-07-29 | 2023-07-07 | 云南大学 | 基于db与crnn的特种作业证件检测方法及系统 |
WO2023086311A1 (en) * | 2021-11-09 | 2023-05-19 | Dolby Laboratories Licensing Corporation | Control of speech preservation in speech enhancement |
CN113823309B (zh) * | 2021-11-22 | 2022-02-08 | 成都启英泰伦科技有限公司 | 一种降噪模型构建和降噪处理方法 |
CN114283830A (zh) * | 2021-12-17 | 2022-04-05 | 南京工程学院 | 基于深度学习网络的麦克风信号回声消除模型构建方法 |
CN114267368B (zh) * | 2021-12-22 | 2024-07-26 | 北京百度网讯科技有限公司 | 音频降噪模型的训练方法、音频降噪方法及装置 |
US20230237989A1 (en) * | 2022-01-21 | 2023-07-27 | International Business Machines Corporation | External language model information integrated into neural transducer model |
US11924367B1 (en) * | 2022-02-09 | 2024-03-05 | Amazon Technologies, Inc. | Joint noise and echo suppression for two-way audio communication enhancement |
US20230386492A1 (en) * | 2022-05-24 | 2023-11-30 | Agora Lab, Inc. | System and method for suppressing noise from audio signal |
EP4300491A1 (en) * | 2022-07-01 | 2024-01-03 | GN Audio A/S | A method for transforming audio input data into audio output data and a hearing device thereof |
CN115359771B (zh) * | 2022-07-22 | 2023-07-07 | 中国人民解放军国防科技大学 | 一种水声信号降噪方法、系统、设备及存储介质 |
CN117746874A (zh) * | 2022-09-13 | 2024-03-22 | 腾讯科技(北京)有限公司 | 一种音频数据处理方法、装置以及可读存储介质 |
CN115622626B (zh) * | 2022-12-20 | 2023-03-21 | 山东省科学院激光研究所 | 一种分布式声波传感语音信息识别系统及方法 |
CN115810364B (zh) * | 2023-02-07 | 2023-04-28 | 海纳科德(湖北)科技有限公司 | 混音环境中的端到端目标声信号提取方法及系统 |
CN116778970B (zh) * | 2023-08-25 | 2023-11-24 | 长春市鸣玺科技有限公司 | 强噪声环境下的语音检测模型训练方法 |
CN117727332B (zh) * | 2024-02-18 | 2024-04-26 | 百鸟数据科技(北京)有限责任公司 | 基于语谱特征分析的生态种群评估方法 |
CN118212931A (zh) * | 2024-03-15 | 2024-06-18 | 青岛润恒益科技有限公司 | 一种音频降噪模型的智能训练方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6446038B1 (en) * | 1996-04-01 | 2002-09-03 | Qwest Communications International, Inc. | Method and system for objectively evaluating speech |
CN102947878A (zh) * | 2010-06-01 | 2013-02-27 | 高通股份有限公司 | 用于音频均衡的系统、方法、装置、设备和计算机程序产品 |
US20160189730A1 (en) * | 2014-12-30 | 2016-06-30 | Iflytek Co., Ltd. | Speech separation method and system |
CN107408384A (zh) * | 2015-11-25 | 2017-11-28 | 百度(美国)有限责任公司 | 部署的端对端语音识别 |
CN107785029A (zh) * | 2017-10-23 | 2018-03-09 | 科大讯飞股份有限公司 | 目标语音检测方法及装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9349383B2 (en) * | 2013-01-29 | 2016-05-24 | 2236008 Ontario Inc. | Audio bandwidth dependent noise suppression |
WO2016040885A1 (en) | 2014-09-12 | 2016-03-17 | Audience, Inc. | Systems and methods for restoration of speech components |
US10090001B2 (en) | 2016-08-01 | 2018-10-02 | Apple Inc. | System and method for performing speech enhancement using a neural network-based combined symbol |
WO2019079713A1 (en) * | 2017-10-19 | 2019-04-25 | Bose Corporation | NOISE REDUCTION USING AUTOMATIC LEARNING |
US10812915B2 (en) * | 2017-10-27 | 2020-10-20 | Starkey Laboratories, Inc. | Electronic device using a compound metric for sound enhancement |
CN107845389B (zh) | 2017-12-21 | 2020-07-17 | 北京工业大学 | 一种基于多分辨率听觉倒谱系数和深度卷积神经网络的语音增强方法 |
US10283140B1 (en) * | 2018-01-12 | 2019-05-07 | Alibaba Group Holding Limited | Enhancing audio signals using sub-band deep neural networks |
-
2018
- 2018-04-13 US US15/952,353 patent/US10672414B2/en active Active
-
2019
- 2019-04-01 CN CN201980025444.1A patent/CN111971743B/zh active Active
- 2019-04-01 WO PCT/US2019/025089 patent/WO2019199501A1/en active Application Filing
- 2019-04-01 EP EP19717661.3A patent/EP3776534B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6446038B1 (en) * | 1996-04-01 | 2002-09-03 | Qwest Communications International, Inc. | Method and system for objectively evaluating speech |
CN102947878A (zh) * | 2010-06-01 | 2013-02-27 | 高通股份有限公司 | 用于音频均衡的系统、方法、装置、设备和计算机程序产品 |
US20160189730A1 (en) * | 2014-12-30 | 2016-06-30 | Iflytek Co., Ltd. | Speech separation method and system |
CN107408384A (zh) * | 2015-11-25 | 2017-11-28 | 百度(美国)有限责任公司 | 部署的端对端语音识别 |
CN107785029A (zh) * | 2017-10-23 | 2018-03-09 | 科大讯飞股份有限公司 | 目标语音检测方法及装置 |
Non-Patent Citations (1)
Title |
---|
张龙: "有监督学习条件下的单通道语音增强算法研究", 中国博士学位论文全文数据库 信息科技辑, no. 09, pages 63 - 65 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112713966A (zh) * | 2020-12-30 | 2021-04-27 | 大连大学 | 基于似然估计修正信噪比的编码调制切换方法 |
CN112713966B (zh) * | 2020-12-30 | 2023-07-25 | 大连大学 | 基于似然估计修正信噪比的编码调制切换方法 |
CN113286047A (zh) * | 2021-04-22 | 2021-08-20 | 维沃移动通信(杭州)有限公司 | 语音信号处理方法、装置及电子设备 |
CN113286047B (zh) * | 2021-04-22 | 2023-02-21 | 维沃移动通信(杭州)有限公司 | 语音信号处理方法、装置及电子设备 |
CN114283829A (zh) * | 2021-12-13 | 2022-04-05 | 电子科技大学 | 一种基于动态门控卷积循环网络的语音增强方法 |
CN114283829B (zh) * | 2021-12-13 | 2023-06-16 | 电子科技大学 | 一种基于动态门控卷积循环网络的语音增强方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3776534A1 (en) | 2021-02-17 |
US20190318755A1 (en) | 2019-10-17 |
EP3776534B1 (en) | 2023-04-19 |
WO2019199501A1 (en) | 2019-10-17 |
CN111971743B (zh) | 2024-03-19 |
US10672414B2 (en) | 2020-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111971743B (zh) | 用于改进的实时音频处理的系统、方法和计算机可读介质 | |
CN109841226B (zh) | 一种基于卷积递归神经网络的单通道实时降噪方法 | |
Kim et al. | T-gsa: Transformer with gaussian-weighted self-attention for speech enhancement | |
Wang et al. | LSTM-convolutional-BLSTM encoder-decoder network for minimum mean-square error approach to speech enhancement | |
Mundodu Krishna et al. | Single channel speech separation based on empirical mode decomposition and Hilbert transform | |
CN112949708A (zh) | 情绪识别方法、装置、计算机设备和存储介质 | |
Osako et al. | Complex recurrent neural networks for denoising speech signals | |
CN112309411A (zh) | 相位敏感的门控多尺度空洞卷积网络语音增强方法与系统 | |
CN114974280A (zh) | 音频降噪模型的训练方法、音频降噪的方法及装置 | |
Wang et al. | Denoising speech based on deep learning and wavelet decomposition | |
Li et al. | Deep neural network‐based linear predictive parameter estimations for speech enhancement | |
Jannu et al. | Multi-stage progressive learning-based speech enhancement using time–frequency attentive squeezed temporal convolutional networks | |
Kantamaneni et al. | Speech enhancement with noise estimation and filtration using deep learning models | |
US11593633B2 (en) | Systems, methods, and computer-readable media for improved real-time audio processing | |
Yechuri et al. | A nested U-net with efficient channel attention and D3Net for speech enhancement | |
Diaz‐Ramirez et al. | Robust speech processing using local adaptive non‐linear filtering | |
Wan et al. | Variational bayesian learning for removal of sparse impulsive noise from speech signals | |
Fouladi et al. | Denoising based on multivariate stochastic volatility modeling of multiwavelet coefficients | |
Kim et al. | Voice activity detection based on multi-dilated convolutional neural network | |
Peng et al. | Application of deep neural network algorithm in speech enhancement of online English learning platform | |
Tanwar et al. | Hard component detection of transient noise and its removal using empirical mode decomposition and wavelet‐based predictive filter | |
Xiang et al. | A speech enhancement algorithm based on a non-negative hidden Markov model and Kullback-Leibler divergence | |
Lan et al. | Research on Speech Enhancement Algorithm by Fusing Improved EMD and GCRN Networks | |
Yechuri et al. | Single channel speech enhancement using iterative constrained NMF based adaptive wiener gain | |
Deng et al. | Voice activity detection based on conjugate subspace matching pursuit and likelihood ratio test |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |