CN113192528B - 单通道增强语音的处理方法、装置及可读存储介质 - Google Patents
单通道增强语音的处理方法、装置及可读存储介质 Download PDFInfo
- Publication number
- CN113192528B CN113192528B CN202110470353.8A CN202110470353A CN113192528B CN 113192528 B CN113192528 B CN 113192528B CN 202110470353 A CN202110470353 A CN 202110470353A CN 113192528 B CN113192528 B CN 113192528B
- Authority
- CN
- China
- Prior art keywords
- voice signal
- signal
- speech signal
- estimated
- short
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 11
- 238000012549 training Methods 0.000 claims abstract description 73
- 238000009432 framing Methods 0.000 claims abstract description 49
- 238000012545 processing Methods 0.000 claims abstract description 47
- 238000000034 method Methods 0.000 claims abstract description 35
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 12
- 238000013528 artificial neural network Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 38
- 230000000873 masking effect Effects 0.000 claims description 12
- 238000004891 communication Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 8
- 230000009467 reduction Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 239000000047 product Substances 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Quality & Reliability (AREA)
- Circuit For Audible Band Transducer (AREA)
- Complex Calculations (AREA)
Abstract
本发明提供一种单通道增强语音的处理方法,适用于语音增强技术领域,改方法包括:获取带有噪声的语音信号,并对所述带有噪声的语音信号进行分帧处理;根据短时离散余弦变换STDCT对分帧后的带有噪声的语音信号进行提取,得到第一特征;输入所述第一特征至训练模型中以得到目标模型,所述训练模型包括卷积神经网络CNN、长短时记忆网络LSTM和深度神经网络DNN;获取待处理语音信号,并对所述待处理语音信号进行分帧处理;根据短时离散余弦变换STDCT对分帧后的待处理语音信号进行提取,得到第二特征;输入所述第二特征至所述目标模型中以得到增强后的目标语音信号。通过上述方法能够降低噪音,得到增强后的目标语音信号。
Description
【技术领域】
本发明涉及计算机技术领域,尤其涉及一种单通道增强语音的处理方法、装置及可读存储介质。
【背景技术】
单通道语音增强是前端信号处理的重要技术之一。其作用是在嘈杂的环境下能对噪声有效抑制,同时最大程度的恢复语音信号,让人或机器能够听到最干净的语音,这对于语音交互非常重要。
传统的单通道降噪技术处理平稳噪声的性能较好,但处理类似于敲击的冲击类噪声却是无能为力,且在低信噪比环境下的性能急剧下降。并且,现有的模型中计算量延时过大,并不能够应用于低功耗设备中。
因此,如何在低信噪比环境下得到增强语音信号,是本领域的技术难点之一。
【发明内容】
有鉴于此,本发明实施例提供了一种单通道增强语音的处理方法、装置及可读存储介质,用于准确确定目标的类型。
本发明一方面提供一种单通道增强语音的处理方法,所述单通道增强语音的处理方法包括:
获取带有噪声的语音信号,并对所述带有噪声的语音信号进行分帧处理;
根据短时离散余弦变换STDCT对分帧后的带有噪声的语音信号进行提取,得到第一特征;
输入所述第一特征至训练模型中以得到目标模型,所述训练模型包括卷积神经网络CNN、长短时记忆网络LSTM和深度神经网络DNN;
获取待处理语音信号,并对所述待处理语音信号进行分帧处理;
根据短时离散余弦变换STDCT对分帧后的待处理语音信号进行提取,得到第二特征;
输入所述第二特征至所述目标模型中以得到增强后的目标语音信号。
可选的,根据短时离散余弦变换STDCT对分帧后的带有噪声的语音信号进行提取,得到第一特征,包括:
其中,F(μ)表示所述短时离散余弦变换STDCT;f(x)表示所述带有噪声的语音信号的时域向量,N表示所述带有噪声的语音信号的时域向量的长度;并且,
c(μ)表示所述短时离散余弦变换STDCT的参数。
可选的,所述输入所述第一特征至训练模型中以得到目标模型,包括:
将所述第一特征作为输入信号输入至所述训练模型中以得到第一估计掩蔽值;
根据所述第一特征和所述第一估计掩蔽值计算得到第一估计纯净语音信号;
根据所述第一估计纯净语音信号训练所述训练模型以得到所述目标模型。
可选的,所述根据所述第一估计纯净语音信号训练所述训练模型以得到所述目标模型,包括:
根据干净语音信号和所述第一估计纯净语音信号计算所述训练模型的损失函数;
根据所述损失函数,调整所述训练模型参数以得到目标模型。
可选的,所述根据干净语音信号和所述第一估计纯净语音信号计算所述训练模型的损失函数,包括:
对所述第一估计纯净语音信号进行逆短时离散余弦变换ISTDCT得到时域上的第一估计纯净语音信号;
根据所述时域上的第一估计纯净语音信号和所述干净语音信号计算所述损失函数。
可选的,所述根据所述时域上的第一估计纯净语音信号和所述干净语音信号计算所述损失函数,包括:
可选的,所述根据所述损失函数,调整所述训练模型参数以得到目标模型,包括:
当所述损失函数收敛后,确定所述训练模型的参数;
根据确定参数后的训练模型得到所述目标模型。
可选的,所述对所述第一估计纯净语音信号进行逆短时离散余弦变换ISTDCT得到时域上的第一估计纯净语音信号,包括:
其中,F(μ)表示所述短时离散余弦变换STDCT;f(x)表示所述带有噪声的语音信号的时域向量,N表示所述带有噪声的语音信号的时域向量的长度;并且,
c(μ)表示所述短时离散余弦变换STDCT的参数。
可选的,所述输入所述第二特征至所述目标模型中以得到增强后的目标语音信号,包括:
将所述第二特征作为输入信号输入至所述目标模型中以得到第二估计掩蔽值;
根据所述第二特征和所述第二估计掩蔽值计算得到第二估计纯净语音信号;
对所述第二估计纯净语音信号进行反向短时离散余弦变换ISTDCT得到时域上的第二估计纯净语音信号,所述第二估计纯净语音信号为所述目标语音信号。
可选的,所述带有噪声的语音信号包括环境噪声信号和干净语音信号。
本发明第二方面提供一种单通道增强语音的处理装置,所述单通道增强语音的处理装置,包括:
获取模块,用于获取带有噪声的语音信号,并对所述带有噪声的语音信号进行分帧处理;
提取模块,用于根据短时离散余弦变换STDCT对分帧后的带有噪声的语音信号进行提取,得到第一特征;
输入模块,用于输入所述第一特征至训练模型中以得到目标模型;
所述获取模块还用于获取待处理语音信号,并对所述待处理语音信号进行分帧处理;
所述提取模块还用于根据短时离散余弦变换STDCT对分帧后的待处理语音信号进行提取,得到第二特征;
所述输入模块还用于输入所述第二特征至所述目标模型中以得到增强后的目标语音信号。
本发明第三方面提供一种单通道增强语音的处理装置,所述单通道增强语音的处理装置包括处理器、存储器、通信接口以及一个或多个程序,其中,所述一个或多个程序被存储在所述存储器中,并且被配置由所述处理器执行,所述程序包括用于执行上述第一方面中任一步骤的指令。
本发明第四方面提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行以实现第一方面任一步骤的方法。
上述技术方案中的任一技术方案具有如下有益效果:
本发明实施例中,获取带有噪声的语音信号,并对所述带有噪声的语音信号进行分帧处理;根据短时离散余弦变换STDCT对分帧后的带有噪声的语音信号进行提取,得到第一特征;并且输入所述第一特征至训练模型中以得到目标模型,目标模型可以理解为进过训练后,参数最优的模型。本实施例中由于使用短时离散余弦变换STDCT来提取第一特征,其能够有效地处理冲击类噪声,在低信噪比下的性能也能达到比较令人满意的程度。进一步的,获取待处理语音信号,并对所述待处理语音信号进行分帧处理;根据短时离散余弦变换STDCT对分帧后的待处理语音信号进行提取,得到第二特征,输入所述第二特征至所述目标模型中以得到增强后的目标语音信号。待处理语音信号可以理解为需要进行语音增强处理的语音信号,将第二特征输入进目标模型后,输出的即为训练后的增强的目标语音信号。
【附图说明】
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例所提供的一种单通道增强语音的处理方法的示意图;
图2为本发明实施例所提供一种单通道增强语音的处理方法的一种流程示意图;
图3为本发明实施例所提供一种单通道增强语音的处理方法的另一种流程示意图。
【具体实施方式】
为了更好的理解本发明的技术方案,下面结合附图对本发明实施例进行详细描述。
应当明确,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
需要注意的是,本发明实施例所描述的“上”、“下”、“左”、“右”等方位词是以附图所示的角度来进行描述的,不应理解为对本发明实施例的限定。此外在上下文中,还需要理解的是,当提到一个元件被形成在另一个元件“上”或“下”时,其不仅能够直接形成在另一个元件“上”或者“下”,也可以通过中间元件间接形成在另一元件“上”或者“下”。
本发明提供一种单通道增强语音的处理方法,如同1和2所示,图1为本发明实施例所提供的一种单通道增强语音的处理方法的示意图,图2为本发明实施例所提供一种单通道增强语音的处理方法的一种流程示意图,所述单通道增强语音的处理方法包括:
S11、获取带有噪声的语音信号,并对所述带有噪声的语音信号进行分帧处理;
S12、根据短时离散余弦变换STDCT对分帧后的带有噪声的语音信号进行提取,得到第一特征;
S13、输入所述第一特征至训练模型中以得到目标模型,所述训练模型包括卷积神经网络CNN、长短时记忆网络LSTM和深度神经网络DNN;
S14、获取待处理语音信号,并对所述待处理语音信号进行分帧处理;
S15、根据短时离散余弦变换STDCT对分帧后的待处理语音信号进行提取,得到第二特征;
S16、输入所述第二特征至所述目标模型中以得到增强后的目标语音信号。
需要说明的是,本实施例中,带有噪声的语音信号,可以理解为训练数据,也就是说,将原始的特定词数据和多种类型的噪声以不同的信噪比混合,进而将干净语音数据和噪声以不同的信噪比混合,将混合后的语音数据作为训练数据,训练数据对目标模型进行训练。
另外,还需要补充的是,为了验证目标模型的降噪效果,还需要对训练好的目标模型进行验证,因此可通过如上制备带有噪声的语音信号的方法生产验证集,但训练集和验证集的噪声类型、信噪比、说话人均不同,可使用验证集对目标模型监督但不参与误差回传,以保证目标模型参数的准确性。
如图1所示,对本发明的训练模型进行说明,麦克风录制的语音是时间相关的离散点,且语音是时变的,但在短时间内(10-30ms)可视为平稳的,所以可对语音进行分帧,进一步的,为了防止频谱泄漏,在分帧后的每帧语音上进行加窗。本实施例中使用短时离散余弦变换STDCT对分帧后的带有噪声的语音信号进行加窗,将有噪声的语音信号从一个低维空间变换为高维空间,便于提取第一特征。接着,输入第一特征至卷积神经网络CNN,进一步对第一特征进行抽象并对第一特征进行降维和降噪处理。降维和降噪后的第一特征输入至长短时记忆网络LSTM中,由于语音与时间是依赖关系,本实施例使用长短时记忆网络LSTM能够根据特征信息自动学习所看时间的长短,自动关联相邻帧信息,与时间依赖关系更加紧密。再者长短时记忆网络LSTM输出的特征输入至深度神经网络DNN进行维度变换,以便输出降噪后、增强的语音信号。最后经过逆短时离散余弦变换STDCT得到最终增强后的语音信号。
在本发明实施例中,获取带有噪声的语音信号,并对所述带有噪声的语音信号进行分帧处理;根据短时离散余弦变换STDCT对分帧后的带有噪声的语音信号进行提取,得到第一特征;并且输入所述第一特征至训练模型中以得到目标模型,目标模型可以理解为进过训练后,参数最优的模型。本实施例中由于使用短时离散余弦变换STDCT来提取第一特征,其能够有效地处理冲击类噪声,在低信噪比下的性能也能达到比较令人满意的程度。进一步的,获取待处理语音信号,并对所述待处理语音信号进行分帧处理;根据短时离散余弦变换STDCT对分帧后的待处理语音信号进行提取,得到第二特征,输入所述第二特征至所述目标模型中以得到增强后的目标语音信号。待处理语音信号可以理解为需要进行语音增强处理的语音信号,将第二特征输入进目标模型后,输出的即为训练后的增强的目标语音信号。
可选的,根据短时离散余弦变换STDCT对分帧后的带有噪声的语音信号进行提取,得到第一特征,包括:
其中,F(μ)表示所述短时离散余弦变换STDCT;f(x)表示所述带有噪声的语音信号的时域向量,N表示所述带有噪声的语音信号的时域向量的长度;并且,
c(μ)表示所述短时离散余弦变换STDCT的参数。
本实施例中需要解释的是,短时离散余弦变换STDCT(Short-Time DiscreteCosine Transform,以下简称STDCT),是把时域信号转换到酉空间,且变换过程中不会有信息丢失,变换后的信号比原始信号具有更好的区分性,更容易深度学习,进一步的,由于深度学习效果好,因此其最终的降噪效果也好。而通常的降噪模型采用的是短时傅里叶变换(Short-Time Fourier transform,以下简称STFT),STFT的数据是复数(包含实部和虚部),但是模型能够识别并深度学习实数,因此,输入条件变为只能将实数输入到模型中以深度学习带有噪音的语音信号和干净语音信号之间的映射关系。为了满足上述输入条件,就需要人工设计网络结构来整合实部和虚部信息,而模型性能的优劣也取决于人工设计的好坏,虽然能够满足一定程度的降噪,但效果还取决于人工设计的干预,稳定性不佳。
本实施例中,STDCT变换的数据是实数,这就避免了人工整合实部和虚部的问题,和复数训练模型相比,本实施中只包含实数训练,因此可大大降低模型的复杂度,便于深度学习,进而更容易得到更好的降噪性能。
还需要理解的是,本实施例基于深度学习的降噪弥补了传统方法的不足,能够有效处理冲击类噪声,在低信噪比下的性能也比较令人满意。并且,由于采用STDCT进行第一特征提取,其计算量显著降低,有效的降低了计算量,进而降低了功耗,并且也可提升了设备的使用寿命。
并且,相对于传统的encoder-decoder增强语音模型中一般有7层转置CNN,甚至更多层,计算量会很大,并且decoder有天然延时。本实施例的训练模型中使用DNN,其计算量相对较小,同时避免了网络的延时问题。
可选的,如图3所示,其为本发明实施例所提供一种单通道增强语音的处理方法的另一种流程示意图,所述输入所述第一特征至训练模型中以得到目标模型,包括:
S131、将所述第一特征作为输入信号输入至所述训练模型中以得到第一估计掩蔽值;
S132、根据所述第一特征和所述第一估计掩蔽值计算得到第一估计纯净语音信号;
S133、根据所述第一估计纯净语音信号训练所述训练模型以得到所述目标模型。
进一步的,所述根据所述第一估计纯净语音信号训练所述训练模型以得到所述目标模型,包括:
根据干净语音信号和所述第一估计纯净语音信号计算所述训练模型的损失函数;
根据所述损失函数,调整所述训练模型参数以得到目标模型。
跟进一步的,所述根据干净语音信号和所述第一估计纯净语音信号计算所述训练模型的损失函数,包括:
对所述第一估计纯净语音信号进行逆短时离散余弦变换ISTDCT得到时域上的第一估计纯净语音信号;
根据所述时域上的第一估计纯净语音信号和所述干净语音信号计算所述损失函数。
依然跟进一步的,所述根据所述时域上的第一估计纯净语音信号和所述干净语音信号计算所述损失函数,包括:
可选的,所述根据所述损失函数,调整所述训练模型参数以得到目标模型,包括:
当所述损失函数收敛后,确定所述训练模型的参数;
根据确定参数后的训练模型得到所述目标模型。
可以理解的是,本实施例中的目标模型可理解为参数优化后的训练模型,因此目标模型也可由CNN,LSTM和DNN组成。
可选的,所述对所述第一估计纯净语音信号进行逆短时离散余弦变换ISTDCT得到时域上的第一估计纯净语音信号,包括:
其中,F(μ)表示所述短时离散余弦变换STDCT;f(x)表示所述带有噪声的语音信号的时域向量,N表示所述带有噪声的语音信号的时域向量的长度;并且,
c(μ)表示所述短时离散余弦变换STDCT的参数。
可选的,所述输入所述第二特征至所述目标模型中以得到增强后的目标语音信号,包括:
将所述第二特征作为输入信号输入至所述目标模型中以得到第二估计掩蔽值;
根据所述第二特征和所述第二估计掩蔽值计算得到第二估计纯净语音信号;
对所述第二估计纯净语音信号进行反向短时离散余弦变换ISTDCT得到时域上的第二估计纯净语音信号,所述第二估计纯净语音信号为所述目标语音信号。
可选的,所述带有噪声的语音信号包括环境噪声信号和干净语音信号。
在另一种实施方式中,本实施提供一种单通道增强语音的处理装置,所述单通道增强语音的处理装置,包括:
获取模块,用于获取带有噪声的语音信号,并对所述带有噪声的语音信号进行分帧处理;
提取模块,用于根据短时离散余弦变换STDCT对分帧后的带有噪声的语音信号进行提取,得到第一特征;
输入模块,用于输入所述第一特征至训练模型中以得到目标模型;
所述获取模块还用于获取待处理语音信号,并对所述待处理语音信号进行分帧处理;
所述提取模块还用于根据短时离散余弦变换STDCT对分帧后的待处理语音信号进行提取,得到第二特征;
所述输入模块还用于输入所述第二特征至所述目标模型中以得到增强后的目标语音信号。
在本发明实施例中,由于本实施的装置可实现上述方法的任一步骤,因此其包含上述方法的全部有益效果:获取带有噪声的语音信号,并对所述带有噪声的语音信号进行分帧处理;根据短时离散余弦变换STDCT对分帧后的带有噪声的语音信号进行提取,得到第一特征;并且输入所述第一特征至训练模型中以得到目标模型,目标模型可以理解为进过训练后,参数最优的模型。本实施例中由于使用短时离散余弦变换STDCT来提取第一特征,其能够有效地处理冲击类噪声,在低信噪比下的性能也能达到比较令人满意的程度。进一步的,获取待处理语音信号,并对所述待处理语音信号进行分帧处理;根据短时离散余弦变换STDCT对分帧后的待处理语音信号进行提取,得到第二特征,输入所述第二特征至所述目标模型中以得到增强后的目标语音信号。待处理语音信号可以理解为需要进行语音增强处理的语音信号,将第二特征输入进目标模型后,输出的即为训练后的增强的目标语音信号。
再另一实施方式中,本发明提供一种单通道增强语音的处理装置,所述单通道增强语音的处理装置包括处理器、存储器、通信接口以及一个或多个程序,其中,所述一个或多个程序被存储在所述存储器中,并且被配置由所述处理器执行,所述程序包括用于执行上述第一方面中任一步骤的指令。
在本发明实施例中,由于本实施的装置可实现上述方法的任一步骤的指令,因此其包含上述方法的全部有益效果:获取带有噪声的语音信号,并对所述带有噪声的语音信号进行分帧处理;根据短时离散余弦变换STDCT对分帧后的带有噪声的语音信号进行提取,得到第一特征;并且输入所述第一特征至训练模型中以得到目标模型,目标模型可以理解为进过训练后,参数最优的模型。本实施例中由于使用短时离散余弦变换STDCT来提取第一特征,其能够有效地处理冲击类噪声,在低信噪比下的性能也能达到比较令人满意的程度。进一步的,获取待处理语音信号,并对所述待处理语音信号进行分帧处理;根据短时离散余弦变换STDCT对分帧后的待处理语音信号进行提取,得到第二特征,输入所述第二特征至所述目标模型中以得到增强后的目标语音信号。待处理语音信号可以理解为需要进行语音增强处理的语音信号,将第二特征输入进目标模型后,输出的即为训练后的增强的目标语音信号。
再另一种实施方式中,本发明提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行以实现第一方面任一步骤的方法。
在本发明实施例中,由于本实施的计算机可读存储介质可实现上述方法的任一步骤,因此其包含上述方法的全部有益效果:获取带有噪声的语音信号,并对所述带有噪声的语音信号进行分帧处理;根据短时离散余弦变换STDCT对分帧后的带有噪声的语音信号进行提取,得到第一特征;并且输入所述第一特征至训练模型中以得到目标模型,目标模型可以理解为进过训练后,参数最优的模型。本实施例中由于使用短时离散余弦变换STDCT来提取第一特征,其能够有效地处理冲击类噪声,在低信噪比下的性能也能达到比较令人满意的程度。进一步的,获取待处理语音信号,并对所述待处理语音信号进行分帧处理;根据短时离散余弦变换STDCT对分帧后的待处理语音信号进行提取,得到第二特征,输入所述第二特征至所述目标模型中以得到增强后的目标语音信号。待处理语音信号可以理解为需要进行语音增强处理的语音信号,将第二特征输入进目标模型后,输出的即为训练后的增强的目标语音信号。
本公开实施例中方法以及装置可在终端设备中实现,该终端可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。
电子设备可以包括处理装置(例如中央处理器、图形处理器等),其可以根据存储在只读存储器(ROM)中的程序或者从存储装置加载到随机访问存储器(RAM)中的程序而执行各种适当的动作和处理。在RAM中,还存储有电子设备600操作所需的各种程序和数据。处理装置、ROM以及RAM通过总线604彼此相连。输入/输出(I/O)接口也连接至总线。
通常,以下装置可以连接至I/O接口:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置;包括例如磁带、硬盘等的存储装置;以及通信装置。通信装置可以允许电子设备与其他设备进行无线或有线通信以交换数据。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置从网络上被下载和安装,或者从存储装置被安装,或者从ROM被安装。在该计算机程序被处理装置执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(Hyper Text TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,adhoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定,例如,第一获取模块还可以被描述为“用于获取待处理的耳语数据的模块”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计
算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件程序模块的形式实现。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (10)
1.一种单通道增强语音的处理方法,其特征在于,所述单通道增强语音的处理方法包括:
获取带有噪声的语音信号,并对所述带有噪声的语音信号进行分帧处理;
根据短时离散余弦变换STDCT对分帧后的带有噪声的语音信号进行提取,得到第一特征;
输入所述第一特征至训练模型中以得到目标模型,所述训练模型包括卷积神经网络CNN、长短时记忆网络LSTM和深度神经网络DNN;
获取待处理语音信号,并对所述待处理语音信号进行分帧处理;
根据短时离散余弦变换STDCT对分帧后的待处理语音信号进行提取,得到第二特征;
输入所述第二特征至所述目标模型中以得到增强后的目标语音信号;
其中,根据第一估计纯净语音信号训练所述训练模型以得到所述目标模型,包括:根据干净语音信号和所述第一估计纯净语音信号计算所述训练模型的损失函数;根据所述损失函数,调整所述训练模型参数以得到目标模型;
所述根据干净语音信号和所述第一估计纯净语音信号计算所述训练模型的损失函数,包括:对所述第一估计纯净语音信号进行逆短时离散余弦变换ISTDCT得到时域上的第一估计纯净语音信号;根据所述时域上的第一估计纯净语音信号和所述干净语音信号计算所述损失函数;
其中,所述根据所述时域上的第一估计纯净语音信号和所述干净语音信号计算所述损失函数,包括:
3.根据权利要求1所述的单通道增强语音的处理方法,其特征在于,所述输入所述第一特征至训练模型中以得到目标模型,包括:
将所述第一特征作为输入信号输入至所述训练模型中以得到第一估计掩蔽值;
根据所述第一特征和所述第一估计掩蔽值计算得到第一估计纯净语音信号;
根据所述第一估计纯净语音信号训练所述训练模型以得到所述目标模型。
4.根据权利要求1所述的单通道增强语音的处理方法,其特征在于,所述根据所述损失函数,调整所述训练模型参数以得到目标模型,包括:
当所述损失函数收敛后,确定所述训练模型的参数;
根据确定参数后的训练模型得到所述目标模型。
6.根据权利要求1所述的单通道增强语音的处理方法,其特征在于,所述输入所述第二特征至所述目标模型中以得到增强后的目标语音信号,包括:
将所述第二特征作为输入信号输入至所述目标模型中以得到第二估计掩蔽值;
根据所述第二特征和所述第二估计掩蔽值计算得到第二估计纯净语音信号;
对所述第二估计纯净语音信号进行反向短时离散余弦变换ISTDCT得到时域上的第二估计纯净语音信号,所述第二估计纯净语音信号为所述目标语音信号。
7.根据权利要求1所述的单通道增强语音的处理方法,其特征在于,所述带有噪声的语音信号包括环境噪声信号和干净语音信号。
8.一种单通道增强语音的处理装置,其特征在于,所述单通道增强语音的处理装置,包括:
获取模块,用于获取带有噪声的语音信号,并对所述带有噪声的语音信号进行分帧处理;
提取模块,用于根据短时离散余弦变换STDCT对分帧后的带有噪声的语音信号进行提取,得到第一特征;
输入模块,用于输入所述第一特征至训练模型中以得到目标模型;
所述获取模块还用于获取待处理语音信号,并对所述待处理语音信号进行分帧处理;
所述提取模块还用于根据短时离散余弦变换STDCT对分帧后的待处理语音信号进行提取,得到第二特征;
所述输入模块还用于输入所述第二特征至所述目标模型中以得到增强后的目标语音信号;
其中,单通道增强语音的处理装置还用于执行如下操作:
根据干净语音信号和第一估计纯净语音信号计算所述训练模型的损失函数;根据所述损失函数,调整所述训练模型参数以得到目标模型;
对所述第一估计纯净语音信号进行逆短时离散余弦变换ISTDCT得到时域上的第一估计纯净语音信号;根据所述时域上的第一估计纯净语音信号和所述干净语音信号计算所述损失函数;
其中,所述根据所述时域上的第一估计纯净语音信号和所述干净语音信号计算所述损失函数,包括:
9.一种单通道增强语音的处理装置,其特征在于,所述单通道增强语音的处理装置包括处理器、存储器、通信接口以及一个或多个程序,其中,所述一个或多个程序被存储在所述存储器中,并且被配置由所述处理器执行,所述程序包括用于执行权利要求1-7中任一步骤的指令。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行以实现权利要求1-7中任一项所述的单通道增强语音的处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110470353.8A CN113192528B (zh) | 2021-04-28 | 2021-04-28 | 单通道增强语音的处理方法、装置及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110470353.8A CN113192528B (zh) | 2021-04-28 | 2021-04-28 | 单通道增强语音的处理方法、装置及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113192528A CN113192528A (zh) | 2021-07-30 |
CN113192528B true CN113192528B (zh) | 2023-05-26 |
Family
ID=76980466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110470353.8A Active CN113192528B (zh) | 2021-04-28 | 2021-04-28 | 单通道增强语音的处理方法、装置及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113192528B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113689876A (zh) * | 2021-08-26 | 2021-11-23 | 北京拙成科技发展有限公司 | 车辆声音处理方法及系统 |
CN113707163B (zh) * | 2021-08-31 | 2024-05-14 | 北京达佳互联信息技术有限公司 | 语音处理方法及其装置和模型训练方法及其装置 |
CN113921026A (zh) * | 2021-11-18 | 2022-01-11 | 上海又为智能科技有限公司 | 语音增强方法和装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5574824A (en) * | 1994-04-11 | 1996-11-12 | The United States Of America As Represented By The Secretary Of The Air Force | Analysis/synthesis-based microphone array speech enhancer with variable signal distortion |
WO2007120452A1 (en) * | 2006-04-04 | 2007-10-25 | Dolby Laboratories Licensing Corporation | Audio signal loudness measurement and modification in the mdct domain |
CN103093761B (zh) * | 2011-11-01 | 2017-02-01 | 深圳市世纪光速信息技术有限公司 | 音频指纹检索方法及装置 |
JP6517760B2 (ja) * | 2016-08-18 | 2019-05-22 | 日本電信電話株式会社 | マスク推定用パラメータ推定装置、マスク推定用パラメータ推定方法およびマスク推定用パラメータ推定プログラム |
CN110164465B (zh) * | 2019-05-15 | 2021-06-29 | 上海大学 | 一种基于深层循环神经网络的语音增强方法及装置 |
-
2021
- 2021-04-28 CN CN202110470353.8A patent/CN113192528B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113192528A (zh) | 2021-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113192528B (zh) | 单通道增强语音的处理方法、装置及可读存储介质 | |
CN110600017B (zh) | 语音处理模型的训练方法、语音识别方法、系统及装置 | |
CN108615535B (zh) | 语音增强方法、装置、智能语音设备和计算机设备 | |
CN107068161B (zh) | 基于人工智能的语音降噪方法、装置和计算机设备 | |
CN112634928A (zh) | 声音信号处理方法、装置和电子设备 | |
CN112259116A (zh) | 一种音频数据的降噪方法、装置、电子设备及存储介质 | |
CN111326146A (zh) | 语音唤醒模板的获取方法、装置、电子设备及计算机可读存储介质 | |
CN111400463B (zh) | 对话响应方法、装置、设备和介质 | |
CN114495901A (zh) | 语音合成方法、装置、存储介质及电子设备 | |
CN113823313A (zh) | 语音处理方法、装置、设备以及存储介质 | |
CN113674752B (zh) | 音频信号的降噪方法、装置、可读介质和电子设备 | |
CN111276127B (zh) | 语音唤醒方法、装置、存储介质及电子设备 | |
CN112669870A (zh) | 语音增强模型的训练方法、装置和电子设备 | |
CN112242143B (zh) | 一种语音交互方法、装置、终端设备及存储介质 | |
CN116312559A (zh) | 跨信道声纹识别模型的训练方法、声纹识别方法及装置 | |
CN113178204B (zh) | 一种单通道降噪的低功耗方法、装置及存储介质 | |
US20230005490A1 (en) | Packet loss recovery method for audio data packet, electronic device and storage medium | |
CN112836476B (zh) | 一种纪要生成方法、装置、设备及介质 | |
CN111652002B (zh) | 文本划分方法、装置、设备和计算机可读介质 | |
Sui et al. | TRAMBA: A Hybrid Transformer and Mamba Architecture for Practical Audio and Bone Conduction Speech Super Resolution and Enhancement on Mobile and Wearable Platforms | |
CN114333017A (zh) | 一种动态拾音方法、装置、电子设备及存储介质 | |
CN112542157A (zh) | 语音处理方法、装置、电子设备及计算机可读存储介质 | |
CN113327611B (zh) | 语音唤醒方法、装置、存储介质及电子设备 | |
CN114299950B (zh) | 一种字幕生成方法、装置及设备 | |
CN117649846B (zh) | 语音识别模型生成方法、语音识别方法、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |