CN114171038B - 语音降噪方法、装置、设备及存储介质 - Google Patents
语音降噪方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN114171038B CN114171038B CN202111509740.4A CN202111509740A CN114171038B CN 114171038 B CN114171038 B CN 114171038B CN 202111509740 A CN202111509740 A CN 202111509740A CN 114171038 B CN114171038 B CN 114171038B
- Authority
- CN
- China
- Prior art keywords
- voice
- spectrum
- denoised
- local
- noise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Abstract
本公开提供了语音降噪方法、装置、设备、存储介质及程序产品,涉及计算机技术领域,尤其涉及语音技术领域。具体实现方案为:确定待降噪语音信号的待降噪语音频谱;对所述待降噪语音频谱进行特征提取,得到待降噪语音频谱的局部语音频谱特征;根据所述待降噪语音频谱的局部语音频谱特征,确定待降噪语音频谱的全局语音频谱特征;根据所述局部语音频谱特征和全局语音频谱特征,确定待降噪语音信号中原始语音信号的掩蔽矩阵,并根据所述待降噪语音频谱和所述掩蔽矩阵确定所述原始语音信号。本公开实施例可以提高语音降噪的性能。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及语音技术领域,具体涉及一种语音降噪方法、装置、设备、存储介质及程序产品。
背景技术
语音降噪是音频处理过程中的基础环节,可以去除音频信号中包含的噪声部分,避免噪声影响用户在语音通话或者人机语音交互过程中的使用体验。
在很多实际应用场景中,语音信息中包含的噪声类型很多,例如,机器工作时持续发出的规律性的噪声,突然出现的键盘声、关门声或者碰撞声等无规律的噪声,因此,如何保证在不同噪声场景下语音降噪方法的鲁棒性是研究人员重点关注的问题之一。
发明内容
本公开提供了一种语音降噪方法、装置、设备、存储介质及程序产品。
根据本公开的一方面,提供了一种语音降噪方法,包括:
确定待降噪语音信号的待降噪语音频谱;
对所述待降噪语音频谱进行特征提取,得到待降噪语音频谱的局部语音频谱特征;
根据所述待降噪语音频谱的局部语音频谱特征,确定待降噪语音频谱的全局语音频谱特征;
根据所述局部语音频谱特征和全局语音频谱特征,确定待降噪语音信号中原始语音信号的掩蔽矩阵,并根据所述待降噪语音频谱和所述掩蔽矩阵确定所述原始语音信号。
根据本公开的另一方面,提供了一种语音降噪装置,包括:
待降噪语音频谱确定模块,用于确定待降噪语音信号的待降噪语音频谱;
局部频谱特征提取模块,用于对所述待降噪语音频谱进行特征提取,得到待降噪语音频谱的局部语音频谱特征;
全局频谱特征确定模块,用于根据所述待降噪语音频谱的局部语音频谱特征,确定待降噪语音频谱的全局语音频谱特征;
原始语音信号确定模块,用于根据所述局部语音频谱特征和全局语音频谱特征,确定待降噪语音信号中原始语音信号的掩蔽矩阵,并根据所述待降噪语音频谱和所述掩蔽矩阵确定所述原始语音信号。
根据本公开的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与至少一个处理器通信连接的存储器;其中,
存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行本公开任一实施例的语音降噪方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行本公开任一实施例的语音降噪方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现本公开任一实施例的语音降噪方法。
本公开实施例可以提高语音降噪的性能。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1a是根据本公开实施例提供的一种语音降噪方法的示意图;
图1b是根据本公开实施例提供的一种深度神经网络的网络结构图;
图2a是根据本公开实施例提供的一种语音降噪方法的示意图;
图2b是根据本公开实施例提供的深度神经网络中网络模块的结构图;
图3a是根据本公开实施例提供的一种语音降噪方法的示意图;
图3b是根据本公开实施例提供的一种卷积神经网络的网络结构图;
图4是根据本公开实施例提供的一种语音降噪装置的示意图;
图5是用来实现本公开实施例的语音降噪方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1a是根据本公开实施例公开的一种语音降噪方法的流程图,本实施例可以适用于通过卷积神经网络和自注意力机制进行语音降噪的情况。本实施例涉及的语音降噪方法可以由语音降噪装置来执行,该装置可采用软件和/或硬件的方式实现,并具体配置于具有一定数据运算能力的电子设备中,该电子设备可以是客户端设备或服务器设备,客户端设备例如手机、平板电脑、车载终端和台式电脑等。
S110、确定待降噪语音信号的待降噪语音频谱。
待降噪语音信号是同时包含原始语音信号和噪声信号的语音信号,根据噪声的特性,可以将待降噪语音信号包含的噪声分为稳态噪声、瞬时噪声、语音干扰以及其他噪声等。
其中,稳态噪声是指不随时间变化而发生突变的规律性噪声,例如,机器工作时持续发出的声音或者熙熙攘攘的背景音等。瞬时噪声是突然出现又突然消失的无规律噪声,例如,键盘声、关门声、敲击声或者碰撞声等。语音干扰是指多人场景下非目标人员发出的声音,例如,在采集人员A的语音时,同时采集到人员A周围的人员B说话的声音。
目前常用的语音降噪方法可以分为传统信号处理方法和基于神经网络的语音降噪方法。其中,传统信号处理方法在进行语音降噪时,需要对噪声的特征进行先验假设。例如,预先提取噪声的频谱特征,并在待降噪语音频谱中减去噪声频谱,得到原始语音频谱。这种方式在待降噪语音信号包含稳态噪声时可以起到较好的降噪效果,但是针对瞬时噪声的降噪效果无法达到预期。
现有的基于神经网络的语音降噪方法,经常通过神经网络来估计原始语音信号的时频掩蔽或者直接将待降噪语音信号的频谱映射到原始语音信号的频谱,从而得到原始语音。为了保证语音降噪的性能,往往需要采用深度和宽度较大的神经网络,导致语音降噪的计算量非常大,使得语音降噪过程无法在轻量级的计算设备上实现。
本公开实施例中,在对待降噪语音信号进行降噪时,首先确定待降噪语音信号的待降噪语音频谱,以针对待降噪语音频谱来计算待降噪语音信号的掩蔽矩阵。具体的,可以通过短时傅里叶变换对待降噪语音进行时频域分析,得到待降噪语音信号的实部频谱和虚部频谱。进一步的,将实部频谱和虚部频谱拼接在一起,构成双通道的待降噪语音频谱。
示例性的,将待降噪语音信号进行短时傅里叶变换,得到维度均为100*64的实部频谱和虚部频谱,其中,时间的维度是100,频率的维度是64。将实部频谱和虚部频谱拼接,得到维度是100*64*2的待降噪语音频谱,其中,2是指待降噪语音频谱的通道数。
S120、对待降噪语音频谱进行特征提取,得到待降噪语音频谱的局部语音频谱特征。
局部语音频谱特征用于计算待降噪语音信号中原始语音信号的掩蔽矩阵,局部语音频谱特征是对待降噪语音频谱进行特征提取得到。示例性的,通过一层或多层卷积神经网络对待降噪语音频谱进行特征提取,得到局部语音频谱特征。
本公开实施例中,通过将待降噪语音频谱输入至深度神经网络模型,来获取深度神经网络模型输出的待降噪语音信号中原始语音信号的掩蔽矩阵。如图1b所示,深度神经网络模型中包含至少一层网络模块,每一层网络模块包括卷积块和自注意力机制块。其中,卷积块包含至少一层卷积神经网络。示例性的,深度神经网络模型中包含4层网络模块,卷积块包含3层卷积神经网络。
将待降噪语音频谱输入至深度神经网络模型中的卷积块,通过卷积块中包含的多层卷积神经网络对待降噪语音频谱进行特征提取,得到待降噪语音频谱的局部语音频谱特征。利用卷积神经网络在局部特征提取上的优势来提取局部语音频谱特征,并采用提取到的局部语音频谱特征计算待降噪语音信号中原始语音信号的掩蔽矩阵,可以提高语音降噪的性能。
示例性的,卷积神将网络包括卷积层、激活层以及归一化层,以及连接卷积层的输入和归一化层的输出的残差连接结构。卷积块中的卷积神经网络可以通过卷积层对输入的待降噪语音频谱进行卷积操作,进而将卷积操作的结果输入至激活层,并通过归一化层将激活层的输出结果进行批归一化。最终,通过残差连接结构,将卷积层的输入和归一化层的输出叠加,得到该层卷积神经网络的输出结果。最终,可以将最后一层卷积审核网络的输出结果作为卷积块输出的局部语音频谱特征。
S130、根据待降噪语音频谱的局部语音频谱特征,确定待降噪语音频谱的全局语音频谱特征。
全局语音频谱特征用于计算待降噪语音信号中原始语音信号的时频掩蔽矩阵,全局语音频谱特征是对待降噪语音频谱进行特征提取得到。示例性的,将局部语音频谱特征进行自注意力操作,得到全局语音频谱特征。同时利用局部语音频谱特征和全局语音频谱特征,来计算待降噪语音信号中原始语音信号的掩蔽矩阵,可以同时具有自注意力机制在全局特征建模的优势和卷积神经网络在局部特征建模的优势,提高语音降噪的性能。
另外,在语音降噪过程中,需要对待降噪语音频谱中每个点进行特征提取,得到时间维度和频率维度均较高的局部语音频谱特征。若直接对局部语音频谱特征进行自注意力操作,计算量比较大。可以将自注意力机制拆分成时间轴注意力机制和频率轴注意力机制分别进行特征处理,得到全局语音频谱特征,使特征提取的计算量大幅降低。
本公开实施例中,对待降噪语音频谱的局部语音频谱特征进行进一步处理,确定待降噪语音频谱的全局语音频谱特征。具体的,可以将局部语音频谱特征进行自注意力操作,得到全局语音频谱特征。示例性的,将自注意力机制拆分为频率轴注意力机制和时间轴注意力机制。首先通过频率轴注意力机制对局部语音频谱特征在频率轴进行自注意力操作,进而将频率轴注意力机制的输出结果在时间维度进行自注意力操作,从而得到全局语音频谱特征。当然,也可以先进行时间维度的自注意力操作,然后再进行频率维度的自注意力操作。
S140、根据局部语音频谱特征和全局语音频谱特征,确定待降噪语音信号中原始语音信号的掩蔽矩阵,并根据待降噪语音频谱和掩蔽矩阵确定原始语音信号。
本公开实施例中,利用待降噪语音频谱的局部语音频谱特征和全局语音频谱特征计算待降噪语音信号中原始语音信号的掩蔽矩阵。最终依据待降噪语音频谱和掩蔽矩阵来确定原始语音信号。具体的,可以将局部语音频谱特征和全局语音频谱特征进行数据拼接,进而将拼接结果进行卷积操作,得到原始语音信号的掩蔽矩阵。最终将待降噪语音频谱和掩蔽矩阵相乘,可以得到原始语音信号的原始语音频谱,将原始语音频谱进行逆傅里叶变换得到原始语音信号。
示例性的,将24通道的局部语音频谱特征和24通道的全局语音频谱特征进行数据拼接,得到48通道的拼接数据。进一步的,将拼接数据进行卷积,将拼接数据的通道数降低至2通道,将得到的2通道数据作为掩蔽矩阵。进一步的,可以将2通道的掩蔽矩阵以及待降噪语音频谱相乘,得到原始语音信号的原始语音频谱。最终,可以对得到的原始语音频谱进行逆傅里叶变换,得到原始语音信号。
通过待降噪语音频谱的局部语音频谱特征和全局语音频谱特征,计算原始语音信号的掩蔽矩阵,可以同时具有自注意力机制在全局特征建模的优势和卷积神经网络在局部特征建模的优势,提高语音降噪的性能。
本公开实施例的技术方案,通过提取待降噪语音频谱的局部语音频谱特征和全局语音频谱特征,并依据局部语音频谱特征和全局语音频谱特征来计算待降噪语音信号中原始语音信号的掩蔽矩阵,最终依据掩蔽矩阵和待降噪语音频谱来确定原始语音信号,可以综合局部和全局建模特征的优势,提升语音降噪的性能。
图2a是本公开实施例中的一种语音降噪方法的示意图,在上述实施例的基础上进一步细化,提供了根据待降噪语音频谱的局部语音频谱特征,确定待降噪语音频谱的全局语音频谱特征的具体步骤。下面结合图2a对本公开实施例提供的一种语音降噪方法进行说明,包括以下:
S210、确定待降噪语音信号的待降噪语音频谱。
S220、对待降噪语音频谱进行特征提取,得到待降噪语音频谱的局部语音频谱特征。
可选的,待降噪语音频谱和局部语音频谱特征时域的维度相同,且频域的维度相同。
在语音降噪过程中,需要对待降噪语音频谱中每个点进行特征提取。因此,在对待降噪进行特征提取时,以步进为1对待降噪语音频谱进行卷积操作,得到局部语音频谱特征。以步进为1进行特征提取,最终得到的局部语音频谱特征和待降噪语音频谱的时域的维度相同,频域的维度也相同,可以将待降噪语音频谱中每个点进行特征提取,不会在卷积过程中丢失特征,提高语音降噪的性能。
在一个具体的例子中,待降噪语音频谱包含实部频谱和虚部频谱2通道,每一通道中时域的维度是100,频域维度是64,即待降噪语音频谱特征是100*64*2,通过24个大小为3*3的卷积核,对待降噪语音频谱特征进行步进为1的卷积操作,得到局部语音频谱特征维度是100*64*24。其中,待降噪语音频谱和局部语音频谱特征时域的维度均为100,且频域的维度均为64,避免了卷积过程中的特征丢失,可以对待降噪语音频谱中每个点进行特征提取,保证语音降噪的效果。并且,通过24个卷积核将待降噪语音频谱的特征映射到更高的维度,可以减小待降噪语音频谱中信息的损失,提高语音降噪的效果。
S230、将局部语音频谱特征的通道维度和时间维度进行合并,得到第一合并数据,并通过频率轴注意力机制层,在频率维度对第一合并数据进行自注意力操作,得到频率维度自注意力操作结果。
本实施例中计算掩蔽矩阵的深度神经网络模型,包含至少一层网络模块,每一层网络模块包括卷积块和自注意力机制块。具体的,每一层网络模块结构如图2b所示,包括卷积块和自注力机制块,其中,自注意力机制块包含频率轴注意力机制层和时间轴注意力机制层。
为了利用自注意力机制在全局特征建模的优势,提高语音降噪的效果,可以通过自注意力机制块对卷积块输出的局部语音频谱特征进行处理,得到全局语音频谱特征。具体的,首先将局部语音频谱特征的通道维度和时间维度进行合并,得到第一合并数据。进一步的,通过频率轴注意力机制层,在频率维度对第一合并数据进行自注意力操作,得到频率维度的自注意力操作结果。
在一个具体的例子中,局部语音频谱特征维度是100*64*24,其中,时域的维度是100,频域的维度是64,通道数是24。将自注意力机制拆分为频率轴注意力机制和时间轴注意力机制。为了对局部语音频谱特征在频率维度进行自注意力操作,可以将局部语音频谱特征的通道维度和时间维度合并,得到维度是(100*24)*64的第一合并数据。进一步的,通过频率轴注意力机制层,在频率维度对第一合并数据进行自注意力操作,得到频率维度的自注意力操作结果,其维度也是100*64*24。
S240、将频率维度自注意力操作结果的通道维度和频率维度进行合并,得到第二合并数据,并通过时间轴注意力机制层,在时间维度对第二合并数据进行自注意力操作,得到待降噪语音频谱的全局语音频谱特征。
在将局部语音频谱特征在频率维度进行自注意力操作之后,进一步的,将频率维度自注意力操作结果的通道维度和频率维度进行合并,得到第二合并数据。进而,通过时间轴注意力机制层,在时间维度对第二合并数据进行自注意力操作,得到待降噪语音频谱的全局语音频谱特征。本公开实施例中,通过将自注意力机制拆分成频率轴注意力机制和时间轴注意力机制,分为两步进行全局语音频谱特征提取,可以降低计算量,提高语音降噪的效率。
在一个具体的例子中,频率维度自注意力操作结果的维度是100*64*24,其中,时域的维度是100,频域的维度是64,通道数是24。然后将通道维度和频率维度进行合并,得到第二合并数据,得到维度是100*(64*24)的第二合并数据。进一步的,通过时间轴注意力机制层,在时间维度对第二合并数据进行自注意力操作,得到时间维度自注意力操作结果,其维度也是100*64*24。
值得注意的是,为了进一步优化全局语音频谱特征提取过程,可以分别在频率轴注意力机制层和时间轴注意力机制层设置残差连接结构,将频率轴注意力机制层和时间轴注意力机制层的输入和输出进行叠加,减少因特征提取导致的信息丢失,进一步的提高语音降噪的性能。并且,在实际应用中,也可以先进行时间维度的自注意力操作,然后进行频率维度的自注意力操作,本实施例不对该执行顺序作具体限定。
S250、根据局部语音频谱特征和全局语音频谱特征,确定待降噪语音信号中原始语音信号的掩蔽矩阵,并根据待降噪语音频谱和掩蔽矩阵确定原始语音信号。
在提取到待降噪语音频谱的局部语音频谱特征和全局语音频谱特征后,将局部语音频谱特征和全局语音频谱特征进行拼接,得到拼接数据。进一步的,根据实际所需的通道数量,对拼接数据进行卷积操作,得到当前网络模块的输出。其中,最后一个网络模块的输出即为掩蔽矩阵。
针对最后一层网络模块,为了获得与双通道的待降噪语音频谱维度匹配的掩蔽矩阵,将拼接数据进行卷积,得到双通道的掩蔽矩阵。最终通过将待降噪语音频谱和掩蔽矩阵相乘,可以得到待降噪语音信号中原始语音信号的原始语音频谱,对原始语音频谱进行逆傅里叶变换,即可得到原始语音信号。
在一个具体的例子中,提取到待降噪语音频谱的局部语音频谱特征和全局语音频谱特征的维度均是100*64*24,其中,时域的维度是100,频域的维度是64,通道数是24。将二者进行拼接后,得到拼接数据的维度是100*64*48。进一步的,用2个大小1的卷积核对拼接后的频谱特征进行卷积,得到维度是100*64*2的掩蔽矩阵。最终将待降噪音频频谱和掩蔽矩阵相乘,得到待降噪语音信号中原始语音信号的原始语音频谱,并对原始语音频谱进行逆傅里叶变换,得到原始语音信号。
本公开实施例的技术方案,通过提取待降噪语音频谱的局部语音频谱特征,并对局部语音频谱特征分别进行频率维度的自注意力操作和时间维度的自注意力操作得到全局语音频谱特征,进而根据局部语音频谱特征和全局语音频谱特征来计算待降噪语音信号中的原始语音信号的掩蔽矩阵,最终依据待降噪语音频谱和掩蔽矩阵来确定原始语音信号,一方面,通过结合局部和全局建模特征的优势,提升语音降噪的性能,另一方面,还将注意力机制操作拆分为频率维度自注意力操作和时间维度自注意力操作,可以降低自注意力操作的计算量,提高语音降噪的效率。
图3a是本公开实施例中的一种语音降噪方法的示意图,在上述实施例的基础上进一步细化,提供了确定待降噪语音信号的待降噪语音频谱,对待降噪语音频谱进行特征提取,得到待降噪语音频谱的局部语音频谱特征的具体步骤,以及根据局部语音频谱特征和全局语音频谱特征,确定待降噪语音信号中原始语音信号的掩蔽矩阵,并根据待降噪语音频谱和掩蔽矩阵确定原始语音信号的具体步骤。下面结合图3a对本公开实施例提供的一种语音降噪方法进行说明,包括以下:
S310、对待降噪语音信号进行短时傅里叶变换,得到待降噪语音信号的待降噪语音频谱。
本公开实施例中,利用短时傅里叶变换对待降噪语音信号进行时频域分析,得到待降噪语音信号包含的实部频谱和虚部频谱,并由实部频谱和虚部频谱构成双通道的待降噪语音频谱。在进行短时傅里叶变换过程中,窗的长度决定了上述时间的维度和频率的维度,窗长越长,截取的信号越长,短时傅里叶变换后,频率的维度越高,时间的维度越低。可以依据窗的长度来平衡时间和频率的维度,提高语音降噪的效果。
S320、通过卷积层,对待降噪语音频谱进行特征提取,得到初始频谱特征。
本实施例中计算掩蔽矩阵的深度神经网络模型,包含至少一层网络模块,每一层网络模块包括卷积块和自注意力机制块。其中,卷积块包含至少一层卷积神经网络。每一层卷积神经网络的结构如图3b所示,包括卷积层、激活层以及归一化层,以及连接卷积层的输入和归一化层的输出的残差连接结构。示例性的,每一卷积块包含3层卷积神经网络。
本公开实施例中,采用的深度神经网络模型中的卷积块对待降噪语音频谱进行特征提取,得到初始频谱特征。具体的,通过卷积块中的多层卷积神经网络进行多次卷积处理,得到初始频谱特征。
在一个具体的例子中,待降噪语音频谱是双通道的语音频谱,具体维度是100*64*2。将待降噪语音频谱输入至卷积神经网络的卷积层,可以通过24个大小为100*64*2的卷积核,对待降噪语音频谱进行卷积,得到维度是100*64*24的待降噪语音频谱的初始频谱特征。通过增加通道将待降噪语音频谱的特征映射到更高维度,减少待降噪语音频谱信息的损失,提高语音降噪性能。
S330、通过激活层,对初始频谱特征进行激活。
在对待降噪语音频谱特征进卷积,得到初始频谱特征之后,通过激活层中包含的激活函数对初始频谱特征进行激活操作。示例性的,激活函数可以采用Prelu函数、Sigmoid函数或者Softmax函数等。
S340、通过归一化层,对激活后的初始频谱特征进行批归一化操作。
在对初始频谱特征进行激活后,进一步通过归一化层对激活后的初始频谱特征进行批归一化操作,增加模型的泛化能力。
通过卷积神经网络进行局部语音频谱特征提取,可以利用卷积神经网络在局部特征建模的优势,提高语音降噪的可靠性。
S350、通过残差连接结构,将归一化层的输出结果和待降噪语音频谱进行合并,得到待降噪语音频谱的局部语音频谱特征。
值得注意的是,为了避免随着网络层数的增加导致的网络退化现象,在卷积神经网络中设置残差连接结构,将卷积层的输入和归一化层的输出叠加,得到卷积神经网络的输出结果。
在得到归一化层输出的结果后,进一步通过卷积神经网络的残差连接结构,将卷积神经网络的输入和输出结果进行叠加。具体的,将归一化层的输出结果和输入至卷积层的待降噪语音频谱进行叠加,得到待降噪语音频谱的局部语音频谱特征。通过卷积神经网络的残差连接结构,可以避免随着网络层数的增加导致的网络退化现象,起到优化语音降噪效果的作用。
S360、根据待降噪语音频谱的局部语音频谱特征,确定待降噪语音频谱的全局语音频谱特征。
S370、将局部语音频谱特征和全局语音频谱特征进行合并,并将合并结果进行卷积操作,得到待降噪语音信号中原始语音信号的掩蔽矩阵。
为了同时具有卷积神经网络在局部特征建模的优势,以及自注意力机制在全局特征建模的优势,将卷积神经网络输出的局部语音频谱特征和全局语音频谱特征进行合并,得到合并后的频谱特征。但由于待降噪语音信号的频谱是包含实部频谱和虚部频谱的双通道的频谱,而局部语音频谱特征和全局语音频谱特征是经过通道增加的频谱特征,二者合并后得到的频谱特征远超过2通道。因此,可以通过对合并后的频谱特征进行卷积操作来降低通道数,得到原始语音信号的掩蔽矩阵。
S380、依据待降噪语音频谱和掩蔽矩阵,确定原始语音信号的原始语音频谱。
在得到原始语音信号的掩蔽矩阵后,可以直接将待降噪语音频谱和掩蔽矩阵相乘,得到原始语音信号的原始语音频谱。由于掩蔽矩阵是依据全局语音频谱特征和局部语音频谱特征计算得到,不但利用了卷积神经网络对局部特征的建模优势,还利用自注意力机制得到了待降噪语音信号前后的长距离时序依赖关系,可以提高语音降噪的性能。并且,相较于仅采用卷积神经网络的方式,卷积神经网络和自注意力机制的配合使用,可以在网络深度和网络宽度更小的情况下,实现相同的降噪效果,降低了语音降噪过程中的计算量。
S390、对原始语音频谱进行逆傅里叶变换,得到待降噪语音信号中的原始语音信号。
本公开实施例的技术方案,通过提取待降噪语音频谱的局部语音频谱特征和全局语音频谱特征,并依据局部语音频谱特征和全局语音频谱特征来计算待降噪语音信号中原始语音信号的掩蔽矩阵,最终依据掩蔽矩阵和待降噪语音频谱来确定原始语音信号,可以综合局部和全局建模特征的优势,提升语音降噪的性能。
根据本公开的实施例,图4是本公开实施例中的语音降噪装置的结构图,本公开实施例适用于通过卷积神经网络和自注意力机制进行语音降噪的情况。该装置采用软件和/或硬件实现,并具体配置于具备一定数据运算能力的电子设备中。
如图4所示的一种语音降噪装置400,包括:待降噪语音频谱确定模块410、局部频谱特征提取模块420、全局频谱特征确定模块430和原始语音信号确定模块440;其中,
待降噪语音频谱确定模块410,用于确定待降噪语音信号的待降噪语音频谱;
局部频谱特征提取模块420,用于对所述待降噪语音频谱进行特征提取,得到待降噪语音频谱的局部语音频谱特征;
全局频谱特征确定模块430,用于根据所述待降噪语音频谱的局部语音频谱特征,确定待降噪语音频谱的全局语音频谱特征;
原始语音信号确定模块440,用于根据所述局部语音频谱特征和全局语音频谱特征,确定待降噪语音信号中原始语音信号的掩蔽矩阵,并根据所述待降噪语音频谱和所述掩蔽矩阵确定所述原始语音信号。
本公开实施例的技术方案,通过提取待降噪语音频谱的局部语音频谱特征和全局语音频谱特征,并依据局部语音频谱特征和全局语音频谱特征来计算待降噪语音信号中原始语音信号的掩蔽矩阵,最终依据掩蔽矩阵和待降噪语音频谱来确定原始语音信号,可以综合局部和全局建模特征的优势,提升语音降噪的性能。
进一步的,待降噪语音频谱和所述局部语音频谱特征时域的维度相同,且频域的维度相同。
进一步的,全局频谱特征确定模块430,包括:
第一注意力机制单元,用于将所述局部语音频谱特征的通道维度和时间维度进行合并,得到第一合并数据,并通过频率轴注意力机制层,在频率维度对第一合并数据进行自注意力操作,得到频率维度自注意力操作结果;
第二注意力机制单元,用于将所述频率维度自注意力操作结果的通道维度和频率维度进行合并,得到第二合并数据,并通过时间轴注意力机制层,在时间维度对第二合并数据进行自注意力操作,得到待降噪语音频谱的全局语音频谱特征。
进一步的,局部频谱特征提取模块420,包括:
卷积单元,用于通过卷积层,对所述待降噪语音频谱进行特征提取,得到初始频谱特征;
激活单元,用于通过激活层,对所述初始频谱特征进行激活;
归一化单元,用于通过归一化层,对激活后的初始频谱特征进行批归一化操作;
局部频谱特征确定单元,用于通过残差连接结构,将归一化层的输出结果和所述待降噪语音频谱进行合并,得到待降噪语音频谱的局部语音频谱特征。
进一步的,待降噪语音频谱确定模块410,包括:
待降噪语音频谱确定单元,用于对所述待降噪语音信号进行短时傅里叶变换,得到待降噪语音信号的待降噪语音频谱;
原始语音信号确定模块440,包括:
原始语音频谱确定单元,用于依据所述待降噪语音频谱和所述掩蔽矩阵,确定所述原始语音信号的原始语音频谱;
原始语音信号确定单元,用于对所述原始语音频谱进行逆傅里叶变换,得到待降噪语音信号中的原始语音信号。
进一步的,原始语音信号确定模块440,包括:
掩蔽矩阵确定单元,用于将所述局部语音频谱特征和全局语音频谱特征进行合并,并将合并结果进行卷积操作,得到待降噪语音信号中原始语音信号的掩蔽矩阵。
本公开实施例所提供的语音降噪装置可执行本公开任意实施例所提供的语音降噪方法,具备执行方法相应的功能模块和有益效果。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图5示出了可以用来实施本公开的实施例的示例电子设备500的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图5所示,设备500包括计算单元501,其可以根据存储在只读存储器(ROM)502中的计算机程序或者从存储单元508加载到随机访问存储器(RAM)503中的计算机程序,来执行各种适当的动作和处理。在RAM 503中,还可存储设备500操作所需的各种程序和数据。计算单元501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
设备500中的多个部件连接至I/O接口505,包括:输入单元506,例如键盘、鼠标等;输出单元507,例如各种类型的显示器、扬声器等;存储单元508,例如磁盘、光盘等;以及通信单元509,例如网卡、调制解调器、无线通信收发机等。通信单元509允许设备500通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元501可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元501的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元501执行上文所描述的各个方法和处理,例如语音降噪方法。例如,在一些实施例中,语音降噪方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元508。在一些实施例中,计算机程序的部分或者全部可以经由ROM 502和/或通信单元509而被载入和/或安装到设备500上。当计算机程序加载到RAM 503并由计算单元501执行时,可以执行上文描述的语音降噪方法的一个或多个步骤。备选地,在其他实施例中,计算单元501可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行语音降噪方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (14)
1.一种语音降噪方法,包括:
确定待降噪语音信号的待降噪语音频谱;
对所述待降噪语音频谱进行特征提取,得到待降噪语音频谱的局部语音频谱特征;所述局部语音频谱特征是将所述待降噪语音频谱输入至深度神经网络模型中的卷积块进行特征提取得到;
根据所述待降噪语音频谱的局部语音频谱特征,确定待降噪语音频谱的全局语音频谱特征;所述全局语音频谱特征是将所述局部语音频谱特征进行自注意力操作得到;
根据所述局部语音频谱特征和全局语音频谱特征,确定待降噪语音信号中原始语音信号的掩蔽矩阵,并根据所述待降噪语音频谱和所述掩蔽矩阵确定所述原始语音信号。
2.根据权利要求1所述的方法,其中,所述待降噪语音频谱和所述局部语音频谱特征时域的维度相同,且频域的维度相同。
3.根据权利要求1或2所述的方法,其中,根据所述待降噪语音频谱的局部语音频谱特征,确定待降噪语音频谱的全局语音频谱特征,包括:
将所述局部语音频谱特征的通道维度和时间维度进行合并,得到第一合并数据,并通过频率轴注意力机制层,在频率维度对第一合并数据进行自注意力操作,得到频率维度自注意力操作结果;
将所述频率维度自注意力操作结果的通道维度和频率维度进行合并,得到第二合并数据,并通过时间轴注意力机制层,在时间维度对第二合并数据进行自注意力操作,得到待降噪语音频谱的全局语音频谱特征。
4.根据权利要求1所述的方法,其中,对所述待降噪语音频谱进行特征提取,得到待降噪语音频谱的局部语音频谱特征,包括:
通过卷积层,对所述待降噪语音频谱进行特征提取,得到初始频谱特征;
通过激活层,对所述初始频谱特征进行激活;
通过归一化层,对激活后的初始频谱特征进行批归一化操作;
通过残差连接结构,将归一化层的输出结果和所述待降噪语音频谱进行合并,得到待降噪语音频谱的局部语音频谱特征。
5.根据权利要求1所述的方法,其中,确定待降噪语音信号的待降噪语音频谱,包括:
对所述待降噪语音信号进行短时傅里叶变换,得到待降噪语音信号的待降噪语音频谱;
根据所述待降噪语音频谱和所述掩蔽矩阵确定所述原始语音信号,包括:
依据所述待降噪语音频谱和所述掩蔽矩阵,确定所述原始语音信号的原始语音频谱;
对所述原始语音频谱进行逆傅里叶变换,得到待降噪语音信号中的原始语音信号。
6.根据权利要求1所述的方法,其中,根据所述局部语音频谱特征和全局语音频谱特征,确定待降噪语音信号中原始语音信号的掩蔽矩阵,包括:
将所述局部语音频谱特征和全局语音频谱特征进行合并,并将合并结果进行卷积操作,得到待降噪语音信号中原始语音信号的掩蔽矩阵。
7.一种语音降噪装置,包括:
待降噪语音频谱确定模块,用于确定待降噪语音信号的待降噪语音频谱;
局部频谱特征提取模块,用于对所述待降噪语音频谱进行特征提取,得到待降噪语音频谱的局部语音频谱特征;所述局部语音频谱特征是将所述待降噪语音频谱输入至深度神经网络模型中的卷积块进行特征提取得到;
全局频谱特征确定模块,用于根据所述待降噪语音频谱的局部语音频谱特征,确定待降噪语音频谱的全局语音频谱特征;所述全局语音频谱特征是将所述局部语音频谱特征进行自注意力操作得到;
原始语音信号确定模块,用于根据所述局部语音频谱特征和全局语音频谱特征,确定待降噪语音信号中原始语音信号的掩蔽矩阵,并根据所述待降噪语音频谱和所述掩蔽矩阵确定所述原始语音信号。
8.根据权利要求7所述的装置,其中,所述待降噪语音频谱和所述局部语音频谱特征时域的维度相同,且频域的维度相同。
9.根据权利要求7或8所述的装置,其中,所述全局频谱特征确定模块,包括:
第一注意力机制单元,用于将所述局部语音频谱特征的通道维度和时间维度进行合并,得到第一合并数据,并通过频率轴注意力机制层,在频率维度对第一合并数据进行自注意力操作,得到频率维度自注意力操作结果;
第二注意力机制单元,用于将所述频率维度自注意力操作结果的通道维度和频率维度进行合并,得到第二合并数据,并通过时间轴注意力机制层,在时间维度对第二合并数据进行自注意力操作,得到待降噪语音频谱的全局语音频谱特征。
10.根据权利要求7所述的装置,其中,所述局部频谱特征提取模块,包括:
卷积单元,用于通过卷积层,对所述待降噪语音频谱进行特征提取,得到初始频谱特征;
激活单元,用于通过激活层,对所述初始频谱特征进行激活;
归一化单元,用于通过归一化层,对激活后的初始频谱特征进行批归一化操作;
局部频谱特征确定单元,用于通过残差连接结构,将归一化层的输出结果和所述待降噪语音频谱进行合并,得到待降噪语音频谱的局部语音频谱特征。
11.根据权利要求7所述的装置,其中,所述待降噪语音频谱确定模块,包括:
待降噪语音频谱确定单元,用于对所述待降噪语音信号进行短时傅里叶变换,得到待降噪语音信号的待降噪语音频谱;
所述原始语音信号确定模块,包括:
原始语音频谱确定单元,用于依据所述待降噪语音频谱和所述掩蔽矩阵,确定所述原始语音信号的原始语音频谱;
原始语音信号确定单元,用于对所述原始语音频谱进行逆傅里叶变换,得到待降噪语音信号中的原始语音信号。
12.根据权利要求7所述的装置,其中,所述原始语音信号确定模块,包括:
掩蔽矩阵确定单元,用于将所述局部语音频谱特征和全局语音频谱特征进行合并,并将合并结果进行卷积操作,得到待降噪语音信号中原始语音信号的掩蔽矩阵。
13. 一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的语音降噪方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-6中任一项所述的语音降噪方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111509740.4A CN114171038B (zh) | 2021-12-10 | 2021-12-10 | 语音降噪方法、装置、设备及存储介质 |
US18/077,307 US20230186933A1 (en) | 2021-12-10 | 2022-12-08 | Voice noise reduction method, electronic device, non-transitory computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111509740.4A CN114171038B (zh) | 2021-12-10 | 2021-12-10 | 语音降噪方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114171038A CN114171038A (zh) | 2022-03-11 |
CN114171038B true CN114171038B (zh) | 2023-07-28 |
Family
ID=80485578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111509740.4A Active CN114171038B (zh) | 2021-12-10 | 2021-12-10 | 语音降噪方法、装置、设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230186933A1 (zh) |
CN (1) | CN114171038B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114999519A (zh) * | 2022-07-18 | 2022-09-02 | 中邮消费金融有限公司 | 一种基于双重变换的语音实时降噪方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112634928A (zh) * | 2020-12-08 | 2021-04-09 | 北京有竹居网络技术有限公司 | 声音信号处理方法、装置和电子设备 |
CN114067826A (zh) * | 2022-01-18 | 2022-02-18 | 深圳市友杰智新科技有限公司 | 语音降噪方法、装置、设备及存储介质 |
CN114694674A (zh) * | 2022-03-10 | 2022-07-01 | 深圳市友杰智新科技有限公司 | 基于人工智能的语音降噪方法、装置、设备及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69428119T2 (de) * | 1993-07-07 | 2002-03-21 | Picturetel Corp | Verringerung des hintergrundrauschens zur sprachverbesserung |
WO2019112468A1 (en) * | 2017-12-08 | 2019-06-13 | Huawei Technologies Co., Ltd. | Multi-microphone noise reduction method, apparatus and terminal device |
CN110503940B (zh) * | 2019-07-12 | 2021-08-31 | 中国科学院自动化研究所 | 语音增强方法、装置、存储介质、电子设备 |
CN113409803B (zh) * | 2020-11-06 | 2024-01-23 | 腾讯科技(深圳)有限公司 | 语音信号处理方法、装置、存储介质及设备 |
GB202104280D0 (en) * | 2021-03-26 | 2021-05-12 | Samsung Electronics Co Ltd | Method and apparatus for real-time sound enhancement |
CN114974280A (zh) * | 2022-05-12 | 2022-08-30 | 北京百度网讯科技有限公司 | 音频降噪模型的训练方法、音频降噪的方法及装置 |
-
2021
- 2021-12-10 CN CN202111509740.4A patent/CN114171038B/zh active Active
-
2022
- 2022-12-08 US US18/077,307 patent/US20230186933A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112634928A (zh) * | 2020-12-08 | 2021-04-09 | 北京有竹居网络技术有限公司 | 声音信号处理方法、装置和电子设备 |
CN114067826A (zh) * | 2022-01-18 | 2022-02-18 | 深圳市友杰智新科技有限公司 | 语音降噪方法、装置、设备及存储介质 |
CN114694674A (zh) * | 2022-03-10 | 2022-07-01 | 深圳市友杰智新科技有限公司 | 基于人工智能的语音降噪方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114171038A (zh) | 2022-03-11 |
US20230186933A1 (en) | 2023-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11158304B2 (en) | Training method of speech signal processing model with shared layer, electronic device and storage medium | |
CN111968658B (zh) | 语音信号的增强方法、装置、电子设备和存储介质 | |
CN111508519B (zh) | 一种音频信号人声增强的方法及装置 | |
CN106165015B (zh) | 用于促进基于加水印的回声管理的装置和方法 | |
CN114974280A (zh) | 音频降噪模型的训练方法、音频降噪的方法及装置 | |
CN114171038B (zh) | 语音降噪方法、装置、设备及存储介质 | |
CN114360562A (zh) | 语音处理方法、装置、电子设备和存储介质 | |
CN114242098B (zh) | 一种语音增强方法、装置、设备以及存储介质 | |
CN112466327B (zh) | 语音处理方法、装置和电子设备 | |
CN113823313A (zh) | 语音处理方法、装置、设备以及存储介质 | |
CN114333912B (zh) | 语音激活检测方法、装置、电子设备和存储介质 | |
CN114969195B (zh) | 对话内容挖掘方法和对话内容评估模型的生成方法 | |
CN114302286A (zh) | 一种通话语音降噪方法、装置、设备及存储介质 | |
CN112002339B (zh) | 语音降噪方法和装置、计算机可读的存储介质及电子装置 | |
CN114550731A (zh) | 一种音频识别方法、装置、电子设备及存储介质 | |
CN114078274A (zh) | 人脸图像检测方法、装置、电子设备以及存储介质 | |
CN112331187A (zh) | 多任务语音识别模型训练方法、多任务语音识别方法 | |
CN112164392A (zh) | 确定显示的识别文本的方法、装置、设备以及存储介质 | |
CN113052771B (zh) | 图像处理方法、装置、电子设备和存储介质 | |
CN114512136B (zh) | 模型训练、音频处理方法、装置、设备、存储介质及程序 | |
CN112491449B (zh) | 声回波消除方法、装置、电子设备和存储介质 | |
CN115035911B (zh) | 噪声生成模型训练方法、装置、设备及介质 | |
CN113689867B (zh) | 一种语音转换模型的训练方法、装置、电子设备及介质 | |
CN114299977B (zh) | 混响语音的处理方法、装置、电子设备及存储介质 | |
CN113657353B (zh) | 公式识别方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |