CN113782044A - 一种语音增强方法及装置 - Google Patents

一种语音增强方法及装置 Download PDF

Info

Publication number
CN113782044A
CN113782044A CN202110984082.8A CN202110984082A CN113782044A CN 113782044 A CN113782044 A CN 113782044A CN 202110984082 A CN202110984082 A CN 202110984082A CN 113782044 A CN113782044 A CN 113782044A
Authority
CN
China
Prior art keywords
voice data
data
voice
layer
processed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110984082.8A
Other languages
English (en)
Other versions
CN113782044B (zh
Inventor
张句
王宇光
李志刚
关昊天
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huiyan Technology Tianjin Co ltd
Original Assignee
Huiyan Technology Tianjin Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huiyan Technology Tianjin Co ltd filed Critical Huiyan Technology Tianjin Co ltd
Priority to CN202110984082.8A priority Critical patent/CN113782044B/zh
Publication of CN113782044A publication Critical patent/CN113782044A/zh
Application granted granted Critical
Publication of CN113782044B publication Critical patent/CN113782044B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0264Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

本申请提供一种语音增强方法及装置,涉及音频技术领域,能够更大程度的降噪,得到质量较高的语音数据。该方法包括:基于语音增强模型,对待处理的语音数据进行处理,预测得到所述待处理语音数据中的纯净语音数据;所述待处理的语音数据为频域语音数据;基于干扰信息提取模型,对所述待处理的语音数据进行处理,预测得到所述待处理语音数据中的纯净干扰数据;基于语音融合模型,对待处理的语音数据、所述待处理语音数据中的纯净语音数据以及所述待处理语音数据中的纯净干扰数据做融合处理,得到增强的语音数据。

Description

一种语音增强方法及装置
技术领域
本申请涉及语音处理领域,尤其涉及一种语音增强方法及装置。
背景技术
在语音通话或视频通话等场景中,受通话环境的影响(复杂的噪声、混响等),通话过程中的语音质量较差,采用语音增强技术能显著提升语音质量。
目前,一种语音增强方法是使用深度学习的方法建立一个语音增强模型(例如对抗网络),基于该语音增强模型能够同步去除待处理语音数据中的噪声和混响。
然而,上述语音增强方法的处理得到语音的音质较差,难以满足用户的听觉体验。
另外,上述用于同步去除噪声和混响的语音增强模型的结构通常比较复杂,比如网络层数过深,网络的参数量较大,使用该语音增强模型进行语音增强处理的速度较慢,实时率差;并且该语音增强模型可能无法对所有的语音数据进行有效增强,其鲁棒性有待提升。
发明内容
本申请实施例提供一种语音增强方法及装置,能够提升语音的音质。
为达到上述目的,本申请实施例采用如下技术方案:
第一方面,本申请提供一种语音增强方法,应用于电子设备,该方法包括:电子设备基于语音增强模型,对待处理的语音数据进行处理,预测得到该待处理语音数据中的纯净语音数据;该待处理的语音数据为频域语音数据;并且基于干扰信息提取模型,对所述待处理的语音数据进行处理,预测得到所述待处理语音数据中的纯净干扰数据(包括噪声和混响);以及基于语音融合模型,对待处理的语音数据、所述待处理语音数据中的纯净语音数据以及所述待处理语音数据中的纯净干扰数据做融合处理,得到增强的语音数据。
本申请提供的语音增强方法,电子设备可以基于语音模型预测出纯净语音数据,基于噪音模型预测出需要排除的纯净干扰数据,并且基于语音融合模型,对待处理的语音数据、经语音模型处理得到的待处理语音数据中的纯净语音数据以及经干扰信息提取模型处理得到的待处理语音数据中的纯净干扰数据做融合处理,对这三种数据进行加权,得到更加纯净的语音数据(即增强的语音数据),可知通过本申请实施例提供的方案,能够更大程度的去除语音数据中的噪声和/或混响,得到质量较高的语音数据。
进一步的,与现有的用于语音增强的模型相比,本申请中的语音增强模型、干扰信息提取模型以及语音融合模型的结构简单,模型参数量较少,如此,语音增强处理过程的计算量较小,语音增强处理的速度较快,从而能够提升语音增强的实时率。
进一步的,本申请实施例提供的语音增强方法是通过结合时频分析以及基于多路信息融合模型(即语音融合模型)框架,能够满足流式音频去噪的需要,能够适应多种输入维度的音频。
进一步的,本申请实施例中的语音增强模型能够显著去除语音数据中的混响和平稳噪音,噪音模型能够有效地去除语音数据中的非平稳噪音,可见,本申请实施例提供的语音增强方法能够对不同类型的噪音进行有效去除,可适用于对含有不同噪声的语音数据进行增强处理,其鲁棒性好。
在第一方面的一种实现方式中,上述语音增强模型包括依次连接的域自适应映射层、编码器层、第一自注意力层以及第一掩码生成层;其中,该域自适应映射层由两个全连接层组成,该编码器层由一个卷积层、两个因果卷积层、以及一个卷积层组成,该第一自注意力层由长短期记忆层和两个全连接层组成,该第一掩码生成层由两个长短期记忆层组成。
本申请中,首先,域自适应映射层用于对待处理的语音数据进行特征映射,将待处理的语音数据映射至多维度的特征空间,得到多维语音特征。其次,该编码器层用于对域自适应映射层输出的多维语音特征进行编码,得到编码信息,通过该编码器层得到的该编码信息可以理解成提取得到语音数据更丰富的多维特征。再次,第一自注意力层用于根据编码器层输出的编码信息计算自注意力矩阵。然后,第一掩码生成层用于根据自注意力矩阵生成待处理语音数据的语音掩码矩阵。最后,在语音增强模型的输出层中,将待处理的语音数据与生成的语音掩码矩阵相乘得到该待处理语音数据中的纯净语音数据。
在第一方面的一种实现方式中,上述干扰信息提取模型包括依次连接的特征提取层、第二自注意力层以及第二掩码生成层;其中,该特征提取层由两个因果卷积层组成,该第二自注意力层由长短期记忆层和两个全连接层组成,该第二掩码生成层由三个长短期记忆层构成。
在本申请中,首先,特征提取层用于对待处理的语音数据进行特征映射,将待处理的语音数据映射至多维度的特征空间,并提取得到多维语音特征。其次,第二自注意力层根据特征提取层输出的多维语音特征计算自注意力矩阵。然后,第二掩码生成层用于根据第二自注意力层输出的自注意力矩阵预测得到该待处理语音数据的干扰掩码矩阵。最后,在干扰信息提取模型的输出层中,将待处理的语音数据与生成的干扰掩码矩阵相乘得到该待处理语音数据中的纯净干扰数据。
在第一方面的一种实现方式中,上述语音融合模型包括依次连接的三个卷积层和一个全连接层。
在本申请中,基于语音融合模型对待处理的语音数据、语音增强模型输出的待处理语音数据中的纯净语音数据、干扰信息提取模型输出的待处理语音数据中的纯净干扰数据这三种数据进行特征融合,具体的,将三种数据一起输入到通过由三个卷积层构成的特征融合层,得到这三种信号的融合特征(可以理解为对三种数据进行了加权),之后在经过一个全连接层的处理得到该待处理语音数据的语音掩码矩阵,最后,在输出层中将待处理的语音数据与生成的语音掩码矩阵相乘,预测得到增强的语音数据。
在第一方面的一种实现方式中,上述方法还包括:电子设备对获取的语音数据进行预处理,得到预处理后的语音数据,该预处理包括无效数据去除处理和振幅分布处理,所述预处理后的语音数据为时域的语音数据;对上述预处理后的音频数据做短时傅里叶变换,得到该待处理的语音数据。
在第一方面的一种实现方式中,上述语音增强模型是根据多个语音数据和该多个语音数据中的真实的纯净语音数据训练得到的。
在第一方面的一种实现方式中,上述干扰信息提取模型是根据多个语音数据和该多个语音数据中的真实的纯净干扰数据训练得到的。
在第一方面的一种实现方式中,上述语音融合模型是根据多个语音数据、上述语音增强模型预测的该多个语音数据中的纯净语音数据、上述干扰信息提取模型预测的该多个语音数据中的纯净干扰数据以及该多个语音数据中的真实的纯净语音数据训练得到的。
第二方面,本申请提供一种语音增强装置,包括:语音增强模块、干扰信息提取模块、语音融合模块。其中,语音增强模块用于基于语音增强模型,对待处理的语音数据进行处理,预测得到该待处理语音数据中的纯净语音数据;该待处理的语音数据为频域语音数据;干扰信息提取模块用于基于干扰信息提取模型,对上述待处理的语音数据进行处理,预测得到该待处理语音数据中的纯净干扰数据;语音融合模块用于基于语音融合模型,对待处理的语音数据、上述待处理语音数据中的纯净语音数据以及上述待处理语音数据中的纯净干扰数据做融合处理,得到增强的语音数据。
在第二方面的一种实现方式中,上述语音增强模型包括依次连接的域自适应映射层、编码器层、第一自注意力层以及第一掩码生成层;其中,该域自适应映射层由两个全连接层组成,该编码器层由一个卷积层、两个因果卷积层、以及一个卷积层组成,该第一自注意力层由长短期记忆层和两个全连接层组成,所述第一掩码生成层由两个长短期记忆层组成。
在第二方面的一种实现方式中,上述干扰信息提取模型包括依次连接的特征提取层、第二自注意力层以及第二掩码生成层;其中,该特征提取层由两个因果卷积层组成,该第二自注意力层由长短期记忆层和两个全连接层组成,该第二掩码生成层由三个长短期记忆层构成。
在第二方面的一种实现方式中,上述语音融合模型包括依次连接的三个卷积层和一个全连接层。
在第二方面的一种实现方式中,上述语音增强装置还包括:语音数据预处理模块。语音数据预处理模块用于对获取的语音数据进行预处理,得到预处理后的语音数据,该预处理包括无效数据去除处理和振幅分布处理,该预处理后的语音数据为时域的语音数据。
在第二方面的一种实现方式中,上述语音增强装置还包括:第一训练模块。
第一训练模块用于基于多个语音数据和该多个语音数据中的真实的纯净语音数据对预设语音增强模型进行训练得到语音增强模型。
在第二方面的一种实现方式中,上述语音增强装置还包括:第二训练模块。
第二训练模块用于基于多个语音数据和该多个语音数据中的真实的纯净干扰数据对预设干扰信息提取模型进行训练得到干扰信息提取模型。
在第二方面的一种实现方式中,上述语音增强装置还包括:第三训练模块。
第三训练模块用于基于多个语音数据、上述语音增强模型预测的该多个语音数据中的纯净语音数据、上述干扰信息提取模型预测的该多个语音数据中的纯净干扰数据以及该多个语音数据中的真实的纯净干扰数据对预设语音融合模型进行训练得到语音融合模型。
第三方面,本申请提供一种电子设备,包括:处理器和与处理器耦合连接的存储器;存储器用于存储计算机指令,当电子设备运行时,处理器执行存储器存储的所述计算机指令,以使得所述电子设备执行上述第一方面及其各实现方式中所述的方法。
第四方面,本申请提供一种计算机可读存储介质,该计算机可读存储介质包括计算机程序,当计算机程序在计算机上运行时,以执行上述第一方面及其各实现方式中所述的方法。
需要说明的是,上述第二方面至第四方面的技术效果可以参考第一方面及其各种可选的实现方式的技术效果的相关描述,此处不再赘述。
附图说明
图1为本申请实施例提供的语音增强的过程的示意图;
图2为本申请实施例提供的语音增强的方法的示意图;
图3为本申请实施例提供的语音增强模型的结构示意图;
图4为本申请实施例提供的干扰信息提取模型的结构示意图;
图5为本申请实施例提供的语音融合模型的结构示意图;
图6为本申请实施例提供的对获取的音频数据进行预处理和频域变换的方法的示意图;
图7为本申请实施例提供的对预设语音增强模型进行训练得到语音增强模型的过程示意图;
图8为本申请实施例提供的对预设干扰信息提取模型进行训练得到干扰信息提取模型的过程示意图;
图9为本申请实施例提供的对预设语音融合模型进行训练得到语音融合模型的过程示意图;
图10为本申请实施例提供的一种语音增强装置的结构示意图。
具体实施方式
本申请的说明书和权利要求书中的术语“第一”和“第二”等是用于区别不同的对象,而不是用于描述对象的特定顺序。例如,第一自注意力层和第二自注意力层等是用于区别不同的自注意力层,而不是用于描述自注意力层的特定顺序。
在本申请实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本申请实施例中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
在本申请的描述中,除非另有说明,“多个”的含义是指两个或两个以上。例如,多个文本是指两个或两个以上的文本。
下面首先对本申请实施例涉及的一些概念进行解释说明。
语音增强:是指当语音信号被各种各样的噪声(例如环境中的发动机、汽车、风声、飞机以及其他人声等噪音,或者电火花放电过程产生的噪音)干扰、甚至淹没后,从噪声背景中提取有用的语音信号,抑制、降低噪声干扰的技术。即从带噪语音中提取尽可能纯净的原始语音。
短时傅里叶变换(STFT,short-time Fourier transform):是和傅里叶变换相关的一种数学变换,用以确定时变信号其局部区域正弦波的频率与相位。一般情况下对语音信号的处理都是在频域上进行的,在本申请实施例中,采用短时傅里叶变换将采集的时域的语音数据变换为频域的语音数据。
短时傅里叶逆变换(ISTFT,Inverse short-time Fourier transform):是和STFT相反的一种数学变换。使用本申请实施例提供的语音增强方法,对频域的语音数据进行增强处理之后,再采用短时傅里叶逆变换将语音增强处理之后的频域的语音数据变换成时域的语音数据。
针对背景技术中存在的现有的语音增强方法的处理得到语音的音质较差,难以满足用户的听觉体验的问题,本申请实施例提供了一种语音增强方法及装置,电子设备基于语音增强模型,对待处理的语音数据进行处理,预测得到该待处理语音数据中的纯净语音数据;该待处理的语音数据为频域语音数据;并且基于干扰信息提取模型,对该待处理的语音数据进行处理,预测得到该待处理语音数据中的纯净干扰数据;以及基于语音融合模型,对待处理的语音数据、上述待处理语音数据中的纯净语音数据以及上述待处理语音数据中的纯净干扰数据做融合处理,得到增强的语音数据。通过本申请实施例提供的技术方案,能够提升语音音质。
本申请实施例提供的语音增强方法可以应用于具有语音处理功能的电子设备,例如手机、耳机、音箱、智能对话机器人、智能家居设备以及可穿戴语音设备等等。
如图1所示,本申请实施例提供的语音增强方法的主要过程包括:基于语音增强模型提取原始带噪语音数据(以下实施例称为待处理的语音数据)中的纯净语音数据,基于干扰信息提取模型提取出原始带噪语音中纯净噪音数据,再基于语音融合模型对纯净语音数据、纯净噪音数据以及原始带噪语音数据进行融合处理,得到增强的语音数据。
具体的,如图2所示,本申请实施例提供的语音增强方法包括S201-S203。
S201、电子设备基于语音增强模型,对待处理的语音数据进行处理,预测得到该待处理语音数据中的纯净语音数据。
该待处理的语音数据为频域的语音数据。
本申请实施例中,如图3所示,语音增强模型包括依次连接的域自适应映射层、编码器层、第一自注意力层以及第一掩码生成层。
其中,该域自适应映射层由两个全连接层组成,每一个全连接层包括256个神经元;该编码器层由一个卷积层、两个因果卷积层、以及一个卷积层组成。该编码器层的两个卷积层均为普通的卷积层,卷积层的卷积核数量为12,卷积核的尺寸为3×1,步长为1,两个因果卷积层为带残差模块的因果卷积层,因果卷积层的卷积核数量为24,卷积核的尺寸为2×1,步长为1。该第一自注意力层由长短期记忆层和两个全连接层组成,长短期记忆层包括448个神经元,每一个全连接层包括448个神经元。该第一掩码生成层由两个长短期记忆层组成,两个长短期记忆层的神经元个数分别为448和256。
具体的,在本申请实施例中,首先,域自适应映射层用于对待处理的语音数据进行特征映射,将待处理的语音数据映射至多维度的特征空间,得到多维语音特征,具体的,将待处理的语音数据与两个全连接层所附带的权重参数矩阵进行相乘,以对待处理的语音数据进行非线性映射,将该待处理的语音数据映射到多维度的特征空间。
其次,该编码器层用于对域自适应映射层输出的多维语音特征进行编码,得到编码信息,通过该编码器层得到的该编码信息可以理解成提取得到语音数据更丰富的多维特征。
再次,第一自注意力层用于根据编码器层输出的编码信息计算自注意力矩阵。
然后,第一掩码生成层用于根据自注意力矩阵生成待处理语音数据的语音掩码矩阵;
最后,在语音增强模型的输出层中,将待处理的语音数据与生成的语音掩码矩阵相乘得到该待处理语音数据中的纯净语音数据。
S202、基于干扰信息提取模型,对上述待处理的语音数据进行处理,预测得到该待处理语音数据中的纯净干扰数据。
本申请实施例中,如图4所示,干扰信息提取模型包括依次连接的特征提取层、第二自注意力层以及第二掩码生成层。
其中,该特征提取层由两个因果卷积层组成,因果卷积层的卷积核数量为12,卷积核的尺寸为3×1,步长为1。该第二自注意力层由长短期记忆层和两个全连接层组成,长短期记忆层包括448个神经元,每一个全连接层包括448个神经元。该第二掩码生成层由三个长短期记忆层构成,三个长短期记忆层分别包括448、448和256个神经元。
具体的,在本申请实施例中,首先,特征提取层用于对待处理的语音数据进行特征映射,将待处理的语音数据映射至多维度的特征空间,并提取得到多维语音特征。
其次,第二自注意力层根据特征提取层输出的多维语音特征计算自注意力矩阵。
然后,第二掩码生成层用于根据第二自注意力层输出的自注意力矩阵预测得到该待处理语音数据的干扰掩码矩阵。
最后,在干扰信息提取模型的输出层中,将待处理的语音数据与生成的干扰掩码矩阵相乘得到该待处理语音数据中的纯净干扰数据。
S203、基于语音融合模型,对待处理的语音数据、上述待处理语音数据中的纯净语音数据以及上述待处理语音数据中的纯净干扰数据做融合处理,得到增强的语音数据。
本申请实施例中,如图5所示,语音融合模型包括依次连接的三个卷积层和一个全连接层,每一个卷积层的卷积核数量均为3,像素点数为3×7,步长均为3,该一个全连接层包括448个神经元。其中,三个卷积层组成的网络层可以称为特征融合层。
具体的,在本申请实施例中,语音融合模型的作用主要是:对待处理的语音数据、语音增强模型输出的待处理语音数据中的纯净语音数据、干扰信息提取模型输出的待处理语音数据中的纯净干扰数据这三种数据进行特征融合,具体的,将三种数据一起输入到通过由三个卷积层构成的特征融合层,得到这三种信号的融合特征(可以理解为对三种数据进行了加权),之后在经过一个全连接层的处理得到该待处理语音数据的语音掩码矩阵,最后,在输出层中将待处理的语音数据与生成的语音掩码矩阵相乘,预测得到增强的语音数据。
综上,本申请实施例提供的语音增强方法,电子设备可以基于语音模型预测出纯净语音数据,基于噪音模型预测出需要排除的纯净干扰数据,并且基于语音融合模型,对待处理的语音数据、经语音模型处理得到的待处理语音数据中的纯净语音数据以及经干扰信息提取模型处理得到的待处理语音数据中的纯净干扰数据做融合处理,对这三种数据进行加权,得到更加纯净的语音数据(即增强的语音数据),可知通过本申请实施例提供的方案,能够更大程度的去除语音数据中的噪声和/或混响,得到质量较高的语音数据。
进一步的,与现有的用于语音增强的模型相比,本申请实施例中的语音增强模型、干扰信息提取模型以及语音融合模型的结构简单,模型参数量较少,如此,语音增强处理过程的计算量较小,语音增强处理的速度较快,从而能够提升语音增强的实时率。
进一步的,本申请实施例提供的语音增强方法是通过结合时频分析以及基于多路信息融合模型(即语音融合模型)框架,能够满足流式音频去噪的需要,能够适应多种输入维度的音频。
进一步的,本申请实施例中的语音增强模型能够显著去除语音数据中的混响和平稳噪音,噪音模型能够有效地去除语音数据中的非平稳噪音,可见,本申请实施例提供的语音增强方法能够对不同类型的噪音进行有效去除,可适用于对含有不同噪声的语音数据进行增强处理,其鲁棒性好。
可选的,结合图2,如图6所示,在上述S201之前,本申请实施例提供的语音增强方法还包括S204。
S204、电子设备对获取的语音数据进行预处理,得到预处理后的语音数据,该预处理包括无效数据去除处理和振幅分布处理,该预处理后的语音数据为时域的语音数据。
对上述预处理后的语音数据做短时傅里叶变换,将待处理的语音数据转换到频域,得到语音数据的频谱图,即得到步骤S201中的待处理的语音数据。
可选的,上述待处理的语音数据可以通过电子设备的麦克风采集得到或者通过算法合成,若通过算法合成待处理的语音数据,电子设备采用预设算法在纯净语音中添加加性噪声和混响,得到合成的语音数据。
本申请实施例中,电子设备获取到语音数据之后,电子设备可以对语音数据进行下述两种预处理中的至少一种处理。
第一种预处理:无效数据去除处理
电子设备获取的语音数据之后,电子设备检测该语音数据中是否存在无效数据,该无效数据可以理解为语音数据中的静音片段对应的数据,若该语音数据中存在无效数据,则去除该语音数据中的无效数据。
第二种预处理:振幅分布处理
为了使得本申请实施例提供的语音增强方法在实际环境中具有更强的鲁棒性,电子设备可以对获取到的语音数据进行振幅分布处理,也可以称为样本域自适应处理。具体的,对获取到的语音数据的振幅进行正则化处理,以使得该语音数据的振幅与训练集(指的是用于训练本申请实施例中的语音增强模型、干扰信息提取模型、语音融合模型的训练集)中的语音数据的振幅处于相同尺度的分布中。本申请实施例中,电子设备可以根据训练集中的语音数据的振幅的最大值和最小值对获取到语音数据的振幅进行正则化处理。
可选的,结合图2,如图7所示,在上述S201(电子设备基于语音增强模型,对待处理的语音数据进行处理,预测得到该待处理语音数据中的纯净语音数据)之前,本申请实施例提供的语音增强方法还包括S205。
S205、电子设备根据多个语音数据和该多个语音数据中的真实的纯净语音数据对预设语音增强模型进行训练得到语音增强模型。
可以理解的是,多个语音数据和该多个语音数据中的真实的纯净语音数据构成语音增强模型的训练样本集。
具体的,将训练样本集中的语音数据输入至预设语音增强模型中,预测得到该语音数据中的纯净语音数据,并将该预测的语音数据中的纯净语音数据和该语音数据中的真实的纯净语音数据进行对比,计算语音增强模型对应的损失值,再根据该损失值更新该预设语音增强模型的参数。电子设备循环执行上述操作,直至执行次数达到预设的训练次数,或者语音增强模型预测得到的语音数据中的纯净语音数据满足预设条件的情况下,结束模型训练,得到语音增强模型。
可选的,可以采用下述损失函数计算语音增强模型对应的损失值:
Figure BDA0003230112990000091
其中,x为真实的纯净语音数据,
Figure BDA0003230112990000092
为语音增强模型预测出的纯净语音数据,s_num为训练样本集的样本总数,T_len为语音数据的帧长度,F_len为语音数据的频域采样点个数,
Figure BDA0003230112990000093
为语音增强模型预测后的纯净语音数据的频谱图的像素值,xs,i,j为真实的纯净语音数据的频谱的图像素值。
可选的,结合图2,如图8所示,在上述S202(基于干扰信息提取模型,对该待处理的语音数据进行处理,预测得到该待处理语音数据中的纯净干扰数据)之前,本申请实施例提供的语音增强方法还包括S206。
S206、电子设备根据多个语音数据和该多个语音数据中的真实的纯净干扰数据训对预设干扰信息提取模型进行练得到干扰信息提取模型。
可以理解的是,多个语音数据和该多个语音数据中的真实的纯净干扰数据构成干扰信息提取模型的训练样本集。
具体的,将训练样本集中的语音数据输入至预设干扰信息提取模型中,预测得到该语音数据中的纯净干扰数据,并将该预测的语音数据中的纯净干扰数据和该语音数据中的真实的纯净干扰数据进行对比,计算干扰信息提取模型对应的损失值,再根据该损失值更新该预设干扰信息提取模型的参数。电子设备循环执行上述操作,直至执行次数达到预设的训练次数,或者干扰信息提取模型预测得到的该多个语音数据中的纯净干扰数据满足预设条件的情况下,结束模型训练,得到干扰信息提取模型。
可选的,可以采用下述损失函数计算干扰信息提取模型对应的损失值:
Figure BDA0003230112990000094
其中,n为真是的纯净干扰数据,
Figure BDA0003230112990000095
为干扰信息提取模型预测出的纯净干扰数据,s_num为训练样本集的样本总数,T_len为干扰数据的帧长度,F_len为干扰数据的频域采样点个数,
Figure BDA0003230112990000101
为干扰信息提取预测后的纯净干扰数据的频谱图像素点值,ns,i,j为真实的纯净干扰数据的频谱图像素点值。
可选的,结合图2,如图9所示,在上述S203(基于语音融合模型,对待处理的语音数据、该待处理语音数据中的纯净语音数据以及该待处理语音数据中的纯净干扰数据做融合处理,得到增强的语音数据)之前,本申请实施例提供的语音增强方法还包括S207。
S207、电子设备根据多个语音数据、上述语音增强模型预测的该多个语音数据中的纯净语音数据、上述干扰信息提取模型预测的该多个语音数据中的纯净干扰数据以及该多个语音数据中的真实的纯净干扰数据对预设语音融合模型进行训练得到语音融合模型。
可以理解的是,多个语音数据、上述语音增强模型预测得到的该多个语音数据中的纯净语音数据、上述干扰信息提取模型预测得到的该多个语音数据中的纯净干扰数据、该多个语音数据中的真实的纯净语音数据构成语音融合模型的训练样本集。
具体的,将上述训练样本集中的语音数据、上述语音增强模型预测得到的该语音数据中的纯净语音数据、上述干扰信息提取模型预测得到的该语音数据中的纯净干扰数据输入至预设语音融合模型中,预测得到增强的语音数据,并将该增强的语音数据和该语音数据中的真实的纯净语音数据进行对比,计算干语音融合模型对应的损失值,再根据该损失值更新该预设语音融合模型的参数。电子设备循环执行上述操作,直至执行次数达到预设的训练次数,或者语音融合模型预测得到的该增强的语音数据满足预设条件的情况下,结束模型训练,得到语音融合模型。
可选地,可以采用下述公式计算语音融合模型对应的总损失值,该总损失值用于更新该语音融合模型:
J=a×J(m)+b×J(n)+c×J(x)
该损失函数J是多任务损失函数,其中,J(x)为上述S205中计算语音增强模型对应的损失值的损失函数,J(n)为上述S206中计算干扰信息提取模型对应的损失值的损失函数,J(m)为下述计算语音融合模型对应的损失值的损失函数。
Figure BDA0003230112990000102
其中,m为真实的纯净语音数据,
Figure BDA0003230112990000103
为语音融合模型预测的增强的语音数据,s_num为训练样本集的样本总数,T_len为语音数据的帧长度,F_len为为语音数据的频域采样点个数,
Figure BDA0003230112990000104
为语音融合模型预测后的增强的语音数据的频谱图的像素值,ms,i,j为真实的纯净语音数据的频谱的图像素值,其中的a、b、c为根据训练需要进行调整的权重。
相应的,本申请实施例提供一种语音增强装置,如图10所示,该语音增强装置包括语音增强模块1001、干扰信息提取模块1002、语音融合模块1003。其中,语音增强模块1001用于基于语音增强模型,对待处理的语音数据进行处理,预测得到该待处理语音数据中的纯净语音数据;该待处理的语音数据为频域语音数据,例如执行上述方法实施例中的S201。干扰信息提取模块1002用于基于干扰信息提取模型,对上述待处理的语音数据进行处理,预测得到该待处理语音数据中的纯净干扰数据,例如执行上述方法实施例中的S202。语音融合模块1003用于基于语音融合模型,对待处理的语音数据、上述待处理语音数据中的纯净语音数据以及上述待处理语音数据中的纯净干扰数据做融合处理,得到增强的语音数据,例如执行上述方法实施例中的S203。
可选的,本申请实施例提供的语音增强装置还包括语音数据预处理模块1004、频域转换模块1005。
该语音数据预处理模块1004用于对获取的语音数据进行预处理,得到预处理后的语音数据,该预处理包括无效数据去除处理和振幅分布处理,该预处理后的语音数据为时域的语音数据,例如执行上述方法实施例中的S204。
该频域转换模块1005用于对上述预处理后的语音数据做短时傅里叶变换,得到频域的语音数据,即待处理的语音数据。
可选的,本申请实施例提供的语音增强装置还包括第一训练模块1006。该第一训练模块1006用于基于多个语音数据和该多个语音数据中的真实的纯净语音数据对预设语音增强模型进行训练得到语音增强模型。例如执行上述方法实施例中的S205。
可选的,本申请实施例提供的语音增强装置还包括第二训练模块1007。该第二训练模块1007用于基于多个语音数据和该多个语音数据中的真实的纯净干扰数据对预设干扰信息提取模型进行训练得到干扰信息提取模型。例如执行上述方法实施例中的S206。
可选的,本申请实施例提供的语音增强装置还包括第三训练模块1008。该第三训练模块1008用于基于多个语音数据、上述语音增强模型预测的该多个语音数据中的纯净语音数据、上述干扰信息提取模型预测的该多个语音数据中的纯净干扰数据以及该多个语音数据中的真实的纯净语音数据对预设语音融合模型进行训练得到语音融合模型。例如执行上述方法实施例中的S207。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。

Claims (10)

1.一种语音增强方法,其特征在于,应用于电子设备,包括:
基于语音增强模型,对待处理的语音数据进行处理,预测得到所述待处理语音数据中的纯净语音数据;所述待处理的语音数据为频域语音数据;
基于干扰信息提取模型,对所述待处理的语音数据进行处理,预测得到所述待处理语音数据中的纯净干扰数据;
基于语音融合模型,对待处理的语音数据、所述待处理语音数据中的纯净语音数据以及所述待处理语音数据中的纯净干扰数据做融合处理,得到增强的语音数据。
2.根据权利要求1所述的方法,其特征在于,
所述语音增强模型包括依次连接的域自适应映射层、编码器层、第一自注意力层以及第一掩码生成层;其中,所述域自适应映射层由两个全连接层组成,所述编码器层由一个卷积层、两个因果卷积层、以及一个卷积层组成,所述第一自注意力层由长短期记忆层和两个全连接层组成,所述第一掩码生成层由两个长短期记忆层组成。
3.根据权利要求1所述的方法,其特征在于,
所述干扰信息提取模型包括依次连接的特征提取层、第二自注意力层以及第二掩码生成层;其中,所述特征提取层由两个因果卷积层组成,所述第二自注意力层由长短期记忆层和个全连接层组成,所述第二掩码生成层由三个长短期记忆层构成。
4.根据权利要求1所述的方法,其特征在于,
所述语音融合模型包括依次连接的三个卷积层和一个全连接层。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述方法还包括:
对获取的语音数据进行预处理,得到预处理后的语音数据,所述预处理包括无效数据去除处理和振幅分布处理,所述预处理后的语音数据为时域的语音数据;
对所述预处理后的语音数据做短时傅里叶变换,得到所述待处理的语音数据。
6.根据权利要求1所述的方法,其特征在于,
所述语音增强模型是根据多个语音数据和所述多个语音数据中的真实的纯净语音数据训练得到的。
7.根据权利要求1或2所述方法,其特征在于,
所述干扰信息提取模型是根据多个语音数据和所述多个语音数据中的真实的纯净干扰数据训练得到的。
8.根据权利要求7所述的方法,其特征在于,
所述语音融合模型是根据多个语音数据、所述语音增强模型预测的所述多个语音数据中的纯净语音数据、所述干扰信息提取模型预测的所述多个语音数据中的纯净干扰数据以及所述多个语音数据中的真实的纯净语音数据训练得到的。
9.一种电子设备,其特征在于,包括处理器和与所述处理器耦合连接的存储器;所述存储器用于存储计算机指令,当所述电子设备运行时,所述处理器执行存储器存储的所述计算机指令,以使得所述电子设备执行如权利要求1至8任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括计算机程序,当所述计算机程序在计算机上运行时,以执行如权利要求1至8任一项所述的方法。
CN202110984082.8A 2021-08-25 2021-08-25 一种语音增强方法及装置 Active CN113782044B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110984082.8A CN113782044B (zh) 2021-08-25 2021-08-25 一种语音增强方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110984082.8A CN113782044B (zh) 2021-08-25 2021-08-25 一种语音增强方法及装置

Publications (2)

Publication Number Publication Date
CN113782044A true CN113782044A (zh) 2021-12-10
CN113782044B CN113782044B (zh) 2023-11-03

Family

ID=78839120

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110984082.8A Active CN113782044B (zh) 2021-08-25 2021-08-25 一种语音增强方法及装置

Country Status (1)

Country Link
CN (1) CN113782044B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115295003A (zh) * 2022-10-08 2022-11-04 青岛民航凯亚系统集成有限公司 对民航机务维修领域的语音降噪方法及系统
CN117440001A (zh) * 2023-12-20 2024-01-23 国投人力资源服务有限公司 一种基于消息的数据同步方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107452389A (zh) * 2017-07-20 2017-12-08 大象声科(深圳)科技有限公司 一种通用的单声道实时降噪方法
CN108447495A (zh) * 2018-03-28 2018-08-24 天津大学 一种基于综合特征集的深度学习语音增强方法
CN109215674A (zh) * 2018-08-10 2019-01-15 上海大学 实时语音增强方法
CN109658949A (zh) * 2018-12-29 2019-04-19 重庆邮电大学 一种基于深度神经网络的语音增强方法
CN110164465A (zh) * 2019-05-15 2019-08-23 上海大学 一种基于深层循环神经网络的语音增强方法及装置
CN111179911A (zh) * 2020-01-02 2020-05-19 腾讯科技(深圳)有限公司 目标语音提取方法、装置、设备、介质和联合训练方法
US20210074282A1 (en) * 2019-09-11 2021-03-11 Massachusetts Institute Of Technology Systems and methods for improving model-based speech enhancement with neural networks
CN112700786A (zh) * 2020-12-29 2021-04-23 西安讯飞超脑信息科技有限公司 语音增强方法、装置、电子设备和存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107452389A (zh) * 2017-07-20 2017-12-08 大象声科(深圳)科技有限公司 一种通用的单声道实时降噪方法
CN108447495A (zh) * 2018-03-28 2018-08-24 天津大学 一种基于综合特征集的深度学习语音增强方法
CN109215674A (zh) * 2018-08-10 2019-01-15 上海大学 实时语音增强方法
CN109658949A (zh) * 2018-12-29 2019-04-19 重庆邮电大学 一种基于深度神经网络的语音增强方法
CN110164465A (zh) * 2019-05-15 2019-08-23 上海大学 一种基于深层循环神经网络的语音增强方法及装置
US20210074282A1 (en) * 2019-09-11 2021-03-11 Massachusetts Institute Of Technology Systems and methods for improving model-based speech enhancement with neural networks
CN111179911A (zh) * 2020-01-02 2020-05-19 腾讯科技(深圳)有限公司 目标语音提取方法、装置、设备、介质和联合训练方法
CN112700786A (zh) * 2020-12-29 2021-04-23 西安讯飞超脑信息科技有限公司 语音增强方法、装置、电子设备和存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115295003A (zh) * 2022-10-08 2022-11-04 青岛民航凯亚系统集成有限公司 对民航机务维修领域的语音降噪方法及系统
CN117440001A (zh) * 2023-12-20 2024-01-23 国投人力资源服务有限公司 一种基于消息的数据同步方法
CN117440001B (zh) * 2023-12-20 2024-02-27 国投人力资源服务有限公司 一种基于消息的数据同步方法

Also Published As

Publication number Publication date
CN113782044B (zh) 2023-11-03

Similar Documents

Publication Publication Date Title
CN110491407B (zh) 语音降噪的方法、装置、电子设备及存储介质
CN110379412B (zh) 语音处理的方法、装置、电子设备及计算机可读存储介质
CN110491404B (zh) 语音处理方法、装置、终端设备及存储介质
CN108597496B (zh) 一种基于生成式对抗网络的语音生成方法及装置
CN111081268A (zh) 一种相位相关的共享深度卷积神经网络语音增强方法
CN111223493A (zh) 语音信号降噪处理方法、传声器和电子设备
CN110415687A (zh) 语音处理方法、装置、介质、电子设备
CN113436643B (zh) 语音增强模型的训练及应用方法、装置、设备及存储介质
Zhao et al. Late reverberation suppression using recurrent neural networks with long short-term memory
CN105118501A (zh) 语音识别的方法及系统
CN113077806B (zh) 音频处理方法及装置、模型训练方法及装置、介质和设备
CN113782044B (zh) 一种语音增强方法及装置
CN114338623A (zh) 音频的处理方法、装置、设备、介质及计算机程序产品
CN114242098A (zh) 一种语音增强方法、装置、设备以及存储介质
CN115171713A (zh) 语音降噪方法、装置、设备及计算机可读存储介质
CN116312616A (zh) 一种用于带噪语音信号的处理恢复方法和控制系统
CN111883154A (zh) 回声消除方法及装置、计算机可读的存储介质、电子装置
CN117059068A (zh) 语音处理方法、装置、存储介质及计算机设备
CN111916060B (zh) 一种基于谱减的深度学习语音端点检测方法和系统
CN111681649B (zh) 语音识别方法、交互系统及包括该系统的成绩管理系统
CN113096679A (zh) 音频数据处理方法和装置
CN113763978B (zh) 语音信号处理方法、装置、电子设备以及存储介质
US20230186943A1 (en) Voice activity detection method and apparatus, and storage medium
CN116665681A (zh) 一种基于组合滤波的雷声识别方法
CN114827363A (zh) 用于通话过程中消除回声的方法、设备和可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant