CN109427340A - 一种语音增强方法、装置及电子设备 - Google Patents

一种语音增强方法、装置及电子设备 Download PDF

Info

Publication number
CN109427340A
CN109427340A CN201710725576.8A CN201710725576A CN109427340A CN 109427340 A CN109427340 A CN 109427340A CN 201710725576 A CN201710725576 A CN 201710725576A CN 109427340 A CN109427340 A CN 109427340A
Authority
CN
China
Prior art keywords
voice data
obtains
data
value
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710725576.8A
Other languages
English (en)
Inventor
何赛娟
陈扬坤
陈展
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN201710725576.8A priority Critical patent/CN109427340A/zh
Publication of CN109427340A publication Critical patent/CN109427340A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/45Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of analysis window

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Abstract

本发明实施例提供了一种语音增强方法、装置及电子设备,方法包括:获取待增强语音数据,并提取语音数据的特征值;将特征值输入至预先训练得到的深层神经网络模型,得到增强特征值;其中,深层神经网络模型为:对包含噪声的语音样本及其对应的不包含噪声的语音样本进行训练得到;根据增强特征值,对语音数据进行波形重构,得到增强后的语音数据。可见,本方案中,利用深层神经网络模型进行语音增强,该深层神经网络模型基于大量语音样本(不包含噪声的语音样本及包含噪声的语音样本)训练得到,携带有丰富的语音信息,即使场景中出现异常噪声,语音增强效果不受影响,相比于现有方案,提高了语音增强效果。

Description

一种语音增强方法、装置及电子设备
技术领域
本发明涉及信号处理技术领域,特别是涉及一种语音增强方法、装置及电子设备。
背景技术
在一些应用场景中,比如手机通讯、音频监控等场景中,通常需要采集场景中的语音数据。一般来说,采集到的语音数据中大多包含场景噪声,为了提高语音数据的清晰度,通常需要对采集到的语音数据进行增强处理。
现有的语音增强方案中,通常都是利用与当前帧相邻的一帧或几帧数据,对当前帧进行修正,以实现对当前帧的语音增强。这种方案大多应用于噪声较平稳的场景,如果场景中噪声不平稳,比如场景中突然出现了异常噪声,导致相邻帧之间差别较大,比如:获取的当前帧中噪声很大,而当前帧之前的数据帧中噪声较小,或者获取的当前帧中噪声很小,而当前帧之前的数据帧中噪声较大;这种情况下,应用这种方案,利用差别较大的数据帧对当前帧进行修正,效果较差。
发明内容
本发明实施例的目的在于提供一种语音增强方法、装置及电子设备,以提高语音增强效果。
为达到上述目的,本发明实施例提供一种语音增强方法,包括:
获取待增强语音数据,并提取所述语音数据的特征值;
将所述特征值输入至预先训练得到的深层神经网络模型,得到增强特征值;其中,所述深层神经网络模型为:对包含噪声的语音样本及其对应的不包含噪声的语音样本进行训练得到;
根据所述增强特征值,对所述语音数据进行波形重构,得到增强后的语音数据。
可选的,所述提取所述语音数据的特征值的步骤,可以包括:
对所述语音数据进行预处理,得到每个数据帧;
将所述每个数据帧由时域转换至频域;
利用预设尺度的三角形滤波器,对转换至频域的每个数据帧进行滤波;
对滤波后的每个数据帧进行离散余弦变换,得到所述语音数据的特征值。
可选的,所述对所述语音数据进行预处理,得到每个数据帧的步骤,包括:
对所述语音数据进行预加重处理,得到加重后数据;
对所述加重后数据进行分帧处理,得到分帧数据;
利用预设窗函数对所述分帧数据进行加窗处理,得到每个数据帧。
可选的,所述对滤波后的每个数据帧进行离散余弦变换,得到所述语音数据的特征值的步骤,可以包括:
对滤波后的每个数据帧进行对数域离散余弦变换,得到梅尔频率倒谱系数MFCC值,将所述MFCC值作为所述语音数据的特征值。
可选的,训练得到所述深层神经网络模型的过程可以包括:
对深层神经网络模型的模型参数进行初始化;
利用神经网络学习算法,对包含噪声的语音样本及其对应的不包含噪声的语音样本进行学习训练,得到训练后的模型参数;
根据所述训练后的模型参数,构建所述深层神经网络模型。
可选的,所述对深层神经网络模型的模型参数进行初始化的步骤,可以包括:
利用无监督学习算法,对包含噪声的语音样本进行学习,得到初始化模型参数。
可选的,所述根据所述增强特征值,对所述语音数据进行波形重构,得到增强后的语音数据的步骤,可以包括:
将所述增强特征值进行逆离散余弦变换,得到幅度值;
获取所述待增强语音数据的相位值;
将所述幅度值与所述相位值进行叠加,得到增强后的语音数据。
为达到上述目的,本发明实施例还提供一种语音增强装置,包括:
获取模块,用于获取待增强语音数据,
提取模块,用于提取所述语音数据的特征值;
输入模块,用于将所述特征值输入至预先训练得到的深层神经网络模型,得到增强特征值;其中,所述深层神经网络模型为:对包含噪声的语音样本及其对应的不包含噪声的语音样本进行训练得到;
重构模块,用于根据所述增强特征值,对所述语音数据进行波形重构,得到增强后的语音数据。
可选的,所述提取模块,可以包括:
预处理子模块,用于对所述语音数据进行预处理,得到每个数据帧;
转换子模块,用于将所述每个数据帧由时域转换至频域;
滤波子模块,用于利用预设尺度的三角形滤波器,对转换至频域的每个数据帧进行滤波;
变换子模块,用于对滤波后的每个数据帧进行离散余弦变换,得到所述语音数据的特征值。
可选的,所述预处理子模块,具体可以用于:
对所述语音数据进行预加重处理,得到加重后数据;
对所述加重后数据进行分帧处理,得到分帧数据;
利用预设窗函数对所述分帧数据进行加窗处理,得到每个数据帧。
可选的,所述滤波子模块,具体可以用于:
对滤波后的每个数据帧进行对数域离散余弦变换,得到梅尔频率倒谱系数MFCC值,将所述MFCC值作为所述语音数据的特征值。
可选的,所述装置还包括:
训练模块,用于训练得到所述深层神经网络模型;
所述训练模块,可以包括:
初始化子模块,用于对深层神经网络模型的模型参数进行初始化;
训练子模块,用于利用神经网络学习算法,对包含噪声的语音样本及其对应的不包含噪声的语音样本进行学习训练,得到训练后的模型参数;
构建子模块,用于根据所述训练后的模型参数,构建所述深层神经网络模型。
可选的,所述初始化子模块,具体可以用于:
利用无监督学习算法,对包含噪声的语音样本进行学习,得到初始化模型参数。
可选的,所述重构模块,具体可以用于:
将所述增强特征值进行逆离散余弦变换,得到幅度值;
获取所述待增强语音数据的相位值;
将所述幅度值与所述相位值进行叠加,得到增强后的语音数据。
为达到上述目的,本发明实施例还提供一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述任一种语音增强方法。
为达到上述目的,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一种语音增强方法。
应用本发明所示实施例,利用深层神经网络模型进行语音增强,该深层神经网络模型基于大量语音样本(不包含噪声的语音样本及包含噪声的语音样本)训练得到,携带有丰富的语音信息,即使场景中出现异常噪声,语音增强效果不受影响,相比于现有方案,提高了语音增强效果。
当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种语音增强方法的流程示意图;
图2为本发明实施例提供的一种训练深层神经网络模型的流程示意图;
图3为本发明实施例提供的一种深层神经网络模型示意图;
图4为本发明实施例提供的一种语音增强装置的结构示意图;
图5为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了解决上述技术问题,本发明实施例提供了一种语音增强方法、装置及电子设备,该方法可以应用于手机、电脑等各种电子设备,具体不做限定。下面首先对本发明实施例提供的一种语音增强方法进行详细说明。
图1为本发明实施例提供的一种语音增强方法的流程示意图,包括:
S101:获取待增强语音数据。
执行本方案的设备(以下简称本设备)可以具有语音采集功能,该待增强语音数据可以为本设备自身采集的语音数据。或者,本设备也可以从其他语音采集设备中获取待增强语音数据。本设备可以实时地对获取的语音数据进行语音增强,或者,本设备也可以根据用户指令,确定待增强语音数据,仅对所确定的语音数据进行语音增强,这都是合理的。
S102:提取所述语音数据的特征值。
对S101中获取的语音数据进行特征值提取,具体的,可以对所述语音数据进行预处理,得到每个数据帧;将所述每个数据帧由时域转换至频域;利用预设尺度的三角形滤波器,对转换至频域的每个数据帧进行滤波;对滤波后的每个数据帧进行离散余弦变换,得到所述语音数据的特征值。
上述对语音数据进行预处理的过程可以包括:对所述语音数据进行预加重处理,得到加重后数据;对所述加重后数据进行分帧处理,得到分帧数据;利用预设窗函数对所述分帧数据进行加窗处理,得到每个数据帧。
具体的,该预加重处理可以利用高通滤波器对语音数据进行过滤,该高通滤波器可以为:H(z)=1-μz-1,其中,H(z)表示语音数据的系统函数,μ的取值可以介于0.9-1.0之间,具体数值可以根据实际情况来设定。
本领域技术人员可以理解,通过预加重处理,一方面,可以提升语音数据的高频分量,使得语音数据的频谱变得平坦,信噪比的稳定性较好;另一方面,可以降低声带和嘴唇效应造成的影响,补偿语音数据受到发音系统所抑制的高频部分,突出高频的共振峰。
或者,也可以利用其他方式进行预加重处理,具体不做限定。
对经过预加重处理的数据(加重后数据)进行分帧,一般来说,可以将信息分成10ms-30ms一帧,或者,也可以根据实际情况,确定每帧长度。通常情况下,每帧之间可以存在重叠区域,比如,可以采用交叠分段的方法,前一帧和后一帧的交叠部分称为帧移,帧移与帧长的比值一般为0~0.5,这样可以有效避免数据丢失。
经过分帧处理后,再利用预设窗函数对数据进行加窗处理。本领域技术人员可以理解,加窗处理可以使语音数据连续性更好,减少吉布斯效应的影响,加窗处理后,语音数据能够更好地呈现出周期函数的部分特征。具体的窗函数可以根据实际情况来设定,比如,可以选择汉明窗,汉明窗的主瓣宽度较宽,旁瓣衰减较大,具有较平滑的低通特性,能够较好的反应短时信号的频率特性,频谱泄露情况较少。或者,也可以采用其他窗函数,具体不做限定。
经过加窗处理后,便得到了每个数据帧,可以通过傅里叶变换,将每个数据帧由时域转换至频域。
作为一种实施方式,可以对转换至频域的每个数据帧进行滤波,具体的,可以利用Mel尺度的三角形滤波器对数据帧进行处理。这样,数据帧便会携带Mel尺度特性,而且经过滤波处理后,数据的频谱更平滑,还可以消除谐波,降低方案的运算量。
然后对滤波后的每个数据帧进行离散余弦变换:
第一种实施方式,可以直接对滤波后的每个数据帧进行离散余弦变换,得到特征值。
第二种实施方式,可以对滤波后的每个数据帧进行对数域离散余弦变换,也就是说,获取上述三角形滤波器输出的数据后,先计算该数据的对数,再对得到的对数进行离散余弦变换。
在本实施方式中,在离散余弦变换中加入对数能量,也就是增加了一维特征,可以提高特征值的准确度。经过对数域离散余弦变换,得到梅尔频率倒谱系数MFCC值。
作为一种实施方式,可以将该MFCC值作为S101所获取语音数据的特征值。本领域技术人员可以理解,以MFCC值作为特征值,可以减少语音数据中音调的影响,提高语音增强效果。
或者,作为另一种实施方式,可以进一步确定S101语音数据的对数谱特征等其他特征,将这些其他特征与MFCC值一并作为S101所获取语音数据的特征值。可以理解,特征值的种类越多,准确度越高。
本实施例中,也可以利用其他方式,提取语音数据的其他特征值,具体不做限定。
S103:将所述特征值输入至预先训练得到的深层神经网络模型,得到增强特征值。
其中,所述深层神经网络模型(Deep Neural Networks,DNN)为:对包含噪声的语音样本及其对应的不包含噪声的语音样本进行训练得到。
具体的,训练得到该深层神经网络模型的过程可以如图2所示,包括:
S201:对深层神经网络模型的模型参数进行初始化;
S202:利用神经网络学习算法,对包含噪声的语音样本及其对应的不包含噪声的语音样本进行学习训练,得到训练后的模型参数;
S203:根据所述训练后的模型参数,构建所述深层神经网络模型。
上述“包含噪声的语音样本”、以及“不包含噪声的语音样本”可以从一些开源数据库中获取,比如TIMIT数据库等,或者,也可以自行录制,具体不做限定。需要说明的是,该“包含噪声的语音样本”与“不包含噪声的语音样本”存在对应关系,也就是说,该不包含噪声的语音样本为:包含噪声的语音样本对应的干净语音样本。
作为一种实施方式,可以先录制干净语音样本(不包含噪声的语音样本),然后在该干净语音样本中加入一些特定噪声,得到包含噪声的语音样本。可以在每份干净语音样本中分别加入一种特定噪声,比如,针对干净语音样本A,在A中加入枪声,得到包含噪声的语音样本A1,在A中加入机器轰鸣声,得到包含噪声的语音样本A2,在A中加入哭声,得到包含噪声的语音样本A3,等等,也就是说,一份干净语音样本可以对应多份包含噪声的语音样本。
或者,也可以在一份干净语音样本中加入多种混合噪声,比如,在上述干净语音样本A中加入枪声和哭声,得到包含噪声的语音样本A4,在A中加入机器轰鸣声和哭声,得到包含噪声的语音样本A5,在A中加入机器轰鸣声和枪声,得到包含噪声的语音样本A6,在A中加入机器轰鸣声、枪声和哭声,得到包含噪声的语音样本A7,等等。
本领域技术人员可以理解,用于训练的语音样本种类越多,数量越大,训练得到的深层神经网络模型携带的信息越丰富,利用该模型进行语音增强的效果越好。
深层神经网络可以包括很多层级,比如图3中所示,深层神经网络可以包含输入层、多个隐层及输出层,输出层可以通过Softmax函数进行分类输出,具体不做限定。其中,网络中的层级、以及层级中的参数可以根据实际情况进行设定。
先对模型中各层参数(模型参数)进行初始化。初始化方式有多种,比如随机初始化,或者,初始化为设定值。作为一种实施方式,可以利用无监督学习算法,对包含噪声的语音样本进行学习训练。无监督学习算法有多种,比如逐层受限玻尔兹曼机(RBM,RestrictedBoltzmann Machine)算法等,具体不做限定。通过无监督学习,可以得到初始化模型参数。
然后利用神经网络学习算法,比如BP(Error Back Propagation,误差反向传播)算法迭代求解,并采用Softmax Loss函数计算分类误差,由底层至顶层反向传播,依次确定各层参数;当平均误差不再下降,或者停留在一个范围内时,停止迭代,得到各层参数,便构建出深层神经网络模型。该神经网络学习算法也可以采用其他算法,具体不做限定。
由上面描述可知,深层神经网络模型是基于包含噪声的语音样本及其对应的不包含噪声的语音样本进行训练得到的,也可以理解为,深层神经网络模型中携带了包含噪声的语音样本与干净语音样本的对应关系。
S101中获取的语音数据为包含噪声的语音数据,S102中得到的特征值为该“包含噪声的语音数据”的特征值,将该特征值输入至该模型,根据模型中“包含噪声的语音样本与干净语音样本的对应关系”,可以输出增强特征值,也可以理解为干净语音样本的特征值。因此,S103中得到了干净语音样本的特征值。
S104:根据所述增强特征值,对所述语音数据进行波形重构,得到增强后的语音数据。
本领域人员可以理解,波形重构与提取特征值的过程相反。在上述一种实施方式中,S102中提取的特征值为MFCC值,如果S103中将MFCC值输入深层神经网络模型,则输出的增强特征值也为MFCC值。这种实施方式下进行波形重构,可以理解为将深层神经网络模型输出的MFCC值(S103中得到的增强特征值)反变换到语音数据中。
具体的,S104可以包括:将所述增强特征值进行逆离散余弦变换,得到幅度值;获取所述待增强语音数据的相位值;将所述幅度值与所述相位值进行叠加,得到增强后的语音数据。
本领域技术人员可以理解,将深层神经网络模型输出的MFCC值进行逆离散余弦变换,可以得到幅度值。另外,提取S101中语音数据的相位值,将该幅度值与该相位值进行叠加,便得到了增强后的语音数据。
在上述另外一些实施方式中,S102中提取的特征值不仅包括MFCC值,还包含对数谱特征等其他特征,这些实施方式中,S103中将MFCC值、及对数谱特征等其他特征输入深层神经网络模型,相对应的,输出的增强特征值也包含MFCC值、对数谱特征等其他特征。这种情况下进行波形重构,可以理解为将深层神经网络模型输出的MFCC值、对数谱特征等其他特征一并反变换到语音数据中。
如果场景中噪声不平稳,比如场景中突然出现了异常噪声,导致相邻帧之间差别较大,比如:获取的当前帧中噪声很大,而当前帧之前的数据帧中噪声较小,或者获取的当前帧中噪声很小,而当前帧之前的数据帧中噪声较大;应用本方案,对添加了该异常噪声的语音样本、以及未添加该异常噪声的语音样本(干净样本)进行训练,得到深层神经网络模型,也可以理解为,该深层神经网络模型中包含“添加了该异常噪声的语音样本”与“未添加该异常噪声的语音样本(干净样本)”的对应关系,获取该场景中的语音数据,该语音数据中包含异常噪声,提取该语音数据的特征值,将该特征值输入至该深层神经网络模型,便可以得到对应的干净样本的特征值(增强特征值),利用该增强特征值,对该语音数据进行波形重构,得到了增强后的语音数据;由此可见,本方案并不会受到场景中异常噪声的影响,语音增强效果较佳。
应用本发明所示实施例,利用深层神经网络模型进行语音增强,该深层神经网络模型基于大量语音样本(不包含噪声的语音样本及包含噪声的语音样本)训练得到,携带有丰富的语音信息,即使场景中出现异常噪声,语音增强效果不受影响,相比于现有方案,提高了语音增强效果。
与上述方法实施例相对应,本发明实施例还提供了一种语音增强装置。
图4为本发明实施例提供的一种语音增强装置的结构示意图,包括:
获取模块401,用于获取待增强语音数据,
提取模块402,用于提取所述语音数据的特征值;
输入模块403,用于将所述特征值输入至预先训练得到的深层神经网络模型,得到增强特征值;其中,所述深层神经网络模型为:对包含噪声的语音样本及其对应的不包含噪声的语音样本进行训练得到;
重构模块404,用于根据所述增强特征值,对所述语音数据进行波形重构,得到增强后的语音数据。
作为一种实施方式,提取模块402,可以包括:预处理子模块、转换子模块、滤波子模块和变换子模块(图中未示出),其中,
预处理子模块,用于对所述语音数据进行预处理,得到每个数据帧;
转换子模块,用于将所述每个数据帧由时域转换至频域;
滤波子模块,用于利用预设尺度的三角形滤波器,对转换至频域的每个数据帧进行滤波;
变换子模块,用于对滤波后的每个数据帧进行离散余弦变换,得到所述语音数据的特征值。
作为一种实施方式,所述预处理子模块,具体可以用于:
对所述语音数据进行预加重处理,得到加重后数据;
对所述加重后数据进行分帧处理,得到分帧数据;
利用预设窗函数对所述分帧数据进行加窗处理,得到每个数据帧。
作为一种实施方式,所述滤波子模块,具体可以用于:
对滤波后的每个数据帧进行对数域离散余弦变换,得到梅尔频率倒谱系数MFCC值,将所述MFCC值作为所述语音数据的特征值。
作为一种实施方式,所述装置还可以包括:
训练模块(图中未示出),用于训练得到所述深层神经网络模型;
所述训练模块,可以包括:
初始化子模块,用于对深层神经网络模型的模型参数进行初始化;
训练子模块,用于利用神经网络学习算法,对包含噪声的语音样本及其对应的不包含噪声的语音样本进行学习训练,得到训练后的模型参数;
构建子模块,用于根据所述训练后的模型参数,构建所述深层神经网络模型。
作为一种实施方式,所述初始化子模块,具体可以用于:
利用无监督学习算法,对包含噪声的语音样本进行学习,得到初始化模型参数。
作为一种实施方式,重构模块404,具体可以用于:
将所述增强特征值进行逆离散余弦变换,得到幅度值;
获取所述待增强语音数据的相位值;
将所述幅度值与所述相位值进行叠加,得到增强后的语音数据。
应用本发明图4所示实施例,利用深层神经网络模型进行语音增强,该深层神经网络模型基于大量语音样本(不包含噪声的语音样本及包含噪声的语音样本)训练得到,携带有丰富的语音信息,即使场景中出现异常噪声,语音增强效果不受影响,相比于现有方案,提高了语音增强效果。
与上述方法实施例相对应,本发明实施例还提供了一种电子设备,如图5所示,包括处理器501、通信接口502、存储器503和通信总线504,其中,处理器501,通信接口502,存储器503通过通信总线504完成相互间的通信,
存储器503,用于存放计算机程序;
处理器501,用于执行存储器503上所存放的程序时,实现如下步骤:
获取待增强语音数据,并提取所述语音数据的特征值;
将所述特征值输入至预先训练得到的深层神经网络模型,得到增强特征值;其中,所述深层神经网络模型为:对包含噪声的语音样本及其对应的不包含噪声的语音样本进行训练得到;
根据所述增强特征值,对所述语音数据进行波形重构,得到增强后的语音数据。
作为一种实施方式,处理器501,还用于执行存储器503上所存放的程序时,实现如下步骤:
对所述语音数据进行预处理,得到每个数据帧;
将所述每个数据帧由时域转换至频域;
利用预设尺度的三角形滤波器,对转换至频域的每个数据帧进行滤波;
对滤波后的每个数据帧进行离散余弦变换,得到所述语音数据的特征值。
作为一种实施方式,处理器501,还用于执行存储器503上所存放的程序时,实现如下步骤:
对所述语音数据进行预加重处理,得到加重后数据;
对所述加重后数据进行分帧处理,得到分帧数据;
利用预设窗函数对所述分帧数据进行加窗处理,得到每个数据帧。
作为一种实施方式,处理器501,还用于执行存储器503上所存放的程序时,实现如下步骤:
对滤波后的每个数据帧进行离散余弦变换,得到梅尔频率倒谱系数MFCC值,将所述MFCC值作为所述语音数据的特征值。
作为一种实施方式,处理器501,还用于执行存储器503上所存放的程序时,实现如下步骤:
对深层神经网络模型的模型参数进行初始化;
利用神经网络学习算法,对包含噪声的语音样本及其对应的不包含噪声的语音样本进行学习训练,得到训练后的模型参数;
根据所述训练后的模型参数,构建所述深层神经网络模型。
作为一种实施方式,处理器501,还用于执行存储器503上所存放的程序时,实现如下步骤:
利用无监督学习算法,对包含噪声的语音样本进行学习,得到初始化模型参数。
作为一种实施方式,处理器501,还用于执行存储器503上所存放的程序时,实现如下步骤:
将所述增强特征值进行逆离散余弦变换,得到幅度值;
获取所述待增强语音数据的相位值;
将所述幅度值与所述相位值进行叠加,得到增强后的语音数据。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral PomponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,简称RAM),也可以包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Ne twork Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Applica tion SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
应用本发明图5所示实施例,利用深层神经网络模型进行语音增强,该深层神经网络模型基于大量语音样本(不包含噪声的语音样本及包含噪声的语音样本)训练得到,携带有丰富的语音信息,即使场景中出现异常噪声,语音增强效果不受影响,相比于现有方案,提高了语音增强效果。
本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时,实现如下步骤:
获取待增强语音数据,并提取所述语音数据的特征值;
将所述特征值输入至预先训练得到的深层神经网络模型,得到增强特征值;其中,所述深层神经网络模型为:对包含噪声的语音样本及其对应的不包含噪声的语音样本进行训练得到;
根据所述增强特征值,对所述语音数据进行波形重构,得到增强后的语音数据。
作为一种实施方式,还用于实现如下步骤:
对所述语音数据进行预处理,得到每个数据帧;
将所述每个数据帧由时域转换至频域;
利用预设尺度的三角形滤波器,对转换至频域的每个数据帧进行滤波;
对滤波后的每个数据帧进行离散余弦变换,得到所述语音数据的特征值。
作为一种实施方式,还用于实现如下步骤:
对所述语音数据进行预加重处理,得到加重后数据;
对所述加重后数据进行分帧处理,得到分帧数据;
利用预设窗函数对所述分帧数据进行加窗处理,得到每个数据帧。
作为一种实施方式,还用于实现如下步骤:
对滤波后的每个数据帧进行离散余弦变换,得到梅尔频率倒谱系数MFCC值,将所述MFCC值作为所述语音数据的特征值。
作为一种实施方式,还用于实现如下步骤:
对深层神经网络模型的模型参数进行初始化;
利用神经网络学习算法,对包含噪声的语音样本及其对应的不包含噪声的语音样本进行学习训练,得到训练后的模型参数;
根据所述训练后的模型参数,构建所述深层神经网络模型。
作为一种实施方式,还用于实现如下步骤:
利用无监督学习算法,对包含噪声的语音样本进行学习,得到初始化模型参数。
作为一种实施方式,还用于实现如下步骤:
将所述增强特征值进行逆离散余弦变换,得到幅度值;
获取所述待增强语音数据的相位值;
将所述幅度值与所述相位值进行叠加,得到增强后的语音数据。
应用本发明所示实施例,利用深层神经网络模型进行语音增强,该深层神经网络模型基于大量语音样本(不包含噪声的语音样本及包含噪声的语音样本)训练得到,携带有丰富的语音信息,即使场景中出现异常噪声,语音增强效果不受影响,相比于现有方案,提高了语音增强效果。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于图4所示的语音增强装置实施例、图5所示的电子设备实施例而言,由于其基本相似于图1、2所示的语音增强方法实施例,所以描述的比较简单,相关之处参见图1、2所示的语音增强方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (15)

1.一种语音增强方法,其特征在于,包括:
获取待增强语音数据,并提取所述语音数据的特征值;
将所述特征值输入至预先训练得到的深层神经网络模型,得到增强特征值;其中,所述深层神经网络模型为:对包含噪声的语音样本及其对应的不包含噪声的语音样本进行训练得到;
根据所述增强特征值,对所述语音数据进行波形重构,得到增强后的语音数据。
2.根据权利要求1所述的方法,其特征在于,所述提取所述语音数据的特征值的步骤,包括:
对所述语音数据进行预处理,得到每个数据帧;
将所述每个数据帧由时域转换至频域;
利用预设尺度的三角形滤波器,对转换至频域的每个数据帧进行滤波;
对滤波后的每个数据帧进行离散余弦变换,得到所述语音数据的特征值。
3.根据权利要求2所述的方法,其特征在于,所述对所述语音数据进行预处理,得到每个数据帧的步骤,包括:
对所述语音数据进行预加重处理,得到加重后数据;
对所述加重后数据进行分帧处理,得到分帧数据;
利用预设窗函数对所述分帧数据进行加窗处理,得到每个数据帧。
4.根据权利要求2所述的方法,其特征在于,所述对滤波后的每个数据帧进行离散余弦变换,得到所述语音数据的特征值的步骤,包括:
对滤波后的每个数据帧进行对数域离散余弦变换,得到梅尔频率倒谱系数MFCC值,将所述MFCC值作为所述语音数据的特征值。
5.根据权利要求1所述的方法,其特征在于,训练得到所述深层神经网络模型的过程包括:
对深层神经网络模型的模型参数进行初始化;
利用神经网络学习算法,对包含噪声的语音样本及其对应的不包含噪声的语音样本进行学习训练,得到训练后的模型参数;
根据所述训练后的模型参数,构建所述深层神经网络模型。
6.根据权利要求5所述的方法,其特征在于,所述对深层神经网络模型的模型参数进行初始化的步骤,包括:
利用无监督学习算法,对包含噪声的语音样本进行学习,得到初始化模型参数。
7.根据权利要求1所述的方法,其特征在于,所述根据所述增强特征值,对所述语音数据进行波形重构,得到增强后的语音数据的步骤,包括:
将所述增强特征值进行逆离散余弦变换,得到幅度值;
获取所述待增强语音数据的相位值;
将所述幅度值与所述相位值进行叠加,得到增强后的语音数据。
8.一种语音增强装置,其特征在于,包括:
获取模块,用于获取待增强语音数据,
提取模块,用于提取所述语音数据的特征值;
输入模块,用于将所述特征值输入至预先训练得到的深层神经网络模型,得到增强特征值;其中,所述深层神经网络模型为:对包含噪声的语音样本及其对应的不包含噪声的语音样本进行训练得到;
重构模块,用于根据所述增强特征值,对所述语音数据进行波形重构,得到增强后的语音数据。
9.根据权利要求8所述的装置,其特征在于,所述提取模块,包括:
预处理子模块,用于对所述语音数据进行预处理,得到每个数据帧;
转换子模块,用于将所述每个数据帧由时域转换至频域;
滤波子模块,用于利用预设尺度的三角形滤波器,对转换至频域的每个数据帧进行滤波;
变换子模块,用于对滤波后的每个数据帧进行离散余弦变换,得到所述语音数据的特征值。
10.根据权利要求9所述的装置,其特征在于,所述预处理子模块,具体用于:
对所述语音数据进行预加重处理,得到加重后数据;
对所述加重后数据进行分帧处理,得到分帧数据;
利用预设窗函数对所述分帧数据进行加窗处理,得到每个数据帧。
11.根据权利要求9所述的装置,其特征在于,所述滤波子模块,具体用于:
对滤波后的每个数据帧进行对数域离散余弦变换,得到梅尔频率倒谱系数MFCC值,将所述MFCC值作为所述语音数据的特征值。
12.根据权利要求8所述的装置,其特征在于,所述装置还包括:
训练模块,用于训练得到所述深层神经网络模型;
所述训练模块,包括:
初始化子模块,用于对深层神经网络模型的模型参数进行初始化;
训练子模块,用于利用神经网络学习算法,对包含噪声的语音样本及其对应的不包含噪声的语音样本进行学习训练,得到训练后的模型参数;
构建子模块,用于根据所述训练后的模型参数,构建所述深层神经网络模型。
13.根据权利要求12所述的装置,其特征在于,所述初始化子模块,具体用于:
利用无监督学习算法,对包含噪声的语音样本进行学习,得到初始化模型参数。
14.根据权利要求8所述的装置,其特征在于,所述重构模块,具体用于:
将所述增强特征值进行逆离散余弦变换,得到幅度值;
获取所述待增强语音数据的相位值;
将所述幅度值与所述相位值进行叠加,得到增强后的语音数据。
15.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-7任一所述的方法步骤。
CN201710725576.8A 2017-08-22 2017-08-22 一种语音增强方法、装置及电子设备 Pending CN109427340A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710725576.8A CN109427340A (zh) 2017-08-22 2017-08-22 一种语音增强方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710725576.8A CN109427340A (zh) 2017-08-22 2017-08-22 一种语音增强方法、装置及电子设备

Publications (1)

Publication Number Publication Date
CN109427340A true CN109427340A (zh) 2019-03-05

Family

ID=65498908

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710725576.8A Pending CN109427340A (zh) 2017-08-22 2017-08-22 一种语音增强方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN109427340A (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110010144A (zh) * 2019-04-24 2019-07-12 厦门亿联网络技术股份有限公司 语音信号增强方法及装置
CN110503940A (zh) * 2019-07-12 2019-11-26 中国科学院自动化研究所 语音增强方法、装置、存储介质、电子设备
CN110648680A (zh) * 2019-09-23 2020-01-03 腾讯科技(深圳)有限公司 语音数据的处理方法、装置、电子设备及可读存储介质
CN111062426A (zh) * 2019-12-11 2020-04-24 北京金山云网络技术有限公司 一种建立训练集的方法、装置、电子设备以及介质
CN111210810A (zh) * 2019-12-17 2020-05-29 秒针信息技术有限公司 模型训练方法和装置
CN111785288A (zh) * 2020-06-30 2020-10-16 北京嘀嘀无限科技发展有限公司 语音增强方法、装置、设备及存储介质
CN112614504A (zh) * 2020-12-22 2021-04-06 平安科技(深圳)有限公司 单声道语音降噪方法、系统、设备及可读存储介质
CN112669864A (zh) * 2019-10-15 2021-04-16 北京知存科技有限公司 基于存算一体的智能语音降噪装置、语音输入设备、系统
CN113571047A (zh) * 2021-07-20 2021-10-29 杭州海康威视数字技术股份有限公司 一种音频数据的处理方法、装置及设备
CN113689876A (zh) * 2021-08-26 2021-11-23 北京拙成科技发展有限公司 车辆声音处理方法及系统
CN113707163A (zh) * 2021-08-31 2021-11-26 北京达佳互联信息技术有限公司 语音处理方法及其装置和模型训练方法及其装置
TWI759591B (zh) * 2019-04-01 2022-04-01 威聯通科技股份有限公司 語音增強方法及系統
WO2022127485A1 (en) * 2020-12-18 2022-06-23 International Business Machines Corporation Speaker-specific voice amplification
WO2023088083A1 (zh) * 2021-11-18 2023-05-25 上海又为智能科技有限公司 语音增强方法和装置

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6820053B1 (en) * 1999-10-06 2004-11-16 Dietmar Ruwisch Method and apparatus for suppressing audible noise in speech transmission
CN104464728A (zh) * 2014-11-26 2015-03-25 河海大学 基于gmm噪声估计的语音增强方法
CN104505100A (zh) * 2015-01-06 2015-04-08 中国人民解放军理工大学 一种基于鲁棒非负矩阵分解和数据融合的无监督语音增强方法
CN104966517A (zh) * 2015-06-02 2015-10-07 华为技术有限公司 一种音频信号增强方法和装置
CN105023574A (zh) * 2014-04-30 2015-11-04 安徽科大讯飞信息科技股份有限公司 一种实现合成语音增强的方法及系统
CN105023580A (zh) * 2015-06-25 2015-11-04 中国人民解放军理工大学 基于可分离深度自动编码技术的无监督噪声估计和语音增强方法
CN105448303A (zh) * 2015-11-27 2016-03-30 百度在线网络技术(北京)有限公司 语音信号的处理方法和装置
US20160111107A1 (en) * 2014-10-21 2016-04-21 Mitsubishi Electric Research Laboratories, Inc. Method for Enhancing Noisy Speech using Features from an Automatic Speech Recognition System
CN106157953A (zh) * 2015-04-16 2016-11-23 科大讯飞股份有限公司 连续语音识别方法及系统
CN106340292A (zh) * 2016-09-08 2017-01-18 河海大学 一种基于连续噪声估计的语音增强方法
CN106910511A (zh) * 2016-06-28 2017-06-30 阿里巴巴集团控股有限公司 一种语音去噪方法和装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6820053B1 (en) * 1999-10-06 2004-11-16 Dietmar Ruwisch Method and apparatus for suppressing audible noise in speech transmission
CN105023574A (zh) * 2014-04-30 2015-11-04 安徽科大讯飞信息科技股份有限公司 一种实现合成语音增强的方法及系统
US20160111107A1 (en) * 2014-10-21 2016-04-21 Mitsubishi Electric Research Laboratories, Inc. Method for Enhancing Noisy Speech using Features from an Automatic Speech Recognition System
CN107077860A (zh) * 2014-10-21 2017-08-18 三菱电机株式会社 用于将有噪音频信号转换为增强音频信号的方法
CN104464728A (zh) * 2014-11-26 2015-03-25 河海大学 基于gmm噪声估计的语音增强方法
CN104505100A (zh) * 2015-01-06 2015-04-08 中国人民解放军理工大学 一种基于鲁棒非负矩阵分解和数据融合的无监督语音增强方法
CN106157953A (zh) * 2015-04-16 2016-11-23 科大讯飞股份有限公司 连续语音识别方法及系统
CN104966517A (zh) * 2015-06-02 2015-10-07 华为技术有限公司 一种音频信号增强方法和装置
CN105023580A (zh) * 2015-06-25 2015-11-04 中国人民解放军理工大学 基于可分离深度自动编码技术的无监督噪声估计和语音增强方法
CN105448303A (zh) * 2015-11-27 2016-03-30 百度在线网络技术(北京)有限公司 语音信号的处理方法和装置
CN106910511A (zh) * 2016-06-28 2017-06-30 阿里巴巴集团控股有限公司 一种语音去噪方法和装置
CN106340292A (zh) * 2016-09-08 2017-01-18 河海大学 一种基于连续噪声估计的语音增强方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
魏泉水: "基于深度神经网络的语音增强算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI759591B (zh) * 2019-04-01 2022-04-01 威聯通科技股份有限公司 語音增強方法及系統
US11482235B2 (en) 2019-04-01 2022-10-25 Qnap Systems, Inc. Speech enhancement method and system
CN110010144A (zh) * 2019-04-24 2019-07-12 厦门亿联网络技术股份有限公司 语音信号增强方法及装置
CN110503940A (zh) * 2019-07-12 2019-11-26 中国科学院自动化研究所 语音增强方法、装置、存储介质、电子设备
CN110503940B (zh) * 2019-07-12 2021-08-31 中国科学院自动化研究所 语音增强方法、装置、存储介质、电子设备
CN110648680A (zh) * 2019-09-23 2020-01-03 腾讯科技(深圳)有限公司 语音数据的处理方法、装置、电子设备及可读存储介质
WO2021057239A1 (zh) * 2019-09-23 2021-04-01 腾讯科技(深圳)有限公司 语音数据的处理方法、装置、电子设备及可读存储介质
US12039987B2 (en) 2019-09-23 2024-07-16 Tencent Technology (Shenzhen) Company Limited Speech data processing method and apparatus, electronic device, and readable storage medium
CN110648680B (zh) * 2019-09-23 2024-05-14 腾讯科技(深圳)有限公司 语音数据的处理方法、装置、电子设备及可读存储介质
CN112669864A (zh) * 2019-10-15 2021-04-16 北京知存科技有限公司 基于存算一体的智能语音降噪装置、语音输入设备、系统
CN111062426A (zh) * 2019-12-11 2020-04-24 北京金山云网络技术有限公司 一种建立训练集的方法、装置、电子设备以及介质
CN111210810A (zh) * 2019-12-17 2020-05-29 秒针信息技术有限公司 模型训练方法和装置
CN111785288A (zh) * 2020-06-30 2020-10-16 北京嘀嘀无限科技发展有限公司 语音增强方法、装置、设备及存储介质
WO2022127485A1 (en) * 2020-12-18 2022-06-23 International Business Machines Corporation Speaker-specific voice amplification
GB2617044A (en) * 2020-12-18 2023-09-27 Ibm Speaker-specific voice amplification
CN112614504A (zh) * 2020-12-22 2021-04-06 平安科技(深圳)有限公司 单声道语音降噪方法、系统、设备及可读存储介质
CN113571047A (zh) * 2021-07-20 2021-10-29 杭州海康威视数字技术股份有限公司 一种音频数据的处理方法、装置及设备
CN113689876A (zh) * 2021-08-26 2021-11-23 北京拙成科技发展有限公司 车辆声音处理方法及系统
CN113707163A (zh) * 2021-08-31 2021-11-26 北京达佳互联信息技术有限公司 语音处理方法及其装置和模型训练方法及其装置
CN113707163B (zh) * 2021-08-31 2024-05-14 北京达佳互联信息技术有限公司 语音处理方法及其装置和模型训练方法及其装置
WO2023088083A1 (zh) * 2021-11-18 2023-05-25 上海又为智能科技有限公司 语音增强方法和装置

Similar Documents

Publication Publication Date Title
CN109427340A (zh) 一种语音增强方法、装置及电子设备
Li et al. Glance and gaze: A collaborative learning framework for single-channel speech enhancement
CN113436643B (zh) 语音增强模型的训练及应用方法、装置、设备及存储介质
CN108447495B (zh) 一种基于综合特征集的深度学习语音增强方法
CN113724712B (zh) 一种基于多特征融合和组合模型的鸟声识别方法
CN111785288B (zh) 语音增强方法、装置、设备及存储介质
JP5634959B2 (ja) 雑音/残響除去装置とその方法とプログラム
CN110503940B (zh) 语音增强方法、装置、存储介质、电子设备
KR20230109631A (ko) 오디오 신호 생성 및 오디오 생성기 훈련을 위한 방법 및 오디오 생성기
CN112530410A (zh) 一种命令词识别方法及设备
Hao et al. Time-domain neural network approach for speech bandwidth extension
CN114267372A (zh) 语音降噪方法、系统、电子设备和存储介质
Lim et al. Harmonic and percussive source separation using a convolutional auto encoder
CN110675888A (zh) 一种基于RefineNet和评价损失的语音增强方法
Skariah et al. Review of speech enhancement methods using generative adversarial networks
CN116013339A (zh) 一种基于改进crn的单通道语音增强方法
CN115881112A (zh) 一种基于频谱图的特征替换和掩蔽的语音识别数据增强方法
TWI749547B (zh) 應用深度學習的語音增強系統
CN113611321B (zh) 一种语音增强方法及系统
Hu et al. Learnable spectral dimension compression mapping for full-band speech enhancement
Raj et al. Audio signal quality enhancement using multi-layered convolutional neural network based auto encoder–decoder
CN111862931A (zh) 一种语音生成方法及装置
Mashiana et al. Speech enhancement using residual convolutional neural network
CN118553267B (zh) 一种基于电力设备局部放电声音的故障识别方法及系统
JP7562878B2 (ja) アーチファクトおよび歪みに対するディープラーニングベースの音声強調のためのロバスト性/性能改良

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190305