CN113763987A - 一种语音转换模型的训练方法及装置 - Google Patents
一种语音转换模型的训练方法及装置 Download PDFInfo
- Publication number
- CN113763987A CN113763987A CN202111052652.6A CN202111052652A CN113763987A CN 113763987 A CN113763987 A CN 113763987A CN 202111052652 A CN202111052652 A CN 202111052652A CN 113763987 A CN113763987 A CN 113763987A
- Authority
- CN
- China
- Prior art keywords
- vector
- audio
- content vector
- mel
- inputting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 90
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000012549 training Methods 0.000 title claims abstract description 44
- 239000013598 vector Substances 0.000 claims abstract description 304
- 238000001228 spectrum Methods 0.000 claims abstract description 123
- 238000000605 extraction Methods 0.000 claims abstract description 28
- 238000013507 mapping Methods 0.000 claims description 60
- 238000013528 artificial neural network Methods 0.000 claims description 36
- 239000011159 matrix material Substances 0.000 claims description 34
- 230000003595 spectral effect Effects 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 16
- 238000013527 convolutional neural network Methods 0.000 claims description 13
- 238000012937 correction Methods 0.000 claims description 13
- 230000007246 mechanism Effects 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000009432 framing Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 description 18
- 230000000694 effects Effects 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013518 transcription Methods 0.000 description 2
- 230000035897 transcription Effects 0.000 description 2
- 102100029469 WD repeat and HMG-box DNA-binding protein 1 Human genes 0.000 description 1
- 101710097421 WD repeat and HMG-box DNA-binding protein 1 Proteins 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本说明书实施例提供一种语音转换模型的训练方法及装置,方法包括:对样本音频进行特征提取,得到梅尔谱特征标签及基频序列;将梅尔谱特征标签输入编码器,得到第一内容向量;将第一内容向量输入瓶颈层,得到当前码本向量及第二内容向量;基于第一内容向量和当前码本向量,确定第一损失值;将第一内容向量输入感知机层,得到第一内容向量对应的各字符或空白符的发射概率;基于样本音频的转录文本标签及发射概率,确定第二损失值;将归一化后的基频序列、第二内容向量及样本音频的说话人标签,输入解码器,得到预测梅尔谱特征;基于梅尔谱特征标签及预测梅尔谱特征,确定第三损失值;以最小化上述损失值为目标,训练语音转换模型。
Description
技术领域
本说明书涉及语音处理技术领域,尤其涉及一种语音转换模型的训练方法及装置。
背景技术
语音转换(Voice Conversion,VC)是近些年来研究比较热门的课题,其为一种将一个人的语音在保留完整内容信息的基础下,转换为另外一个人的音色的过程。语音转换属于语音合成的一个技术领域,由于语音转换侧重于语音中身份信息的转换,因此它是语音信号处理中具有挑战性的研究问题之一。
目前的语音转换技术依赖于平行语料,即通过不同人录制的相同内容信息的语音,但是在实际的应用场景中,用户很难去录制特定内容的语音,因而平行语料在现实环境中的获取的难度较大,进而影响后续的语音转换效果。
那么,如何提供一种可以得到不依赖平行语料且转换效果较好的语音转换方法成为亟待解决的问题。
发明内容
本说明书一个或多个实施例提供了一种语音转换模型的训练方法及装置,以实现不依赖平行语料训练得到语音转换模型,且通过该多任务训练所得的语音转换模型,得到转换效果较好的音频。
根据第一方面,提供一种语音转换模型的训练方法,所述语音转换模型包括编码器、瓶颈层以及解码器,所述方法包括:
对样本音频进行特征提取,得到梅尔谱特征标签以及基频序列;
将所述梅尔谱特征标签输入所述编码器,得到第一内容向量;
将所述第一内容向量输入所述瓶颈层,得到当前码本向量以及第二内容向量,其中,所述瓶颈层用于去除输入向量中的说话人信息,所述当前码本向量为与所述第一内容向量距离最近的向量;
基于所述第一内容向量和所述当前码本向量,确定第一损失值;
将所述第一内容向量输入感知机层,得到所述第一内容向量对应的各字符或空白符的发射概率;
基于所述样本音频对应的转录文本标签以及所述发射概率,确定第二损失值;
将归一化后的所述基频序列、所述第二内容向量以及所述样本音频对应的说话人标签,输入所述解码器,得到预测梅尔谱特征;
基于所述梅尔谱特征标签以及所述预测梅尔谱特征,确定第三损失值;
以最小化所述第一损失值、所述第二损失值以及所述第三损失值为目标,训练所述编码器、瓶颈层以及解码器。
在一种可实施方式中,所述对所获得的样本音频进行特征提取,得到梅尔谱特征标签以及基频序列,包括:
对所述样本音频进行预加重,得到对应的加重样本音频;
对所述加重样本音频进行分帧,得到对应的子音频;
针对每一子音频进行加窗;
对每一加窗后的子音频进行快速傅里叶变换,得到每一加窗后的子音频的频谱,并基于每一加窗后的子音频的频谱,确定每一加窗后的子音频的能量谱;
利用梅尔滤波器以及每一加窗后的子音频的能量谱,得到每一加窗后的子音频对应的梅尔谱特征,以得到所述样本音频对应的梅尔谱特征;
基于每一加窗后的子音频,确定所述样本音频对应的基频序列。
在一种可实施方式中,所述编码器包括卷积神经网络层以及全局自注意力神经网络层;
所述将所述梅尔谱特征标签输入所述编码器,得到第一内容向量,包括:
将所述梅尔谱特征标签输入所述卷积神经网络层,得到中间特征序列;
将所述中间特征序列输入所述全局自注意力神经网络层,得到所述第一内容向量。
在一种可实施方式中,所述全局自注意力神经网络层包括采用多头自注意力的自注意力子层以及前馈神经网络子层;
所述将所述中间特征序列输入所述全局自注意力神经网络层,得到所述第一内容向量,包括:
将所述中间特征序列输入所述自注意力子层,以使所述自注意力子层,针对其每头自注意力,对所述中间特征序列进行第一线性映射,得到每头自注意力对应的问询矩阵、键值矩阵以及值矩阵;对每头自注意力对应的问询矩阵、键值矩阵以及值矩阵进行缩放点积注意力操作,得到每头自注意力对应的中间向量;对所有头自注意力对应的中间向量的第一拼接向量进行第二线性映射操作,得到对应的输出结果;
将所述输出结果输入所述前馈神经网络子层,以使所述前馈神经网络子层,对所述输出结果进行第三线性映射操作,得到第一线性映射结果;将所述第一线性映射结果输入修正线性单元,得到中间修正结果;对所述中间修正结果进行第四线性映射操作,得到所述第一内容向量。
在一种可实施方式中,所述瓶颈层包括:包含第一数量个待训练的多维码本向量的码本向量层,以及时间抖动模块;
所述将所述第一内容向量输入所述瓶颈层,得到当前码本向量以及第二内容向量,包括:
将所述第一内容向量输入所述码本向量层,计算所述第一内容向量与每一码本向量之间的距离;基于计算所得的距离,确定出与所述第一内容向量距离最近的码本向量,作为所述当前码本向量;
将所述当前码本向量输入所述时间抖动模块,得到所述第二内容向量。
在一种可实施方式中,所述解码器包括第一线性映射层、全局自注意力机制模块、前向计算模块以及第二线性映射层;
所述将归一化后的所述基频序列、所述第二内容向量以及所述样本音频对应的说话人标签,输入所述解码器,得到预测梅尔谱特征,包括:
将归一化后的所述基频序列、所述第二内容向量以及所述样本音频对应的说话人标签进行拼接,得到第二拼接向量;
将所述第二拼接向量输入所述解码器,以使所述解码器依次基于第一线性映射层、全局自注意力机制模块、前向计算模块以及第二线性映射层,对所输入的拼接向量进行处理,得到所述预测梅尔谱特征。
在一种可实施方式中,还包括:
对待转换音频进行特征提取,得到所述待转换音频对应的待转换梅尔谱特征以及待转换基频序列;
将所述待转换梅尔谱特征输入已训练的所述编码器,得到第三内容向量;
将所述第三内容向量输入已训练的所述瓶颈层,得到第四内容向量;
将归一化后的所述待转换基频序列、所述第四内容向量以及所选择的目标说话人标签,输入已训练的所述解码器,得到转换后的梅尔谱特征;
将所述转换后的梅尔谱特征输入已训练的声码器,得到所述待转换音频对应的转换后的目标音频。
根据第二方面,提供一种语音转换模型的训练装置,所述语音转换模型包括编码器、瓶颈层以及解码器,所述装置包括:
特征提取模块,配置为对样本音频进行特征提取,得到梅尔谱特征标签以及基频序列;
第一输入模块,配置为将所述梅尔谱特征标签输入所述编码器,得到第一内容向量;
第二输入模块,配置为将所述第一内容向量输入所述瓶颈层,得到当前码本向量以及第二内容向量,其中,所述瓶颈层用于去除输入向量中的说话人信息,所述当前码本向量为与所述第一内容向量距离最近的向量;
第一确定模块,配置为基于所述第一内容向量和所述当前码本向量,确定第一损失值;
第三输入模块,配置为将所述第一内容向量输入感知机层,得到所述第一内容向量对应的各字符或空白符的发射概率;
第二确定模块,配置为基于所述样本音频对应的转录文本标签以及所述发射概率,确定第二损失值;
第四输入模块,配置为将归一化后的所述基频序列、所述第二内容向量以及所述样本音频对应的说话人标签,输入所述解码器,得到预测梅尔谱特征;
第三确定模块,配置为基于所述梅尔谱特征标签以及所述预测梅尔谱特征,确定第三损失值;
训练模块,配置为以最小化所述第一损失值、所述第二损失值以及所述第三损失值为目标,训练所述编码器、瓶颈层以及解码器。
根据第三方面,提供一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行第一方面所述的方法。
根据第四方面,提供一种计算设备,包括存储器和处理器,其中,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现第一方面所述的方法。
根据本说明书实施例提供的方法及装置,训练所得的语音转换模型可以通过瓶颈层得到去除说话人信息(包括音色)的内容向量,实现对音频中说话人信息、内容信息的解耦,通过第一损失值、第二损失值和第三损失值监督语音转换模型的语音转换结果,保证语音转换模型的语音转换结果的准确性。进而,利用训练所得的语音转换模型解耦得到待转换音频所表现的与说话人无关的内容信息,进而结合所选择的说话人标签(可以表征说话人信息)以及可以表征语调平均性的归一化后的基频序列,实现对音频的转换,将音频从一个说话人的音色转换为另一个说话人的音色,该模型训练过程不需要平行语料,且语音(音频)转换效果好。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书披露的一个实施例的实施框架示意图;
图2为实施例提供的语音转换模型的训练方法的一种流程示意图;
图3为实施例提供的语音转换模型的训练装置的一种示意性框图。
具体实施方式
下面将结合附图,详细描述本说明书实施例的技术方案。
本说明书实施例披露一种语音转换模型的训练方法及装置,下面首先对语音转换模型的训练方法的应用场景和发明构思进行介绍,具体如下:
目前的语音转换技术依赖于平行语料,即通过不同人录制的相同内容信息的语音,但是在实际的应用场景中,用户很难去录制特定内容的语音,因而平行语料在现实环境中的获取的难度较大,利用较少的平行语料训练语音转换模型,其语音转换效果不够好。
鉴于此,本说明书实施例提供了一种语音转换模型的训练方法,如图1所示,为本说明书披露的一个实施例的实施框架示意图。其中,语音转换模型包括编码器、瓶颈层以及解码器,方法包括:利用特征提取模块,对样本音频进行特征提取,得到梅尔谱特征标签以及基频序列;将梅尔谱特征标签输入编码器,得到第一内容向量;将第一内容向量输入瓶颈层,得到当前码本向量以及第二内容向量,其中,瓶颈层用于去除输入向量中的说话人信息,当前码本向量为与第一内容向量距离最近的向量;基于第一内容向量和当前码本向量,确定第一损失值;将第一内容向量输入感知机层,得到第一内容向量对应的各字符或空白符的发射概率;基于样本音频对应的转录文本标签以及发射概率,确定第二损失值;对基频序列进行归一化处理,得到归一化后的基频序列;将归一化后的基频序列、第二内容向量以及样本音频对应的说话人标签,输入解码器,得到预测梅尔谱特征;基于梅尔谱特征标签以及预测梅尔谱特征,确定第三损失值;以最小化第一损失值、第二损失值以及第三损失值为目标,训练编码器、瓶颈层以及解码器。
在训练语音转换模型的过程中,通过第一损失值可以使得瓶颈层学到去除第一内容向量中的说话人信息的内容,通过第二损失值可以使得编码器和瓶颈层学习得到提取音频中准确的内容信息的能力,通过第三损失值可以使得解码器学习得到融合归一化后的基频序列、与说话人信息无关的第二内容向量以及说话人标签,得到贴合说话人标签表征的说话人信息的梅尔谱特征的能力,以保证通过解码器输出的梅尔谱特征得到更贴合输入解码器的说话人标签表征的说话人信息,实现在不使用平行语料的情况下,实现对语音转换模型的有监督的学习,保证语音转换模型的音频转换的效果。
下面结合具体实施例,对本说明书提供的语音转换模型的训练方法进行阐述。
图2示出了本说明书一个实施例中语音转换模型的训练方法的流程图。该方法可以通过任何具有计算、处理能力的装置、设备、平台、设备集群等来实现。所述方法包括如下步骤S210-S290:
S210:对样本音频进行特征提取,得到梅尔谱特征标签以及基频序列;
在一种实现方式中,在训练语音转换模型之前,可以首先构建用于训练该语音转换模型的训练集,其中,该训练集可以包括多个样本音频以及样本音频对应标注信息。其中,不同样本音频所表征的内容信息可以不同,录制不同样本音频的说话人可以是不同的说话人,也可以是同一说话人录制多个样本音频。样本音频对应的标注信息可以包括样本音频对应的说话人标签以及转录文本标签,该说话人标签可以表征录制该样本音频的说话人的说话人信息,其中,说话人信息至少包括说话人的音色。说话人标签可以唯一表征说话人,可以为说话人ID。该转录文本标签可以表征样本音频所录制的内容信息。
可以理解的,本说明书实施例中,以其中一个样本音频为例来说明训练集每个样本音频的处理过程,也就是说,针对训练集中的每一样本音频,可以进行类似处理。
获得样本音频之后,利用特征提取模块,对样本音频进行特征提取,得到该样本音频对应的梅尔谱特征标签以及基频序列。在一种实现方式中,所述S210,可以包括如下步骤11-16:
步骤11:对样本音频进行预加重,得到对应的加重样本音频。通过预加重可以对样本音频中的高频分量进行补偿,得到样本音频对应的加重样本音频。
步骤12:对加重样本音频进行分帧,得到对应的子音频。其中,为了保证分帧后的子音频的连续性,分帧之后的相邻的预设长度的子音频帧之间存在重合。该预设长度可以根据需求以及经验进行设置,相应的,相邻子音频帧之间重合的长度也可以根据需求以及经验进行设置。一种情况中,该预设长度可以为25毫秒,重合的长度为10毫秒。
步骤13:针对每一子音频进行加窗。其中,该窗可以为汉明窗。
步骤14:对每一加窗后的子音频进行快速傅里叶变换,得到每一加窗后的子音频的频谱,并基于每一加窗后的子音频的频谱,确定每一加窗后的子音频的能量谱。其中,可以对每一加窗后的子音频的频谱对应的值进行平方,得到每一加窗后的子音频的能量谱。
步骤15:利用梅尔滤波器以及每一加窗后的子音频的能量谱,得到每一加窗后的子音频对应的梅尔谱特征,以得到样本音频对应的梅尔谱特征。将每一加窗后的子音频的能量谱输入梅尔滤波器,得到输出结果,对输出结果取对数,以得到每一加窗后的子音频对应的梅尔谱特征。基于所有加窗后的子音频对应的梅尔谱特征,确定得到样本音频对应的梅尔谱特征。该所提取的样本音频对应的梅尔谱特征,为样本音频的原始的梅尔谱特征,作为后续训练语音转换模块的梅尔谱特征标签。其中,梅尔滤波器的可以为多个。一种情况中,梅尔滤波器的个数可以设置为80个,相应的,每一加窗后的子音频对应的梅尔谱特征为80维的梅尔谱特征。举例而言,若样本音频对应的加窗后的子音频个数为100,则样本音频对应的梅尔谱特征标签为100*80维的梅尔谱特征。
步骤16:基于每一加窗后的子音频,确定样本音频对应的基频序列。本步骤中,可以利用预设基频提取算法,基于每一加窗后的子音频,确定样本音频对应的基频序列,其中,该预设基频提取算法可以是基于时域的基频提取算法、基于频域的基频提取算法以及基于机器学习算法的基频提取算法。本说明书实施例并不对基频序列的提取算法进行限定,任一可以提取音频中的基频的算法都可以应用于本说明书实施例中。
S220:将梅尔谱特征标签输入编码器,得到第一内容向量。提取得到样本音频对应的梅尔谱特征标签以及基频序列之后,将梅尔谱特征标签输入编码器,编码器对梅尔谱特征标签进行处理,得到梅尔谱特征标签对应的第一内容向量,该第一内容向量包含样本音频对应的说话人信息以及样本音频对应的文本内容信息。
S230:将第一内容向量输入瓶颈层,得到当前码本向量以及第二内容向量。其中,瓶颈层用于去除输入向量中的说话人信息,当前码本向量为与第一内容向量距离最近的向量。为了保证后续的语音转换的效果,即在保证音频对应的文本内容信息不变的情况,将音频从一个说话人的音色转换成另一个说话人的音色,需要去除第一内容向量中掺杂的说话人信息,得到仅与音频的文本内容信息相关的内容向量,进而实现在不改变音频的文本内容信息的情况下,转换音频对应的说话人信息,实现对语音(音频)的转换。相应的,将第一内容向量输入瓶颈层,得到当前码本向量以及与说话人信息无关的第二内容向量。其中,说话人信息包括但不限于说话人的音色。
S240:基于第一内容向量和当前码本向量,确定第一损失值。当前码本向量为瓶颈层中与第一内容向量距离最近的码本向量,第一损失值可以表征出第一内容向量与当前码本向量之间的差异,通过第一损失值可以使得瓶颈层学习得到去除第一内容向量中说话人信息,使得编码器和瓶颈层学习到可以共同从音频中提取出仅与音频的文本内容信息相关的内容向量的能力。其中,第一损失值越小,瓶颈层的去除第一内容向量中说话人信息,提取出第一内容向量中相应的文本内容信息的能力越好,进而,所得到的第二内容向量中的说话人信息越少,可以仅包含文本内容信息。其中,可以通过第一损失函数,基于第一内容向量和当前码本向量,确定第一损失值,该第一损失函数可以为但不限于交叉熵损失函数或者均方误差损失函数或者绝对值损失函数等。在一种情况中,该第一损失值对应的计算公式可以通过如下公式(1)表示:
S250:将第一内容向量输入感知机层,得到第一内容向量对应的各字符或空白符的发射概率。将第一内容向量输入感知机层,感知机层对第一内容向量中各元素进行分类,确定各元素对应的各字符或空白符的发射概率。其中,该发射概率可以表征感知机层所感知的所对应元素为某一字符或为空白符的概率。通过该发射概率可以确定出第一内容向量各元素对应的目标对象,从而可以确定出第一内容向量对应的字符序列,其中,元素对应的目标对象可以为某一字符或空白符。其中,各元素对应的目标对象为:该元素所对应发射概率中概率值最高的字符或空白符。举例而言,第一内容向量的第三个元素对应的各字符或空白符对应的发射概率分别为:字符1对应的发射概率为0.01,字符2对应的发射概率为0.01,字符3对应的发射概率为0.10,字符4对应的发射概率为0.80,空白符对应的发射概率为0.08,相应的,可以确定出第一内容向量的第三个元素对应的目标对象为字符4。
S260:基于样本音频对应的转录文本标签以及发射概率,确定第二损失值。通过第一内容向量各元素对应的各字符或空白符的发射概率,可以确定出第一内容向量对应的字符序列,样本音频对应的转录文本标签包含样本音频对应的真实的字符序列。相应的,通过连接时序主义规则,确定相应的损失值,进而利用该损失值训练语音转换模型,即基于样本音频对应的转录文本标签以及发射概率,确定第二损失值。其中,该第二损失值,可以表征出编码器所编码出的第一内容向量对应的字符序列与样本音频对应的转录文本标签之间的差异。其中,第二损失值越小,表征编码器所编码出的第一内容向量对应的字符序列,越接近样本音频对应的转录文本标签,相应的,编码器编码所得的第一内容向量越准确。其中,可以通过第二损失函数,基于样本音频对应的转录文本标签以及发射概率,确定第二损失值,该第二损失函数可以为但不限于交叉熵损失函数或者均方误差损失函数或者绝对值损失函数等。
在一种情况中,转录文本标签的长度比第一内容向量对应的字符序列的长度稍短,在计算第二损失值之前,需要对转录文本进行填充,例如使用空白符对转录文本标签进行填充,以使得填充后的转录文本标签的长度与第一内容向量对应的字符序列的长度相同,继而基于样本音频对应的填充后的转录文本标签以及发射概率,确定第二损失值。
一种实现中,对于内容向量对应的字符序列来说,在样本音频为利用中文录制的音频的情况下,该字符序列中的字符可以为汉字,在样本音频为利用英文录制的音频的情况下,该字符序列中的字符可以为字母。
S270:将归一化后的基频序列、第二内容向量以及样本音频对应的说话人标签,输入解码器,得到预测梅尔谱特征。归一化后的基频序列可以将语调平均化,将归一化后的基频序列、与说话人信息无关的第二内容向量以及样本音频对应的说话人标签(可以表征说话人信息),输入解码器,可以得到符合说话人标签的说话人信息的梅尔谱特征,即为通过语音转换模型所转换得到的预测梅尔谱特征。
其中,对基频序列进行归一化处理可以得到该归一化后的基频序列,该归一化处理可以通过如下公式(2)表示:
pnorm=(psrc-μ)/(4*σ);(2)其中,pnorm表示归一化后的基频序列,psrc表示基频序列,μ表示基频序列对应的均值,σ表示基频序列对应的方差。
S280:基于梅尔谱特征标签以及预测梅尔谱特征,确定第三损失值。第三损失值可以表征样本音频的真实的梅尔谱特征标签(包含说话人标签的说话人信息),与样本音频对应的通过语音转换模型所转换的预测梅尔谱特征(包含说话人标签的说话人信息)之间的差异。其中,第三损失值越小,可以表征语音转换模型对样本音频的转换效果越好,且解码器的融合能力也越好。其中,可以通过第三损失函数,基于梅尔谱特征标签以及预测梅尔谱特征,确定第三损失值,该第三损失函数可以为但不限于交叉熵损失函数或者均方误差损失函数或者绝对值损失函数等。在一种情况中,第三损失值可以通过如下计算公式(3)表示:
S290:以最小化第一损失值、第二损失值以及第三损失值为目标,训练编码器、瓶颈层以及解码器。本步骤中,以最小化第一损失值、第二损失值以及第三损失值为目标,训练语音转换模型,即调整编码器、瓶颈层以及解码器的参数,以使得语音转换模型对语音转换能力越高,其语音转换效果越好。
在一种实现中,可以是:基于第一损失值、第二损失值以及第三损失值确定总预测损失,例如将第一损失值、第二损失值以及第三损失值的和或者均值,作为总预测损失。基于总预测损失,利用反向传播算法,确定语音转换模型的模型参数梯度。利用所确定的模型参数梯度以及语音转换模型的模型参数,确定语音转换模型更新后的模型参数。进而基于更新后的模型参数,调整语音转换模型的模型参数。其中,确定语音转换模型的模型参数梯度是以最小化总预测损失为目标得到。最小化总预测损失,可以实现对语音转换模型的语音转换结果的监督,保持其准确性。
上述步骤S210~S290为一次模型迭代训练过程。为了训练得到更好的语音转换模型,可以多次迭代执行上述过程。也就是在步骤S270之后基于语音转换模型更新后的模型参数,返回执行步骤S210。
上述模型迭代训练过程的停止条件可以包括:迭代训练次数达到预设次数阈值,或者迭代训练时长达到预设时长,或者总预测损失小于设定的损失阈值等等。
本实施例中,训练所得的语音转换模型可以通过瓶颈层得到去除说话人信息(包括音色)的内容向量,实现对音频中说话人信息、内容信息的解耦,通过第一损失值、第二损失值和第三损失值监督语音转换模型的语音转换结果,保证语音转换模型的语音转换结果的准确性。进而,利用训练所得的语音转换模型解耦得到待转换音频所表现的与说话人无关的内容信息,进而结合所选择的说话人标签(可以表征说话人信息)以及可以表征语调平均性的归一化后的基频序列,实现对音频的转换,将音频从一个说话人的音色转换为另一个说话人的音色,该模型训练过程不需要平行语料,且语音转换效果好。
回顾一下步骤S210~S290的执行过程,上述实施例是以一个样本音频为一个样本为例进行说明的。在另一实施例中,也可以针对一批样本即多个样本音频执行上述步骤S210~步骤S280,分别得到每个样本音频的第一损失值、第二损失值以及第三损失值。基于与多个样本音频的第一损失值、第二损失值以及第三损失值正相关,确定总预测损失,以最小化总预测损失为目标,训练语音转换模型。本实施例中,对一批样本确定总预测损失,然后再调整语音转换模型的模型参数,这样能够减少对语音转换模型的参数调整次数,更易于训练过程的实施。
在本说明书的一种可实施方式中,该编码器可以包括卷积神经网络层以及全局自注意力神经网络层;
所述S220,可以包括如下步骤11-12:
步骤11:将梅尔谱特征标签输入卷积神经网络层,得到中间特征序列。
步骤12:将中间特征序列输入全局自注意力神经网络层,得到第一内容向量。
本实施方式中,卷积神经网络层可以为两层步长为2的卷积神经网络组成。将梅尔谱特征标签即样本音频对应的80维的梅尔谱特征标签输入卷积神经网络层,通过两层卷积神经网络,得到梅尔谱特征标签对应的中间特征序列,其中,中间特征序列为256维度的特征序列,该中间特征序列的长度为梅尔谱特征标签的长度的1/4。将中间特征序列输入全局自注意力神经网络层,得到第一内容向量。一种情况中,该两层卷积神经网络可以对为梅尔谱特征标签进行深度可分离卷积网络和位置可分离卷积,以得到中间特征序列,该第一内容向量为256维度的特征向量,与中间特征序列的长度相同。
在本说明书的一种可实施方式中,该全局自注意力神经网络层包括采用多头自注意力的自注意力子层以及前馈神经网络子层;
所述步骤12可以包括如下子步骤121-122:
子步骤121:将中间特征序列输入自注意力子层,以使自注意力子层,针对其每头自注意力,对中间特征序列进行第一线性映射,得到每头自注意力对应的问询矩阵、键值矩阵以及值矩阵;对每头自注意力对应的问询矩阵、键值矩阵以及值矩阵进行缩放点积注意力操作,得到每头自注意力对应的中间向量;对所有头自注意力对应的中间向量的第一拼接向量进行第二线性映射操作,得到对应的输出结果。
子步骤122:将输出结果输入前馈神经网络子层,以使前馈神经网络子层,对输出结果进行第三线性映射操作,得到第一线性映射结果;将第一线性映射结果输入修正线性单元,得到中间修正结果;对中间修正结果进行第四线性映射操作,得到第一内容向量。
本实现方式中,该全局自注意力神经网络层包括采用多头自注意力的自注意力子层以及前馈神经网络子层。将中间特征序列输入自注意力子层,自注意力子层,针对其每头自注意力,对中间特征序列进行第一线性映射,得到每头自注意力对应的问询矩阵Q、键值矩阵K以及值矩阵V;对每头自注意力对应的问询矩阵Q、键值矩阵K以及值矩阵V进行缩放点积注意力(scaled dot-product attention)操作,得到每头自注意力对应的中间向量M;对所有头自注意力对应的中间向量M进行拼接,得到相应的第一拼接向量,对第一拼接向量进行第二线性映射操作,得到对应的输出结果。其中,得到每头自注意力对应的中间向量M的过程,可以通过如下公式(4)表示:
将自注意力子层的输出结果,输入前馈神经网络子层,前馈神经网络子层对输出结果进行第三线性映射操作,得到第一线性映射结果;将第一线性映射结果输入修正线性单元,,其中,该修正线性单元作为激活函数,通过修正线性单元得到中间修正结果;对中间修正结果进行第四线性映射操作,得到第一内容向量。其中,前馈神经网络子层对自注意力子层的输出结果进行处理的过程,可以通过如下公式(5)表示:
FFN(X)=max(XW1+b1,0)W2+b2;(5)其中,W1、W2分别为第三线性映射操作和第四线性映射操作对应的线性映射的权重矩阵,为待训练的参数,维度分别为d×df和df×d,为待训练的参数,d为自注意力子层的输出结果的维度;b1、b2为偏置向量,为待训练的参数,X表示自注意力子层的输出结果,FFN(X)表示第一内容向量。
在一种情况中,该全局自注意力神经网络层通过6层全局注意力神经网络构成。
在本说明书的一种可实施方式中,该瓶颈层可以包括:包含第一数量个待训练的多维码本向量的码本向量层,以及时间抖动模块;
所述S230,可以包括如下步骤21-22:
步骤21:将第一内容向量输入码本向量层,计算第一内容向量与每一码本向量之间的距离;基于计算所得的距离,确定出与第一内容向量距离最近的码本向量,作为当前码本向量。
步骤22:将当前码本向量输入时间抖动模块,得到第二内容向量。
本实现方式中,将第一内容向量输入码本向量层,该码本向量层包含第一数量个待训练的多维码本向量,针对每一码本向量,计算第一内容向量与该码本向量之间的距离,基于第一内容向量与每一码本向量之间的距离,从第一数量个码本向量中,确定出与第一内容向量距离最近的码本向量,作为当前码本向量。一种情况中,该第一数量可以根据实际情况进行设置,例如可以为512。码本向量的维度为256。
将当前码本向量输入时间抖动模块,时间抖动模块对当前码本向量进行相应的时间抖动操作,得到第二内容向量。其中,该时间抖动模块可以破坏当前码本向量中元素之间的相互关联系,实现阻止向量量化学习到特征的相互关联性的作用。该时间抖动操作对应的表达式可以通过如下公式(7)表示:
jt~Categorical(p,1-2*p,p)jt∈{-1,0,1};(7),其中,p表示替换概率,jt表示位置,其中,0表示当前码本向量中的某一元素的位置,-1表示该元素所在位置的前一位置,1表示该元素的所在位置的后一位置,该表达式可以表征当前码本向量中的某一元素,被其前一位置的元素替换的概率为p,该元素不被替换的概率为1-2*p,该元素被其后一位置的元素替换的概率为p。该替换概率p的数值可以根据实际需求进行设定,一种情况中,该替换概率p的数值可以设置为0.5。
在本说明书的一种可实施方式中,该解码器可以包括第一线性映射层、全局自注意力机制模块、前向计算模块以及第二线性映射层;
所述S270,可以包括如下步骤31-32:
步骤31:将归一化后的基频序列、第二内容向量以及样本音频对应的说话人标签进行拼接,得到第二拼接向量。
步骤32:将第二拼接向量输入解码器,以使解码器依次基于第一线性映射层、全局自注意力机制模块、前向计算模块以及第二线性映射层,对所输入的拼接向量进行处理,得到预测梅尔谱特征。
本实现方式中,得到第二内容向量以及归一化后的基频序列之后,将归一化后的基频序列、第二内容向量以及样本音频对应的说话人标签进行拼接,例如可以将归一化后的基频序列、第二内容向量以及说话人标签依次从上到下进行拼接,得到第二拼接向量。将第二拼接向量输入解码器。解码器通过第一线性映射层对第二拼接向量进行线性映射,得到第二拼接向量对应的中间线性映射向量。一种情况,该中间线性映射向量为256维度的向量。在该中间线性映射向量上加上位置编码,将加上预设的位置编码的中间线性映射向量输入全局自注意力机制模块,得到相应的编码向量,将该编码向量输入前向计算模块,得到相应的输出结果,将前向计算模块的输出结果输入第二线性映射层,进行线性映射,得到预测梅尔谱特征,其中,该预测梅尔谱特征为80维度的预测梅尔谱特征。其中,前向计算模块可以通过两个线性层构成。
其中,该全局自注意力机制模块可以通过4层全局自注意力神经网络构成。
一种情况中,预设的位置编码可以通过如下公式(8)表示:
其中,PE表示位置编码,pos代表当前位置(中间线性映射向量中的加上位置编码的元素所在位置)的下标,n代表当前维度(中间线性映射向量中的加上位置编码的元素对应的维度)的下标,dmodel代表维度的大小。
在本说明书的一种可实施方式中,所述方法还可以包括如下步骤41-:
步骤41:对待转换音频进行特征提取,得到待转换音频对应的待转换梅尔谱特征以及待转换基频序列。
步骤42:将待转换梅尔谱特征输入已训练的编码器,得到第三内容向量。
步骤43:将第三内容向量输入已训练的瓶颈层,得到第四内容向量。
步骤44:将归一化后的待转换基频序列、第四内容向量以及所选择的目标说话人标签,输入已训练的解码器,得到转换后的梅尔谱特征。
步骤45:将转换后的梅尔谱特征输入已训练的声码器,得到待转换音频对应的转换后的目标音频。
本实现方式中,在训练完成语音转换模型之后,可以利用该语音转换模型对语音(音频)进行转换。相应的,获得待转换音频,该录制该待转换音频所使用的语言与录制样本音频所使用的语言可以相同。该待转换音频可以是说话人1录制的音频。
利用上述的特征提取模块,对待转换音频进行特征提取,得到待转换音频对应的待转换梅尔谱特征以及待转换基频序列;将待转换梅尔谱特征输入已训练的编码器,得到第三内容向量。将第三内容向量输入已训练的瓶颈层,得到与说话人信息无关的第四内容向量,该第四内容向量可以表征待转换音频的文本内容信息。对待转换基频序列进行归一化操作,得到归一化后的待转换基频序列。获得用户选择的目标说话人标签,该目标说话人标签可以表征用户所希望转换的说话人音色。将归一化后的待转换基频序列、第四内容向量以及目标说话人标签进行拼接,得到待转换拼接向量,将待转换拼接向量输入已训练的解码器,得到转换后的梅尔谱特征,将转换后的梅尔谱特征输入已训练的声码器,得到待转换音频对应的转换后的目标音频,实现语音转换。该目标音频对应的说话人的音色即为目标说话人标签所表征的说话人的音色。
该声码器为预先已训练的声码器,其可以包括卷积层、转置卷积和残差连接层神经网络。
上述内容对本说明书的特定实施例进行了描述,其他实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行,并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要按照示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的,或者可能是有利的。
相应于上述方法实施例,本说明书实施例,提供了一种语音转换模型的训练装置300,其示意性框图如图3所示,语音转换模型包括编码器、瓶颈层以及解码器,所述装置包括:
特征提取模块310,配置为对样本音频进行特征提取,得到梅尔谱特征标签以及基频序列;
第一输入模块320,配置为将所述梅尔谱特征标签输入所述编码器,得到第一内容向量;
第二输入模块330,配置为将所述第一内容向量输入所述瓶颈层,得到当前码本向量以及第二内容向量,其中,所述瓶颈层用于去除输入向量中的说话人信息,所述当前码本向量为与所述第一内容向量距离最近的向量;
第一确定模块340,配置为基于所述第一内容向量和所述当前码本向量,确定第一损失值;
第三输入模块350,配置为将所述第一内容向量输入感知机层,得到所述第一内容向量对应的各字符或空白符的发射概率;
第二确定模块360,配置为基于所述样本音频对应的转录文本标签以及所述发射概率,确定第二损失值;
第四输入模块370,配置为将归一化后的所述基频序列、所述第二内容向量以及所述样本音频对应的说话人标签,输入所述解码器,得到预测梅尔谱特征;
第三确定模块380,配置为基于所述梅尔谱特征标签以及所述预测梅尔谱特征,确定第三损失值;
训练模块390,配置为以最小化所述第一损失值、所述第二损失值以及所述第三损失值为目标,训练所述编码器、瓶颈层以及解码器。
在一种可实施方式中,所述特征提取模块310,具体配置为对所述样本音频进行预加重,得到对应的加重样本音频;
对所述加重样本音频进行分帧,得到对应的子音频;
针对每一子音频进行加窗;
对每一加窗后的子音频进行快速傅里叶变换,得到每一加窗后的子音频的频谱,并基于每一加窗后的子音频的频谱,确定每一加窗后的子音频的能量谱;
利用梅尔滤波器以及每一加窗后的子音频的能量谱,得到每一加窗后的子音频对应的梅尔谱特征,以得到所述样本音频对应的梅尔谱特征;
基于每一加窗后的子音频,确定所述样本音频对应的基频序列。
在一种可实施方式中,所述编码器包括卷积神经网络层以及全局自注意力神经网络层;
所述第一输入模块320,包括:
第一输入单元(图中未示出),配置为将所述梅尔谱特征标签输入所述卷积神经网络层,得到中间特征序列;
第二输入单元(图中未示出),配置为将所述中间特征序列输入所述全局自注意力神经网络层,得到所述第一内容向量。
在一种可实施方式中,所述全局自注意力神经网络层包括采用多头自注意力的自注意力子层以及前馈神经网络子层;
所述第二输入单元,具体配置为将所述中间特征序列输入所述自注意力子层,以使所述自注意力子层,针对其每头自注意力,对所述中间特征序列进行第一线性映射,得到每头自注意力对应的问询矩阵、键值矩阵以及值矩阵;对每头自注意力对应的问询矩阵、键值矩阵以及值矩阵进行缩放点积注意力操作,得到每头自注意力对应的中间向量;对所有头自注意力对应的中间向量的第一拼接向量进行第二线性映射操作,得到对应的输出结果;
将所述输出结果输入所述前馈神经网络子层,以使所述前馈神经网络子层,对所述输出结果进行第三线性映射操作,得到第一线性映射结果;将所述第一线性映射结果输入修正线性单元,得到中间修正结果;对所述中间修正结果进行第四线性映射操作,得到所述第一内容向量。
在一种可实施方式中,所述瓶颈层包括:包含第一数量个待训练的多维码本向量的码本向量层,以及时间抖动模块;
所述第二输入模块330,配置为将所述第一内容向量输入所述码本向量层,计算所述第一内容向量与每一码本向量之间的距离;基于计算所得的距离,确定出与所述第一内容向量距离最近的码本向量,作为所述当前码本向量;
将所述当前码本向量输入所述时间抖动模块,得到所述第二内容向量。
在一种可实施方式中,所述解码器包括第一线性映射层、全局自注意力机制模块、前向计算模块以及第二线性映射层;
所述第四输入模块370,具体配置为将归一化后的所述基频序列、所述第二内容向量以及所述样本音频对应的说话人标签进行拼接,得到第二拼接向量;
将所述第二拼接向量输入所述解码器,以使所述解码器依次基于第一线性映射层、全局自注意力机制模块、前向计算模块以及第二线性映射层,对所输入的拼接向量进行处理,得到所述预测梅尔谱特征。
在一种可实施方式中,所述装置还包括:
所述特征提取模块310,还配置为对待转换音频进行特征提取,得到所述待转换音频对应的待转换梅尔谱特征以及待转换基频序列;
所述第一输入模块320,还配置为将所述待转换梅尔谱特征输入已训练的所述编码器,得到第三内容向量;
所述第二输入模块330,还配置为将所述第三内容向量输入已训练的所述瓶颈层,得到第四内容向量;
所述第四输入模块370,还配置为将归一化后的所述待转换基频序列、所述第四内容向量以及所选择的目标说话人标签,输入已训练的所述解码器,得到转换后的梅尔谱特征;
第五输入模块(图中未示出),配置为将所述转换后的梅尔谱特征输入已训练的声码器,得到所述待转换音频对应的转换后的目标音频。
上述装置实施例与方法实施例相对应,具体说明可以参见方法实施例部分的描述,此处不再赘述。装置实施例是基于对应的方法实施例得到,与对应的方法实施例具有同样的技术效果,具体说明可参见对应的方法实施例。
本说明书实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行本说明书所提供的所述语音转换模型的训练方法。
本说明书实施例还提供了一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现本说明书所提供的所述语音转换模型的训练方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于存储介质和计算设备实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本发明实施例所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。
以上所述的具体实施方式,对本发明实施例的目的、技术方案和有益效果进行了进一步的详细说明。所应理解的是,以上所述仅为本发明实施例的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的技术方案的基础之上所做的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。
Claims (10)
1.一种语音转换模型的训练方法,所述语音转换模型包括编码器、瓶颈层以及解码器,所述方法包括:
对样本音频进行特征提取,得到梅尔谱特征标签以及基频序列;
将所述梅尔谱特征标签输入所述编码器,得到第一内容向量;
将所述第一内容向量输入所述瓶颈层,得到当前码本向量以及第二内容向量,其中,所述瓶颈层用于去除输入向量中的说话人信息,所述当前码本向量为与所述第一内容向量距离最近的向量;
基于所述第一内容向量和所述当前码本向量,确定第一损失值;
将所述第一内容向量输入感知机层,得到所述第一内容向量对应的各字符或空白符的发射概率;
基于所述样本音频对应的转录文本标签以及所述发射概率,确定第二损失值;
将归一化后的所述基频序列、所述第二内容向量以及所述样本音频对应的说话人标签,输入所述解码器,得到预测梅尔谱特征;
基于所述梅尔谱特征标签以及所述预测梅尔谱特征,确定第三损失值;
以最小化所述第一损失值、所述第二损失值以及所述第三损失值为目标,训练所述编码器、瓶颈层以及解码器。
2.根据权利要求1所述的方法,其中,所述对所获得的样本音频进行特征提取,得到梅尔谱特征标签以及基频序列,包括:
对所述样本音频进行预加重,得到对应的加重样本音频;
对所述加重样本音频进行分帧,得到对应的子音频;
针对每一子音频进行加窗;
对每一加窗后的子音频进行快速傅里叶变换,得到每一加窗后的子音频的频谱,并基于每一加窗后的子音频的频谱,确定每一加窗后的子音频的能量谱;
利用梅尔滤波器以及每一加窗后的子音频的能量谱,得到每一加窗后的子音频对应的梅尔谱特征,以得到所述样本音频对应的梅尔谱特征;
基于每一加窗后的子音频,确定所述样本音频对应的基频序列。
3.根据权利要求1所述的方法,其中,所述编码器包括卷积神经网络层以及全局自注意力神经网络层;
所述将所述梅尔谱特征标签输入所述编码器,得到第一内容向量,包括:
将所述梅尔谱特征标签输入所述卷积神经网络层,得到中间特征序列;
将所述中间特征序列输入所述全局自注意力神经网络层,得到所述第一内容向量。
4.根据权利要求3所述的方法,其中,所述全局自注意力神经网络层包括采用多头自注意力的自注意力子层以及前馈神经网络子层;
所述将所述中间特征序列输入所述全局自注意力神经网络层,得到所述第一内容向量,包括:
将所述中间特征序列输入所述自注意力子层,以使所述自注意力子层,针对其每头自注意力,对所述中间特征序列进行第一线性映射,得到每头自注意力对应的问询矩阵、键值矩阵以及值矩阵;对每头自注意力对应的问询矩阵、键值矩阵以及值矩阵进行缩放点积注意力操作,得到每头自注意力对应的中间向量;对所有头自注意力对应的中间向量的第一拼接向量进行第二线性映射操作,得到对应的输出结果;
将所述输出结果输入所述前馈神经网络子层,以使所述前馈神经网络子层,对所述输出结果进行第三线性映射操作,得到第一线性映射结果;将所述第一线性映射结果输入修正线性单元,得到中间修正结果;对所述中间修正结果进行第四线性映射操作,得到所述第一内容向量。
5.根据权利要求1所述的方法,其中,所述瓶颈层包括:包含第一数量个待训练的多维码本向量的码本向量层,以及时间抖动模块;
所述将所述第一内容向量输入所述瓶颈层,得到当前码本向量以及第二内容向量,包括:
将所述第一内容向量输入所述码本向量层,计算所述第一内容向量与每一码本向量之间的距离;基于计算所得的距离,确定出与所述第一内容向量距离最近的码本向量,作为所述当前码本向量;
将所述当前码本向量输入所述时间抖动模块,得到所述第二内容向量。
6.根据权利要求1所述的方法,其中,所述解码器包括第一线性映射层、全局自注意力机制模块、前向计算模块以及第二线性映射层;
所述将归一化后的所述基频序列、所述第二内容向量以及所述样本音频对应的说话人标签,输入所述解码器,得到预测梅尔谱特征,包括:
将归一化后的所述基频序列、所述第二内容向量以及所述样本音频对应的说话人标签进行拼接,得到第二拼接向量;
将所述第二拼接向量输入所述解码器,以使所述解码器依次基于第一线性映射层、全局自注意力机制模块、前向计算模块以及第二线性映射层,对所输入的拼接向量进行处理,得到所述预测梅尔谱特征。
7.根据权利要求1-6任一项所述的方法,还包括:
对待转换音频进行特征提取,得到所述待转换音频对应的待转换梅尔谱特征以及待转换基频序列;
将所述待转换梅尔谱特征输入已训练的所述编码器,得到第三内容向量;
将所述第三内容向量输入已训练的所述瓶颈层,得到第四内容向量;
将归一化后的所述待转换基频序列、所述第四内容向量以及所选择的目标说话人标签,输入已训练的所述解码器,得到转换后的梅尔谱特征;
将所述转换后的梅尔谱特征输入已训练的声码器,得到所述待转换音频对应的转换后的目标音频。
8.一种语音转换模型的训练装置,所述语音转换模型包括编码器、瓶颈层以及解码器,所述装置包括:
特征提取模块,配置为对样本音频进行特征提取,得到梅尔谱特征标签以及基频序列;
第一输入模块,配置为将所述梅尔谱特征标签输入所述编码器,得到第一内容向量;
第二输入模块,配置为将所述第一内容向量输入所述瓶颈层,得到当前码本向量以及第二内容向量,其中,所述瓶颈层用于去除输入向量中的说话人信息,所述当前码本向量为与所述第一内容向量距离最近的向量;
第一确定模块,配置为基于所述第一内容向量和所述当前码本向量,确定第一损失值;
第三输入模块,配置为将所述第一内容向量输入感知机层,得到所述第一内容向量对应的各字符或空白符的发射概率;
第二确定模块,配置为基于所述样本音频对应的转录文本标签以及所述发射概率,确定第二损失值;
第四输入模块,配置为将归一化后的所述基频序列、所述第二内容向量以及所述样本音频对应的说话人标签,输入所述解码器,得到预测梅尔谱特征;
第三确定模块,配置为基于所述梅尔谱特征标签以及所述预测梅尔谱特征,确定第三损失值;
训练模块,配置为以最小化所述第一损失值、所述第二损失值以及所述第三损失值为目标,训练所述编码器、瓶颈层以及解码器。
9.根据权利要求8所述的装置,其中,所述特征提取模块,具体配置为对所述样本音频进行预加重,得到对应的加重样本音频;
对所述加重样本音频进行分帧,得到对应的子音频;
针对每一子音频进行加窗;
对每一加窗后的子音频进行快速傅里叶变换,得到每一加窗后的子音频的频谱,并基于每一加窗后的子音频的频谱,确定每一加窗后的子音频的能量谱;
利用梅尔滤波器以及每一加窗后的子音频的能量谱,得到每一加窗后的子音频对应的梅尔谱特征,以得到所述样本音频对应的梅尔谱特征;
基于每一加窗后的子音频,确定所述样本音频对应的基频序列。
10.一种计算设备,包括存储器和处理器,其中,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111052652.6A CN113763987A (zh) | 2021-09-06 | 2021-09-06 | 一种语音转换模型的训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111052652.6A CN113763987A (zh) | 2021-09-06 | 2021-09-06 | 一种语音转换模型的训练方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113763987A true CN113763987A (zh) | 2021-12-07 |
Family
ID=78794061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111052652.6A Pending CN113763987A (zh) | 2021-09-06 | 2021-09-06 | 一种语音转换模型的训练方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113763987A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115294970A (zh) * | 2022-10-09 | 2022-11-04 | 苏州大学 | 针对病理嗓音的语音转换方法、装置和存储介质 |
CN115424604A (zh) * | 2022-07-20 | 2022-12-02 | 南京硅基智能科技有限公司 | 一种基于对抗生成网络的语音合成模型的训练方法 |
CN116959422A (zh) * | 2023-09-21 | 2023-10-27 | 深圳麦风科技有限公司 | 多对多的实时语音变音方法、设备及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106504741A (zh) * | 2016-09-18 | 2017-03-15 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于深度神经网络音素信息的语音转换方法 |
CN107705802A (zh) * | 2017-09-11 | 2018-02-16 | 厦门美图之家科技有限公司 | 语音转换方法、装置、电子设备及可读存储介质 |
CN108777140A (zh) * | 2018-04-27 | 2018-11-09 | 南京邮电大学 | 一种非平行语料训练下基于vae的语音转换方法 |
CN112017644A (zh) * | 2020-10-21 | 2020-12-01 | 南京硅基智能科技有限公司 | 一种声音变换系统、方法及应用 |
WO2021042870A1 (zh) * | 2019-09-05 | 2021-03-11 | 腾讯科技(深圳)有限公司 | 语音处理的方法、装置、电子设备及计算机可读存储介质 |
CN112735389A (zh) * | 2020-12-29 | 2021-04-30 | 平安科技(深圳)有限公司 | 基于深度学习的语音训练方法、装置、设备以及存储介质 |
CN112767958A (zh) * | 2021-02-26 | 2021-05-07 | 华南理工大学 | 一种基于零次学习的跨语种音色转换系统及方法 |
US20210201890A1 (en) * | 2019-12-31 | 2021-07-01 | Ubtech Robotics Corp Ltd | Voice conversion training method and server and computer readable storage medium |
CN113178201A (zh) * | 2021-04-30 | 2021-07-27 | 平安科技(深圳)有限公司 | 基于无监督的语音转换方法、装置、设备及介质 |
CN113345454A (zh) * | 2021-06-01 | 2021-09-03 | 平安科技(深圳)有限公司 | 语音转换模型的训练、应用方法、装置、设备及存储介质 |
-
2021
- 2021-09-06 CN CN202111052652.6A patent/CN113763987A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106504741A (zh) * | 2016-09-18 | 2017-03-15 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于深度神经网络音素信息的语音转换方法 |
CN107705802A (zh) * | 2017-09-11 | 2018-02-16 | 厦门美图之家科技有限公司 | 语音转换方法、装置、电子设备及可读存储介质 |
CN108777140A (zh) * | 2018-04-27 | 2018-11-09 | 南京邮电大学 | 一种非平行语料训练下基于vae的语音转换方法 |
WO2021042870A1 (zh) * | 2019-09-05 | 2021-03-11 | 腾讯科技(深圳)有限公司 | 语音处理的方法、装置、电子设备及计算机可读存储介质 |
US20210201890A1 (en) * | 2019-12-31 | 2021-07-01 | Ubtech Robotics Corp Ltd | Voice conversion training method and server and computer readable storage medium |
CN112017644A (zh) * | 2020-10-21 | 2020-12-01 | 南京硅基智能科技有限公司 | 一种声音变换系统、方法及应用 |
CN112735389A (zh) * | 2020-12-29 | 2021-04-30 | 平安科技(深圳)有限公司 | 基于深度学习的语音训练方法、装置、设备以及存储介质 |
CN112767958A (zh) * | 2021-02-26 | 2021-05-07 | 华南理工大学 | 一种基于零次学习的跨语种音色转换系统及方法 |
CN113178201A (zh) * | 2021-04-30 | 2021-07-27 | 平安科技(深圳)有限公司 | 基于无监督的语音转换方法、装置、设备及介质 |
CN113345454A (zh) * | 2021-06-01 | 2021-09-03 | 平安科技(深圳)有限公司 | 语音转换模型的训练、应用方法、装置、设备及存储介质 |
Non-Patent Citations (3)
Title |
---|
FENG-LONG XIE ETC: "Pitch Transformation in Neural Network based Voice Conversion", 《THE 9TH INTERNATIONAL SYMPOSIUM ON CHINESE SPOKEN LANGUAGE PROCESSING》, pages 197 - 200 * |
ZIYI CHEN ETC: "TVQVC: Transformer based Vector Quantized Variational Autoencoder with CTC loss for Voice Conversion", 《INTERSPEECH 2021》, pages 826 - 830 * |
许吉良: "非平行文本条件下基于i-vector和改进变分自编码器的多对多语音转换算法研究", 《中国优秀硕士论文全文数据库 信息科技辑》, no. 2, pages 1 - 58 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115424604A (zh) * | 2022-07-20 | 2022-12-02 | 南京硅基智能科技有限公司 | 一种基于对抗生成网络的语音合成模型的训练方法 |
CN115424604B (zh) * | 2022-07-20 | 2024-03-15 | 南京硅基智能科技有限公司 | 一种基于对抗生成网络的语音合成模型的训练方法 |
CN115294970A (zh) * | 2022-10-09 | 2022-11-04 | 苏州大学 | 针对病理嗓音的语音转换方法、装置和存储介质 |
CN116959422A (zh) * | 2023-09-21 | 2023-10-27 | 深圳麦风科技有限公司 | 多对多的实时语音变音方法、设备及存储介质 |
CN116959422B (zh) * | 2023-09-21 | 2023-11-24 | 深圳麦风科技有限公司 | 多对多的实时语音变音方法、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11587569B2 (en) | Generating and using text-to-speech data for speech recognition models | |
US11264044B2 (en) | Acoustic model training method, speech recognition method, acoustic model training apparatus, speech recognition apparatus, acoustic model training program, and speech recognition program | |
CN113763987A (zh) | 一种语音转换模型的训练方法及装置 | |
CN111312245B (zh) | 一种语音应答方法、装置和存储介质 | |
CN113707125B (zh) | 一种多语言语音合成模型的训练方法及装置 | |
US5734793A (en) | System for recognizing spoken sounds from continuous speech and method of using same | |
US20240005093A1 (en) | Device, method and program for natural language processing | |
CN111783477B (zh) | 一种语音翻译方法及系统 | |
US11886813B2 (en) | Efficient automatic punctuation with robust inference | |
CN111930900B (zh) | 标准发音生成方法及相关装置 | |
CN113837299B (zh) | 基于人工智能的网络训练方法及装置、电子设备 | |
CN113035231A (zh) | 关键词检测方法及装置 | |
CN114550703A (zh) | 语音识别系统的训练方法和装置、语音识别方法和装置 | |
CN117234341A (zh) | 基于人工智能的虚拟现实人机交互方法及系统 | |
CN115617955A (zh) | 分级预测模型训练方法、标点符号恢复方法及装置 | |
CN115171176A (zh) | 对象情绪的分析方法、装置和电子设备 | |
Picheny et al. | Trends and advances in speech recognition | |
Shah et al. | Unsupervised Vocal Tract Length Warped Posterior Features for Non-Parallel Voice Conversion. | |
CN115104151A (zh) | 一种离线语音识别方法和装置、电子设备和可读存储介质 | |
CN112185340A (zh) | 语音合成方法、语音合成装置、存储介质与电子设备 | |
US20230178069A1 (en) | Methods and systems for synthesising speech from text | |
CN115240712A (zh) | 一种基于多模态的情感分类方法、装置、设备及存储介质 | |
CN115132170A (zh) | 语种分类方法、装置及计算机可读存储介质 | |
CN112951270A (zh) | 语音流利度检测的方法、装置和电子设备 | |
TW200935399A (en) | Chinese-speech phonologic transformation system and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20211207 |