CN112786011B - 语音合成方法、合成模型训练方法、装置、介质及设备 - Google Patents

语音合成方法、合成模型训练方法、装置、介质及设备 Download PDF

Info

Publication number
CN112786011B
CN112786011B CN202110043638.3A CN202110043638A CN112786011B CN 112786011 B CN112786011 B CN 112786011B CN 202110043638 A CN202110043638 A CN 202110043638A CN 112786011 B CN112786011 B CN 112786011B
Authority
CN
China
Prior art keywords
network
training
submodel
vocoder
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110043638.3A
Other languages
English (en)
Other versions
CN112786011A (zh
Inventor
殷翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Youzhuju Network Technology Co Ltd
Original Assignee
Beijing Youzhuju Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Youzhuju Network Technology Co Ltd filed Critical Beijing Youzhuju Network Technology Co Ltd
Priority to CN202110043638.3A priority Critical patent/CN112786011B/zh
Publication of CN112786011A publication Critical patent/CN112786011A/zh
Priority to PCT/CN2021/139935 priority patent/WO2022151930A1/zh
Application granted granted Critical
Publication of CN112786011B publication Critical patent/CN112786011B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Telephonic Communication Services (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本公开涉及一种语音合成方法、合成模型训练方法、装置、介质及设备。方法包括:获取待合成文本对应的语音特征信息;将语音特征信息输入语音合成模型中,得到预测波形点信息,语音合成模型包括声学子模型和声码器,语音合成模型是通过分别对声学子模型、声码器进行预训练,之后,将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练得到的;对预测波形点信息进行μ律扩展,得到音频信息。由此,可提升语音合成的效率,并有效降低相关技术中将声学子模型和声码器分别训练所产生的误差累积,提升语音合成的准确度,还可避免声学特征因不具备普适性导致生成的音频信息不能适配特殊的发音需求的问题,从而进一步提升语音合成的效果。

Description

语音合成方法、合成模型训练方法、装置、介质及设备
技术领域
本公开涉及语音合成技术领域,具体地,涉及一种语音合成方法、合成模型训练方法、装置、介质及设备。
背景技术
现阶段,在进行语音合成时,通常先通过声学子模型提取待合成文本对应的声学特征(例如,梅尔谱、线性谱、基频等),之后,再利用声码器根据声学特征生成待合成文本对应的音频信息。然而,声学子模型和声码器在协作进行语音合成时,语音合成的速度较慢,且易出现误差累积的现象,从而影响语音合成的准确度。另外,通过声学子模型提取到的声学特征可能不具备普适性,使得基于该声学特征生成的音频信息不能适配特殊的发音需求,例如,高尖女声或者低沉男声。
发明内容
提供该发明内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该发明内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,本公开提供一种语音合成方法,包括:
获取待合成文本对应的语音特征信息;
将所述语音特征信息输入语音合成模型中,得到与所述待合成文本对应的预测波形点信息,其中,所述语音合成模型包括声学子模型和声码器,所述语音合成模型是通过分别对所述声学子模型、所述声码器进行预训练,之后,将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练得到的;
对所述预测波形点信息进行μ律扩展,得到所述待合成文本对应的音频信息。
第二方面,本公开提供一种语音合成模型训练方法,所述语音合成模型包括声学子模型和声码器,所述方法包括:
分别对所述声学子模型、所述声码器进行预训练;
将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,得到所述语音合成模型。
第三方面,本公开提供一种语音合成装置,包括:
获取模块,用于获取待合成文本对应的语音特征信息;
语音合成模块,用于将所述获取模块获取到的所述语音特征信息输入语音合成模型中,得到与所述待合成文本对应的预测波形点信息,其中,所述语音合成模型包括声学子模型和声码器,所述语音合成模型是通过分别对所述声学子模型、所述声码器进行预训练,之后,将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练得到的;
扩展模块,用于对所述语音合成模块得到的所述预测波形点信息进行μ律扩展,得到所述待合成文本对应的音频信息。
第四方面,本公开提供一种语音合成模型训练装置,所述语音合成模型包括声学子模型和声码器,所述装置包括:
预训练模块,用于分别对所述声学子模型、所述声码器进行预训练;
联合训练模块,用于将所述预训练模块预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,得到所述语音合成模型。
第五方面,本公开提供一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现本公开第一方面或第二方面提供的所述方法的步骤。
第六方面,本公开提供一种电子设备,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现本公开第一方面提供的所述方法的步骤。
第七方面,本公开提供一种电子设备,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现本公开第二方面提供的所述方法的步骤。
在上述技术方案中,通过语音合成模型可以直接根据待合成文本对应的语音特征信息获得预测波形点信息,之后,对该预测波形点信息进行简单的μ律扩展即可获取到待合成文本对应的音频信息,而无需经过声学子模型和声码器进行协作,从而提升了语音合成的效率,并且,可有效降低相关技术中将声学子模型和声码器分别训练所产生的误差累积,提升了语音合成的准确度。另外,由于根据待合成文本对应的语音特征信息可以直接生成预测波形点信息,而不涉及声学特征,从而可以避免声学特征因不具备普适性导致生成的音频信息不能适配特殊的发音需求的问题,从而进一步提升了语音合成的效果。此外,在语音合成模型训练阶段,先分别对声学子模型、声码器进行预训练,之后,将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,这样,可以提升模型训练的效率和稳定性,从而提高语音合成的音质;并且,可以保证语音合成模型中的声学子模型和声码器的匹配度,从而避免即使声学子模型和声码器的准确度都较高,但得出的语音合成结果准确度低的问题,进一步提升了语音合成的准确度。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。在附图中:
图1是根据一示例性实施例示出的一种语音合成方法的流程图。
图2是根据一示例性实施例示出的一种语音合成模型训练方法的流程图。
图3是根据一示例性实施例示出的一种语音合成模型的结构示意图。
图4是根据一示例性实施例示出的一种将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练的方法的流程图。
图5是根据另一示例性实施例示出的一种语音合成模型的结构示意图。
图6A是根据另一示例性实施例示出的一种语音合成模型的结构示意图。
图6B是根据另一示例性实施例示出的一种语音合成模型的结构示意图。
图7是根据一示例性实施例示出的一种语音合成装置的框图。
图8是根据一示例性实施例示出的一种语音合成模型训练装置的框图。
图9是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
图1是根据一示例性实施例示出的一种语音合成方法的流程图。其中,如图1所示,该方法包括S101~S103。
在S101中,获取待合成文本对应的语音特征信息。
在本公开中,待合成文本可以为中文、藏文、维文、泰文、羌文等有声调的语种。语音特征信息可以用于表征待合成文本的音素、语调、停顿等相关信息。另外,待合成文本可以为小说、歌词等各种类型的文本。
在S102中,将语音特征信息输入语音合成模型中,得到与待合成文本对应的预测波形点信息。
在S103中,对预测波形点信息进行μ律扩展,得到待合成文本对应的音频信息。
在本公开中,语音合成模型包括声学子模型和声码器,并且,可以通过图2中所示的S201和S202训练得到该语音合成模型。
在S201中,分别对声学子模型、声码器进行预训练。
在S202中,将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,得到语音合成模型。
在上述技术方案中,通过语音合成模型可以直接根据待合成文本对应的语音特征信息获得预测波形点信息,之后,对该预测波形点信息进行简单的μ律扩展即可获取到待合成文本对应的音频信息,而无需经过声学子模型和声码器进行协作,从而提升了语音合成的效率,并且,可有效降低相关技术中将声学子模型和声码器分别训练所产生的误差累积,提升了语音合成的准确度。另外,由于根据待合成文本对应的语音特征信息可以直接生成预测波形点信息,而不涉及声学特征,从而可以避免声学特征因不具备普适性导致生成的音频信息不能适配特殊的发音需求的问题,从而进一步提升了语音合成的效果。此外,在语音合成模型训练阶段,先分别对声学子模型、声码器进行预训练,之后,将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,这样,可以提升模型训练的效率和稳定性,从而提高语音合成的音质;并且,可以保证语音合成模型中的声学子模型和声码器的匹配度,从而避免即使声学子模型和声码器的准确度都较高,但得出的语音合成结果准确度低的问题,进一步提升了语音合成的准确度。
下面针对上述S101中的获取待合成文本对应的语音特征信息的具体实施方式进行详细说明。
在本公开中,语音特征信息可以包括音素、声调、分词以及韵律边界。其中,音素是根据语音的自然属性划分出来的最小语音单位,依据音节里的发音动作来分析,一个动作构成一个音素;音素分为元音与辅音两大类。示例地,对于中文来说,音素包括声母(声母,是使用在韵母前面的辅音,跟韵母一齐构成的一个完整的音节)和韵母(即元音)。声调是指声音的高低升降的变化。示例地,中文中有四个声调:阴平、阳平、上声和去声。韵律边界用于指示在阅读文本时应该在哪些地方进行停顿。示例地,韵律边界分为“#1”、“#2”、“#3”和“#4”四个停顿等级,其停顿程度依次增大。
具体来说,可以通过多种方式来获取上述语音特征信息,在一种实施方式中,待合成文本对应的语音特征信息可以由用户预先标注好并存储在相应的存储模块,这样,通过访问该存储模块即可获取到待合成文本对应的语音特征信息。
在另一种实施方式中,可以将待合成文本输入信息提取模型,得到与待合成文本对应的语音特征信息,方便快捷,且无需人工参与,节省了人力。
在本公开中,信息提取模型可以包括文本正则化(Text Normalization,TN)模型、字素到音素(Grapheme-to-Phoneme,G2P)模型、分词模型以及韵律模型。其中,可以通过TN模型将待合成文本中的数字、符号、缩写等转换成语言文字,通过G2P模型获取待合成文本中的音素,通过分词模型对待合成文本进行分词,通过韵律模型获取待合成文本的韵律边界以及声调。
示例地,G2P模型可以采用循环神经网络(Recurrent Neural Network,RNN)和长短期记忆网络(Long Short-Term Memory,LSTM)来实现从字素到音素的转化。
分词模型可以为n-gram模型、隐马尔可夫模型、朴素贝叶斯分类模型等。
韵律模型为预训练语言模型BERT(Bidirectional Encoder Representationfrom Transformers)、双向LSTM-CRF(Conditional Random Field,条件随机场)模型等。
在上述实施方式中,通过提取待合成文本的音素、声调、分词和韵律边界这些语音特征信息,并基于语音特征信息对待合成文本进行语音合成,从而可以更加关注待合成文本的文本内容。这样,可以使得到的待合成文本对应的音频信息能够根据待合成文本的文本内容以及分词进行停顿,提高了音频信息的准确度和可理解性,便于用户快速理解音频信息对应的文本内容。另外,由于语音合成时能够在自然的韵律边界处进行停顿,因此可以提升待合成文本对应的音频信息的自然度和流畅性。
下面针对上述语音合成模型的具体结构进行详细说明。如图3所示,声学子模型包括编码网络、时长子模型、注意力网络(图3中以GMM attention网络示例,即基于高斯混合模型(Gaussian Mixture Model,GMM)的注意力网络)以及解码网络;声码器包括上采样网络。
在本公开中,编码网络用于根据待合成文本对应的语音特征信息,生成待合成文本对应的表示序列;时长子模型用于根据待合成文本对应的语音特征信息和表示序列,得到扩展序列;注意力网络用于根据扩展序列,生成定长的语义表征;上采样网络用于对语义表征进行上采样,得到待合成文本对应的波形点信息;解码网络用于在模型训练阶段,根据注意力网络输出的文本训练样本对应的语义表征,生成文本训练样本对应的预测梅尔谱信息,其中,预测梅尔谱信息和文本训练样本对应的标注梅尔谱信息的比较结果用于对声学子模型的模型参数进行更新。
其中,表示序列由待合成文本中各音素的编码按照相应音素在待合成文本中的先后顺序排列而成。
示例地,待合成文本对应的音素序列为“ab”,其中,音素“a”的编码为“A”,音素“b”的编码为“B”,则待合成文本对应的表示序列为“AB”。
扩展序列由每一音素对应的子序列按照该音素在待合成文本中的先后顺序排列而成,其中,子序列中的各元素均为该音素,并且,子序列的长度为该音素对应的语音帧的数量。
示例地,待合成文本对应的音素序列为“ab”,其中,音素“a”、音素“b”对应的语音帧的数量分别为5、3,则音素“a”对应的子序列为“AAAAA”(其中,A为音素“a”的编码),音素“b”对应的子序列为“BBB”(其中,B为音素“b”的编码),这样,待合成文本对应的扩展序列为“AAAAABBB”。
如图3所示,编码网络可以包括预处理网络(Pre-net)子模型和CBHG(ConvolutionBank+Highway network+bidirectional Gated Recurrent Unit,即,卷积层+高速网络+双向递归神经网络,也就是说,CBHG由卷积层、高速网络以及双向递归神经网络组成)子模型。首先,将待合成文本对应的语音特征信息输入至Pre-net子模型,以对语音特征信息进行非线性变换,从而提升语音合成模型的收敛和泛化能力,然后,通过CBHG子模型根据非线性变换后的语音特征信息,获得待合成文本对应的表示序列。
时长子模型可以例如是CBHG模型、长短时记忆网络(Long Short Term MemoryNetwork,LSTM)模型、LSTM-RNN(Recurrent Neural Network,循环神经网络)模型、深度神经网络(Deep Neural Networks,DNN)模型、Transformer模型等。优选地,时长子模型可以采用Transformer模型,以提升语音合成模型的稳定性,从而提升语音合成的可靠性和准确度。
另外,上述时长子模型可以通过以下步骤来确定待合成文本中各音素对应的语音帧的数量:(1)获取待合成文本中各音素的发音时长;(2)根据每一音素的发音时长,确定该音素对应的语音帧的数量。
示例地,一音素的发音时长为200ms,一个语音帧的时间长度为5ms,则该音素对应的语音帧的数量为40。
又示例地,一音素的发音时长为203ms,一个语音帧的时间长度为5ms,则该音素对应的语音帧的数量为即最后一片不足5ms的,按照一帧处理。
上述注意力网络可以为位置敏感注意力(Locative Sensitive Attention),也可以为GMM attention(如图3中所示)。优选地,该注意力网络可以为GMM attention,这样,可以进一步提升语音合成效果的稳定性,避免出现漏元辅音、重复元辅音或者无法停止的现象。
上采样网络可以针对待合成文本中各音素对应的每一语音帧的语义表征,按照该语音帧对应的上采样倍数对该语音帧的语义表征进行上采样,得到该语音帧对应的波形点信息。由于语义表征的时域长度远小于语音波形长度,所以需要对语义表征进行上采样来进行维度匹配。其中,上采样倍数可以是默认的,即待合成文本中各音素对应的每一语音帧的上采样倍数均相同,这样,各语音帧均采用相同的上采样倍数进行上采样;或者,待合成文本中各音素对应的每一语音帧的上采样倍数可以是用户预先设定的。
下面基于上述语音合成模型(即图3中所示的语音合成模型)详细说明语音合成模型的具体训练方式。
首先,针对上述S201中的分别对声学子模型、声码器进行预训练的具体实施方式进行详细说明。
具体来说,可以通过以下方式对声学子模进行预训练:
首先,获取文本训练样本对应的标注语音特征信息和标注梅尔谱信息;然后,通过将标注语音特征信息作为编码网络的输入,将编码网络的输出和标注语音特征信息作为时长子模型的输入,将时长子模型的输出作为注意力网络的输入,将注意力网络的输出作为解码网络的输入,将标注梅尔谱信息作为解码网络的目标输出,对声学子模型进行预训练。
具体来说,可以将标注语音特征信息输入编码网络中,得到文本训练样本对应的表示序列;然后,将表示序列和标注语音特征信息输入时长子模型,得到文本训练样本对应的扩展序列;其次,将扩展序列输入注意力网络,得到定长的语义表征;接下来将该定长的语义表征输入解码网络,得到生成文本训练样本对应的预测梅尔谱信息,之后,根据预测梅尔谱信息和文本训练样本对应的标注梅尔谱信息的比较结果,对声学子模型的模型参数进行更新。示例地,可以将文本训练样本的规模设置在20kB~30kB范围内,当文本训练样本全部训练一遍时,可以结束预训练。
同时,可以通过以下方式对声码器进行预训练:
首先,获取文本训练样本对应的标注语义表征和标注波形点信息;然后,通过将标注语义表征作为上采样网络的输入,将标注波形点信息作为上采样网络的目标输出,对上采样网络进行预训练。具体来说,可以将标注语义表征输入上采样网络中,得到文本训练样本对应的预测波形点信息;然后,根据文本训练样本对应的预测波形点信息与上采样网络的目标输出(即标注波形点信息)的比较结果,对上采样网络的模型参数进行更新。示例地,可以将文本训练样本的规模设置在20kB~30kB范围内,当文本训练样本全部训练一遍时,可以结束预训练。
其中,可以通过对文本训练样本对应的音频信息进行μ律压缩,得到该文本训练样本对应的标注波形点信息。
下面针对上述S202中的将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练的具体实施方式进行详细说明。具体来说,可以通过图4中所示的S2021和S2022来实现。
在S2021中,获取文本训练样本对应的标注语音特征信息、标注波形点信息以及标注梅尔谱信息。
在S2022中,通过将标注语音特征信息作为编码网络的输入,将编码网络的输出和标注语音特征信息作为时长子模型的输入,将时长子模型的输出作为注意力网络的输入,将注意力网络的输出作为上采样网络的输入,将标注波形点信息作为上采样网络的目标输出,将注意力网络的输出作为解码网络的输入,将标注梅尔谱信息作为解码网络的目标输出的方式,对预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,以得到语音合成模型。
具体来说,可以将标注语音特征信息输入编码网络中,得到文本训练样本对应的表示序列;然后,将表示序列和标注语音特征信息输入时长子模型,得到文本训练样本对应的扩展序列;接下来,将扩展序列输入注意力网络,得到定长的语义表征;之后,将该定长的语义表征输入解码网络,生成文本训练样本对应的预测梅尔谱信息,同时,将定长的语音表征输入到上采样网络中,得到文本训练样本对应的预测波形点信息;最后,根据上采样网络输出的预测波形点信息与标注波形点信息的比较结果、解码网络输出的预测梅尔谱信息和标注梅尔谱信息的比较结果,对声学子模型的模型参数和上采样网络的模型参数进行更新,从而得到语音合成模型。
其中,需要说明的是,声学子模型预训练阶段采用的文本训练样本、声码器预训练阶段采用的文本训练样本、联合训练阶段采用的文本训练样本可以相同,也可以均不同,还可以部分相同,在本公开中不作具体限定。
另外,如图5所示,上述声学子模型还可以包括超分辨率网络和第一判别器。其中,声学子模型为包括生成器和第一判别器的第一生成式对抗网络,生成器包括编码网络、注意力网络、时长子模型、解码网络以及超分辨率网络。
上述S202还可以包括以下步骤:获取文本训练样本对应的标注线性谱信息;解码网络将所得的、文本训练样本对应的预测梅尔谱信息输出至超分辨率网络;超分辨率网络根据文本训练样本对应的预测梅尔谱信息,生成文本训练样本对应的预测线性谱信息,并将该预测线性谱信息输出至第一判别器;第一判别器对预测线性谱信息进行真假判定,即判定预测线性谱是否为真实线性谱,得到第一判定结果;利用预测线性谱信息与标注线性谱信息的比较结果和第一判定结果对第一生成式对抗网络的生成器的模型参数和第一判别器的模型参数进行更新。
声学子模型通过生成器和第一判别器的对抗训练,可以使得注意力网络生成的定长的语义表征更加准确,从而提升后续音频信息的清晰度。
另外,如图6A和6B所示,上述声码器还可以包括第二判别器,其中,上采样网络和第二判别器构成第二生成式对抗网络,上采样网络为第二生成式对抗网络的生成器。
上述S202还可以包括以下步骤:上采样网络将所得的文本训练样本对应的波形点信息输出至第二判别器;第二判别器对文本训练样本对应的波形点信息进行真假判定,得到第二判定结果;利用第二判定结果对上采样网络的模型参数、第二判别器的模型参数以及声学子模型的模型参数进行更新。
声码器通过上采样网络(即生成器)和第二判别器的对抗训练,可以提升声码器生成的波形点信息的准确度,从而提升后续音频信息的清晰度。
本公开还提供一种语音合成模型训练方法,其中,如图3所示,该语音合成模型包括声学子模型和声码器。如图2所示,该训练方法包括S201和S202。
在S201中,分别对声学子模型、声码器进行预训练。
具体来说,可以通过以下方式对声学子模进行预训练:
首先,获取文本训练样本对应的标注语音特征信息和标注梅尔谱信息;然后,通过将标注语音特征信息作为编码网络的输入,将编码网络的输出和标注语音特征信息作为时长子模型的输入,将时长子模型的输出作为注意力网络的输入,将注意力网络的输出作为解码网络的输入,将标注梅尔谱信息作为解码网络的目标输出,对声学子模型进行预训练。
同时,可以通过以下方式对声码器进行预训练:
首先,获取文本训练样本对应的标注语义表征和标注波形点信息;然后,通过将标注语义表征作为上采样网络的输入,将标注波形点信息作为上采样网络的目标输出,对上采样网络进行预训练。具体来说,可以将标注语义表征输入上采样网络中,得到文本训练样本对应的预测波形点信息;然后,根据文本训练样本对应的预测波形点信息与上采样网络的目标输出(即标注波形点信息)的比较结果,对上采样网络的模型参数进行更新。示例地,可以将文本训练样本的规模设置在20kB~30kB范围内,当文本训练样本全部训练一遍时,可以结束预训练。
其中,可以通过对文本训练样本对应的音频信息进行μ律压缩,得到该文本训练样本对应的标注波形点信息。
返回图2,在S202中,将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,得到语音合成模型。
具体来说,可以通过图4中所示的S2021和S2022来实现。
在S2021中,获取文本训练样本对应的标注语音特征信息、标注波形点信息以及标注梅尔谱信息。
在S2022中,通过将标注语音特征信息作为编码网络的输入,将编码网络的输出和标注语音特征信息作为时长子模型的输入,将时长子模型的输出作为注意力网络的输入,将注意力网络的输出作为上采样网络的输入,将标注波形点信息作为上采样网络的目标输出,将注意力网络的输出作为解码网络的输入,将标注梅尔谱信息作为解码网络的目标输出的方式,对预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,以得到语音合成模型。
另外,如图5所示,上述声学子模型还可以包括超分辨率网络和第一判别器。其中,声学子模型为包括生成器和第一判别器的第一生成式对抗网络,生成器包括编码网络、注意力网络、时长子模型、解码网络以及超分辨率网络。
上述S202还可以包括以下步骤:获取文本训练样本对应的标注线性谱信息;解码网络将所得的、文本训练样本对应的预测梅尔谱信息输出至超分辨率网络;超分辨率网络根据文本训练样本对应的预测梅尔谱信息,生成文本训练样本对应的预测线性谱信息,并将该预测线性谱信息输出至第一判别器;第一判别器对预测线性谱信息进行真假判定,即判定预测线性谱是否为真实线性谱,得到第一判定结果;利用预测线性谱信息与标注线性谱信息的比较结果和第一判定结果对第一生成式对抗网络的生成器的模型参数和第一判别器的模型参数进行更新。
声学子模型通过生成器和第一判别器的对抗训练,可以使得注意力网络生成的定长的语义表征更加准确,从而提升后续音频信息的清晰度。
另外,如图6A和6B所示,上述声码器还可以包括第二判别器,其中,上采样网络和第二判别器构成第二生成式对抗网络,上采样网络为第二生成式对抗网络的生成器。
上述S202还可以包括以下步骤:上采样网络将所得的文本训练样本对应的波形点信息输出至第二判别器;第二判别器对文本训练样本对应的波形点信息进行真假判定,得到第二判定结果;利用第二判定结果对上采样网络的模型参数、第二判别器的模型参数以及声学子模型的模型参数进行更新。
声码器通过上采样网络(即生成器)和第二判别器的对抗训练,可以提升声码器生成的波形点信息的准确度,从而提升后续音频信息的清晰度。
图7是根据一示例性实施例示出的一种语音合成装置的框图。如图7所示,该装置700包括:获取模块701,用于获取待合成文本对应的语音特征信息;语音合成模块702,用于将所述获取模块701获取到的所述语音特征信息输入语音合成模型中,得到与所述待合成文本对应的预测波形点信息,其中,所述语音合成模型包括声学子模型和声码器;扩展模块703,用于对所述语音合成模块702得到的所述预测波形点信息进行μ律扩展,得到所述待合成文本对应的音频信息。
在本公开中,待合成文本可以为中文、藏文、维文、泰文、羌文等有声调的语种。语音特征信息可以用于表征待合成文本的音素、语调、停顿等相关信息。另外,待合成文本可以为小说、歌词等各种类型的文本。
语音合成模型是通过图8中所示的语音合成模型训练装置800训练得到的,其中,该语音合成模型训练装置800可以包括:预训练模块801,用于分别对所声学子模型、所述声码器进行预训练;联合训练模块,用于将所述预训练模块801预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,得到所述语音合成模型。
在上述技术方案中,通过语音合成模型可以直接根据待合成文本对应的语音特征信息获得预测波形点信息,之后,对该预测波形点信息进行简单的μ律扩展即可获取到待合成文本对应的音频信息,而无需经过声学子模型和声码器进行协作,从而提升了语音合成的效率,并且,可有效降低相关技术中将声学子模型和声码器分别训练所产生的误差累积,提升了语音合成的准确度。另外,由于根据待合成文本对应的语音特征信息可以直接生成预测波形点信息,而不涉及声学特征,从而可以避免声学特征因不具备普适性导致生成的音频信息不能适配特殊的发音需求的问题,从而进一步提升了语音合成的效果。此外,在语音合成模型训练阶段,先分别对声学子模型、声码器进行预训练,之后,将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,这样,可以提升模型训练的效率和稳定性,从而提高语音合成的音质;并且,可以保证语音合成模型中的声学子模型和声码器的匹配度,从而避免即使声学子模型和声码器的准确度都较高,但得出的语音合成结果准确度低的问题,进一步提升了语音合成的准确度。
可选地,所述声学子模型包括编码网络、时长子模型、注意力网络以及解码网络,所述声码器包括上采样网络;所述联合训练模块802包括:第一获取子模块,用于获取文本训练样本对应的标注语音特征信息、标注波形点信息以及标注梅尔谱信息;联合训练子模块,用于通过将所述标注语音特征信息作为所述编码网络的输入,将所述编码网络的输出和所述标注语音特征信息作为所述时长子模型的输入,将所述时长子模型的输出作为所述注意力网络的输入,将所述注意力网络的输出作为所述上采样网络的输入,将所述标注波形点信息作为所述上采样网络的目标输出,将所述注意力网络的输出作为所述解码网络的输入,将所述标注梅尔谱信息作为所述解码网络的目标输出的方式,对所述预训练后所得的声学子模型和所述预训练后所得的声码器进行联合训练,以得到所述语音合成模型。
可选地,所述声学子模型还包括超分辨率网络和第一判别器,其中,所述声学子模型为包括生成器和所述第一判别器的第一生成式对抗网络,所述生成器包括所述编码网络、所述注意力网络、所述时长子模型、所述解码网络以及所述超分辨率网络;其中,所述超分辨率网络用于在联合训练阶段,根据所述解码网络输出的、所述文本训练样本对应的预测梅尔谱信息,生成所述文本训练样本对应的预测线性谱信息;所述第一判别器用于在所述联合训练阶段,对所述预测线性谱信息进行真假判定,得到第一判定结果;所述预测线性谱信息与所述文本训练样本对应的标注线性谱信息的比较结果和所述第一判定结果均用于对所述生成器的模型参数和所述第一判别器的模型参数进行更新。
可选地,所述声码器还包括第二判别器,其中,所述上采样网络和所述第二判别器构成第二生成式对抗网络,所述上采样网络为所述第二生成式对抗网络的生成器;其中,所述第二判别器用于在联合训练阶段,对所述上采样网络输出的、所述文本训练样本对应的波形点信息进行真假判定,得到第二判定结果,所述第二判定结果用于对所述上采样网络的模型参数、所述第二判别器的模型参数以及所述声学子模型的模型参数进行更新。
可选地,所述语音特征信息包括音素、声调、分词及韵律边界;所述获取模块701用于将所述待合成文本输入信息提取模型,得到与所述待合成文本对应的语音特征信息。
本公开还提供一种语音合成模训练装置,所述语音合成模型包括声学子模型和声码器,如图8所示,该装置800包括:预训练模块801,用于分别对所述声学子模型、所述声码器进行预训练;联合训练模块802,用于将所述预训练模块801预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,得到所述语音合成模型。
可选地,所述声学子模型包括编码网络、时长子模型、注意力网络以及解码网络,所述声码器包括上采样网络;
所述联合训练模块802包括:第一获取子模块,用于获取文本训练样本对应的标注语音特征信息、标注波形点信息以及标注梅尔谱信息;联合训练子模块,用于通过将所述标注语音特征信息作为所述编码网络的输入,将所述编码网络的输出和所述标注语音特征信息作为所述时长子模型的输入,将所述时长子模型的输出作为所述注意力网络的输入,将所述注意力网络的输出作为所述上采样网络的输入,将所述标注波形点信息作为所述上采样网络的目标输出,将所述注意力网络的输出作为所述解码网络的输入,将所述标注梅尔谱信息作为所述解码网络的目标输出的方式对所述预训练后所得的声学子模型和所述预训练后所得的声码器进行联合训练,以得到所述语音合成模型。
可选地,所述声学子模型还包括超分辨率网络和第一判别器,其中,所述声学子模型为包括生成器和所述第一判别器的第一生成式对抗网络,所述生成器包括所述编码网络、所述注意力网络、所述时长子模型、所述解码网络以及所述超分辨率网络;
所述联合训练模块802还包括:第二获取子模块,用于获取所述文本训练样本对应的标注线性谱信息;第一输出子模块,用于通过所述解码网络将所得的、所述文本训练样本对应的预测梅尔谱信息输出至所述超分辨率网络;生成子模块,用于通过所述超分辨率网络根据所述预测梅尔谱信息,生成所述文本训练样本对应的预测线性谱信息,并将所述预测线性谱信息输出至所述第一判别器;第一判定子模块,用于通过所述第一判别器对所述预测线性谱信息进行真假判定,得到第一判定结果;第一更新子模块,用于利用所述预测线性谱信息与所述标注线性谱信息的比较结果和所述第一判定结果对所述生成器的模型参数和所述第一判别器的模型参数进行更新。
可选地,所述声码器还包括第二判别器,其中,所述上采样网络和所述第二判别器构成第二生成式对抗网络,所述上采样网络为所述第二生成式对抗网络的生成器;
所述联合训练模块802还包括:第二输出子模块,用于利用所述上采样网络将所得的所述文本训练样本对应的波形点信息输出至所述第二判别器;第二判定子模块,用于通过所述第二判别器对所述文本训练样本对应的波形点信息进行真假判定,得到第二判定结果;第二更新子模块,用于利用所述第二判定结果对所述上采样网络的模型参数、所述第二判别器的模型参数以及所述声学子模型的模型参数进行更新。
另外,需要说明的是,上述语音合成模型训练装置800可以集成于语音合成装置700中,也可以独立于该语音合成装置700,在本公开中不作具体限定。另外,关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开还提供一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现本公开提供的上述语音合成方法的步骤或者语音合成模型训练方法的步骤。
下面参考图9,其示出了适于用来实现本公开实施例的电子设备(例如终端设备或服务器)900的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图9示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图9所示,电子设备900可以包括处理装置(例如中央处理器、图形处理器等)901,其可以根据存储在只读存储器(ROM)902中的程序或者从存储装置908加载到随机访问存储器(RAM)903中的程序而执行各种适当的动作和处理。在RAM 903中,还存储有电子设备900操作所需的各种程序和数据。处理装置901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
通常,以下装置可以连接至I/O接口905:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置906;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置907;包括例如磁带、硬盘等的存储装置908;以及通信装置909。通信装置909可以允许电子设备900与其他设备进行无线或有线通信以交换数据。虽然图9示出了具有各种装置的电子设备900,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置909从网络上被下载和安装,或者从存储装置908被安装,或者从ROM 902被安装。在该计算机程序被处理装置901执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:
获取待合成文本对应的语音特征信息;
将所述语音特征信息输入语音合成模型中,得到与所述待合成文本对应的预测波形点信息,其中,所述语音合成模型包括声学子模型和声码器,所述语音合成模型是通过分别对所述声学子模型、所述声码器进行预训练,之后,将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练得到的;
对所述预测波形点信息进行μ律扩展,得到所述待合成文本对应的音频信息。
或者,上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:
分别对声学子模型、声码器进行预训练;
将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,得到所述语音合成模型,其中,所述语音合成模型包括所述声学子模型和所述声码器。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定,例如,获取模块还可以被描述为“获取待合成文本对应的语音特征信息的模块”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,示例1提供了一种语音合成方法,包括:获取待合成文本对应的语音特征信息;将所述语音特征信息输入语音合成模型中,得到与所述待合成文本对应的预测波形点信息,其中,所述语音合成模型包括声学子模型和声码器,所述语音合成模型是通过分别对所述声学子模型、所述声码器进行预训练,之后,将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练得到的;对所述预测波形点信息进行μ律扩展,得到所述待合成文本对应的音频信息。
根据本公开的一个或多个实施例,示例2提供了示例1的方法,所述声学子模型包括编码网络、时长子模型、注意力网络以及解码网络,所述声码器包括上采样网络;所述将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,包括:获取文本训练样本对应的标注语音特征信息、标注波形点信息以及标注梅尔谱信息;通过将所述标注语音特征信息作为所述编码网络的输入,将所述编码网络的输出和所述标注语音特征信息作为所述时长子模型的输入,将所述时长子模型的输出作为所述注意力网络的输入,将所述注意力网络的输出作为所述上采样网络的输入,将所述标注波形点信息作为所述上采样网络的目标输出,将所述注意力网络的输出作为所述解码网络的输入,将所述标注梅尔谱信息作为所述解码网络的目标输出的方式,对所述预训练后所得的声学子模型和所述预训练后所得的声码器进行联合训练,以得到所述语音合成模型。
根据本公开的一个或多个实施例,示例3提供了示例2的方法,所述声学子模型还包括超分辨率网络和第一判别器,其中,所述声学子模型为包括生成器和所述第一判别器的第一生成式对抗网络,所述生成器包括所述编码网络、所述注意力网络、所述时长子模型、所述解码网络以及所述超分辨率网络;其中,所述超分辨率网络用于在联合训练阶段,根据所述解码网络输出的、所述文本训练样本对应的预测梅尔谱信息,生成所述文本训练样本对应的预测线性谱信息;所述第一判别器用于在所述联合训练阶段,对所述预测线性谱信息进行真假判定,得到第一判定结果;其中,所述预测线性谱信息与所述文本训练样本对应的标注线性谱信息的比较结果和所述第一判定结果均用于对所述生成器的模型参数和所述第一判别器的模型参数进行更新。
根据本公开的一个或多个实施例,示例4提供了示例2或3的方法,所述声码器还包括第二判别器,其中,所述上采样网络和所述第二判别器构成第二生成式对抗网络,所述上采样网络为所述第二生成式对抗网络的生成器;其中,所述第二判别器用于在联合训练阶段,对所述上采样网络输出的、所述文本训练样本对应的波形点信息进行真假判定,得到第二判定结果,所述第二判定结果用于对所述上采样网络的模型参数、所述第二判别器的模型参数以及所述声学子模型的模型参数进行更新。
根据本公开的一个或多个实施例,示例5提供了示例1-3中任一项的方法,所述语音特征信息包括音素、声调、分词及韵律边界;所述获取待合成文本对应的语音特征信息,包括:将所述待合成文本输入信息提取模型,得到与所述待合成文本对应的语音特征信息。
根据本公开的一个或多个实施例,示例6提供了一种语音合成模型训练方法,所述语音合成模型包括声学子模型和声码器,所述方法包括:分别对所述声学子模型、所述声码器进行预训练;将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,得到所述语音合成模型。
根据本公开的一个或多个实施例,示例7提供了示例6的方法,所述声学子模型包括编码网络、时长子模型、注意力网络以及解码网络,所述声码器包括上采样网络;所述将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,包括:获取文本训练样本对应的标注语音特征信息、标注波形点信息以及标注梅尔谱信息;通过将所述标注语音特征信息作为所述编码网络的输入,将所述编码网络的输出和所述标注语音特征信息作为所述时长子模型的输入,将所述时长子模型的输出作为所述注意力网络的输入,将所述注意力网络的输出作为所述上采样网络的输入,将所述标注波形点信息作为所述上采样网络的目标输出,将所述注意力网络的输出作为所述解码网络的输入,将所述标注梅尔谱信息作为所述解码网络的目标输出的方式对所述预训练后所得的声学子模型和所述预训练后所得的声码器进行联合训练,以得到所述语音合成模型。
根据本公开的一个或多个实施例,示例8提供了示例7的方法,所述声学子模型还包括超分辨率网络和第一判别器,其中,所述声学子模型为包括生成器和所述第一判别器的第一生成式对抗网络,所述生成器包括所述编码网络、所述注意力网络、所述时长子模型、所述解码网络以及所述超分辨率网络;所述将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,还包括:获取所述文本训练样本对应的标注线性谱信息;所述解码网络将所得的、所述文本训练样本对应的预测梅尔谱信息输出至所述超分辨率网络;所述超分辨率网络根据所述预测梅尔谱信息,生成所述文本训练样本对应的预测线性谱信息,并将所述预测线性谱信息输出至所述第一判别器;所述第一判别器对所述预测线性谱信息进行真假判定,得到第一判定结果;利用所述预测线性谱信息与所述标注线性谱信息的比较结果和所述第一判定结果对所述生成器的模型参数和所述第一判别器的模型参数进行更新。
根据本公开的一个或多个实施例,示例9提供了示例7或8的方法,所述声码器还包括第二判别器,其中,所述上采样网络和所述第二判别器构成第二生成式对抗网络,所述上采样网络为所述第二生成式对抗网络的生成器;所述将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,还包括:所述上采样网络将所得的所述文本训练样本对应的波形点信息输出至所述第二判别器;所述第二判别器对所述文本训练样本对应的波形点信息进行真假判定,得到第二判定结果;利用所述第二判定结果对所述上采样网络的模型参数、所述第二判别器的模型参数以及所述声学子模型的模型参数进行更新。
根据本公开的一个或多个实施例,示例10提供了一种语音合成装置,包括:获取模块,用于获取待合成文本对应的语音特征信息;语音合成模块,用于将所述获取模块获取到的所述语音特征信息输入语音合成模型中,得到与所述待合成文本对应的预测波形点信息,其中,所述语音合成模型包括声学子模型和声码器,所述语音合成模型是通过分别对所述声学子模型、所述声码器进行预训练,之后,将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练得到的;扩展模块,用于对所述语音合成模块得到的所述预测波形点信息进行μ律扩展,得到所述待合成文本对应的音频信息。
根据本公开的一个或多个实施例,示例11提供了一种语音合成模型训练装置,所述语音合成模型包括声学子模型和声码器,所述装置包括:预训练模块,用于分别对所述声学子模型、所述声码器进行预训练;联合训练模块,用于将所述预训练模块预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,得到所述语音合成模型。
根据本公开的一个或多个实施例,示例12提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现示例1-9中任一项所述方法的步骤。
根据本公开的一个或多个实施例,示例13提供了一种电子设备,包括:存储装置,其上存储有计算机程序;处理装置,用于执行所述存储装置中的所述计算机程序,以实现示例1-5中任一项所述方法的步骤。
根据本公开的一个或多个实施例,示例14提供了一种电子设备,包括:存储装置,其上存储有计算机程序;处理装置,用于执行所述存储装置中的所述计算机程序,以实现示例6-9中任一项所述方法的步骤。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。

Claims (12)

1.一种语音合成方法,其特征在于,包括:
获取待合成文本对应的语音特征信息;
将所述语音特征信息输入语音合成模型中,得到与所述待合成文本对应的预测波形点信息,其中,所述语音合成模型包括声学子模型和声码器,所述语音合成模型是通过分别对所述声学子模型、所述声码器进行预训练,之后,将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练得到的;
对所述预测波形点信息进行μ律扩展,得到所述待合成文本对应的音频信息;
其中,所述声学子模型包括编码网络、时长子模型、注意力网络以及解码网络,所述声码器包括上采样网络;
所述将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,包括:
获取文本训练样本对应的标注语音特征信息、标注波形点信息以及标注梅尔谱信息;
通过将所述标注语音特征信息作为所述编码网络的输入,将所述编码网络的输出和所述标注语音特征信息作为所述时长子模型的输入,将所述时长子模型的输出作为所述注意力网络的输入,将所述注意力网络的输出作为所述上采样网络的输入,将所述标注波形点信息作为所述上采样网络的目标输出,将所述注意力网络的输出作为所述解码网络的输入,将所述标注梅尔谱信息作为所述解码网络的目标输出的方式,对所述预训练后所得的声学子模型和所述预训练后所得的声码器进行联合训练,以得到所述语音合成模型。
2.根据权利要求1所述的方法,其特征在于,所述声学子模型还包括超分辨率网络和第一判别器,其中,所述声学子模型为包括生成器和所述第一判别器的第一生成式对抗网络,所述生成器包括所述编码网络、所述注意力网络、所述时长子模型、所述解码网络以及所述超分辨率网络;
其中,所述超分辨率网络用于在联合训练阶段,根据所述解码网络输出的、所述文本训练样本对应的预测梅尔谱信息,生成所述文本训练样本对应的预测线性谱信息;
所述第一判别器用于在所述联合训练阶段,对所述预测线性谱信息进行真假判定,得到第一判定结果;
其中,所述预测线性谱信息与所述文本训练样本对应的标注线性谱信息的比较结果和所述第一判定结果均用于对所述生成器的模型参数和所述第一判别器的模型参数进行更新。
3.根据权利要求1或2所述的方法,其特征在于,所述声码器还包括第二判别器,其中,所述上采样网络和所述第二判别器构成第二生成式对抗网络,所述上采样网络为所述第二生成式对抗网络的生成器;
其中,所述第二判别器用于在联合训练阶段,对所述上采样网络输出的、所述文本训练样本对应的波形点信息进行真假判定,得到第二判定结果,所述第二判定结果用于对所述上采样网络的模型参数、所述第二判别器的模型参数以及所述声学子模型的模型参数进行更新。
4.根据权利要求1或2所述的方法,其特征在于,所述语音特征信息包括音素、声调、分词及韵律边界;
所述获取待合成文本对应的语音特征信息,包括:
将所述待合成文本输入信息提取模型,得到与所述待合成文本对应的语音特征信息。
5.一种语音合成模型训练方法,其特征在于,所述语音合成模型包括声学子模型和声码器,所述方法包括:
分别对所述声学子模型、所述声码器进行预训练;
将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,得到所述语音合成模型;
其中,所述声学子模型包括编码网络、时长子模型、注意力网络以及解码网络,所述声码器包括上采样网络;
所述将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,包括:
获取文本训练样本对应的标注语音特征信息、标注波形点信息以及标注梅尔谱信息;
通过将所述标注语音特征信息作为所述编码网络的输入,将所述编码网络的输出和所述标注语音特征信息作为所述时长子模型的输入,将所述时长子模型的输出作为所述注意力网络的输入,将所述注意力网络的输出作为所述上采样网络的输入,将所述标注波形点信息作为所述上采样网络的目标输出,将所述注意力网络的输出作为所述解码网络的输入,将所述标注梅尔谱信息作为所述解码网络的目标输出的方式对所述预训练后所得的声学子模型和所述预训练后所得的声码器进行联合训练,以得到所述语音合成模型。
6.根据权利要求5所述的方法,其特征在于,所述声学子模型还包括超分辨率网络和第一判别器,其中,所述声学子模型为包括生成器和所述第一判别器的第一生成式对抗网络,所述生成器包括所述编码网络、所述注意力网络、所述时长子模型、所述解码网络以及所述超分辨率网络;
所述将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,还包括:
获取所述文本训练样本对应的标注线性谱信息;
所述解码网络将所得的、所述文本训练样本对应的预测梅尔谱信息输出至所述超分辨率网络;
所述超分辨率网络根据所述预测梅尔谱信息,生成所述文本训练样本对应的预测线性谱信息,并将所述预测线性谱信息输出至所述第一判别器;
所述第一判别器对所述预测线性谱信息进行真假判定,得到第一判定结果;
利用所述预测线性谱信息与所述标注线性谱信息的比较结果和所述第一判定结果对所述生成器的模型参数和所述第一判别器的模型参数进行更新。
7.根据权利要求5或6所述的方法,其特征在于,所述声码器还包括第二判别器,其中,所述上采样网络和所述第二判别器构成第二生成式对抗网络,所述上采样网络为所述第二生成式对抗网络的生成器;
所述将预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,还包括:
所述上采样网络将所得的所述文本训练样本对应的波形点信息输出至所述第二判别器;
所述第二判别器对所述文本训练样本对应的波形点信息进行真假判定,得到第二判定结果;
利用所述第二判定结果对所述上采样网络的模型参数、所述第二判别器的模型参数以及所述声学子模型的模型参数进行更新。
8.一种语音合成装置,其特征在于,包括:
获取模块,用于获取待合成文本对应的语音特征信息;
语音合成模块,用于将所述获取模块获取到的所述语音特征信息输入语音合成模型中,得到与所述待合成文本对应的预测波形点信息,其中,所述语音合成模型包括声学子模型和声码器;
扩展模块,用于对所述语音合成模块得到的所述预测波形点信息进行μ律扩展,得到所述待合成文本对应的音频信息;
其中,所述语音合成模型是通过语音合成模型训练装置训练得到的,其中,该语音合成模型训练装置包括:预训练模块,用于分别对所述声学子模型、所述声码器进行预训练;联合训练模块,用于将所述预训练模块预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,得到所述语音合成模型;
所述声学子模型包括编码网络、时长子模型、注意力网络以及解码网络,所述声码器包括上采样网络;所述联合训练模块包括:第一获取子模块,用于获取文本训练样本对应的标注语音特征信息、标注波形点信息以及标注梅尔谱信息;联合训练子模块,用于通过将所述标注语音特征信息作为所述编码网络的输入,将所述编码网络的输出和所述标注语音特征信息作为所述时长子模型的输入,将所述时长子模型的输出作为所述注意力网络的输入,将所述注意力网络的输出作为所述上采样网络的输入,将所述标注波形点信息作为所述上采样网络的目标输出,将所述注意力网络的输出作为所述解码网络的输入,将所述标注梅尔谱信息作为所述解码网络的目标输出的方式,对所述预训练后所得的声学子模型和所述预训练后所得的声码器进行联合训练,以得到所述语音合成模型。
9.一种语音合成模型训练装置,其特征在于,所述语音合成模型包括声学子模型和声码器,所述装置包括:
预训练模块,用于分别对所述声学子模型、所述声码器进行预训练;
联合训练模块,用于将所述预训练模块预训练后所得的声学子模型和预训练后所得的声码器进行联合训练,得到所述语音合成模型;
其中,所述声学子模型包括编码网络、时长子模型、注意力网络以及解码网络,所述声码器包括上采样网络;
所述联合训练模块包括:第一获取子模块,用于获取文本训练样本对应的标注语音特征信息、标注波形点信息以及标注梅尔谱信息;联合训练子模块,用于通过将所述标注语音特征信息作为所述编码网络的输入,将所述编码网络的输出和所述标注语音特征信息作为所述时长子模型的输入,将所述时长子模型的输出作为所述注意力网络的输入,将所述注意力网络的输出作为所述上采样网络的输入,将所述标注波形点信息作为所述上采样网络的目标输出,将所述注意力网络的输出作为所述解码网络的输入,将所述标注梅尔谱信息作为所述解码网络的目标输出的方式,对所述预训练后所得的声学子模型和所述预训练后所得的声码器进行联合训练,以得到所述语音合成模型。
10.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现权利要求1-7中任一项所述方法的步骤。
11.一种电子设备,其特征在于,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现权利要求1-4中任一项所述方法的步骤。
12.一种电子设备,其特征在于,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现权利要求5-7中任一项所述方法的步骤。
CN202110043638.3A 2021-01-13 2021-01-13 语音合成方法、合成模型训练方法、装置、介质及设备 Active CN112786011B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110043638.3A CN112786011B (zh) 2021-01-13 2021-01-13 语音合成方法、合成模型训练方法、装置、介质及设备
PCT/CN2021/139935 WO2022151930A1 (zh) 2021-01-13 2021-12-21 语音合成方法、合成模型训练方法、装置、介质及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110043638.3A CN112786011B (zh) 2021-01-13 2021-01-13 语音合成方法、合成模型训练方法、装置、介质及设备

Publications (2)

Publication Number Publication Date
CN112786011A CN112786011A (zh) 2021-05-11
CN112786011B true CN112786011B (zh) 2024-05-10

Family

ID=75755767

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110043638.3A Active CN112786011B (zh) 2021-01-13 2021-01-13 语音合成方法、合成模型训练方法、装置、介质及设备

Country Status (2)

Country Link
CN (1) CN112786011B (zh)
WO (1) WO2022151930A1 (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112786011B (zh) * 2021-01-13 2024-05-10 北京有竹居网络技术有限公司 语音合成方法、合成模型训练方法、装置、介质及设备
CN113299270B (zh) * 2021-05-20 2024-05-31 平安科技(深圳)有限公司 语音合成系统的生成方法、装置、设备及存储介质
CN113327573B (zh) * 2021-05-28 2024-10-11 平安科技(深圳)有限公司 语音合成方法、装置、设备及存储介质
CN113823257B (zh) * 2021-06-18 2024-02-09 腾讯科技(深圳)有限公司 语音合成器的构建方法、语音合成方法及装置
CN113409759B (zh) * 2021-07-07 2023-04-07 浙江工业大学 一种端到端实时语音合成方法
CN114187890A (zh) * 2021-12-31 2022-03-15 深圳市优必选科技股份有限公司 语音合成方法、装置、计算机可读存储介质及终端设备
CN114267363B (zh) * 2022-03-03 2022-05-24 中国科学院自动化研究所 语音对抗样本生成方法及装置、电子设备及存储介质
CN115294960A (zh) * 2022-07-22 2022-11-04 网易有道信息技术(北京)有限公司 声码器的训练方法、语音合成的方法及相关产品
CN115146066A (zh) * 2022-09-05 2022-10-04 深圳市华付信息技术有限公司 人机交互方法、装置、设备及存储介质
CN115440186A (zh) * 2022-09-06 2022-12-06 云知声智能科技股份有限公司 一种音频特征信息生成方法、装置、设备和存储介质
CN117672182B (zh) * 2024-02-02 2024-06-07 江西拓世智能科技股份有限公司 一种基于人工智能的声音克隆方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8527276B1 (en) * 2012-10-25 2013-09-03 Google Inc. Speech synthesis using deep neural networks
CN108510975A (zh) * 2017-02-24 2018-09-07 百度(美国)有限责任公司 用于实时神经文本转语音的系统和方法
CN110534089A (zh) * 2019-07-10 2019-12-03 西安交通大学 一种基于音素和韵律结构的中文语音合成方法
CN111292719A (zh) * 2020-02-07 2020-06-16 北京字节跳动网络技术有限公司 语音合成方法、装置、计算机可读介质及电子设备
CN111402855A (zh) * 2020-03-06 2020-07-10 北京字节跳动网络技术有限公司 语音合成方法、装置、存储介质和电子设备
CN111583903A (zh) * 2020-04-28 2020-08-25 北京字节跳动网络技术有限公司 语音合成方法、声码器训练方法、装置、介质及电子设备
CN111627418A (zh) * 2020-05-27 2020-09-04 携程计算机技术(上海)有限公司 语音合成模型的训练方法、合成方法、系统、设备和介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112786011B (zh) * 2021-01-13 2024-05-10 北京有竹居网络技术有限公司 语音合成方法、合成模型训练方法、装置、介质及设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8527276B1 (en) * 2012-10-25 2013-09-03 Google Inc. Speech synthesis using deep neural networks
CN108510975A (zh) * 2017-02-24 2018-09-07 百度(美国)有限责任公司 用于实时神经文本转语音的系统和方法
CN110534089A (zh) * 2019-07-10 2019-12-03 西安交通大学 一种基于音素和韵律结构的中文语音合成方法
CN111292719A (zh) * 2020-02-07 2020-06-16 北京字节跳动网络技术有限公司 语音合成方法、装置、计算机可读介质及电子设备
CN111402855A (zh) * 2020-03-06 2020-07-10 北京字节跳动网络技术有限公司 语音合成方法、装置、存储介质和电子设备
CN111583903A (zh) * 2020-04-28 2020-08-25 北京字节跳动网络技术有限公司 语音合成方法、声码器训练方法、装置、介质及电子设备
CN111627418A (zh) * 2020-05-27 2020-09-04 携程计算机技术(上海)有限公司 语音合成模型的训练方法、合成方法、系统、设备和介质

Also Published As

Publication number Publication date
WO2022151930A1 (zh) 2022-07-21
CN112786011A (zh) 2021-05-11

Similar Documents

Publication Publication Date Title
CN112786011B (zh) 语音合成方法、合成模型训练方法、装置、介质及设备
CN112786006B (zh) 语音合成方法、合成模型训练方法、装置、介质及设备
CN111292720B (zh) 语音合成方法、装置、计算机可读介质及电子设备
CN111899719B (zh) 用于生成音频的方法、装置、设备和介质
CN111402855B (zh) 语音合成方法、装置、存储介质和电子设备
CN111369971B (zh) 语音合成方法、装置、存储介质和电子设备
CN112489620B (zh) 语音合成方法、装置、可读介质及电子设备
CN112786007B (zh) 语音合成方法、装置、可读介质及电子设备
CN111583900B (zh) 歌曲合成方法、装置、可读介质及电子设备
CN112309366B (zh) 语音合成方法、装置、存储介质及电子设备
CN112786008B (zh) 语音合成方法、装置、可读介质及电子设备
CN112927674B (zh) 语音风格的迁移方法、装置、可读介质和电子设备
CN111292719A (zh) 语音合成方法、装置、计算机可读介质及电子设备
CN112331176B (zh) 语音合成方法、装置、存储介质及电子设备
CN110197655B (zh) 用于合成语音的方法和装置
CN111368559A (zh) 语音翻译方法、装置、电子设备及存储介质
CN112309367B (zh) 语音合成方法、装置、存储介质及电子设备
CN111489735B (zh) 语音识别模型训练方法及装置
CN112786013B (zh) 基于唱本的语音合成方法、装置、可读介质和电子设备
CN113327580A (zh) 语音合成方法、装置、可读介质及电子设备
CN112365878A (zh) 语音合成方法、装置、设备及计算机可读存储介质
CN114495902A (zh) 语音合成方法、装置、计算机可读介质及电子设备
CN112364653A (zh) 用于语音合成的文本分析方法、装置、服务器和介质
CN113421550A (zh) 语音合成方法、装置、可读介质及电子设备
CN114255738A (zh) 语音合成方法、装置、介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant