CN115035885A - 一种语音合成方法、装置、设备及存储介质 - Google Patents

一种语音合成方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN115035885A
CN115035885A CN202210393427.7A CN202210393427A CN115035885A CN 115035885 A CN115035885 A CN 115035885A CN 202210393427 A CN202210393427 A CN 202210393427A CN 115035885 A CN115035885 A CN 115035885A
Authority
CN
China
Prior art keywords
vector
speaker
voice
phoneme
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210393427.7A
Other languages
English (en)
Inventor
宋飞豹
宋锐
江源
陈凌辉
胡郁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
iFlytek Co Ltd
Original Assignee
iFlytek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by iFlytek Co Ltd filed Critical iFlytek Co Ltd
Priority to CN202210393427.7A priority Critical patent/CN115035885A/zh
Publication of CN115035885A publication Critical patent/CN115035885A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明提供了一种语音合成方法、装置、设备及存储介质,方法包括:获取目标文本对应的音素序列,通过语音合成模型的矢量预测模型将音素序列处理成包含音素信息和目标说话人的说话人信息的矢量,作为目标矢量,通过语音合成模型的语音合成模块对目标矢量进行处理,以生成合成语音。本发明采用目标说话人的单一语种语音和非目标说话人的多语种语音训练得到音频转换模型,进而基于音频转换模型和大量非目标说话人的多语种语音获得大量具有目标说话人音色的多语种语音,从而可利用大量具有目标说话人音色的多语种语音训练得到矢量预测模型,在此基础上构建能够合成目标说话人多语种语音的语音合成模型,经由本发明可合成出目标说话人的多语种语音。

Description

一种语音合成方法、装置、设备及存储介质
技术领域
本发明涉及语音合成技术领域,尤其涉及一种语音合成方法、装置、设备及存储介质。
背景技术
语音合成,又称文语转换(text to speech,TTS),是一种可以将任意文本转换成相应语音的技术,是自然语言处理领域中一个重要的研究分支。
在某些场景下,需要合成特定说话人不同语种的语音。为了能够合成特定说话人不同语种的语音,目前的思路是,录制特定说话人不同语种的语音,采用特定说话人不同语种的语音训练得到用于合成特定说话人的多语种语音的语音合成模型,进而利用训练得到语音合成模型进行语音合成。
然而,特定说话人通常不具备跨语种能力,这意味着,只能获得特定说话人的单一语种语音,并且,录音数据的成本较高,上述思路的可行性不高。
发明内容
有鉴于此,本发明提供了一种语音合成方法、装置、设备及存储介质,其技术方案如下:
一种语音合成方法,通过预先构建的语音合成模型实现,所述语音合成模型包括矢量预测模型和语音合成模块,所述语音合成方法包括:
获取目标文本对应的音素序列;
通过所述矢量预测模型将所述音素序列处理成包含音素信息和目标说话人的说话人信息的矢量,作为目标矢量;
以所述目标矢量为依据,通过所述语音合成模块生成所述目标文本对应的合成语音;
其中,所述矢量预测模型采用具有所述目标说话人音色的多语种语音训练得到,所述具有所述目标说话人音色的多语种语音由训练得到的音频转换模型将非目标说话人的多语种语音的音色转换为所述目标说话人的音色得到,所述音频转换模型采用所述目标说话人的单语种语音和所述非目标说话人的多语种语音训练得到。
可选的,所述通过所述矢量预测模型将所述音素序列处理成包含音素信息和目标说话人的说话人信息的矢量,包括:
通过所述矢量预测模型对所述音素序列进行编码,得到所述音素序列的编码结果;
以所述音素序列的编码结果为预测依据,基于所述矢量预测模型所述音素序列中每个音素的表示向量,以得到音素表示向量序列;
以所述音素序列的编码结果和所述音素表示向量序列为预测依据,通过所述矢量预测模型预测包含音素信息和目标说话人的说话人信息的矢量。
可选的,基于所述音频转换模型和所述非目标说话人的多语种语音,获得具有所述目标说话人音色的多语种语音,包括:
针对所述非目标说话人的每条语音:
通过所述音频转换模型对该条语音提取包含音素信息和说话人信息的矢量,作为该条语音对应的说话人相关矢量;
通过所述音频转换模型,将该条语音对应的说话人相关矢量中的说话人信息去除,得到该条语音对应的说话人无关矢量;
通过所述音频转换模型在该条语音对应的说话人无关矢量中融入所述目标说话人的说话人信息,得到该条语音对应的包含音素信息和所述目标说话人的说话人信息的矢量;
以该条语音对应的包含音素信息和所述目标说话人的说话人信息的矢量为依据,通过所述音频转换模型生成具有所述目标说话人音色的语音。
可选的,所述音频转换模型包括:第一编码模块、矢量处理模块和第一解码模块;
针对非目标说话人的每条语音:
所述第一编码模块,用于从该条语音的频谱中提取包含音素信息和说话人信息的矢量,作为该条语音对应的说话人相关矢量;
所述矢量处理模块,用于根据该条语音的说话人信息,将该条语音对应的说话人相关矢量中的说话人信息去除,得到该条语音对应的说话人无关矢量;以及,在该条语音对应的说话人无关矢量中融入所述目标说话人的说话人信息,得到该条语音对应的包含音素信息和所述目标说话人的说话人信息的矢量;
所述第一解码模块,用于根据该条语音对应的包含音素信息和所述目标说话人的说话人信息的矢量,生成具有所述目标说话人音色的语音。
可选的,所述音频转换模型的训练过程包括:
通过所述第一编码模块对第一训练语音提取包含音素信息和说话人信息的矢量,作为所述第一训练语音对应的说话人相关矢量,所述第一训练语音为所述目标说话人的语音或者所述非目标说话人的语音;
通过所述矢量处理模块将所述第一训练语音对应的说话人相关矢量中的说话人信息去除,得到所述第一训练语音对应的说话人无关矢量,并根据所述第一训练语音对应的音素序列,确定所述第一训练语音对应的说话人无关矢量应服从的分布;
以所述第一训练语音对应的说话人相关矢量为依据,通过所述第一解码模块预测所述第一训练语音的波形信息,并获取所述第一训练语音的实际波形信息;
根据所述第一训练语音对应的说话人无关矢量、所述分布、预测的波形信息和所述实际波形信息,对音频转换模型进行参数更新。
可选的,所述音频转换模型的训练过程还包括:
根据所述第一训练语音对应的说话人相关矢量,预测所述第一训练语音的基频,并获取所述第一训练语音的实际基频;
所述根据所述第一训练语音对应的说话人无关矢量、所述分布、预测的波形信息和所述实际波形信息,对音频转换模型进行参数更新,包括:
根据所述第二训练语音对应的说话人无关矢量、所述分布、预测的波形信息、所述实际波形信息、预测的基频和所述实际基频,对音频转换模型进行参数更新。
可选的,所述矢量预测模型包括:第二编码模块、音素表示向量预测模块和第二解码模块;
所述第二编码模块,用于对输入的音素序列进行编码,输出输入的音素序列的编码结果;
所述音素表示向量预测模块,用于根据所述第二编码模块输出的编码结果预测输入所述第二编码模块的音素序列包含的每个音素的表示向量,输出预测结果;
所述第二解码模块,用于根据所述第二编码模块输出的编码结果和所述音素表示向量预测模块输出的预测结果,预测包含音素信息和目标说话人的说话人信息的矢量。
可选的,所述矢量预测模型的训练过程包括:
获取第二训练语音对应的音素序列作为训练音素序列,其中,所述第二训练语音为具有所述目标说话人音色的语音;
通过所述第二编码模块对所述训练音素序列进行编码,得到第一编码结果,并基于所述第一训练语音所属语种的多人单语种编码器对所述训练音素序列进行编码,得到第二编码结果;
以所述第一编码结果为依据,通过所述音素表示向量预测模块预测所述训练音素序列中每个音素的表示向量,得到预测的音素表示向量序列,并根据所述第一训练语音获取实际的音素表示向量序列;
以所述第一编码结果和预测的音素表示向量序列为依据,通过所述第二解码模块预测包含音素信息和所述目标说话人的说话人信息的矢量,并从所述训练语音中提取包含音素信息和所述目标说话人的说话人信息的矢量;
根据所述第一编码结果、所述第二编码结果、预测的音素表示向量序列、实际的音素表示向量序列、预测的矢量和提取的矢量,对矢量预测模型进行参数更新。
可选的,所述根据所述第一编码结果、所述第二编码结果、预测的音素表示向量序列、实际的音素表示向量序列、预测的矢量和提取的矢量,对矢量预测模型进行参数更新,包括:
根据所述第一编码结果和所述第二编码结果,确定第一预测损失;
根据预测的音素表示向量序列和实际的音素表示向量序列,确定第二预测损失;
根据预测的矢量和提取的矢量,确定第三预测损失;
根据所述第一预测损失、所述第二预测损失和所述第三预测损失,对矢量预测模型进行参数更新。
一种语音合成装置,所述语音合成装置通过预先构建的语音合成模型实现语音合成,所述语音合成模型包括矢量预测模型和语音合成模块,所述语音合成装置包括:音素序列获取模块和音素序列处理模块;
所述音素序列获取模块,用于获取目标文本对应的音素序列;
所述音素序列处理模块,用于通过所述矢量预测模型将所述音素序列处理成包含音素信息和目标说话人的说话人信息的矢量,作为目标矢量;以及,以所述目标矢量为依据,通过所述语音合成模块生成所述目标文本对应的合成语音;
其中,所述矢量预测模型采用具有所述目标说话人音色的多语种语音训练得到,所述具有所述目标说话人音色的多语种语音由预先训练得到的音频转换模型将非目标说话人的多语种语音的音色转换为所述目标说话人的音色得到,所述音频转换模型采用所述目标说话人的单语种语音和所述非目标说话人的多语种语音训练得到。
一种语音合成设备,包括:存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现上述任一项所述的语音合成方法的各个步骤。
一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现上述任一项所述的语音合成方法的各个步骤。
本发明提供的语音合成方法、装置、设备及存储介质,首先获取目标文本对应的音素序列,然后通过预先构建的语音合成模型中的矢量预测模型将音素序列处理成包含音素信息和目标说话人的说话人信息的矢量,作为目标矢量,最后以目标矢量为依据,通过构建的语音合成模型中的语音合成模块课生成合成语音。为了能够获得大量目标说话人的多语种语音,本发明采用少量目标说话人的单一语种语音和大量非目标说话人的多语种语音训练得到音频转换模型,进而基于训练得到音频转换模型和大量非目标说话人的多语种语音可获得大量具有目标说话人音色的多语种语音(无需录制目标说话人不同语种的语音),从而可利用大量具有目标说话人音色的多语种语音训练得到能够处理多种不同语种文本对应的音素序列的矢量预测模型,进而由训练得到的矢量预测模型和语音合成模块构建出能够合成多语种语音的语音合成模型。另外,本发明中的语音合成模型可直接根据包含音素信息和目标说话人的说话人信息的矢量生成合成语音,避免了频谱的预测和声码器的使用,语音合成效果更好。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的语音合成方法的流程示意图;
图2为本发明实施例提供的音频转换模型的训练过程的一流程示意图;
图3为本发明实施例提供的音频转换模型的结构示意图;
图4为本发明实施例提供的音频转换模型的训练过程的另一流程示意图;
图5为本发明实施例提供的基于训练得到的音频转换模型和非目标说话人的多语种语音,获得具有目标说话人音色的多语种语音的流程示意图;
图6为本发明实施例提供的矢量预测模型的训练过程的流程示意图;
图7为本发明实施例提供的矢量预测模型的结构及训练过程示意图;
图8为本发明实施例提供的语音合成模型的一示例的结构示意图;
图9为本发明实施例提供的语音合成装置的结构示意图;
图10为本发明实施例提供的语音合成设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在只有特定说话人的少量单一语种语音的情况下,为了能够实现特定说话人多语种语音的合成,申请人进行了研究,在研究过程中,申请人想到,可以训练一个能够生成具有特定说话人音色的多语种语音的模型,用该模型生成大量具有特定说话人音色的多语种语音,进而利用大量具有特定说话人音色的多语种语音训练得到能够合成特定说话人的多语种语音的语音合成模型,从而利用该语音合成模型合成目标文本对应的语音,沿着这个思路,申请人继续进行研究,通过不断研究,最终提出了一种效果较好的能够实现特定说话人多语种语音合成的语音合成方法。
本发明提供的语音合成方法可应用于具有数据处理能力的电子设备,该电子设备可以为用户侧使用的终端,比如智能手机、PC、笔记本电脑、平板电脑、掌上电脑等,电子设备也可以为服务器,服务器可以是一台服务器,也可以是由多台服务器组成的服务器集群,或者是一个云计算服务器中心,服务器可以包括处理器、存储器以及网络接口等,上述的终端或服务器可按本发明提供的语音合成方法合成出特定说话人的语音。本领域技术人员应能理解,上述终端和服务器仅为举例,其它现有的或今后可能出现的终端或服务器如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用方式包含于此。
接下来通过下述实施例对本发明提供的语音合成方法进行介绍。
第一实施例
本实施例提供了一种语音合成方法,该语音合成方法通过预先构建的语音合成模型实现,语音合成模型包括矢量预测模型和语音合成模块,请参阅图1,示出了本发明实施例提供的语音合成方法的流程示意图,该方法可以包括:
请参阅图1,示出了本发明实施例提供的语音合成方法的流程示意图,该方法可以包括:
步骤S101:获取目标文本对应的音素序列。
其中,目标文本为用于进行语音合成的文本,其可以为任何语种的文本,比如,汉语文本、英语文本、法语文本等。
步骤S102:通过矢量预测模型将音素序列处理成包含音素信息和目标说话人的说话人信息的矢量,作为目标矢量。
其中,矢量预测模型采用具有目标说话人音色的多语种语音训练得到,具有目标说话人音色的多语种语音由训练得到的音频转换模型将非目标说话人的多语种语音的音色转换为目标说话人的音色得到,音频转换模型采用目标说话人的单语种语音和非目标说话人的多语种语音训练得到。可选的,音频转换模型可以为VITS模型。
考虑到实际应用中仅能获得目标说话人的少量的单一语种语音,而为了训练得到能够对多语种的文本对应的音素序列进行处理,进而构建出能够合成出目标说话人的多语种语音的语音合成模型,需要大量目标说话人的多语种语音,本发明提出,采用目标说话人的单一语种语音和非目标说话人的多语种语音训练得到音频转换模型,训练得到音频转换模型能够将非目标说话人的多语种语音的音色转换为目标说话人的音色,从而得到具有目标说话人音色的多语种语音。
需要说明的是,本发明中提及的“非目标说话人的多语种语音”指的是非目标说话人(通常为多个说话人)的多条多语种语音,多条多语种语音中的每条语音为单一语种语音,比如,说话人A的英语语音、说话人B的法语语音、说话人C的德语语音等,同样的,“具有目标说话人音色的多语种语音”指的是具有目标说话人音色的多条多语种语音,比如,具有目标说话人音色的英语语音、具有目标说话人音色的法语语音、具有目标说话人音色的德语语音等。
具体的,通过预先构建的语音合成模型将音素序列处理成包含音素信息和目标说话人的说话人信息的矢量的过程可以包括:
步骤S1021、通过矢量预测模型对音素序列进行编码,得到音素序列的编码结果。
步骤S1022、以音素序列的编码结果为预测依据,基于矢量预测模型预测音素序列中每个音素的表示向量,以得到音素表示向量序列。
其中,一个音素的表示向量包含该音素的整体发音和韵律情况信息。
步骤S1023、以音素序列的编码结果和音素表示向量序列为预测依据,通过语音合成模型预测包含音素信息和目标说话人的说话人信息的矢量。
步骤S103:以目标矢量为依据,通过语音合成模块生成目标文本对应的合成语音。
可选的,语音合成模块可采用训练得到的音频转换模型中的语音生成部分,语音生成部分具有能够根据包含音素信息和目标说话人的说话人信息的矢量生成具有目标说话人音色的语音的能力。
需要说明的是,本实施例中的语音合成模型可直接根据目标矢量生成目标文本对应合成语音,而不需要预测频谱,再将预测的频谱经声码器得到合成语音,即本发明实施例提供的语音合成方法避免了声码器的使用,从而避免了语音合成模型与声码器不适配的问题。
本发明实施例提供的语音合成方法,首先获取目标文本对应的音素序列,然后通过预先构建的语音合成模型中的矢量预测模型将音素序列处理成包含音素信息和目标说话人的说话人信息的矢量,作为目标矢量,最后以目标矢量为依据,通过语音合成模型中的语音合成模块生成目标文本对应的合成语音。为了能够获得大量目标说话人的多语种语音,本发明实施例采用少量目标说话人的单一语种语音和大量非目标说话人的多语种语音训练得到音频转换模型,进而基于训练得到音频转换模型和大量非目标说话人的多语种语音获得大量具有目标说话人音色的多语种语音,从而利用大量具有目标说话人音色的多语种语音训练得到能够处理多种不同语种文本对应的音素序列的矢量预测模型,进而由训练得到的矢量预测模型和语音合成模块构建出能够合成多语种语音的语音合成模型,从而利用语音合成模型合成目标文本对应的语音。另外,本发明实施例中的语音合成模型可直接根据包含音素信息和目标说话人的说话人信息的矢量生成合成语音,避免了频谱的预测和声码器的使用,语音合成效果更好。
第二实施例
本实施例重点对音频转换模型的训练过程,以及基于训练得到的音频转换模型和非目标说话人的多语种语种获得具有目标说话人音色的多语种语音的过程进行介绍。
首先对音频转换模型的训练过程进行介绍。
请参阅图2,示出了音频转换模型的训练过程的流程示意图,可以包括:
步骤S201:从第一训练语音集中获取第一训练语音。
其中,第一训练语音集中包括目标说话人的单一语种的语音以及非目标说话人的多语种语种,第一训练语音为目标说话人的一条语音或者非目标说话人的一条语音。
步骤S202:通过音频转换模型对第一训练语音提取包含音素信息和说话人信息的矢量,作为第一训练语音对应的说话人相关矢量。
可选的,如图3所示,音频转换模型可以包括第一编码模块301,可通过音频转换模型的第一编码模块301对第一训练语音提取包含音素信息和说话人信息的矢量,作为第一训练语音对应的说话人相关矢量。具体的,可获取第一训练语音的频谱,将第一训练语音的频谱输入第一编码模块301,第一编码模块301从第一训练语音的频谱中提取包含音素信息和说话人信息的矢量并输出。
步骤S203:通过音频转换模型将第一训练语音对应的说话人相关矢量中的说话人信息去除,得到第一训练语音对应的说话人无关矢量,并根据第一训练语音对应的音素序列,确定第一训练语音对应的说话人无关矢量应服从的分布。
可选的,如图3所示,音频转换模型可以包括矢量处理模块302,可通过音频转换模型的矢量处理模块302将第一训练语音对应的说话人相关矢量中的说话人信息去除,得到第一训练语音对应的说话人无关矢量。具体的,在获得第一训练语音对应的说话人相关矢量后,可将第一训练语音对应的说话人相关矢量以及第一训练语音的说话人信息输入矢量处理模块302,矢量处理模块302根据第一训练语音的说话人信息(即第一训练语音的说话人的说话人信息),将第一训练语音对应的说话人相关矢量中的说话人信息去除,输出第一训练语音对应的说话人无关矢量。可选的,矢量处理模块可以采用flow网络。
步骤S204:以第一训练语音对应的说话人相关矢量为依据,通过音频转换模型预测第一训练语音的波形信息,并获取第一训练语音的实际波形信息。
可选的,如图3所示,音频转换模型可以包括第一解码模块303,可将第一训练语音对应的说话人相关矢量输入第一解码模块303,第一解码模块303根据第一训练语音对应的说话人相关矢量预测第一训练语音的波形信息。
本实施例并不限定步骤S203和步骤S204的执行顺序,比如,可先执行步骤S203,再执行步骤S204,也可先执行步骤S204,再执行步骤S203。
步骤S205:根据第一训练语音对应的说话人无关矢量、第一训练语音对应的说话人无关矢量应服从的分布、预测的波形信息和第一训练语音的实际波形信息,对音频转换模型进行参数更新。
具体的,根据第一训练语音对应的说话人无关矢量和第一训练语音对应的说话人无关矢量应服从的分布,确定音频转换模型的第一预测损失,根据预测的波形信息和第一训练语音的实际波形信息,确定音频转换模型的第二预测损失;根据音频转换模型的第一预测损失和第二预测损失,对音频转换模型进行参数更新。
需要说明的是,在对音频转换模型进行训练时,以使第一训练语音对应的说话人无关矢量服从其应服从的分布,以及使预测的波形信息与实际波形信息一致为目标进行训练。
按上述步骤S201~步骤S205对音频转换模型进行多次训练,直至满足训练结束条件。
提了提升音频转换模型的训练效果,本实施例提供了音频转换模型的另一种训练方式,请参阅图4,示出了音频转换模型的训练过程的另一流程示意图,可以包括:
步骤S401:从第一训练语音集中获取第一训练语音。
步骤S402:通过音频转换模型对第一训练语音提取包含音素信息和说话人信息的矢量,作为第一训练语音对应的说话人相关矢量。
步骤S403:根据第一训练语音对应的说话人相关矢量,预测第一训练语音的基频,并获取第一训练语音的实际基频。
步骤S404:通过音频转换模型将第一训练语音对应的说话人相关矢量中的说话人信息去除,得到第一训练语音对应的说话人无关矢量,并根据第一训练语音对应的音素序列,确定第一训练语音对应的说话人无关矢量应服从的分布。
步骤S405:以第一训练语音对应的说话人相关矢量为依据,通过音频转换模型预测第一训练语音的波形信息,并获取第一训练语音的实际波形信息。
步骤S401、S402、S404、S405的相关解释说明可参见步骤S201~步骤S204的相关解释说明,本实施例在此不做赘述。
步骤S406:根据第一训练语音对应的说话人无关矢量、第一训练语音对应的说话人无关矢量应服从的分布、预测的基频、第一训练语音的实际基频、预测的波形信息和第一训练语音的实际波形信息,对音频转换模型进行参数更新。
具体的,根据第一训练语音对应的说话人无关矢量和第一训练语音对应的说话人无关矢量应服从的分布确定音频转换模型的第一预测损失,根据预测的波形信息和第一训练语音的实际波形信息,确定音频转换模型的第二预测损失,根据预测的基频和第一训练语音的实际基频,确定音频转换模型的第三预测损失;根据音频转换模型的第一预测损失、第二预测损失和第三预测损失,对音频转换模型进行参数更新。
需要说明的是,在对音频转换模型进行训练时,以使第一训练语音对应的说话人无关矢量服从其应服从的分布,使根据第一训练语音对应的说话人相关矢量预测的基频与实际基频趋于一致以及使预测的波形信息与实际波形信息趋于一致为目标进行训练。
使根据第一训练语音对应的说话人相关矢量预测的基频与实际基频趋于一致为目标进行训练,使得第一训练语音对应的说话人相关矢量中包含高音信息,使得最终生成的语音能够保留第一训练语音的说话人的说话风格。
按上述步骤S401~步骤S405对音频转换模型进行多次训练,直至满足训练结束条件。
接下来对基于训练得到的音频转换模型和非目标说话人的多语种语音,获得具有目标说话人音色的多语种语音的实现过程进行介绍。
请参阅图5,示出了基于训练得到的音频转换模型和非目标说话人的多语种语音,获得具有目标说话人音色的多语种语音的流程示意图,可以包括:
步骤S501:针对非目标说话人的每条语音,通过音频转换模型对该条语音提取包含音素信息和说话人信息的矢量,作为该条语音对应的说话人相关矢量。
如图3所示,音频转换模型可以包括第一编码模块301,可获取该条语音的频谱,将该条语音的频谱输入第一编码模块301,第一编码模块301从该条语音的频谱中提取包含音素信息和说话人信息的矢量,作为该条语音对应的说话人相关矢量。
步骤S502:通过音频转换模型,将该条语音对应的说话人相关矢量中的说话人信息去除,得到该条语音对应的说话人无关矢量。
如图3所示,音频转换模型可以包括矢量处理模块302,在获得该条语音对应的说话人相关矢量后,可将该条语音的说话人信息(比如说话人表示向量,其可通过将说话人ID转换为向量得到)和该条语音对应的说话人相关矢量输入矢量处理模块302,矢量处理模块302根据该条语音的说话人信息将该条语音对应的说话人相关矢量包含的说话人信息去除,以得到该条语音对应的说话人无关矢量。
步骤S503:通过音频转换模型在该条语音对应的说话人无关矢量中融入目标说话人的说话人信息,得到该条语音对应的包含音素信息和目标说话人的说话人信息的矢量。
具体的,可将目标说话人的说话人信息和该条语音对应的说话人无关矢量输入矢量处理模块302,矢量处理模块302根据目标说话人的说话人信息(比如目标说话人的说话人表示向量,其可通过将目标说话人的说话人ID转换为向量得到)在该条语音对应的说话人无关矢量中融入目标说话人的说话人信息,以得到该条语音对应的包含音素信息和目标说话人的说话人信息的矢量。
步骤S504:以该条语音对应的包含音素信息和目标说话人的说话人信息的矢量为依据,通过音频转换模型生成具有目标说话人音色的语音。
如图3所示,音频转换模型可以包括第一解码模块303,可将该条语音对应的包含音素信息和目标说话人的说话人信息的矢量输入第一解码模块303,第一解码模块303根据输入的矢量生成具有目标说话人音色的语音。
示例性的,非目标说话人的多语种语音包括说话人A的英语语音、说话人B的法语语音、说话人C的德语语音,则经由上述S501~步骤S503的过程,可将说话人A的英语语音转换为具有目标说话人D的音色的英语语音、具有目标说话人D的音色的法语语音、具有目标说话人D的音色的德语语音。
第三实施例
本实施例对语音合成模型的构建过程进行介绍。
在一种可能的实现方式中,语音合成模型的构建过程可以包括:采用具有目标说话人音色的多语种语音训练得到矢量预测模型,由训练得到的矢量预测模型和语音合成模块组成语音合成模型,其中,语音合成模块可采用训练得到的音频转换模型中的语音生成部分(如图3中的第一解码模块303)。
其中,矢量预测模型能够根据输入的音素序列预测出包含音素信息和目标说话人的说话人信息的矢量,训练得到的音频转换模型中的语音生成部分(如图3中的第一解码模块303)能够根据包含音素信息和一说话人的说话人信息的矢量生成具有该说话人音色的语音。
接下来对矢量预测模型的训练过程进行介绍。
请参阅图6,示出了矢量预测模型的训练过程的流程示意图,可以包括:
步骤S601:从第二训练语音集中获取第二训练语音。
其中,第二训练语音集中包括大量具有目标说话人音色的多语种语音,第二训练语音即为一条具有目标说话人音色的语音。
步骤S602:获取第二训练语音对应的音素序列,作为训练音素序列。
第二训练语音对应的音素序列即为第二训练语音对应的文本所对应的音素序列。
步骤S603:通过矢量预测模型对训练音素序列行编码,得到第一编码结果,并基于第二训练语音所属语种的多人单语种编码器对训练音素序列行编码,得到第二编码结果。
可选的,如图7所示,矢量预测模型可以包括第二编码模块701,可通过矢量预测模型的第二编码模块701对训练音素序列行编码,以得到第一编码结果。为了使得语种切换时互不影响,矢量预测模型中的第二编码模块701可以包括多种语种分别对应的编码子模块,比如,汉语对应的编码子模块、英语对应的编码子模块、法语对应的编码子模块等,在对训练音素序列行编码时,通过第二训练语音所属语种对应的编码子模块进行编码,比如,第二训练语为汉语语音,则采用第二编码模块701中汉语对应的编码子模块对训练音素序列进行编码。
为了使矢量预测模型中的第二编码模块701具有较强的编码能力并且具有较强的稳定性,如图7所示,本发明引入多种语种分别对应的多人单语种编码器,比如汉语对应的多人单语种编码器、英语对应的多人单语种编码器、法语对应的多人单语种编码器等,用多种语种分别对应的多人单语种编码器辅助矢量预测模型的编码模块训练。需要说明的是,矢量预测模型中的第二编码模块701包含的每个编码子模块为单人单语种编码器,单人单语种编码器的编码能力弱于多人单语种编码器的能力,有鉴于此,本发明提出,利用多种语种分别对应的多人单语种编码器辅助矢量预测模型的第二编码模块701进行训练。
其中,多人单语种编码器采用多个说话人的同一语种的训练语音训练得到,比如,英语对应的多人单语种编码器采用多个说话人的英语训练语音训练得到。具体的,多人单语种编码器的训练过程可以包括:获取训练语音对应的音素序列,将训练语音对应的音素序列输入多人单语种编码器进行编码,根据多人单语种编码器输出的编码结果预测训练语音对应的说话人,并根据多人单语种编码器输出的编码结果和训练语音对应的实际说话人的说话人表示向量预测训练语音的频谱,以使预测的说话人与实际说话人不一致,以及使预测的频谱与实际频谱趋于一致为目标对多人单语种编码器进行参数更新。本发明在训练多人单语种编码器时,引入了说话人对抗,引入说话人对抗的目的在于,保证多人单语种编码器输出的编码结果中不包含说话人信息。
步骤S604:以第一编码结果为依据,通过矢量预测模型预测训练音素序列中每个音素的表示向量,得到预测的音素表示向量序列,并根据第二训练语音获取实际的音素表示向量序列。
可选的,如图7所示,矢量预测模型可以包括音素表示向量预测模块702,可通过矢量预测模型中的音素表示向量预测模块702预测训练音素序列中每个音素的表示向量。可选的,音素表示向量预测模块702可以采用两层全连接层。在获得第一编码结果后,可将第一编码结果输入音素表示向量预测模块702,音素表示向量预测模块702根据第一编码结果预测训练音素序列中每个音素的表示向量,以得到预测的音素表示向量序列。
为了监督矢量预测模型的音素表示向量预测模块702训练,本发明根据第二训练语音获取实际的音素表示向量序列。具体的,如图7所示,根据第二训练语音获取实际的音素表示向量序列的过程包括:获取第二训练语音的频谱;将第二训练语音的频谱输入LSTM,LSTM输出所有音素的表示向量;根据第二训练语音获取每个音素的发音时长;根据每个音素的发音时长从LSTM输出的所有音素的表示向量中划分出每个音素的表示向量,以得到实际的音素表示向量序列。
步骤S605:以第一编码结果和预测的音素表示向量序列为依据,通过矢量预测模型预测包含音素信息和目标说话人的说话人信息的矢量,并从第二训练语音中提取包含音素信息和目标说话人的说话人信息的矢量。
可选的,矢量预测模型可以包括第二解码模块703,可通过矢量预测模型的第二解码模块703预测包含音素信息和目标说话人的说话人信息的矢量。具体的,将第一编码结果和预测的音素表示向量序列输入矢量预测模型的第二解码模块703,第二解码模块703根据输入预测包含音素信息和目标说话人的说话人信息的矢量。
可选的,可采用训练得到的音频转换模型中的第一编码模块301从第二训练语音中提取包含音素信息和目标说话人的说话人信息的矢量。
步骤S606:根据第一编码结果、第二编码结果、预测的音素表示向量序列、实际的音素表示向量序列、预测的矢量和提取的矢量,对矢量预测模型进行参数更新。
具体的,如图7所示,根据第一编码结果和第二编码结果,确定矢量预测模型的第一预测损失(比如,确定第一编码结果和第二编码结果的MSE loss),根据预测的音素表示向量序列和实际的音素表示向量序列,确定矢量预测模型的第二预测损失(比如,确定预测的音素表示向量序列与实际的音素表示向量序列的MSE loss),根据预测的矢量和提取的矢量,确定矢量预测模型的第三预测损失(比如,确定预测的矢量与提取的矢量的MSEloss),根据矢量预测模型的第一预测损失、第二预测损失和第三预测损失对矢量预测模型进行参数更新。
矢量预测模型训练目标包括:使矢量预测模型的第二编码模块701对训练音素序列行编码得到的第一编码结果与第二训练语音所属语种的多人单语种编码器对训练音素序列进行编码得到的第二编码结果的误差最小;使矢量预测模型的音素表示向量预测模块702根据第一编码结果预测的音素表示向量序列与实际的音素表示向量序列误差最小;使矢量预测模型的第二解码模块703根据第一编码结果和预测的音素表示向量序列预测的包含音素信息和目标说话人的说话人信息的矢量与实际的矢量(实际的矢量指的是,从第二训练语音中提取的包含音素信息和目标说话人的说话人信息的矢量)误差最小。
另外,为了使得矢量预测模型的第二编码模块701与第二解码模块703更加协调,上述矢量预测模型的训练过程还可以包括:以第一编码结果为预测依据,通过矢量预测模型的第二解码模块703预测第二训练语音的频谱,并获取第二训练语音的实际频谱。在确定预测损失时,根据矢量预测模型的第二解码模块703预测的频谱和第二训练语音的实际频谱,确定矢量预测模型的第四预测损失,进而根据矢量预测模型的第一预测损失、第二预测损失、第三预测损失和第四预测损失,对矢量预测模型进行参数更新。即,矢量预测模型训练目标除了包括上述三个外,还可以包括:使矢量预测模型的第二解码模块703根据第一编码结果预测的频谱与第二训练语音的实际频谱误差最小。
经由上述过程可训练得到能够根据输入的音素序列预测出包含音素信息和目标说话人的说话人信息的矢量的矢量预测模型。
如图8所示,最终由训练得到的矢量预测模型中的第二编码模块701、音素表示向量预测模块702、第二解码模块703,以及训练得到的音频转换模块中的第一解码模块303组成语音合成模型,进而可通过该语音合成模型合成目标文本对应的语音,具体的,首先将目标文本对应的音素序列输入第二编码模块703,得到目标文本对应的音素序列的编码结果,然后将目标文本对应的音素序列的编码结果输入音素表示向量预测模块702,得到目标文本对应的音素序列的音素表示向量序列,接着将目标文本对应的音素序列的编码结果以及目标文本对应的音素序列的音素表示向量序列输入第二解码模块703,得到包含音素信息和目标说话人的说话人信息的矢量,最后将包含音素信息和目标说话人的说话人信息的矢量输入第一解码模块303,得到目标文本对应的合成语音。
经由上述第一实施例至第三实施例可知,本发明可采用目标说话人的单语种语音和非目标说话人的多语种语音训练得到音频转换模型,训练得到的音频转换模型可将非目标说话人的多语种语音转换为具有目标说话人音色的多语种语种,通过训练得到音频转换模型可获得大量具有目标说话人音色的多语种语音,可见,本发明可实现,利用少量目标说话人的单语种语音和大量非目标说话人的多语种语音获得大量具有目标说话人音色的多语种语种。
在获得大量具有目标说话人音色的多语种语音后,可利用大量具有目标说话人音色的多语种语音训练得到矢量预测模型,矢量预测模型具备对多种语种的文本分别对应的音素序列进行处理得到包含音素信息和目标说话人的说话人信息的矢量的能力,在此基础上,可由矢量预测模型和音频转换模型中能够根据包含音素信息和目标说话人的说话人信息的矢量生成语音的语音生成部分(比如第一解码模块303)组成语音合成模型,如此构建出的语音合成模型具有跨语种语音合成的能力。
另外,由于音频转换模型中的语音生成部分可根据包含音素信息和目标说话人的说话人信息的矢量直接生成具有目标说话人音色的语音,因此,本发明提供的语音合成方法无需预测频谱,相应的,也就无需频谱经声码器,可见,避免了声码器的使用,避免了声码器的使用也就避免了声码器带来的损失,另外,由于矢量预测模型的训练数据基于音频转换模型获得,因此,矢量预测模型和音频转换模型中的语音生成部分具有较好的适配性,由矢量预测模型和音频转换模型中的语音生成部分组成的语音合成模型更具稳定性。
第四实施例
本发明实施例还提供了一种语音合成装置,下面对本发明实施例提供的语音合成装置进行描述,下文描述的语音合成装置与上文描述的语音合成方法可相互对应参照。
请参阅图9,示出了本发明实施例提供的语音合成装置的结构示意图,可以包括:音素序列获取模块901和音素序列处理模块902。
音素序列获取模块901,用于获取目标文本对应的音素序列。
语音合成模块902,用于通过构建的语音合成模型中的矢量预测模型对所述音素序列进行处理,得到包含音素信息和目标说话人的说话人信息的矢量,作为目标矢量,以及通过构建的语音合成模型中的语音合成模块对所述目标矢量进行处理,得到合成语音。
其中,所述矢量预测模型采用具有所述目标说话人音色的多语种语音训练得到,所述具有所述目标说话人音色的多语种语音由预先训练得到的音频转换模型将非目标说话人的多语种语音的音色转换为所述目标说话人的音色得到,所述音频转换模型采用所述目标说话人的单语种语音和所述非目标说话人的多语种语音训练得到。
可选的,音素序列处理模块902在通过预先构建的语音合成模型中的矢量预测模型将所述音素序列处理成包含音素信息和目标说话人的说话人信息的矢量时,具体用于:
通过所述矢量预测模型对所述音素序列进行编码,得到所述音素序列的编码结果;
以所述音素序列的编码结果为预测依据,基于所述矢量预测模型预测所述音素序列中每个音素的表示向量,以得到音素表示向量序列;
以所述音素序列的编码结果和所述音素表示向量序列为预测依据,通过所述矢量预测模型预测包含音素信息和目标说话人的说话人信息的矢量。
可选的,本发明实施例提供的语音合成装置还可以包括音频转换模块。音频转换模块,用于基于所述音频转换模型和所述非目标说话人的多语种语音,获得具有所述目标说话人音色的多语种语音。
音频转换模块在基于所述音频转换模型和所述非目标说话人的多语种语音,获得具有所述目标说话人音色的多语种语音时,具体用于:
针对所述非目标说话人的每条语音:
通过所述音频转换模型对该条语音提取包含音素信息和说话人信息的矢量,作为该条语音对应的说话人相关矢量;
通过所述音频转换模型,将该条语音对应的说话人相关矢量中的说话人信息去除,得到该条语音对应的说话人无关矢量;
通过所述音频转换模型在该条语音对应的说话人无关矢量中融入所述目标说话人的说话人信息,得到该条语音对应的包含音素信息和所述目标说话人的说话人信息的矢量;
以该条语音对应的包含音素信息和所述目标说话人的说话人信息的矢量为依据,通过所述音频转换模型生成具有所述目标说话人音色的语音。
可选的,所述音频转换模型包括:第一编码模块、矢量处理模块和第一解码模块;
针对非目标说话人的每条语音:
所述第一编码模块,用于从该条语音的频谱中提取包含音素信息和说话人信息的矢量,作为该条语音对应的说话人相关矢量;
所述矢量处理模块,用于根据该条语音的说话人信息,将该条语音对应的说话人相关矢量中的说话人信息去除,得到该条语音对应的说话人无关矢量;以及,在该条语音对应的说话人无关矢量中融入所述目标说话人的说话人信息,得到该条语音对应的包含音素信息和所述目标说话人的说话人信息的矢量;
所述第一解码模块,用于根据该条语音对应的包含音素信息和所述目标说话人的说话人信息的矢量,生成具有所述目标说话人音色的语音。
可选的,本发明实施例提供的语音合成装置还可以包括:用于对音频转换模型进行训练的音频转换模型训练模块。音频转换模型训练模块在对音频转换模型进行训练时,具体用于:
通过所述第一编码模块对第一训练语音提取包含音素信息和说话人信息的矢量,作为所述第一训练语音对应的说话人相关矢量,所述第一训练语音为所述目标说话人的语音或者所述非目标说话人的语音;
通过所述矢量处理模块将所述第一训练语音对应的说话人相关矢量中的说话人信息去除,得到所述第一训练语音对应的说话人无关矢量,并根据所述第一训练语音对应的音素序列,确定所述第一训练语音对应的说话人无关矢量应服从的分布;
以所述第一训练语音对应的说话人相关矢量为依据,通过所述第二解码模块预测所述第一训练语音的波形信息,并获取所述第一训练语音的实际波形信息;
根据所述第一训练语音对应的说话人无关矢量、所述分布、预测的波形信息和所述实际波形信息,对音频转换模型进行参数更新。
可选的,音频转换模型训练模块在对音频转换模型进行训练时还用于:
根据所述第一训练语音对应的说话人相关矢量,预测所述第一训练语音的基频,并获取所述第一训练语音的实际基频;
音频转换模型训练模块在根据所述第一训练语音对应的说话人无关矢量、所述分布、预测的波形信息和所述实际波形信息,对音频转换模型进行参数更新时,具体用于:
根据所述第二训练语音对应的说话人无关矢量、所述分布、预测的波形信息、所述实际波形信息、预测的基频和所述实际基频,对音频转换模型进行参数更新。
可选的,所述矢量预测模型包括:第二编码模块、音素表示向量预测模块和第二解码模块;
所述第二编码模块,用于对输入的音素序列进行编码,输出输入的音素序列的编码结果;
所述音素表示向量预测模块,用于根据所述编码模块输出的编码结果预测输入所述编码模块的音素序列包含的每个音素的表示向量,输出预测结果;
所述第二解码模块,用于根据所述编码模块输出的编码结果和所述音素表示向量预测模块输出的预测结果,预测包含音素信息和目标说话人的说话人信息的矢量。
可选的,本发明实施例提供的语音合成装置还可以包括:用于对矢量预测模型进行训练的矢量预测模型训练模块。矢量预测模型训练模块在对所述矢量预测模型进行训练时,具体用于:
获取第二训练语音对应的音素序列作为训练音素序列,其中,所述第二训练语音为具有所述目标说话人音色的语音;
通过所述第二编码模块对所述训练音素序列进行编码,得到第一编码结果,并基于所述第一训练语音所属语种的多人单语种编码器对所述训练音素序列进行编码,得到第二编码结果;
以所述第一编码结果为依据,通过所述音素表示向量预测模块预测所述训练音素序列中每个音素的表示向量,得到预测的音素表示向量序列,并根据所述第一训练语音获取实际的音素表示向量序列;
以所述第一编码结果和预测的音素表示向量序列为依据,通过所述第二解码模块预测包含音素信息和所述目标说话人的说话人信息的矢量,并从所述训练语音中提取包含音素信息和所述目标说话人的说话人信息的矢量;
根据所述第一编码结果、所述第二编码结果、预测的音素表示向量序列、实际的音素表示向量序列、预测的矢量和提取的矢量,对矢量预测模型进行参数更新。
可选的,矢量预测模型训练模块在根据所述第一编码结果、所述第二编码结果、预测的音素表示向量序列、实际的音素表示向量序列、预测的矢量和提取的矢量,对矢量预测模型进行参数更新时,具体用于:
根据所述第一编码结果和所述第二编码结果,确定第一预测损失;
根据预测的音素表示向量序列和实际的音素表示向量序列,确定第二预测损失;
根据预测的矢量和提取的矢量,确定第三预测损失;
根据所述第一预测损失、所述第二预测损失和所述第三预测损失,对矢量预测模型进行参数更新。
本发明实施例提供的语音合成装置,首先获取目标文本对应的音素序列,然后通过预先构建的语音合成模型中的矢量预测模型将音素序列处理成包含音素信息和目标说话人的说话人信息的矢量,作为目标矢量,最后以目标矢量为依据,通过构建的语音合成模型中的语音合成模块生成目标文本对应的合成语音。本发明实施例采用少量目标说话人的单一语种语音和大量非目标说话人的多语种语音可训练得到音频转换模型,进而可基于训练得到音频转换模型和大量非目标说话人的多语种语音获得大量具有目标说话人音色的多语种语音,从而可利用大量具有目标说话人音色的多语种语音训练得到能够处理多种不同语种文本对应的音素序列的矢量预测模型,进而由训练得到的矢量预测模型和语音合成模块构建出能够合成目标说话人多语种语音的语音合成模型,从而利用语音合成模型合成目标文本对应的语音,即本发明实施例提供的语音合成装置可实现目标说话人跨语种的语音合成。
第五实施例
本发明实施例还提供了一种语音合成设备,请参阅图10,示出了该语音合成设备的结构示意图,该语音合成设备可以包括:至少一个处理器1001,至少一个通信接口1002,至少一个存储器1003和至少一个通信总线1004;
在本发明实施例中,处理器1001、通信接口1002、存储器1003、通信总线1004的数量为至少一个,且处理器1001、通信接口1002、存储器1003通过通信总线1004完成相互间的通信;
处理器1001可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路等;
存储器1003可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory)等,例如至少一个磁盘存储器;
其中,存储器存储有程序,处理器可调用存储器存储的程序,所述程序用于:
获取目标文本对应的音素序列;
通过预先构建的语音合成模型中的矢量预测模型将所述音素序列处理成包含音素信息和目标说话人的说话人信息的矢量,作为目标矢量;
以所述目标矢量为依据,通过所述语音合成模型中的语音合成模块生成所述目标文本对应的合成语音;
其中,所述矢量预测模型采用具有所述目标说话人音色的多语种语音训练得到,所述具有所述目标说话人音色的多语种语音由训练得到的音频转换模型将非目标说话人的多语种语音的音色转换为所述目标说话人的音色得到,所述音频转换模型采用所述目标说话人的单语种语音和所述非目标说话人的多语种语音训练得到。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
第六实施例
本发明实施例还提供一种可读存储介质,该可读存储介质可存储有适于处理器执行的程序,所述程序用于:
获取目标文本对应的音素序列;
通过预先构建的语音合成模型中的矢量预测模型将所述音素序列处理成包含音素信息和目标说话人的说话人信息的矢量,作为目标矢量;
以所述目标矢量为依据,通过所述语音合成模型中的语音合成模块生成所述目标文本对应的合成语音;
其中,所述矢量预测模型采用具有所述目标说话人音色的多语种语音训练得到,所述具有所述目标说话人音色的多语种语音由训练得到的音频转换模型将非目标说话人的多语种语音的音色转换为所述目标说话人的音色得到,所述音频转换模型采用所述目标说话人的单语种语音和所述非目标说话人的多语种语音训练得到。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (12)

1.一种语音合成方法,其特征在于,通过预先构建的语音合成模型实现,所述语音合成模型包括矢量预测模型和语音合成模块,所述语音合成方法包括:
获取目标文本对应的音素序列;
通过所述矢量预测模型将所述音素序列处理成包含音素信息和目标说话人的说话人信息的矢量,作为目标矢量;
以所述目标矢量为依据,通过所述语音合成模块生成所述目标文本对应的合成语音;
其中,所述矢量预测模型采用具有所述目标说话人音色的多语种语音训练得到,所述具有所述目标说话人音色的多语种语音由训练得到的音频转换模型将非目标说话人的多语种语音的音色转换为所述目标说话人的音色得到,所述音频转换模型采用所述目标说话人的单语种语音和所述非目标说话人的多语种语音训练得到。
2.根据权利要求1所述的语音合成方法,其特征在于,所述通过所述矢量预测模型将所述音素序列处理成包含音素信息和目标说话人的说话人信息的矢量,包括:
通过所述矢量预测模型对所述音素序列进行编码,得到所述音素序列的编码结果;
以所述音素序列的编码结果为预测依据,基于所述矢量预测模型预测所述音素序列中每个音素的表示向量,以得到音素表示向量序列;
以所述音素序列的编码结果和所述音素表示向量序列为预测依据,通过所述矢量预测模型预测包含音素信息和目标说话人的说话人信息的矢量。
3.根据权利要求1所述的语音合成方法,其特征在于,基于所述音频转换模型和所述非目标说话人的多语种语音,获得具有所述目标说话人音色的多语种语音,包括:
针对所述非目标说话人的每条语音:
通过所述音频转换模型对该条语音提取包含音素信息和说话人信息的矢量,作为该条语音对应的说话人相关矢量;
通过所述音频转换模型,将该条语音对应的说话人相关矢量中的说话人信息去除,得到该条语音对应的说话人无关矢量;
通过所述音频转换模型在该条语音对应的说话人无关矢量中融入所述目标说话人的说话人信息,得到该条语音对应的包含音素信息和所述目标说话人的说话人信息的矢量;
以该条语音对应的包含音素信息和所述目标说话人的说话人信息的矢量为依据,通过所述音频转换模型生成具有所述目标说话人音色的语音。
4.根据权利要求1所述的语音合成方法,其特征在于,所述音频转换模型包括:第一编码模块、矢量处理模块和第一解码模块,所述语音合成模块采用所述第一解码模块;
针对非目标说话人的每条语音:
所述第一编码模块,用于从该条语音的频谱中提取包含音素信息和说话人信息的矢量,作为该条语音对应的说话人相关矢量;
所述矢量处理模块,用于根据该条语音的说话人信息,将该条语音对应的说话人相关矢量中的说话人信息去除,得到该条语音对应的说话人无关矢量;以及,在该条语音对应的说话人无关矢量中融入所述目标说话人的说话人信息,得到该条语音对应的包含音素信息和所述目标说话人的说话人信息的矢量;
所述第一解码模块,用于根据该条语音对应的包含音素信息和所述目标说话人的说话人信息的矢量,生成具有所述目标说话人音色的语音。
5.根据权利要求4所述的语音合成方法,其特征在于,所述音频转换模型的训练过程包括:
通过所述第一编码模块对第一训练语音提取包含音素信息和说话人信息的矢量,作为所述第一训练语音对应的说话人相关矢量,所述第一训练语音为所述目标说话人的语音或者所述非目标说话人的语音;
通过所述矢量处理模块将所述第一训练语音对应的说话人相关矢量中的说话人信息去除,得到所述第一训练语音对应的说话人无关矢量,并根据所述第一训练语音对应的音素序列,确定所述第一训练语音对应的说话人无关矢量应服从的分布;
以所述第一训练语音对应的说话人相关矢量为依据,通过所述第一解码模块预测所述第一训练语音的波形信息,并获取所述第一训练语音的实际波形信息;
根据所述第一训练语音对应的说话人无关矢量、所述分布、预测的波形信息和所述实际波形信息,对音频转换模型进行参数更新。
6.根据权利要求5所述的语音合成方法,其特征在于,所述音频转换模型的训练过程还包括:
根据所述第一训练语音对应的说话人相关矢量,预测所述第一训练语音的基频,并获取所述第一训练语音的实际基频;
所述根据所述第一训练语音对应的说话人无关矢量、所述分布、预测的波形信息和所述实际波形信息,对音频转换模型进行参数更新,包括:
根据所述第二训练语音对应的说话人无关矢量、所述分布、预测的波形信息、所述实际波形信息、预测的基频和所述实际基频,对音频转换模型进行参数更新。
7.根据权利要求1所述的语音合成方法,其特征在于,所述矢量预测模型包括:第二编码模块、音素表示向量预测模块和第二解码模块;
所述第二编码模块,用于对输入的音素序列进行编码,输出输入的音素序列的编码结果;
所述音素表示向量预测模块,用于根据所述第二编码模块输出的编码结果预测输入所述第二编码模块的音素序列包含的每个音素的表示向量,输出预测结果;
所述第二解码模块,用于根据所述第二编码模块输出的编码结果和所述音素表示向量预测模块输出的预测结果,预测包含音素信息和目标说话人的说话人信息的矢量。
8.根据权利要求7所述的语音合成方法,其特征在于,所述矢量预测模型的训练过程包括:
获取第二训练语音对应的音素序列作为训练音素序列,其中,所述第二训练语音为具有所述目标说话人音色的语音;
通过所述第二编码模块对所述训练音素序列进行编码,得到第一编码结果,并基于所述第一训练语音所属语种的多人单语种编码器对所述训练音素序列进行编码,得到第二编码结果;
以所述第一编码结果为依据,通过所述音素表示向量预测模块预测所述训练音素序列中每个音素的表示向量,得到预测的音素表示向量序列,并根据所述第一训练语音获取实际的音素表示向量序列;
以所述第一编码结果和预测的音素表示向量序列为依据,通过所述第二解码模块预测包含音素信息和所述目标说话人的说话人信息的矢量,并从所述训练语音中提取包含音素信息和所述目标说话人的说话人信息的矢量;
根据所述第一编码结果、所述第二编码结果、预测的音素表示向量序列、实际的音素表示向量序列、预测的矢量和提取的矢量,对矢量预测模型进行参数更新。
9.根据权利要求8所述的语音合成方法,其特征在于,所述根据所述第一编码结果、所述第二编码结果、预测的音素表示向量序列、实际的音素表示向量序列、预测的矢量和提取的矢量,对矢量预测模型进行参数更新,包括:
根据所述第一编码结果和所述第二编码结果,确定第一预测损失;
根据预测的音素表示向量序列和实际的音素表示向量序列,确定第二预测损失;
根据预测的矢量和提取的矢量,确定第三预测损失;
根据所述第一预测损失、所述第二预测损失和所述第三预测损失,对矢量预测模型进行参数更新。
10.一种语音合成装置,其特征在于,所述语音合成装置通过预先构建的语音合成模型实现语音合成,所述语音合成模型包括矢量预测模型和语音合成模块,所述语音合成装置包括:音素序列获取模块和音素序列处理模块;
所述音素序列获取模块,用于获取目标文本对应的音素序列;
所述音素序列处理模块,用于通过所述矢量预测模型将所述音素序列处理成包含音素信息和目标说话人的说话人信息的矢量,作为目标矢量;以及,以所述目标矢量为依据,通过所述语音合成模块生成所述目标文本对应的合成语音;
其中,所述矢量预测模型采用具有所述目标说话人音色的多语种语音训练得到,所述具有所述目标说话人音色的多语种语音由训练得到的音频转换模型将非目标说话人的多语种语音的音色转换为所述目标说话人的音色得到,所述音频转换模型采用所述目标说话人的单语种语音和所述非目标说话人的多语种语音训练得到。
11.一种语音合成设备,其特征在于,包括:存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如权利要求1~9中任一项所述的语音合成方法的各个步骤。
12.一种可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1~9中任一项所述的语音合成方法的各个步骤。
CN202210393427.7A 2022-04-15 2022-04-15 一种语音合成方法、装置、设备及存储介质 Pending CN115035885A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210393427.7A CN115035885A (zh) 2022-04-15 2022-04-15 一种语音合成方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210393427.7A CN115035885A (zh) 2022-04-15 2022-04-15 一种语音合成方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN115035885A true CN115035885A (zh) 2022-09-09

Family

ID=83119471

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210393427.7A Pending CN115035885A (zh) 2022-04-15 2022-04-15 一种语音合成方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN115035885A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115910033A (zh) * 2023-01-09 2023-04-04 北京远鉴信息技术有限公司 一种语音的合成方法、装置、电子设备及可读存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115910033A (zh) * 2023-01-09 2023-04-04 北京远鉴信息技术有限公司 一种语音的合成方法、装置、电子设备及可读存储介质

Similar Documents

Publication Publication Date Title
CN108447486B (zh) 一种语音翻译方法及装置
CN111667814B (zh) 一种多语种的语音合成方法及装置
CN106971709B (zh) 统计参数模型建立方法和装置、语音合成方法和装置
KR20220004737A (ko) 다국어 음성 합성 및 언어간 음성 복제
US7593842B2 (en) Device and method for translating language
CN110335587B (zh) 语音合成方法、系统、终端设备和可读存储介质
CN110797006A (zh) 端到端的语音合成方法、装置及存储介质
CN111341293B (zh) 一种文本语音的前端转换方法、装置、设备和存储介质
CN113053357B (zh) 语音合成方法、装置、设备和计算机可读存储介质
CN112786018B (zh) 语音转换及相关模型的训练方法、电子设备和存储装置
CN113380222B (zh) 语音合成方法、装置、电子设备及存储介质
CN112420050B (zh) 一种语音识别方法、装置和电子设备
CN110808028B (zh) 嵌入式语音合成方法、装置以及控制器和介质
CN115171644A (zh) 语音合成方法、装置、电子设备和存储介质
CN115035885A (zh) 一种语音合成方法、装置、设备及存储介质
CN113327575A (zh) 一种语音合成方法、装置、计算机设备和存储介质
CN112652309A (zh) 一种方言语音转换方法、装置、设备及存储介质
CN112270917A (zh) 一种语音合成方法、装置、电子设备及可读存储介质
CN116597858A (zh) 语音口型匹配方法、装置、存储介质及电子设备
CN113314097B (zh) 语音合成方法、语音合成模型处理方法、装置和电子设备
CN112786000B (zh) 语音合成方法、系统、设备及存储介质
CN114708848A (zh) 音视频文件大小的获取方法和装置
CN114974218A (zh) 语音转换模型训练方法及装置、语音转换方法及装置
CN114121010A (zh) 模型训练、语音生成、语音交互方法、设备以及存储介质
CN115050351A (zh) 生成时间戳的方法、装置及计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination