CN113327574A - 一种语音合成方法、装置、计算机设备和存储介质 - Google Patents
一种语音合成方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN113327574A CN113327574A CN202110602393.3A CN202110602393A CN113327574A CN 113327574 A CN113327574 A CN 113327574A CN 202110602393 A CN202110602393 A CN 202110602393A CN 113327574 A CN113327574 A CN 113327574A
- Authority
- CN
- China
- Prior art keywords
- speaker
- network
- style
- text information
- audio signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001308 synthesis method Methods 0.000 title claims abstract description 17
- 230000003595 spectral effect Effects 0.000 claims abstract description 92
- 235000006025 Durio zibethinus Nutrition 0.000 claims abstract description 44
- 240000000716 Durio zibethinus Species 0.000 claims abstract description 44
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 34
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 34
- 238000000034 method Methods 0.000 claims abstract description 29
- 238000001228 spectrum Methods 0.000 claims description 86
- 230000005236 sound signal Effects 0.000 claims description 75
- 238000012549 training Methods 0.000 claims description 48
- 238000013507 mapping Methods 0.000 claims description 26
- 230000015654 memory Effects 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 7
- 230000002123 temporal effect Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 16
- 239000013598 vector Substances 0.000 description 14
- 230000002457 bidirectional effect Effects 0.000 description 12
- 238000007781 pre-processing Methods 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 9
- 230000007787 long-term memory Effects 0.000 description 9
- 230000006403 short-term memory Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 230000002194 synthesizing effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000013139 quantization Methods 0.000 description 4
- 241001672694 Citrus reticulata Species 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000010367 cloning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000590419 Polygonia interrogationis Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明实施例提供了一种语音合成方法、装置、计算机设备和存储介质,该方法包括:确定待合成语音的文本信息、说出所述文本信息的说话者及风格,从文本信息提取表征语言学的信息,作为语言信息,确定DurIAN网络为声学模型、HiFi‑GAN网络为声码器,将语言信息输入作为声学模型的DurIAN网络中、转换为符合说话者在风格下说文本信息时的频谱特征,将频谱特征输入作为声码器的HiFi‑GAN网络中、转换为符合说话者在风格下说文本信息时的语音信号,将DurIAN网络与HiFi‑GAN网络结合在TTS中使用,在低资源的情况下,可以保证克隆音色的鲁棒性,提高语音合成的自然度和作为克隆目标的说话者的音色的相似度。
Description
技术领域
本发明实施例涉及语音处理的技术领域,尤其涉及一种语音合成方法、装置、计算机设备和存储介质。
背景技术
TTS(Text To Speech,文字转语音)旨在将文字转换为语音,是人机对话的一部分,让机器能够说话,近年来,随着声学模型和声码器技术的飞速发展,TTS在语音助手,有声读物和口语对话系统等许多领域都发挥着重要作用。
TTS可以为拥有大量高质量语音的说话者生成自然语音,几乎可以以假乱真,但是,TTS仍然受限于训练集是大量单一说话人且表现力不够丰富数据的的理想情况。
在低资源情况下,尤其是说话者的语言样本稀少且录音条件较差时,语音合成的鲁棒性较差,从而导致语音合成的自然度较差、说话人音色的相似度较差。
发明内容
本发明实施例提出了一种语音合成方法、装置、计算机设备和存储介质,以解决如何在低资源的情况下提高音色克隆的鲁棒性的问题。
第一方面,本发明实施例提供了一种语音合成方法,包括:
确定待合成语音的文本信息、说出所述文本信息的说话者及风格;
从所述文本信息提取表征语言学的特征,作为语言信息;
确定DurIAN网络为声学模型、HiFi-GAN网络为声码器;
将所述语言信息输入作为声学模型的所述DurIAN网络中、转换为符合所述说话者在所述风格下说所述文本信息时的频谱特征;
将所述频谱特征输入作为声码器的所述HiFi-GAN网络中、转换为符合所述说话者在所述风格下说所述文本信息时的语音信号。
第二方面,本发明实施例还提供了一种语音合成装置,包括:
合成数据确定模块,用于确定待合成语音的文本信息、说出所述文本信息的说话者及风格;
语言信息提取模块,用于从所述文本信息提取表征语言学的信息,作为语言信息;
合成系统确定模块,用于确定DurIAN网络为声学模型、HiFi-GAN网络为声码器;
频谱特征生成模块,用于将所述语言信息输入作为声学模型的所述DurIAN网络中、转换为符合所述说话者在所述风格下说所述文本信息时的频谱特征;
语音信号生成模块,用于将所述频谱特征输入作为声码器的所述HiFi-GAN网络中、转换为符合所述说话者在所述风格下说所述文本信息时的语音信号。
第三方面,本发明实施例还提供了一种计算机设备,所述计算机设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面所述的语音合成方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的语音合成方法。
在本实施例中,确定待合成语音的文本信息、说出所述文本信息的说话者及风格,从文本信息提取表征语言学的信息,作为语言信息,确定DurIAN网络为声学模型、HiFi-GAN网络为声码器,将语言信息输入作为声学模型的DurIAN网络中、转换为符合说话者在风格下说文本信息时的频谱特征,将频谱特征输入作为声码器的HiFi-GAN网络中、转换为符合说话者在风格下说文本信息时的语音信号,将DurIAN网络与HiFi-GAN网络结合在TTS中使用,在低资源的情况下,可以保证克隆音色的鲁棒性,提高语音合成的自然度和作为克隆目标的说话者的音色的相似度。
附图说明
图1为本发明实施例一提供的一种语音合成方法的流程图;
图2为本发明实施例一提供的一种TTS系统的架构图;
图3是本发明实施例二提供的一种语音合成方法的流程图;
图4为本发明实施例三提供的一种语音合成装置的结构示意图;
图5为本发明实施例四提供的一种计算机设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种语音合成方法的流程图,本实施例可适用于训练DurIAN(DURATION INFORMED ATTENTION NETWORK,依据时长信息的注意力网络)网络为TTS的声学模型、训练HiFi-GAN(Generative Adversarial Networks for Efficient andHigh Fidelity Speech Synthesis,高效、高保真语音合成的生成对抗网络)网络为TTS的声码器情况,该方法可以由语音合成装置来执行,该语音合成装置可以由软件和/或硬件实现,可配置在计算机设备中,例如,服务器、工作站、个人电脑,等等,具体包括如下步骤:
步骤101、获取说话者在指定风格下说话时记录的音频信号、表达音频信号内容的文本信息、由音频信号转换的频谱特征。
为便于采集足够数量的数据集,可以在开源的数据库和/或开源的项目等通用的渠道中采集说话者在指定风格下说话时记录的音频信号、表达音频信号内容的文本信息,即,说话者说出“文本信息”时记录音频信号,此外,可通过快速傅立叶变换(fast Fouriertransform,FFT)等方式将音频信号转换为频谱特征,如Mel Spectrogram(梅尔频谱图)。
其中,每个说话者的音色均有所差异,一个说话者可以表征一种音色,对说话者可以配置唯一的标识信息(如speaker ID),即该标识信息(如speaker ID)可以用于表征音色,该标识信息通过Look up Table(查找表)等方式配置编码。
风格可以根据TTS在业务场景的需求而设置,例如,豪放、喜悦、愤怒、激昂,等等,该风格也可以通过Look up Table(查找表)等方式配置编码。
当然,为提高TTS在业务场景的精确度,也可以通过业务场景(如短视频、游戏、新闻、小说等)的渠道采集说话者在指定风格下说话时记录的音频信号,并将该音频信号内容通过人工标注、语音识别等方式转换为文本信息、将音频信号转换为频谱特征,本实施例对此不加以限制。
此外,这些语音信号可以是同一种语言(如中文)下的语音信号,也可以是不同语言(如中文、英文)下的语音信号。
为便于区分,可将说话者划分为第一说话者、第二说话者,第一说话者通常为来源于通用的渠道的说话者,第二说话者来源于业务场景的说话者,在某次训练中,说话者包括多个第一说话者、一个或多个第二说话者。
此时,可从预设的语料库中提取多个第一说话者在指定风格下说话时记录的音频信号、表达音频信号内容的文本信息,其中,语料库可以指存储有语音信号与文本内容之间映射关系的数据库。
通过FFT等方式分别将多个第一说话者对应的音频信号转换为频谱特征。
此外,录制第二说话者说话时记录的、指定数量的音频信号,其中,音频信号的数量较少,可表现为小于或等于预设的阈值(如5),即通过作为语音克隆的目标的第二说话者少量的音频信号(如5句话)训练声学模型、声码器。
通过人工标注、分类器等方式对音频信号标记第二说话者的风格,通过人工标注、语音识别等方式生成音频信号内容的文本信息,通过FFT等方式将第二说话者对应的音频信号转换为频谱特征。
需要说明的是,可以同时使用第一说话者、第二说话者的数据集(音频信号、文本信息、频谱特征)训练的声学模型、声码器,也可以在先使用第一说话者的数据集(音频信号、文本信息、频谱特征)训练的声学模型、声码器,后续基于迁移学习、持续学习等方式使用第二说话者的数据集(音频信号、文本信息、频谱特征)对声学模型、声码器进行调整,本实施例对此不加以限制。
使用多说话者的大型语料库训练声码器,多说话者的大型语料库可以包含中文语料库、也可以包含英文语料库等不同语言的语料库,使用作为音色克隆的目标的说话者的少量音频信号作为开发集来TTS进行调整,可以利用early stopping早停法来防止TTS过度拟合。
步骤102、从文本信息提取表征语言学的特征,作为语言信息。
在语言学的维度下,从文本信息提取特征,记为语言信息,以便用于训练TTS。
在本发明的一个实施例中,可以采用细粒度的语言信息来更好地利用语料,提高语音合成的自然性,提高TTS在合成语音信号时的自然性,而细粒度的语言信息包括发音特征(包括音素、分类标记)和韵律结构(以韵律标记表示),则在本实施例中,步骤102包括如下步骤:
步骤1021、确定字典。
在本实施例中,可以预先通过如下方式训练较小的字典来构造通用发音空间,在线将字典加载至内存:
一、发音特征
基于音素的TTS在性能上明显优于基于字符或者字节的TTS,音素可减轻TTS从文本信息中提取特征的学习难度,在本实施例中,可以用带有音调的音素作为发音特征,音调附加在音素上,因此,字典分别记载文字与音素之间的映射关系、音调与音素之间的映射关系。
进一步地,音素可以利用不同语言之间的发音相似性来处理不同语言(如中文和英文等)的语料(同一音素),具体而言,若多种语言的多种文字的发音相似或相同,则将多种文字映射至同一音素,在字典中记录多种文字与同一音素之间的映射关系。
例如,中文的“妈妈”和英文的“mom”发音相似,可映射至同一因素,中文的“赔”和英文“pay”发音相似,可映射至同一因素。
此外,考虑到中文(普通话)发音的更多特征,考虑了具有不同初始和最终口型(例如前鼻音和后鼻音)的音素以及中文(普通话)中其他独特的发音细节,协同发音也被表示为额外的音调。
具体而言,可查询各个文字发音的属性,若发音的属性为协同发音,则将协同发音作为额外的音调、映射至指定的音素,在字典中记录额外的音调与该指定的音素之间的映射关系。
例如,“算”字的拼音“suan”,“算”的发音中具有/s/、/w/,/w/是/s/协同发音,而不是真的存在一个独立的辅音/w/,“算”的发音是[swan],在这个字的发音里面是没有一个完整的/w/的地位的,因此,可将/w/映射至指定的因素。
二、韵律结构
韵律结构包括层次韵律边界和句子类型,示例性地,可采用了基于4级的普通话韵律标准,包括韵律词(PW),韵律短语(PP),声调短语(IP)和句子(UTT)。
此外,考虑到标点符号对于发音的时长具有一定影响,因此,可以根据逗号、分号和问号等标点符号对句子进行分类,在字典记载标点符号与分类标记之间的映射关系,从而提高预测发音时间的准确性
例如,将逗号映射为分类标记100、将分号映射至分类标记101,等等。
步骤1022、识别文本信息中的文字、标点符号。
在本实施例中,可以通过Unicode等编码方式对文本信息进行划分,标记该文本信息中包含的文字、标点符号。
对于不同的语言,划分文字的方式有所不同,例如,对于中文,以单个汉字作为文字,对于英文,以单个单词作为文字,等等。
对于不同的语言,标点符号也有所不同,例如,逗号“,”、句号“。”、问号“?”、感叹号“!”等等。
步骤1023、在字典中查询文字对应的音素、文字的音调对应的音素,将文字替换为文字对应的音素、文字的音调对应的音素。
针对当前的文字,可以通过自然语言处理查询该文字的音调,在字典中,查询文字与音素的映射关系,从而在该映射关系中,查询当前的文字映射的音素,查询当前文字的音调映射的音素,将当前的文字的音素,当前文字的音调的音素替换当前文字。
进一步地,若字典中将协同发音作为额外的音调映射至指定的音素,则可以查询文字发音的属性,若发音的属性为协同发音,则将协同发音作为额外的音调、在字典中查询额外的音调对应的音素。
步骤1024、在字典中查询标点符号对应的分类标记,将标点符号替换为标点符号对应的分类标记。
在字典中,查询标点符号与分类标记的映射关系,从而在该映射关系中,查询当前标点符号映射的分类标记,将当前的分类标记替换当前的标点符号。
步骤1025、在文本信息中添加表示韵律结构的韵律标记。
查询文本信息的韵律结构,从而韵律结构的节点位置添加相应的韵律标记。
例如,文本信息为“什么APP那种?”则其语言信息为“sh-e-n2 m-e5 #1 EY0 P1-IY1 P1-IY1 #1 n-a4 zh-o-ng3 #4 wh”。
其中,以“sh-e-n2”为例,“sh-e-n”为“什”的音素,“2”为“什”的音调的音素,wh为问号“?”的分类标记,#1为词边界(分词结果),#4为长句边界(长停顿,一般在句尾)。
在本实施例中,我们基于DurIAN网络对多说话者、多风格的TTS进行建模,并使用细粒度的语言建模来构建发音空间,细粒度的语言信息可以充分利用中英文等不同语言在发音的相似之处,赋予TTS更强的建模能力,细粒度的语言信息在结合多语语料库的同时,提高了语音合成的质量和自然性,提高了语音合成的性能。
步骤103、以语言信息、说话者的风格作为样本、音频信号的时长作为标签,训练时间预测网络。
在本实施例中,应用DurIAN网络作为TTS的声学模型,DurIAN网络是一种多模态的合成框架,结合了传统参数式语音合成技术以及端到端语音合成技术,使用类似参数式语音合成技术的对齐模块,替换了端到端模型中的注意力模块,从而对于合成中的音素丢失或跳过问题具有鲁棒性,可以合成非常自然的语音。
进一步而言,DurIAN网络使用Skip Encoder架构同时编码音素序列以及中文韵律信息,支持细粒度的不同style(风格)的语音合成任务。
如图2所示,DurIAN网络包括时间预测模型,该时间预测网络用于预测说话者在指定的风格下说文本信息时的时长。
针对某个说话者,以其文本信息的语言信息(Phoneme Sequence)、说话者(Speaker ID)的风格(Style Code)作为训练的样本、音频信号实际的时长作为标签Tag,通过监督学习训练时间预测网络。
在本发明的一个实施例中,步骤103包括如下步骤:
步骤1031、将语言信息、说话者的风格输入至时间预测网络,以预测说话者在风格下说文本信息时的时长,作为预测时长。
在本实施例中,如图2所示,针对某个说话者,将其文本信息的语言信息(PhonemeSequence)、说话者(Speaker ID)的风格(Style Code)输入时间预测网络中,时间预测网络对语言信息(Phoneme Sequence)、说话者(Speaker ID)的风格(Style Code)进行处理,输出说话者在风格下说文本信息时的时长,记为预测时长(Phoneme Duration)。
在具体实现中,如图2所示,时间预测网络包括编码层Embedding、第一双向长短期记忆网络BLSTM、第二双向长短期记忆网络BLSTM、第三双向长短期记忆网络BLSTM、量化层Quantize。
将文本信息的语言信息(Phoneme Sequence)输入编码层Embedding中,编码为文本向量,将说话者(Speaker ID)的风格(Style Code)与文本向量同时输入第一双向长短期记忆网络BLSTM中进行处理,获得第一时序特征,将第一时序特征输入第二双向长短期记忆网络BLSTM中进行处理,获得第二时序特征,将第二时序特征输入第三双向长短期记忆网络BLSTM中进行处理,获得第三时序特征,将第三时序特征输入量化层Quantize中,量化为时长,记为预测时长(Phoneme Duration)。
步骤1032、测量音频信号的时长,作为真实时长。
对于与文本信息配套的音频信号,可测量该音频信号实际的时长,记为真实时长(Phoneme Duration)。
步骤1033、计算预测时长与真实时长之间的差异,作为时长损失值。
将预测时长与真实时长代入预设的损失函数中,计算损失值LOSS,记为时长损失值。
由于频谱特征(如梅尔频谱图)的长度要远远大于输入的音素的长度,因此,在本实施例可以应用LR(length regulator,长度调节器)。
具体而言,定义一个音素对应的频谱特征的帧数为phoneme duration(音素持续的时长)。假设每个音素的phoneme duration是已知的,且设为d,LR将每个音素对应的state(状态)复制d次,这样状态的数量就和输出频谱特征的帧数是相等的。
设音素的状态序列为:
Hpho=[h1,h2,…,hn]
其中,n为音素所组成的序列的长度。
设音素对应的phoneme duration为:
D=[d1,d2,…,dn]
满足:
其中,m为频谱特征的长度。
则LR的输出定义为:
Hmel=LR(Hpho,D,α)
其中,α是一个超参数,可以用来调节语速,例如,α=1就是正常的语速,α变大则语速变慢,α变小则语速变快。
在训练时,phoneme duration(即真实时长)是已知的,但在合成语音的时候phoneme duration却是未知的,因此,使用时间预测网络来预测phoneme duration(即预测时长)。
真实时长与预测时长之间的attention alignment(注意一致性)实际上是有很多个的,本实施例将attention weight(注意权重)分布在对角上的alignment(一致性),因此,为了找出这种alignment,可定义了focus rate(聚焦率)作为时长损失值:
其中,S为真实时长,T为预测时长,as,t是attention matrix(注意力矩阵)第s行第t列的值。
步骤1034、判断时长损失值是否收敛;若是,则执行步骤1035,若否,则执行步骤1036。
步骤1035、确定完成训练时间预测网络。
步骤1036、更新时间预测网络,返回执行步骤1031。
在本实施例中,可预先对于时长损失值可以设置表示收敛的条件,例如,时长损失值小于第一时长阈值,相邻时长损失值之间的差异记为时长变化幅度、连续多个时长变化幅度均小于第二时长阈值,迭代时长损失值的次数超过第三时长阈值,等等。
示例性地,若使用focus rate作为时长损失值,在所有attention matrix中挑选F值最大的那个作为最终的alignment。
有了alignment,可以使用如下的式子计算d:
这样子,可以获得训练数据对应的phoneme duration。
在每次迭代中,可以判断当前的时长损失值是否满足该条件。
如果满足该条件,则时长损失值收敛,此时,确认时间预测网络训练完成,存储该时间预测网络的结构及其参数。
如果不满足该条件,则对时间预测网络进行反向传播,通过以随机梯度下降(stochastic gradient descent,SGD)算法为代表的手动设定学习率的优化方式,或者,以自适应矩估计(Adaptive Moment Estimation,Adam)为代表的自适应设定学习率更新时间预测网络的参数,进入下一次迭代。
步骤104、若完成训练时间预测网络,则以语言信息、说话者的风格作为样本、频谱特征作为标签,训练频谱预测网络。
在本实施例中,如图2所示,DurIAN网络包括频谱预测网络,该频谱预测网络用于预测说话者在指定的风格下说文本信息时、符合指定时长的频谱特征。
对于DurIAN网络,如果对时间预测网络和频谱预测网络联合训练,会导致不自然的韵律合成结果,在本实施例中,分离训练时间预测网络和频谱预测网络,即先训练事件预测网络,再训练频谱预测网络,解耦训练可确保预测时长更加准确,那么,在合成语音信号时,可以获得更加自然的韵律。
针对某个说话者,以其文本信息的语言信息(Phoneme Sequence)、说话者(Speaker ID)的风格(Style Code)作为训练的样本、音频信号实际的频谱特征作为标签Tag,通过监督学习训练频谱预测网络。
在本发明的一个实施例中,步骤104包括如下步骤:
步骤1041、将语言信息、说话者的风格输入至时间预测网络,以预测说话者在风格下说文本信息时的时长,作为预测时长。
在本实施例中,如图2所示,针对某个说话者,将其文本信息的语言信息(PhonemeSequence)、说话者(Speaker ID)的风格(Style Code)输入已训练完成的时间预测网络中,时间预测网络对语言信息(Phoneme Sequence)、说话者(Speaker ID)的风格(Style Code)进行处理,输出说话者在风格下说文本信息时的时长,记为预测时长(Phoneme Duration)。
步骤1042、将语言信息、说话者的风格、预测时长输入频谱预测网络中,以预测说话者在风格下说文本信息时、符合预测时长的频谱特征。
在本实施例中,针对某个说话者,将其文本信息的语言信息(Phoneme Sequence)、说话者(Speaker ID)的风格(Style Code)、预测时长(Phoneme Duration)输入频谱预测网络中,频谱预测网络对语言信息(Phoneme Sequence)、说话者(Speaker ID)的风格(StyleCode)、预测时长(Phoneme Duration)进行处理,输出说话者在风格下说文本信息时、符合预测时长(Phoneme Duration)的频谱特征(如梅尔频谱图)。
在具体实现,如图2所示,频谱预测网络包括如下结构:
1、跳跃编码器Skip Encoder
将语言信息(Phoneme Sequence)输入跳跃编码器Skip Encoder中,如文字的音素、音调的音素、韵律结构等,跳跃编码器Skip Encoder将其编码为语言特征(隐状态的序列)。
进一步地,跳跃编码器Skip Encoder包括如下结构:
1.1、编码层Embedding
将语言信息(Phoneme Sequence)输入编码器中Embedding中,编码器中Embedding将语言信息编码为语言向量。
1.2、预处理网络Pre-net
将语言向量输入预处理网络Pre-net中,预处理网络Pre-net对语言向量进行非线性转换。
1.3、CBHG模块
将语言向量输入CBHG模块中,CBHG模块从语言向量中提取特征,作为语言特征。
1.4、Skip State网络
将语言特征输入Skip State网络中,Skip State网络决定是否跳跃语言特征中的某帧特征。
2、对齐网络State Expansion
将说话者(Speaker ID)的风格(Style Code)以编码的形式添加到语言特征中,此后,将语言特征与预测时长(Phoneme Duration)进行对齐,即,将语言特征按照预测时长(Phoneme Duration)的帧数进行扩充,获得与频谱特征(如梅尔频谱图)对的帧数一致的序列信息,使得语言特征与频谱特征(如梅尔频谱图)对齐。
其中,扩充的方法是将语言特征根据按照预测时长(Phoneme Duration)的帧数进行复制。
3、解码器Decoder
将与预测时长(Phoneme Duration)对齐的语言特征输入到解码器中,解码器进行自回归的方式解码,生成TTS的中间输出。
进一步地,解码器Decoder包括如下结构:
3.1、预处理网络Pre-net
将上一帧的频谱特征输入到预处理网络Pre-net,预处理网络Pre-net对该频谱特征进行非线性转换。
对于首次迭代,上一帧的频谱特征为空,对于非首次迭代,上一帧的频谱特征上一次迭代中RNN输出的频谱特征。
3.2、RNN(循环神经网络)
RNN为并行waveRNN模型,可以提升语言信号的合成速度。
对于首次迭代,将与预测时长(Phoneme Duration)对齐的语言特征、上一帧频谱特征输入到RNN中,RNN预测频谱特征。
对于非首次迭代,将上一帧频谱特征输入到RNN中,RNN预测频谱特征。
如果没有处理完,则进入下一次迭代,如果已处理完,则输出所有的频谱特征。
4、Post-Net网络
Post-net网络用来将中间输出转换成目标输出,在本实施例中,输出与作为声码器的HiFi-GAN网络匹配的频谱特征。
步骤1043、计算预测的频谱特征与由音频信号转换的频谱特征之间的差异,作为频谱损失值。
将预测的频谱特征与由音频信号转换的、真实的频谱特征预设的损失函数中,计算损失值LOSS,记为频谱损失值。
示例性地,频谱损失值L包括两部分,计算方式如下:
其中,T为频谱特征的帧数,y为真实的频谱特征,y'为预测的频谱特征,r为y'输入Post-net网络的残差信息,(y'+r)可理解为增加了残差信息的频谱特征。
步骤1044、判断频谱损失值是否收敛;若是,则执行步骤1045,若否,则执行步骤1046。
步骤1045、确定完成训练频谱预测网络;
步骤1046、更新频谱预测网络,返回执行步骤1041。
在本实施例中,可预先对于频谱损失值可以设置表示收敛的条件,例如,频谱损失值小于第一频谱阈值,相邻频谱损失值之间的差异记为频谱变化幅度、连续多个频谱变化幅度均小于第二频谱阈值,迭代频谱损失值的次数超过第三频谱阈值,等等。
在每次迭代中,可以判断当前的频谱损失值是否满足该条件。
如果满足该条件,则频谱损失值收敛,此时,确认频谱预测网络训练完成,存储该频谱预测网络的结构及其参数。
如果不满足该条件,则对频谱预测网络进行反向传播,通过以随机梯度下降算法为代表的手动设定学习率的优化方式,或者,以自适应矩估计为代表的自适应设定学习率更新频谱预测网络的参数,在反向传播时,截止频谱预测网络,并不更新时间预测网络,进入下一次迭代。
步骤105、若完成训练频谱预测网络,则将时间预测网络、频谱预测网络设置为声学模型。
若首先完成训练时间预测网络,然后完成训练频谱预测网络,则可以将时间预测网络、频谱预测网络设置为TTS中的声学模型,即,将DurIAN网络设置为TTS中的声学模型,存储DurIAN网络的结构及其参数。
步骤106、以频谱特征作为样本、音频信号作为标签,训练HiFi-GAN网络。
步骤107、若完成训练HiFi-GAN网络,则将HiFi-GAN网络设置为声码器。
训练TTS的声码器主要有两个挑战,一是语音数据集的嘈杂数据集和有限数量的样本,在本实施例中,可选择合成质量高、速度快的HiFi-GAN网络作为TTS的声码器。
语音信号由很多不同周期的正弦信号组成,HiFi-GAN网络对于音频周期模式进行建模可提高音频质量,并且,HiFi-GAN网络生成语音信号的速度快。
如图2所示,针对某个说话者,以其说话时的频谱特征作为训练的样本、说话时的频谱特征作为标签Tag,通过监督学习训练HiFi-GAN网络,HiFi-GAN网络用于根据频谱特征预测语音信号。
在具体实现中,HiFi-GAN网络包括一个生成器、两个鉴别器,每个鉴别器有子鉴别器来生成一段固定周期的音频信号,该鉴别器分别为尺度检测器、多周期检测器。
其中,生成器是一个卷积神经网络,输入是频谱特征(如梅尔频谱图),提升采样,直到输出帧数与指定的时长相同。
若完成HiFi-GAN网络,则可以将HiFi-GAN网络设置为TTS中的声码器,存储HiFi-GAN网络的结构及其参数。
一般情况下,可以使用与训练DurIAN网络相同的数据集训练HiFi-GAN网络,可以保证DurIAN网络与HiFi-GAN网络应用于TTS的性能,当然,为了提高训练效率,也可以使用其他数据集训练HiFi-GAN网络,使得可以直接转用其他项目已完成训练的HiFi-GAN网络,本实施例对此不加以限制。
进一步而言,在步骤106之前,为了获得更高的合成质量,可以对数据集进行如下至少一种预先处理:
1、利用基于能量的VAD(Voice Activity Detection,语音活动检测)等方式删除音频信号中表示静音的、较长的信号(即静音段)。
2、在音频信号中添加一些噪声信号,从而进行数据增强,以此来稳定训练过程并改善TTS的性能。
3、通过μ-law(μ律)等方式对音频信号进行非线性变换,使TTS在零附近具有更高的分辨率。
实施例二
图3为本发明实施例一提供的一种语音合成方法的流程图,本实施例可适用于应用DurIAN网络为TTS的声学模型、HiFi-GAN网络为TTS的声码器进行语音合成的情况,该方法可以由语音合成装置来执行,该语音合成装置可以由软件和/或硬件实现,可配置在计算机设备中,例如,服务器、工作站、个人电脑、移动终端(如手机、平板电脑、智能穿戴设备等),等等,具体包括如下步骤:
步骤301、确定待合成语音的文本信息、说出文本信息的说话者及风格。
在本实施例中,用户在客户端中选定待合成语音的文本信息,例如,小说中的内容、新闻中的内容、网页中的内容,等等,在客户端中可以显示TTS可提供的说话者及其风格,用户在客户端中可选定说话者及其风格,一个说话者可以表征一种音色,因此,用户选定说话者时,可以视为选定音色。
步骤302、从文本信息提取表征语言学的特征,作为语言信息。
在语言学的维度下,从文本信息提取特征,记为语言信息,以便TTS合成语音信号。
在本发明的一个实施例中,语言信息包括音素、分类标记、韵律标记,则在本实施例中,步骤302可以包括如下步骤:
步骤3021、确定字典。
其中,字典记载文字与音素、音调与音素、标点符号与分类标记之间的映射关系。
进一步地,若多种语言的多种文字的发音相似或相同,则将多种文字映射至同一音素,在字典中记录多种文字与同一音素之间的映射关系。
和/或,
查询各个文字发音的属性,若发音的属性为协同发音,则将协同发音作为额外的音调、映射至指定的音素,在字典中记录额外的音调与音素之间的映射关系。
步骤3022、识别文本信息中的文字、标点符号。
步骤3023、在字典中查询文字对应的音素、文字的音调对应的音素,将文字替换为文字对应的音素、文字的音调对应的音素。
若字典中将协同发音作为额外的音调映射至指定的音素,则可以查询文字发音的属性,若发音的属性为协同发音,则将协同发音作为额外的音调、在字典中查询额外的音调对应的音素。
步骤3024、在字典中查询标点符号对应的分类标记,将标点符号替换为标点符号对应的分类标记。
步骤3025、在文本信息中添加表示韵律结构的韵律标记。
在本实施例中,由于在合成语音信号时提取语言信息的方式与训练TTS时提取语言信息的方式的基本相似,所以描述的比较简单,相关之处参见训练TTS时提取语言信息的方式的部分说明即可,本实施例在此不加以详述。
步骤303、确定DurIAN网络为声学模型、HiFi-GAN网络为声码器。
在本实施例中,可以将DurIAN网络及其参数加载至内存运行,作为TTS中的声学模型,以及,将HiFi-GAN网络及其参数加载至内存运行,,作为TTS中的声码器。
步骤304、将语言信息输入作为声学模型的DurIAN网络中、转换为符合说话者在风格下说文本信息时的频谱特征。
在本实施例中,将语言信息输入作为声学模型的DurIAN网络中,DurIAN网络对该语音信息进行处理,输出为符合用户所选定的说话者(音色)在指定的风格下说文本信息时的频谱特征(如梅尔频谱图)。
在具体实现中,作为声学模型的DurIAN网络包括如下结构:
1、时间预测网络
将语言信息(Phoneme Sequence)、说话者(Speaker ID)的风格(Style Code)输入至时间预测网络,以预测说话者在指定的风格下说文本信息时的时长,作为预测时长(Phoneme Duration)。
进一步地,时间预测网络包括编码层Embedding、第一双向长短期记忆网络BLSTM、第二双向长短期记忆网络BLSTM、第三双向长短期记忆网络BLSTM、量化层Quantize。
将文本信息的语言信息(Phoneme Sequence)输入编码层Embedding中,编码为文本向量,将说话者(Speaker ID)的风格(Style Code)与文本向量同时输入第一双向长短期记忆网络BLSTM中进行处理,获得第一时序特征,将第一时序特征输入第二双向长短期记忆网络BLSTM中进行处理,获得第二时序特征,将第二时序特征输入第三双向长短期记忆网络BLSTM中进行处理,获得第三时序特征,将第三时序特征输入量化层Quantize中,量化为时长,记为预测时长(Phoneme Duration)。
2、频谱预测网络
将语言信息(Phoneme Sequence)、说话者(Speaker ID)的风格(Style Code)、预测时长(Phoneme Duration)输入频谱预测网络中,以预测说话者在风格下说文本信息时、符合预测时长的频谱特征(如梅尔频谱图)。
在具体实现,频谱预测网络包括如下结构:
1、跳跃编码器Skip Encoder
将语言信息(Phoneme Sequence)输入跳跃编码器Skip Encoder中,如文字的音素、音调的音素、韵律结构等,跳跃编码器Skip Encoder将其编码为语言特征。
进一步地,跳跃编码器Skip Encoder包括如下结构:
1.1、编码层Embedding
将语言信息(Phoneme Sequence)输入编码器中Embedding中,编码器中Embedding将语言信息编码为语言向量。
1.2、预处理网络Pre-net
将语言向量输入预处理网络Pre-net中,预处理网络Pre-net对语言向量进行非线性转换。
1.3、CBHG模块
将语言向量输入CBHG模块中,CBHG模块从语言向量中提取特征,作为语言特征。
1.4、Skip State网络
将语言特征输入Skip State网络中,Skip State网络决定是否跳跃语言特征中的某帧特征。
2、对齐网络
将说话者(Speaker ID)的风格(Style Code)以编码的形式添加到语言特征中,此后,将语言特征与预测时长(Phoneme Duration)进行对齐,使得语言特征与频谱特征(如梅尔频谱图)对齐。
3、解码器Decoder
将与预测时长(Phoneme Duration)对齐的语言特征输入到自回归的解码器中,解码器生成TTS的中间输出。
进一步地,解码器Decoder包括如下结构:
3.1、预处理网络Pre-net
将上一帧的频谱特征输入到预处理网络Pre-net,预处理网络Pre-net对该频谱特征进行非线性转换。
对于首次迭代,上一帧的频谱特征为空,对于非首次迭代,上一帧的频谱特征上一次迭代中RNN输出的频谱特征。
3.2、RNN(循环神经网络)
对于首次迭代,将与预测时长(Phoneme Duration)对齐的语言特征、上一帧频谱特征输入到RNN中,RNN预测频谱特征。
对于非首次迭代,将上一帧频谱特征输入到RNN中,RNN预测频谱特征。
如果没有处理完,则进入下一次迭代,如果已处理完,则输出所有的频谱特征。
4、Post-Net网络
Post-net网络用来将中间输出转换成目标输出,在本实施例中,输出与作为声码器的HiFi-GAN网络匹配的频谱特征。
在本实施例中,由于在合成语音信号时作为声学模型的DurIAN网络的运行方式与训练TTS时作为声学模型的DurIAN网络的运行方式的基本相似,所以描述的比较简单,相关之处参见训练TTS时作为声学模型的DurIAN网络的运行方式的部分说明即可,本实施例在此不加以详述。
步骤305、将频谱特征输入作为声码器的HiFi-GAN网络中、转换为符合说话者在风格下说文本信息时的语音信号。
在本实施例中,将作为声学模型的DurIAN网络输出的频谱特征输入至作为声码器的HiFi-GAN网络,作为声码器的HiFi-GAN网络对该频谱特征进行处理,输出说话者在风格下说文本信息时的语音信号。
在本实施例中,由于在合成语音信号时作为声码器的HiFi-GAN网络的运行方式与训练TTS时作为声码器的HiFi-GAN网络的运行方式的基本相似,所以描述的比较简单,相关之处参见训练TTS时作为声码器的HiFi-GAN网络的运行方式的部分说明即可,本实施例在此不加以详述。
应用本实施例进行了MOS(Mean Opinion Score,平均主观意见分)实验,依据合成的语音信号与作为音色克隆的目标的说话者的音色之间的相似度打分(5分制),在作为音色克隆的目标的说话者提供5句话训练TTS的情况下,本实施例合成语音信号的结果可以取得3.0255的分数。
在本实施例中,确定待合成语音的文本信息、说出所述文本信息的说话者及风格,从文本信息提取表征语言学的信息,作为语言信息,确定DurIAN网络为声学模型、HiFi-GAN网络为声码器,将语言信息输入作为声学模型的DurIAN网络中、转换为符合说话者在风格下说文本信息时的频谱特征,将频谱特征输入作为声码器的HiFi-GAN网络中、转换为符合说话者在风格下说文本信息时的语音信号,将DurIAN网络与HiFi-GAN网络结合在TTS中使用,在低资源的情况下,可以保证克隆音色的鲁棒性,提高语音合成的自然度和作为克隆目标的说话者的音色的相似度。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
实施例三
图4为本发明实施例三提供的一种语音合成装置的结构框图,具体可以包括如下模块:
合成数据确定模块401,用于确定待合成语音的文本信息、说出所述文本信息的说话者及风格;
语言信息提取模块402,用于从所述文本信息提取表征语言学的信息,作为语言信息;
合成系统确定模块403,用于确定DurIAN网络为声学模型、HiFi-GAN网络为声码器;
频谱特征生成模块404,用于将所述语言信息输入作为声学模型的所述DurIAN网络中、转换为符合所述说话者在所述风格下说所述文本信息时的频谱特征;
语音信号生成模块405,用于将所述频谱特征输入作为声码器的所述HiFi-GAN网络中、转换为符合所述说话者在所述风格下说所述文本信息时的语音信号。
在本发明的一个实施例中,所述语言信息包括音素、分类标记、韵律标记;
所述语言信息提取模块402包括:
字典确定模块,用于确定字典,所述字典记载文字与音素、音调与音素、标点符号与分类标记之间的映射关系;
文本信息识别模块,用于识别所述文本信息中的文字、标点符号;
音素转换模块,用于在所述字典中查询所述文字对应的音素、所述文字的音调对应的音素,将所述文字替换为所述文字对应的音素、所述文字的音调对应的音素;
分类标记转换模块,用于在所述字典中查询所述标点符号对应的分类标记,将所述标点符号替换为所述标点符号对应的分类标记;
韵律标记添加模块,用于在所述文本信息中添加表示韵律结构的韵律标记。
在本发明的一个实施例中,所述字典确定模块包括:
第一音素映射模块,用于若多种语言的多种文字的发音相似或相同,则将多种所述文字映射至同一音素;
第一映射关系记录模块,用于在字典中记录多种所述文字与同一所述音素之间的映射关系;
和/或,
发音属性查询模块,用于查询各个文字发音的属性;
第二音素映射模块,用于若所述发音的属性为协同发音,则将所述协同发音作为额外的音调、映射至指定的音素;
第二映射关系记录模块,用于在所述字典中记录额外的所述音调与所述音素之间的映射关系。
在本发明的一个实施例中,所述音素转换模块包括:
发音属性确定模块,用于查询所述文字发音的属性;
额外音素查询模块,用于若所述发音的属性为协同发音,则将所述协同发音作为额外的音调、在所述字典中查询额外的所述音调对应的音素。
在本发明的一个实施例中,所述频谱特征生成模块404包括:
时长确定模块,用于将所述语言信息、所述说话者的风格输入至所述时间预测网络,以预测所述说话者在所述风格下说所述文本信息时的时长,作为预测时长;
频谱特征确定模块,用于将所述语言信息、所述说话者的风格、所述预测时长输入所述频谱预测网络中,以预测所述说话者在所述风格下说所述文本信息时、符合所述预测时长的频谱特征。
在本发明的一个实施例中,所述DurIAN网络包括时间预测网络、频谱预测网络;
所述合成系统确定模块403包括:
数据集获取模块,用于获取说话者在指定风格下说话时记录的音频信号、表达所述音频信号内容的文本信息、由所述音频信号转换的频谱特征;
语言信息提取模块,用于从所述文本信息提取表征语言学的信息,作为语言信息;
时间预测网络训练模块,用于以所述语言信息、所述说话者的风格作为样本、所述音频信号的时长作为标签,训练所述时间预测网络;
频谱预测网络训练模块,用于若完成训练所述时间预测网络,则以所述语言信息、所述说话者的风格作为样本,所述频谱特征作为标签,训练所述频谱预测网络;
声学模型设置模块,用于若完成训练所述频谱预测网络,则将所述时间预测网络、所述频谱预测网络设置为声学模型;
生成网络训练模块,用于以所述频谱特征作为样本、所述音频信号作为标签,训练所述HiFi-GAN网络;
声码器设置模块,用于若完成训练所述HiFi-GAN网络,则将所述HiFi-GAN网络设置为声码器。
在本发明的一个实施例中,所述说话者包括多个第一说话者、一个或多个第二说话者;
所述数据集获取模块包括:
通用语料获取模块,用于从预设的语料库中提取所述第一说话者在指定风格下说话时记录的音频信号、表达所述音频信号内容的文本信息;
第一频谱特征转换模块,用于将所述第一说话者对应的所述音频信号转换为频谱特征;
目标语料获取模块,用于录制所述第二说话者说话时记录的、指定数量的音频信号,所述数量小于或等于预设的阈值;
风格标记模块,用于对所述音频信号标记所述第二说话者的风格;
文本生成模块,用于生成所述音频信号内容的文本信息;
第二频谱特征转换模块,用于将所述第二说话者对应的所述音频信号转换为频谱特征。
在本发明的一个实施例中,所述时间预测网络训练模块包括:
第一时长预测模块,用于将所述语言信息、所述说话者的风格输入至所述时间预测网络,以预测所述说话者在所述风格下说所述文本信息时的时长,作为预测时长;
时长测量模块,用于测量所述音频信号的时长,作为真实时长;
时长损失值计算模块,用于计算所述预测时长与所述真实时长之间的差异,作为时长损失值;
第一收敛判断模块,用于判断所述时长损失值是否收敛;若是,则调用第一完成确定模块,若否,则调用第一更新模块;
第一完成确定模块,用于确定完成训练所述时间预测网络;
第一更新模块,用于更新所述时间预测网络,返回调用所述第一时长预测模块。
在本发明的一个实施例中,所述频谱预测网络训练模块包括:
第二时长预测模块,用于将所述语言信息、所述说话者的风格输入至所述时间预测网络,以预测所述说话者在所述风格下说所述文本信息时的时长,作为预测时长;
频谱特征预测模块,用于将所述语言信息、所述说话者的风格、所述预测时长输入所述频谱预测网络中,以预测所述说话者在所述风格下说所述文本信息时、符合所述预测时长的频谱特征;
频谱损失值计算模块,用于计算预测的所述频谱特征与由所述音频信号转换的频谱特征之间的差异,作为频谱损失值;
第二收敛判断模块,用于判断所述频谱损失值是否收敛;若是,则调用第二完成确定模块,若否,则调用第二更新模块;
第二完成确定模块,用于确定完成训练所述频谱预测网络;
第二更新模块,用于更新所述频谱预测网络,返回调用所述第二时长预测模块。
在本发明的一个实施例中,所述合成系统确定模块403还包括:
静音信号删除模块,用于删除所述音频信号中表示静音的信号;
和/或,
噪声信号添加模块,用于在所述音频信号中添加噪声信号;
和/或,
非线性变换模块,用于对所述音频信号进行非线性变换。
本发明实施例所提供的语音合成装置可执行本发明任意实施例所提供的语音合成方法,具备执行方法相应的功能模块和有益效果。
实施例四
图5为本发明实施例四提供的一种计算机设备的结构示意图。图5示出了适于用来实现本发明实施方式的示例性计算机设备12的框图。图5显示的计算机设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的语音合成方法。
实施例五
本发明实施例五还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述语音合成方法的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,计算机可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (12)
1.一种语音合成方法,其特征在于,包括:
确定待合成语音的文本信息、说出所述文本信息的说话者及风格;
从所述文本信息提取表征语言学的特征,作为语言信息;
确定DurIAN网络为声学模型、HiFi-GAN网络为声码器;
将所述语言信息输入作为声学模型的所述DurIAN网络中、转换为符合所述说话者在所述风格下说所述文本信息时的频谱特征;
将所述频谱特征输入作为声码器的所述HiFi-GAN网络中、转换为符合所述说话者在所述风格下说所述文本信息时的语音信号。
2.根据权利要求1所述的方法,其特征在于,所述语言信息包括音素、分类标记、韵律标记;
所述从所述文本信息提取表征语言学的特征,作为语言信息,包括:
确定字典,所述字典记载文字与音素、音调与音素、标点符号与分类标记之间的映射关系;
识别所述文本信息中的文字、标点符号;
在所述字典中查询所述文字对应的音素、所述文字的音调对应的音素,将所述文字替换为所述文字对应的音素、所述文字的音调对应的音素;
在所述字典中查询所述标点符号对应的分类标记,将所述标点符号替换为所述标点符号对应的分类标记;
在所述文本信息中添加表示韵律结构的韵律标记。
3.根据权利要求2所述的方法,其特征在于,所述确定字典,包括:
若多种语言的多种文字的发音相似或相同,则将多种所述文字映射至同一音素;
在字典中记录多种所述文字与同一所述音素之间的映射关系;
和/或,
查询各个文字发音的属性;
若所述发音的属性为协同发音,则将所述协同发音作为额外的音调、映射至指定的音素;
在所述字典中记录额外的所述音调与所述音素之间的映射关系。
4.根据权利要求2所述的方法,其特征在于,所述在所述字典中查询所述文字对应的音素、所述文字的音调对应的音素,包括:
查询所述文字发音的属性;
若所述发音的属性为协同发音,则将所述协同发音作为额外的音调、在所述字典中查询额外的所述音调对应的音素。
5.根据权利要求1-4中任一项所述的方法,其特征在于,所述DurIAN网络包括时间预测网络、频谱预测网络;
所述确定DurIAN网络为声学模型、HiFi-GAN网络为声码器,包括:
获取说话者在指定风格下说话时记录的音频信号、表达所述音频信号内容的文本信息、由所述音频信号转换的频谱特征;
从所述文本信息提取表征语言学的信息,作为语言信息;
以所述语言信息、所述说话者的风格作为样本、所述音频信号的时长作为标签,训练所述时间预测网络;
若完成训练所述时间预测网络,则以所述语言信息、所述说话者的风格作为样本,所述频谱特征作为标签,训练所述频谱预测网络;
若完成训练所述频谱预测网络,则将所述时间预测网络、所述频谱预测网络设置为声学模型;
以所述频谱特征作为样本、所述音频信号作为标签,训练所述HiFi-GAN网络;
若完成训练所述HiFi-GAN网络,则将所述HiFi-GAN网络设置为声码器。
6.根据权利要求5所述的方法,其特征在于,所述说话者包括多个第一说话者、一个或多个第二说话者;
所述获取说话者在指定风格下说话时记录的音频信号、表达所述音频信号内容的文本信息、由所述音频信号转换的频谱特征,包括:
从预设的语料库中提取所述第一说话者在指定风格下说话时记录的音频信号、表达所述音频信号内容的文本信息;
将所述第一说话者对应的所述音频信号转换为频谱特征;
录制所述第二说话者说话时记录的、指定数量的音频信号,所述数量小于或等于预设的阈值;
对所述音频信号标记所述第二说话者的风格;
生成所述音频信号内容的文本信息;
将所述第二说话者对应的所述音频信号转换为频谱特征。
7.根据权利要求5所述的方法,其特征在于,所述以所述语言信息、所述说话者的风格作为样本、所述音频信号的时长作为标签,训练所述时间预测网络,包括:
将所述语言信息、所述说话者的风格输入至所述时间预测网络,以预测所述说话者在所述风格下说所述文本信息时的时长,作为预测时长;
测量所述音频信号的时长,作为真实时长;
计算所述预测时长与所述真实时长之间的差异,作为时长损失值;
判断所述时长损失值是否收敛;
若是,则确定完成训练所述时间预测网络;
若否,则更新所述时间预测网络,返回执行将所述语言信息、所述说话者的风格输入至所述时间预测网络,以预测所述说话者在所述风格下说所述文本信息时的时长,作为预测时长。
8.根据权利要求5所述的方法,其特征在于,所述以所述语言信息、所述说话者的风格作为样本、所述频谱特征作为标签,训练所述频谱预测网络,包括:
将所述语言信息、所述说话者的风格输入至所述时间预测网络,以预测所述说话者在所述风格下说所述文本信息时的时长,作为预测时长;
将所述语言信息、所述说话者的风格、所述预测时长输入所述频谱预测网络中,以预测所述说话者在所述风格下说所述文本信息时、符合所述预测时长的频谱特征;
计算预测的所述频谱特征与由所述音频信号转换的频谱特征之间的差异,作为频谱损失值;
判断所述频谱损失值是否收敛;
若是,则确定完成训练所述频谱预测网络;
若否,则更新所述频谱预测网络,返回执行所述将所述语言信息、所述说话者的风格输入至所述时间预测网络,以预测所述说话者在所述风格下说所述文本信息时的时长,作为预测时长。
9.根据权利要求5所述的方法,其特征在于,在所述以所述频谱特征作为样本、所述音频信号作为标签,训练所述HiFi-GAN网络之前,还包括:
删除所述音频信号中表示静音的信号;
和/或,
在所述音频信号中添加噪声信号;
和/或,
对所述音频信号进行非线性变换。
10.一种语音合成装置,其特征在于,包括:
合成数据确定模块,用于确定待合成语音的文本信息、说出所述文本信息的说话者及风格;
语言信息提取模块,用于从所述文本信息提取表征语言学的信息,作为语言信息;
合成系统确定模块,用于确定DurIAN网络为声学模型、HiFi-GAN网络为声码器;
频谱特征生成模块,用于将所述语言信息输入作为声学模型的所述DurIAN网络中、转换为符合所述说话者在所述风格下说所述文本信息时的频谱特征;
语音信号生成模块,用于将所述频谱特征输入作为声码器的所述HiFi-GAN网络中、转换为符合所述说话者在所述风格下说所述文本信息时的语音信号。
11.一种计算机设备,其特征在于,所述计算机设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-9中任一项所述的语音合成方法。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1-9中任一项所述的语音合成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110602393.3A CN113327574B (zh) | 2021-05-31 | 2021-05-31 | 一种语音合成方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110602393.3A CN113327574B (zh) | 2021-05-31 | 2021-05-31 | 一种语音合成方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113327574A true CN113327574A (zh) | 2021-08-31 |
CN113327574B CN113327574B (zh) | 2024-03-01 |
Family
ID=77422886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110602393.3A Active CN113327574B (zh) | 2021-05-31 | 2021-05-31 | 一种语音合成方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113327574B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113763924A (zh) * | 2021-11-08 | 2021-12-07 | 北京优幕科技有限责任公司 | 声学深度学习模型训练方法、语音生成方法及设备 |
CN116543749A (zh) * | 2023-07-05 | 2023-08-04 | 北京科技大学 | 一种基于堆栈记忆网络的多模态语音合成方法及系统 |
WO2024001307A1 (zh) * | 2022-06-29 | 2024-01-04 | 华为云计算技术有限公司 | 一种语音克隆方法、装置及相关设备 |
CN118471266A (zh) * | 2024-07-10 | 2024-08-09 | 北京海天瑞声科技股份有限公司 | 发音预测方法、发音预测装置、电子设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5682501A (en) * | 1994-06-22 | 1997-10-28 | International Business Machines Corporation | Speech synthesis system |
US20070112570A1 (en) * | 2005-11-17 | 2007-05-17 | Oki Electric Industry Co., Ltd. | Voice synthesizer, voice synthesizing method, and computer program |
US20150228271A1 (en) * | 2014-02-10 | 2015-08-13 | Kabushiki Kaisha Toshiba | Speech synthesis dictionary generation apparatus, speech synthesis dictionary generation method and computer program product |
CN112242134A (zh) * | 2019-07-01 | 2021-01-19 | 北京邮电大学 | 语音合成方法及装置 |
CN112365878A (zh) * | 2020-10-30 | 2021-02-12 | 广州华多网络科技有限公司 | 语音合成方法、装置、设备及计算机可读存储介质 |
CN112634856A (zh) * | 2020-12-10 | 2021-04-09 | 苏州思必驰信息科技有限公司 | 语音合成模型训练方法和语音合成方法 |
CN112863483A (zh) * | 2021-01-05 | 2021-05-28 | 杭州一知智能科技有限公司 | 支持多说话人风格、语言切换且韵律可控的语音合成装置 |
-
2021
- 2021-05-31 CN CN202110602393.3A patent/CN113327574B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5682501A (en) * | 1994-06-22 | 1997-10-28 | International Business Machines Corporation | Speech synthesis system |
US20070112570A1 (en) * | 2005-11-17 | 2007-05-17 | Oki Electric Industry Co., Ltd. | Voice synthesizer, voice synthesizing method, and computer program |
US20150228271A1 (en) * | 2014-02-10 | 2015-08-13 | Kabushiki Kaisha Toshiba | Speech synthesis dictionary generation apparatus, speech synthesis dictionary generation method and computer program product |
CN112242134A (zh) * | 2019-07-01 | 2021-01-19 | 北京邮电大学 | 语音合成方法及装置 |
CN112365878A (zh) * | 2020-10-30 | 2021-02-12 | 广州华多网络科技有限公司 | 语音合成方法、装置、设备及计算机可读存储介质 |
CN112634856A (zh) * | 2020-12-10 | 2021-04-09 | 苏州思必驰信息科技有限公司 | 语音合成模型训练方法和语音合成方法 |
CN112863483A (zh) * | 2021-01-05 | 2021-05-28 | 杭州一知智能科技有限公司 | 支持多说话人风格、语言切换且韵律可控的语音合成装置 |
Non-Patent Citations (1)
Title |
---|
JIE WANG ET AL.: "The Huya Multi-Speaker and Multi-Style Speech Synthesis System for M2voc Challenge 2020", 《IEEE》, pages 8608 - 8612 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113763924A (zh) * | 2021-11-08 | 2021-12-07 | 北京优幕科技有限责任公司 | 声学深度学习模型训练方法、语音生成方法及设备 |
CN113763924B (zh) * | 2021-11-08 | 2022-02-15 | 北京优幕科技有限责任公司 | 声学深度学习模型训练方法、语音生成方法及设备 |
WO2024001307A1 (zh) * | 2022-06-29 | 2024-01-04 | 华为云计算技术有限公司 | 一种语音克隆方法、装置及相关设备 |
CN116543749A (zh) * | 2023-07-05 | 2023-08-04 | 北京科技大学 | 一种基于堆栈记忆网络的多模态语音合成方法及系统 |
CN116543749B (zh) * | 2023-07-05 | 2023-09-15 | 北京科技大学 | 一种基于堆栈记忆网络的多模态语音合成方法及系统 |
CN118471266A (zh) * | 2024-07-10 | 2024-08-09 | 北京海天瑞声科技股份有限公司 | 发音预测方法、发音预测装置、电子设备及存储介质 |
CN118471266B (zh) * | 2024-07-10 | 2024-09-03 | 北京海天瑞声科技股份有限公司 | 发音预测方法、发音预测装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113327574B (zh) | 2024-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230043916A1 (en) | Text-to-speech processing using input voice characteristic data | |
CN111883110B (zh) | 语音识别的声学模型训练方法、系统、设备及介质 | |
CN108899009B (zh) | 一种基于音素的中文语音合成系统 | |
CN109979432B (zh) | 一种方言翻译方法及装置 | |
CN113327574B (zh) | 一种语音合成方法、装置、计算机设备和存储介质 | |
CN113327575B (zh) | 一种语音合成方法、装置、计算机设备和存储介质 | |
GB2557714A (en) | Determining phonetic relationships | |
CN112466279B (zh) | 一种英语口语发音自动纠正方法和装置 | |
Sangeetha et al. | Speech translation system for english to dravidian languages | |
CN112331207B (zh) | 服务内容监控方法、装置、电子设备和存储介质 | |
JP5180800B2 (ja) | 統計的発音変異モデルを記憶する記録媒体、自動音声認識システム及びコンピュータプログラム | |
CN118298796A (zh) | 语音合成模型的训练方法、语音合成方法、装置及可读介质 | |
Kayte et al. | Implementation of Marathi Language Speech Databases for Large Dictionary | |
Lin et al. | Hierarchical prosody modeling for Mandarin spontaneous speech | |
CN113948062B (zh) | 数据转换方法及计算机存储介质 | |
CN116052655A (zh) | 音频处理方法、装置、电子设备和可读存储介质 | |
TWI402824B (zh) | 中文自發性語音合成中發音變異產生之方法 | |
Sazhok et al. | Punctuation Restoration for Ukrainian Broadcast Speech Recognition System based on Bidirectional Recurrent Neural Network and Word Embeddings. | |
JP2006107353A (ja) | 情報処理装置および方法、記録媒体、並びにプログラム | |
JP4674609B2 (ja) | 情報処理装置および方法、プログラム、並びに記録媒体 | |
Taylor | Pronunciation modelling in end-to-end text-to-speech synthesis | |
Zhang et al. | Chinese speech synthesis system based on end to end | |
CN117094329B (zh) | 一种用于解决语音歧义的语音翻译方法及装置 | |
Carson-Berndsen | Multilingual time maps: portable phonotactic models for speech technology | |
CN115114933A (zh) | 用于文本处理的方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |