CN113781996A - 一种语音合成模型训练方法、装置及电子设备 - Google Patents
一种语音合成模型训练方法、装置及电子设备 Download PDFInfo
- Publication number
- CN113781996A CN113781996A CN202110962778.0A CN202110962778A CN113781996A CN 113781996 A CN113781996 A CN 113781996A CN 202110962778 A CN202110962778 A CN 202110962778A CN 113781996 A CN113781996 A CN 113781996A
- Authority
- CN
- China
- Prior art keywords
- data
- training
- speaker
- speech synthesis
- historical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 180
- 238000003786 synthesis reaction Methods 0.000 title claims abstract description 180
- 238000012549 training Methods 0.000 title claims abstract description 119
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000013508 migration Methods 0.000 claims abstract description 18
- 230000005012 migration Effects 0.000 claims abstract description 18
- 238000013135 deep learning Methods 0.000 claims description 16
- 235000014510 cooky Nutrition 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 9
- 238000007781 pre-processing Methods 0.000 description 9
- 230000011218 segmentation Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明公开了一种语音合成模型训练方法、装置及电子设备,所述方法包括:根据语音合成任务采集对应的训练数据,采用所述训练数据与语音合成任务对应的训练方式训练语音合成模型;所述语音合成模型包括:编码器、主解码器、N个次级解码器和说话人判别器;所述主解码器将编码器输出的特征信息解析为不包含说话人信息的声学特征,所述说话人判别器判别主解码器输出的声学特征来自哪个说话人,每个次级解码器分别与所述主解码器相连。本发明可以同时进行多说话人语音合成、纠正带有文本错误的数据集、还可以进行小数据迁移等多个语音合成任务,满足不同的语音合成需求,从而无需对每个语音合成任务单独进行模型创建和训练,提高模型训练的效率。
Description
技术领域
本发明涉及语音处理技术领域,具体而言,涉及一种语音合成模型训练方法、装置、电子设备及计算机可读介质。
背景技术
语音合成,又称文语转换(Text to Speech)技术,能将任意文字信息实时转化为标准流畅的语音朗读出来,相当于给机器装上了人工嘴巴。语音合成利用某一个音色的语音数据作为训练数据构造模型,实现文本转语音的功能。在语音合成时,首先需要对输入的文本进行处理,包括预处理、分词、词性标注、注音、韵律层级预测等,然后通过语音合成模型生成某一音色的特征,最后利用特征直接通过声码器合成声音或者从录音语料库中挑选单元进行拼接。
在语音合成领域,会有多种不同的语音合成任务,比如:实时率稿的多说话人语音合成、修正训练数据中的文本错、小数据迁移等。目前,对于不同的语音合成任务,需要单独创建和训练对应的语音合成模型,因此,亟需一种语音合成模型的训练方法,能够同时处理不同的语音合成任务。
发明内容
有鉴于此,本发明主要目的在于提出一种语音合成模型训练方法、装置、电子设备及计算机可读介质,以期至少部分地解决上述技术问题中的至少之一。
为了解决上述技术问题,本发明第一方面提出一种语音合成模型训练方法,所述方法包括:
根据语音合成任务采集对应的训练数据,所述训练数据包括:历史语音数据和对应的历史文本数据;
采用所述训练数据与语音合成任务对应的训练方式训练语音合成模型;
其中,所述语音合成模型包括:编码器、主解码器、N个次级解码器和说话人判别器;
所述主解码器将编码器输出的特征信息解析为不包含说话人信息的声学特征,所述说话人判别器判别主解码器输出的声学特征来自哪个说话人,每个次级解码器分别与所述主解码器相连。
根据本发明一种优选实施方式,所述语音合成模型为深度学习网络,所述主解码器和所述说话人判别器之间还包括梯度反转层,在训练深度学习网络时,所述梯度反转层将梯度的方向转置,以达到对抗学习的目的。
根据本发明一种优选实施方式,所述语音合成任务为多说话人语音合成,对应的训练数据为:多个说话人的历史语音数据和对应的历史文本数据;
对应的训练方式为:将所述历史文本数据输入所述编码器,并将不同说话人的历史语音数据分别输入不同的次级解码器中,训练所述语音合成模型。
根据本发明一种优选实施方式,所述语音合成任务为修正错误文本数据,对应的训练数据为:正确历史文本数据和至少一个错误历史文本数据;
对应的训练方式为:将正确历史文本数据和所述至少一个错误历史文本数据分别输入不同的次级解码器中训练所述语音合成模型。
根据本发明一种优选实施方式,所述语音合成任务为数据迁移,对应的训练数据为:第一场景的多个说话人标准数据和第二场景的多个说话人小数据;所述标准数据的数量大于第一数据量,所述小数据的数量小于第二数据量;
对应的训练方式为:
基于所述多个说话人标准数据训练所述语音合成模型;
固定训练好的语音合成模型中编码器、主解码器、梯度反转层和说话人判别器的参数,基于所述多个说话人小数据进行迁移训练。
根据本发明一种优选实施方式,所述方法还包括:
获取待合成文本;
根据待合成文本的语音合成任务选取对应训练方式训练好的语音合成模型;
根据待合成文本和选取的语音合成模型生成声学特征;
根据生成的声学特征进行语音合成。
为解决上述技术问题,本发明第二方面提供一种语音合成模型训练装置,所述装置包括:
采集模块,用于根据语音合成任务采集对应的训练数据,所述训练数据包括:历史语音数据和对应的历史文本数据;
训练模块,用于采用所述训练数据与语音合成任务对应的训练方式训练语音合成模型;
其中,所述语音合成模型包括:编码器、主解码器、N个次级解码器和说话人判别器;
所述主解码器将编码器输出的特征信息解析为不包含说话人信息的声学特征,所述说话人判别器判别主解码器输出的声学特征来自哪个说话人,每个次级解码器分别与所述主解码器相连。
根据本发明一种优选实施方式,所述语音合成模型为深度学习网络,所述主解码器和所述说话人判别器之间还包括梯度反转层,在训练深度学习网络时,所述梯度反转层将梯度的方向转置,以达到对抗学习的目的。
根据本发明一种优选实施方式,所述语音合成任务为多说话人语音合成;
所述采集模块,用于采集多个说话人的历史语音数据和对应的历史文本数据;
所述训练模块,用于将所述历史文本数据输入所述编码器,并将不同说话人的历史语音数据分别输入不同的次级解码器中,训练所述语音合成模型。
根据本发明一种优选实施方式,所述语音合成任务为修正错误文本数据;
所述采集模块,用于采集正确历史文本数据和至少一个错误历史文本数据;
所述训练模块,用于将正确历史文本数据和所述至少一个错误历史文本数据分别输入不同的次级解码器中训练所述语音合成模型。
根据本发明一种优选实施方式,所述语音合成任务为数据迁移;
所述采集模块,用于分别采集第一场景的多个说话人标准数据和第二场景的多个说话人小数据;所述标准数据的数量大于第一数据量,所述小数据的数量小于第二数据量;
所述训练模块,用于基于所述多个说话人标准数据训练所述语音合成模型;固定训练好的语音合成模型中编码器、主解码器、梯度反转层和说话人判别器的参数,基于所述多个说话人小数据进行迁移训练。
根据本发明一种优选实施方式,所述装置还包括:
获取模块,用于获取待合成文本;
选取模块,用于根据待合成文本的语音合成任务选取对应训练方式训练好的语音合成模型;
生成模块,用于根据待合成文本和选取的语音合成模型生成声学特征;
合成模块,用于根据生成的声学特征进行语音合成。
为解决上述技术问题,本发明第三方面提供一种电子设备,包括:
处理器;以及
存储计算机可执行指令的存储器,所述计算机可执行指令在被执行时使所述处理器执行上述的方法。
为解决上述技术问题,本发明第四方面提供一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,当所述一个或多个程序被处理器执行时,实现上述方法。
本发明根据语音合成任务采集对应的训练数据,并采用所述训练数据与语音合成任务对应的训练方式训练语音合成模型;其中,所述语音合成模型包括:编码器、主解码器、N个次级解码器、梯度反转层和说话人判别器;所述主解码器将编码器输出的特征信息解析为不包含说话人信息的声学特征,所述说话人判别器判别主解码器输出的声学特征来自哪个说话人,每个次级解码器分别与所述主解码器相连。通过本发明训练出的语音合成模型可以进行更快实时率的高质量多说话人语音合成、可以利用标准大数据集纠正带有文本错误的数据集、还可以进行小数据迁移等多个语音合成任务,满足不同的语音合成需求,从而无需对每个语音合成任务单独进行模型创建和训练,提高模型训练的效率。
附图说明
为了使本发明所解决的技术问题、采用的技术手段及取得的技术效果更加清楚,下面将参照附图详细描述本发明的具体实施例。但需声明的是,下面描述的附图仅仅是本发明的示例性实施例的附图,对于本领域的技术人员来讲,在不付出创造性劳动的前提下,可以根据这些附图获得其他实施例的附图。
图1是本发明实施例一种语音合成模型训练方法的流程示意图;
图2a是本发明实施例一种语音合成模型的结构框架示意图;
图2b是本发明实施例另一种语音合成模型的结构框架示意图;
图3是本发明实施例一种语音合成模型训练装置的结构框架示意图;
图4是根据本发明的一种电子设备的示例性实施例的结构框图;
图5是本发明一种计算机可读介质实施例的示意图。
具体实施方式
现在将参考附图来更加全面地描述本发明的示例性实施例,虽然各示例性实施例能够以多种具体的方式实施,但不应理解为本发明仅限于在此阐述的实施例。相反,提供这些示例性实施例是为了使本发明的内容更加完整,更加便于将发明构思全面地传达给本领域的技术人员。
在符合本发明的技术构思的前提下,在某个特定的实施例中描述的结构、性能、效果或者其他特征可以以任何合适的方式结合到一个或更多其他的实施例中。
在对于具体实施例的介绍过程中,对结构、性能、效果或者其他特征的细节描述是为了使本领域的技术人员对实施例能够充分理解。但是,并不排除本领域技术人员可以在特定情况下,以不含有上述结构、性能、效果或者其他特征的技术方案来实施本发明。
附图中的流程图仅是一种示例性的流程演示,不代表本发明的方案中必须包括流程图中的所有的内容、操作和步骤,也不代表必须按照图中所显示的的顺序执行。例如,流程图中有的操作/步骤可以分解,有的操作/步骤可以合并或部分合并,等等,在不脱离本发明的发明主旨的情况下,流程图中显示的执行顺序可以根据实际情况改变。
附图中的框图一般表示的是功能实体,并不一定必然与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
各附图中相同的附图标记表示相同或类似的元件、组件或部分,因而下文中可能省略了对相同或类似的元件、组件或部分的重复描述。还应理解,虽然本文中可能使用第一、第二、第三等表示编号的定语来描述各种器件、元件、组件或部分,但是这些器件、元件、组件或部分不应受这些定语的限制。也就是说,这些定语仅是用来将一者与另一者区分。例如,第一器件亦可称为第二器件,但不偏离本发明实质的技术方案。此外,术语“和/或”、“及/或”是指包括所列出项目中的任一个或多个的所有组合。
请参阅图1,图1是本发明提供的一种语音合成模型训练方法,如图1所示,所述方法包括:
S1、根据语音合成任务采集对应的训练数据;
本发明实施例中,语音合成任务指语音合成过程中要处理的任何任务,示例性的,语音合成任务可以包括:快实时率的高质量多说话人语音合成、纠正带有文本错误的数据集、进行小数据迁移等等,本发明不做具体限定。
其中,所述训练数据包括:历史语音数据和对应的历史文本数据。对于不同的语音合成任务,所要采集的训练数据也不同。
在一种示例中,语音合成任务为快实时率的高质量多说话人语音合成,则需要采集多个说话人的历史语音数据和对应的历史文本数据;所述多个说话人可以是预先指定的多个目标说话人,也可以是预先指定的一个目标说话人和与目标说话人语音相似的说话人。其中,目标说话人例如为:用户自己、用户的家人或朋友,或者,明星等本发明不做具体限定。
所述多说话人语音合成指向语音合成模型中输入不同说话人ID时,可输出不同音色的语音。其中,所述实时率=多说话人语音合成所用时间/输出语音时间。
在另一示例中,语音合成任务为修正错误文本数据,则需要采集正确历史文本数据和至少一个错误历史文本数据;其中,正确历史文本数据可以是:预存正确且数据量大于阈值的标准文本数据集;所述修正错误文本数据指通过正确文本数据纠正错误文本数据。
在又一示例中,语音合成任务为数据迁移,则需要分别采集第一场景的多个说话人标准数据和第二场景的多个说话人小数据;所述标准数据的数量大于第一数据量,所述小数据的数量小于第二数据量;其中,第一场景可以采集到足够多,比如大于第一数据量的多个说话人标准数据,第二场景只能采集到少量,比如小于第二数据量的多个说话人小数据。所述标准数据可以包括第一场景中多个说话人的历史语音数据和对应的历史文本数据,所述小数据可以包括第二场景中多个说话人的历史语音数据和对应的历史文本数据。所述第一场景例如可以是拥有足够数量的智能客服系统、智能导航系统等,所述第二场景例如可以是拥有较少数据量的指定语音服务系统,比如:语音早教系统、老年语音服务系统等。
进一步的,在采集到训练数据后,可以对所述训练数据进行预处理,方便后续对语音合成模型进行训练。
示例性的,所述预处理可以包括对历史语音数据的预处理和对历史文本数据的预处理,其中:对历史语音数据的预处理包括:
S11、对历史语音数据的加工处理;
所述加工处理包括:对历史语音数据的降噪处理和切分处理等。具体的降噪规则和切分规则可以预先设置。
S12、对加工后的历史语音数据进行特征提取;
示例性的,提取的特征包括:谱、基频、时长等声学特征。
对历史文本数据的预处理可以包括:对历史文本进行分词,提取历史文本数据的标注数据。
其中,对文本进行分层指将文本分成字符级别或音素级别。为了提高数据覆盖量,本发明历史文本数据的音素以韵母为单位。比如,输入文本为“ni xu yao shen me”,若文本以拼音为单位被分为音素级别,则“ni”“xu”“yao”“shen”“me”为五个不同的音素单元,这种音素系统共有460个左右不同音素。对于高数量数据,自然可以使用这种音素系统,但对于低数量数据,可能无法覆盖完全,因此,本发明实施例中,修改音素系统为以声韵母为单位。上例变为“n i x u y a o s h e n m e”这种音素系统下,只有80多个不同的音素,低数量数据仍然可以完全覆盖。
历史文本数据的标注数据是根据与历史语音数据对应的文本进行标注后得到的。具体的,在采集历史语音数据时,同时获取相应的历史文本数据,可以在已有的数据库中查找是否存在历史文本数据对应的标注数据,如果存在,则可以直接从已有的数据库中获取相应的标注数据作为历史文本标注数据,如果不存在,则可以采用人工标注或自动标注的方式,获取历史文本标注数据,自动标注的方式例如结合语音识别、自动边界切分等技术实现。文本标注数据例如包括对文本的拼音、韵律层级标注等。
S2、采用所述训练数据与语音合成任务对应的训练方式训练语音合成模型;
图2a为本发明实施例提供的一种语音合成模型的结构框架示意图,如图2a所示,所述语音合成模型包括:编码器、主解码器、N个次级解码器和说话人判别器;其中,编码器与主解码器相连,所述主解码器分别与所述N个次级解码器和说话人判别器相连。所述主解码器将编码器输出的特征信息解析为不包含说话人信息的声学特征,所述说话人判别器判别主解码器输出的声学特征来自哪个说话人,每个次级解码器分别与所述主解码器相连。其中,N为大于等于2的自然数。
在另一示例中,所述语音合成模型采用深度学习网络,如图2b所示,所述主解码器和所述说话人判别器之间还包括梯度反转层,在训练深度学习网络时,所述梯度反转层将梯度的方向转置,以达到对抗学习的目的。
本发明实施例中,语音合成任务不同,其对应的训练方式也不同。
在一种示例中,所述语音合成任务为多说话人语音合成,对应的训练方式为:
将所述历史文本数据输入所述编码器,并将不同说话人的历史语音数据分别输入不同的次级解码器中,训练所述语音合成模型。
以采用深度学习网络的语音合成模型(如图2b所示)为例,在输入编码器之前,对历史文本数据进行了预处理,得到文本中的语言特征的特征向量,将特征向量输入到基于深度学习网络的编码器中,编码器对特征向量进行提取和编码,就可以得到隐藏层的特征信息;将隐藏层的特征信息再输入到主解码器,所述主解码器尝试迷惑说话人判别器,将编码器输出的特征信息解析为不包含说话人信息的声学特征,所述说话人判别器判别主解码器输出的声学特征来自哪个说话人,同时,将进行了预处理的不同说话人的历史语音数据输入不同次级解码器中进行训练,其中,每个说话人对应一个次级解码器。
在训练过程中,需要输入大量训练数据训练说话人判别器,提高它的判别能力。同时还要训练生成主解码器,让它通过说话人判别器的反馈、不断提高合成的语音的质量。当主解码器能够合成出接近次级解码器中输入的说话人历史语音数据时,语音合成模型就完成训练的部分进而用来做推理。
实验表明,通过本发明训练的语音合成模型可以在更快的实时率下合成更好质量的语音。
在另一种示例种,所述语音合成任务为修正错误文本数据,对应的训练方式为:
将正确历史文本数据和所述至少一个错误历史文本数据分别输入不同的次级解码器中训练所述语音合成模型。
以采用深度学习网络的语音合成模型(如图2b所示)为例,对正确历史文本数据和错误历史文本数据进行预处理后,得到正确历史文本数据的语言特征的特征向量(记为第一特征向量)和错误历史文本数据的语言特征的特征向量(记为第二特征向量),分别将第一特征向量和第二特征向量输入不同的次级解码器中,比如:将第一特征向量输入次级解码器1,将第二特征向量输入次级解码器2中,对语音合成模型进行训练,则语音合成模型将正确的文本信息迁移到含有错误文本信息的数据集上。实验表明过本发明训练的语音合成模型可以有效修正文本错误的问题。
在又一种示例中,所述语音合成任务为数据迁移,对应的训练方式为:
基于所述多个说话人标准数据训练所述语音合成模型;固定训练好的语音合成模型中编码器、主解码器、梯度反转层和说话人判别器的参数,基于所述多个说话人小数据进行迁移训练。比如:对第一场景中多个说话人的历史语音数据和对应的历史文本数据进行预处理后,将预处理后的历史文本数据输入图2b所示的编码器中,同时,将预处理后的多个说话人的历史语音数据输入不同的次级解码器中,训练所述语音合成模型,固定训练好的语音合成模型中编码器、主解码器、梯度反转层和说话人判别器的参数,再将预处理后的第二场景中对应的历史文本数据输入编码器,同时将多个说话人的历史语音数据分别输入不同的次级解码器训练N个次级解码器,完成迁移训练。
本发明在训练好语音合成模型后,可以通过训练好的语音合成模型进行语音合成,则所述方法还包括以下步骤:
S3、获取待合成文本;
其中,待合成文本是需要合成语音的文本数据。
S4、根据待合成文本的语音合成任务选取对应训练方式训练好的语音合成模型;
具体语音合成任务与对应训练方式在步骤S2中已详细描述,此处不再赘述。
S5、根据待合成文本和选取的语音合成模型生成声学特征;
将待合成文本输入选取的语音合成模型的编码器中,即可输出声学特征。
S6、根据生成的声学特征进行语音合成。
示例性的,所述声学特征可以是频谱图,则本步骤将频谱图输入声码器,输出待合成文本的Waveform声波,得到合成语音。
图3是本发明一种语音合成模型训练装置,如图3所示,所述装置包括:
采集模块31,用于根据语音合成任务采集对应的训练数据,所述训练数据包括:历史语音数据和对应的历史文本数据;
训练模块32,用于采用所述训练数据与语音合成任务对应的训练方式训练语音合成模型;
其中,所述语音合成模型包括:编码器、主解码器、N个次级解码器和说话人判别器;
所述主解码器将编码器输出的特征信息解析为不包含说话人信息的声学特征,所述说话人判别器判别主解码器输出的声学特征来自哪个说话人,每个次级解码器分别与所述主解码器相连。
在一种实施方式中,所述语音合成模型为深度学习网络,所述主解码器和所述说话人判别器之间还包括梯度反转层,在训练深度学习网络时,所述梯度反转层将梯度的方向转置,以达到对抗学习的目的。其中,梯度反转层全称为:gradient reverse layer,缩写为:GRL,作用是在训练深度学习网络时,将梯度的方向转置,以达到对抗学习的目的。
在一种实施方式中,所述语音合成任务为多说话人语音合成;
所述采集模块31,用于采集多个说话人的历史语音数据和对应的历史文本数据;
所述训练模块32,用于将所述历史文本数据输入所述编码器,并将不同说话人的历史语音数据分别输入不同的次级解码器中,训练所述语音合成模型。
在一种实施方式中,所述语音合成任务为修正错误文本数据;
所述采集模块31,用于采集正确历史文本数据和至少一个错误历史文本数据;
所述训练模块32,用于将正确历史文本数据和所述至少一个错误历史文本数据分别输入不同的次级解码器中训练所述语音合成模型。
在一种实施方式中,所述语音合成任务为数据迁移;
所述采集模块31,用于分别采集第一场景的多个说话人标准数据和第二场景的多个说话人小数据;所述标准数据的数量大于第一数据量,所述小数据的数量小于第二数据量;
所述训练模块32,用于基于所述多个说话人标准数据训练所述语音合成模型;固定训练好的语音合成模型中编码器、主解码器、梯度反转层和说话人判别器的参数,基于所述多个说话人小数据进行迁移训练。
本发明实施例中,所述历史文本数据的音素以韵母为单位。
进一步的,所述装置还包括:
获取模块,用于获取待合成文本;
选取模块,用于根据待合成文本的语音合成任务选取对应训练方式训练好的语音合成模型;
生成模块,用于根据待合成文本和选取的语音合成模型生成声学特征;
合成模块,用于根据生成的声学特征进行语音合成。
本领域技术人员可以理解,上述装置实施例中的各模块可以按照描述分布于装置中,也可以进行相应变化,分布于不同于上述实施例的一个或多个装置中。上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
下面描述本发明的电子设备实施例,该电子设备可以视为对于上述本发明的方法和装置实施例的实体形式的实施方式。对于本发明电子设备实施例中描述的细节,应视为对于上述方法或装置实施例的补充;对于在本发明电子设备实施例中未披露的细节,可以参照上述方法或装置实施例来实现。
图4是根据本发明的一种电子设备的示例性实施例的结构框图。图4显示的电子设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,该示例性实施例的电子设备400以通用数据处理设备的形式表现。电子设备400的组件可以包括但不限于:至少一个处理单元410、至少一个存储单元420、连接不同电子设备组件(包括存储单元420和处理单元410)的总线430、显示单元440等。
其中,所述存储单元420存储有计算机可读程序,其可以是源程序或都只读程序的代码。所述程序可以被处理单元410执行,使得所述处理单元410执行本发明各种实施方式的步骤。例如,所述处理单元410可以执行如图1所示的步骤。
所述存储单元420可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)4201和/或高速缓存存储单元4202,还可以进一步包括只读存储单元(ROM)4203。所述存储单元420还可以包括具有一组(至少一个)程序模块4205的程序/实用工具4204,这样的程序模块4205包括但不限于:操作电子设备、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线430可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备400也可以与一个或多个外部设备100(例如键盘、显示器、网络设备、蓝牙设备等)通信,使得用户能经由这些外部设备100与该电子设备400交互,和/或使得该电子设备400能与一个或多个其它数据处理设备(例如路由器、调制解调器等等)进行通信。这种通信可以通过输入/输出(I/O)接口450进行,还可以通过网络适配器460与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)进行。网络适配器460可以通过总线430与电子设备400的其它模块通信。应当明白,尽管图4中未示出,电子设备400中可使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID电子设备、磁带驱动器以及数据备份存储电子设备等。
图5是本发明的一个计算机可读介质实施例的示意图。如图5所示,所述计算机程序可以存储于一个或多个计算机可读介质上。计算机可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的电子设备、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。当所述计算机程序被一个或多个数据处理设备执行时,使得该计算机可读介质能够实现本发明的上述方法,即:根据语音合成任务采集对应的训练数据,所述训练数据包括:历史语音数据和对应的历史文本数据;采用所述训练数据与语音合成任务对应的训练方式训练语音合成模型;其中,所述语音合成模型包括:编码器、主解码器、N个次级解码器和说话人判别器;所述主解码器将编码器输出的特征信息解析为不包含说话人信息的声学特征,所述说话人判别器判别主解码器输出的声学特征来自哪个说话人,每个次级解码器分别与所述主解码器相连。
通过以上的实施方式的描述,本领域的技术人员易于理解,本发明描述的示例性实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个计算机可读的存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台数据处理设备(可以是个人计算机、服务器、或者网络设备等)执行根据本发明的上述方法。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行电子设备、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语音的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语音包括面向对象的程序设计语音—诸如Java、C++等,还包括常规的过程式程序设计语音—诸如“C”语音或类似的程序设计语音。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
综上所述,本发明可以执行计算机程序的方法、装置、电子设备或计算机可读介质来实现。可以在实践中使用微处理器或者数字信号处理器(DSP)等通用数据处理设备来实现本发明的一些或者全部功能。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,本发明不与任何特定计算机、虚拟装置或者电子设备固有相关,各种通用装置也可以实现本发明。以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (14)
1.一种语音合成模型训练方法,其特征在于,所述方法包括:
根据语音合成任务采集对应的训练数据,所述训练数据包括:历史语音数据和对应的历史文本数据;
采用所述训练数据与语音合成任务对应的训练方式训练语音合成模型;
其中,所述语音合成模型包括:编码器、主解码器、N个次级解码器和说话人判别器;
所述主解码器将编码器输出的特征信息解析为不包含说话人信息的声学特征,所述说话人判别器判别主解码器输出的声学特征来自哪个说话人,每个次级解码器分别与所述主解码器相连。
2.根据权利要求1所述的方法,其特征在于,所述语音合成模型为深度学习网络,所述主解码器和所述说话人判别器之间还包括梯度反转层,在训练深度学习网络时,所述梯度反转层将梯度的方向转置,以达到对抗学习的目的。
3.根据权利要求1或2所述的方法,其特征在于,所述语音合成任务为多说话人语音合成,对应的训练数据为:多个说话人的历史语音数据和对应的历史文本数据;
对应的训练方式为:将所述历史文本数据输入所述编码器,并将不同说话人的历史语音数据分别输入不同的次级解码器中,训练所述语音合成模型。
4.根据权利要求1或2所述的方法,其特征在于,所述语音合成任务为修正错误文本数据,对应的训练数据为:正确历史文本数据和至少一个错误历史文本数据;
对应的训练方式为:将正确历史文本数据和所述至少一个错误历史文本数据分别输入不同的次级解码器中训练所述语音合成模型。
5.根据权利要求1或2所述的方法,其特征在于,所述语音合成任务为数据迁移,对应的训练数据为:第一场景的多个说话人标准数据和第二场景的多个说话人小数据;所述标准数据的数量大于第一数据量,所述小数据的数量小于第二数据量;
对应的训练方式为:
基于所述多个说话人标准数据训练所述语音合成模型;
固定训练好的语音合成模型中编码器、主解码器、梯度反转层和说话人判别器的参数,基于所述多个说话人小数据进行迁移训练。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述方法还包括:
获取待合成文本;
根据待合成文本的语音合成任务选取对应训练方式训练好的语音合成模型;
根据待合成文本和选取的语音合成模型生成声学特征;
根据生成的声学特征进行语音合成。
7.一种语音合成模型训练装置,其特征在于,所述装置包括:
采集模块,用于根据语音合成任务采集对应的训练数据,所述训练数据包括:历史语音数据和对应的历史文本数据;
训练模块,用于采用所述训练数据与语音合成任务对应的训练方式训练语音合成模型;
其中,所述语音合成模型包括:编码器、主解码器、N个次级解码器和说话人判别器;
所述主解码器将编码器输出的特征信息解析为不包含说话人信息的声学特征,所述说话人判别器判别主解码器输出的声学特征来自哪个说话人,每个次级解码器分别与所述主解码器相连。
8.根据权利要求7所述的装置,其特征在于,所述语音合成模型为深度学习网络,所述主解码器和所述说话人判别器之间还包括梯度反转层,在训练深度学习网络时,所述梯度反转层将梯度的方向转置,以达到对抗学习的目的。
9.根据权利要求7或8所述的装置,其特征在于,所述语音合成任务为多说话人语音合成;
所述采集模块,用于采集多个说话人的历史语音数据和对应的历史文本数据;
所述训练模块,用于将所述历史文本数据输入所述编码器,并将不同说话人的历史语音数据分别输入不同的次级解码器中,训练所述语音合成模型。
10.根据权利要求7或8所述的装置,其特征在于,所述语音合成任务为修正错误文本数据;
所述采集模块,用于采集正确历史文本数据和至少一个错误历史文本数据;
所述训练模块,用于将正确历史文本数据和所述至少一个错误历史文本数据分别输入不同的次级解码器中训练所述语音合成模型。
11.根据权利要求7或8所述的装置,其特征在于,所述语音合成任务为数据迁移;
所述采集模块,用于分别采集第一场景的多个说话人标准数据和第二场景的多个说话人小数据;所述标准数据的数量大于第一数据量,所述小数据的数量小于第二数据量;
所述训练模块,用于基于所述多个说话人标准数据训练所述语音合成模型;固定训练好的语音合成模型中编码器、主解码器、梯度反转层和说话人判别器的参数,基于所述多个说话人小数据进行迁移训练。
12.根据权利要求7-11任一项所述的装置,其特征在于,所述装置还包括:
获取模块,用于获取待合成文本;
选取模块,用于根据待合成文本的语音合成任务选取对应训练方式训练好的语音合成模型;
生成模块,用于根据待合成文本和选取的语音合成模型生成声学特征;
合成模块,用于根据生成的声学特征进行语音合成。
13.一种电子设备,包括:
处理器;以及
存储计算机可执行指令的存储器,所述计算机可执行指令在被执行时使所述处理器执行根据权利要求1-6中任一项所述的方法。
14.一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,当所述一个或多个程序被处理器执行时,实现权利要求1-6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110962778.0A CN113781996B (zh) | 2021-08-20 | 2021-08-20 | 一种语音合成模型训练方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110962778.0A CN113781996B (zh) | 2021-08-20 | 2021-08-20 | 一种语音合成模型训练方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113781996A true CN113781996A (zh) | 2021-12-10 |
CN113781996B CN113781996B (zh) | 2023-06-27 |
Family
ID=78838544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110962778.0A Active CN113781996B (zh) | 2021-08-20 | 2021-08-20 | 一种语音合成模型训练方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113781996B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114120973A (zh) * | 2022-01-29 | 2022-03-01 | 成都启英泰伦科技有限公司 | 一种语音语料生成系统训练方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107464569A (zh) * | 2017-07-04 | 2017-12-12 | 清华大学 | 声码器 |
CN112530403A (zh) * | 2020-12-11 | 2021-03-19 | 上海交通大学 | 基于半平行语料的语音转换方法和系统 |
CN112634856A (zh) * | 2020-12-10 | 2021-04-09 | 苏州思必驰信息科技有限公司 | 语音合成模型训练方法和语音合成方法 |
US20210142782A1 (en) * | 2019-11-13 | 2021-05-13 | Facebook Technologies, Llc | Generating a voice model for a user |
CN113053353A (zh) * | 2021-03-10 | 2021-06-29 | 重庆度小满优扬科技有限公司 | 一种语音合成模型的训练方法及装置 |
CN114360485A (zh) * | 2021-12-27 | 2022-04-15 | 北海淇诚信息科技有限公司 | 语音处理方法、系统、装置及介质 |
-
2021
- 2021-08-20 CN CN202110962778.0A patent/CN113781996B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107464569A (zh) * | 2017-07-04 | 2017-12-12 | 清华大学 | 声码器 |
US20210142782A1 (en) * | 2019-11-13 | 2021-05-13 | Facebook Technologies, Llc | Generating a voice model for a user |
CN112634856A (zh) * | 2020-12-10 | 2021-04-09 | 苏州思必驰信息科技有限公司 | 语音合成模型训练方法和语音合成方法 |
CN112530403A (zh) * | 2020-12-11 | 2021-03-19 | 上海交通大学 | 基于半平行语料的语音转换方法和系统 |
CN113053353A (zh) * | 2021-03-10 | 2021-06-29 | 重庆度小满优扬科技有限公司 | 一种语音合成模型的训练方法及装置 |
CN114360485A (zh) * | 2021-12-27 | 2022-04-15 | 北海淇诚信息科技有限公司 | 语音处理方法、系统、装置及介质 |
Non-Patent Citations (2)
Title |
---|
J CHO: "\"Learning Speaker Embedding from Text-to-Speech\"", 《ARXIV.ORG/ABS/2010.11221》 * |
陈梦楠: "\"基于深度学习的中文语音合成\"", 《中国优秀硕士学位论文全文数据库(信息科技辑)》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114120973A (zh) * | 2022-01-29 | 2022-03-01 | 成都启英泰伦科技有限公司 | 一种语音语料生成系统训练方法 |
CN114120973B (zh) * | 2022-01-29 | 2022-04-08 | 成都启英泰伦科技有限公司 | 一种语音语料生成系统训练方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113781996B (zh) | 2023-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7464621B2 (ja) | 音声合成方法、デバイス、およびコンピュータ可読ストレージ媒体 | |
CN112204653B (zh) | 通过机器学习的直接的语音到语音翻译 | |
CN105185372A (zh) | 个性化多声学模型的训练方法、语音合成方法及装置 | |
EP4029010B1 (en) | Neural text-to-speech synthesis with multi-level context features | |
CN110459202B (zh) | 一种韵律标注方法、装置、设备、介质 | |
CN116364055B (zh) | 基于预训练语言模型的语音生成方法、装置、设备及介质 | |
CN109754783A (zh) | 用于确定音频语句的边界的方法和装置 | |
US10521945B2 (en) | Text-to-articulatory movement | |
US20220328041A1 (en) | Training neural networks to predict acoustic sequences using observed prosody info | |
CN112102811B (zh) | 一种合成语音的优化方法、装置及电子设备 | |
CN112802446B (zh) | 音频合成方法及装置、电子设备和计算机可读存储介质 | |
CN112037755B (zh) | 一种基于音色克隆的语音合成方法、装置及电子设备 | |
CN113053357A (zh) | 语音合成方法、装置、设备和计算机可读存储介质 | |
CN111508466A (zh) | 一种文本处理方法、装置、设备及计算机可读存储介质 | |
US11960852B2 (en) | Robust direct speech-to-speech translation | |
CN113781996B (zh) | 一种语音合成模型训练方法、装置及电子设备 | |
CN112185340B (zh) | 语音合成方法、语音合成装置、存储介质与电子设备 | |
CN113436600A (zh) | 一种语音合成方法及装置 | |
CN116580698A (zh) | 基于人工智能的语音合成方法、装置、计算机设备及介质 | |
CN116129859A (zh) | 韵律标注方法、声学模型训练方法、语音合成方法及装置 | |
JP2022133447A (ja) | 音声処理方法、装置、電子機器及び記憶媒体 | |
CN113744713A (zh) | 一种语音合成方法及语音合成模型的训练方法 | |
EP1589524B1 (en) | Method and device for speech synthesis | |
Yu | Review of F0 modelling and generation in HMM based speech synthesis | |
US20230360643A1 (en) | Ontology Driven Contextual Automated Speech Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |