CN112927674A - 语音风格的迁移方法、装置、可读介质和电子设备 - Google Patents
语音风格的迁移方法、装置、可读介质和电子设备 Download PDFInfo
- Publication number
- CN112927674A CN112927674A CN202110077658.2A CN202110077658A CN112927674A CN 112927674 A CN112927674 A CN 112927674A CN 202110077658 A CN202110077658 A CN 202110077658A CN 112927674 A CN112927674 A CN 112927674A
- Authority
- CN
- China
- Prior art keywords
- phoneme
- audio
- acoustic
- acoustic feature
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000013508 migration Methods 0.000 title claims abstract description 20
- 230000005012 migration Effects 0.000 title claims abstract description 20
- 238000012549 training Methods 0.000 claims abstract description 143
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 103
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 103
- 238000012545 processing Methods 0.000 claims abstract description 46
- 239000011295 pitch Substances 0.000 claims description 78
- 238000004590 computer program Methods 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 12
- 230000010365 information processing Effects 0.000 abstract description 2
- 230000033764 rhythmic process Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 230000015654 memory Effects 0.000 description 9
- 239000000284 extract Substances 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000009826 distribution Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 5
- 238000001228 spectrum Methods 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Electrically Operated Instructional Devices (AREA)
- Document Processing Apparatus (AREA)
Abstract
本公开涉及一种语音风格的迁移方法、装置、可读介质和电子设备,涉及电子信息处理技术领域,该方法包括:获取目标文本和目标文本对应的第一音频,第一音频符合第一音色且具有目标风格,提取目标文本对应的音素序列,提取第一音频对应的初始声学特征序列,初始声学特征序列中包括每个音素对应的声学特征,声学特征用于指示该音素的韵律特征,按照第二音色的声学统计特征对初始声学特征序列进行处理,得到目标声学特征序列,将音素序列和目标声学特征序列,输入预先训练的语音合成模型,以得到语音合成模型输出的第二音频,第二音频符合第二音色且具有目标风格,语音合成模型为根据符合第二音色的语料训练得到的。
Description
技术领域
本公开涉及电子信息处理技术领域,具体地,涉及一种语音风格的迁移方法、装置、可读介质和电子设备。
背景技术
随着电子信息技术的不断发展,人们的娱乐生活也越来越丰富,阅读电子书已经成为了一种主流的阅读方式。为了使用户在不方便阅览电子书时,也能通过听觉来获取电子书中包括的信息,或者边读边听,从视觉和听觉两个维度来获取电子书中包括的信息,往往会为电子书预先录制对应的音频,以供用户收听。
电子书通常会根据其中的内容分为不同的风格,例如:科幻、悬疑等。相应的,朗读者在录制对应的音频时,也会按照电子书的风格进行录制,以使音频的风格与电子书的风格能够匹配。然而,由于录制成本和录制效率等原因,一部电子书对应的音频,往往只会由一个朗读者来进行录制,很难满足用户多样化的需求。若利用现有的语音合成方法来模拟其他朗读者朗读电子书的音频,由于语音合成需要借助原始音库,而原始音库通常是不带有风格的,会导致模拟出的音频的风格与电子书的风格不匹配。
发明内容
提供该发明内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该发明内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,本公开提供一种语音风格的迁移方法,所述方法包括:
获取目标文本和所述目标文本对应的第一音频,所述第一音频符合第一音色且具有目标风格;
提取所述目标文本对应的音素序列,所述音素序列中包括至少一个音素;
提取所述第一音频对应的初始声学特征序列,所述初始声学特征序列中包括每个所述音素对应的声学特征,所述声学特征用于指示该音素的韵律特征;
按照第二音色的声学统计特征对所述初始声学特征序列进行处理,得到目标声学特征序列,所述目标声学特征序列中包括每个所述音素对应的处理后的声学特征;
将所述音素序列和所述目标声学特征序列,输入预先训练的语音合成模型,以得到所述语音合成模型输出的第二音频,所述第二音频符合所述第二音色且具有所述目标风格,所述语音合成模型为根据符合所述第二音色的语料训练得到的。
第二方面,本公开提供一种语音风格的迁移装置,所述装置包括:
获取模块,用于获取目标文本和所述目标文本对应的第一音频,所述第一音频符合第一音色且具有目标风格;
第一提取模块,用于提取所述目标文本对应的音素序列,所述音素序列中包括至少一个音素;
第二提取模块,用于提取所述第一音频对应的初始声学特征序列,所述初始声学特征序列中包括每个所述音素对应的声学特征,所述声学特征用于指示该音素的韵律特征;
处理模块,用于按照第二音色的声学统计特征对所述初始声学特征序列进行处理,得到目标声学特征序列,所述目标声学特征序列中包括每个所述音素对应的处理后的声学特征;
合成模块,用于将所述音素序列和所述目标声学特征序列,输入预先训练的语音合成模型,以得到所述语音合成模型输出的第二音频,所述第二音频符合所述第二音色且具有所述目标风格,所述语音合成模型为根据符合所述第二音色的语料训练得到的。
第三方面,本公开提供一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现本公开第一方面所述方法的步骤。
第四方面,本公开提供一种电子设备,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现本公开第一方面所述方法的步骤。
通过上述技术方案,本公开首先获取目标文本,和目标文本对应的具有目标风格,且符合第一音色的第一音频,之后提取目标文本对应的音素序列,其中包括了至少一个音素,再提取第一音频对应的,包括了每个音素对应的声学特征的初始声学特征序列,声学特征用于指示该音素的韵律特征。进一步的按照第二音色的声学统计特征对初始声学特征序列进行处理,以得到包括了每个音素对应的处理后的声学特征的目标声学特征序列,最后将音素序列和目标声学特征序列,输入预先训练的语音合成模型,语音合成模型能够输出符合第二音色,且具有目标风格的第二音频,其中语音合成模型是根据符合第二音色的语料训练得到的。本公开利用目标文本和对应的符合第一音色、且具有目标风格的第一音频,合成符合第二音色,且具有目标风格的第二音频,从而利用不同的音色,按照相同的风格来演绎目标文本,能够在语音合成的过程中实现风格的迁移。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。在附图中:
图1是根据一示例性实施例示出的一种语音风格的迁移方法的流程图;
图2是根据一示例性实施例示出的另一种语音风格的迁移方法的流程图;
图3是根据一示例性实施例示出的另一种语音风格的迁移方法的流程图;
图4是根据一示例性实施例示出的一种语音合成模型的处理流程图;
图5是根据一示例性实施例示出的一种语音合成模型的框图;
图6是根据一示例性实施例示出的一种训练语音合成模型的流程图;
图7是根据一示例性实施例示出的另一种训练语音合成模型的流程图;
图8是根据一示例性实施例示出的一种语音风格的迁移装置的框图;
图9是根据一示例性实施例示出的另一种语音风格的迁移装置的框图;
图10是根据一示例性实施例示出的另一种语音风格的迁移装置的框图;
图11是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
图1是根据一示例性实施例示出的一种语音风格的迁移方法的流程图,如图1所示,该方法可以包括以下步骤:
步骤101,获取目标文本和目标文本对应的第一音频,第一音频符合第一音色且具有目标风格。
举例来说,首先获取目标文本和目标文本对应的第一音频。目标文本可以是一部电子书,也可以是一部电子书中的一个章节、一个片段或者一个句子,还可以是其他类型的文本,例如新闻、公众号文章、博客等。第一音频符合第一音色,且具有目标风格。可以理解为第一朗读者具有第一音色,第一音频即为第一朗读者按照目标风格朗读目标文本时录制的音频,其中,目标风格例如可以是言情、都市、古风、悬疑、科幻、军事、体育等。
步骤102,提取目标文本对应的音素序列,音素序列中包括至少一个音素。
示例的,针对目标文本,可以将目标文本输入预先训练的识别模型,以得到识别模型输出的,目标文本对应的音素序列。也可以在预先建立的字典中,查找目标文本中的每个字对应的音素,然后将每个字对应的音素组成目标文本对应的音素序列。其中,音素可以理解为根据每个字的发音划分出的语音单位,也可以理解为每个字对应的拼音中的元音和辅音。音素序列中,包括了目标文本中每个字对应的音素(一个字可以对应一个或多个音素)。以目标文本为“太阳出来了”为例。可以依次在字典中查找每个字对应的音素,从而确定音素序列为“taiyangchulaile”。
步骤103,提取第一音频对应的初始声学特征序列,初始声学特征序列中包括每个音素对应的声学特征,声学特征用于指示该音素的韵律特征。
示例的,可以通过信号处理的方式,对第一音频进行处理,以得到包括了每个音素对应的声学特征的初始声学特征序列。其中,声学特征可以包括音高(英文:Pitch)、音量(英文:Energy)、语速(英文:Duration)中的至少一种,还可以包括:噪声水平、音调、响度等。具体的,可以利用HTS(英文:HMM-based Speech Synthesis System),将第一音频按照音素序列中包括的音素进行划分,以得到每个音素对应的语速。还可以利用sox、librosa、straight等音频处理工具,对第一音频进行处理,以得到每个音素对应的音高和音量。
步骤104,按照第二音色的声学统计特征对初始声学特征序列进行处理,得到目标声学特征序列,目标声学特征序列中包括每个音素对应的处理后的声学特征。
步骤105,将音素序列和目标声学特征序列,输入预先训练的语音合成模型,以得到语音合成模型输出的第二音频,第二音频符合第二音色且具有目标风格,语音合成模型为根据符合第二音色的语料训练得到的。
示例的,由于不同的朗读者具有不同的音色,对应的声学特征的变化范围和变化幅度均不相同,可以理解为不同的音色,对应的声学特征服从的概率分布均不相同。因此,初始声学特征序列中包括的每个音素对应的声学特征,服从的是第一音色对应的声学特征的概率分布,很难满足第二音色对应的声学特征所服从的概率分布,也就是说很难根据初始声学特征序列来合成符合第二音色的音频。可以按照预先获得的,第二音色的声学统计特征,对初始声学特征序列中包括的每个音素对应的声学特征进行处理,得到目标声学特征序列,目标声学特征序列中包括每个音素对应的处理后的声学特征。其中,第二音色的声学统计特征,可以理解为预先根据大量符合第二音素的音频统计得到的,能够反映第二音色对应的声学特征所服从的概率分布的统计特征。声学统计特征可以包括第二音色的语速统计特征(例如:平均值和方差)、音高统计特征、音量统计特征。按照声学统计特征对每个音素对应的声学特征进行处理,可以理解为对每个音素对应的声学特征进行标准化(英文:Standardization),以使目标声学特征序列中包括的每个音素对应的处理后的声学特征,能够满足第二音色对应的声学特征所服从的概率分布。
之后,可以将音素序列和目标声学特征序列,输入预先训练的语音合成模型,语音合成模型输出的,即为符合第二音色,且具有目标风格的第二音频。其中,语音合成模型可以是预先训练的,可以理解成一种TTS(英文:Text To Speech,中文:从文本到语音)模型,能够根据音素序列和目标声学特征序列,生成第二音频。具体的,语音合成模型可以是基于Tacotron模型、Deepvoice 3模型、Tacotron 2模型、Wavenet模型等训练得到的,本公开对此不作具体限定。
需要说明的是,语音合成模型是根据符合第二音色的语料训练得到的,以第二朗读者具有第二音色来举例,符合第二音色的语料可以理解为,第二朗读者朗读任意文本时录制的音频。任意文本可以是和目标文本不相同的文本,并且第二朗读者在朗读任意文本时可以按照任意风格来朗读,即不需要按照目标风格来朗读。也就是说,可以利用已有的第二朗读者朗读的音频,来训练语音合成模型。这样,通过第二朗读者朗读其他文本的语料来训练语音合成模型,在对目标文本进行语音合成的过程中,考虑了目标文本中包括的语义,又考虑了根据第一音频确定的目标声学特征序列,能够使第二音频符合第二音色,且具有目标风格,从而实现风格的迁移。无需花费大量的时间成本和人力成本录制多种音色具有同一种风格的音频,就能为用户提供多种选择,满足了用户多样化的需求。
例如,目标文本可以是从电子书阅读APP(英文:Application,中文:应用程序)上获取的电子书,该电子书位于该电子书阅读APP中“古风”栏目,那么目标风格即为“古风”,第一音频可以是从该电子书阅读APP获取的,预先录制好的A朗读者(对应第一音色)朗读该电子书的音频。先提取目标文本对应的音素序列,然后根据第一音频,确定初始声学特征序列。再按照预先统计大量的B朗读者(对应第二音色)朗读的音频得到的声学统计特征,对初始声学特征序列进行处理,得到目标声学特征序列,最后将音素序列和目标声学特征序列输入语音合成模型,语音合成模型输出的第二音频,符合B朗读者的音色,且具有“古风”的风格,即第二音频可以理解为为模仿B朗读者按照“古风”的风格朗读目标文本的音频。其中,语音合成模型是预先根据大量的B朗读者朗读的音频训练得到的。
综上所述,本公开首先获取目标文本,和目标文本对应的具有目标风格,且符合第一音色的第一音频,之后提取目标文本对应的音素序列,其中包括了至少一个音素,再提取第一音频对应的,包括了每个音素对应的声学特征的初始声学特征序列,声学特征用于指示该音素的韵律特征。进一步的按照第二音色的声学统计特征对初始声学特征序列进行处理,以得到包括了每个音素对应的处理后的声学特征的目标声学特征序列,最后将音素序列和目标声学特征序列,输入预先训练的语音合成模型,语音合成模型能够输出符合第二音色,且具有目标风格的第二音频,其中语音合成模型是根据符合第二音色的语料训练得到的。本公开利用目标文本和对应的符合第一音色、且具有目标风格的第一音频,合成符合第二音色,且具有目标风格的第二音频,从而利用不同的音色,按照相同的风格来演绎目标文本,能够在语音合成的过程中实现风格的迁移。
图2是根据一示例性实施例示出的另一种语音风格的迁移方法的流程图,如图2所示,声学特征包括:基频、音量、语速中的至少一种,相应的步骤103的实现方式可以为:
步骤1031,若声学特征包括语速,根据音素序列和第一音频,确定第一音频中每个音素对应的一个或多个音频帧,并根据该音素对应的音频帧的数量确定该音素对应的语速。
示例的,可以利用HTS,将第一音频按照音素序列中包括的音素进行划分,以得到每个音素对应的一个或多个音频帧,然后根据每个音频帧所占的时长,和该音素对应的音频帧的数量,确定该音素对应的语速。例如,经过划分后,音素序列中某个音素对应3个音频帧,每个音频帧所占的时长为10ms,那么该音素对应的语速(即时长)为30ms。
步骤1032,若声学特征包括音高,提取第一音频中的每个音频帧的音高,并根据每个音素对应的音频帧的音高,确定该音素对应的音高。
步骤1033,若声学特征包括音量,提取第一音频中的每个音频帧的音量,并根据每个音素对应的音频帧的音量,确定该音素对应的音量。
进一步的,在声学特征包括音高的情况下,可以利用sox、librosa、straight等音频处理工具,对第一音频进行处理,提取第一音频中的每个音频帧的音高。之后,可以将每个音素对应的音频帧的音高的均值(或者极值、标准差等),作为该音素对应的音高。例如,经过划分后,音素序列中某个音素对应两个音频帧,该音素对应的两个音频帧的音高分别为1.2kHz、1.6kHz,那么可以将两个音高的均值1.4kHz作为该音素对应的音高。在声学特征包括音量的情况下,可以利用sox、librosa、straight等音频处理工具,对第一音频进行处理,提取第一音频中的每个音频帧的音量。之后,可以将每个音素对应的音频帧的音量的均值(或者极值、标准差等),作为该音素对应的音量。例如,该音素对应的两个音频帧的音量分别为30dB、80dB,并将两个音量的均值55dB作为该音素对应的音量。
图3是根据一示例性实施例示出的另一种语音风格的迁移方法的流程图,如图3所示,声学特征包括:基频、音量、语速中的至少一种。相应的,步骤104也可以包括:
步骤1041,若所述声学特征包括语速,根据声学统计特征包括的语速平均值和语速方差,对每个音素对应的语速进行标准化,以得到该音素对应的处理后的语速。
步骤1042,若所述声学特征包括音高,根据声学统计特征包括的音高平均值和音高方差,对每个音素对应的音高进行标准化,以得到该音素对应的处理后的音高。
步骤1043,若所述声学特征包括音量,根据声学统计特征包括的音量平均值和音量方差,对每个音素对应的音量进行标准化,以得到该音素对应的处理后的音量。
举例来说,在声学特征包括语速的场景中,声学统计特征可以包括:第二音色的语速平均值(表示为duration_mean)和语速方差(表示为duration_var),在声学特征包括音高的场景中,声学统计特征可以包括:音高平均值(表示为pitch_mean)和音高方差(表示为pitch_var),在声学特征包括音量的场景中,声学统计特征可以包括:音量平均值(表示为energy_mean)和音量方差(表示为energy_var)。以声学特征包括:音高、音量、语速的场景来举例,那么可以通过公式一对每个音素对应的语速、音高、音量进行标准化,以得到该音素对应的处理后的语速、音高、音量。
其中,A表示第一音色,表示音素序列中第i个音素对应的语速,表示第i个音素对应的处理后的语速,表示第i个音素对应的音高,Pi A表示第i个音素对应的处理后的音高,表示第i个音素对应的音量,表示第i个音素对应的处理后的音量。
图4是根据一示例性实施例示出的一种语音合成模型的处理流程图,如图4所示,语音合成模型可以用于执行以下步骤:
步骤A,根据音素序列确定目标文本对应的文本特征序列,文本特征序列包括音素序列中每个音素对应的文本特征。
步骤B,根据文本特征序列和目标声学特征序列,生成第二音频。
示例的,语音合成模型合成第二音频的具体过程,可以是先根据音素序列,提取目标文本对应的文本特征序列(即Text Embedding),文本特征序列中包括了音素序列中每个音素对应的文本特征,文本特征可以理解为能够表征该音素的文本向量。例如,音素序列中包括100个音素,每个音素对应的文本向量为1*256维的向量,那么文本特征序列可以为100*256维的向量。
在获得文本特征序列之后,可以将文本特征序列与目标声学特征序列进行结合,以生成第二音频。例如,可以将文本特征序列与目标声学特征序列进行拼接,得到一个组合序列,然后根据组合序列生成第二音频。例如,音素序列中包括100个音素,文本特征序列可以为100*256维的向量,相应的目标声学特征序列为100*3维的向量(每个音素对应音高、音量、语速3个维度),那么组合序列可以为100*259维的向量。可以根据这个100*259维的向量,生成第二音频。
以图5所示的语音合成模型来举例,语音合成模型为Tacotron模型,其中包括:编码器(即Encoder)、注意力网络(即Attention)、解码器(即Decoder)和后处理网络(即Post-processing)。编码器可以包括嵌入层(即Character Embedding层)、预处理网络(Pre-net)子模型和CBHG(英文:Convolution Bank+Highway network+bidirectional GatedRecurrent Unit,中文:卷积层+高速网络+双向递归神经网络)子模型。可以将音素序列输入编码器,首先,通过嵌入层将音素序列转换为词向量,然后将词向量输入至Pre-net子模型,以对词向量进行非线性变换,从而提升语音合成模型的收敛和泛化能力,最后,通过CBHG子模型根据非线性变换后的词向量,获得能够表征待合成文本的文本特征序列。
之后可以将目标声学特征序列和编码器输出的文本特征序列进行拼接,得到组合序列,再将组合序列输入注意力网络,注意力网络可以为组合序列中的每个元素增加一个注意力权重。具体的,注意力网络可以为位置敏感注意力(英文:Locative SensitiveAttention)网络,也可以为GMM(英文:Gaussian Mixture Model,缩写GMM)attention网络,还可以是Multi-Head Attention网络,本公开对此不作具体限定。
再将注意力网络的输出作为解码器的输入。解码器可以包括预处理网络子模型(可以与编码器中包括的预处理网络子模型的相同)、Attention-RNN、Decoder-RNN。预处理网络子模型用于对输入进行非线性变换,Attention-RNN的结构为一层单向的、基于zoneout的LSTM(英文:Long Short-Term Memory,中文:长短期记忆网络),能够将预处理网络子模型的输出作为输入,经过LSTM单元后输出到Decoder-RNN中。Decode-RNN为两层单向的、基于zoneout的LSTM,经过LSTM单元输出梅尔频谱信息,梅尔频谱信息中可以包括一个或多个梅尔频谱特征。最后将梅尔频谱信息输入后处理网络,后处理网络可以包括声码器(例如,Wavenet声码器、Griffin-Lim声码器等),用于对梅尔频谱特征信息进行转换,以得到第二音频。
图6是根据一示例性实施例示出的一种训练语音合成模型的流程图,如图6所示,语音合成模型是通过如下方式训练获得的:
步骤201,获取训练文本、训练文本对应的训练音素序列和训练音频,训练音频符合第二音色,训练音素序列包括至少一个训练音素。
对语音合成模型进行训练,需要预先获取训练文本和训练文本对应的训练音素序列、训练音频等,训练文本可以有多个,相应的,训练音素序列、训练音频也可以是多个。其中,训练音素序列中包括训练文本中的每个字对应的训练音素,训练音频为训练文本对应的,符合第二音色的音频。需要说明的是,训练文本与目标文本之间不存在关联,也就是说,训练文本可以是和目标文本不同的文本。相应的,训练音频只需要是利用第二音色演绎训练文本的音频即可,不需要指定具体的风格,也就是说训练音频可以为不具有任何风格(可以理解为平淡)的音频,也可以为具有目标风格或者,除目标风格之外的其他风格的音频。
步骤202,提取训练音频的真实声学特征序列,真实声学特征序列包括每个训练音素对应的声学特征。
步骤203,按照声学统计特征对真实声学特征序列进行处理,得到训练声学特征序列,训练声学特征序列中包括每个训练音素对应的处理后的声学特征。
示例的,可以通过信号处理的方式,对训练音频进行处理,得到包括了每个训练音素对应的声学特征的真实声学特征序列,其中,声学特征用于指示该训练音素的韵律特征,可以包括音高、音量、语速中的至少一种,还可以包括:噪声水平、音调、响度等。还可以获取训练音素序列的标注信息,从标注信息中直接获取每个训练音素对应的声学特征。同样的,也可以按照声学统计特征,对训练音素对应的声学特征的进行处理,得到训练声学特征序列,处理过程可以理解为标准化,以使训练声学特征序列包括的每个训练音素对应的处理后的声学特征,能够满足第二音色对应的声学特征所服从的概率分布。
具体的,以声学统计特征包括表示为duration_mean、duration_var、pitch_mean、pitch_var、energy_mean和energy_var为例,可以通过公式二对每个训练音素对应的语速、音高、音量进行标准化,以得到该训练音素对应的处理后的语速、音高、音量。
其中,B表示第二音色,表示训练音素序列中第i个训练音素对应的语速,表示第i个训练音素对应的处理后的语速,表示第i个训练音素对应的音高,Pi B表示第i个训练音素对应的处理后的音高,表示第i个训练音素对应的音量,表示第i个训练音素对应的处理后的音量。
步骤204,将训练音素序列和训练声学特征序列,输入语音合成模型,并根据语音合成模型的输出与训练音频,训练语音合成模型。
最后,将训练音素序列和训练声学特征序列,作为语音合成模型的输入,并根据语音合成模型的输出与训练音频,训练语音合成模型。例如,可以根据语音合成模型的输出,与训练音频的差(或者均方差)作为语音合成模型的损失函数,以降低损失函数为目标,利用反向传播算法来修正语音合成模型中的神经元的参数,神经元的参数例如可以是神经元的权重(英文:Weight)和偏置量(英文:Bias)。重复上述步骤,直至损失函数满足预设条件,例如损失函数小于预设的损失阈值。
图7是根据一示例性实施例示出的另一种训练语音合成模型的流程图,如图7所示,语音合成模型还是通过如下方式训练获得的:
步骤205,在提取训练音频的真实声学特征序列之后,确定每个训练音素对应的声学特征的声学特征平均值和声学特征方差,并将声学特征平均值和声学特征方差,作为声学统计特征。
示例的,在步骤202提取到真实声学特征序列之后,可以根据每个训练音素对应的声学特征,来确定声学统计特征。例如,可以确定全部训练音素对应的声学特征的声学特征平均值和声学特征方差,以作为声学统计特征。具体的,可以分别根据全部训练音素对应的语速,确定语速平均值和语速方差,根据全部训练音素对应的音高,确定音高平均值和音高方差,根据全部训练音素对应的音量,确定音量平均值和音量方差。然后分别将语速平均值和语速方差、音高平均值和音高方差、音量平均值和音量方差作为声学统计特征。
综上所述,本公开首先获取目标文本,和目标文本对应的具有目标风格,且符合第一音色的第一音频,之后提取目标文本对应的音素序列,其中包括了至少一个音素,再提取第一音频对应的,包括了每个音素对应的声学特征的初始声学特征序列,声学特征用于指示该音素的韵律特征。进一步的按照第二音色的声学统计特征对初始声学特征序列进行处理,以得到包括了每个音素对应的处理后的声学特征的目标声学特征序列,最后将音素序列和目标声学特征序列,输入预先训练的语音合成模型,语音合成模型能够输出符合第二音色,且具有目标风格的第二音频,其中语音合成模型是根据符合第二音色的语料训练得到的。本公开利用目标文本和对应的符合第一音色、且具有目标风格的第一音频,合成符合第二音色,且具有目标风格的第二音频,从而利用不同的音色,按照相同的风格来演绎目标文本,能够在语音合成的过程中实现风格的迁移。
图8是根据一示例性实施例示出的一种语音风格的迁移装置的框图,如图8所示,该装置300包括:
获取模块301,用于获取目标文本和目标文本对应的第一音频,第一音频符合第一音色且具有目标风格。
第一提取模块302,用于提取目标文本对应的音素序列,音素序列中包括至少一个音素。
第二提取模块303,用于提取第一音频对应的初始声学特征序列,初始声学特征序列中包括每个音素对应的声学特征,声学特征用于指示该音素的韵律特征。
处理模块304,用于按照第二音色的声学统计特征对初始声学特征序列进行处理,得到目标声学特征序列,目标声学特征序列中包括每个音素对应的处理后的声学特征。
合成模块305,用于将音素序列和目标声学特征序列,输入预先训练的语音合成模型,以得到语音合成模型输出的第二音频,第二音频符合第二音色且具有目标风格,语音合成模型为根据符合第二音色的语料训练得到的。
图9是根据一示例性实施例示出的另一种语音风格的迁移装置的框图,如图9所示,声学特征包括:基频、音量、语速中的至少一种,第二提取模块303包括:
确定子模块3031,用于若所述声学特征包括语速,根据音素序列和第一音频,确定第一音频中每个音素对应的一个或多个音频帧,并根据该音素对应的音频帧的数量确定该音素对应的语速。
提取子模块3032,用于若所述声学特征包括音高,提取第一音频中的每个音频帧的音高,并根据每个音素对应的音频帧的音高,确定该音素对应的音高。若声学特征包括音量,提取第一音频中的每个音频帧的音量,并根据每个音素对应的音频帧的音量,确定该音素对应的音量。
图10是根据一示例性实施例示出的另一种语音风格的迁移装置的框图,如图10所示,声学特征包括:基频、音量、语速中的至少一种。处理模块304包括:
第一处理子模块3041,用于若声学特征包括语速,根据声学统计特征包括的语速平均值和语速方差,对每个音素对应的语速进行标准化,以得到该音素对应的处理后的语速。
第二处理子模块3042,用于若声学特征包括音高,根据声学统计特征包括的音高平均值和音高方差,对每个音素对应的音高进行标准化,以得到该音素对应的处理后的音高。
第三处理子模块3043,用于若声学特征包括音量,根据声学统计特征包括的音量平均值和音量方差,对每个音素对应的音量进行标准化,以得到该音素对应的处理后的音量。
在一种应用场景中,上述实施例中的语音合成模型可以用于执行以下步骤:
步骤A,根据音素序列确定目标文本对应的文本特征序列,文本特征序列包括音素序列中每个音素对应的文本特征。
步骤B,根据文本特征序列和目标声学特征序列,生成第二音频。
在另一种应用场景中,语音合成模型是通过如下方式训练获得的:
步骤1),获取训练文本、训练文本对应的训练音素序列和训练音频,训练音频符合第二音色,训练音素序列包括至少一个训练音素。
步骤2),提取训练音频的真实声学特征序列,真实声学特征序列包括每个训练音素对应的声学特征。
步骤3),按照声学统计特征对真实声学特征序列进行处理,得到训练声学特征序列,训练声学特征序列中包括每个训练音素对应的处理后的声学特征。
步骤4),将训练音素序列和训练声学特征序列,输入语音合成模型,并根据语音合成模型的输出与训练音频,训练语音合成模型。
在又一种应用场景中,语音合成模型还是通过如下方式训练获得的:
步骤5),在提取训练音频的真实声学特征序列之后,确定每个训练音素对应的声学特征的声学特征平均值和声学特征方差,并将声学特征平均值和声学特征方差,作为声学统计特征。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
综上所述,本公开首先获取目标文本,和目标文本对应的具有目标风格,且符合第一音色的第一音频,之后提取目标文本对应的音素序列,其中包括了至少一个音素,再提取第一音频对应的,包括了每个音素对应的声学特征的初始声学特征序列,声学特征用于指示该音素的韵律特征。进一步的按照第二音色的声学统计特征对初始声学特征序列进行处理,以得到包括了每个音素对应的处理后的声学特征的目标声学特征序列,最后将音素序列和目标声学特征序列,输入预先训练的语音合成模型,语音合成模型能够输出符合第二音色,且具有目标风格的第二音频,其中语音合成模型是根据符合第二音色的语料训练得到的。本公开利用目标文本和对应的符合第一音色、且具有目标风格的第一音频,合成符合第二音色,且具有目标风格的第二音频,从而利用不同的音色,按照相同的风格来演绎目标文本,能够在语音合成的过程中实现风格的迁移。
下面参考图11,其示出了适于用来实现本公开实施例的电子设备(可以理解为上述实施例中的执行主体)400的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图11示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图11所示,电子设备400可以包括处理装置(例如中央处理器、图形处理器等)401,其可以根据存储在只读存储器(ROM)402中的程序或者从存储装置408加载到随机访问存储器(RAM)403中的程序而执行各种适当的动作和处理。在RAM 403中,还存储有电子设备400操作所需的各种程序和数据。处理装置401、ROM 402以及RAM 403通过总线404彼此相连。输入/输出(I/O)接口405也连接至总线404。
通常,以下装置可以连接至I/O接口405:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置406;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置407;包括例如磁带、硬盘等的存储装置408;以及通信装置409。通信装置409可以允许电子设备400与其他设备进行无线或有线通信以交换数据。虽然图11示出了具有各种装置的电子设备400,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置409从网络上被下载和安装,或者从存储装置408被安装,或者从ROM 402被安装。在该计算机程序被处理装置401执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,终端设备、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取目标文本和所述目标文本对应的第一音频,所述第一音频符合第一音色且具有目标风格;提取所述目标文本对应的音素序列,所述音素序列中包括至少一个音素;提取所述第一音频对应的初始声学特征序列,所述初始声学特征序列中包括每个所述音素对应的声学特征,所述声学特征用于指示该音素的韵律特征;按照第二音色的声学统计特征对所述初始声学特征序列进行处理,得到目标声学特征序列,所述目标声学特征序列中包括每个所述音素对应的处理后的声学特征;将所述音素序列和所述目标声学特征序列,输入预先训练的语音合成模型,以得到所述语音合成模型输出的第二音频,所述第二音频符合所述第二音色且具有所述目标风格,所述语音合成模型为根据符合所述第二音色的语料训练得到的。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定,例如,获取模块还可以被描述为“获取目标文本和第一音频的模块”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,示例1提供了一种语音风格的迁移方法,包括:获取目标文本和所述目标文本对应的第一音频,所述第一音频符合第一音色且具有目标风格;提取所述目标文本对应的音素序列,所述音素序列中包括至少一个音素;提取所述第一音频对应的初始声学特征序列,所述初始声学特征序列中包括每个所述音素对应的声学特征,所述声学特征用于指示该音素的韵律特征;按照第二音色的声学统计特征对所述初始声学特征序列进行处理,得到目标声学特征序列,所述目标声学特征序列中包括每个所述音素对应的处理后的声学特征;将所述音素序列和所述目标声学特征序列,输入预先训练的语音合成模型,以得到所述语音合成模型输出的第二音频,所述第二音频符合所述第二音色且具有所述目标风格,所述语音合成模型为根据符合所述第二音色的语料训练得到的。
根据本公开的一个或多个实施例,示例2提供了示例1的方法,所述声学特征包括:基频、音量、语速中的至少一种;所述提取所述第一音频对应的初始声学特征序列,包括:若所述声学特征包括语速,根据所述音素序列和所述第一音频,确定所述第一音频中每个所述音素对应的一个或多个音频帧,并根据该音素对应的音频帧的数量确定该音素对应的语速;若所述声学特征包括音高,提取所述第一音频中的每个音频帧的音高,并根据每个音素对应的音频帧的音高确定该音素对应的音高;若所述声学特征包括音量,提取所述第一音频中的每个音频帧的音量,并根据每个音素对应的音频帧的音量,确定该音素对应的音量。
根据本公开的一个或多个实施例,示例3提供了示例1的方法,所述声学特征包括:基频、音量、语速中的至少一种;所述按照第二音色的声学统计特征对所述初始声学特征序列进行处理,得到目标声学特征序列,包括:若所述声学特征包括语速,根据所述声学统计特征包括的语速平均值和语速方差,对每个所述音素对应的语速进行标准化,以得到该音素对应的处理后的语速;若所述声学特征包括音高,根据所述声学统计特征包括的音高平均值和音高方差,对每个所述音素对应的音高进行标准化,以得到该音素对应的处理后的音高;若所述声学特征包括音量,根据所述声学统计特征包括的音量平均值和音量方差,对每个所述音素对应的音量进行标准化,以得到该音素对应的处理后的音量。
根据本公开的一个或多个实施例,示例4提供了示例1的方法,所述语音合成模型用于:根据所述音素序列确定所述目标文本对应的文本特征序列,所述文本特征序列包括所述音素序列中每个音素对应的文本特征;根据所述文本特征序列和所述目标声学特征序列,生成所述第二音频。
根据本公开的一个或多个实施例,示例5提供了示例1至示例4的方法,所述语音合成模型是通过如下方式训练获得的:获取训练文本、所述训练文本对应的训练音素序列和训练音频,所述训练音频符合所述第二音色,所述训练音素序列包括至少一个训练音素;提取所述训练音频的真实声学特征序列,所述真实声学特征序列包括每个所述训练音素对应的声学特征;按照所述声学统计特征对所述真实声学特征序列进行处理,得到训练声学特征序列,所述训练声学特征序列中包括每个所述训练音素对应的处理后的声学特征;将所述训练音素序列和所述训练声学特征序列,输入所述语音合成模型,并根据所述语音合成模型的输出与所述训练音频,训练所述语音合成模型。
根据本公开的一个或多个实施例,示例6提供了示例5的方法,所述语音合成模型还是通过如下方式训练获得的:在所述提取所述训练音频的真实声学特征序列之后,确定每个所述训练音素对应的声学特征的声学特征平均值和声学特征方差,并将所述声学特征平均值和所述声学特征方差,作为所述声学统计特征。
根据本公开的一个或多个实施例,示例7提供了一种语音风格的迁移装置,包括:获取模块,用于获取目标文本和所述目标文本对应的第一音频,所述第一音频符合第一音色且具有目标风格;第一提取模块,用于提取所述目标文本对应的音素序列,所述音素序列中包括至少一个音素;第二提取模块,用于提取所述第一音频对应的初始声学特征序列,所述初始声学特征序列中包括每个所述音素对应的声学特征,所述声学特征用于指示该音素的韵律特征;处理模块,用于按照第二音色的声学统计特征对所述初始声学特征序列进行处理,得到目标声学特征序列,所述目标声学特征序列中包括每个所述音素对应的处理后的声学特征;合成模块,用于将所述音素序列和所述目标声学特征序列,输入预先训练的语音合成模型,以得到所述语音合成模型输出的第二音频,所述第二音频符合所述第二音色且具有所述目标风格,所述语音合成模型为根据符合所述第二音色的语料训练得到的。
根据本公开的一个或多个实施例,示例8提供了示例7的装置,所述声学特征包括:基频、音量、语速中的至少一种;所述第二提取模块包括:确定子模块,用于若所述声学特征包括语速,根据所述音素序列和所述第一音频,确定所述第一音频中每个所述音素对应的一个或多个音频帧,并根据该音素对应的音频帧的数量确定该音素对应的语速;提取子模块,用于若所述声学特征包括音高,提取所述第一音频中的每个音频帧的音高,并根据每个音素对应的音频帧的音高确定该音素对应的音高;若所述声学特征包括音量,提取所述第一音频中的每个音频帧的音量,并根据每个音素对应的音频帧的音量,确定该音素对应的音量。
根据本公开的一个或多个实施例,示例9提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现示例1至示例6中所述方法的步骤。
根据本公开的一个或多个实施例,示例10提供了一种电子设备,包括:存储装置,其上存储有计算机程序;处理装置,用于执行所述存储装置中的所述计算机程序,以实现示例1至示例6中所述方法的步骤。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
Claims (10)
1.一种语音风格的迁移方法,其特征在于,所述方法包括:
获取目标文本和所述目标文本对应的第一音频,所述第一音频符合第一音色且具有目标风格;
提取所述目标文本对应的音素序列,所述音素序列中包括至少一个音素;
提取所述第一音频对应的初始声学特征序列,所述初始声学特征序列中包括每个所述音素对应的声学特征,所述声学特征用于指示该音素的韵律特征;
按照第二音色的声学统计特征对所述初始声学特征序列进行处理,得到目标声学特征序列,所述目标声学特征序列中包括每个所述音素对应的处理后的声学特征;
将所述音素序列和所述目标声学特征序列,输入预先训练的语音合成模型,以得到所述语音合成模型输出的第二音频,所述第二音频符合所述第二音色且具有所述目标风格,所述语音合成模型为根据符合所述第二音色的语料训练得到的。
2.根据权利要求1所述的方法,其特征在于,所述声学特征包括:基频、音量、语速中的至少一种;所述提取所述第一音频对应的初始声学特征序列,包括:
若所述声学特征包括语速,根据所述音素序列和所述第一音频,确定所述第一音频中每个所述音素对应的一个或多个音频帧,并根据该音素对应的音频帧的数量确定该音素对应的语速;
若所述声学特征包括音高,提取所述第一音频中的每个音频帧的音高,并根据每个音素对应的音频帧的音高,确定该音素对应的音高;
若所述声学特征包括音量,提取所述第一音频中的每个音频帧的音量,并根据每个音素对应的音频帧的音量,确定该音素对应的音量。
3.根据权利要求1所述的方法,其特征在于,所述声学特征包括:基频、音量、语速中的至少一种;
所述按照第二音色的声学统计特征对所述初始声学特征序列进行处理,得到目标声学特征序列,包括:
若所述声学特征包括语速,根据所述声学统计特征包括的语速平均值和语速方差,对每个所述音素对应的语速进行标准化,以得到该音素对应的处理后的语速;
若所述声学特征包括音高,根据所述声学统计特征包括的音高平均值和音高方差,对每个所述音素对应的音高进行标准化,以得到该音素对应的处理后的音高;
若所述声学特征包括音量,根据所述声学统计特征包括的音量平均值和音量方差,对每个所述音素对应的音量进行标准化,以得到该音素对应的处理后的音量。
4.根据权利要求1所述的方法,其特征在于,所述语音合成模型用于:
根据所述音素序列确定所述目标文本对应的文本特征序列,所述文本特征序列包括所述音素序列中每个音素对应的文本特征;
根据所述文本特征序列和所述目标声学特征序列,生成所述第二音频。
5.根据权利要求1-4中任一项所述的方法,其特征在于,所述语音合成模型是通过如下方式训练获得的:
获取训练文本、所述训练文本对应的训练音素序列和训练音频,所述训练音频符合所述第二音色,所述训练音素序列包括至少一个训练音素;
提取所述训练音频的真实声学特征序列,所述真实声学特征序列包括每个所述训练音素对应的声学特征;
按照所述声学统计特征对所述真实声学特征序列进行处理,得到训练声学特征序列,所述训练声学特征序列中包括每个所述训练音素对应的处理后的声学特征;
将所述训练音素序列和所述训练声学特征序列,输入所述语音合成模型,并根据所述语音合成模型的输出与所述训练音频,训练所述语音合成模型。
6.根据权利要求5所述的方法,其特征在于,所述语音合成模型还是通过如下方式训练获得的:
在所述提取所述训练音频的真实声学特征序列之后,确定每个所述训练音素对应的声学特征的声学特征平均值和声学特征方差,并将所述声学特征平均值和所述声学特征方差,作为所述声学统计特征。
7.一种语音风格的迁移装置,其特征在于,所述装置包括:
获取模块,用于获取目标文本和所述目标文本对应的第一音频,所述第一音频符合第一音色且具有目标风格;
第一提取模块,用于提取所述目标文本对应的音素序列,所述音素序列中包括至少一个音素;
第二提取模块,用于提取所述第一音频对应的初始声学特征序列,所述初始声学特征序列中包括每个所述音素对应的声学特征,所述声学特征用于指示该音素的韵律特征;
处理模块,用于按照第二音色的声学统计特征对所述初始声学特征序列进行处理,得到目标声学特征序列,所述目标声学特征序列中包括每个所述音素对应的处理后的声学特征;
合成模块,用于将所述音素序列和所述目标声学特征序列,输入预先训练的语音合成模型,以得到所述语音合成模型输出的第二音频,所述第二音频符合所述第二音色且具有所述目标风格,所述语音合成模型为根据符合所述第二音色的语料训练得到的。
8.根据权利要求7所述的装置,其特征在于,所述声学特征包括:基频、音量、语速中的至少一种;所述第二提取模块包括:
确定子模块,用于若所述声学特征包括语速,根据所述音素序列和所述第一音频,确定所述第一音频中每个所述音素对应的一个或多个音频帧,并根据该音素对应的音频帧的数量确定该音素对应的语速;
提取子模块,用于若所述声学特征包括音高,提取所述第一音频中的每个音频帧的音高,并根据每个音素对应的音频帧的音高,确定该音素对应的音高;若所述声学特征包括音量,提取所述第一音频中的每个音频帧的音量,并根据每个音素对应的音频帧的音量,确定该音素对应的音量。
9.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现权利要求1-6中任一项所述方法的步骤。
10.一种电子设备,其特征在于,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现权利要求1-6中任一项所述方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110077658.2A CN112927674B (zh) | 2021-01-20 | 2021-01-20 | 语音风格的迁移方法、装置、可读介质和电子设备 |
PCT/CN2021/136525 WO2022156413A1 (zh) | 2021-01-20 | 2021-12-08 | 语音风格的迁移方法、装置、可读介质和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110077658.2A CN112927674B (zh) | 2021-01-20 | 2021-01-20 | 语音风格的迁移方法、装置、可读介质和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112927674A true CN112927674A (zh) | 2021-06-08 |
CN112927674B CN112927674B (zh) | 2024-03-12 |
Family
ID=76165243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110077658.2A Active CN112927674B (zh) | 2021-01-20 | 2021-01-20 | 语音风格的迁移方法、装置、可读介质和电子设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112927674B (zh) |
WO (1) | WO2022156413A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114187892A (zh) * | 2021-12-08 | 2022-03-15 | 北京百度网讯科技有限公司 | 一种风格迁移合成方法、装置及电子设备 |
CN114299910A (zh) * | 2021-09-06 | 2022-04-08 | 腾讯科技(深圳)有限公司 | 语音合成模型的训练方法、使用方法、装置、设备及介质 |
CN114613353A (zh) * | 2022-03-25 | 2022-06-10 | 马上消费金融股份有限公司 | 语音合成方法、装置、电子设备及存储介质 |
WO2022156413A1 (zh) * | 2021-01-20 | 2022-07-28 | 北京有竹居网络技术有限公司 | 语音风格的迁移方法、装置、可读介质和电子设备 |
WO2024103383A1 (zh) * | 2022-11-18 | 2024-05-23 | 广州酷狗计算机科技有限公司 | 音频处理方法、装置、设备、存储介质及程序产品 |
WO2024164978A1 (zh) * | 2023-02-07 | 2024-08-15 | 京东科技信息技术有限公司 | 语音风格迁移合成方法及装置、电子设备、存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117558259B (zh) * | 2023-11-22 | 2024-10-18 | 北京风平智能科技有限公司 | 一种数字人播报风格控制方法及装置 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945786A (zh) * | 2017-11-27 | 2018-04-20 | 北京百度网讯科技有限公司 | 语音合成方法和装置 |
US20180254034A1 (en) * | 2015-10-20 | 2018-09-06 | Baidu Online Network Technology (Beijing) Co., Ltd | Training method for multiple personalized acoustic models, and voice synthesis method and device |
US20190096386A1 (en) * | 2017-09-28 | 2019-03-28 | Baidu Online Network Technology (Beijing) Co., Ltd | Method and apparatus for generating speech synthesis model |
CN110223705A (zh) * | 2019-06-12 | 2019-09-10 | 腾讯科技(深圳)有限公司 | 语音转换方法、装置、设备及可读存储介质 |
CN110534089A (zh) * | 2019-07-10 | 2019-12-03 | 西安交通大学 | 一种基于音素和韵律结构的中文语音合成方法 |
CN110600045A (zh) * | 2019-08-14 | 2019-12-20 | 科大讯飞股份有限公司 | 声音转换方法及相关产品 |
CN111292720A (zh) * | 2020-02-07 | 2020-06-16 | 北京字节跳动网络技术有限公司 | 语音合成方法、装置、计算机可读介质及电子设备 |
CN111583904A (zh) * | 2020-05-13 | 2020-08-25 | 北京字节跳动网络技术有限公司 | 语音合成方法、装置、存储介质及电子设备 |
CN111599343A (zh) * | 2020-05-14 | 2020-08-28 | 北京字节跳动网络技术有限公司 | 用于生成音频的方法、装置、设备和介质 |
CN111667816A (zh) * | 2020-06-15 | 2020-09-15 | 北京百度网讯科技有限公司 | 模型训练方法、语音合成方法、装置、设备和存储介质 |
CN111754976A (zh) * | 2020-07-21 | 2020-10-09 | 中国科学院声学研究所 | 一种韵律控制语音合成方法、系统及电子装置 |
CN111785247A (zh) * | 2020-07-13 | 2020-10-16 | 北京字节跳动网络技术有限公司 | 语音生成方法、装置、设备和计算机可读介质 |
US20200380952A1 (en) * | 2019-05-31 | 2020-12-03 | Google Llc | Multilingual speech synthesis and cross-language voice cloning |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112927674B (zh) * | 2021-01-20 | 2024-03-12 | 北京有竹居网络技术有限公司 | 语音风格的迁移方法、装置、可读介质和电子设备 |
-
2021
- 2021-01-20 CN CN202110077658.2A patent/CN112927674B/zh active Active
- 2021-12-08 WO PCT/CN2021/136525 patent/WO2022156413A1/zh active Application Filing
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180254034A1 (en) * | 2015-10-20 | 2018-09-06 | Baidu Online Network Technology (Beijing) Co., Ltd | Training method for multiple personalized acoustic models, and voice synthesis method and device |
US20190096386A1 (en) * | 2017-09-28 | 2019-03-28 | Baidu Online Network Technology (Beijing) Co., Ltd | Method and apparatus for generating speech synthesis model |
US20190164535A1 (en) * | 2017-11-27 | 2019-05-30 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for speech synthesis |
CN107945786A (zh) * | 2017-11-27 | 2018-04-20 | 北京百度网讯科技有限公司 | 语音合成方法和装置 |
US20200380952A1 (en) * | 2019-05-31 | 2020-12-03 | Google Llc | Multilingual speech synthesis and cross-language voice cloning |
CN110223705A (zh) * | 2019-06-12 | 2019-09-10 | 腾讯科技(深圳)有限公司 | 语音转换方法、装置、设备及可读存储介质 |
CN110534089A (zh) * | 2019-07-10 | 2019-12-03 | 西安交通大学 | 一种基于音素和韵律结构的中文语音合成方法 |
CN110600045A (zh) * | 2019-08-14 | 2019-12-20 | 科大讯飞股份有限公司 | 声音转换方法及相关产品 |
CN111292720A (zh) * | 2020-02-07 | 2020-06-16 | 北京字节跳动网络技术有限公司 | 语音合成方法、装置、计算机可读介质及电子设备 |
CN111583904A (zh) * | 2020-05-13 | 2020-08-25 | 北京字节跳动网络技术有限公司 | 语音合成方法、装置、存储介质及电子设备 |
CN111599343A (zh) * | 2020-05-14 | 2020-08-28 | 北京字节跳动网络技术有限公司 | 用于生成音频的方法、装置、设备和介质 |
CN111667816A (zh) * | 2020-06-15 | 2020-09-15 | 北京百度网讯科技有限公司 | 模型训练方法、语音合成方法、装置、设备和存储介质 |
CN111785247A (zh) * | 2020-07-13 | 2020-10-16 | 北京字节跳动网络技术有限公司 | 语音生成方法、装置、设备和计算机可读介质 |
CN111754976A (zh) * | 2020-07-21 | 2020-10-09 | 中国科学院声学研究所 | 一种韵律控制语音合成方法、系统及电子装置 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022156413A1 (zh) * | 2021-01-20 | 2022-07-28 | 北京有竹居网络技术有限公司 | 语音风格的迁移方法、装置、可读介质和电子设备 |
CN114299910A (zh) * | 2021-09-06 | 2022-04-08 | 腾讯科技(深圳)有限公司 | 语音合成模型的训练方法、使用方法、装置、设备及介质 |
CN114299910B (zh) * | 2021-09-06 | 2024-03-22 | 腾讯科技(深圳)有限公司 | 语音合成模型的训练方法、使用方法、装置、设备及介质 |
CN114187892A (zh) * | 2021-12-08 | 2022-03-15 | 北京百度网讯科技有限公司 | 一种风格迁移合成方法、装置及电子设备 |
CN114613353A (zh) * | 2022-03-25 | 2022-06-10 | 马上消费金融股份有限公司 | 语音合成方法、装置、电子设备及存储介质 |
CN114613353B (zh) * | 2022-03-25 | 2023-08-08 | 马上消费金融股份有限公司 | 语音合成方法、装置、电子设备及存储介质 |
WO2024103383A1 (zh) * | 2022-11-18 | 2024-05-23 | 广州酷狗计算机科技有限公司 | 音频处理方法、装置、设备、存储介质及程序产品 |
WO2024164978A1 (zh) * | 2023-02-07 | 2024-08-15 | 京东科技信息技术有限公司 | 语音风格迁移合成方法及装置、电子设备、存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2022156413A1 (zh) | 2022-07-28 |
CN112927674B (zh) | 2024-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112927674B (zh) | 语音风格的迁移方法、装置、可读介质和电子设备 | |
CN111292720B (zh) | 语音合成方法、装置、计算机可读介质及电子设备 | |
CN111402855B (zh) | 语音合成方法、装置、存储介质和电子设备 | |
CN111369971B (zh) | 语音合成方法、装置、存储介质和电子设备 | |
CN112489620B (zh) | 语音合成方法、装置、可读介质及电子设备 | |
CN111583900B (zh) | 歌曲合成方法、装置、可读介质及电子设备 | |
CN112786007B (zh) | 语音合成方法、装置、可读介质及电子设备 | |
CN112786006B (zh) | 语音合成方法、合成模型训练方法、装置、介质及设备 | |
CN112786011B (zh) | 语音合成方法、合成模型训练方法、装置、介质及设备 | |
CN112786008B (zh) | 语音合成方法、装置、可读介质及电子设备 | |
CN111899719A (zh) | 用于生成音频的方法、装置、设备和介质 | |
CN111951779B (zh) | 语音合成的前端处理方法及相关设备 | |
CN111402843B (zh) | 说唱音乐生成方法、装置、可读介质及电子设备 | |
CN112259089B (zh) | 语音识别方法及装置 | |
CN112489621B (zh) | 语音合成方法、装置、可读介质及电子设备 | |
CN113327580A (zh) | 语音合成方法、装置、可读介质及电子设备 | |
CN112786013B (zh) | 基于唱本的语音合成方法、装置、可读介质和电子设备 | |
CN111798821B (zh) | 声音转换方法、装置、可读存储介质及电子设备 | |
CN111292719A (zh) | 语音合成方法、装置、计算机可读介质及电子设备 | |
CN111782576B (zh) | 背景音乐的生成方法、装置、可读介质、电子设备 | |
CN113205793B (zh) | 音频生成方法、装置、存储介质及电子设备 | |
US20230298564A1 (en) | Speech synthesis method and apparatus, device, and storage medium | |
CN112908292A (zh) | 文本的语音合成方法、装置、电子设备及存储介质 | |
CN111477210A (zh) | 语音合成方法和装置 | |
CN116129859A (zh) | 韵律标注方法、声学模型训练方法、语音合成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |