CN109697974A - 使用卷积序列学习的神经文本转语音的系统和方法 - Google Patents
使用卷积序列学习的神经文本转语音的系统和方法 Download PDFInfo
- Publication number
- CN109697974A CN109697974A CN201811220510.4A CN201811220510A CN109697974A CN 109697974 A CN109697974 A CN 109697974A CN 201811220510 A CN201811220510 A CN 201811220510A CN 109697974 A CN109697974 A CN 109697974A
- Authority
- CN
- China
- Prior art keywords
- attention
- text
- decoder
- group
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000001537 neural effect Effects 0.000 title abstract description 23
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 30
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 30
- 238000012549 training Methods 0.000 claims abstract description 27
- 238000003780 insertion Methods 0.000 claims description 31
- 230000037431 insertion Effects 0.000 claims description 31
- 230000014509 gene expression Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 13
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 238000010348 incorporation Methods 0.000 claims description 9
- 230000036962 time dependent Effects 0.000 claims description 8
- 235000013399 edible fruits Nutrition 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims description 2
- 239000000284 extract Substances 0.000 claims 1
- 239000000203 mixture Substances 0.000 abstract description 10
- 230000007246 mechanism Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 238000003860 storage Methods 0.000 description 10
- 238000012360 testing method Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 239000000047 product Substances 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 6
- 238000005457 optimization Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 210000005036 nerve Anatomy 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 2
- 235000002017 Zea mays subsp mays Nutrition 0.000 description 2
- 241000482268 Zea mays subsp. mays Species 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 229910002056 binary alloy Inorganic materials 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000002203 pretreatment Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000010189 synthetic method Methods 0.000 description 2
- MIDXCONKKJTLDX-UHFFFAOYSA-N 3,5-dimethylcyclopentane-1,2-dione Chemical compound CC1CC(C)C(=O)C1=O MIDXCONKKJTLDX-UHFFFAOYSA-N 0.000 description 1
- 241000208140 Acer Species 0.000 description 1
- 241000512894 Anniella Species 0.000 description 1
- 241001269238 Data Species 0.000 description 1
- 241000283074 Equus asinus Species 0.000 description 1
- 235000007688 Lycopersicon esculentum Nutrition 0.000 description 1
- 240000003768 Solanum lycopersicum Species 0.000 description 1
- 230000000172 allergic effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 208000010668 atopic eczema Diseases 0.000 description 1
- 230000009901 attention process Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 235000013736 caramel Nutrition 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 235000019219 chocolate Nutrition 0.000 description 1
- 235000019504 cigarettes Nutrition 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 210000001072 colon Anatomy 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 235000014510 cooky Nutrition 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000000366 juvenile effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000569 multi-angle light scattering Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000000123 paper Substances 0.000 description 1
- 238000006116 polymerization reaction Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 235000015067 sauces Nutrition 0.000 description 1
- 238000009450 smart packaging Methods 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000002187 spin decoupling employing ultra-broadband-inversion sequences generated via simulated annealing Methods 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 238000010025 steaming Methods 0.000 description 1
- 238000004326 stimulated echo acquisition mode for imaging Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000006188 syrup Substances 0.000 description 1
- 235000020357 syrup Nutrition 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/027—Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本文中描述的是基于全卷积注意力的神经文本转语音(TTS)系统的实施方式,其中各种实施方式通常可被称为Deep Voice 3。Deep Voice 3的实施方式在自然度方面匹配最先进的神经语音合成系统,同时训练速度快十倍。Deep Voice 3的实施方式被扩展到TTS前所未有的数据集大小,在来自两千多位说话者的超过八百小时的音频上进行训练。此外,识别并减轻了基于注意力的语音合成网络的常见误差模式,并比较了几种不同的波形合成方法。还呈现了描述如何在单个GPU服务器上将推理扩展到每天一千万次查询的实施方式。
Description
技术领域
本公开总体涉及用于计算机学习的系统和方法,该系统和方法可提供改进的计算机性能、特征和使用。更具体地,本公开涉及用于通过深度中性网络的文本转语音的系统和方法。
背景技术
通常被称为文本转语音(TTS)系统的人工语音合成系统将书面语言转换为人类语音。TTS系统用于各种应用中,诸如人机界面、视力损伤的可访问性、媒体和娱乐。根本上地,它允许无需视觉界面的人机交互。传统的TTS系统基于复杂的多级人工工程管线。通常,这些系统首先将文本转换为紧凑的音频表示,然后使用称为声码器的音频波形合成方法将这种表示转换为音频。
由于TTS系统的复杂性,开发它可能是非常劳动密集的和困难的。最近在神经TTS方面的工作已演示了令人印象深刻的结果,产生了具有更简单的特性、更少的组件和更高质量的合成语音的管线。但是对用于TTS的最优神经网络架构还没有达成共识。
因此,需要的是用于创建、开发和/或部署改进的说话者文本转语音系统的系统和方法。
发明内容
根据本申请的一方面,提供了文本转语音系统,包括:
一个或多个处理器;以及
非暂时性计算机可读介质或媒介,包括一个或多个指令序列,所述一个或多个指令序列在由所述一个或多个处理器中的至少一个执行时,致使执行步骤,所述步骤包括:
使用编码器将输入文本的文本特征转换为注意力关键表示和注意力值表示,所述编码器包括:
嵌入模型,将输入文本转换为文本嵌入表示;
一个或多个卷积块的系列,接收所述文本嵌入表示的投影,以及通过所述一个或多个卷积块的系列处理所述文本嵌入表示的投影,以从所述输入文本提取依赖时间的文本信息;
投影层,生成所提取的依赖时间的文本信息的投影,所述依赖时间的文本信息的投影用于形成注意力关键表示;以及
值表示计算器,从所述注意力关键表示和所述文本嵌入表示计算注意力值表示;以及
使用基于注意力的解码器自回归地生成所述输入文本的低维音频表示,所述基于注意力的解码器包括:
前网络块,接收表示音频帧的输入数据,以及包括一个或多个全连接层以对所述输入数据进行预处理;
一个或多个解码器块的系列,每个解码器块均包括卷积块和注意力块,其中,卷积块生成查询,以及所述注意力块计算环境表示,作为使用所述注意力关键表示的至少一部分和来自所述卷积块的所述查询计算的注意力权重和所述注意力值表示的至少一部分的加权平均值;以及
后网络块,包括全连接层,所述全连接层接收来自所述一个或多个解码器块的系列的输出,并且输出下一组低维音频表示。
根据本申请的另一方面,提供了用于训练卷积序列学习文本转语音(TTS)系统以从输入文本合成语音的计算机实施的方法,包括:
使用嵌入模型将所述输入文本转换为一组可训练的嵌入表示;
经由包括一个或多个卷积块的编码器,生成一组注意力关键表示,所述一组注意力关键表示与由所述编码器从所述一组可训练的嵌入表示中获得的数据中提取的依赖时间的文本信息相对应;
使用所述一组可训练的嵌入表示和所述一组注意力关键表示,生成与所述一组注意力关键表示相对应的一组注意力值表示;以及
从由基于注意力的解码器生成的环境表示生成一组声码器特征,所述一组声码器特征能够与声码器一起使用以产生表示合成语音的信号,所述基于注意力的解码器包括至少一个解码器块,所述至少一个解码器块包括因果性卷积块和注意力块,并且所述基于注意力的解码器使用所述一组注意力关键表示、所述一组注意力值表示和来自与所述输入文本相对应的ground truth音频的特征,从而针对每个时间帧:
使用所述因果性卷积块和从现有音频帧的表示的至少一部分中获得的数据生成查询;以及
经由所述注意力块,计算所述环境表示,作为使用所述一组注意力关键表示的至少一部分和来自所述因果性卷积块的所述查询计算的注意力权重和所述一组注意力值表示的至少一部分的加权平均值。
根据本申请的又一方面,提供了用于从输入文本合成语音的计算机实施的方法,所述方法包括:
使用包括一个或多个卷积层的已训练的编码器,将所述输入文本编码为一组关键表示和一组值表示;
使用已训练的基于注意力的解码器将所述一组关键表示和所述一组值表示解码为一组低维音频表示帧,所述已训练的基于注意力的解码器包括至少一个解码器块,所述至少一个解码器块包括因果性卷积块和注意力块,其中,针对每个时间帧:
所述因果性卷积块使用现有低维音频表示帧的至少一部分生成查询;以及
所述注意力块计算环境表示,作为使用所述一组关键表示的至少一部分和来自所述因果性卷积块的所述查询计算的注意力权重和所述一组值表示的至少一部分的加权平均值;以及
使用所述环境表示生成最终一组低维音频表示帧,所述最终一组低维音频表示帧由声码器使用以输出表示所述输入文本的合成语音的信号。
附图说明
将参考本发明的实施方式,它们的示例可示于附图中。这些附图旨在是说明性的而非限制性的。虽然本发明大体上在这些实施方式的上下文中描述,但应理解,本发明的范围并不旨在限于这些特定实施方式。附图中的项目未按比例绘制。
图1示意性描绘了根据本公开的实施方式的示例性文本转语音架构。
图2描绘了根据本公开的实施方式的使用诸如图1中描绘的文本转语音架构的通常总体方法。
图3示意性描绘了根据本公开的实施方式的卷积块,该卷积块包括具有门控线性单元的一维(1D)卷积和剩余连接。
图4示意性描绘了根据本公开的实施方式的注意力块的实施方式。
图5A至图5C描绘了根据本公开的实施方式的注意力分布:(5A)训练前,(5B)训练后,但是没有推理约束,以及(5C)将推理约束应用于第一层和第三层。
图6示意性描绘了根据本公开的实施方式的生成WORLD特征的四个全连接层。
图7示意性描绘了根据本公开的实施方式的详细的示例性Deep Voice 3模型架构。
图8A示出了根据本公开的实施方式的VCTK数据集学习嵌入的前两个主成分所跨越的空间中的说话者的性别。
图8B示出了根据本公开的实施方式的LibriSpeech数据集学习嵌入的前两个主成分所跨越的空间中的说话者的性别。
图9描绘了根据本文件的实施方式的计算装置/信息处理系统的简化框图。
具体实施方式
在以下描述中,出于解释目的,阐明具体细节以便提供对本发明的理解。然而,将对本领域的技术人员显而易见的是,可在没有这些细节的情况下实践本发明。此外,本领域的技术人员将认识到,下文描述的本发明的实施方式可以以各种方式(例如过程、装置、系统、设备或方法)在有形的计算机可读介质上实施。
附图中示出的组件或模块是本发明实施方式的示例性说明,并且意图避免使本发明不清楚。还应理解,在本论述的全文中,组件可描述为单独的功能单元(可包括子单元),但是本领域的技术人员将认识到,各种组件或其部分可划分成单独组件,或者可整合在一起(包括整合在单个的系统或组件内)。应注意,本文论述的功能或操作可实施为组件。组件可以以软件、硬件、或它们的组合实施。
此外,附图内的组件或系统之间的连接并不旨在限于直接连接。相反,在这些组件之间的数据可由中间组件修改、重格式化、或以其它方式改变。另外,可使用另外或更少的连接。还应注意,术语“联接”、“连接”、或“通信地联接”应理解为包括直接连接、通过一个或多个中间设备来进行的间接连接、和无线连接。
在本说明书中对“一个实施方式”、“优选实施方式”、“实施方式”或“多个实施方式”的提及表示结合实施方式所描述的具体特征、结构、特性或功能包括在本发明的至少一个实施方式中,以及可包括在多于一个的实施方式中。另外,在本说明书的各个地方出现以上所提到的短语并不一定全都是指相同的实施方式或多个相同实施方式。
在本说明书的各个地方使用某些术语目的在于说明,并且不应被理解为限制。服务、功能或资源并不限于单个服务、单个功能或单个资源;这些术语的使用可指代相关服务、功能或资源的可分布或聚合的分组。
术语“包括”、“包括有”、“包含”和“包含有”应理解为开放性的术语,并且其后任何列出内容都是实例,而不旨在限于所列项目。本文所使用的任何标题仅是为了组织目的,并且不应被用于限制说明书或权利要求的范围。本专利文献中提到的每个参考文献以其全文通过引用并入本文。
此外,本领域的技术人员应认识到:(1)某些步骤可以可选地执行;(2)步骤可不限于本文中所阐述的特定次序;(3)某些步骤可以以不同次序执行;以及(4)某些步骤可同时地进行。
A.前言
本文提出了用于语音合成的新型全卷积架构的实施方式。实施方式被扩展到非常大的音频数据集,并且本文解决了当试图部署基于注意力的TTS系统时出现的几个实际问题。由本文中公开的实施方式提供的贡献中的一些包括但不限于:
1.全卷积字符转谱图架构的实施方式,它支持完全并行计算,并且比使用循环单元的类似架构训练得快一个数量级。为了方便起见,架构实施方式在本文中通常被称为Deep Voice 3或DV3。
2.结果表明,架构实施方式训练很快速,以及扩展到LibriSpeech ASR数据集(Panayotov等人,2015),该数据集包括来自2484位说话者的近820小时的音频数据。
3.结果表明,可产生单调的注意力行为,避免通常影响序列到序列模型的误差模式。
4.比较了几种波形合成方法的质量,包括WORLD(Morise等人,2016)、Griffin-Lim(Griffin和Lim,1984)和WaveNet(Oord等人,2016)。
5.描述了用于Deep Voice 3的推理内核的实施例实施方式,该推理内核每天可在单个GPU(图形处理单元)服务器上提供近千万次的查询。
B.相关工作
本文中的实施方式推进了神经语音合成和基于注意力的序列到序列学习的最新进展。
最近的几项工作解决了使用神经网络合成语音的问题,包括:Deep Voice 1(公开于2018年1月29日提交的、题为“SYSTEMS AND METHODS FOR REAL-TIME NEURAL TEXT-TO-SPEECH(用于实时神经文本转语音的系统和方法)的共同转让的第15/882,926号(案卷号:28888-2105)的美国专利申请中),以及公开于2017年2月24日提交的、题为“SYSTEMS ANDMETHODS FOR REAL-TIME NEURAL TEXT-TO-SPEECH(用于实时神经文本转语音的系统和方法)”的第62/463,482号(案卷号:28888-2105P)美国临时专利申请中,上述专利文献中的每个均通过引用以其整体并入本文中(为了方便起见,其公开内容可被称为“Deep Voice 1”或“DV1”);Deep Voice 2(公开于2018年5月8日提交的、题为“SYSTEMS AND METHODS FORMULTI-SPEAKER NEURAL TEXT-TO-SPEECH(用于多个说话者神经文本转语音的系统和方法)的共同转让的第15/974,397号(案卷号:28888-2144)的美国专利申请中),以及公开于2017年5月19日提交的、题为“SYSTEMS AND METHODS FOR MULTI-SPEAKER NEURAL TEXT-TO-SPEECH(用于多个说话者神经文本转语音的系统和方法)”的第62/508,579号(案卷号:28888-2144P)美国临时专利申请中,上述专利文献中的每个均通过引用以其整体并入本文中(为了方便起见,其公开内容可被称为“Deep Voice 2”或“DV2”);Tacotron(Wang等人,2017);Char2Wav(Sotelo等人,2017);VoiceLoop(Taigman等人,2017);SampleRNN(Mehri等人,2017)以及WaveNet(Oord等人,2016)。
Deep Voice 1和Deep Voice 2的实施方式中的至少一些保留了TTS管线的传统结构,将字素-音素转换、持续时间和频率预测以及波形合成分离开来。与Deep Voice 1和Deep Voice 2的实施方式相比,Deep Voice 3的实施方式采用了基于注意力的序列到序列模型,产生了更紧凑的架构。Tacotron和Char2Wav是提出的用于神经TTS的两个序列到序列模型。Tacotron是神经文本到谱图转换模型,与Griffin-Lim一起使用以便进行谱图到波形合成。Char2Wav预测WORLD声码器(Morise等人,2016)的参数,并使用基于WORLD参数的SampleRNN来生成波形。与Char2Wav和Tacotron相比,Deep Voice 3的实施方式避开了递归神经网络(RNN),以加快训练。RNN引入了限制训练期间模型并行性的顺序依赖关系。因此,Deep Voice 3实施方式通过避免常见的注意力误差,使基于注意力的TTS在不影响精度的情况下对生产TTS系统是可行的。最后,将WaveNet和SampleRNN作为用于波形合成的神经声码器模型。文献中也有许多高质量的人工设计的声码器的替代品,诸如STRAIGHT(Kawahara等人,1999)、Vocaine(Agiomyrgiannakis,2015)和WORLD(Morise等人,2016)。Deep Voice3的实施方式没有添加新的声码器,但是具有略微改变其架构而与不同的波形合成方法集成的潜能。
自动语音识别(ASR)数据集通常比传统的TTS语料库大得多,但往往不那么干净,因为它们通常包括多个麦克风和背景噪声。尽管现有工作已经将TTS方法应用于ASR数据集,但是据我们所知,Deep Voice 3的实施方式是第一个使用单个模型扩展到数千位说话者的TTS系统。
序列到序列模型通常将可变长度的输入编码成隐藏状态,然后通过解码器处理来产生目标序列。注意力机制允许解码器在生成目标序列时适应性地选择要关注的编码器隐藏状态。基于注意力的序列到序列模型广泛地应用于机器翻译、语音识别和文本概括中。最近与Deep Voice 3有关的注意力机制方面的改进包括训练期间强制执行的单调注意力、全注意力非递归架构和卷积序列到序列模型。Deep Voice 3实施方式演示了在TTS中训练时单调注意力的效用,这是期望单调性的新领域。可替代地,结果表明,通过简单的启发式方法,在推理期间仅强调单调性,标准的注意机制可同样有效甚至更好。Deep Voice 3实施方式还建立在卷积序列到序列架构之上,通过引入使用速率调整加强的定位编码来解释输入域长度与输出域长度之间的不匹配。
C.模型架构的实施方式
在该节中,提出了用于TTS的全卷积序列到序列架构的实施方式。架构实施方式能够将各种文本特征(例如,字符、音素、重音)转换成各种声码器参数,例如mel-band谱图、线性比例对数幅度谱图、基本频率、频谱包络和非周期性参数。此声码器参数可用作音频波形合成模型的输入。
在一个或多个实施方式中,Deep Voice 3架构包括三个组件:
-编码器:全卷积编码器,将文本特征转换成内部学习的表示。
-解码器:全卷积因果解码器,以自回归的方式,使用多跳卷积注意力机制将学习过的表示解码成低维音频表示(mel-band谱图)。
-转换器:全卷积后处理网络,从解码器的隐藏状态预测最终的声码器参数(取决于声码器选择)。与解码器不同,转换器是非因果性的,并因此可依赖于将来的环境信息。
图1示意性描绘了根据本公开的实施方式的示例性Deep Voice 3架构100。在实施方式中,Deep Voice 3架构100使用编码器105中的剩余卷积层,将文本编码成用于基于注意力的解码器130的每一时间步长的关键与值向量120。在一个或多个实施方式中,解码器130使用这些来预测与输出音频相对应的mel比例对数幅度谱图142。在图1中,虚线箭头146描绘了推理期间的自回归合成过程(在训练期间,使用来自与输入文本相对应的groundtruth(标注的真实数据)音频的mel谱图帧)。在一个或多个实施方式中,解码器130的隐藏状态然后反馈给转换器网络150,以预测用于波形合成的声码器参数,从而产生输出波160。附录1(包括示意性描绘根据本公开的实施方式的示例性详细模型架构的图7)提供了补充细节。
在一个或多个实施方式中,待优化的总体目标函数可能是来自解码器(C.5节)和转换器(C.6节)的损失的线性组合。在一个或多个实施方式中,将解码器130和转换器150分离,并施加多任务训练,因为它使注意力学习在实践中更容易。具体地,在一个或多个实施方式中,用于mel谱图预测的损失指导注意力机制的训练,因为除了声码器参数预测之外,注意力是使用来自mel谱图预测的梯度训练的(例如,使用用于mel谱图的L1损失)。
在多个说话者的场景中,与Deep Voice 2实施方式中一样的可训练的说话者嵌入170在编码器105、解码器130和转换器150上使用。
图2描绘了根据本公开的实施方式的使用诸如图1或图7中描绘的文本转语音架构的一般概述方法。在一个或多个实施方式中,使用嵌入模型(诸如文本嵌入模型110)将输入文本转换为可训练的嵌入表示(205)。使用编码器网络105将嵌入表示转换为注意力关键表示120和注意力值表示120(210),其中,编码器网络105包括一个或多个卷积块116的系列114。这些注意力关键表示120和注意力值表示120由基于注意力的解码器网络使用,其中,基于注意力的解码器网络包括一个或多个解码器块134的系列134,其中解码器块134包括生成查询138和注意力块140的卷积块136,以生成输入文本的低维音频表示(例如,142)(215)。在一个或多个实施方式中,输入文本的低维音频表示可通过后处理网络(例如,150A/152A、150B/152B或152C)进行额外处理,该后网络预测输入文本的最终音频合成(220)。如上所述,可在过程200中使用说话者嵌入170,以致使合成音频160呈现与说话者标识或说话者嵌入相关联的一个或多个音频特征(例如,男声、女声、特殊口音等)。接下来,更详细地描述这些组件中的每一个以及数据处理。示例性模型的超参数见附录3内的表4。
1.文本预处理
文本预处理对良好的性能可能很重要。输入原始文本(具有空格和标点符号的字符)会对许多话语产生可接受的性能。然而,一些话语可能会有罕见词的发音错误,或者可能产生省略的词和重复的词。在一个或多个实施方式中,这些问题可通过如下方式将输入文本归一化来缓解:
1.在输入文本中将所有字符均大写。
2.删除所有中间标点符号。
3.每个话语使用句号或问号结尾。
4.使用特殊分隔符字符替换词之间的空格,这些分隔符字符表示说话者插入词之间的停顿持续时间。在一个或多个实施方式中,可使用四个不同的词分隔符,分别指示(i)连音词;(ii)标准发音和空格字符;(iii)词之间的短停顿;以及(iv)词之间的长停顿。例如,“Either way,you should shoot very slow”这句话,在“way”后面有长停顿,在“shoot”后面有短停顿,为了便于编码,将会被写成“Either way%you should shoot/veryslow%”,%表示长停顿,/表示短停顿。在一个或多个实施方式中,停顿持续时间可通过手动标记获得或通过诸如Gentle(Ochshorn&Hawkins,2017)的文本音频校准器进行估计。在一个或多个实施方式中,手工标记单个说话者的数据集,以及使用Gentle注释多个说话者的数据集。
2.字符和音素的联合表示
在一个或多个实施方式中,部署的TTS系统应优选地包括修改发音的方式,以纠正常见错误(通常涉及例如专有名词、外来词和领域特定的术语)。传统方式是保存词典,以将词映射为它们的语音表示。
在一个或多个实施方式中,模型可将字符(包括标点符号和空格)直接地转换成声学特征,并因此学习隐式的字素转音素模型。当模型出错时,这种隐式转换可能很难纠正。因此,在一个或多个实施方式中,除了字符模型之外,可通过显式地允许音素输入选项来训练纯音素模型和/或混合的字符与音素模型。在一个或多个实施方式中,除了编码器的输入层有时接收音素和音素重音嵌入而不是字符嵌入之外,这些模型可与纯字符模型相同。
在一个或多个实施方式中,纯音素模型需要预处理步骤以将词转换为它们的音素表示(例如,通过使用外部音素词典或单独训练的字素转音素模型)。在实施方式中,使用了Carnegie Mellon University Pronouncing Dictionary(卡内基梅隆大学的发音词典)CMUDict 0.6b。在一个或多个实施方式中,混合的字符与音素模型需要类似的预处理步骤,除了不在音素词典中的词之外。这些词汇表外/词典外的词可输入为字符,从而允许模型使用其隐式学习的字素转音素模型。在训练混合的字符与音素模型时,在每个训练迭代时每个词都以一定的概率被其音素表示替换。据发现,这提高了发音准确性并使注意力误差最小化,特别是将其归纳为比在训练期间看到的要长的话语时。更重要地,支持音素表示的模型允许使用音素词典纠正错误发音,这是部署的系统的期望特征。
在一个或多个实施方式中,文本嵌入模型110可包括纯音素模型和/或混合的字符与音素模型。
3.用于顺序处理的卷积块
通过提供足够大的接收域,堆叠的卷积层可在计算中利用序列中的长期环境信息,而无需引入任何顺序依赖关系。在一个或多个实施方式中,卷积块用作主顺序处理单元,以对文本和音频的隐式表示编码。
图3示意性描绘了根据本公开的实施方式的卷积块,该卷积块包括具有门控线性单元的一维(1D)卷积和剩余连接。在一个或多个实施方式中,卷积块300包括一维(1D)卷积滤波器310、作为可学习的非线性的门控线性单元315、与输入305的剩余连接320以及比例因子325。在所示实施方式中,比例因子为尽管可使用不同的值。比例因子有助于确保输入方差在训练的早期得到保留。在图3中所示的实施方式中,c(330)表示输入305的维度,以及大小为2c(335)的卷积输出可拆分340成大小相等的部分:门向量345和输入向量350。门控线性单元为梯度流提供了线性路径,在保持非线性的同时,减轻了堆叠的卷积块梯度消失的问题。在一个或多个实施方式中,为了引入与说话者相关的控制,可在softsign函数之后,在卷积滤波器输出中添加与说话者相关的嵌入355作为偏差。在一个或多个实施方式中,使用了softsign非线性,因为它限制输出的范围,同时也避免了基于指数的非线性有时呈现的饱和问题。在一个或多个实施方式中,卷积滤波器权重使用整个网络中的零均值和单元方差激活法进行初始化。
架构中的卷积可以是非因果性的(例如,编码器105/705和转换器150/750中)或因果性的(例如,解码器130/730中)。在一个或多个实施方式中,为了保持序列长度,对于左边因果性卷积,输入使用k–1个0的时间步长进行填充,对于左边和右边的非因果性卷积,使用(k–1)/2个0的时间步长进行填充,其中,k为奇数卷积滤波器宽度(在实施方式中,奇数卷积宽度用于简化卷积算法,尽管可使用偶数卷积宽度和偶数k值)。在一个或多个实施方式中,在卷积之前对输入应用dropout 360,以便进行调整。
4.编码器
在一个或多个实施方式中,编码器网络(例如,编码器105/705)从嵌入层开始,嵌入层将字符或音素转换为可训练的向量表示he。在一个或多个实施方式中,这些嵌入he首先经由全连接层从嵌入维度投影为目标维度。然后,在一个或多个实施方式中,它们通过一系列的卷积块(诸如C.3节中描述的实施方式)进行处理,以选取依赖时间的文本信息。最后,在一个或多个实施方式中,它们投影回嵌入维度,以创建注意力关键向量hk。注意力值向量可由注意力关键向量和文本嵌入进行计算,以联合考虑he中的局部信息和hk中的长期环境信息。关键向量hk被用于每个注意力块以计算注意力权重,而最终环境向量计算为值向量hv的加权平均值(见C.6节)。
5.解码器
在一个或多个实施方式中,解码器网络(例如,解码器130/730)通过预测以过去音频帧为条件的一组r个未来音频帧而以自回归的方式生成音频。由于解码器是自回归的,所以在实施方式中,它使用因果性卷积块。在一个或多个实施方式中,选择mel-band对数幅度谱图作为紧凑的低维音频帧表示,尽管可使用其它表示。根据经验观察到,将多个帧一起解码(即,r>1)产生更好的音频质量。
在一个或多个实施方式中,解码器网络从具有整流线性单元(ReLU)的非线性的多个全连接层开始,以对输入的mel谱图(在图1中表示为“PreNet(前网络)”)进行预处理。然后,在一个或多个实施方式中,其后是一系列解码器块,其中,解码器块包括因果性卷积块和注意力块。这些卷积块生成用于参与编码器隐藏状态的查询(见C.6节)。最后,在一个或多个实施方式中,全连接层输出下一组r个音频帧以及二进制的“最终帧”预测(指示是否已经合成话语的最后一帧)。在一个或多个实施方式中,在注意力块之前的每个全连接层之前均应用dropout,除了第一个之外。
可使用输出的mel谱图来计算L1损失,以及可使用最终帧预测来计算二进制交叉熵损失。选择L1损失,因为它凭经验产生了最好的结果。诸如L2的其它损失可能受到异常频谱特征,这些异常的频谱特征可能与非语音噪声相对应。
6.注意力块
图4示意性描绘了根据本公开的实施方式的注意力块的实施方式。如图4中所示,在一个或多个实施方式中,定位编码405、定位编码410可分别添加至关键420和查询438矢量,速率分别为ωkey 405和ωquery 410。通过向分对数(logits)添加大负值的掩码,可在推断中应用强制单调性。可使用两种可能的注意力方案中的一个:softmax或单调注意力(例如,来自Raffel等人(2017))。在一个或多个实施方式中,在训练期间,丢弃注意力权重。
在一个或多个实施方式中,使用点积注意力机制(如图4中所示)。在一个或多个实施方式中,注意力机制使用来自编码器的每时间步长关键向量420和查询向量438(解码器的隐藏状态)来计算注意力权重,然后输出计算为值向量421的加权平均值的环境向量415。
通过引入注意力随时间单调递进的感应偏差,观察到经验益处。因此,在一个或多个实施方式中,将定位编码添加至关键和查询向量中。这些定位编码hp可选择为hp(i)=sin(ωsi/10000k/d)(对于偶数i)或cos(ωsi/10000k/d)(对于奇数i),其中i为时间步长索引,k为定位编码中的信道索引,d为定位编码中的信道总数,以及ωs为编码定位速率。在一个或多个实施方式中,定位速率指示注意力分布中的线的平均斜率,大致与语速相对应。对于单个说话者,可将ωs设置为1以用于查询,并且可固定为输出时间步长与输入时间步长的比值(在整个数据集上计算)以用于关键(key)。对于多个说话者的数据集,可从每个说话者的说话者嵌入来计算用于关键和查询的xs(例如,如图4中所示)。当正弦和余弦函数形成标准正交基时,该初始化产生对角线形式的注意力分布(见图5A)。在一个或多个实施方式中,用于计算隐藏的注意力向量的全连接层权重被初始化为相同的值,以用于查询投影和关键投影。定位编码可用于所有的注意力块。在一个或多个实施方式中,使用了环境归一化(例如,Gehring等人(2017)中)。在一个或多个实施方式中,将全连接层应用于环境向量以生成注意力块的输出。总体而言,定位编码改进了卷积注意力机制。
生产质量的TTS系统对注意力误差具有非常低的容忍度。因此,除了定位编码之外,还考虑了额外的策略以消除重复或省略词的情况。可使用的一种方法是使用Raffel等人(2017)引入的单调的注意力机制代替规范的注意力机制,其通过期望训练逼近具有软单调注意力的硬单调随机解码。Raffel等人(2017)也通过采样提出了硬单调注意力过程。它的目的是通过仅参与经由采样所选择的状态来提高推理速度,从而避免对未来状态的计算。本文的实施方式不受益于这种加速,并且在一些情况下观察到不良注意力行为,例如停留在第一个字符或最后一个字符上。尽管单调性有所改善,但是这种策略可能产生更加分散的注意力分布。在一些情况下,会同时出现几个字符,无法获得高质量的语音。这可能归因于软对准的非归一化注意力系数,可能导致来自编码器的弱信号。因此,在一个或多个实施方式中,使用仅在推理时将注意力权重约束为单调的替代策略,使训练过程保持没有任何约束。不是在整个输入上计算softmax,而是可在固定窗口上计算softmax,该固定窗口起始于最后出现的位置并前进几个时间步长。在本文的试验中,使用的窗口大小为三,尽管可使用其它窗口大小。在一个或多个实施方式中,初始位置设置为零,并且稍后被计算为当前窗口内的最高注意力权重的索引。如图5A至图5C中所示,该策略还在推理中强制执行单调注意力以及产生出色的语音质量。
7.转换器
在一个或多个实施方式中,转换器网络(例如,150/750)将来自解码器的最后隐藏层的激活作为输入,应用几个非因果性卷积块,然后预测用于下游声码器的参数。在一个或多个实施方式中,与解码器不同,转换器是非因果性的和非自回归的,因此它可使用来自解码器的未来环境预测其输出。
在实施方式中,转换器网络的损失函数取决于下游声码器的类型:
1.Griffin-Lim声码器:在一个或多个实施方式中,Griffin-Lim算法通过迭代地估计未知相位而将谱图转换为时域音频波形。据发现,在波形合成之前将由锐化因子参数化的谱图自乘有助于改善音频质量。L1损失用于预测线性尺度对数幅度谱图。
2.WORLD声码器:在一个或多个实施方式中,WORLD声码器是基于Morise等人(2016)。图6示意性描绘了根据本公开的实施方式的具有全连接(FC)层的示例性生成的WORLD声码器参数。在一个或多个实施方式中,预测了作为声码器参数的布尔(boolean)值610(当前帧为浊音还是清音),F0值625(如果帧为浊音),频谱包络615和非周期性参数620。在一个或多个实施方式中,交叉熵损失用于浊音–清音预测,以及L1损失用于所有其它预测。在实施方式中,“σ”是sigmoid函数,其用于获得用于二进制交叉熵预测的有界变量。在一个或多个实施方式中,输入605是转换器中的输出隐藏状态。
3.WaveNet声码器:在一个或多个实施方式中,WaveNet被单独训练以用作声码器,将梅尔尺度对数幅度谱图作为声码器参数处理。这些声码器参数作为外部调节器输入到网络中。可使用ground-truth mel谱图和音频波形来训练WaveNet。除了调节器之外的架构类似于Deep Voice 2中描述的WaveNet。虽然Deep Voice 2的某些实施方式中的WaveNet受线性尺度对数幅度谱图的制约,但是使用mel尺度谱图观察到良好的性能,这与更紧凑的音频表示相对应。除了在解码时mel尺度谱图上的L1损失之外,线性尺度谱图上的L1损失也可用作Griffin-Lim声码器。
D.结果
应注意的是,这些实验和结果以说明的方式提供,并且使用一个或多个的具体实施方式在具体条件下执行;因此,这些实验或其结果不应当用于限制本专利文件的公开的范围。
该节中是评估语音合成系统实施方式的几个不同实验和度量。此外,系统实施方式的性能被量化并与其它最近公布的神经TTS系统进行比较。
1.数据
对于单个说话者合成,使用包含大约20小时音频且具有48KHz采样率的内部英语语音数据集。对于多个说话者合成,使用VCTK和LibriSpeech数据集。VCTK数据集包含108位说话者的音频,总持续时间约为44小时。LibriSpeech数据集包含2484为说话者的音频,总持续时间约为820小时。VCTK的采样率为48KHz,LibriSpeech的采样率为16KHz。
2.快速训练
将Deep Voice 3实施方式与最近发布的基于注意力的TTS系统Tacotron进行比较。对于在单个说话者数据上测试的Deep Voice 3系统实施方式,使用一个GPU的平均训练迭代时间(批量大小为4)为0.06秒,而对于Tacotron为0.59秒,表明训练速度增大十倍。此外,对于试验中的所有三个数据集,Deep Voice 3实施方式在约500K迭代之后收敛,而Tacotron需要约2M迭代。这种显着的加速至少部分地归因于Deep Voice 3实施方式的全卷积架构,其在训练期间高度利用GPU的并行性。
3.注意力误差模式
基于注意力的神经TTS系统可遇到几种可能降低合成质量的误差模式——包括(1)重复的词,(ii)错误发音,以及(iii)省略的词。例如,考虑短语“DOMINANTVEGETARIAN”,应该用音素“D AA M AH N AH N T.V EH JH AH T EH R IY AH N.”来发音。以下是上述三种误差模式的示例性误差:
(i)“D AA M AH N AH N T.V EH JH AH T EH T EH R IY AH N.”;
(ii)“D AE M AH N AE N T.V EH JH AH T EH R IY AH N.”;以及
(iii)“D AH N T.V EH JH AH T EH R IY AH N.”
(i)和(iii)的一个原因是基于注意力的模型实施方式没有利用单调处理机制。为了跟踪注意力误差的发生,构建了自定义的100个句子的测试集(见附录5),其包括来自部署的TTS系统的特别具有挑战性的情况(例如,日期,首字母缩写词,URL,重复的词,专有名词,外来词等)。表1中列出了注意力误差计数,其表明使用标准注意力机制训练但在推理中强制执行单调约束的、具有字符和音素的联合表示的模型在很大程度上优于其它方法。
表1:单个说话者Deep Voice 3模型实施方式在100个句子的测试集(在附录5中给出)上的注意力误差计数。一个或多个错误发音,省略和重复计为每个话语的单个错误。“音素&字符”是指使用联合字符和音素表示训练的模型实施方式,如C.2节中所讨论的。不包括纯音素的模型,因为测试集包含词汇外的词。所有的模型实施方式都使用Griffin-Lim作为他们的声码器。
文本输入 | 注意力 | 推理约束 | 重复的 | 发音错误的 | 省略的 |
纯字符 | 点积 | 是 | 3 | 35 | 19 |
音素&字符 | 点积 | 否 | 12 | 10 | 15 |
音素&字符 | 点积 | 是 | 1 | 4 | 3 |
音素&字符 | 单调性 | 否 | 5 | 9 | 11 |
4.自然度
已经证明,波形合成的选择对于自然度评级很重要,并将其与其它公布的神经TTS系统进行比较。表2中的结果表明,WaveNet、神经声码器实现3.78的最高MOS,其次为WORLD和Griffin-Lim,分别为3.63和3.62。因此,表明最自然的波形合成可使用神经声码器来完成,以及基本谱图反演技术可将高级声码器与高质量的单个说话者数据进行匹配。WaveNet声码器实施方式听起来更自然,因为WORLD声码器引入了各种引人注意的伪像。然而,较低的推理延迟可能致使WORLD声码器更受欢迎:经过精心设计的WaveNet实施例每个CPU核实时运行3X,而WORLD每个CPU核实时运行高达40X(见下面的小节)。
表2:使用不同波形合成方法的具有95%置信区间的平均意见分(MOS)评级。使用了crowdMOS工具包(Ribeiro等人,2011);来自这些模型的批量样品被提交给MechanicalTurk的评估者。由于批次包含来自所有模型的样本,因此试验自然地引起模型之间的比较。
5.多个说话者合成
为了证明模型实施方式能够有效地处理多个说话者的语音合成,在VCTK和LibriSpeech数据集上训练模型实施方式。
对于LibriSpeech(ASR数据集),标准去噪(使用例如SoX(Bagwell,2017))并在停顿位置将长话语拆分成多个话语(由Gentle确定(Ochshorn&Hawkins,2017)))的预处理步骤。结果呈现在表3中。ground-truth样本被有意地包括在正评估的集合中,因为北美众包评估者可能不熟悉数据集中的重音。具有WORLD声码器的模型实施方式在VCTK上实现了可比较的3.44的MOS,而来自Deep Voice 2实施方式的MOS为3.69,这是使用WaveNet作为声码器并且单独优化的音素持续时间和基本频率预测模型的最先进的多个说话者神经TTS系统。通过将WaveNet用于多个说话者合成,预计会有进一步的改进,尽管它可能会减慢推理速度。与VCTK相比,在LibriSpeech上的MOS较低,这可能主要归因于由于各种记录条件和明显的背景噪声,训练数据集的质量较低。Deep Voice 3实施方式在仅具有108位说话者(与VCTK相同)的二次采样的LibriSpeech数据集上进行测试,并且观察到比VCTK质量更差的生成样本。在文献中,Yamagishi等人(2010)在将参数化TTS方法应用于具有数百位说话者的不同ASR数据集时,也观察到更差的性能。最后,发现学习的说话者嵌入位于有意义的潜在空间中(见附录4中的图8A和图8B)。
表3:示出了对来自多个说话者数据集上的神经TTS系统的音频剪辑的95%置信区间的平均意见分(MOS)评级。还使用了crowdMOS工具包;包括ground truth的批量样本被提交给人类评估者。多个说话者Tacotron实施例和超参数是基于Deep Voice 2实施方式。Deep Voice2实施方式系统和Tacotron系统未针对LibriSpeech数据集进行训练,因为优化超参数需要非常长的时间。
6.优化部署推理
为了以成本有效的方式部署神经TTS系统,系统应能够在相当数量的硬件上处理与替代系统一样多的流量。为此,在具有二十个CPU核的单个GPU服务器上,目标是每天一千万次查询的吞吐量或每秒116次查询(QPS)(其中查询被定义为合成一秒钟话语的音频),发现其成本与商业部署的TTS系统相当。通过为Deep Voice 3架构实施方式实施自定义GPU内核并跨CPU并行WORLD合成,证明了模型实施方式每天可处理一千万次查询。附录2中提供了有关实施方式的更多细节。
E.一些结论
本文呈现的是基于具有位置增强的注意力机制的新型全卷积序列到序列声学模型的神经文本转语音系统的实施方式。该系统的实施方式可被称为Deep Voice 3。描述了序列到序列语音合成模型中的常见误差模式,并且示出了Deep Voice 3实施方式成功地避免了这些常见误差模式。示出了模型实施方式与波形合成方法无关,以及实施方式可适用于Griffin-Lim谱图反演,WaveNet和WORLD声码器合成。已经证明,架构实施方式能够通过使用可训练的说话者嵌入来增强实施方式而实现多个说话者的语音合成。最后,描述了生产就绪的Deep Voice 3系统实施方式,包括文本标准化和性能特征,并且通过大量的MOS评估来演示实施方式的最新质量。本领域技术人员将认识到,实施方式可包括改变以帮助改进隐式学习的字素转音素模型,与神经声码器联合训练,以及在更干净和更大的数据集上训练,以使模型扩展至来自成千上万的说话者的人类声音和口音的全部变化。
F.系统实施方式
在实施方式中,本专利文献的方面可涉及、可包括一个或多个信息处理系统/计算系统或者可在一个或多个信息处理系统/计算系统上实施。计算系统可包括可操作来计算、运算、确定、分类、处理、传输、接收、检索、发起、路由、交换、存储、显示、通信、显现、检测、记录、再现、处理或利用任何形式信息、智能或数据的任何手段或手段的组合。例如,计算系统可为或可包括个人计算机(例如,膝上型计算机)、平板电脑、平板手机、个人数字助理(PDA)、智能手机、智能手表、智能包装、服务器(例如,刀片式服务器或机架式服务器)、网络存储设备、摄像机或任何其他合适设备,并且可在大小、形状、性能、功能和价格方面改变。计算系统可包括随机存取存储器(RAM)、一个或多个处理资源(例如中央处理单元(CPU)或硬件或软件控制逻辑)、ROM和/或其他类型的存储器。计算系统的另外组件可包括一个或多个盘驱动器、用于与外部设备通信的一个或多个网络端口、以及各种输入和输出(I/O)设备(例如键盘、鼠标、触摸屏和/或视频显示器)。计算系统还可包括可操作为在各种硬件组件之间传输通信的一个或多个总线。
图9描绘根据本公开的实施方式的计算设备/信息处理系统(或是计算系统)的简化框图。应理解,计算系统可不同地配置并且包括不同组件,包括如图9中所示的更少或更多的部件,但应理解,针对系统900所示出的功能可操作为支持计算系统的各种实施方式。
如图9所示,计算系统900包括一个或多个中央处理单元(CPU)901,CPU 901提供计算资源并控制计算机。CPU 901可实施有微处理器等,并且还可包括一个或多个图形处理单元(GPU)919和/或用于数学计算的浮点协处理器。系统900还可包括系统存储器902,系统存储器902可呈随机存取存储器(RAM)、只读存储器(ROM)、或两者的形式。
如图9所示,还可提供多个控制器和外围设备。输入控制器903表示至各种输入设备904的接口,例如键盘、鼠标、触摸屏和/或触笔。计算系统900还可包括存储控制器907,该存储控制器907用于与一个或多个存储设备908对接,存储设备中的每个包括存储介质(诸如磁带或盘)或光学介质(其可用于记录用于操作系统、实用工具和应用程序的指令的程序,它们可包括实施本发明的各方面的程序的实施方式)。存储设备908还可用于存储经处理的数据或是将要根据本发明处理的数据。系统900还可包括显示控制器909,该显示控制器909用于为显示设备911提供接口,显示设备911可为阴极射线管(CRT)、薄膜晶体管(TFT)显示器、有机发光二极管、电致发光面板、等离子面板或其他类型的显示器。计算系统900还可包括用于一个或多个外围设备906的一个或多个外围控制器或接口905。外围设备的示例可包括一个或多个打印机、扫描仪、输入设备、输出设备、传感器等。通信控制器914可与一个或多个通信设备915对接,这使系统900能够通过各种网络(包括互联网、云资源(例如以太云、经以太网的光纤通道(FCoE)/数据中心桥接(DCB)云等)、局域网(LAN)、广域网(WAN)、存储区域网络(SAN))中的任一网络,或通过任何合适电磁载波信号(包括红外信号)来连接至远程设备。
在示出的系统中,所有主要系统组件可连接至总线916,总线916可表示多于一个的物理总线。然而,各种系统组件可在物理上彼此接近或可不在物理上彼此接近。例如,输入数据和/或输出数据可远程地从一个物理位置传输到另一物理位置。另外,实现本发明的各方面的程序可经由网络从远程位置(例如,服务器)访问。此类数据和/或程序可通过各种机器可读介质中的任一机器可读介质来传送,机器可读介质包括但不限于:诸如硬盘、软盘和磁带的磁性介质;诸如CD-ROM和全息设备的光学介质;磁光介质;以及硬件设备,该硬件设备专门被配置成存储或存储并执行程序代码,该硬件设备例如专用集成电路(ASIC)、可编程逻辑器件(PLD)、闪存设备、以及ROM和RAM设备。
本发明的方面可利用用于一个或多个处理器或处理单元以使步骤执行的指令在一个或多个非暂态计算机可读介质上编码。应注意,一个或多个非暂态计算机可读介质应当包括易失性存储器和非易失性存储器。应注意,替代实现方式是可能的,其包括硬件实现方式或软件/硬件实现方式。硬件实施的功能可使用ASIC、可编程的阵列、数字信号处理电路等来实现。因此,任何权利要求中的术语“手段”旨在涵盖软件实现方式和硬件实现方式两者。类似地,如本文使用的术语“计算机可读媒介或介质”包括具有实施在其上的指令程序的软件和/或硬件或它们的组合。利用所构想的这些替代实现方式,应当理解,附图以及随附描述提供本领域的技术人员编写程序代码(即,软件)和/或制造电路(即,硬件)以执行所需处理所要求的功能信息。
应当注意,本发明的实施方式还可涉及具有其上具有用于执行各种计算机实施的操作的计算机代码的非暂态有形计算机可读介质的计算机产品。介质和计算机代码可为出于本发明的目的而专门设计和构造的介质和计算机代码,或者它们可为相关领域中的技术人员已知或可用的。有形计算机可读介质的示例包括但不限于:诸如硬盘、软盘和磁带的磁性介质;诸如CD-ROM和全息设备的光学介质;磁光介质;以及专门配置成存储或存储并执行程序代码的硬件设备,例如,专用集成电路(ASIC)、可编程逻辑器件(PLD)、闪存设备、以及ROM和RAM设备。计算机代码的示例包括机器代码(例如,编译器产生的代码)以及包含可由计算机使用解释器来执行的更高级代码的文件。本发明的实施方式可整体地或部分地实施为可在由处理设备执行的程序模块中的机器可执行指令。程序模块的示例包括库、程序、例程、对象、组件和数据结构。在分布的计算环境中,程序模块可物理上定位在本地、远程或两者的设定中。
本领域的技术人员将认识到,计算系统或编程语言对本发明的实践来说均不重要。本领域的技术人员将还将认识到,多个上述元件可物理地和/或在功能上划分成子模块或组合在一起。
本领域技术人员将理解,前文的示例和实施方式是示例性的,并且不限制本公开的范围。旨在说明的是,在本领域的技术人员阅读本说明书并研究附图后将对本领域的技术人员显而易见的本发明的所有、置换、增强、等同、组合或改进包括在本公开的真实精神和范围内。还应注意,任何权利要求书的元素可不同地布置,包括具有多个从属、配置和组合。
G.附录
1.DEEP VOICE 3的详细模型架构的实施方式
图7示意性描绘了根据本公开的实施方式的示例性详细的Deep Voice 3模型架构。在一个或多个实施方式中,模型700使用深度剩余卷积网络将文本和/或音素编码为用于注意力解码器730的每时间步长关键720和值722向量。在一个或多个实施方式中,解码器730使用这些来预测与输出音频相对应的mel-band对数幅度谱图742。虚线箭头746描绘了推理期间的自回归合成过程。在一个或多个实施方式中,解码器的隐藏状态被馈送至转换器网络750,以输出用于Griffin-Lim 752A的线性谱图或用于WORLD 752B的参数,这些可用于合成最终波形。在一个或多个实施方式中,权重归一化应用于模型中的所有卷积滤波器和全连接层的权重矩阵。如图7中描绘的实施方式中所示,WaveNet 752不需要单独的转换器,因为它输入了mel-band对数幅度谱图。
2.优化用于部署的DEEP VOICE 3的实施方式
使用TensorFlow图进行推理结果是非常昂贵的,平均大约1QPS。糟糕的TensorFlow性能可能是由于在数百个节点和数百个时间步长上进行图形评估的开销造成的。使用诸如具有TensorFlow的XLA技术可加快评估,但不太可能与手写内核的性能相匹配。相反,为Deep Voice 3实施方式推理,实施了自定义GPU内核。由于模型的复杂性和大量的输出时间步长,为图中的不同操作(例如,卷积,矩阵乘法,一元和二元运算等)启动单个内核可能是不切实际的;启动CUDA内核的开销大约为50μs,当对模型中的所有操作和所有输出时间步长聚合时,将吞吐量限制为大约10QPS。因此,为整个模型实施单个内核,这避免了启动许多CUDA内核的开销。最后,代替在内核中批量计算,本文的内核实施方式在单个话语上操作,并且启动与GPU上的流式多处理器(SM)一样多的并发流。每个内核均可使用一个块启动,因此GPU预计成每个SM计划一个块,允许根据SM的数量线性地扩展推理速度的能力。
在位于加利福尼亚州圣克拉拉的Nvidia公司的具有56个SM的单个Nvidia TeslaP100GPU上,实现了115QPS的推理速度,这与每天1000万次查询的目标相对应。在实施方式中,在服务器上的所有20个CPU上并行WORLD合成,将线程永久地固定到CPU以使高速缓存性能最大化。在此设置中,GPU推理是瓶颈,因为在20核上的WORLD合成比115QPS更快。通过更优化的内核,更小的模型和固定精度的算法,可更快地进行推理。
3.模型的超参数
下表4中提供了本专利文件中所使用的模型的所有超参数。
表4:用于本专利文件中使用的三个数据集的最佳模型的超参数。
4.学习嵌入的潜在空间
将主成分分析应用于学习的说话者嵌入,并且基于他们的ground truth性别来对说话者进行分析。图8A和图8B示出了由前两个主成分跨越的空间中的说话者的性别。观察到男女性别之间的明显分离,表明低维说话者嵌入构成了有意义的潜在空间。
图8A和图8B描绘了根据本公开的实施方式的针对(a)VCTK数据集(108位说话者)和(b)LibriSpeech数据集(2484位说话者)的学习嵌入的前两个主成分。
5.100个句子的测试集
下面列出了用于量化表1中的结果的100个句子(注意%符号与停顿相对应):
1.A B C%.
2.X Y Z%.
3.HURRY%.
4.WAREHOUSE%.
5.REFERENDUM%.
6.IS IT FREE%?
7.JUSTIFIABLE%.
8.ENVIRONMENT%.
9.A DEBT RUNS%.
10.GRAVITATIONAL%.
11.CARDBOARD FILM%.
12.PERSON THINKING%.
13.PREPARED KILLER%.
14.AIRCRAFT TORTURE%.
15.ALLERGIC TROUSER%.
16.STRATEGIC CONDUCT%.
17.WORRYING LITERATURE%.
18.CHRISTMAS IS COMING%.
19.A PET DILEMMA THINKS%.
20.HOW WAS THE MATH TEST%?
21.GOOD TO THE LAST DROP%.
22.AN M B A AGENT LISTENS%.
23.A COMPROMISE DISAPPEARS%.
24.AN AXIS OF X Y OR Z FREEZES%.
25.SHE DID HER BEST TO HELP HIM%.
26.A BACKBONE CONTESTS THE CHAOS%.
27.TWO A GREATER THAN TWO N NINE%.
28.DON'T STEP ON THE BROKEN GLASS%.
29.A DAMNED FLIPS INTO THE PATIENT%.
30.A TRADE PURGES WITHIN THE B B C%.
31.I'D RATHER BE A BIRD THAN A FISH%.
32.I HEAR THAT NANCY IS VERY PRETTY%.
33.I WANT MORE DETAILED INFORMATION%.
34.PLEASE WAIT OUTSIDE OF THE HOUSE%.
35.N A S A EXPOSURE TUNES THE WAFFLE%.
36.A MIST DICTATES WITHIN THE MONSTER%.
37.A SKETCH ROPES THE MIDDLE CEREMONY%.
38.EVERY FAREWELL EXPLODES THE CAREER%.
39.SHE FOLDED HER HANDKERCHIEF NEATLY%.
40.AGAINST THE STEAM CHOOSES THE STUDIO%.
41.ROCK MUSIC APPROACHES AT HIGH VELOCITY%.
42.NINE ADAM BAYE STUDY ON THE TWO PIECES%.
43.AN UNFRIENDLY DECAY CONVEYS THE OUTCOME%.
44.ABSTRACTION IS OFTEN ONE FLOOR ABOVE YOU%.
45.A PLAYED LADY RANKS ANY PUBLICIZED PREVIEW%.
46.HE TOLD US A VERY EXCITING ADVENTURE STORY%.
47.ON AUGUST TWENTY EIGTH%MARY PLAYS THE PIANO%.
48.INTO A CONTROLLER BEAMS A CONCRETE TERRORIST%.
49.I OFTEN SEE THE TIME ELEVEN ELEVEN ON CLOCKS%.
50.IT WAS GETTING DARK%AND WE WEREN'T THERE YET%.
51.AGAINST EVERY RHYME STARVES A CHORAL APPARATUS%.
52.EVERYONE WAS BUSY%SO I WENT TO THE MOVIE ALONE%.
53.I CHECKED TO MAKE SURE THAT HE WAS STILL ALIVE%.
54.A DOMINANT VEGETARIAN SHIES AWAY FROM THE G O P%.
55.JOE MADE THE SUGAR COOKIES%SUSAN DECORATED THEM%.
56.I WANT TO BUY A ONESIE%BUT KNOW IT WON'T SUIT ME%.
57.A FORMER OVERRIDE OF Q W E R T Y OUTSIDE THE POPE%.
58.F B I SAYS THAT C I A SAYS%I'LL STAY AWAY FROM IT%.
59.ANY CLIMBING DISH LISTENS TO A CUMBERSOME FORMULA%.
60.SHE WROTE HIM A LONG LETTER%BUT HE DIDN'T READ IT%.
61.DEAR%BEAUTY IS IN THE HEAT NOT PHYSICAL%I LOVE YOU%.
62.AN APPEAL ON JANUARY FIFTH DUPLICATES A SHARP QUEEN%.
63.A FAREWELL SOLOS ON MARCH TWENTY THIRD SHAKES NORTH%.
64.HE RAN OUT OF MONEY%SO HE HAD TO STOP PLAYING POKER%.
65.FOR EXAMPLE%A NEWSPAPER HAS ONLY REGIONAL DISTRIBUTION T%.
66.I CURRENTLY HAVE FOUR WINDOWS OPEN UP%AND I DON'T KNOW WHY%.
67.NEXT TO MY INDIRECT VOCAL DECLINES EVERY UNBEARABLE ACADEMIC%.
68.OPPOSITE HER SOUNDING BAG IS A M C'S CONFIGURED THOROUGHFARE%.
69.FROM APRIL EIGHTH TO THE PRESENT%I ONLY SMOKE FOUR CIGARETTES%.
70.I WILL NEVER BE THIS YOUNG AGAIN%EVER%OH DAMN%I JUST GOTOLDER%.
71.A GENEROUS CONTINUUM OF AMAZON DOT COM IS THE CONFLICTINGWORKER%.
72.SHE ADVISED HIM TO COME BACK AT ONCE%THE WIFE LECTURES THEBLAST%.
73.A SONG CAN MAKE OR RUIN A PERSON'S DAY IF THEY LET IT GET TOTHEM%.
74.SHE DID NOT CHEAT ON THE TEST%FOR IT WAS NOT THE RIGHT THING TODO%.
75.HE SAID HE WAS NOT THERE YESTERDAY%HOWEVER%MANY PEOPLE SAW HIMTHERE%.
76.SHOULD WE START CLASS NOW%OR SHOULD WE WAIT FOR EVERYONE TO GETHERE%?(%?)
77.IF PURPLE PEOPLE EATERS ARE REAL%WHERE DO THEY FIND PURPLE PEOPLETO EAT%?(%?)
78.ON NOVEMBER EIGHTEENTH EIGHTEEN TWENTY ONE%A GLITTERING GEM ISNOT ENOUGH%.
79.A ROCKET FROM SPACE X INTERACTS WITH THE INDIVIDUAL BENEATH THESOFT FLAW%.
80.MALLS ARE GREAT PLACES TO SHOP%I CAN FIND EVERYTHING I NEED UNDERONE ROOF%.
81.I THINK I WILL BUY THE RED CAR%OR I WILL LEASE THE BLUE ONE%THEFAITH NESTS%.
82.ITALY IS MY FAVORITE COUNTRY%IN FACT%I PLAN TO SPEND TWO WEEKSTHERE NEXT YEAR%.
83.I WOULD HAVE GOTTEN W W W DOT GOOGLE DOT COM%BUT MY ATTENDANCEWASN'T GOOD ENOUGH%.
84.NINETEEN TWENTY IS WHEN WE ARE UNIQUE TOGETHER UNTIL WE REALISE%WE ARE ALL THE SAME%.
85.MY MUM TRIES TO BE COOL BY SAYING H T T P COLON SLASH SLASH W W WB A I D U DOT COM%.
86.HE TURNED IN THE RESEARCH PAPER ON FRIDAY%OTHERWISE%HE EMAILED AS D F AT YAHOO DOT ORG%.
87.SHE WORKS TWO JOBS TO MAKE ENDS MEET%AT LEAST%THAT WAS HERREASON FOR NOT HAVING TIME TO JOIN US%.
88.A REMARKABLE WELL PROMOTES THE ALPHABET INTO THE ADJUSTED LUCK%THE DRESS DODGES ACROSS MY ASSAULT%.
89.A B C D E F G H I J K L M N O P Q R S T U V W X Y Z ONE TWO THREEFOUR FIVE SIX SEVEN EIGHT NINE TEN%.
90.ACROSS THE WASTE PERSISTS THE WRONG PACIFIER%THE WASHED PASSENGERPARADES UNDER THE INCORRECT COMPUTER%.
91.IF THE EASTER BUNNY AND THE TOOTH FAIRY HAD BABIES WOULD THEY TAKEYOUR TEETH AND LEAVE CHOCOLATE FOR YOU%?
92.SOMETIMES%ALL YOU NEED TO DO IS COMPLETELY MAKE AN ASS OFYOURSELF AND LAUGH IT OFF TO REALISE THAT LIFE ISN'T SO BAD AFTER ALL%.
93.SHE BORROWED THE BOOK FROM HIM MANY YEARS AGO AND HASN'T YETRETURNED IT%WHY WON'T THE DISTINGUISHING LOVE JUMP WITH THE JUVENILE%?
94.LAST FRIDAY IN THREE WEEK'S TIME I SAW A SPOTTED STRIPED BLUE WORMSHAKE HANDS WITH A LEGLESS LIZARD%THE LAKE IS A LONG WAY FROM HERE%.
95.I WAS VERY PROUD OF MY NICKNAME THROUGHOUT HIGH SCHOOL BUT TODAY%I COULDN'T BE ANY DIFFERENT TO WHAT MY NICKNAME WAS%THE METAL LUSTS%THERANGING CAPTAIN CHARTERS THE LINK%.
96.I AM HAPPY TO TAKE YOUR DONATION%ANY AMOUNT WILL BE GREATLYAPPRECIATED%THE WAVES WERE CRASHING ON THE SHORE%IT WAS A LOVELY SIGHT%THEPARADOX STICKS THIS BOWL ON TOP OF A SPONTANEOUS TEA%.
97.A PURPLE PIG AND A GREEN DONKEY FLEW A KITE IN THE MIDDLE OF THENIGHT AND ENDED UP SUNBURNT%THE CONTAINED ERROR POSES AS A LOGICAL TARGET%THE DIVORCE ATTACKS NEAR A MISSING DOOM%THE OPERA FINES THE DAILY EXAMINERINTO A MURDERER%.
98.AS THE MOST FAMOUS SINGLER-SONGWRITER%JAY CHOU GAVE A PERFECTPERFORMANCE IN BEIJING ON MAY TWENTY FOURTH%TWENTY FIFTH%AND TWENTY SIXTHTWENTY THREE ALL THE FANS THOUGHT HIGHLY OF HIM AND TOOK PRIDE IN HIM ALL THETICKETS WERE SOLD OUT%.
99.IF YOU LIKE TUNA AND TOMATO SAUCE%TRY COMBINING THE TWO%IT'SREALLY NOT AS BAD AS IT SOUNDS%THE BODY MAY PERHAPS COMPENSATES FOR THE LOSSOF A TRUE METAPHYSICS%THE CLOCK WITHIN THIS BLOG AND THE CLOCK ON MY LAPTOPARE ONE HOUR DIFFERENT FROM EACH OTHER%.
100.SOMEONE I KNOW RECENTLY COMBINED MAPLE SYRUP AND BUTTERED POPCORNTHINKING IT WOULD TASTE LIKE CARAMEL POPCORN%IT DIDN'T AND THEY DON'TRECOMMEND ANYONE ELSE DO IT EITHER%THE GENTLEMAN MARCHES AROUND THEPRINCIPAL%THE DIVORCE ATTACKS NEAR A MISSING DOOM%THE COLOR MISPRINTS ACIRCULAR WORRY ACROSS THE CONTROVERSY%.
H.引用的文献
以下列出的或在本文中任何地方引用的每篇文献均通过引用以其整体并入本文。
Yannis Agiomyrgiannakis.Vocaine the Vocoder and Applications inSpeech Synthesis(Vocaine声码器和语音合成中的应用).In ICASSP,2015.
Chris Bagwell.Sox–sound exchange.https://sourceforge.net/p/sox/code/ci/master/tree/,2017.
Jonas Gehring,Michael Auli,David Grangier,Denis Yarats,and YannDauphin.Convolutional Sequence to Sequence Learning(卷积序列到序列学习).InICML,2017.
Daniel Griffin and Jae Lim.Signal Estimation From Modified Short-TimeFourier Transform(来自改进的短时傅里叶变换的信号估计).IEEE Transactions onAcoustics,Speech,and Signal Processing(IEEE声学、语音和信号处理汇刊),1984.
Hideki Kawahara,Ikuyo Masuda-Katsuse,and Alain DeCheveigne.Restructuring Speech Representations Using A Pitch-Adaptive Time–Frequency Smoothing and An Instantaneous-Frequency-Based F0Extraction:Possible Role Of A Repetitive Structure In Sounds(使用基音调自适应时频平滑和基于瞬时频率的F0提取来重构语音表示:重复结构在声音中的可能作用).Speechcommunication(语音通信),1999.
Soroush Mehri,Kundan Kumar,Ishaan Gulrajani,Rithesh Kumar,ShubhamJain,Jose Sotelo,Aaron Courville,and Yoshua Bengio.Sample RNN:AnUnconditional End-To-End Neural Audio Generation Model(样本RNN:无条件端到端神经音频生成模型).In ICLR,2017.
Masanori Morise,Fumiya Yokomori,and Kenji Ozawa.WORLD:A vocoder-basedhigh-quality speech synthesis system for real-time applications(用于实时应用的、基于声码器的高质量语音合成系统).IEICE Transactions on Information andSystems(IEICE信息与系统汇刊),2016.
Robert Ochshorn and Max Hawkins.Gentle.https://github.com/lowerquality/gentle,2017.
Aaron van den Oord,Sander Dieleman,Heiga Zen,Karen Simonyan,OriolVinyals,Alex Graves,Nal Kalchbrenner,Andrew Senior,and KorayKavukcuoglu.WaveNet:A generative model for raw audio(原始音频的生成模型).arXiv:1609.03499,2016.
Vassil Panayotov,Guoguo Chen,Daniel Povey,and SanjeevKhudanpur.LibriSpeech:An ASR corpus based on public domain audio books(LibriSpeech:基于公共领域有声读物的ASR语料库).In Acoustics,Speech and SignalProcessing(ICASSP)(声学,语音和信号处理),2015IEEE International Conference(2015IEEE国际会议)on,pp.5206–5210.IEEE,2015.LibriSpeech数据集可在http://www.openslr.org/12/上获得。
Colin Raffel,Thang Luong,Peter J Liu,Ron J Weiss,and DouglasEck.Online and Linear-Time Attention by Enforcing Monotonic Alignments(通过强制执行单调对齐的在线和线性时间注意力).In ICML,2017.
Flavio Ribeiro,Dinei Florencio,Cha Zhang,and MichaelSeltzer.CrowdMOS:An approach for crowdsourcing mean opinion score studies(用于众包平均意见分研究的方法).In IEEE ICASSP,2011.
Jose Sotelo,Soroush Mehri,Kundan Kumar,Joao Felipe Santos,KyleKastner,Aaron Courville,and Yoshua Bengio.Char2Wav:End-to-End SpeechSynthesis(Char2Wav:端到端语音合成).In ICLR workshop,2017.
Yaniv Taigman,Lior Wolf,Adam Polyak,and Eliya Nachmani.Voicesynthesis for in-the-wild speakers via a phonological loop(通过语音回路对野外说话者进行语音合成).arXiv:1707.06588,2017.
YuxuanWang,RJ Skerry-Ryan,Daisy Stanton,YonghuiWu,RonWeiss,NavdeepJaitly,Zongheng Yang,Ying Xiao,Zhifeng Chen,Samy Bengio,Quoc Le,YannisAgiomyrgiannakis,Rob Clark,and Rif A.Saurous.Tacotron:Towards End-To-EndSpeech Synthesis(Tacotron:迈向端到端语音合成).In Interspeech,2017.
Junichi Yamagishi,Bela Usabaev,Simon King,Oliver Watts,John Dines,Jilei Tian,Yong Guan,Rile Hu,Keiichiro Oura,Yi-JianWu,et al.Thousands ofVoices for HMM-Based Speech Synthesis–Analysis and Application of TTSSystemsBuilt on Various ASR Corpora(基于HMM语音合成的数千种语音-基于各种ASR语料库的TTS系统的分析和应用).IEEE Transactions on Audio,Speech,and LanguageProcessing(IEEE音频,语音和语言处理汇刊),2010.
Claims (20)
1.文本转语音系统,包括:
一个或多个处理器;以及
非暂时性计算机可读介质或媒介,包括一个或多个指令序列,所述一个或多个指令序列在由所述一个或多个处理器中的至少一个执行时,致使执行步骤,所述步骤包括:
使用编码器将输入文本的文本特征转换为注意力关键表示和注意力值表示,所述编码器包括:
嵌入模型,将输入文本转换为文本嵌入表示;
一个或多个卷积块的系列,接收所述文本嵌入表示的投影,以及通过所述一个或多个卷积块的系列处理所述文本嵌入表示的投影,以从所述输入文本提取依赖时间的文本信息;
投影层,生成所提取的依赖时间的文本信息的投影,所述依赖时间的文本信息的投影用于形成注意力关键表示;以及
值表示计算器,从所述注意力关键表示和所述文本嵌入表示计算注意力值表示;以及
使用基于注意力的解码器自回归地生成所述输入文本的低维音频表示,所述基于注意力的解码器包括:
前网络块,接收表示音频帧的输入数据,以及包括一个或多个全连接层以对所述输入数据进行预处理;
一个或多个解码器块的系列,每个解码器块均包括卷积块和注意力块,其中,卷积块生成查询,以及所述注意力块计算环境表示,作为使用所述注意力关键表示的至少一部分和来自所述卷积块的所述查询计算的注意力权重和所述注意力值表示的至少一部分的加权平均值;以及
后网络块,包括全连接层,所述全连接层接收来自所述一个或多个解码器块的系列的输出,并且输出下一组低维音频表示。
2.根据权利要求1所述的文本转语音系统,其中,所述基于注意力的解码器还包括:
最终帧预测块,也接收来自所述一个或多个解码器块的系列的输出,并且输出是否已合成最后的音频帧的指示符。
3.根据权利要求1所述的文本转语音系统,其中,所述基于注意力的解码器还包括:
通过在固定的时间窗口上计算softmax来强迫所述注意力权重的单调性,所述固定的时间窗口从最后注意的时间帧开始并包括从所述最后注意的时间帧开始向前的一个或多个时间帧。
4.根据权利要求1所述的文本转语音系统,还包括:
转换器,将最终一组低维音频表示帧转换为表示所述输入文本的合成语音的信号。
5.根据权利要求1所述的文本转语音系统,还包括:
将表示一个或多个说话者音频特征的说话者指示符输入到所述编码器和所述基于注意力的解码器两者中,以促使合成语音具有所述说话者音频特征。
6.根据权利要求1所述的文本转语音系统,其中,所述注意力块还包括将第一定位编码添加至所述注意力关键表示以及将第二定位编码添加至所述查询。
7.根据权利要求1所述的文本转语音系统,其中,所述卷积块包括一维卷积滤波器、门控线性单元、比例因子和到所述卷积块的输入的剩余连接。
8.用于训练卷积序列学习文本转语音(TTS)系统以从输入文本合成语音的计算机实施的方法,包括:
使用嵌入模型将所述输入文本转换为一组可训练的嵌入表示;
经由包括一个或多个卷积块的编码器,生成一组注意力关键表示,所述一组注意力关键表示与由所述编码器从所述一组可训练的嵌入表示中获得的数据中提取的依赖时间的文本信息相对应;
使用所述一组可训练的嵌入表示和所述一组注意力关键表示,生成与所述一组注意力关键表示相对应的一组注意力值表示;以及
从由基于注意力的解码器生成的环境表示生成一组声码器特征,所述一组声码器特征能够与声码器一起使用以产生表示合成语音的信号,所述基于注意力的解码器包括至少一个解码器块,所述至少一个解码器块包括因果性卷积块和注意力块,并且所述基于注意力的解码器使用所述一组注意力关键表示、所述一组注意力值表示和来自与所述输入文本相对应的ground truth音频的特征,从而针对每个时间帧:
使用所述因果性卷积块和从现有音频帧的表示的至少一部分中获得的数据生成查询;以及
经由所述注意力块,计算所述环境表示,作为使用所述一组注意力关键表示的至少一部分和来自所述因果性卷积块的所述查询计算的注意力权重和所述一组注意力值表示的至少一部分的加权平均值。
9.根据权利要求8所述的计算机实施的方法,其中,所述嵌入模型是混合的字符与音素模型,在所述混合的字符与音素模型中,使用词转音素词典将词典中的词转换为其对应的音素表示,以及其中,将词典外的词输入为字符,并且所述嵌入模型隐式地学习到音素的转换。
10.根据权利要求8所述的计算机实施的方法,还包括提供表示一个或多个说话者音频特征的、可训练的说话者嵌入,所述可训练的说话者嵌入输入至所述编码器和所述解码器两者中,以促使所述合成语音具有所述说话者音频特征。
11.根据权利要求8所述的计算机实施的方法,其中,将所述一组声码器特征输入至转换器,所述转换器将所述声码器特征转换为表示合成语音的所述信号。
12.根据权利要求8所述的计算机实施的方法,其中,所述编码器、所述解码器和所述转换器包括全卷积序列到序列架构。
13.用于从输入文本合成语音的计算机实施的方法,所述方法包括:
使用包括一个或多个卷积层的已训练的编码器,将所述输入文本编码为一组关键表示和一组值表示;
使用已训练的基于注意力的解码器将所述一组关键表示和所述一组值表示解码为一组低维音频表示帧,所述已训练的基于注意力的解码器包括至少一个解码器块,所述至少一个解码器块包括因果性卷积块和注意力块,其中,针对每个时间帧:
所述因果性卷积块使用现有低维音频表示帧的至少一部分生成查询;以及
所述注意力块计算环境表示,作为使用所述一组关键表示的至少一部分和来自所述因果性卷积块的所述查询计算的注意力权重和所述一组值表示的至少一部分的加权平均值;以及
使用所述环境表示生成最终一组低维音频表示帧,所述最终一组低维音频表示帧由声码器使用以输出表示所述输入文本的合成语音的信号。
14.根据权利要求13所述的计算机实施的方法,还包括在推理期间强迫所述注意力权重的单调性。
15.根据权利要求14所述的计算机实施的方法,其中,在推理期间强迫所述注意力权重的单调性的所述步骤包括:
在固定的时间窗口上计算softmax,所述固定的时间窗口从最后注意的音频帧开始并包括从所述最后注意的音频帧开始向前的一个或多个音频帧。
16.根据权利要求13所述的计算机实施的方法,其中,所述已训练的编码器包括混合的字符与音素模型,在所述混合的字符与音素模型中,使用词转音素词典将所述输入文本中的且在词典中的词转换为其对应的音素表示,以及其中,作为训练的结果,通过所述混合的字符与音素模型将所述输入文本中的且在词典外的词转换为音素。
17.根据权利要求13所述的计算机实施的方法,还包括将表示一个或多个说话者音频特征的说话者指示符输入到所述已训练的编码器和所述已训练的基于注意力的解码器两者中,以促使所述合成语音具有所述说话者音频特征。
18.根据权利要求13所述的计算机实施的方法,其中,所述最终一组低维音频表示帧被输入至转换器,所述转换器将所述最终一组低维音频表示帧转换为表示所述输入文本的合成语音的所述信号。
19.根据权利要求18所述的计算机实施的方法,其中,所述已训练的编码器、所述已训练的基于注意力的解码器和所述转换器形成全卷积序列到序列架构。
20.根据权利要求13所述的计算机实施的方法,其中,所述注意力块包括将第一定位编码添加至所述关键表示以及将第二定位编码添加至所述查询。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762574382P | 2017-10-19 | 2017-10-19 | |
US62/574,382 | 2017-10-19 | ||
US16/058,265 US10796686B2 (en) | 2017-10-19 | 2018-08-08 | Systems and methods for neural text-to-speech using convolutional sequence learning |
US16/058,265 | 2018-08-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109697974A true CN109697974A (zh) | 2019-04-30 |
CN109697974B CN109697974B (zh) | 2023-04-14 |
Family
ID=66170057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811220510.4A Active CN109697974B (zh) | 2017-10-19 | 2018-10-19 | 使用卷积序列学习的神经文本转语音的系统和方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10796686B2 (zh) |
CN (1) | CN109697974B (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110600013A (zh) * | 2019-09-12 | 2019-12-20 | 苏州思必驰信息科技有限公司 | 非平行语料声音转换数据增强模型训练方法及装置 |
CN110808027A (zh) * | 2019-11-05 | 2020-02-18 | 腾讯科技(深圳)有限公司 | 语音合成方法、装置以及新闻播报方法、系统 |
CN111246469A (zh) * | 2020-03-05 | 2020-06-05 | 北京花兰德科技咨询服务有限公司 | 人工智能保密通信系统及通信方法 |
CN111754973A (zh) * | 2019-09-23 | 2020-10-09 | 北京京东尚科信息技术有限公司 | 一种语音合成方法及装置、存储介质 |
CN111918126A (zh) * | 2019-05-10 | 2020-11-10 | Tcl集团股份有限公司 | 音视频信息处理方法、装置、可读存储介质及终端设备 |
CN112036513A (zh) * | 2020-11-04 | 2020-12-04 | 成都考拉悠然科技有限公司 | 基于内存增强潜在空间自回归的图像异常检测方法 |
CN112037776A (zh) * | 2019-05-16 | 2020-12-04 | 武汉Tcl集团工业研究院有限公司 | 一种语音识别方法、语音识别装置及终端设备 |
WO2020248393A1 (zh) * | 2019-06-14 | 2020-12-17 | 平安科技(深圳)有限公司 | 语音合成方法、系统、终端设备和可读存储介质 |
CN112133279A (zh) * | 2019-06-06 | 2020-12-25 | Tcl集团股份有限公司 | 车载信息播报方法、装置及终端设备 |
CN112270917A (zh) * | 2020-10-20 | 2021-01-26 | 网易(杭州)网络有限公司 | 一种语音合成方法、装置、电子设备及可读存储介质 |
WO2021051765A1 (zh) * | 2019-09-17 | 2021-03-25 | 北京京东尚科信息技术有限公司 | 一种语音合成方法及装置、存储介质 |
CN112669809A (zh) * | 2019-10-16 | 2021-04-16 | 百度(美国)有限责任公司 | 并行神经文本到语音转换 |
CN113192520A (zh) * | 2021-07-01 | 2021-07-30 | 腾讯科技(深圳)有限公司 | 一种音频信息处理方法、装置、电子设备及存储介质 |
CN113345414A (zh) * | 2021-05-31 | 2021-09-03 | 平安科技(深圳)有限公司 | 基于语音合成的影片修复方法、装置、设备及介质 |
WO2021227707A1 (zh) * | 2020-05-13 | 2021-11-18 | 腾讯科技(深圳)有限公司 | 音频合成方法、装置、计算机可读介质及电子设备 |
WO2022083165A1 (en) * | 2020-10-21 | 2022-04-28 | Huawei Technologies Co., Ltd. | Transformer-based automatic speech recognition system incorporating time-reduction layer |
US11417314B2 (en) | 2019-09-19 | 2022-08-16 | Baidu Online Network Technology (Beijing) Co., Ltd. | Speech synthesis method, speech synthesis device, and electronic apparatus |
CN112270917B (zh) * | 2020-10-20 | 2024-06-04 | 网易(杭州)网络有限公司 | 一种语音合成方法、装置、电子设备及可读存储介质 |
Families Citing this family (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10872598B2 (en) | 2017-02-24 | 2020-12-22 | Baidu Usa Llc | Systems and methods for real-time neural text-to-speech |
US10896669B2 (en) | 2017-05-19 | 2021-01-19 | Baidu Usa Llc | Systems and methods for multi-speaker neural text-to-speech |
US10872596B2 (en) | 2017-10-19 | 2020-12-22 | Baidu Usa Llc | Systems and methods for parallel wave generation in end-to-end text-to-speech |
US11017761B2 (en) * | 2017-10-19 | 2021-05-25 | Baidu Usa Llc | Parallel neural text-to-speech |
KR102608469B1 (ko) * | 2017-12-22 | 2023-12-01 | 삼성전자주식회사 | 자연어 생성 방법 및 장치 |
EP3739572A4 (en) * | 2018-01-11 | 2021-09-08 | Neosapience, Inc. | METHOD AND DEVICE FOR TEXT-TO-LANGUAGE SYNTHESIS USING MACHINE LEARNING AND COMPUTER-READABLE STORAGE MEDIUM |
US10770063B2 (en) * | 2018-04-13 | 2020-09-08 | Adobe Inc. | Real-time speaker-dependent neural vocoder |
US11210475B2 (en) | 2018-07-23 | 2021-12-28 | Google Llc | Enhanced attention mechanisms |
US10971170B2 (en) * | 2018-08-08 | 2021-04-06 | Google Llc | Synthesizing speech from text using neural networks |
US10810378B2 (en) * | 2018-10-25 | 2020-10-20 | Intuit Inc. | Method and system for decoding user intent from natural language queries |
EP3895159A4 (en) * | 2018-12-11 | 2022-06-29 | Microsoft Technology Licensing, LLC | Multi-speaker neural text-to-speech synthesis |
JP7206898B2 (ja) * | 2018-12-25 | 2023-01-18 | 富士通株式会社 | 学習装置、学習方法および学習プログラム |
US11011154B2 (en) * | 2019-02-08 | 2021-05-18 | Tencent America LLC | Enhancing hybrid self-attention structure with relative-position-aware bias for speech synthesis |
CN111798832A (zh) * | 2019-04-03 | 2020-10-20 | 北京京东尚科信息技术有限公司 | 语音合成方法、装置和计算机可读存储介质 |
CN110136690B (zh) * | 2019-05-22 | 2023-07-14 | 平安科技(深圳)有限公司 | 语音合成方法、装置及计算机可读存储介质 |
JP7280386B2 (ja) * | 2019-05-31 | 2023-05-23 | グーグル エルエルシー | 多言語音声合成およびクロスランゲージボイスクローニング |
KR102320975B1 (ko) * | 2019-07-25 | 2021-11-04 | 엘지전자 주식회사 | 발화 스타일 부여를 위한 인공지능 기반의 음성 샘플링 장치 및 방법 |
US11138382B2 (en) * | 2019-07-30 | 2021-10-05 | Intuit Inc. | Neural network system for text classification |
KR102263245B1 (ko) * | 2019-07-31 | 2021-06-14 | 엘지전자 주식회사 | 이종 레이블 간 발화 스타일 부여를 위한 인공지능 기반의 음성 샘플링 장치 및 방법 |
KR20210014949A (ko) | 2019-07-31 | 2021-02-10 | 삼성전자주식회사 | 음성 인식을 위한 인공신경망에서의 디코딩 방법 및 장치 |
KR102616214B1 (ko) * | 2019-08-03 | 2023-12-21 | 구글 엘엘씨 | E2E(End-to-end) 음성 합성 시스템에서 표현력 제어 |
CN112447165A (zh) * | 2019-08-15 | 2021-03-05 | 阿里巴巴集团控股有限公司 | 信息处理、模型训练和模型构建方法、电子设备、智能音箱 |
CN110393519B (zh) * | 2019-08-19 | 2022-06-24 | 广州视源电子科技股份有限公司 | 心电信号的分析方法、装置、存储介质和处理器 |
US11392796B2 (en) * | 2019-08-20 | 2022-07-19 | Micron Technology, Inc. | Feature dictionary for bandwidth enhancement |
US11404045B2 (en) * | 2019-08-30 | 2022-08-02 | Samsung Electronics Co., Ltd. | Speech synthesis method and apparatus |
US11556782B2 (en) | 2019-09-19 | 2023-01-17 | International Business Machines Corporation | Structure-preserving attention mechanism in sequence-to-sequence neural models |
US11295751B2 (en) * | 2019-09-20 | 2022-04-05 | Tencent America LLC | Multi-band synchronized neural vocoder |
CN110942777B (zh) * | 2019-12-05 | 2022-03-08 | 出门问问信息科技有限公司 | 一种声纹神经网络模型的训练方法、装置及存储介质 |
CN111247584B (zh) * | 2019-12-24 | 2023-05-23 | 深圳市优必选科技股份有限公司 | 语音转换方法、系统、装置及存储介质 |
CN110992926B (zh) * | 2019-12-26 | 2022-06-10 | 标贝(北京)科技有限公司 | 语音合成方法、装置、系统和存储介质 |
US11830473B2 (en) | 2020-01-21 | 2023-11-28 | Samsung Electronics Co., Ltd. | Expressive text-to-speech system and method |
CN111489803B (zh) * | 2020-03-31 | 2023-07-21 | 重庆金域医学检验所有限公司 | 基于自回归模型的报告单编码模型生成方法、系统和设备 |
CN111427932B (zh) * | 2020-04-02 | 2022-10-04 | 南方科技大学 | 出行预测方法、装置、设备和存储介质 |
EP3913539A1 (en) * | 2020-05-22 | 2021-11-24 | Robert Bosch GmbH | Device for and computer implemented method of digital signal processing |
CN111667816B (zh) * | 2020-06-15 | 2024-01-23 | 北京百度网讯科技有限公司 | 模型训练方法、语音合成方法、装置、设备和存储介质 |
CN113808583B (zh) * | 2020-06-16 | 2024-05-28 | 浙江未来精灵人工智能科技有限公司 | 一种语音识别方法、装置及系统 |
US11574622B2 (en) * | 2020-07-02 | 2023-02-07 | Ford Global Technologies, Llc | Joint automatic speech recognition and text to speech conversion using adversarial neural networks |
CN111833878A (zh) * | 2020-07-20 | 2020-10-27 | 中国人民武装警察部队工程大学 | 基于树莓派边缘计算的中文语音交互无感控制系统和方法 |
US11580965B1 (en) * | 2020-07-24 | 2023-02-14 | Amazon Technologies, Inc. | Multimodal based punctuation and/or casing prediction |
KR102392904B1 (ko) * | 2020-09-25 | 2022-05-02 | 주식회사 딥브레인에이아이 | 텍스트 기반의 음성 합성 방법 및 장치 |
US11790884B1 (en) * | 2020-10-28 | 2023-10-17 | Electronic Arts Inc. | Generating speech in the voice of a player of a video game |
CN112214591B (zh) * | 2020-10-29 | 2023-11-07 | 腾讯科技(深圳)有限公司 | 一种对话预测的方法及装置 |
US20220310058A1 (en) * | 2020-11-03 | 2022-09-29 | Microsoft Technology Licensing, Llc | Controlled training and use of text-to-speech models and personalized model generated voices |
CN112257471A (zh) * | 2020-11-12 | 2021-01-22 | 腾讯科技(深圳)有限公司 | 一种模型训练方法、装置、计算机设备及存储介质 |
US11995111B2 (en) * | 2020-11-13 | 2024-05-28 | Tencent America LLC | Efficient and compact text matching system for sentence pairs |
US20220165247A1 (en) * | 2020-11-24 | 2022-05-26 | Xinapse Co., Ltd. | Method for generating synthetic speech and speech synthesis system |
CN112687259B (zh) * | 2021-03-11 | 2021-06-18 | 腾讯科技(深圳)有限公司 | 一种语音合成方法、装置以及可读存储介质 |
CN113554021B (zh) * | 2021-06-07 | 2023-12-15 | 重庆傲雄在线信息技术有限公司 | 一种智能化印章识别方法 |
CN114627874A (zh) * | 2021-06-15 | 2022-06-14 | 宿迁硅基智能科技有限公司 | 文本对齐方法、存储介质、电子装置 |
CN113409827B (zh) * | 2021-06-17 | 2022-06-17 | 山东省计算中心(国家超级计算济南中心) | 基于局部卷积块注意力网络的语音端点检测方法及系统 |
US11605370B2 (en) | 2021-08-12 | 2023-03-14 | Honeywell International Inc. | Systems and methods for providing audible flight information |
CN113838453B (zh) * | 2021-08-17 | 2022-06-28 | 北京百度网讯科技有限公司 | 语音处理方法、装置、设备和计算机存储介质 |
CN113838452B (zh) * | 2021-08-17 | 2022-08-23 | 北京百度网讯科技有限公司 | 语音合成方法、装置、设备和计算机存储介质 |
GB2612624A (en) * | 2021-11-05 | 2023-05-10 | Spotify Ab | Methods and systems for synthesising speech from text |
CN114267329A (zh) * | 2021-12-24 | 2022-04-01 | 厦门大学 | 基于概率生成和非自回归模型的多说话人语音合成方法 |
CN115346543A (zh) * | 2022-08-17 | 2022-11-15 | 广州市百果园信息技术有限公司 | 音频处理方法、模型训练方法、装置、设备、介质及产品 |
CN116705059B (zh) * | 2023-08-08 | 2023-11-10 | 硕橙(厦门)科技有限公司 | 一种音频半监督自动聚类方法、装置、设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1549999A (zh) * | 2001-03-08 | 2004-11-24 | ���µ�����ҵ��ʽ���� | 适用于提高合成语音可懂性的运行时合成器 |
CN1874574A (zh) * | 2005-05-30 | 2006-12-06 | 京瓷株式会社 | 音频输出装置、文档阅读方法和移动终端 |
JP2008257116A (ja) * | 2007-04-09 | 2008-10-23 | Seiko Epson Corp | 音声合成システム |
US20100153114A1 (en) * | 2008-12-12 | 2010-06-17 | Microsoft Corporation | Audio output of a document from mobile device |
CN107077842A (zh) * | 2014-12-15 | 2017-08-18 | 百度(美国)有限责任公司 | 用于语音转录的系统和方法 |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2296846A (en) | 1995-01-07 | 1996-07-10 | Ibm | Synthesising speech from text |
US6078885A (en) | 1998-05-08 | 2000-06-20 | At&T Corp | Verbal, fully automatic dictionary updates by end-users of speech synthesis and recognition systems |
US6208968B1 (en) | 1998-12-16 | 2001-03-27 | Compaq Computer Corporation | Computer method and apparatus for text-to-speech synthesizer dictionary reduction |
EP1160764A1 (en) | 2000-06-02 | 2001-12-05 | Sony France S.A. | Morphological categories for voice synthesis |
EP1217610A1 (de) | 2000-11-28 | 2002-06-26 | Siemens Aktiengesellschaft | Verfahren und System zur multilingualen Spracherkennung |
ES2281626T3 (es) | 2002-01-17 | 2007-10-01 | Siemens Aktiengesellschaft | Procedimiento de funcionamiento de un reconocedor automatico de voz para el reconocimiento por voz, independiente del orador, de palabras en distintos idiomas y reconocedor automatico de voz. |
US7010488B2 (en) | 2002-05-09 | 2006-03-07 | Oregon Health & Science University | System and method for compressing concatenative acoustic inventories for speech synthesis |
US7496498B2 (en) | 2003-03-24 | 2009-02-24 | Microsoft Corporation | Front-end architecture for a multi-lingual text-to-speech system |
JP4080989B2 (ja) | 2003-11-28 | 2008-04-23 | 株式会社東芝 | 音声合成方法、音声合成装置および音声合成プログラム |
US20050119890A1 (en) | 2003-11-28 | 2005-06-02 | Yoshifumi Hirose | Speech synthesis apparatus and speech synthesis method |
AU2003299312A1 (en) | 2003-12-16 | 2005-07-05 | Loquendo S.P.A. | Text-to-speech method and system, computer program product therefor |
DE602005026778D1 (de) | 2004-01-16 | 2011-04-21 | Scansoft Inc | Corpus-gestützte sprachsynthese auf der basis von segmentrekombination |
US8069045B2 (en) | 2004-02-26 | 2011-11-29 | International Business Machines Corporation | Hierarchical approach for the statistical vowelization of Arabic text |
EP1669886A1 (fr) | 2004-12-08 | 2006-06-14 | France Telecom | Construction d'un automate compilant des règles de transcription graphème/phonème pour un phonétiseur |
US7945437B2 (en) | 2005-02-03 | 2011-05-17 | Shopping.Com | Systems and methods for using automated translation and other statistical methods to convert a classifier in one language to another language |
JP4559950B2 (ja) | 2005-10-20 | 2010-10-13 | 株式会社東芝 | 韻律制御規則生成方法、音声合成方法、韻律制御規則生成装置、音声合成装置、韻律制御規則生成プログラム及び音声合成プログラム |
JP4241736B2 (ja) | 2006-01-19 | 2009-03-18 | 株式会社東芝 | 音声処理装置及びその方法 |
US7873517B2 (en) | 2006-11-09 | 2011-01-18 | Volkswagen Of America, Inc. | Motor vehicle with a speech interface |
US20080167862A1 (en) | 2007-01-09 | 2008-07-10 | Melodis Corporation | Pitch Dependent Speech Recognition Engine |
CN101606190B (zh) | 2007-02-19 | 2012-01-18 | 松下电器产业株式会社 | 用力声音转换装置、声音转换装置、声音合成装置、声音转换方法、声音合成方法 |
US8255222B2 (en) | 2007-08-10 | 2012-08-28 | Panasonic Corporation | Speech separating apparatus, speech synthesizing apparatus, and voice quality conversion apparatus |
KR101300839B1 (ko) | 2007-12-18 | 2013-09-10 | 삼성전자주식회사 | 음성 검색어 확장 방법 및 시스템 |
EP2146344B1 (en) | 2008-07-17 | 2016-07-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio encoding/decoding scheme having a switchable bypass |
JP5275102B2 (ja) | 2009-03-25 | 2013-08-28 | 株式会社東芝 | 音声合成装置及び音声合成方法 |
US8315871B2 (en) | 2009-06-04 | 2012-11-20 | Microsoft Corporation | Hidden Markov model based text to speech systems employing rope-jumping algorithm |
US8731932B2 (en) | 2010-08-06 | 2014-05-20 | At&T Intellectual Property I, L.P. | System and method for synthetic voice generation and modification |
US20120143611A1 (en) | 2010-12-07 | 2012-06-07 | Microsoft Corporation | Trajectory Tiling Approach for Text-to-Speech |
JP6036682B2 (ja) | 2011-02-22 | 2016-11-30 | 日本電気株式会社 | 音声合成システム、音声合成方法、および音声合成プログラム |
US20120265533A1 (en) | 2011-04-18 | 2012-10-18 | Apple Inc. | Voice assignment for text-to-speech output |
US9972306B2 (en) | 2012-08-07 | 2018-05-15 | Interactive Intelligence Group, Inc. | Method and system for acoustic data selection for training the parameters of an acoustic model |
US9472182B2 (en) | 2014-02-26 | 2016-10-18 | Microsoft Technology Licensing, Llc | Voice font speaker and prosody interpolation |
US9196243B2 (en) | 2014-03-31 | 2015-11-24 | International Business Machines Corporation | Method and system for efficient spoken term detection using confusion networks |
US9508341B1 (en) | 2014-09-03 | 2016-11-29 | Amazon Technologies, Inc. | Active learning for lexical annotations |
US9824681B2 (en) | 2014-09-11 | 2017-11-21 | Microsoft Technology Licensing, Llc | Text-to-speech with emotional content |
US10319374B2 (en) | 2015-11-25 | 2019-06-11 | Baidu USA, LLC | Deployed end-to-end speech recognition |
US10134388B1 (en) | 2015-12-23 | 2018-11-20 | Amazon Technologies, Inc. | Word generation for speech recognition |
US10319364B2 (en) * | 2017-05-18 | 2019-06-11 | Telepathy Labs, Inc. | Artificial intelligence-based text-to-speech system and method |
-
2018
- 2018-08-08 US US16/058,265 patent/US10796686B2/en active Active
- 2018-10-19 CN CN201811220510.4A patent/CN109697974B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1549999A (zh) * | 2001-03-08 | 2004-11-24 | ���µ�����ҵ��ʽ���� | 适用于提高合成语音可懂性的运行时合成器 |
CN1874574A (zh) * | 2005-05-30 | 2006-12-06 | 京瓷株式会社 | 音频输出装置、文档阅读方法和移动终端 |
JP2008257116A (ja) * | 2007-04-09 | 2008-10-23 | Seiko Epson Corp | 音声合成システム |
US20100153114A1 (en) * | 2008-12-12 | 2010-06-17 | Microsoft Corporation | Audio output of a document from mobile device |
CN107077842A (zh) * | 2014-12-15 | 2017-08-18 | 百度(美国)有限责任公司 | 用于语音转录的系统和方法 |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111918126A (zh) * | 2019-05-10 | 2020-11-10 | Tcl集团股份有限公司 | 音视频信息处理方法、装置、可读存储介质及终端设备 |
CN112037776A (zh) * | 2019-05-16 | 2020-12-04 | 武汉Tcl集团工业研究院有限公司 | 一种语音识别方法、语音识别装置及终端设备 |
CN112133279A (zh) * | 2019-06-06 | 2020-12-25 | Tcl集团股份有限公司 | 车载信息播报方法、装置及终端设备 |
WO2020248393A1 (zh) * | 2019-06-14 | 2020-12-17 | 平安科技(深圳)有限公司 | 语音合成方法、系统、终端设备和可读存储介质 |
CN110600013A (zh) * | 2019-09-12 | 2019-12-20 | 苏州思必驰信息科技有限公司 | 非平行语料声音转换数据增强模型训练方法及装置 |
WO2021051765A1 (zh) * | 2019-09-17 | 2021-03-25 | 北京京东尚科信息技术有限公司 | 一种语音合成方法及装置、存储介质 |
US11417314B2 (en) | 2019-09-19 | 2022-08-16 | Baidu Online Network Technology (Beijing) Co., Ltd. | Speech synthesis method, speech synthesis device, and electronic apparatus |
CN111754973A (zh) * | 2019-09-23 | 2020-10-09 | 北京京东尚科信息技术有限公司 | 一种语音合成方法及装置、存储介质 |
CN111754973B (zh) * | 2019-09-23 | 2023-09-01 | 北京京东尚科信息技术有限公司 | 一种语音合成方法及装置、存储介质 |
CN112669809A (zh) * | 2019-10-16 | 2021-04-16 | 百度(美国)有限责任公司 | 并行神经文本到语音转换 |
CN110808027A (zh) * | 2019-11-05 | 2020-02-18 | 腾讯科技(深圳)有限公司 | 语音合成方法、装置以及新闻播报方法、系统 |
CN111246469B (zh) * | 2020-03-05 | 2020-10-16 | 北京花兰德科技咨询服务有限公司 | 人工智能保密通信系统及通信方法 |
CN111246469A (zh) * | 2020-03-05 | 2020-06-05 | 北京花兰德科技咨询服务有限公司 | 人工智能保密通信系统及通信方法 |
WO2021227707A1 (zh) * | 2020-05-13 | 2021-11-18 | 腾讯科技(深圳)有限公司 | 音频合成方法、装置、计算机可读介质及电子设备 |
CN112270917B (zh) * | 2020-10-20 | 2024-06-04 | 网易(杭州)网络有限公司 | 一种语音合成方法、装置、电子设备及可读存储介质 |
CN112270917A (zh) * | 2020-10-20 | 2021-01-26 | 网易(杭州)网络有限公司 | 一种语音合成方法、装置、电子设备及可读存储介质 |
WO2022083165A1 (en) * | 2020-10-21 | 2022-04-28 | Huawei Technologies Co., Ltd. | Transformer-based automatic speech recognition system incorporating time-reduction layer |
US11715461B2 (en) | 2020-10-21 | 2023-08-01 | Huawei Technologies Co., Ltd. | Transformer-based automatic speech recognition system incorporating time-reduction layer |
WO2022095645A1 (zh) * | 2020-11-04 | 2022-05-12 | 成都考拉悠然科技有限公司 | 基于内存增强潜在空间自回归的图像异常检测方法 |
CN112036513B (zh) * | 2020-11-04 | 2021-03-09 | 成都考拉悠然科技有限公司 | 基于内存增强潜在空间自回归的图像异常检测方法 |
CN112036513A (zh) * | 2020-11-04 | 2020-12-04 | 成都考拉悠然科技有限公司 | 基于内存增强潜在空间自回归的图像异常检测方法 |
CN113345414A (zh) * | 2021-05-31 | 2021-09-03 | 平安科技(深圳)有限公司 | 基于语音合成的影片修复方法、装置、设备及介质 |
CN113192520B (zh) * | 2021-07-01 | 2021-09-24 | 腾讯科技(深圳)有限公司 | 一种音频信息处理方法、装置、电子设备及存储介质 |
CN113192520A (zh) * | 2021-07-01 | 2021-07-30 | 腾讯科技(深圳)有限公司 | 一种音频信息处理方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20190122651A1 (en) | 2019-04-25 |
CN109697974B (zh) | 2023-04-14 |
US10796686B2 (en) | 2020-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109697974A (zh) | 使用卷积序列学习的神经文本转语音的系统和方法 | |
Peng et al. | Non-autoregressive neural text-to-speech | |
CN110136693B (zh) | 用于使用少量样本进行神经话音克隆的系统和方法 | |
Gold et al. | Speech and audio signal processing: processing and perception of speech and music | |
Peng et al. | Parallel neural text-to-speech | |
Fazel et al. | Synthasr: Unlocking synthetic data for speech recognition | |
Jemine | Real-time voice cloning | |
CN108510975A (zh) | 用于实时神经文本转语音的系统和方法 | |
CN110246488A (zh) | 半优化CycleGAN模型的语音转换方法及装置 | |
KR102449209B1 (ko) | 무음 부분을 자연스럽게 처리하는 음성 합성 시스템 | |
EP4030421A1 (en) | Method for converting voice feature of voice | |
KR102528019B1 (ko) | 인공지능 기술에 기반한 음성 합성 시스템 | |
KR20220073703A (ko) | 음성의 속도 및 피치를 변경하는 방법 및 음성 합성 시스템 | |
US20220165247A1 (en) | Method for generating synthetic speech and speech synthesis system | |
Le et al. | Emotional Vietnamese Speech Synthesis Using Style-Transfer Learning. | |
Zhang et al. | Discriminatively trained sparse inverse covariance matrices for speech recognition | |
KR20220071522A (ko) | 합성 음성을 생성하는 방법 및 음성 합성 시스템 | |
Wu et al. | Deep denoising auto-encoder for statistical speech synthesis | |
KR102503066B1 (ko) | 어텐션 얼라인먼트의 스코어를 이용하여 스펙트로그램의 품질을 평가하는 방법 및 음성 합성 시스템 | |
KR102532253B1 (ko) | 스펙트로그램에 대응하는 어텐션 얼라인먼트의 디코더 스코어를 연산하는 방법 및 음성 합성 시스템 | |
Qian et al. | A survey of technologies for automatic Dysarthric speech recognition | |
Matoušek et al. | VITS: quality vs. speed analysis | |
KR102463589B1 (ko) | 멜-스펙트로그램의 길이에 기초하여 음성 데이터의 참조 구간을 결정하는 방법 및 음성 합성 시스템 | |
Lenglet et al. | The GIPSA-Lab Text-To-Speech System for the Blizzard Challenge 2023 | |
KR102568145B1 (ko) | 무음 멜-스펙트로그램을 이용하여 음성 데이터를 생성하는 방법 및 음성 합성 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |