CN110136693B - 用于使用少量样本进行神经话音克隆的系统和方法 - Google Patents

用于使用少量样本进行神经话音克隆的系统和方法 Download PDF

Info

Publication number
CN110136693B
CN110136693B CN201910066489.5A CN201910066489A CN110136693B CN 110136693 B CN110136693 B CN 110136693B CN 201910066489 A CN201910066489 A CN 201910066489A CN 110136693 B CN110136693 B CN 110136693B
Authority
CN
China
Prior art keywords
speaker
audio
model
text
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910066489.5A
Other languages
English (en)
Other versions
CN110136693A (zh
Inventor
塞尔坎·O·安瑞克
陈吉彤
彭开南
平伟
周彥祺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu USA LLC
Original Assignee
Baidu USA LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu USA LLC filed Critical Baidu USA LLC
Publication of CN110136693A publication Critical patent/CN110136693A/zh
Application granted granted Critical
Publication of CN110136693B publication Critical patent/CN110136693B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • G10L13/0335Pitch control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/60Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Stereophonic System (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

话音克隆是个性化语音接口的高度所需能力。基于神经网络的语音合成已经被证明能够针对大量说话者生成高质量语音。本文呈现采用少量音频样本作为输入的神经话音克隆系统。公开了两种方法,即说话者自适应和说话者编码。说话者自适应实施方式是基于使用少量克隆样本对多说话者生成模型进行微调。说话者编码实施方式是基于训练单独模型以从克隆音频直接推断新说话者嵌入,其在多说话者生成模型中使用或与多说话者生成模型一起使用。这两种方法在语音的自然性和其与原始说话者的相似性方面均实现良好性能‑即使只有非常少的克隆音频。

Description

用于使用少量样本进行神经话音克隆的系统和方法
技术领域
本公开大体上涉及可以提供改善的计算机性能、特征和用途的用于计算机学习的系统和方法。更具体地,本公开涉及用于通过深度神经网络的文本转语音的系统和方法。
背景技术
通常被称为文本转语音(TTS)系统的人工语音合成系统将书面语言转换为人类语音。TTS系统用于各种应用中,诸如人机界面、视力损伤的可访问性、媒体和娱乐。根本上地,它允许无需视觉界面的人机交互。传统的TTS系统基于复杂的多级人工工程管线。通常,这些系统首先将文本转换为紧凑的音频表示,然后使用称为声码器的音频波形合成方法将这种表示转换为音频。
TTS系统的一个目标是能够使文本输入生成听起来像具有特定音频/说话者特性的说话者的对应音频。例如,从对应于特定个体的少量数据制作听起来像那个个体的个性化语音接口(有时称为“话音克隆”)是高度所需能力。一些系统确实具有这种能力;但是,在尝试执行话音克隆的系统当中,它们通常需要大量样本来创建具有所需语音特性的自然发声语音。
因此,需要可以使用非常有限数目的样本提供话音克隆的用于创建、开发且/或部署说话者文本转语音系统的系统和方法。
发明内容
根据本申请的一方面,提供了一种用于从输入文本合成音频的计算机实施的方法,包括:
给定不是用于训练多说话者生成模型的训练数据的一部分的新说话者的一组有限的一个或多个音频,使用包括第一组受训练模型参数的说话者编码器模型来在给定所述一组有限的一个或多个音频作为所述说话者编码器模型的输入的情况下针对所述新说话者获得说话者嵌入,所述说话者嵌入是说话者的语音特性的表示;以及
使用包括第二组受训练模型参数的多说话者生成模型、所述输入文本和由包括所述第一组受训练模型参数的所述说话者编码器模型生成的用于所述新说话者的所述说话者嵌入来生成用于所述输入文本的合成音频表示,其中所述合成音频包括所述新说话者的语音特性,
其中包括所述第二组受训练模型参数的所述多说话者生成模型是使用以下各项作为输入来针对说话者进行训练的:(1)文本-音频对训练集,其中文本-音频对包括文本和所述说话者对该文本的对应音频,以及(2)与用于该说话者的说话者标识符对应的说话者嵌入。
根据本申请的另一方面,提供了一种用于从输入文本合成音频的计算机实施的方法,包括:
接收不是作为用于训练多说话者生成模型的训练数据的一部分的一组有限的一个或多个文本和新说话者的对应ground truth音频,所述训练得到用于一组说话者嵌入的说话者嵌入参数,其中说话者嵌入是说话者的说话者特性的低维表示;
将所述一组有限的一个或多个文本和用于所述新说话者的对应ground truth音频、以及包括说话者嵌入参数的所述说话者嵌入中的至少一者或多者,输入到包括受预训练模型参数或受训练模型参数的所述多说话者生成模型中;
使用由所述多说话者生成模型生成的合成音频与其对应ground truth音频的比较来调整所述说话者嵌入参数中的至少一些,以获得表示所述新说话者的说话者特性的说话者嵌入;以及
使用包括受训练模型参数的所述多说话者生成模型、所述输入文本和用于所述新说话者的所述说话者嵌入来生成用于所述输入文本的合成音频表示,其中所述合成音频包括所述新说话者的说话者特性。
附图说明
将参考本公开的实施方式,其示例可以在附图中示出。这些图式希望为说明性的而非限制性的。虽然大体上在这些实施方式的上下文中描述本公开,但是应当理解,本公开的范围并不旨在限于这些特定实施方式。图式中的项目可能未按比例绘制。
图1描绘根据本公开的实施方式的用于从一组有限的音频生成具有说话者特性的音频的示例性方法。
图2描绘根据本公开的实施方式的用于从一组有限的音频样本生成具有说话者特性的音频的说话者自适应方法。
图3以图形方式描绘根据本公开的实施方式的用于训练、克隆和音频生成的说话者自适应编码方法。
图4描绘根据本公开的实施方式的用于从一组有限的音频样本生成具有说话者特性的音频的说话者嵌入方法的说话者自适应。
图5以图形方式描绘根据本公开的实施方式的用于训练、克隆和音频生成的整模型方法的说话者自适应。
图6描绘根据本公开的实施方式的用于联合训练多说话者生成模型和说话者编码模型并且接着从一组有限的音频样本针对说话者生成具有说话者特性的音频的说话者嵌入方法。
图7以图形方式描绘根据本公开的实施方式的用于联合训练、克隆和音频生成的说话者嵌入方法。
图8描绘根据本公开的实施方式的用于单独训练多说话者生成模型和说话者编码器模型并且接着使用受训练模型从一组有限的音频样本针对说话者生成具有说话者特性的音频的说话者嵌入方法。
图9以图形方式描绘根据本公开的实施方式的用于训练、克隆和音频生成的对应说话者嵌入方法。
图10描绘根据本公开的实施方式的用于单独训练多说话者生成模型和说话者编码器模型但是对所述模型进行联合微调并且接着使用受训练模型从一组有限的一个或多个音频样本针对说话者生成具有说话者特性的音频的说话者嵌入方法。
图11A和图11B以图形方式描绘根据本公开的实施方式的用于训练、克隆和音频生成的说话者嵌入方法。
图12以图形方式示出根据本公开的实施方式的说话者编码器架构。
图13以图形方式示出根据本公开的实施方式的具有中间态维度的说话者编码器架构的更详细实施方式。
图14以图形方式描绘根据本公开的实施方式的说话者验证模型架构。
图15描绘根据本公开的实施方式的说话者验证等错误率(EER)(使用1个登记音频)对克隆音频样本数目。使用LibriSpeech数据集训练多说话者生成模型和说话者验证模型。使用VCTK数据集执行话音克隆。
图16A描绘根据本公开的实施方式的使用1个登记音频的说话者验证等错误率(EER)对克隆音频样本数目。
图16B描绘根据本公开的实施方式的使用5个登记音频的说话者验证等错误率(EER)对克隆音频样本数目。
图17描绘根据本公开的实施方式的用于25个说话者的确认集的嵌入估计的平均绝对误差对克隆音频数目,其以具有注意力机制以及没有注意力机制(通过简单地求平均)示出。
图18描绘根据本发明的实施方式的具有Nsamples=5的说话者编码器模型的推断注意力系数对克隆音频样本的长度。
图19示出根据本公开的实施方式的用于说话者自适应方法的说话者分类准确性对迭代次数。
图20描绘根据本公开的实施方式的在具有不同数目的克隆样本的说话者分类准确性方面的说话者自适应方法与说话者编码方法的比较。
图21描绘根据本公开的实施方式的针对不同数目的克隆样本的说话者验证(SV)等错误率(EER)(使用5个登记音频)。
图22描绘根据本公开的实施方式的用于1和10样本计数的相似性得分的分布。
图23描绘根据本公开的实施方式的由说话者编码器做出的估计说话者嵌入的视觉化。
图24描绘根据本公开的实施方式的推断嵌入的前两个主分量,其具有用于VCTK说话者的性别和口音地区的ground truth(标注的真实数据)标签。
图25描绘根据本文献的实施方式的计算装置/信息处置系统的简化框图。
图26以图形方式描绘根据本公开的实施方式的示例性Deep Voice 3架构2600。
图27描绘根据本公开的实施方式的用于使用文本转语音架构(诸如图26或图31中所描绘)的总体概述方法。
图28以图形方式描绘根据本公开的实施方式的卷积块,其包括具有门控线性单元的一维(1D)卷积和残差连接。
图29以图形方式描绘根据本公开的实施方式的注意力块的实施方式。
图30以图形方式描绘根据本公开的实施方式的具有全连接(FC)层的示例性生成WORLD声码器参数。
图31以图形方式描绘根据本公开的实施方式的示例性详细Deep Voice 3模型架构。
具体实施方式
在以下描述中,出于解释目的,阐明具体细节以便提供对本公开的理解。然而,将对本领域的技术人员显而易见的是,可在没有这些细节的情况下实践本公开。此外,本领域的技术人员将认识到,下文描述的本公开的实施方式可以以各种方式(例如过程、装置、系统、设备或方法)在有形的计算机可读介质上实施。
附图中示出的组件或模块是本公开示例性实施方式的说明,并且意图避免使本公开不清楚。还应理解,在本论述的全文中,组件可描述为单独的功能单元(可包括子单元),但是本领域的技术人员将认识到,各种组件或其部分可划分成单独组件,或者可整合在一起(包括整合在单个的系统或组件内)。应注意,本文论述的功能或操作可实施为组件。组件可以以软件、硬件、或它们的组合实施。
此外,附图内的组件或系统之间的连接并不旨在限于直接连接。相反,在这些组件之间的数据可由中间组件修改、重格式化、或以其它方式改变。另外,可使用另外或更少的连接。还应注意,术语“联接”、“连接”、或“通信地联接”应理解为包括直接连接、通过一个或多个中间设备来进行的间接连接、和无线连接。
在本说明书中对“一个实施方式”、“优选实施方式”、“实施方式”或“多个实施方式”的提及表示结合实施方式所描述的具体特征、结构、特性或功能包括在本公开的至少一个实施方式中,以及可包括在多于一个的实施方式中。另外,在本说明书的各个地方出现以上所提到的短语并不一定全都是指相同的实施方式或多个相同实施方式。
在本说明书的各个地方使用某些术语目的在于说明,并且不应被理解为限制。服务、功能或资源并不限于单个服务、单个功能或单个资源;这些术语的使用可指代相关服务、功能或资源的可分布或聚合的分组。集合可以包括一个或多个元素。本文使用的“音频”可以以多种方式表示,包括但不限于文件(编码或原始音频文件)、信号(编码或原始音频)或听觉声波;因此,例如,生成音频或生成合成音频装置的提及意味着生成能够借助于一个或多个装置产生最终听觉声音或为最终听觉声音的内容,因此应理解为意味着上述中的任一个或多个。
术语“包括”、“包括有”、“包含”和“包含有”应理解为开放性的术语,并且其后任何列出内容都是实例,而不旨在限于所列项目。本文所使用的任何标题仅是为了组织目的,并且不应被用于限制说明书或权利要求的范围。本专利文献中提到的每个参考文献以其全文通过引用并入本文。
此外,本领域的技术人员应认识到:(1)某些步骤可以可选地执行;(2)步骤可不限于本文中所阐述的特定次序;(3)某些步骤可以以不同次序执行;以及(4)某些步骤可同时地进行。
A.介绍
1.少次性(FEW-SHOT)生成模型
人类可以仅从少量例子中学习大多数新生成任务,并且其激励了对少次性生成模型进行研究。对少次性生成建模的早期研究主要集中于贝叶斯模型。已经使用分层贝叶斯模型来挖掘用于少次性字符生成的组合性和因果性。类似的想法已被修改为声学建模任务,其目标是用不同语言生成新单词。
最近,深度学习方法已经适于少次性生成建模,特别是对于图像生成应用。对于条件图像生成,已经考虑使用注意力机制和元学习过程进行少次性分布估计。通过从少量观察到的字母建模字形样式并且以所估计的样式为条件合成整个字母表,少次性学习已经应用于字体样式转移。所述技术是基于多内容生成对抗网络,与ground truth相比处罚不切实际的合成字母。顺序生成建模已经应用于使用空间注意力机制的图像生成的一次性泛化。
2.语音处理中的说话者嵌入
说话者嵌入是一种用于对说话者中的判别信息进行编码的方法。其已经在许多语音处理任务(诸如说话者识别/验证、说话者聚类、自动语音识别和语音合成)中使用。在其中一些任务中,模型显式地学习输出具有判别任务(诸如说话者分类)的嵌入。在其它任务中,嵌入被随机初始化并且从与说话者判别没有直接关系的目标函数隐式地学习。例如,在2018年5月8日提交的标题为“SYSTEMS AND METHODS FOR MULTI-SPEAKER NEURAL TEXT-TO-SPEECH”的共同转让的第15/974,397号美国专利申请(案卷号28888-2144)以及2017年5月19日提交的标题为“SYSTEMS AND METHODS FOR MULTI-SPEAKER NEURAL TEXT-TO-SPEECH”的共同转让的第62/508,579号美国临时专利申请(案卷号28888-2144P)(前述专利文献中的每一者完整地并且出于所有目的以引用的方式并入本文中)中,训练多说话者生成模型的实施方式以从文本生成音频,其中从生成损失函数隐式地学习说话者嵌入。
3.话音转换
话音转换的目标是修改来自源说话者的话语以使其听起来像目标说话者,同时保持语言内容不变。一种常见方法是动态频率翘曲,以便对齐不同说话者的频谱。一些人已经提出了动态编程算法,其使用匹配最小化算法在匹配源说话者和目标说话者时据称同时估计最佳频率翘曲和加权变换。其他人使用与局部线性嵌入集成的频谱转换方法进行流形学习。还存在用于使用神经网络建模频谱转换的方法。通常使用目标说话者和源说话者的大量音频对来训练那些模型。
4.具有有限样本的话音克隆的总体介绍
基于深度学习的生成模型已经被成功地应用于许多领域,诸如图像合成、音频合成和语言建模。深度神经网络能够对复杂数据分布进行建模,并且其随大训练数据很好地缩放(scale)。其可以进一步以外部输入为条件来控制高级行为,诸如规定所生成样本的内容和样式。
对于语音合成,生成模型可以以文本和说话者身份为条件。文本携带语言信息并且控制所生成语音的内容,而说话者表示捕获说话者特性,诸如音高范围、语速和口音。一种用于多说话者语音合成的方法是以(文本、音频、说话者身份)三元组联合训练生成模型和说话者嵌入。用于所有说话者的嵌入可以被随机初始化并且使用生成损失来训练。在一个或多个实施方式中,一个想法是使用低维嵌入对与说话者相关的信息进行编码,同时针对所有说话者共享大部分模型参数。此类模型的一个限制是其只能为在训练期间观察到的说话者生成语音。一个更令人关注的任务是从少量语音样本学习未见说话者的话音或话音克隆。话音克隆可以在许多支持语音的应用程序中使用,以便提供个性化用户体验。
在本专利文献中,实施方式解决使用来自未见说话者(即,新说话者/在训练期间未出现的说话者)的有限语音样本的话音克隆,其也可以在语音的一次性或少次性生成建模的上下文中考虑。使用大量样本,可以从头开始针对任何目标说话者训练生成模型。然而,除了具有吸引力之外,少次性生成建模还具有挑战性。生成模型应当从由一组一个或多个音频样本所提供的有限信息中学习说话者特性,并且推广到未见文本。本文提出了使用端到端神经语音合成方法的不同话音克隆实施方式,其应用具有注意力机制的序列到序列建模。在神经语音合成中,编码器将文本转换为隐藏表示,并且解码器以自回归方式估计语音的时频表示。与传统的单位选择语音合成和统计参数语音合成相比,神经语音合成倾向于具有更简单的管线并且产生更自然的语音。
端到端多说话者语音合成模型可以通过生成模型的权重和说话者嵌入查找表来参数化,其中说话者嵌入查找表携带说话者特性。在本专利文献中,解决两个问题:(1)说话者嵌入能够在多大程度上捕获说话者之间的差异?;(2)能够仅使用少量样本在多大程度上针对未见说话者学习说话者嵌入?在语音自然性、说话者相似性、克隆/推断时间和模型占用空间方面公开了两种一般话音克隆方法的实施方式:(i)说话者自适应以及(ii)说话者编码。
B.话音克隆
图1描绘根据本公开的实施方式的用于从一组有限的音频生成具有说话者特性的音频的示例性方法。在一个或多个实施方式中,训练(105)多说话者生成模型,其针对说话者接收文本-音频对训练集和对应说话者标识符作为输入。作为说明,考虑以下多说话者生成模型:
Figure BDA0001955873070000098
其采用文本ti,j和说话者身份si。模型中的可训练参数由W参数化,并且
Figure BDA0001955873070000095
表示对应于si的可训练说话者嵌入。W和
Figure BDA0001955873070000096
两者可以通过最小化损失函数L来优化,所述损失函数L处罚所生成音频与ground truth音频之间的差异(例如,声谱图的回归损失):
Figure BDA0001955873070000091
其中
Figure BDA0001955873070000097
是一组说话者,
Figure BDA0001955873070000092
是用于说话者si的文本-音频对训练集,并且ai,j是用于说话者si.的ti,j的ground truth音频。对所有训练说话者的文本-音频对估计期望值。在一个或多个实施方式中,用于损失函数的
Figure BDA0001955873070000099
算子通过小批量来近似。在一个或多个实施方式中,
Figure BDA0001955873070000093
Figure BDA0001955873070000094
分别用于表示经过训练的参数和嵌入。
说话者嵌入已经被证明能够有效地捕获用于多说话者语音合成的说话者差异。其是说话者特性的低维连续表示。例如,2018年5月8日提交的标题为“SYSTEMS AND METHODSFOR MULTI-SPEAKER NEURAL TEXT-TO-SPEECH”的共同转让的第15/974,397号美国专利申请(案卷号28888-2144)、2017年5月19日提交的标题为“SYSTEMS AND METHODS FOR MULTI-SPEAKER NEURAL TEXT-TO-SPEECH”的共同转让的第62/508,579号美国临时专利申请(案卷号28888-2144P)、2018年8月8日提交的标题为“SYSTEMS AND METHODS FOR NEURAL TEXT-TO-SPEECH USING CONVOLUTIONAL SEQUENCE LEARNING”的共同转让的第16/058,265号美国专利申请(案卷号28888-2175)以及2017年10月19日提交的标题为“SYSTEMS ANDMETHODS FOR NEURAL TEXT-TO-SPEECH USING CONVOLUTIONAL SEQUENCE LEARNING”的共同转让的第62/574,382号美国临时专利申请(案卷号28888-2175P)(上述专利文献中的每一者完整地并且出于所有目的以引用的方式并入本文中)公开了多说话者生成模型的实施方式,所述实施方式可以作为说明在本文中使用,但是可以使用其它多说话者生成模型。尽管使用纯生成损失来训练,但是确实可以在嵌入空间中观察到判别性质(例如,性别或口音)。参见下面部分F,例如,多说话者生成模型的实施方式,但是可以使用其它多说话者生成模型。
话音克隆旨在从一组克隆音频
Figure BDA0001955873070000101
中提取(110)未见说话者sk(不在S中)的说话者特性以便以用于那个说话者的给定文本为条件生成(115)不同音频。可以考虑的用于所生成音频的两个性能度量是:(i)其有多么自然,以及(ii)其是否听起来像是由同一个说话者发音。在以下部分中解释用于神经话音克隆的两种一般方法(即,说话者自适应和说话者编码)的各种实施方式。
1.说话者自适应
在一个或多个实施方式中,说话者自适应涉及通过应用梯度下降来使用一组一个或多个音频样本和对应文本对用于未见说话者的受训练多说话者模型进行微调。微调可以应用于说话者嵌入或整个模型。
a)仅说话者嵌入微调
图2描绘根据本公开的实施方式的用于从一组有限的音频样本生成具有说话者特性的音频的说话者自适应方法。图3以图形方式描绘根据本公开的实施方式的用于训练、克隆和音频生成的说话者自适应编码方法。
在一个或多个实施方式中,训练(205/305)多说话者生成模型335,其针对说话者接收文本-音频对训练集340和345以及对应说话者标识符325作为输入。在一个或多个实施方式中,所述多说话者生成模型可以是如上面部分B中所论述的模型。在一个或多个实施方式中,说话者嵌入是用于说话者特性的低维表示,其可以被训练。在一个或多个实施方式中,说话者身份325到说话者嵌入330的转换可以由查找表完成。
在一个或多个实施方式中,受训练多说话者模型参数是固定的,但是可以针对先前未见(即,新的)说话者使用一组文本-音频对350和355来对说话者编码部分进行微调(210/310)。通过对说话者嵌入进行微调,可以生成用于这个新说话者的改善说话者嵌入。
在一个或多个实施方式中,对于仅嵌入自适应,可以使用以下目标:
Figure BDA0001955873070000111
其中
Figure BDA0001955873070000113
是用于目标说话者sk的一组文本-音频对。
在已经对说话者嵌入参数进行微调以产生用于新说话者的说话者嵌入330之后,可以针对输入文本360生成(215/315)新音频365,其中所生成音频基于说话者嵌入具有先前未见说话者的说话者特性。
b)整模型微调
图4描绘根据本公开的实施方式的用于从一组有限的音频样本生成具有说话者特性的音频的说话者自适应方法。图5以图形方式描绘根据本公开的实施方式的用于训练、克隆和音频生成的对应说话者自适应编码方法。
在一个或多个实施方式中,训练(405/505)多说话者生成模型535,其针对说话者接收文本-音频对训练集540和545以及对应说话者标识符525作为输入。
在这个预训练之后,在一个或多个实施方式中,可以针对先前未见说话者使用一组文本-音频对550和555对包括说话者嵌入参数在内的受预训练多说话者模型参数进行微调(410/510)。对整个多说话者生成模型(包括说话者嵌入参数)进行微调允许为说话者自适应提供较多自由度。对于整模型自适应,可以使用以下目标:
Figure BDA0001955873070000112
在一个或多个实施方式中,虽然整个模型为说话者自适应提供较多自由度,但是其优化可能是具有挑战性的,尤其是对于少量克隆样本。在运行优化时,迭代次数可以对于避免欠拟合或过度拟合是重要的。
在已经对多说话者生成模型535进行微调并且基于所述一组一个或多个样本来为新说话者产生说话者嵌入530之后,可以针对输入文本560生成(415/515)新音频565,其中所生成音频基于说话者嵌入具有先前未见说话者的说话者特性。
2.说话者编码
本文呈现的是用于直接从未见说话者的音频样本估计说话者嵌入的说话者编码实施方式方法。如上所述,在一个或多个实施方式中,说话者嵌入可以是说话者特性的低维表示,并且可以与说话者身份表示对应或相关。多说话者生成模型和说话者编码器模型的训练可以以多种方式完成,包括联合地、单独地或使用联合微调单独地训练。下文更详细地描述这些训练方法的示例性实施方式。在实施方式中,此类模型在话音克隆期间不需要任何微调。因此,相同模型可以用于所有未见说话者。
a)联合训练
在一个或多个实施方式中,说话者编码函数
Figure BDA0001955873070000127
采用一组克隆音频样本
Figure BDA0001955873070000122
并且估计
Figure BDA0001955873070000125
所述函数可以由Θ参数化。在一个或多个实施方式中,说话者编码器可以从头开始与多说话者生成模型一起联合地进行训练,其中针对所生成音频质量定义损失函数:
Figure BDA0001955873070000121
在一个或多个实施方式中,使用用于多说话者生成模型的说话者训练说话者编码器。在训练期间,随机取样一组克隆音频样本
Figure BDA0001955873070000123
用于训练说话者si。在推断期间,
Figure BDA0001955873070000124
(即,来自目标说话者sk的音频样本)用于计算
Figure BDA0001955873070000126
图6描绘根据本公开的实施方式的用于联合训练多说话者生成模型和说话者编码模型并且接着从一组有限的音频样本为说话者生成具有说话者特性的音频的说话者嵌入方法。图7以图形方式描绘根据本公开的实施方式的用于联合训练、克隆和音频生成的对应说话者嵌入方法。
如图6和图7所示的实施方式中所描绘,联合训练(605/705)说话者编码器模型728(其针对说话者接收来自文本-音频对训练集740和745的一组训练音频745)以及多说话者生成模型735(其针对说话者接收文本-音频对训练集740和745以及来自说话者编码器模型728的用于所述说话者的说话者嵌入730作为输入)。对于新说话者,受训练说话者编码器模型728和一组克隆音频752被用来生成(610/710)用于新说话者的说话者嵌入755。最后,如图所示,受训练多说话者生成模型735可以用于以给定文本760和由受训练说话者编码器模型728生成的说话者嵌入755为条件生成(615/715)新音频765,使得所生成音频765具有新说话者的说话者特性。
应当注意,在一个或多个实施方式中,当从头开始等式4中的训练时观察到优化挑战。主要问题是拟合平均话音以最小化整体生成损失,其通常在生成建模文献中称为模式崩溃。解决模式崩溃的一个想法是针对中间嵌入(例如,通过经由softmax层将嵌入映射到说话者类标签来使用分类损失)或者所生成音频(例如,集成受预训练说话者分类器以促进所生成音频的说话者差异)引入判别损失函数。然而,在一个或多个实施方式中,此类方法仅稍微改善了说话者差异。另一种方法是使用单独训练程序,其示例在以下部分中公开。
b)多说话者模型和说话者编码模型的单独训练
在一个或多个实施方式中,可以采用用于说话者编码器的单独训练程序。在一个或多个实施方式中,从受训练多说话者生成模型
Figure BDA0001955873070000131
Figure BDA0001955873070000132
中提取说话者嵌入
Figure BDA0001955873070000133
接着,可以训练说话者编码器模型
Figure BDA0001955873070000134
Figure BDA0001955873070000135
以从所取样克隆音频预测嵌入。可以针对对应回归问题存在若干目标函数。在实施方式中,通过简单地使用估计嵌入与目标嵌入之间的L1损失来获得良好结果:
Figure BDA0001955873070000136
图8描绘根据本公开的实施方式的用于单独训练多说话者生成模型和说话者编码器模型并且接着使用受训练模型从一组有限的音频样本针对说话者生成具有说话者特性的音频的说话者嵌入方法。图9以图形方式描绘根据本公开的实施方式的用于训练、克隆和音频生成的对应说话者嵌入方法。如图8和图9所示的实施方式中所描绘,训练(805A/905)多说话者生成模型935,其针对说话者接收文本-音频对训练集940和945以及对应说话者标识符925作为输入。可以作为模型935的训练的一部分训练说话者嵌入930。
一组说话者克隆音频950和从受训练多说话者生成模型935获得的对应说话者嵌入可以用于训练(805B/905)说话者编码器模型928。例如,返回到图8,针对说话者,可以在训练(805B/905)说话者编码器模型928中使用一组一个或多个克隆音频952(其可以从文本-音频对训练集940和945中选择)以及对应说话者嵌入930(其可以从受训练多说话者生成模型935获得)。
在已经训练说话者编码器模型928之后,针对新说话者,受训练说话者编码器模型928以及一组一个或多个克隆音频可以用于为在训练阶段(810/910)期间未见的新说话者生成说话者嵌入955。在一个或多个实施方式中,受训练多说话者生成模型935使用由受训练说话者编码器模型928生成的说话者嵌入955来以给定输入文本960为条件生成音频965,使得所生成音频具有新说话者的说话者特性(815/915)。
c)使用联合微调的多说话者模型和说话者编码模型的单独训练
在一个或多个实施方式中,可以组合现有方法的训练概念。例如,图10描绘根据本公开的实施方式说话者嵌入方法,其用于单独训练多说话者生成模型和说话者编码器模型,但是对所述模型进行联合微调并且接着使用受训练模型从一组有限的一个或多个音频样本为说话者生成具有说话者特性的音频。图11A和图11B以图形方式描绘根据本公开的实施方式的用于训练、克隆和音频生成的对应说话者嵌入方法。
如图10、图11A和图11B所示的实施方式中所描绘,训练(1005A/1105)多说话者生成模型1135,其针对说话者接收文本-音频对训练集1140和1145以及对应说话者标识符1125作为输入。在一个或多个实施方式中,可以作为模型1135的训练的一部分训练说话者嵌入1130。
一组说话者克隆音频1150和从受训练多说话者生成模型1135获得的对应说话者嵌入可以用于训练(1005B/1105)说话者编码器模型1128。例如,返回到图10,针对说话者,可以在训练(1005B/1105)说话者编码器模型1128中使用一组一个或多个克隆音频1150(其可以从文本-音频对训练集1140和1145中选择)以及对应说话者嵌入1130(其可以从受训练多说话者生成模型1135获得)。
接着,在一个或多个实施方式中,可以使用其受预训练参数作为初始条件来对说话者编码器模型1128和多说话者生成模型1135进行联合微调(1005C/1105)。在一个或多个实施方式中,可以基于目标函数等式4使用受预训练
Figure BDA0001955873070000151
和受预训练
Figure BDA0001955873070000152
作为初始点来对整个模型(即,说话者编码器模型1128和多说话者生成模型1135)进行联合微调。微调使得生成模型能够学习如何补偿嵌入估计的误差并且产生较少注意力问题。然而,生成损失仍可能主导学习,并且所生成音频中的说话者差异可能会略微减少(详见部分C.3)。
在一个或多个实施方式中,在已经训练并且微调多说话者生成模型1135和说话者编码器模型1128之后,受训练说话者编码器模型1128和用于新说话者的一组一个或多个克隆音频1152可以用于针对在训练阶段(1010/1110)期间未见的新说话者生成说话者嵌入1155。在一个或多个实施方式中,受训练多说话者生成模型1135使用由受训练说话者编码器模型1128生成的说话者嵌入1155来以给定输入文本1160为条件生成合成音频1165,使得所生成音频1165具有新说话者的说话者特性(1015/1115)。
d)说话者编码器实施方式
在一个或多个实施方式中,针对说话者编码器
Figure BDA0001955873070000153
神经网络架构包括三个部分(例如,图12中示出了一个实施方式):
(i)频谱处理:在一个或多个实施方式中,计算用于克隆音频样本的梅尔声谱图1205并将其传递到PreNet(前网络)1210,所述PreNet1210包含具有用于特征变换的指数线性单元(ELU)的全连接(FC)层。
(ii)时间处理:在一个或多个实施方式中,使用具有门控线性单元和残差连接的若干卷积层1220来并入时间上下文。接着,可以应用平均池化1225来概括整个话语。
(iii)克隆样本注意力:考虑到不同克隆音频包含不同量的说话者信息,在一个或多个实施方式中,可以使用多头自注意力机制1230来计算不同音频的权重并且得到聚合嵌入1235。
图13描绘根据本公开的实施方式的具有中间态维度的说话者编码器架构的较详细视图(batch:批次大小,Nsamples:克隆音频样本
Figure BDA0001955873070000161
的数目,T:梅尔声谱图时间帧的数目,Fmel:梅尔频率信道的数目,Fmapped:在Prenet之后的频率信道的数目,dembedding:说话者嵌入维度)。在所描绘的实施方式中,最后一层处的乘法运算代表沿着克隆样本的维度的内积。
3.用于评估的判别模型实施方式
话音克隆性能度量可以基于通过众包平台的人类评估,但是其在模型开发期间往往是缓慢且昂贵的。相反,使用本文呈现的使用判别模型的两种评估方法。
a)说话者分类
说话者分类器确定音频样本属于哪个说话者。针对话音克隆评估,可以在用于克隆的目标说话者集合上训练说话者分类器。高质量话音克隆将导致高说话者分类准确性。可以使用具有图13所示的类似频谱处理层和时间处理层以及在softmax函数之前的额外嵌入层的说话者分类器。
b)说话者验证
说话者验证是基于来自说话者的测试音频和登记音频来鉴定说话者的声称身份的任务。明确地说,其执行二元分类以识别测试音频和登记音频是否来自同一说话者。在一个或多个实施方式中,可以使用端到端文本无关说话者验证模型。可以在多说话者数据集上训练说话者验证模型,接着可以直接测试克隆音频和ground truth音频是否来自同一说话者。与说话者分类方法不同,说话者验证模型实施方式不需要使用来自用于克隆的目标说话者的音频进行训练,因此其可以用于具有少量样本的未见说话者。作为定量性能度量,可以使用等错误率(EER)来测量克隆音频与ground truth音频的接近程度。应当注意,在一个或多个实施方式中,可以改变判定阈值以在错误接受率与错误拒绝率之间进行权衡。等错误率是指当所述两个比率相等时的点。
说话者验证模型实施方式。给定一组(例如,1至5个)登记音频(登记音频来自同一说话者)和测试音频,说话者验证模型执行二元分类并且告知登记音频和测试音频是否来自同一说话者。虽然使用其它说话者验证模型就已足够,但是可以使用卷积-循环架构来创建说话者验证模型实施方式,诸如2015年11月25日提交的标题为“DEEP SPEECH 2:END-TO-END SPEECH RECOGNITION IN ENGLISH AND MANDARIN”的共同转让的第62/260,206号美国临时专利申请(案卷号28888-1990P)、2016年11月21日提交的标题为“END-TO-END SPEECHRECOGNITION”的共同转让的第15/358,120号美国专利申请(案卷号28888-1990(BN151203USN1))以及2016年11月21日提交的标题为“DEPLOYED END-TO-END SPEECHRECOGNITION”的共同转让的第15/358,083号美国专利申请(案卷号28888-2078(BN151203USN1-1))中所描述的架构,前述专利文献中的每一者均完整地并且出于所有目的以引用的方式并入本文中。应当注意,未见说话者测试集上的等错误率结果与最先进的说话者验证模型同等水平。
图14以图形方式描绘根据本公开的实施方式的模型架构。在一个或多个实施方式中,在将输入重新取样到恒定取样频率之后计算登记音频1405和测试音频1410的梅尔缩放声谱图1415、1420。接着,应用在时间和频带两者上卷积的二维卷积层1425,在每个卷积层之后具有批量归一化1430和修正线性单元(ReLU)非线性度1435。最后卷积块1438的输出被馈送到循环层(例如,门控循环单元(GRU))1440中。随时间执行均值池化1445(并且如果有很多,则对登记音频执行),接着应用全连接层1450以获得用于登记音频和测试音频两者的说话者编码。概率线性判别分析(PLDA)1455可以用于对两种编码之间的相似性进行评分。
PLDA得分可以被定义为:
s(x,y)=w·xTy–xTSx–yTSy+b   (6)
其中x和y是在全连接层之后的(分别)登记音频和测试音频的说话者编码,w和b是标量参数,并且S是对称矩阵。接着,可以将s(x,y)馈送到S形单元1460中以获得它们来自同一说话者的概率。可以使用交叉熵损失来训练模型。表1列出了根据本公开的实施方式的用于LibriSpeech数据集的说话者验证模型的超参数。
表1.用于LibriSpeech数据集的说话者验证模型的超参数。
参数
音频重新取样频率 16KHz
梅尔声谱图的频带 80
跳跃长度 400
卷积层、通道、滤波器、步幅 1,64,20×5,8,×2
循环层大小 128
全连接大小 128
丢弃概率 0.9
学习率 <![CDATA[10<sup>–3</sup>]]>
最大梯度范数 100
梯度裁剪最大值 5
除了此处所呈现的说话者验证测试结果(见图21)之外,还包括当在LibriSpeech上训练多说话者生成模型时使用1个登记音频的结果。图15描绘根据本公开的实施方式的说话者验证等错误率(EER)(使用1个登记音频)对克隆音频样本数目。使用LibriSpeech数据集训练多说话者生成模型和说话者验证模型。
使用VCTK数据集执行话音克隆。当在VCTK上训练多说话者生成模型时,结果在图16A和图16B中。应当注意,克隆音频上的EER可以比在ground truthVCTK上可能更好,因为说话者验证模型是在LibriSpeech数据集上训练的。
图16A描绘根据本公开的实施方式的使用1个登记音频的说话者验证等错误率(EER)对克隆音频样本数目。图16B描绘根据本公开的实施方式的使用5个登记音频的说话者验证等错误率(EER)对克隆音频样本数目。在VCTK数据集的包括84个说话者的子集上训练多说话者生成模型,并且在其他16个说话者上执行话音克隆。使用LibriSpeech数据集训练说话者验证模型。
C.实验
应当注意,这些实验和结果是作为说明来提供的,并且是在特定条件下使用一个或多个特定实施方式执行的;因此,这些实验及其结果都不应该用于限制本专利文献的公开内容的范围。
比较了用于话音克隆的两种方法的实施方式。对于说话者自适应方法,通过对嵌入或整个模型进行微调来训练多说话者生成模型并使其适于目标说话者。对于说话者编码方法,训练了说话者编码器,并且在具有和没有联合微调的情况下对其进行评估。
1.数据集
在第一组实验(部分C.3和C.4)中,使用LibriSpeech数据集训练多说话者生成模型实施方式和说话者编码器模型实施方式,所述LibriSpeech数据集包含以16KHz取样的用于2484个说话者的音频,总计820小时。LibriSpeech是用于自动语音识别的数据集,并且与语音合成数据集相比,其音频质量较低。在实施方式中,如共同转让的第62/574,382号美国临时专利申请(案卷号28888-2175P)和第16/058,265号美国专利申请(其均已经完整地并且出于所有目的以引用的方式并入本文中)中所描述,设计并采用分割和去噪管线以处理LibriSpeech。使用VCTK数据集执行话音克隆。VCTK由以48KHz取样的具有各种口音的108个英语母语说话者的音频构成。为了与LibriSpeech数据集一致,将VCTK音频样本下取样到16KHz。对于选定说话者,针对每个实验随机取样少量克隆音频。下一段中所提出的测试句子用于生成用于评估的音频。
测试句子(下面的句子用于针对话音克隆模型实施方式生成测试样本。空白字符、/和%指示说话者在单词之间插入的停顿的持续时间。使用四种不同单词分隔符,指示:(i)含糊不清连在一起的单词,(ii)标准发音和间隔字符,(iii)单词之间的短暂停顿,以及(iv)单词之间的长时间停顿。例如,在“way”之后具有长时间停顿并且在“shoot”之后具有短暂停顿的句子“Either way,you should shoot very slowly”将被写为“Either way%you should shoot/very slowly%”,其中为了编码方便起见,%表示长时间停顿并且/表示短暂停顿。):
Prosecutors have opened a massive investigation/into allegations of/fixing games/and illegal betting%.
Different telescope designs/perform differently%and have differentstrengths/and weaknesses%.
We can continue to strengthen the education of good lawyers%.
Feedback must be timely/and accurate/throughout the project%.
Humans also judge distance/by using the relative sizes of objects%.
Churches should not encourage it%or make it look harmless%.
Learn about/setting up/wireless network configuration%.
You can eat them fresh cooked%or fermented%.
If this is true%then those/who tend to think creatively%really aresomehow different%.
She will likely jump for joy%and want to skip straight to thehoneymoon%.
The sugar syrup/should create very fine strands of sugar%that drapeover the handles%.
But really in the grand scheme of things%this information isinsignificant%.
I let the positive/overrule the negative%.
He wiped his brow/with his forearm%.
Instead of fixing it%they give it a nickname%.
About half the people%who are infected%also lose weight%.
The second half of the book%focuses on argument/and essay writing%.
We have the means/to help ourselves%.
The large items/are put into containers/for disposal%.
He loves to/watch me/drink this stuff%.
Still%it is an odd fashion choice%.
Funding is always an issue/after the fact%.
Let us/encourage each other%.
在第二组实验(部分C.5)中,研究了训练数据集的影响。使用VCTK数据集-84个说话者用于训练多说话者生成模型,8个说话者用于确认,并且16个说话者用于克隆。
2.模型实施方式详述
a)多说话者生成模型实施方式
受测试多说话者生成模型实施方式是基于共同转让的第62/574,382号美国临时专利申请(案卷号28888-2175P)和第6/058,265号美国专利申请(其均完整地并且出于所有目的以引用的方式并入本文中)中所公开的卷积序列到序列架构,其具有相同或相似的超参数和Griffin-Lim声码器。为了获得较好性能,通过将跳跃长度和窗口大小参数减小到300和1200来增大时间分辨率,并且添加二次损失项以超线性地处罚较大幅度分量。对于说话者自适应实验,嵌入维数减少到128,因为其产生较少过度拟合问题。总体而言,基线多说话者生成模型实施方式在针对LibriSpeech数据集进行训练时具有大约25M个可训练参数。对于第二组实验,共同转让的第62/574,382号美国临时专利申请(案卷号28888-2175P)和第16/058,265号美国专利申请(上文提到并且以引用的方式并入本文中)中的VCTK模型的超参数用于训练用于VTCK的84个说话者的多说话者模型,其具有Griffin-Lim声码器。
b)说话者自适应
对于说话者自适应方法,对整个多说话者生成模型参数或仅对其说话者嵌入进行微调。对于这两种情况,单独地针对每个说话者应用优化。
c)说话者编码器模型
在一个或多个实施方式中,单独地针对不同数目的克隆音频训练说话者编码器,以获得最小确认损失。最初,将克隆音频转换为具有80个频带的对数梅尔声谱图,其跳跃长度为400,窗口大小为1600。将对数梅尔声谱图馈送到频谱处理层,其包括大小为128的2层prenet。接着,使用两个1维卷积层施加时间处理,其滤波器宽度为12。最后,针对键、查询和值使用2个头和为128的单元大小施加多头注意力。最终嵌入大小为512。为了构造确认集,从训练集中提出25个说话者。在训练时使用为64的批量大小,其中初始学习率为0.0006,每8000次迭代应用为0.6的退火率。确认集的平均绝对误差在图17中示出。图17描绘根据本公开的实施方式的在具有注意力机制以及没有注意力机制(通过简单地求平均)的情况下示出的用于25个说话者的确认集的嵌入估计的平均绝对误差对克隆音频数目。较多克隆音频往往会导致较准确的说话者嵌入估计,尤其是具有注意力机制。
注意力的一些含义。对于受训练说话者编码器模型,图18例示针对不同音频长度的注意力分布。图18描绘根据本发明的实施方式的用于具有Nsamples=5的说话者编码器模型的推断注意力系数对克隆音频样本的长度。虚线对应于对所有克隆音频样本求平均值的情况。注意力机制可以产生高度非均匀分布的系数,同时组合不同克隆样本中的信息,并且尤其向较长音频指派较高系数,如由于其中可能存在较多信息内容而直观地预期。
d)说话者分类模型
在VCTK数据集上训练说话者分类器实施方式以对音频样本属于108个说话者中的哪一者进行分类。说话者分类器实施方式具有大小为256的全连接层、具有256个宽度为4的滤波器的6个卷积层以及大小为32的最终嵌入层。所述模型针对大小为512的确认集实现100%准确性。
e)说话者验证模型
在LibriSpeech数据集上训练说话者验证模型实施方式以测量与来自未见说话者的ground truth音频相比的克隆音频的质量。从Librispeech提出五十(50)个说话者作为用于未见说话者的确认集。通过在测试集中随机配对来自相同或不同说话者(每种情况为50%)的话语来估计等错误率(EER)。针对每个测试集执行40,960次试验。上文在部分B.3.b(说话者验证)中描述了说话者验证模型实施方式的细节。
3.话音克隆性能
对于说话者自适应方法实施方式,使用说话者分类准确性选择最佳迭代次数。对于整模型自适应实施方式,迭代次数针对1、2和3个克隆音频样本被选择为100,针对5和10个克隆音频样本被选择为1000。对于说话者嵌入自适应实施方式,迭代次数针对所有情况被固定为100K。
对于说话者编码,在具有和没有说话者编码器和多说话者生成模型实施方式的联合微调的情况下考虑话音克隆。针对联合微调优化学习率和退火参数。表2总结所述方法并且列出用于训练、数据、克隆时间和占用空间大小的要求。
表2.用于说话者自适应和说话者编码的要求的比较。克隆时间间隔采用1至10个克隆音频。推断时间是针对普通句子而言。全部假设在由位于加利福尼亚州圣克拉拉的Nvidia公司出产的TitanX GPU上实施。
Figure BDA0001955873070000231
a)通过判别模型进行评估
图19描绘根据本公开的实施方式的在用于108个VCTK说话者的说话者分类准确性方面的用于话音克隆的整模型自适应和说话者嵌入自适应实施方式的性能。评估了不同数目的克隆样本和微调迭代。对于说话者自适应方法,图19示出说话者分类准确性对迭代次数。对于这两种自适应方法,分类准确性随着更多样本(多达十个样本)而显著增加。在低样本计数方案中,比起调整整个模型,调整说话者嵌入不太可能过度拟合样本。这两种方法还需要不同的迭代次数来收敛。与整模型自适应(其针对甚至100个克隆音频样本收敛大约1000次迭代)相比,嵌入自适应采用显著更多的迭代来收敛。
图20和图21示出由说话者分类模型和说话者验证模型获得的分类准确性和EER。图20描绘根据本公开的实施方式的在具有不同数目的克隆样本的说话者分类准确性方面的说话者自适应方法与说话者编码方法的比较。图21描绘根据本公开的实施方式的针对不同数目的克隆样本的说话者验证(SV)EER(使用5个登记音频)。评估设置可以在部分C.2.e中找到。LibriSpeech(未见说话者)和VCTK分别代表从来自ground truth数据集的话语的随机配对中估算出的EER。说话者自适应实施方式和说话者编码实施方式两者均受益于更多克隆音频。当克隆音频样本的数目超过五时,整模型适应性在两个度量中都胜过其它技术。与嵌入自适应相比,说话者编码方法产生较低分类准确性,但是它们实现类似的说话者验证性能。
b)人类评估
除了通过判别模型进行评估之外,还对Amazon Mechanical Turk框架进行主题测试。为了评估所生成音频的自然性,使用5级平均意见得分(MOS)。为了评估所生成音频与来自目标说话者的ground truth音频有多相似,使用Mirjam Wester等人的“Analysis ofthe voice conversion challenge 2016evaluation”(在Interspeech中,第1637至1641页,2016年9月)(下文中称为“Wester等人(2016年)”)(其全部内容以引用的方式并入本文中)中的使用相同问题和类别的4级相似性评分。每个评估都是独立进行的,所以在评级期间不会直接比较两种不同模型的克隆音频。通过多数投票规则合计对同一样本的多次投票。
表3和表4示出人类评估的结果。一般来说,较高数目的克隆音频改善了这两个度量。由于为未见说话者提供更多自由度,因此如预期那样改善对整模型自适应更为显著。在具有较多克隆音频的情况下对于说话者编码方法在自然性上存在非常微小的差异。最重要的是,说话者编码没有使基线多说话者生成模型的自然性降级。微调如预期那样改善了说话者编码的自然性,因为其允许生成模型学习如何在训练时补偿说话者编码器的错误。相似性得分在具有用于说话者编码的较高样本计数的情况下略有改善,并且与用于说话者嵌入自适应的得分相匹配。与ground truth的相似性的差距也部分地归因于输出的有限自然性(因为它们是使用LibriSpeech数据集来训练的)。
表3.具有95%置信区间的自然性的平均意见得分(MOS)评估(当使用LibriSpeech数据集进行训练并且使用VCTK数据集的108个说话者进行克隆时)。
Figure BDA0001955873070000241
Figure BDA0001955873070000251
表4.具有95%置信区间的相似性得分评估(当使用LibriSpeech数据集进行训练并且使用VCTK数据集的108个说话者进行克隆时)。
Figure BDA0001955873070000252
相似性得分。对于表4中的结果,图22示出如在Wester等人(2016年)(上文引用)中由MTurk用户给出的得分的分布。对于10样本计数,具有“同一说话者”等级的评估的比率对于所有模型均超过70%。
4.说话者嵌入空间和操纵
本公开的说话者嵌入能够进行说话者嵌入空间表示并且能够操纵以改变语音特性,所述操纵也可以称为话音变形。如图23以及本部分的其它地方所示,说话者编码器模型将说话者映射到有意义的潜在空间中。图23描绘根据本公开的实施方式的由说话者编码器做出的估计说话者嵌入的视觉化。描绘了具有5样本计数的用于说话者编码器的平均说话者嵌入的前两个主分量。仅示出英国和北美地区口音,因为它们构成了VCTK数据集中的大多数标记说话者。
受到单词嵌入操纵的启发(例如,为了将简单代数运算的存在演示为君王-女王=男-女),将代数运算应用于所推断的嵌入以变换其语音特性。
为了变换性别,获得用于女性和男性的平均说话者嵌入并且将其差异添加到特定说话者。例如:
英国男性+平均女性-平均男性
可以产生英国女性说话者。同样,口音地区可以通过例如以下方式进行变换:
英国男性+平均美国-平均英国
以获得美国男性说话者。这些结果演示了以此方式获得的具有特定性别和口音特性的高质量音频。
由编码器学习的说话者嵌入空间。为了分析由受训练说话者编码器学习的说话者嵌入空间,将主分量分析应用于推断嵌入的空间,并且从VCTK数据集针对性别和口音地区考虑其ground truth标签。图24示出根据本公开的实施方式的前两个主分量的视觉化。观察到,说话者编码器将克隆音频映射到具有高度有意义的判别模式的潜在空间。特别是对于性别,来自所学习的说话者嵌入的一维线性变换可以实现非常高的判别准确性-但是所述模型在训练时从未看到ground truth性别标签。
5.训练数据集的影响
为了评估训练数据集的影响,当训练是基于VCTK的包含84个说话者的子集时还考虑话音克隆设置,其中另外8个说话者用于确认且16个说话者用于测试。由于训练说话者有限,受测试说话者编码器模型实施方式对未见说话者的概括不佳。表5和表6呈现说话者自适应方法的人类评估结果。说话者验证结果在图16A和图16B中示出。仅嵌入自适应实施方式与整模型自适应实施方式之间的显著性能差异强调了训练说话者的多样性的重要性,同时将说话者判别信息并入到嵌入中。
表5.具有95%置信区间的自然性的平均意见得分(MOS)评估(当使用VCTK数据集的84个说话者进行训练并且使用VCTK数据集的16个说话者进行克隆时)。
Figure BDA0001955873070000261
Figure BDA0001955873070000271
表6.具有95%置信区间的相似性得分评估(当使用VCTK数据集的84个说话者进行训练并且使用VCTK数据集的16个说话者进行克隆时)。
Figure BDA0001955873070000272
D.一些结论
本文提出了用于神经话音克隆的两种一般方法:说话者自适应和说话者编码。已经证明,即使仅使用少量克隆音频,这两种方法的实施方式也实现良好克隆质量。对于自然性,此处表明说话者自适应实施方式和说话者编码实施方式两者均实现与基线多说话者生成模型相似的自然性MOS。因此,可以使用其它多说话者模型获得改善结果。
对于相似性,证明这两种方法的实施方式均受益于较多数目的克隆音频。整模型自适应实施方式与仅嵌入自适应实施方式之间的性能差距指示除了说话者嵌入之外在生成模型中仍存在一些判别说话者信息。经由嵌入进行紧凑表示的一个好处是快速克隆并且每个用户的占用空间较小。特别是对于资源有限的应用,这些实际考虑应当明显倾向于使用说话者编码方法。
观察到使用具有低质量音频的语音识别数据集以及说话者全集的表示的有限多样性训练多说话者生成模型实施方式的缺点。数据集质量的改善导致所生成样本具有更高自然性和相似性。而且,增加说话者的数量和多样性往往会使得能够实现更有意义的说话者嵌入空间,这可以改善由这两种方法的实施方式获得的相似性。这两种技术的实施方式可以受益于大规模且高质量的多说话者语音数据集。
E.计算系统实施方式
在实施方式中,本专利文献的方面可涉及、可包括一个或多个信息处理系统/计算系统或者可在一个或多个信息处理系统/计算系统上实施。计算系统可包括可操作来计算、运算、确定、分类、处理、传输、接收、检索、发起、路由、交换、存储、显示、通信、显现、检测、记录、再现、处理或利用任何形式信息、智能或数据的任何手段或手段的组合。例如,计算系统可为或可包括个人计算机(例如,膝上型计算机)、平板电脑、平板手机、个人数字助理(PDA)、智能手机、智能手表、智能包装、服务器(例如,刀片式服务器或机架式服务器)、网络存储设备、摄像机或任何其他合适设备,并且可在大小、形状、性能、功能和价格方面改变。计算系统可包括随机存取存储器(RAM)、一个或多个处理资源(例如中央处理单元(CPU)或硬件或软件控制逻辑)、ROM和/或其他类型的存储器。计算系统的另外组件可包括一个或多个盘驱动器、用于与外部设备通信的一个或多个网络端口、以及各种输入和输出(I/O)设备(例如键盘、鼠标、触摸屏和/或视频显示器)。计算系统还可包括可操作为在各种硬件组件之间传输通信的一个或多个总线。
图25描绘根据本公开的实施方式的计算设备/信息处理系统(或是计算系统)的简化框图。应理解,计算系统可不同地配置并且包括不同组件,包括如图25中所示的更少或更多的部件,但应理解,针对系统2500所示出的功能可操作为支持计算系统的各种实施方式。
如图25所示,计算系统2500包括一个或多个中央处理单元(CPU)2501,CPU 2501提供计算资源并控制计算机。CPU 2501可实施有微处理器等,并且还可包括一个或多个图形处理单元(GPU)2519和/或用于数学计算的浮点协处理器。系统2500还可包括系统存储器2502,系统存储器2502可呈随机存取存储器(RAM)、只读存储器(ROM)、或两者的形式。
如图25所示,还可提供多个控制器和外围设备。输入控制器2503表示至各种输入设备2504的接口,例如键盘、鼠标、触摸屏和/或触笔。计算系统2500还可包括存储控制器2507,该存储控制器2507用于与一个或多个存储设备2508对接,存储设备中的每个包括存储介质(诸如磁带或盘)或光学介质(其可用于记录用于操作系统、实用工具和应用程序的指令的程序,它们可包括实施本公开的各方面的程序的实施方式)。存储设备2508还可用于存储经处理的数据或是将要根据本公开处理的数据。系统2500还可包括显示控制器2509,该显示控制器2509用于为显示设备2511提供接口,显示设备2511可为阴极射线管(CRT)、薄膜晶体管(TFT)显示器、有机发光二极管、电致发光面板、等离子面板或其他类型的显示器。计算系统2500还可包括用于一个或多个外围设备2506的一个或多个外围控制器或接口2505。外围设备的示例可包括一个或多个打印机、扫描仪、输入设备、输出设备、传感器等。通信控制器2514可与一个或多个通信设备2515对接,这使系统2500能够通过各种网络(包括互联网、云资源(例如以太云、经以太网的光纤通道(FCoE)/数据中心桥接(DCB)云等)、局域网(LAN)、广域网(WAN)、存储区域网络(SAN))中的任一网络,或通过任何合适电磁载波信号(包括红外信号)来连接至远程设备。
在示出的系统中,所有主要系统组件可连接至总线2516,总线2516可表示多于一个的物理总线。然而,各种系统组件可在物理上彼此接近或可不在物理上彼此接近。例如,输入数据和/或输出数据可远程地从一个物理位置传输到另一物理位置。另外,实现本公开的各方面的程序可经由网络从远程位置(例如,服务器)访问。此类数据和/或程序可通过各种机器可读介质中的任一机器可读介质来传送,机器可读介质包括但不限于:诸如硬盘、软盘和磁带的磁性介质;诸如CD-ROM和全息设备的光学介质;磁光介质;以及硬件设备,该硬件设备专门被配置成存储或存储并执行程序代码,该硬件设备例如专用集成电路(ASIC)、可编程逻辑器件(PLD)、闪存设备、以及ROM和RAM设备。
F.多说话者生成模型实施方式
此处提出用于语音合成的新颖全卷积架构实施方式。将实施方式缩放到非常大的音频数据集,并且解决了在尝试部署基于注意力的文本转语音(TTS)系统时出现的若干现实问题。公开了全卷积字符到声谱图架构实施方式,其实现完全并行计算并且比使用循环单元的类似架构快一个数量级进行训练。为了方便起见,架构实施方式通常可以在本文中称为Deep Voice 3或DV3。
1.模型架构实施方式
在这个部分中,呈现用于TTS的全卷积序列到序列架构的实施方式。架构实施方式能够将多种文本特征(例如,字符、音素、重音)转换为多种声码器参数,例如,梅尔频带声谱图、线性标度对数幅度声谱图、基本频率、频谱包络和非周期性参数。这些声码器参数可以用作用于音频波形合成模型的输入。
在一个或多个实施方式中,Deep Voice 3架构包括三个部件:
-编码器:一种全卷积编码器,其将文本特征转换为内部所学表示。
-解码器:一种全卷积因果解码器,其以自回归方式使用多跳卷积注意力机制将所学表示解码为低维音频表示(梅尔频带声谱图)。
-转换器:一种全卷积后处理网络,其从解码器隐藏状态预测最终声码器参数(取决于声码器选择)。与解码器不同,转换器是非因果的,并且因此可以依赖于未来上下文信息。
图26以图形方式描绘根据本公开的实施方式的示例性Deep Voice 3架构2600。在实施方式中,Deep Voice 3架构2600使用编码器2605中的残差卷积层来将文本编码为用于基于注意力的解码器2630的每时间步键和值向量2620。在一个或多个实施方式中,解码器2630使用这些来预测对应于输出音频的梅尔标度对数幅度声谱图2642。在图26中,虚线箭头2646描绘在推断期间的自回归合成过程(在训练期间,使用来自对应于输入文本的ground truth音频的梅尔声谱图帧)。在一个或多个实施方式中,接着将解码器2630的隐藏状态馈送到转换器网络2650以预测用于波形合成的声码器参数以便产生输出波2660。部分F.2.(其包括以图形方式描绘根据本公开的实施方式的示例性详细模型架构的图31)提供额外细节。
在一个或多个实施方式中,待优化的总体目标函数可以是来自解码器(部分F.1.e)和转换器(部分F.1.f)的损失的线性组合。在一个或多个实施方式中,解码器2630和转换器2650是分开的并且应用多任务训练,因为其使得注意力学习在实践中更容易。具体地说,在一个或多个实施方式中,梅尔声谱图预测的损失引导注意力机制的训练,因为除了声码器参数预测之外还利用来自梅尔声谱图预测的梯度(例如,使用用于梅尔声谱图的L1损失)训练注意力。
在多说话者场景中,跨编码器2605、解码器2630和转换器2650使用可训练说话者嵌入2670。
图27描绘根据本公开的实施方式的用于使用文本转语音架构(诸如图26或图31中所描绘)的一般概述方法。在一个或多个实施方式中,使用诸如文本嵌入模型2610等嵌入模型将输入文本转换(2705)为可训练嵌入表示。使用编码器网络2605将嵌入表示转换(2710)为注意力键表示2620和注意力值表示2620,所述编码器网络2605包括一个或多个卷积块2616的系列2614。这些注意力键表示2620和注意力值表示2620由基于注意力的解码器网络使用,所述基于注意力的解码器网络包括一个或多个解码器块2634的系列2634,其中解码器块2634包括生成查询2638的卷积块2636和注意力块2640,以生成(2715)输入文本的低维音频表示(例如,2642)。在一个或多个实施方式中,输入文本的低维音频表示可以通过后处理网络(例如,2650A/2652A、2650B/2652B或2652C)经历额外处理,所述后处理网络预测(2720)输入文本的最终音频合成。如上文提到,可以在所述过程中使用说话者嵌入2670以致使合成音频2660展现与说话者标识符或说话者嵌入相关联的一个或多个音频特性(例如,男性话音、女性话音、特定口音等)。
接下来,更详细地描述这些部件中的每一者和数据处理。示例性模型超参数可以在表7(下文)中获得。
a)文本预处理
文本预处理可以对良好性能为重要的。馈送原始文本(具有间隔和标点符号的字符)在许多话语上产生可接受的性能。然而,一些话语可能会对生僻单词错误发音,或者可能会产生跳过的单词和重复的单词。在一个或多个实施方式中,可以通过如下对输入文本进行归一化来减轻这些问题:
1.用大写字母书写输入文本中的所有字符。
2.移除所有中间标点符号。
3.使用句号或问号结束每个话语。
4.使用指示说话者在单词之间插入的停顿的持续时间的特殊分隔符字符替换单词之间的空格。在一个或多个实施方式中,可以使用四种不同单词分隔符,如上文论述。在一个或多个实施方式中,停顿持续时间可以通过手动标记来获得或由文本-音频对准器估计。
b)字符与音素的联合表示
在一个或多个实施方式中,部署的TTS系统应当优选地包括用于修改发音以校正常见错误(其通常涉及例如专有名词、外来单词和特定领域的行话)的方式。这样做的常规方式是维护词典以将单词映射到其语音表示。
在一个或多个实施方式中,模型可以直接将字符(包括标点符号和间隔)转换为声学特征,并且因此学习隐式字素到音素模型。当模型出错时,这种隐式转换会很难校正。因此,除了字符模型之外,在一个或多个实施方式中,可以通过显式地允许音素输入选项来训练仅音素模型和/或混合字符与音素模型。在一个或多个实施方式中,除了编码器的输入层有时接收音素和音素重音嵌入而不是字符嵌入之外,这些模型可以与仅字符模型相同。
在一个或多个实施方式中,仅音素模型需要预处理步骤以将单词转换为其音素表示(例如,通过使用外部音素词典或单独训练的字素到音素模型)。对于实施方式,使用卡耐基梅隆大学发音词典CMUDict 0.6b。在一个或多个实施方式中,除了针对不在音素词典中的单词之外,混合字符与音素模型需要类似的预处理步骤。这些词表外/词典外单词可以作为字符输入,从而允许模型使用其隐式学习到的字素到音素模型。在训练混合字符与音素模型时,在每次训练迭代时以某固定概率将每个单词用其音素表示替换。结果发现,这改善发音准确性并且使注意力错误最小化,特别是当推广到比在训练期间见到的话语长的话语时。更重要的是,支持音素表示的模型允许使用音素词典校正错误发音,这是部署系统的所需特征。
在一个或多个实施方式中,文本嵌入模型2610可以包括仅音素模型和/或混合字符与音素模型。
c)用于顺序处理的卷积块
通过提供足够大的感受野,堆叠卷积层可以利用序列中的长期上下文信息而不会在计算中引入任何顺序依赖性。在一个或多个实施方式中,卷积块用作主要顺序处理单元以对文本和音频的隐藏表示进行编码。
图28以图形方式描绘根据本公开的实施方式的卷积块,其包括具有门控线性单元的一维(1D)卷积和残差连接。在一个或多个实施方式中,卷积块2800包括一维(1D)卷积滤波器2810、作为可学习非线性的门控线性单元2815、去往输入2805的残差连接2820以及缩放因子2825。在所描绘的实施方式中,缩放因子为
Figure BDA0001955873070000331
但是可以使用不同值。缩放因子帮助确保在训练早期保留输入方差。在图28所描绘的实施方式中,c(2830)表示输入2805的维数,并且大小为2·c(2835)的卷积输出可以被分裂2840成相等大小的部分:门向量2845和输入向量2850。门控线性单元为梯度流提供线性路径,这减轻了堆叠卷积块的消失梯度问题,同时保持了非线性。在一个或多个实施方式中,为了引入与说话者相关的控制,在softsign函数之后,可以将与说话者相关的嵌入2855作为偏置添加到卷积滤波器输出。在一个或多个实施方式中,使用softsign非线性,因为其限制了输出的范围,同时还避免了基于指数的非线性有时展现出来的饱和问题。在一个或多个实施方式中,在整个网络中使用零均值和单位方差激活来初始化卷积滤波器权重。
架构中的卷积可以是非因果的(例如,在编码器2605/3105和转换器2650/3150中)或因果的(例如,在解码器2630/3130中)。在一个或多个实施方式中,为了保持序列长度,针对因果卷积在左边用k-1个零时间步填补输入,并且针对非因果卷积在左边和右边用(k-1)/2个零时间步填补输入,其中k是奇数卷积滤波器宽度(在实施方式中,奇数卷积宽度用于简化卷积算术,但是可以使用偶数卷积宽度和偶数k值)。在一个或多个实施方式中,在卷积之前将丢弃2860应用于输入以进行规则化。
d)编码器
在一个或多个实施方式中,编码器网络(例如,编码器2605/3105)以嵌入层开始,所述嵌入层将字符或音素转换为可训练向量表示he。在一个或多个实施方式中,这些嵌入he首先经由全连接层从嵌入维度投影到目标维数。接着,在一个或多个实施方式中,通过一系列卷积块(诸如部分F.1.c中所描述的实施方式)对其进行处理以提取与时间相关的文本信息。最后,在一个或多个实施方式中,将其投影回到嵌入维度以创建注意力键向量hk。可以从注意力键向量和文本嵌入计算注意力值向量,
Figure BDA0001955873070000341
以联合考虑he中的本地信息和hk中的长期上下文信息。每个注意力块使用键向量来计算注意力权重,而最终上下文向量被计算为值向量的加权平均值hv(参见部分F.1.f)。
e)解码器
在一个或多个实施方式中,解码器网络(例如,解码器2630/3130)通过以过去音频帧为条件预测一群组r个未来音频帧来以自回归方式生成音频。由于解码器是自回归的,所以在实施方式中,其使用因果卷积块。在一个或多个实施方式中,选择梅尔频带对数幅度声谱图作为紧凑的低维音频帧表示,但是可以使用其它表示。根据经验观察到,将多个帧一起解码(即,具有r>1)产生较好的音频质量。
在一个或多个实施方式中,解码器网络以具有修正线性单元(ReLU)非线性的多个全连接层开始以预处理输入梅尔声谱图(在图26中表示为“PreNet”2632)。接着,在一个或多个实施方式中,其后是一系列解码器块,其中解码器块包括因果卷积块和注意力块。这些卷积块生成用于注意力编码器的隐藏状态的查询(参见部分F.1.f)。最后,在一个或多个实施方式中,全连接层输出下一群组r个音频帧以及二元“最终帧”预测(指示是否已经合成话语的最后一个帧)。在一个或多个实施方式中,在注意力块之前的每个全连接层之前应用丢弃,除了第一个全连接层之外。
可以使用输出的梅尔声谱图来计算L1损失,并且可以使用最终帧预测来计算二元交叉熵损失。选择L1损失,因为它凭经验产生最好结果。诸如L2等其它损失可能遭受异常频谱特征,其可以对应于非语音噪声。
f)注意力块
图29以图形方式描绘根据本公开的实施方式的注意力块的实施方式。如图29所示,在一个或多个实施方式中,可以分别以速率ωkey2905和ωquery2910将位置编码2905、2910添加到键2920和查询2938向量两者。可以通过将较大负值的掩模添加到logits来在推断中施加强制单调性。可以使用两种可能注意力方案之一:softmax或单调注意力(诸如来自Raffel等人(2017年))。在一个或多个实施方式中,在训练期间,丢弃注意力权重。
在一个或多个实施方式中,使用点积注意力机制(在图29中描绘)。在一个或多个实施方式中,注意力机制使用查询向量2938(解码器的隐藏状态)和来自编码器的每时间步键向量2920来计算注意力权重,并且接着输出被计算为值向量2921的加权平均值的上下文向量2915。
从引入归纳偏置观察到经验益处,其中注意力在时间上遵循单调进展。因此,在一个或多个实施方式中,将位置编码添加到键向量和查询向量两者。这些位置编码hp可以被选择为hp(i)=sin(ωsi/10000k/d)(对于偶数i)或cos(ωsi/10000k/d)(对于奇数i),其中i是时间步索引,k是位置编码中的通道索引,d是位置编码中的通道总数,并且ωs是编码的位置率。在一个或多个实施方式中,位置率规定注意力分布中的线的平均斜率,大致对应于语速。对于单个说话者,可以针对查询将ωs设置为一并且可以针对键将其固定为输出时间步与输入时间步的比率(在整个数据集上计算)。对于多说话者数据集,可以从用于每个说话者的说话者嵌入针对键和查询两者计算ωs(例如,在图29中描绘)。由于正弦和余弦函数形成标准正交基,所以这个初始化产生呈对角线形式的注意力分布。在一个或多个实施方式中,针对查询投影和键投影将用于计算隐藏注意力向量的全连接层权重初始化为相同值。可以在所有注意力块中使用位置编码。在一个或多个实施方式中,使用上下文归一化(诸如在Gehring等人(2017年)中)。在一个或多个实施方式中,将全连接层应用于上下文向量以生成注意力块的输出。总的来说,位置编码改善了卷积注意力机制。
生产质量TTS系统对注意力误差具有非常低的容忍度。因此,除了位置编码之外,还考虑额外策略来消除重复或跳过单词的情况。可以使用的一种方法是用在Raffel等人(2017年)中介绍的单调注意力机制代替典型注意力机制,所述单调注意力机制预期通过训练来使硬单调随机解码与软单调注意力接近。Raffel等人(2017年)还提出通过取样的硬单调注意力过程。其目的是通过仅仅注意力经由取样选择的状态来改善推断速度,并且因此避免对未来状态进行计算。本文的实施方式未受益于此类加速,并且在一些情况下观察到不良注意力行为,例如卡在第一个或最后一个字符上。尽管单调性有所改善,但这种策略可能会产生更加分散的注意力分布。在一些情况下,同时注意力若干字符,并且无法获得高质量语音。这可能归因于软对准的未归一化注意力系数,从而有可能导致来自编码器的弱信号。因此,在一个或多个实施方式中,使用仅在推断时将注意力权重约束为单调性从而保留没有任何约束的训练过程的替代策略。代替在整个输入上计算softmax,可以在固定窗口上计算softmax,所述固定窗口在最后一个注意力位置开始并且前进若干时间步。在本文的实验中,使用为三的窗口大小,但是可以使用其它窗口大小。在一个或多个实施方式中,初始位置被设置为零,并且稍后被计算为当前窗口内的最高注意力权重的索引。这个策略还在推断中强制单调注意力并且产生优异的语音质量。
g)转换器
在一个或多个实施方式中,转换器网络(例如,2650/3150)将来自解码器的最后一个隐藏层的激活作为输入,应用若干非因果卷积块,并且接着预测用于下游声码器的参数。在一个或多个实施方式中,与解码器不同,转换器是非因果的且非自回归的,所以其可以使用来自解码器的未来上下文来预测其输出。
在实施方式中,转换器网络的损失函数取决于下游声码器的类型:
1.Gridin-Lim声码器:在一个或多个实施方式中,Griffin-Lim算法通过迭代地估计未知相位来将声谱图转换为时域音频波形。已经发现,在波形合成之前将声谱图自乘由锐化因子参数化的次数有助于改善音频质量。L1损失用于线性标度对数幅度声谱图的预测。
2.WORLD声码器:在一个或多个实施方式中,WORLD声码器是基于Morise等人(2016年)。图30以图形方式描绘根据本公开的实施方式的具有全连接(FC)层的示例性生成WORLD声码器参数。在一个或多个实施方式中,作为声码器参数,预测布尔值3010(当前帧是浊音的还是清音的)、F0值3025(如果帧是浊音的)、频谱包络3015和非周期性参数3020。在一个或多个实施方式中,交叉熵损失用于浊音-清音预测,并且L1损失用于所有其它预测。在实施方式中,“σ”是S形函数,其用于获得用于二元交叉熵预测的有界变量。在一个或多个实施方式中,输入3005是转换器中的输出隐藏状态。
3.WaveNet声码器:在一个或多个实施方式中,WaveNet被单独训练以用作将梅尔标度对数幅度声谱图作为声码器参数的声码器。这些声码器参数被作为外部调节器输入到网络。可以使用ground truth梅尔声谱图和音频波形来训练WaveNet。使用梅尔标度声谱图观察到良好性能,这对应于更紧凑的音频表示。除了在解码时在梅尔标度声谱图上的L1损失之外,在线性标度声谱图上的L1损失也可以用作Griffin-Lim声码器。
应当注意,可以使用其它声码器和其它输出类型。
2.Deep Voice 3的详细模型架构实施方式
图31以图形方式描绘根据本公开的实施方式的示例性详细Deep Voice 3模型架构。在一个或多个实施方式中,模型3100使用深度残差卷积网络来将文本和/或音素编码成用于注意力解码器3130的每时间步键3120和值3122向量。在一个或多个实施方式中,解码器3130使用这些来预测对应于输出音频的梅尔频带对数幅度声谱图3142。虚线箭头3146描绘在推断期间的自回归合成过程。在一个或多个实施方式中,解码器的隐藏状态被馈送到转换器网络3150以输出用于Griffin-Lim 3152A的线性声谱图或用于WORLD 3152B的参数,其可以用于合成最终波形。在一个或多个实施方式中,将权重归一化应用于模型中的所有卷积滤波器和全连接层权重矩阵。如图31所描绘的实施方式中所示出,WaveNet 3152不需要单独转换器,因为其采用梅尔频带对数幅度声谱图作为输入。
a)优化Deep Voice 3实施方式用于部署
使用TensorFlow图运行推断证明是非常昂贵的,平均大约1QPS。不良的TensorFlow性能可能是由于在数百个节点和数百个时间步上运行图评估程序的开销。与TensorFlow一起使用诸如XLA等技术可以加速评估,但是不太可能与手写内核的性能相匹配。相反,针对Deep Voice 3实施方式推断实施定制GPU内核。归因于模型的复杂性和大量输出时间步,针对图中的不同操作(例如,卷积、矩阵乘法、一元和二元运算等)启动各个内核可能是不切实际的;启动CUDA内核的开销为大约50μs,当在模型中的所有操作和所有输出时间步上进行合计时,其将吞吐量限制为大约10QPS。因此,针对整个模型实施单个内核,这避免启动许多CUDA内核的开销。最后,代替在内核中进行批量计算,本文的内核实施方式对单个话语进行操作,并且启动与GPU上的串流多处理器(SM)一样多的并发流。每个内核可以使用一个块来启动,所以预期GPU每个SM调度一个块,从而允许能够根据SM的数目线性地缩放推断速度。
在具有56个SM的由位于加利福尼亚州圣克拉拉的Nvidia公司出产的单个NvidiaTesla P100GPU上,实现了为115QPS的推断速度,其对应于每天1000万次查询的目标。在实施方式中,在服务器上的所有20个CPU上并行化WORLD合成,永久地将线程钉到CPU以便最大化高速缓存性能。在这个设置中,GPU推断是瓶颈,因为20个核心上的WORLD合成比115QPS更快。可以通过更优化的内核、更小的模型和固定精度的算术来更快地做出推断。
b)模型超参数
本专利文献中所使用的模型的所有超参数均在以下表7中提供。
表7:用于所述专利文献中所使用的三个数据集的最佳模型的超参数。
Figure BDA0001955873070000381
Figure BDA0001955873070000391
3.引用文献
下文列出或在本文任何地方引用的每篇文献的全文均以引用的方式并入本文中。
Yannis Agiomyrgiannakis。Vocaine the Vocoder and Applications inSpeech Synthesis。ICASSP,2015年。
Jonas Gehring、Michael Auli、David Grangier、Denis Yarats和Yann Dauphin。Convolutional Sequence to Sequence Learning。ICML,2017年。
Daniel Griffin和Jae Lim。Signal Estimation From Modified Short-TimeFourier Transform。IEEE Transactions on Acoustics,Speech,and SignalProcessing,1984年。
Soroush Mehri、Kundan Kumar、Ishaan Gulrajani、Rithesh Kumar、ShubhamJain、Jose Sotelo、Aaron Courville和Yoshua Bengio。Sample RNN:An UnconditionalEnd-To-End Neural Audio Generation Model。ICLR,2017年。
Masanori Morise、Fumiya Yokomori和Kenji Ozawa。WORLD:A vocoder-basedhigh-quality speech synthesis system for real-time applications。IEICETransactions on Information and Systems,2016年。
Robert Ochshorn和Max Hawkins。Gentle。https://github.com/lowerquality/gentle,2017年。
Aaron van den Oord、Sander Dieleman、Heiga Zen、Karen Simonyan、OriolVinyals、Alex Graves、Nal Kalchbrenner、Andrew Senior和Koray Kavukcuoglu。WaveNet:A generative model for raw audio。arXiv:1609.03499,2016年。
Vassil Panayotov、Guoguo Chen、Daniel Povey和Sanjeev Khudanpur。LibriSpeech:An ASR corpus based on public domain audio books。Acoustics,Speechand Signal Processing(ICASSP),2015IEEE International Conference on,第5206至5210页。IEEE,2015年。LibriSpeech数据集可以在http://www.openslr.org/12/处获得。
Colin Raffel、Thang Luong、Peter J Liu、Ron J Weiss和Douglas Eck。Onlineand Linear-Time Attention by Enforcing Monotonic Alignments。ICML,2017年。
Jose Sotelo、Soroush Mehri、Kundan Kumar、Joao Felipe Santos、KyleKastner、Aaron Courville和Yoshua Bengio。Char2Wav:End-to-End Speech Synthesis。ICLR workshop,2017年。
G3.附加实施方式的实现
本公开的方面可利用用于一个或多个处理器或处理单元以使步骤执行的指令在一个或多个非暂态计算机可读介质上编码。应注意,一个或多个非暂态计算机可读介质应当包括易失性存储器和非易失性存储器。应注意,替代实现方式是可能的,其包括硬件实现方式或软件/硬件实现方式。硬件实施的功能可使用ASIC、可编程的阵列、数字信号处理电路等来实现。因此,任何权利要求中的术语“手段”旨在涵盖软件实现方式和硬件实现方式两者。类似地,如本文使用的术语“计算机可读媒介或介质”包括具有实施在其上的指令程序的软件和/或硬件或它们的组合。利用所构想的这些替代实现方式,应当理解,附图以及随附描述提供本领域的技术人员编写程序代码(即,软件)和/或制造电路(即,硬件)以执行所需处理所要求的功能信息。
应当注意,本公开的实施方式还可涉及具有其上具有用于执行各种计算机实施的操作的计算机代码的非暂态有形计算机可读介质的计算机产品。介质和计算机代码可为出于本公开的目的而专门设计和构造的介质和计算机代码,或者它们可为相关领域中的技术人员已知或可用的。有形计算机可读介质的示例包括但不限于:诸如硬盘、软盘和磁带的磁性介质;诸如CD-ROM和全息设备的光学介质;磁光介质;以及专门配置成存储或存储并执行程序代码的硬件设备,例如,专用集成电路(ASIC)、可编程逻辑器件(PLD)、闪存设备、以及ROM和RAM设备。计算机代码的示例包括机器代码(例如,编译器产生的代码)以及包含可由计算机使用解释器来执行的更高级代码的文件。本公开的实施方式可整体地或部分地实施为可在由处理设备执行的程序模块中的机器可执行指令。程序模块的示例包括库、程序、例程、对象、组件和数据结构。在分布的计算环境中,程序模块可物理上定位在本地、远程或两者的设定中。
本领域的技术人员将认识到,计算系统或编程语言对本公开的实践来说均不重要。本领域的技术人员将还将认识到,多个上述元件可物理地和/或在功能上划分成子模块或组合在一起。
本领域技术人员将理解,前文的示例和实施方式是示例性的,并且不限制本公开的范围。旨在说明的是,在本领域的技术人员阅读本说明书并研究附图后将对本领域的技术人员显而易见的本公开的所有、置换、增强、等同、组合或改进包括在本公开的真实精神和范围内。还应注意,任何权利要求书的元素可不同地布置,包括具有多个从属、配置和组合。

Claims (20)

1.一种用于从输入文本合成音频的计算机实施的方法,包括:
给定不是用于训练多说话者生成模型的训练数据的一部分的新说话者的一组有限的一个或多个音频,使用包括第一组受训练模型参数的说话者编码器模型来在给定所述一组有限的一个或多个音频作为所述说话者编码器模型的输入的情况下针对所述新说话者获得说话者嵌入,所述说话者嵌入是说话者的语音特性的表示;以及
使用包括第二组受训练模型参数的多说话者生成模型、所述输入文本和由包括所述第一组受训练模型参数的所述说话者编码器模型生成的用于所述新说话者的所述说话者嵌入来生成用于所述输入文本的合成音频表示,其中所述合成音频包括所述新说话者的语音特性,
其中包括所述第二组受训练模型参数的所述多说话者生成模型是使用以下各项作为输入来针对说话者进行训练的:(1)文本-音频对训练集,其中文本-音频对包括文本和所述说话者对该文本的对应音频,以及(2)与用于该说话者的说话者标识符对应的说话者嵌入。
2.根据权利要求1所述的计算机实施的方法,其中通过执行包括以下各项的步骤来获得用于所述说话者编码器模型的所述第一组受训练模型参数和用于所述多说话者生成模型的所述第二组受训练模型参数:
针对说话者使用所述文本-音频对训练集和与用于该说话者的说话者标识符对应的说话者嵌入作为输入来训练所述多说话者生成模型,以获得用于所述多说话者生成模型的所述第二组受训练模型参数并且获得对应于所述说话者标识符的一组说话者嵌入;以及
使用从所述文本-音频对训练集中选择的一组音频和来自所述一组说话者嵌入的用于所述一组音频的说话者的对应说话者嵌入来训练所述说话者编码器模型,以获得用于所述说话者编码器模型的所述第一组受训练模型参数。
3.根据权利要求1所述的计算机实施的方法,其中通过执行包括以下各项的步骤来获得用于所述说话者编码器模型的所述第一组受训练模型参数和用于所述多说话者生成模型的所述第二组受训练模型参数:
针对说话者使用所述文本-音频对训练集和与用于该说话者的说话者标识符对应的说话者嵌入作为输入来训练所述多说话者生成模型,以获得用于所述多说话者生成模型的第三组受训练模型参数并且获得对应于所述说话者标识符的一组说话者嵌入;
使用从所述文本-音频对训练集中选择的一组音频和来自所述一组说话者嵌入的用于所述一组音频的说话者的对应说话者嵌入来训练所述说话者编码器模型,以获得用于所述说话者编码器模型的第四组受训练模型参数;以及
通过将由所述多说话者生成模型使用来自所述说话者编码器模型的说话者嵌入生成的合成音频与对应于所述合成音频的ground truth音频进行比较,来对包括所述第三组受训练模型参数的所述多说话者生成模型和包括所述第四组受训练模型参数的所述说话者编码器模型执行联合训练,以调整所述第三组受训练模型参数和所述第四组受训练模型参数中的至少一些,以便获得用于所述说话者编码器模型的所述第一组受训练模型参数和用于所述多说话者生成模型的所述第二组受训练模型参数。
4.根据权利要求3所述的计算机实施的方法,还包括:
作为所述联合训练的一部分,调整所述一组说话者嵌入的至少一些参数。
5.根据权利要求1所述的计算机实施的方法,其中通过执行包括以下各项的步骤来获得用于所述说话者编码器模型的所述第一组受训练模型参数和用于所述多说话者生成模型的所述第二组受训练模型参数:
通过将由所述多说话者生成模型使用来自所述说话者编码器模型的说话者嵌入生成的合成音频与对应于所述合成音频的ground truth音频进行比较,来对所述多说话者生成模型和所述说话者编码器模型执行联合训练,以获得用于所述说话者编码器模型的所述第一组受训练模型参数和用于所述多说话者生成模型的所述第二组受训练模型参数。
6.根据权利要求1所述的计算机实施的方法,其中所述说话者编码器模型包括神经网络架构,所述神经网络架构包括:
频谱处理网络部件,其计算用于输入音频的频谱音频表示并且将所述频谱音频表示传递到包括具有用于特征变换的一个或多个非线性单元的一个或多个全连接层的前网络部件;
时间处理网络部件,在所述时间处理网络部件中使用具有门控线性单元和残差连接的多个卷积层并入时间上下文;以及
克隆样本注意力网络部件,包括确定不同音频的权重并且获得聚合说话者嵌入的多头自注意力机制。
7.一种生成文本转语音系统,包括:
一个或多个处理器;以及
非暂时性计算机可读介质或媒介,包括一个或多个指令序列,所述一个或多个指令序列在由所述一个或多个处理器中的至少一个执行时,致使执行步骤,所述步骤包括:
给定不是用于训练多说话者生成模型的训练数据的一部分的新说话者的一组有限的一个或多个音频,使用包括第一组受训练模型参数的说话者编码器模型来在给定所述一组有限的一个或多个音频作为所述说话者编码器模型的输入的情况下针对所述新说话者获得说话者嵌入,所述说话者嵌入是说话者的语音特性的表示;以及
使用包括第二组受训练模型参数的多说话者生成模型、输入文本和由包括所述第一组受训练模型参数的所述说话者编码器模型生成的用于所述新说话者的所述说话者嵌入来生成用于所述输入文本的合成音频表示,其中所述合成音频包括所述新说话者的语音特性,
其中包括所述第二组受训练模型参数的所述多说话者生成模型是使用以下各项作为输入来针对说话者进行训练的:(1)文本-音频对训练集,其中文本-音频对包括文本和所述说话者对该文本的对应音频,以及(2)与用于该说话者的说话者标识符对应的说话者嵌入。
8.根据权利要求7所述的生成文本转语音系统,其中通过执行包括以下各项的步骤来获得用于所述说话者编码器模型的所述第一组受训练模型参数和用于所述多说话者生成模型的所述第二组受训练模型参数:
针对说话者使用所述文本-音频对训练集和与用于该说话者的说话者标识符对应的说话者嵌入作为输入来训练所述多说话者生成模型,以获得用于所述多说话者生成模型的所述第二组受训练模型参数并且获得对应于所述说话者标识符的一组说话者嵌入;以及
使用从所述文本-音频对训练集中选择的一组音频和来自所述一组说话者嵌入的用于所述一组音频的说话者的对应说话者嵌入来训练所述说话者编码器模型,以获得用于所述说话者编码器模型的所述第一组受训练模型参数。
9.根据权利要求7所述的生成文本转语音系统,其中通过执行包括以下各项的步骤来获得用于所述说话者编码器模型的所述第一组受训练模型参数和用于所述多说话者生成模型的所述第二组受训练模型参数:
针对说话者使用所述文本-音频对训练集和与用于该说话者的说话者标识符对应的说话者嵌入作为输入来训练所述多说话者生成模型,以获得用于所述多说话者生成模型的第三组受训练模型参数并且获得对应于所述说话者标识符的一组说话者嵌入;
使用从所述文本-音频对训练集中选择的一组音频和来自所述一组说话者嵌入的用于所述一组音频的说话者的对应说话者嵌入来训练所述说话者编码器模型,以获得用于所述说话者编码器模型的第四组受训练模型参数;以及
通过将由所述多说话者生成模型使用来自所述说话者编码器模型的说话者嵌入生成的合成音频与对应于所述合成音频的ground truth音频进行比较,来对包括所述第三组受训练模型参数的所述多说话者生成模型和包括所述第四组受训练模型参数的所述说话者编码器模型执行联合训练,以调整所述第三组受训练模型参数和所述第四组受训练模型参数中的至少一些,以便获得用于所述说话者编码器模型的所述第一组受训练模型参数和用于所述多说话者生成模型的所述第二组受训练模型参数。
10.根据权利要求9所述的生成文本转语音系统,还包括:作为所述联合训练的一部分,调整所述一组说话者嵌入的至少一些参数。
11.根据权利要求7所述的生成文本转语音系统,其中通过执行包括以下各项的步骤来获得用于所述说话者编码器模型的所述第一组受训练模型参数和用于所述多说话者生成模型的所述第二组受训练模型参数:
通过将由所述多说话者生成模型使用来自所述说话者编码器模型的说话者嵌入生成的合成音频与对应于所述合成音频的ground truth音频进行比较,来对所述多说话者生成模型和所述说话者编码器模型执行联合训练,以获得用于所述说话者编码器模型的所述第一组受训练模型参数和用于所述多说话者生成模型的所述第二组受训练模型参数。
12.根据权利要求7所述的生成文本转语音系统,其中所述说话者编码器模型包括神经网络架构,所述神经网络架构包括:
频谱处理网络部件,其计算用于输入音频的频谱音频表示并且将所述频谱音频表示传递到包括具有用于特征变换的一个或多个非线性单元的一个或多个全连接层的前网络部件;
时间处理网络部件,在所述时间处理网络部件中使用具有门控线性单元和残差连接的多个卷积层并入时间上下文;以及
克隆样本注意力网络部件,包括确定不同音频的权重并且获得聚合说话者嵌入的多头自注意力机制。
13.一种用于从输入文本合成音频的计算机实施的方法,包括:
接收不是作为用于训练多说话者生成模型的训练数据的一部分的一组有限的一个或多个文本和新说话者的对应ground truth音频,所述训练得到用于一组说话者嵌入的说话者嵌入参数,其中说话者嵌入是说话者的说话者特性的低维表示;
将所述一组有限的一个或多个文本和用于所述新说话者的对应ground truth音频、以及包括说话者嵌入参数的所述说话者嵌入中的至少一者或多者,输入到包括受预训练模型参数或受训练模型参数的所述多说话者生成模型中;
使用由所述多说话者生成模型生成的合成音频与其对应ground truth音频的比较来调整所述说话者嵌入参数中的至少一些,以获得表示所述新说话者的说话者特性的说话者嵌入;以及
使用包括受训练模型参数的所述多说话者生成模型、所述输入文本和用于所述新说话者的所述说话者嵌入来生成用于所述输入文本的合成音频表示,其中所述合成音频包括所述新说话者的说话者特性。
14.根据权利要求13所述的计算机实施的方法,其中:
针对说话者使用以下各项作为输入来训练所述多说话者生成模型:
(1)文本-音频对训练集,其中文本-音频对包括文本和由所述说话者说出的该文本的对应音频,以及
(2)与用于该说话者的说话者标识符对应的说话者嵌入。
15.根据权利要求13所述的计算机实施的方法,其中所述使用由所述多说话者生成模型生成的合成音频与其对应ground truth音频的比较来调整所述说话者嵌入参数中的至少一些以获得表示所述新说话者的说话者特性的说话者嵌入的步骤还包括:
使用由所述多说话者生成模型生成的合成音频与其对应ground truth音频的比较来调整:
所述说话者嵌入参数中的至少一些,以获得表示所述新说话者的说话者特性的说话者嵌入;以及
所述多说话者生成模型的所述受预训练模型参数中的至少一些,以获得所述受训练模型参数。
16.根据权利要求13所述的计算机实施的方法,其中经由查找表使说话者嵌入与说话者身份相关。
17.一种生成文本转语音系统,包括:
一个或多个处理器;以及
非暂时性计算机可读介质或媒介,包括一个或多个指令序列,所述一个或多个指令序列在由所述一个或多个处理器中的至少一个执行时,致使执行步骤,所述步骤包括:
接收不是作为用于训练多说话者生成模型的训练数据的一部分的一组有限的一个或多个文本和新说话者的对应ground truth音频,所述训练得到用于一组说话者嵌入的说话者嵌入参数,其中说话者嵌入是说话者的说话者特性的低维表示;
将所述一组有限的一个或多个文本和用于所述新说话者的对应ground truth音频、以及包括说话者嵌入参数的所述说话者嵌入中的至少一者或多者,输入到包括受预训练模型参数或受训练模型参数的所述多说话者生成模型中;
使用由所述多说话者生成模型生成的合成音频与其对应ground truth音频的比较来调整所述说话者嵌入参数中的至少一些,以获得表示所述新说话者的说话者特性的说话者嵌入;以及
使用包括受训练模型参数的所述多说话者生成模型、输入文本和用于所述新说话者的所述说话者嵌入来生成用于所述输入文本的合成音频表示,其中所述合成音频包括所述新说话者的说话者特性。
18.根据权利要求17所述的生成文本转语音系统,其中:
针对说话者使用以下各项作为输入来训练所述多说话者生成模型:
(1)文本-音频对训练集,其中文本-音频对包括文本和由所述说话者说出的该文本的对应音频,以及
(2)与用于该说话者的说话者标识符对应的说话者嵌入。
19.根据权利要求17所述的生成文本转语音系统,其中所述使用由所述多说话者生成模型生成的合成音频与其对应ground truth音频的比较来调整所述说话者嵌入参数中的至少一些以获得表示所述新说话者的说话者特性的说话者嵌入的步骤还包括:
使用由所述多说话者生成模型生成的合成音频与其对应ground truth音频的比较来调整:
所述说话者嵌入参数中的至少一些,以获得表示所述新说话者的说话者特性的说话者嵌入;以及
所述多说话者生成模型的所述受预训练模型参数中的至少一些,以获得所述受训练模型参数。
20.根据权利要求17所述的生成文本转语音系统,其中所述多说话者生成模型包括:
编码器,所述编码器将输入文本的文本特征转换为所学表示;以及
解码器,所述解码器使用多跳卷积注意力机制将所述所学表示解码为低维音频表示。
CN201910066489.5A 2018-02-09 2019-01-24 用于使用少量样本进行神经话音克隆的系统和方法 Active CN110136693B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862628736P 2018-02-09 2018-02-09
US62/628,736 2018-02-09
US16/143,330 US11238843B2 (en) 2018-02-09 2018-09-26 Systems and methods for neural voice cloning with a few samples
US16/143,330 2018-09-26

Publications (2)

Publication Number Publication Date
CN110136693A CN110136693A (zh) 2019-08-16
CN110136693B true CN110136693B (zh) 2023-04-28

Family

ID=67541088

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910066489.5A Active CN110136693B (zh) 2018-02-09 2019-01-24 用于使用少量样本进行神经话音克隆的系统和方法

Country Status (2)

Country Link
US (1) US11238843B2 (zh)
CN (1) CN110136693B (zh)

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102401512B1 (ko) * 2018-01-11 2022-05-25 네오사피엔스 주식회사 기계학습을 이용한 텍스트-음성 합성 방법, 장치 및 컴퓨터 판독가능한 저장매체
JP6876641B2 (ja) * 2018-02-20 2021-05-26 日本電信電話株式会社 音声変換学習装置、音声変換装置、方法、及びプログラム
US10770063B2 (en) * 2018-04-13 2020-09-08 Adobe Inc. Real-time speaker-dependent neural vocoder
US10971170B2 (en) * 2018-08-08 2021-04-06 Google Llc Synthesizing speech from text using neural networks
US20200104681A1 (en) * 2018-09-27 2020-04-02 Google Llc Neural Networks with Area Attention
US10963754B1 (en) * 2018-09-27 2021-03-30 Amazon Technologies, Inc. Prototypical network algorithms for few-shot learning
US10511908B1 (en) * 2019-03-11 2019-12-17 Adobe Inc. Audio denoising and normalization using image transforming neural network
US11210477B2 (en) * 2019-05-09 2021-12-28 Adobe Inc. Systems and methods for transferring stylistic expression in machine translation of sequence data
JP7108147B2 (ja) * 2019-05-23 2022-07-27 グーグル エルエルシー 表現用エンドツーエンド音声合成における変分埋め込み容量
US11183201B2 (en) * 2019-06-10 2021-11-23 John Alexander Angland System and method for transferring a voice from one body of recordings to other recordings
GB201908530D0 (en) * 2019-06-13 2019-07-31 Microsoft Technology Licensing Llc Robutness against manipulations n machine learning
US11410667B2 (en) 2019-06-28 2022-08-09 Ford Global Technologies, Llc Hierarchical encoder for speech conversion system
KR102294639B1 (ko) * 2019-07-16 2021-08-27 한양대학교 산학협력단 다중 디코더를 이용한 심화 신경망 기반의 비-자동회귀 음성 합성 방법 및 시스템
JP7290507B2 (ja) * 2019-08-06 2023-06-13 本田技研工業株式会社 情報処理装置、情報処理方法、認識モデルならびにプログラム
KR102430020B1 (ko) * 2019-08-09 2022-08-08 주식회사 하이퍼커넥트 단말기 및 그것의 동작 방법
CN110580500B (zh) * 2019-08-20 2023-04-18 天津大学 一种面向人物交互的网络权重生成少样本图像分类方法
US11929058B2 (en) * 2019-08-21 2024-03-12 Dolby Laboratories Licensing Corporation Systems and methods for adapting human speaker embeddings in speech synthesis
US11151979B2 (en) 2019-08-23 2021-10-19 Tencent America LLC Duration informed attention network (DURIAN) for audio-visual synthesis
CN110751940B (zh) 2019-09-16 2021-06-11 百度在线网络技术(北京)有限公司 一种生成语音包的方法、装置、设备和计算机存储介质
CN110766955B (zh) * 2019-09-18 2022-08-26 平安科技(深圳)有限公司 基于动作预测模型的信号调节方法、装置和计算机设备
US11373633B2 (en) * 2019-09-27 2022-06-28 Amazon Technologies, Inc. Text-to-speech processing using input voice characteristic data
CN112669809A (zh) * 2019-10-16 2021-04-16 百度(美国)有限责任公司 并行神经文本到语音转换
KR20210053020A (ko) * 2019-11-01 2021-05-11 삼성전자주식회사 전자 장치 및 그 동작 방법
CN111061868B (zh) * 2019-11-05 2023-05-23 百度在线网络技术(北京)有限公司 读法预测模型获取及读法预测方法、装置及存储介质
CN110808027B (zh) * 2019-11-05 2020-12-08 腾讯科技(深圳)有限公司 语音合成方法、装置以及新闻播报方法、系统
US11430424B2 (en) * 2019-11-13 2022-08-30 Meta Platforms Technologies, Llc Generating a voice model for a user
US11749281B2 (en) 2019-12-04 2023-09-05 Soundhound Ai Ip, Llc Neural speech-to-meaning
US11308938B2 (en) 2019-12-05 2022-04-19 Soundhound, Inc. Synthesizing speech recognition training data
KR20210071471A (ko) * 2019-12-06 2021-06-16 삼성전자주식회사 뉴럴 네트워크의 행렬 곱셈 연산을 수행하는 장치 및 방법
CN111063365B (zh) * 2019-12-13 2022-06-07 北京搜狗科技发展有限公司 一种语音处理方法、装置和电子设备
SG10201912562SA (en) * 2019-12-18 2021-07-29 Yitu Pte Ltd A training method, a readable storage medium and a voice cloning method for a voice cloning model
CN111081259B (zh) * 2019-12-18 2022-04-15 思必驰科技股份有限公司 基于说话人扩充的语音识别模型训练方法及系统
US10990848B1 (en) 2019-12-27 2021-04-27 Sap Se Self-paced adversarial training for multimodal and 3D model few-shot learning
US11080560B2 (en) 2019-12-27 2021-08-03 Sap Se Low-shot learning from imaginary 3D model
CN111128119B (zh) * 2019-12-31 2022-04-22 云知声智能科技股份有限公司 一种语音合成方法及装置
WO2021134520A1 (zh) * 2019-12-31 2021-07-08 深圳市优必选科技股份有限公司 语音转换的方法及训练方法、智能装置和存储介质
CN111242131B (zh) * 2020-01-06 2024-05-10 北京十六进制科技有限公司 一种智能阅卷中图像识别的方法、存储介质及装置
CN111179905A (zh) * 2020-01-10 2020-05-19 北京中科深智科技有限公司 一种快速配音生成方法及装置
CN111223474A (zh) * 2020-01-15 2020-06-02 武汉水象电子科技有限公司 一种基于多神经网络的语音克隆方法和系统
CN113222105A (zh) * 2020-02-05 2021-08-06 百度(美国)有限责任公司 元协作训练范式
US11430431B2 (en) * 2020-02-06 2022-08-30 Tencent America LLC Learning singing from speech
CN111292754A (zh) * 2020-02-17 2020-06-16 平安科技(深圳)有限公司 语音信号处理方法、装置及设备
US11302301B2 (en) 2020-03-03 2022-04-12 Tencent America LLC Learnable speed control for speech synthesis
CN111368056B (zh) * 2020-03-04 2023-09-29 北京香侬慧语科技有限责任公司 一种古诗词生成方法和装置
CN111427932B (zh) * 2020-04-02 2022-10-04 南方科技大学 出行预测方法、装置、设备和存储介质
CN111489734B (zh) * 2020-04-03 2023-08-22 支付宝(杭州)信息技术有限公司 基于多说话人的模型训练方法以及装置
CN111554305B (zh) * 2020-04-26 2023-06-09 兰州理工大学 一种基于语谱图和注意力机制的声纹识别方法
US11222620B2 (en) 2020-05-07 2022-01-11 Google Llc Speech recognition using unspoken text and speech synthesis
CN111681635A (zh) * 2020-05-12 2020-09-18 深圳市镜象科技有限公司 基于小样本的语音实时克隆的方法、装置、设备和介质
US11323935B2 (en) * 2020-06-11 2022-05-03 Dell Products, L.P. Crowdsourced network identification and switching
US11574622B2 (en) 2020-07-02 2023-02-07 Ford Global Technologies, Llc Joint automatic speech recognition and text to speech conversion using adversarial neural networks
CN111785247A (zh) * 2020-07-13 2020-10-16 北京字节跳动网络技术有限公司 语音生成方法、装置、设备和计算机可读介质
CA3190161A1 (en) * 2020-08-21 2022-02-24 Pindrop Security, Inc. Improving speaker recognition with quality indicators
GB2601102B (en) * 2020-08-28 2023-12-27 Spotify Ab A text-to-speech synthesis method and system, and a method of training a text-to-speech synthesis system
CN112151040B (zh) * 2020-09-27 2023-04-28 湖北工业大学 一种基于端到端联合优化及决策的鲁棒性说话人识别方法
CN112837677A (zh) * 2020-10-13 2021-05-25 讯飞智元信息科技有限公司 一种有害音频检测方法及装置
EP4233044A1 (en) * 2020-10-21 2023-08-30 Google LLC Parallel tacotron: non-autoregressive and controllable tts
US11605388B1 (en) * 2020-11-09 2023-03-14 Electronic Arts Inc. Speaker conversion for video games
EP4198967A4 (en) 2020-11-12 2024-01-24 Samsung Electronics Co Ltd ELECTRONIC DEVICE AND CONTROL METHOD THEREOF
CN112382268A (zh) * 2020-11-13 2021-02-19 北京有竹居网络技术有限公司 用于生成音频的方法、装置、设备和介质
CN112382297A (zh) * 2020-11-13 2021-02-19 北京有竹居网络技术有限公司 用于生成音频的方法、装置、设备和介质
US11670285B1 (en) * 2020-11-24 2023-06-06 Amazon Technologies, Inc. Speech processing techniques
CN112735434A (zh) * 2020-12-09 2021-04-30 中国人民解放军陆军工程大学 一种具有声纹克隆功能的语音通话方法及系统
CN112634859B (zh) * 2020-12-28 2022-05-03 思必驰科技股份有限公司 用于文本相关说话人识别的数据增强方法及系统
US11942070B2 (en) 2021-01-29 2024-03-26 International Business Machines Corporation Voice cloning transfer for speech synthesis
KR20230158614A (ko) * 2021-03-26 2023-11-20 구글 엘엘씨 컨포머 기반 음성 변환 모델
CN117083667A (zh) * 2021-06-01 2023-11-17 渊慧科技有限公司 预测用于训练语音合成神经网络的频谱表示
CN113436607B (zh) * 2021-06-12 2024-04-09 西安工业大学 一种快速语音克隆方法
CN113314124B (zh) * 2021-06-15 2022-03-25 宿迁硅基智能科技有限公司 文本输出方法及系统、存储介质、电子装置
CN113823298B (zh) * 2021-06-15 2024-04-16 腾讯科技(深圳)有限公司 语音数据处理方法、装置、计算机设备及存储介质
CN113506583B (zh) * 2021-06-28 2024-01-05 杭州电子科技大学 利用残差网络的伪装语音检测方法
US11810552B2 (en) * 2021-07-02 2023-11-07 Mitsubishi Electric Research Laboratories, Inc. Artificial intelligence system for sequence-to-sequence processing with attention adapted for streaming applications
WO2023288265A1 (en) * 2021-07-15 2023-01-19 Sri International Voice modification
CN113488057B (zh) * 2021-08-18 2023-11-14 山东新一代信息产业技术研究院有限公司 面向康养的对话实现方法及系统
WO2023037380A1 (en) * 2021-09-07 2023-03-16 Gan Studio Inc Output voice track generation
CN113823308B (zh) * 2021-09-18 2023-11-28 东南大学 一种使用单个带噪语音样本进行语音去噪的方法
WO2024001307A1 (zh) * 2022-06-29 2024-01-04 华为云计算技术有限公司 一种语音克隆方法、装置及相关设备
CN117809621A (zh) * 2024-02-29 2024-04-02 暗物智能科技(广州)有限公司 一种语音合成方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103366733A (zh) * 2012-03-30 2013-10-23 株式会社东芝 文本到语音的系统
CN106504741A (zh) * 2016-09-18 2017-03-15 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于深度神经网络音素信息的语音转换方法
CN107112006A (zh) * 2014-10-02 2017-08-29 微软技术许可有限责任公司 基于神经网络的语音处理
CN107610717A (zh) * 2016-07-11 2018-01-19 香港中文大学 基于语音后验概率的多对一语音转换方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2296846A (en) * 1995-01-07 1996-07-10 Ibm Synthesising speech from text
JPH1078952A (ja) * 1996-07-29 1998-03-24 Internatl Business Mach Corp <Ibm> 音声合成方法、音声合成装置、ハイパーテキストの制御方法及び制御装置
US6970820B2 (en) * 2001-02-26 2005-11-29 Matsushita Electric Industrial Co., Ltd. Voice personalization of speech synthesizer
US7483832B2 (en) * 2001-12-10 2009-01-27 At&T Intellectual Property I, L.P. Method and system for customizing voice translation of text to speech
US7567896B2 (en) * 2004-01-16 2009-07-28 Nuance Communications, Inc. Corpus-based speech synthesis based on segment recombination
US7693719B2 (en) * 2004-10-29 2010-04-06 Microsoft Corporation Providing personalized voice font for text-to-speech applications
US8751239B2 (en) * 2007-10-04 2014-06-10 Core Wireless Licensing, S.a.r.l. Method, apparatus and computer program product for providing text independent voice conversion
US8600749B2 (en) * 2009-12-08 2013-12-03 At&T Intellectual Property I, L.P. System and method for training adaptation-specific acoustic models for automatic speech recognition
CN102117614B (zh) * 2010-01-05 2013-01-02 索尼爱立信移动通讯有限公司 个性化文本语音合成和个性化语音特征提取
US8423366B1 (en) * 2012-07-18 2013-04-16 Google Inc. Automatically training speech synthesizers
JP6266372B2 (ja) * 2014-02-10 2018-01-24 株式会社東芝 音声合成辞書生成装置、音声合成辞書生成方法およびプログラム
JP6523893B2 (ja) * 2015-09-16 2019-06-05 株式会社東芝 学習装置、音声合成装置、学習方法、音声合成方法、学習プログラム及び音声合成プログラム
CN106571145A (zh) * 2015-10-08 2017-04-19 重庆邮电大学 一种语音模仿方法和装置
CN105185372B (zh) * 2015-10-20 2017-03-22 百度在线网络技术(北京)有限公司 个性化多声学模型的训练方法、语音合成方法及装置
US11080591B2 (en) * 2016-09-06 2021-08-03 Deepmind Technologies Limited Processing sequences using convolutional neural networks
US10140973B1 (en) * 2016-09-15 2018-11-27 Amazon Technologies, Inc. Text-to-speech processing using previously speech processed data
US10163436B1 (en) * 2016-09-28 2018-12-25 Amazon Technologies, Inc. Training a speech processing system using spoken utterances
US10872598B2 (en) * 2017-02-24 2020-12-22 Baidu Usa Llc Systems and methods for real-time neural text-to-speech
US10249289B2 (en) * 2017-03-14 2019-04-02 Google Llc Text-to-speech synthesis using an autoencoder

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103366733A (zh) * 2012-03-30 2013-10-23 株式会社东芝 文本到语音的系统
CN107112006A (zh) * 2014-10-02 2017-08-29 微软技术许可有限责任公司 基于神经网络的语音处理
CN107610717A (zh) * 2016-07-11 2018-01-19 香港中文大学 基于语音后验概率的多对一语音转换方法
CN106504741A (zh) * 2016-09-18 2017-03-15 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于深度神经网络音素信息的语音转换方法

Also Published As

Publication number Publication date
US20190251952A1 (en) 2019-08-15
US11238843B2 (en) 2022-02-01
CN110136693A (zh) 2019-08-16

Similar Documents

Publication Publication Date Title
CN110136693B (zh) 用于使用少量样本进行神经话音克隆的系统和方法
US11017761B2 (en) Parallel neural text-to-speech
US11482207B2 (en) Waveform generation using end-to-end text-to-waveform system
US11705107B2 (en) Real-time neural text-to-speech
US10796686B2 (en) Systems and methods for neural text-to-speech using convolutional sequence learning
Tjandra et al. VQVAE unsupervised unit discovery and multi-scale code2spec inverter for zerospeech challenge 2019
Oord et al. Wavenet: A generative model for raw audio
Van Den Oord et al. Wavenet: A generative model for raw audio
Kameoka et al. ConvS2S-VC: Fully convolutional sequence-to-sequence voice conversion
Peddinti et al. A time delay neural network architecture for efficient modeling of long temporal contexts.
Deng et al. Machine learning paradigms for speech recognition: An overview
Kameoka et al. Many-to-many voice transformer network
Deng et al. Foundations and Trends in Signal Processing: DEEP LEARNING–Methods and Applications
Hashimoto et al. Trajectory training considering global variance for speech synthesis based on neural networks
Howell et al. Visual units and confusion modelling for automatic lip-reading
Chen et al. Generative adversarial networks for unpaired voice transformation on impaired speech
Nakashika et al. Voice conversion using speaker-dependent conditional restricted boltzmann machine
Masumura et al. Sequence-level consistency training for semi-supervised end-to-end automatic speech recognition
Qu et al. LipSound: Neural Mel-Spectrogram Reconstruction for Lip Reading.
CN112669809A (zh) 并行神经文本到语音转换
Ramos Voice conversion with deep learning
Silén et al. Voice conversion for non-parallel datasets using dynamic kernel partial least squares regression
Jaitly Exploring Deep Learning Methods for discovering features in speech signals
Lenglet et al. Speaking Rate Control of end-to-end TTS Models by Direct Manipulation of the Encoder's Output Embeddings
Kefalas et al. Large-scale unsupervised audio pre-training for video-to-speech synthesis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant