CN113711305A - 用于文本到语音转换分析的持续时间知悉网络 - Google Patents
用于文本到语音转换分析的持续时间知悉网络 Download PDFInfo
- Publication number
- CN113711305A CN113711305A CN202080028696.2A CN202080028696A CN113711305A CN 113711305 A CN113711305 A CN 113711305A CN 202080028696 A CN202080028696 A CN 202080028696A CN 113711305 A CN113711305 A CN 113711305A
- Authority
- CN
- China
- Prior art keywords
- spectra
- speech
- text
- generating
- text components
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001228 spectrum Methods 0.000 claims abstract description 90
- 238000000034 method Methods 0.000 claims abstract description 48
- 230000003595 spectral effect Effects 0.000 claims abstract description 7
- 238000012549 training Methods 0.000 claims description 6
- 230000003362 replicative effect Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 description 22
- 230000007246 mechanism Effects 0.000 description 10
- 230000015572 biosynthetic process Effects 0.000 description 9
- 238000003786 synthesis reaction Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 241000282326 Felis catus Species 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000013477 bayesian statistics method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007596 consolidation process Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
- G10L2013/105—Duration
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Telephonic Communication Services (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
Abstract
一种方法和装置,包括:接收包括文本分量的序列的文本输入。使用持续时间模型来确定文本分量的相应持续时间。基于文本分量的序列来生成第一语谱集。基于第一语谱集和文本分量的序列的相应持续时间来生成第二语谱集。基于第二语谱集来生成语谱图帧。基于语谱图帧来生成音频波形。提供音频波形作为输出。
Description
相关申请的交叉引用
本申请要求于2019年4月29日提交的第16/397,349号美国申请的优先权,该美国申请的公开内容通过引用整体并入本文。
背景技术
近来,基于Tacotron的端到端语音合成系统显示了从合成语音的韵律以及自然度的角度得到的令人印象深刻的文本到语音转换(TTS)结果。然而,在合成语音时跳过或重复输入文本中的某些单词方面,此类系统具有显著缺点。这个问题由此类系统的端到端性质引起,其中不可控的注意机制用于语音生成。本公开通过将Tacotron系统内部的端到端注意机制替代成会通知持续期的注意网络来解决这些问题。本公开所提出的网络实现了相当的或提高的合成性能,并解决了Tacotron系统内的问题。
发明内容
根据一些可能的实现方式,一种方法包括:通过设备接收包括文本分量的序列的文本输入;通过设备并使用持续时间模型来确定文本分量的相应持续时间;通过设备基于文本分量的序列来生成第一语谱集;通过设备基于第一语谱集和文本分量的序列的相应持续时间来生成第二语谱集;通过设备基于第二语谱集来生成语谱图帧;通过设备基于语谱图帧来生成音频波形;以及通过设备提供音频波形作为输出。
根据一些可能的实现方式,一种设备包括:至少一个存储器,配置成存储程序代码;至少一个处理器,配置成读取程序代码并按照程序代码的指令进行操作,程序代码包括:接收代码,配置成使得至少一个处理器接收包括文本分量的序列的文本输入;确定代码,配置成使得至少一个处理器使用持续时间模型来确定文本分量的相应持续时间;生成代码,配置成使得至少一个处理器:基于文本分量的序列来生成第一语谱集;基于第一语谱集和文本分量的序列的相应持续时间来生成第二语谱集;基于第二语谱集来生成语谱图帧;基于语谱图帧来生成音频波形;以及提供代码,配置成使得至少一个处理器提供音频波形作为输出。
根据一些可能的实现方式,一种非暂时性计算机可读介质存储指令,指令包括一个或多个指令,一个或多个指令在由设备的一个或多个处理器运行时,使得一个或多个处理器:接收包括文本分量的序列的文本输入;使用持续时间模型来确定文本分量的相应持续时间;基于文本分量的序列来生成第一语谱集;基于第一语谱集和文本分量的序列的相应持续时间来生成第二语谱集;基于第二语谱集来生成语谱图帧;基于语谱图帧来生成音频波形;以及提供音频波形作为输出。
附图说明
图1是本文描述的示例实现方式的概略图;
图2是可实现本文描述的系统和/或方法的示例环境的图;
图3是图2的一个或多个设备的示例组件的图;以及
图4是使用用于文本到语音合成的、会通知持续期的注意网络来生成音频波形的示例过程的流程图。
具体实施方式
TTS系统具有各种各样的应用。然而,大部分采用的商业系统主要基于参数系统,该参数系统与人类的自然语音相比存在很大的差距。Tacotron是与基于参数的传统TTS系统明显不同的TTS合成系统,且能够产生高度自然的语音句子。整个系统可以以端到端的方式训练,且用编码器-卷积-堆-公路网-双向选通-循环单元(CBHG)模块代替传统的复杂语言特征提取部分。
用端到端的注意机制来代替在传统参数系统中使用的持续时间模型,其中在端到端的注意机制中,从注意模型学习输入文本(或音素序列)和语音信号之间的对齐,而不是基于隐马尔可夫模型(HMM)的对齐。与Tacotron系统相关联的另一个主要区别在于它直接预测梅尔/线性语谱,该梅尔/线性语谱可直接由高级声码器(例如Wavenet和WaveRNN)使用来合成高质量语音。
基于Tacotron的系统能够生成更精确和自然的发声语音。然而,Tacotron系统包括不稳定性,例如跳过和/或重复输入文本,这是在合成语音波形时所固有的缺点。
本文的一些实现方式解决基于Tacotron的系统的前述输入文本跳过和重复问题,同时保持其优异的合成质量。此外,本文的一些实现方式解决这些不稳定的问题,并在合成的语音中实现显著提高的自然度。
Tacotron的不稳定性主要由其不可控的注意机制引起,不能保证每个输入文本可被顺序地合成而不会跳过或重复。
本文的一些实现方式用基于持续期的注意机制来代替这种不稳定和不可控的注意机制,其中在基于持续期的注意机制中,保证输入文本被顺序地合成而不会跳过或重复。在基于Tacotron的系统中需要注意的主要原因是在源文本和目标语谱图之间缺少对齐信息。
通常,输入文本的长度比生成的语谱图的长度短得多。来自输入文本的单个字符/音素可生成语谱图的多个帧,同时需要该信息来通过任何神经网络架构对输入/输出关系进行建模。
基于Tacotron的系统主要利用端到端机制来解决这个问题,其中在端到端机制中,语谱图的生成依赖于对源输入文本的已知注意。然而,这种注意机制基本上不稳定,原因是这种注意机制的注意高度不可控。本文的一些实现方式用持续时间模型来代替Tacotron系统内的端到端注意机制,持续时间模型预测单个输入字符和/或音素持续多长时间。换句话说,通过在预定持续期内复制每个输入字符和/或音素来实现输出语谱图和输入文本之间的对齐。通过基于HMM的强制对齐来实现从我们的系统学习的输入文本的地面真值持续期。利用预测的持续期,语谱图中的每个目标帧可与输入文本中的一个字符/音素匹配。整个模型架构在下面的图中绘制。
图1是本文描述的实施例的概略图。如图1所示,参考附图标记110,平台(例如,服务器)可接收包括文本分量的序列的文本输入。如图所示,文本输入可包括短语,例如“这是一只猫”。文本输入可包括示出为字符“DH”、“IH”、“S”、“IH”、“Z”、“AX”、“K”、“AE”和“AX”的文本分量的序列。
进一步如图1所示,参考附图标记120,平台可使用持续时间模型来确定文本分量的相应持续时间。持续时间模型可包括接收输入文本分量并确定文本分量的持续时间的模型。作为一个例子,短语“这是一只猫”在可听输出时可包括一秒的总持续时间。短语的相应文本分量可包括不同的持续时间,这些不同的持续时间共同构成总持续时间。
作为示例,单词“这”可包括400毫秒的持续时间,单词“是”可包括200毫秒的持续时间,单词“一只”可包括100毫秒的持续时间,以及单词“猫”可包括300毫秒的持续时间。持续时间模型可确定文本分量的相应组成持续时间。
进一步如图1所示,参考附图标记130,平台可基于文本分量的序列来生成第一语谱集。例如,平台可将文本分量输入到基于所输入的文本分量来生成输出语谱的模型中。如图所示,第一语谱集可包括每个文本分量的相应语谱(例如,示出为“1”、“2”、“3”、“4”、“5”、“6”、“7”、“8”和“9”)。
进一步如图1所示,参考附图标记140,平台可基于第一语谱集和文本分量的序列的相应持续时间来生成第二语谱集。平台可通过基于语谱的相应持续时间复制语谱来生成第二语谱集。作为示例,可复制语谱“1”,使得第二语谱集包括对应于语谱“1”的三个语谱分量等。平台可使用持续时间模型的输出来确定生成第二语谱集的方式。
进一步如图1所示,参考附图标记140,平台可基于第二语谱集来生成语谱图帧。语谱图帧可由第二语谱集的相应组成语谱分量形成。如图1所示,语谱图帧可与预测帧对齐。换句话说,由平台生成的语谱图帧可精确地与文本输入的预期音频输出对齐。
平台可使用各种技术,基于语谱图帧来生成音频波形,并提供音频波形作为输出。
以这种方式,本文的一些实现方式通过利用确定所输入的文本分量的相应持续时间的持续时间模型来允许与语音到文本合成相关联的更精确的音频输出生成。
图2是可实现本文描述的系统和/或方法的示例环境200的图。如图2所示,环境200可包括用户设备210、平台220和网络230。环境200的设备可通过有线连接、无线连接或者有线连接和无线连接的组合来互连。
用户设备210包括能够接收、生成、存储、处理和/或提供与平台220相关联的信息的一个或多个设备。例如,用户设备210可包括计算设备(例如,台式计算机、膝上型计算机、平板计算机、手持式计算机、智能扬声器、服务器等)、移动电话(例如,智能电话、无线电话等)、可穿戴设备(例如,一对智能眼镜或智能手表)或类似设备。在一些实现方式中,用户设备210可从平台220接收信息和/或向平台220发送信息。
平台220包括能够使用用于文本到语音合成的、会通知持续期的注意网络来生成音频波形,如在本文的其他地方所描述的。在一些实现方式中,平台220可包括云服务器或一组云服务器。在一些实现方式中,平台220可设计成模块化平台,使得某些软件组件可根据特定需要而换入或换出。因此,平台220可容易地和/或快速地针对不同用途来重新配置。
在一些实现方式中,如图所示,平台220可托管在云计算环境222中。应注意,虽然本文描述的实现方式将平台220描述成托管在云计算环境222中,但是在一些实现方式中,平台220不基于云(即,可以在云计算环境之外实现)或者可部分地基于云。
云计算环境222包括托管平台220的环境。云计算环境222可提供不需要终端用户(例如,用户设备210)知道托管平台220的系统和/或设备的物理位置和配置的计算、软件、数据访问、存储等服务。如图所示,云计算环境222可包括一组计算资源224(这一组计算资源统称为“计算资源224”,单独一个计算资源称为“计算资源224”)。
计算资源224包括一个或多个个人计算机、工作站计算机、服务器设备或其他类型的计算和/或通信设备。在一些实现方式中,计算资源224可控制平台220。云资源可包括在计算资源224中运行的计算实例、在计算资源224中提供的存储设备、由计算资源224提供的数据传输设备等。在一些实现方式中,计算资源224可通过有线连接、无线连接或者有线连接和无线连接的组合与其他计算资源224通信。
进一步如图2所示,计算资源224包括一组云资源,例如一个或多个应用(“APP”)224-1、一个或多个虚拟机(“VM”)224-2、虚拟化存储器(“VS”)224-3、一个或多个管理程序(“HYP”)224-4等。
应用224-1包括可提供给用户设备210和/或传感器设备220或者由用户设备210和/或传感器设备220访问的一个或多个软件应用。应用224-1可消除在用户设备210上安装和运行软件应用的需要。例如,应用224-1可包括与平台220相关联的软件和/或能够通过云计算环境222提供的任何其他软件。在一些实现方式中,一个应用224-1可通过虚拟机224-2向一个或多个其他应用224-1发送信息/从一个或多个其他应用224-1接收信息。
虚拟机224-2包括运行程序的机器(例如,计算机)的软件实现,类似于物理机。根据虚拟机224-2对任何实际机器的对应程度和用途,虚拟机224-2可以是系统虚拟机或过程虚拟机。系统虚拟机可提供支持完整操作系统(“OS”)的运行的完整系统平台。过程虚拟机可运行单个程序,且可支持单个过程。在一些实现方式中,虚拟机224-2可代表用户(例如,用户设备210)运行,且可管理云计算环境222的基础设施,例如数据管理、同步或长时间数据传输。
虚拟化存储器224-3包括在计算资源224的存储系统或设备内使用虚拟化技术的一个或多个存储系统和/或一个或多个设备。在一些实现方式中,在存储系统的环境中,虚拟化的类型可包括块虚拟化和文件虚拟化。块虚拟化可指的是逻辑存储与物理存储的抽象化(或分离),使得可以在不考虑物理存储或异构结构的情况下访问存储系统。分离可允许存储系统的管理员在管理员如何管理终端用户的存储方面具有灵活性。文件虚拟化可消除以文件级别访问的数据与物理地存储文件的位置之间的依赖性。这可使得存储器使用、服务器整合和/或无干扰文件迁移性能得到优化。
管理程序224-4可提供硬件虚拟化技术,硬件虚拟化技术允许多个操作系统(例如,“客户操作系统”)在主控计算机例如计算资源224上同时运行。管理程序224-4可给客户操作系统呈现虚拟操作平台,且可管理客户操作系统的运行。各操作系统的多个实例可共享虚拟化硬件资源。
网络230包括一个或多个有线网络和/或无线网络。例如,网络230可包括蜂窝网络(例如,第五代(5G)网络、长期演进(LTE)网络、第三代(3G)网络、码分多址(CDMA)网络等)、公共陆地移动网络(PLMN)、局域网(LAN)、广域网(WAN)、城域网(MAN)、电话网(例如,公共交换电话网(PSTN))、专用网络、自组织网络、内部网、因特网、基于光纤的网络等,和/或这些或其他类型网络的组合。
图2所示的设备和网络的数量和布置作为示例来提供。在实践中,可存在额外的设备和/或网络、更少的设备和/或网络、不同的设备和/或网络、或与图2所示的设备和/或网络不同地布置的设备和/或网络。此外,图2所示的两个或更多个设备可以在单个设备内实现,或者图2所示的单个设备可实现为多个分布式设备。另外或者替代地,环境200的一组设备(例如,一个或多个设备)可执行被描述成由环境200的另一组设备执行的一个或多个功能。
图3是设备300的示例组件的图。设备300可对应于用户设备210和/或平台220。如图3所示,设备300可包括总线310、处理器320、存储器330、存储组件340、输入组件350、输出组件360和通信接口370。
总线310包括允许设备300的组件之间进行通信的组件。处理器320以硬件、固件或者硬件和软件的组合来实现。处理器320是中央处理单元(CPU)、图形处理单元(GPU)、加速处理单元(APU)、微处理器、微控制器、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、专用集成电路(ASIC)或另一类型的处理组件。在一些实现方式中,处理器320包括能够被编程以执行功能的一个或多个处理器。存储器330包括随机存取存储器(RAM)、只读存储器(ROM)和/或另一类型的动态或静态存储设备(例如,闪存、磁性存储器和/或光学存储器),其存储供处理器320使用的信息和/或指令。
存储组件340存储与设备300的操作和使用相关的信息和/或软件。例如,存储组件340可包括硬盘(例如,磁盘、光盘、磁光盘和/或固态盘)、光碟(CD)、数字通用盘(DVD)、软盘、盒式磁带、磁带和/或另一类型的非暂时性计算机可读介质、以及相应的驱动器。
输入组件350包括允许设备300接收信息的组件,该信息例如通过用户输入(例如,触摸屏显示器、键盘、小键盘、鼠标、按钮、开关和/或麦克风)输入。另外或者替代地,输入组件350可包括用于感测信息的传感器(例如,全球定位系统(GPS)组件、加速计、陀螺仪和/或致动器)。输出组件360包括提供来自设备300的输出信息的组件(例如,显示器、扬声器和/或一个或多个发光二极管(LED))。
通信接口370包括类似收发器的组件(例如,收发机和/或单独的接收机和发射机),其使得设备300能够与其他设备通信,例如通过有线连接、无线连接或者有线连接和无线连接的组合与其他设备通信。通信接口370可允许设备300从另一设备接收信息和/或向另一设备提供信息。例如,通信接口370可包括以太网接口、光学接口、同轴接口、红外接口、射频(RF)接口、通用串行总线(USB)接口、Wi-Fi接口、蜂窝网络接口等。
设备300可执行本文描述的一个或多个过程。设备300可响应于处理器320运行由诸如存储器330和/或存储组件340的非暂时性计算机可读介质存储的软件指令,来执行这些过程。在本文中,计算机可读介质定义为非暂时性存储器设备。存储器设备包括单个物理存储设备内的存储器空间或者分布在多个物理存储设备上的存储器空间。
软件指令可通过通信接口370从另一计算机可读介质读入存储器330和/或存储组件340中,或者从另一设备读入存储器330和/或存储组件340中。当运行时,存储在存储器330和/或存储组件340中的软件指令可使得处理器320执行本文描述的一个或多个过程。另外或者替代地,可使用硬连线电路来代替软件指令或者与软件指令组合,来执行本文描述的一个或多个过程。因此,本文描述的实现方式不限于硬件电路和软件的任何特定组合。
图3所示的组件的数量和布置作为示例来提供。在实践中,设备300可包括额外的组件、更少的组件、不同的组件、或与图3所示的组件不同地布置的组件。另外或者替代地,设备300的一组组件(例如,一个或多个组件)可执行被描述成由设备300的另一组组件执行的一个或多个功能。
图4是使用用于文本到语音合成的、会通知持续期的注意网络来生成音频波形的示例过程400的流程图。在一些实现方式中,可由平台220执行图4的一个或多个过程块。在一些实现方式中,可由与平台220分离或包括平台220的另一设备或一组设备(例如,用户设备210)执行图4的一个或多个过程块。
如图4所示,过程400可包括通过设备接收包括文本分量的序列的文本输入(框410)。
例如,平台220可接收将要转换成音频输出的文本输入。文本分量可包括字符、音素、n元(n-gram)、单词、字母等。文本分量的序列可形成句子、短语等。
进一步如图4所示,过程400可包括通过设备并使用持续时间模型来确定文本分量的相应持续时间(框420)。
持续时间模型可包括接收所输入的文本分量并确定所输入的文本分量的持续时间的模型。平台220可训练持续时间模型。例如,平台220可使用机器学习技术来分析数据(例如,训练数据,例如历史数据等)并创建持续时间模型。机器学习技术可包括例如监督技术和/或无监督技术,例如人工网络、贝叶斯统计、学习自动机、隐马尔可夫建模、线性分类器、二次分类器、决策树、关联规则学习等。
平台220可通过使已知持续期的语谱图帧和文本分量的序列对齐来训练持续时间模型。例如,平台220可使用基于HMM的强制对齐来确定文本分量的输入文本序列的地面真值持续期。平台220可通过使用已知持续期的预测或目标语谱图帧和包括文本分量的已知输入文本序列来训练持续时间模型。
平台220可将文本分量输入到持续时间模型中,并基于模型的输出来确定标识文本分量的相应持续时间或与文本分量的相应持续时间相关联的信息。标识相应持续时间或与相应持续时间相关的信息可用于生成第二语谱集,如下所述。
进一步如图4所示,过程400可包括确定是否已使用持续时间模型来确定每个文本分量的相应持续时间(框430)。
例如,平台220可迭代地或同时确定文本分量的相应持续时间。平台220可确定是否已针对输入文本序列的每个文本分量确定持续时间。
进一步如图4所示,如果没有使用持续时间模型来确定每个文本分量的相应持续时间(框430-否),则过程400可包括返回到框420。
例如,平台220可将尚未确定持续时间的文本分量输入到持续时间模型中,直到给每个文本分量确定持续时间为止。
进一步如图4所示,如果已使用持续时间模型来确定每个文本分量的相应持续时间(框430-是),则过程400可包括通过设备基于文本分量的序列来生成第一语谱集(框440)。
例如,平台220可生成对应于所输入的文本分量的序列的文本分量的输出语谱。平台220可利用CBHG模块来生成输出语谱。CBHG模块可包括一堆一维(1-D)卷积滤波器、一组公路网、双向选通循环单元(GRU)、循环神经网络(RNN)和/或其他组件。
在一些实现方式中,输出语谱可以是梅尔频率倒谱(MFC)语谱。输出语谱可包括用于生成语谱图帧的任何类型的语谱。
进一步如图4所示,过程400可包括通过设备基于第一语谱集和文本分量的序列的相应持续时间来生成第二语谱集(框450)。
例如,平台220可使用第一语谱集和标识文本分量的相应持续时间或与文本分量的相应持续时间相关联的信息来生成第二语谱集。
作为示例,平台220可基于对应于语谱的基础文本分量的相应持续时间来复制第一语谱集的各个语谱。在一些情况下,平台220可基于复制因子、时间因子等,来复制语谱。换句话说,持续时间模型的输出可用于确定复制特定语谱、生成附加语谱等的因子。
进一步如图4所示,过程400可包括通过设备基于第二语谱集来生成语谱图帧(框460)。
例如,平台220可基于第二语谱集来生成语谱图帧。第二语谱集共同形成语谱图帧。如在本文的其他地方所描述的,使用持续时间模型生成的语谱图帧可更精确地类似于目标帧或预测帧。以这种方式,本文的一些实现方式提高了TTS合成的精确度,提高了所生成的语音的自然度,提高了所生成的语音的韵律等。
进一步如图4所示,过程400可包括通过设备基于语谱图帧来生成音频波形(框470),以及通过设备提供音频波形作为输出(框480)。
例如,平台220可基于语谱图帧来生成音频波形,并提供音频波形来输出。作为示例,平台220可给输出组件(例如,扬声器等)提供音频波形,可给另一设备(例如,用户设备210)提供音频波形,可将音频波形传输给服务器或另一终端等。
虽然图4示出了过程400的示例块,但是在一些实现方式中,过程400可包括额外的块、更少的块、不同的块、或与图4所描绘的块不同地布置的块。另外或者替代地,可并行地执行过程400的两个或更多个块。
前述公开内容提供了说明和描述,但是不旨在穷举或将实现方式限制为所公开的精确形式。可根据上述公开内容进行修改和变化,或者可从实现方式的实践中获得修改和变化。
如本文所使用的,术语“组件”旨在广义地解释为硬件、固件或者硬件和软件的组合。
显然,本文描述的系统和/或方法可以以不同形式的硬件、固件或者硬件和软件的组合来实现。用于实现这些系统和/或方法的实际专用控制硬件或软件代码不限制实现方式。因此,在本文中未参考特定的软件代码来描述系统和/或方法的操作和行为-应理解,软件和硬件可设计成实现基于本文的描述的系统和/或方法。
即使在权利要求中记载和/或在说明书中公开特征的特定组合,这些组合并不旨在限制可能的实现方式的公开。实际上,这些特征中的许多特征可以以未在权利要求中具体记载和/或在说明书中公开的方式组合。虽然下面列出的每个从属权利要求可仅直接从属于一个权利要求,但是可能的实现方式的公开包括每个从属权利要求与权利要求集中的每一个其他权利要求的组合。
除非本身明确地描述,否则本文使用的元素、动作或指令不应理解为至关重要或必要的。此外,如本文所使用的,冠词“一”和“一个”旨在包括一个或多个项目,且可与“一个或多个”互换地使用。此外,如本文所使用的,术语“集”旨在包括一个或多个项目(例如,相关项目、不相关项目、相关项目和不相关项目的组合等),且可与“一个或多个”互换地使用。在意图仅是一个项目的情况下,使用术语“一”或类似的语言。此外,如本文所使用的,术语“具有”、“有”、“含有”或类似术语旨在是开放式术语。此外,短语“基于”的意思旨在是“至少部分地基于”,除非另有明确说明。
Claims (20)
1.一种方法,包括:
通过设备接收包括文本分量的序列的文本输入;
通过所述设备并使用持续时间模型来确定所述文本分量的相应持续时间;
通过所述设备基于所述文本分量的序列来生成第一语谱集;
通过所述设备基于所述第一语谱集和所述文本分量的序列的相应持续时间来生成第二语谱集;
通过所述设备基于所述第二语谱集来生成语谱图帧;
通过所述设备基于所述语谱图帧来生成音频波形;以及
通过所述设备提供所述音频波形作为输出。
2.根据权利要求1所述的方法,其中,所述文本分量是音素。
3.根据权利要求1所述的方法,其中,所述文本分量是字符。
4.根据权利要求1所述的方法,所述方法进一步包括:
基于所述文本分量的相应持续时间来复制所述第一语谱集中的相应语谱;以及
其中,所述生成第二语谱集包括基于复制所述第一语谱集来生成所述第二语谱集。
5.根据权利要求1所述的方法,其中,所述第二语谱集包括梅尔频率倒谱语谱。
6.根据权利要求1所述的方法,所述方法进一步包括:
使用一组预测帧和训练文本分量来训练所述持续时间模型。
7.根据权利要求1所述的方法,所述方法进一步包括:
使用隐马尔可夫模型强制对齐技术来训练所述持续时间模型。
8.一种设备,包括:
至少一个存储器,配置成存储程序代码;
至少一个处理器,配置成读取所述程序代码并按照所述程序代码的指令进行操作,所述程序代码包括:
接收代码,配置成使得所述至少一个处理器接收包括文本分量的序列的文本输入;
确定代码,配置成使得所述至少一个处理器使用持续时间模型来确定所述文本分量的相应持续时间;
生成代码,配置成使得所述至少一个处理器:
基于所述文本分量的序列来生成第一语谱集;
基于所述第一语谱集和所述文本分量的序列的相应持续时间来生成第二语谱集;
基于所述第二语谱集来生成语谱图帧;
基于所述语谱图帧来生成音频波形;以及
提供代码,配置成使得所述至少一个处理器提供所述音频波形作为输出。
9.根据权利要求8所述的设备,其中,所述文本分量是音素。
10.根据权利要求8所述的设备,其中,所述文本分量是字符。
11.根据权利要求8所述的设备,所述设备进一步包括:
复制代码,配置成使得所述至少一个处理器基于所述文本分量的相应持续时间来复制所述第一语谱集中的相应语谱;以及
其中,所述生成代码配置成使得所述至少一个处理器生成第二语谱集,包括基于复制所述第一语谱集来生成所述第二语谱集。
12.根据权利要求8所述的设备,其中,所述第二语谱集包括梅尔频率倒谱语谱。
13.根据权利要求8所述的设备,所述设备进一步包括:
训练代码,配置成使得所述至少一个处理器使用一组预测帧和训练文本分量来训练所述持续时间模型。
14.根据权利要求8所述的设备,所述设备进一步包括:
训练代码,配置成使得所述至少一个处理器使用一组预测帧和训练文本分量来训练所述持续时间模型。
15.一种非暂时性计算机可读介质,所述非暂时性计算机可读介质存储指令,所述指令包括一个或多个指令,所述一个或多个指令在由设备的一个或多个处理器运行时,使得所述一个或多个处理器:
接收包括文本分量的序列的文本输入;
使用持续时间模型来确定所述文本分量的相应持续时间;
基于所述文本分量的序列来生成第一语谱集;
基于所述第一语谱集和所述文本分量的序列的相应持续时间来生成第二语谱集;
基于所述第二语谱集来生成语谱图帧;
基于所述语谱图帧来生成音频波形;以及
提供所述音频波形作为输出。
16.根据权利要求15所述的非暂时性计算机可读介质,其中,所述文本分量是音素。
17.根据权利要求15所述的非暂时性计算机可读介质,其中,所述文本分量是字符。
18.根据权利要求15所述的非暂时性计算机可读介质,其中,所述一个或多个指令使得所述一个或多个处理器:
基于所述文本分量的相应持续时间来复制所述第一语谱集中的相应语谱;以及
其中,使得所述一个或多个处理器生成第二语谱集的所述一个或多个指令使得所述一个或多个处理器基于复制所述第一语谱集来生成所述第二语谱集。
19.根据权利要求15所述的非暂时性计算机可读介质,其中,所述第二语谱集包括梅尔频率倒谱语谱。
20.根据权利要求15所述的非暂时性计算机可读介质,其中,所述第二语谱集包括与所述第一语谱集相比不同数量的语谱。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/397,349 | 2019-04-29 | ||
US16/397,349 US11468879B2 (en) | 2019-04-29 | 2019-04-29 | Duration informed attention network for text-to-speech analysis |
PCT/US2020/021070 WO2020222909A1 (en) | 2019-04-29 | 2020-03-05 | Duration informed attention network for text-to-speech analysis |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113711305A true CN113711305A (zh) | 2021-11-26 |
Family
ID=72917336
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080028696.2A Pending CN113711305A (zh) | 2019-04-29 | 2020-03-05 | 用于文本到语音转换分析的持续时间知悉网络 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11468879B2 (zh) |
EP (1) | EP3931824A4 (zh) |
KR (1) | KR20210144789A (zh) |
CN (1) | CN113711305A (zh) |
WO (1) | WO2020222909A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114783406A (zh) * | 2022-06-16 | 2022-07-22 | 深圳比特微电子科技有限公司 | 语音合成方法、装置和计算机可读存储介质 |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
DE112014000709B4 (de) | 2013-02-07 | 2021-12-30 | Apple Inc. | Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten |
EP3937002A1 (en) | 2013-06-09 | 2022-01-12 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11289073B2 (en) * | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
WO2021058746A1 (en) * | 2019-09-25 | 2021-04-01 | Deepmind Technologies Limited | High fidelity speech synthesis with adversarial networks |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US20210383789A1 (en) * | 2020-06-05 | 2021-12-09 | Deepmind Technologies Limited | Generating audio data using unaligned text inputs with an adversarial network |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
CN112820266B (zh) * | 2020-12-29 | 2023-11-14 | 中山大学 | 一种基于跳跃编码器的并行端到端语音合成方法 |
US20240119922A1 (en) * | 2022-09-27 | 2024-04-11 | Tencent America LLC | Text to speech synthesis without using parallel text-audio data |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6208967B1 (en) * | 1996-02-27 | 2001-03-27 | U.S. Philips Corporation | Method and apparatus for automatic speech segmentation into phoneme-like units for use in speech processing applications, and based on segmentation into broad phonetic classes, sequence-constrained vector quantization and hidden-markov-models |
CN107680597A (zh) * | 2017-10-23 | 2018-02-09 | 平安科技(深圳)有限公司 | 语音识别方法、装置、设备以及计算机可读存储介质 |
US20180336880A1 (en) * | 2017-05-19 | 2018-11-22 | Baidu Usa Llc | Systems and methods for multi-speaker neural text-to-speech |
US10186252B1 (en) * | 2015-08-13 | 2019-01-22 | Oben, Inc. | Text to speech synthesis using deep neural network with constant unit length spectrogram |
CN109285535A (zh) * | 2018-10-11 | 2019-01-29 | 四川长虹电器股份有限公司 | 基于前端设计的语音合成方法 |
CN109313891A (zh) * | 2017-05-16 | 2019-02-05 | 北京嘀嘀无限科技发展有限公司 | 用于语音合成的系统和方法 |
CN110050302A (zh) * | 2016-10-04 | 2019-07-23 | 纽昂斯通讯有限公司 | 语音合成 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2003284654A1 (en) * | 2002-11-25 | 2004-06-18 | Matsushita Electric Industrial Co., Ltd. | Speech synthesis method and speech synthesis device |
WO2011026247A1 (en) * | 2009-09-04 | 2011-03-10 | Svox Ag | Speech enhancement techniques on the power spectrum |
JP5085700B2 (ja) * | 2010-08-30 | 2012-11-28 | 株式会社東芝 | 音声合成装置、音声合成方法およびプログラム |
US8571871B1 (en) * | 2012-10-02 | 2013-10-29 | Google Inc. | Methods and systems for adaptation of synthetic speech in an environment |
US10332509B2 (en) * | 2015-11-25 | 2019-06-25 | Baidu USA, LLC | End-to-end speech recognition |
US10872598B2 (en) * | 2017-02-24 | 2020-12-22 | Baidu Usa Llc | Systems and methods for real-time neural text-to-speech |
US10872596B2 (en) * | 2017-10-19 | 2020-12-22 | Baidu Usa Llc | Systems and methods for parallel wave generation in end-to-end text-to-speech |
US20190130896A1 (en) * | 2017-10-26 | 2019-05-02 | Salesforce.Com, Inc. | Regularization Techniques for End-To-End Speech Recognition |
US10347238B2 (en) * | 2017-10-27 | 2019-07-09 | Adobe Inc. | Text-based insertion and replacement in audio narration |
US11462209B2 (en) * | 2018-05-18 | 2022-10-04 | Baidu Usa Llc | Spectrogram to waveform synthesis using convolutional networks |
-
2019
- 2019-04-29 US US16/397,349 patent/US11468879B2/en active Active
-
2020
- 2020-03-05 WO PCT/US2020/021070 patent/WO2020222909A1/en unknown
- 2020-03-05 EP EP20798202.6A patent/EP3931824A4/en active Pending
- 2020-03-05 KR KR1020217034088A patent/KR20210144789A/ko not_active IP Right Cessation
- 2020-03-05 CN CN202080028696.2A patent/CN113711305A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6208967B1 (en) * | 1996-02-27 | 2001-03-27 | U.S. Philips Corporation | Method and apparatus for automatic speech segmentation into phoneme-like units for use in speech processing applications, and based on segmentation into broad phonetic classes, sequence-constrained vector quantization and hidden-markov-models |
US10186252B1 (en) * | 2015-08-13 | 2019-01-22 | Oben, Inc. | Text to speech synthesis using deep neural network with constant unit length spectrogram |
CN110050302A (zh) * | 2016-10-04 | 2019-07-23 | 纽昂斯通讯有限公司 | 语音合成 |
CN109313891A (zh) * | 2017-05-16 | 2019-02-05 | 北京嘀嘀无限科技发展有限公司 | 用于语音合成的系统和方法 |
US20200082805A1 (en) * | 2017-05-16 | 2020-03-12 | Beijing Didi Infinity Technology And Development Co., Ltd. | System and method for speech synthesis |
US20180336880A1 (en) * | 2017-05-19 | 2018-11-22 | Baidu Usa Llc | Systems and methods for multi-speaker neural text-to-speech |
CN107680597A (zh) * | 2017-10-23 | 2018-02-09 | 平安科技(深圳)有限公司 | 语音识别方法、装置、设备以及计算机可读存储介质 |
CN109285535A (zh) * | 2018-10-11 | 2019-01-29 | 四川长虹电器股份有限公司 | 基于前端设计的语音合成方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114783406A (zh) * | 2022-06-16 | 2022-07-22 | 深圳比特微电子科技有限公司 | 语音合成方法、装置和计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US11468879B2 (en) | 2022-10-11 |
WO2020222909A1 (en) | 2020-11-05 |
EP3931824A4 (en) | 2022-04-20 |
EP3931824A1 (en) | 2022-01-05 |
KR20210144789A (ko) | 2021-11-30 |
US20200342849A1 (en) | 2020-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11468879B2 (en) | Duration informed attention network for text-to-speech analysis | |
CN104538024B (zh) | 语音合成方法、装置及设备 | |
CN110050302B (zh) | 语音合成 | |
CN106469552B (zh) | 语音识别设备和方法 | |
US11011154B2 (en) | Enhancing hybrid self-attention structure with relative-position-aware bias for speech synthesis | |
CN106816148B (zh) | 语音识别设备和方法 | |
US8527276B1 (en) | Speech synthesis using deep neural networks | |
JP6622505B2 (ja) | 音響モデル学習装置、音声合成装置、音響モデル学習方法、音声合成方法、プログラム | |
CN106688034B (zh) | 具有情感内容的文字至语音转换 | |
US10199034B2 (en) | System and method for unified normalization in text-to-speech and automatic speech recognition | |
WO2014032266A1 (en) | Personal language model for input method editor | |
US10861441B2 (en) | Large margin training for attention-based end-to-end speech recognition | |
JP2019179257A (ja) | 音響モデル学習装置、音声合成装置、音響モデル学習方法、音声合成方法、プログラム | |
JP2023056442A (ja) | ニューラル・ネットワークを使用したテキスト・ツー・音声合成のための教師なしアライメント | |
WO2023046016A1 (en) | Optimization of lip syncing in natural language translated video | |
JP7237196B2 (ja) | オーディオ・ビジュアル合成のためのデュレーション・インフォームド・アテンション・ネットワーク(duran)を用いる方法、デバイス及びコンピュータ・プログラム | |
JP2023552711A (ja) | 代替的なソフト・ラベル生成 | |
US11138966B2 (en) | Unsupervised automatic speech recognition | |
JP2022541380A (ja) | ニューラルネットワークを使用した音声入力の複数話者ダイアライゼーション | |
US11908454B2 (en) | Integrating text inputs for training and adapting neural network transducer ASR models | |
US20230386479A1 (en) | Techniques for improved zero-shot voice conversion with a conditional disentangled sequential variational auto-encoder | |
KR102621842B1 (ko) | 비 자기회귀 음성 합성 방법 및 시스템 | |
Shwetha | Language to language Translation using GRU method | |
Medeiros | Deep learning for speech to text transcription for the portuguese language | |
CN116129934A (zh) | 音频分析方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |