CN111192568B - 一种语音合成方法及语音合成装置 - Google Patents
一种语音合成方法及语音合成装置 Download PDFInfo
- Publication number
- CN111192568B CN111192568B CN201811360232.2A CN201811360232A CN111192568B CN 111192568 B CN111192568 B CN 111192568B CN 201811360232 A CN201811360232 A CN 201811360232A CN 111192568 B CN111192568 B CN 111192568B
- Authority
- CN
- China
- Prior art keywords
- emotion
- acoustic
- target
- acoustic model
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 61
- 238000003786 synthesis reaction Methods 0.000 title claims abstract description 61
- 238000001308 synthesis method Methods 0.000 title claims abstract description 28
- 230000008451 emotion Effects 0.000 claims abstract description 414
- 238000000034 method Methods 0.000 claims abstract description 49
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 13
- 238000012549 training Methods 0.000 claims description 169
- 230000007935 neutral effect Effects 0.000 claims description 60
- 230000002996 emotional effect Effects 0.000 claims description 38
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 18
- 238000003062 neural network model Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 description 26
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/027—Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请实施例公开了一种语音合成方法及语音合成装置,用于合成不同情感强度的语音,提升合成语音在情感表现方面的多样性。本申请方法包括:获取获取输入文本对应的目标情感类型和目标情感强度参数;根据目标情感类型和目标情感强度参数确定对应的目标情感声学模型;将输入文本的文本特征输入目标情感声学模型中得到输入文本的声学特征;根据输入文本的声学特征合成目标情感语音。
Description
技术领域
本申请涉及人工智能领域,尤其涉及一种语音合成方法及语音合成装置。
背景技术
目前,语音合成技术在众多领域得到了广泛应用,例如智能移动终端领域、智能家居领域和车载设备领域等。对于语音合成的语音质量要求越来越高,对语音质量的要求不仅仅是“能听清”,而更多的要求“高度逼真,富有情感”等类似的高质量要求。
“高度逼真,富有情感”的语音合成是当前语音合成技术的一个巨大挑战。在现有语音合成技术中,通过对文本进行情感标记,并仅仅基于上述情感标记将文本合成相应情感类型对应的语音,而并没有考虑情感强度因素,导致合成的语音在情感表达方面不够丰富,只能表达类似“高兴”或者“悲伤”等情感类型的语音,而无法控制语音的情感强度,造成语音在情感表达方面较为单一,逼真度较低以及情感丰富性较差。
发明内容
本申请实施例提供了一种语音合成方法及语音合成装置,用于合成不同情感强度的情感类型对应的情感语音,提高情感语音的逼真度,提升情感语音在情感表达的丰富性。
为了达到上述技术目的,本申请实施例提供了以下技术方案:
第一方面,本申请实施例提供了一种语音合成方法,包括:首先,获取输入文本的目标情感类型以及目标情感强度参数,其中,该目标情感强度参数用于表征目标情感类型对应的情感强度;其次,获取目标情感类型以及目标情感强度参数对应的目标情感声学模型,再次,将输入文本的文本特征输入目标情感声学模型中得到该输入文本的声学特征;最终,根据该输入文本的声学特征合成目标情感语音。其中,容易理解,该目标情感声学模型是针对目标情感类型以及该目标情感类型对应的情感强度进行模型训练得到的声学模型;并基于该目标情感声学模型得到输入文本对应的声学特征,最终,将上述声学特征合成对应的目标情感语音。
从上述技术方案中可以看出,本申请技术方案具有以下优点:通过目标情感类型以及该目标情感类型的情感强度对应的目标情感声学模型,将输入文本的文本特征转换成声学特征,并最终将该声学特征合成目标情感语音。由于目标情感声学模型是基于目标情感类型以及该目标情感类型的情感强度得到的,因此,使用该目标情感声学模型可以获得与情感类型的情感强度相关的声学特征,以合成不同情感类型且不同情感强度的语音,提升合成语音在情感表现方面的多样性。
可选的,结合上述第一方面,在本申请实施例第一方面的第一种可能的实现方式中,获取输入文本的目标情感类型和目标情感强度参数,包括:根据输入文本的情感标签确定输入文本的目标情感类型,其中,情感标签用于表征输入文本的情感类型;根据该输入文本对应的情感强度要求确定目标情感强度参数,可选的,情感强度要求由用户指定的。
可选的,结合上述第一方面或第一方面的第一种可能的实现方式,在本申请实施例第一方面的第二种可能的实现方式中,上述获取与目标情感类型和目标情感强度参数对应的目标情感声学模型包括:从情感声学模型集合中选取与目标情感类型和目标情感强度参数对应的情感声学模型作为目标情感声学模型,情感声学模型集合包括多个情感声学模型,多个情感声学模型包括目标情感声学模型。
可选的,结合上述第一方面的第二种可能的实现方式,在本申请实施例第一方面的第三种可能的实现方式中,在获取与目标情感类型和目标情感强度参数对应的目标情感声学模型之前,所述方法还包括:针对不同的情感类型和情感类型对应的不同情感强度参数,利用中性声学模型和对应的情感语音训练数据进行模型训练得到情感声学模型集合,该情感语音训练数据为具备一种或多种情感类型对应的情感的数据,该中性声学模型是使用中性语音训练数据进行模型训练得到的,该中性语音训练数据为不具备任何一种情感类型对应的情感的数据。
可选的,结合上述第一方面的第三种可能的实现方式,在本申请实施例第一方面的第四种可能的实现方式中,上述情感语音训练数据对应的声学特征训练误差与上述目标情感强度参数相关,其中,情感语音训练数据对应的声学特征训练误差用于表征在声学模型训练过程中使用情感语音训练数据预测得到的声学特征与该情感语音训练数据的原始声学特征之间的声学特征损失。
可选的,结合上述第一方面的第四种可能的实现方式,在本申请实施例第一方面的第五种可能的实现方式中,上述情感语音训练数据对应的声学特征训练误差与上述目标情感强度参数相关可以体现在:上述声学特征训练误差是由误差计算公式进行计算得到的,误差计算公式可以为:loss=0.5×(y2-β*y1-(1-β)*y)2,其中,loss为声学特征训练误差,β为目标情感强度参数,y1为情感语音训练数据在所述中性声学模型下预测得到的声学特征参数,y2为情感语音训练数据在所述目标情感声学模型下预测得到的声学特征参数,y为情感语音训练数据的原始声学特征参数。
可选的,结合上述第一方面的第三种可能的实现方式至第五种可能的实现方式,在本申请实施例第一方面的第六种可能的实现方式中,中性声学模型和情感声学模型均可以基于隐马尔科夫模型或者深度神经网络模型构造得到的。
可选的,结合上述第一方面、第一方面的第一种可能的实现方式至第一方面的第五种可能的实现方式中的任意一种实现方式,在本申请实施例第一方面的第六种可能的实现方式中,上述文本特征包括:文本对应的音素、音节、词语或韵律短语中至少一项对应的特征;上述声学特征包括:声音对应的基频特征、线谱对特征、清浊音标志特征或频谱包络特征中的至少一项。
第二方面,本申请实施例提供了一种语音合成装置,该语音合成装置具有实现上述第一方面或第一方面任意一种可能实现方式的方法的功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。
第三方面,本申请实施例提供了一种语音合成装置,包括:处理器和存储器;该存储器用于存储计算机执行指令,当该语音合成装置运行时,该处理器执行该存储器存储的该计算机执行指令,以使该执行功能网元执行如上述第一方面或第一方面任意一种可能实现方式的语音合成方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机可以执行上述第一方面或第一方面任意一种可能实现方式的语音合成方法。
第五方面,本申请实施例提供了一种包含计算机操作指令的计算机程序产品,当其在计算机上运行时,使得计算机可以执行上述第一方面或第一方面任意一种可能实现方式的语音合成方法。
第六方面,本申请实施例提供了一种芯片系统,该芯片系统包括处理器,用于支持语音合成装置实现上述第一方面或第一方面任意一种可能的实现方式中所涉及的功能。在一种可能的设计中,芯片系统还包括存储器,存储器,用于保存控制功能网元必要的程序指令和数据。该芯片系统,可以由芯片构成,也可以包含芯片和其他分立器件。
第七方面,本申请实施例提供了一种情感模型训练方法,该情感模型训练方法可以用于上述第一方面中情感声学模型的训练,其具体训练方法包括:基于隐马尔科夫模型或者深度神经网络模型得到情感声学模型,并将中性声学模型的最终模型参数作为该情感声学模型的初始化模型参数,将情感类型为“高兴”并且“高兴”的情感强度为0.5对应的文本特征输入上述初始化的“高兴”情感声学模型中,基于情感强度参数0.5计算该文本特征对应的声学特征的训练误差,当训练误差大于预设误差时,进行迭代计算直到训练误差小于或者等于预设误差,此时,将训练误差小于或者等于预设误差时对应的模型参数作为“高兴”情感声学模型的最终模型参数,以完成对上述“高兴”情感声学模型的训练。
同理,基于上述情感模型训练方法可以训练得到“高兴”情感类型的其他情感强度参数(如0.1、0.2、0.3、0.4、0.6、0.7、0.8、0.9和1)对应的“高兴”情感声学模型,进一步的,采用上述情感模型训练方法也可以得到其他情感类型的情感声学模型,例如“悲伤”情感声学模型、“惊讶”情感声学模型”和“恐惧”情感声学模型,从而,最终将各种情感类型以及情感类型的情感强度参数的情感声学模型组成情感声学模型集合。
可选的,对于中性声学模型的训练与上述“高兴”情感声学模型的训练方式类似,具体可以是:基于隐马尔科夫模型或者深度神经网络模型构建得到中性声学模型,将中性声学模型中各神经网络层对应的模型参数使用随机值初始化,进而,在对中性声学模型的模型参数进行初始化之后使用没有携带任何情感类型的中性语音训练数据带入该中性声学模型中进行训练,并将训练误差小于预设误差时对应的模型参数确定为该中性声学模型的最终模型参数,以完成对中性声学模型的训练。
第八方面,本申请实施例还提供了一种情感模型训练装置,该情感模型训练装置具有实现上述第七方面或第七方面任意一种可能实现方式的方法的功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。
其中,上述第二方面至第八方面中任一种实现方式所带来的技术效果可参见第一方面中不同实现方式所带来的技术效果,此处不再赘述。
附图说明
图1为本申请实施例中提供的语音合成方法的一个实施例示意图;
图2为本申请实施例中提供的一种深度神经网络模型示意图;
图3为本申请实施例中情感声学模型的一种自适应训练流程示意图;
图4为本申请实施例中提供的语音合成装置的一个硬件结构示意图;
图5为本申请实施例中提供的语音合成装置的一个实施例结构示意图。
具体实施方式
下面结合附图,对本申请的实施例进行描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。本领域普通技术人员可知,随着技术的发展和新场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本申请实施例提供了一种语音合成方法及语音合成装置,适用于合成不同情感强度的语音,提升合成语音在情感表现方面的多样性。以下分别进行详细说明。
本申请中出现的术语“和/或”,可以是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本申请中字符“/”,一般表示前后关联对象是一种“或”的关系。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或模块的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或模块,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或模块。在本申请中出现的对步骤进行的命名或者编号,并不意味着必须按照命名或者编号所指示的时间/逻辑先后顺序执行方法流程中的步骤,已经命名或者编号的流程步骤可以根据要实现的技术目的变更执行次序,只要能达到相同或者相类似的技术效果即可。本申请中所出现的模块的划分,是一种逻辑上的划分,实际应用中实现时可以有另外的划分方式,例如多个模块可以结合成或集成在另一个系统中,或一些特征可以忽略,或不执行,另外,所显示的或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,模块之间的间接耦合或通信连接可以是电性或其他类似的形式,本申请中均不作限定。并且,作为分离部件说明的模块或子模块可以是也可以不是物理上的分离,可以是也可以不是物理模块,或者可以分布到多个电路模块中,可以根据实际的需要选择其中的部分或全部模块来实现本申请方案的目的。
本申请实施例所提出的语音合成方法可以适用于智能移动终端领域、智能家居领域和车载设备领域等。具体来说,本申请实施例中的语音合成方法可以应用于具有情感语音合成功能的实体中,例如,智能手机终端、智能音箱、穿戴式智能设备、智能车载设备和智能机器人等,上述这些实体具有情感分析处理能力,以及语音合成能力。
为了便于理解本申请实施例中所述的语音合成方法,下面将结合具体的实施例对该语音合成方法进行详细说明。
图1为本申请实施例中语音合成方法的一个实施例示意图。
如图1所示,本申请实施例中的语音合成方法,包括:
101、语音合成装置获取输入文本对应的目标情感类型和目标情感强度参数。
众所周知,情感类型是一种依据价值主体类型、价值主导变量和价值目标导向等因素确定的一种情感分类;情感强度是指人对事物所产生的选择性倾向,是情感最重要的动力特性。具体来说,情感类型可以包括:“高兴”、“悲伤”、“惊讶”、“恐惧”等,同一种情感类型在表达时会存在不同的情感强度。
可选的,语音合成装置可以根据输入文本的情感标签,以及用户的情感强度要求确定合成语音的目标情感类型和目标情感强度参数,其中,该目标情感强度参数是目标情感类型对应的情感轻度参数,情感强度参数用于标识情感强度大小,例如,情感强度可以划分为10个强度等级,从强度等级有低到高依次用情感强度参数为0.1、0.2、0.3、……0.9和1表示。
例如,对于输入文本“明天就是周末了,太开心了”,以“高兴”这一情感类型来进行语音合成为例。对于情感类型,即“高兴”标签可以通过以下方式获得:1)、将用户指定的情感类型确定为目标情感类型,例如,用户使用标记语言指定情感类型信息,具体可以通过对应的语音合成(text to speech,TTS)软件程式或者硬件设备输入;2)、若没有用户指定,还可以通过对输入文本进行情感分析得到目标情感类型,例如,使用情感类型识别模型进行分析得到输入文本对应的情感类型。对于情感强度参数可以通过如下几种方式获得:3)、将用户指定的情感强度参数值确定为目标情感强度参数,例如,在用户输入该输入文本时,指定该输入文本对应的情感强度参数;4)、根据用户给出的大致情感强度,如次轻度、轻度、适中、重度、超重度等,确定目标情感强度参数,具体的,可以预先设定次轻度、轻度、适中、重度、超重度分别对应的情感强度参数为0.1、0.2、0.5、0.7、0.9等。5)、使用默认值作为目标情感强度参数,例如,当没有任何指定时,使用默认情感强度参数值0.5作为“高兴”对应的目标情感强度参数。
102、语音合成装置获取与目标情感类型和目标情感强度参数对应的目标情感声学模型。
情感声学模型是指不同情感类型以及该情感类型的不同情感强度对应的声学模型,情感声学模型的数量为至少两个以上,具体数量取决于情感类型的种类多少以及每一种情感类型的情感强度等级数量,容易理解,一个情感强度参数可以对应一种情感强度等级。例如,以语音合成装置支持“高兴”、“悲伤”、“惊讶”、“恐惧”四种情感类型为例,如上述步骤101中类似将上述四种情感类型均划分为10个情感强度等级,此种情况下,语音合成装置中一共存在40个情感声学模型。
可选的,上述情感声学模型和中性声学模型对应的声学模型均可以基于隐马尔科夫模型或者深度神经网络模型进行构造得到的,当然,声学模型也可以基于其他具有类似功能的数学模型建模得到,对此本申请不做任何限制。
图2为本申请实施例中提供的一种深度神经网络模型示意图,如图2所示,本申请实施例中的声学模型可以采用深度神经网络如(bidirectional long short-term memorynetwork,BLSTM)进行建模,其中,BLSTM是一种双向的时间递归神经网络,是一种在机器学习领域常用的循环神经网络模型。
可选的,语音合成装置获取与目标情感类型和目标情感强度参数对应的目标情感声学模型具体可以是:从情感声学模型集合中选取与目标情感类型和目标情感强度参数对应的情感声学模型作为目标情感声学模型,其中,情感声学模型集合中包括至少一个情感声学模型,至少一个情感声学模型中包括目标情感声学模型。
在从情感声学模型集合中选取与目标情感类型和目标情感强度参数对应的情感声学模型作为目标情感声学模型基础上,进一步可选的,语音合成装置还针对不同的情感类型和情感强度参数,利用中性声学模型和对应的情感语音数据进行模型训练得到情感声学模型集合,情感语音训练数据为具备一种或多种情感类型对应的情感的语音数据,中性声学模型是指使用中性语音训练数据进行模型训练得到的,该中性语音训练数据是指不具有任意一种情感类型对应的情感色彩的语音数据。
具体来说,情感声学模型可以是通过中性声学模型进行辅助,利用情感语音数据对情感声学模型进行自适应训练获得的。图3为本申请实施例中情感声学模型的一种自适应训练流程示意图,如图3所示,以目标情感类型为“高兴”,目标情感强度参数为0.6的情感声学模型训练为例,其中,虚线箭头指示的是一次性操作,即只执行一次,实线箭头指示多次迭代循环操作,即S31和S32只需执行一遍,而S33和S34则循环执行。
图3中所述的情感声学训练流程具体包括以下步骤:
S31、中性声学模型训练;
S32、初始化“高兴”情感声学模型。
S33、基于情感强度参数计算声学特征训练误差。
S34、根据声学特征训练误差更新情感声学模型。
其中,上S33和S34是循环执行的,其执行次数由整个情感声学模型训练的迭代次数和每次计算的数据样本批次大小决定。即若训练训练数据总样本数为N,每次执行的批次大小(batch)为32,则每次迭代过程需执行(N/32)次;而若整个训练过程在迭代T次后结束,则整个训练需要执行S33和S34的次数为(T*N/32)。另外,上述模型训练流程针对每种情感类型及其对应的每个情感强度分别进行模型训练,以得到不同情感类型以及情感类型的不同情感强度参数对应的情感声学模型。
在上述图3中,中性声学模型的训练可以是采用如图2所述的BLSTM模型进行训练,具体来说,中性声学模型的输入为文本特征,该文本特征具体可以是中性语音训练数据特征集,BLSTM模型的模型参数值使用随机值初始化,中性语音训练数据分批次(例如32个样本数据为一批)输入至BLSTM模型进行训练,调整BLSTM模型中各神经网络层对应的模型参数,使得声学特征训练误差不断减少。通过对中性语音训练数据进行多次迭代训练,直到迭代次数达到预置次数或者声学特征训练误差达到预定值时终止数据训练,将最终得到的模型参数作为目标中性模型输出。另外,情感声学模型的训练方式与上述所述的中性模型的训练方式一致,区别在于:在训练前,中性声学模型使用随机值进行初始化,而情感声学模型使用上述目标中性声学模型对应的模型参数进行初始化,情感声学模型的初始化操作具有可以是:将目标中性声学模型中各神经网络层的模型参数,依次赋值给情感声学模型中各神经网络层的对应参数。
需要说明的是,上述图3中所示出的只是一个声学模型的训练方法示意图,而不表征其具体实现方式。可选的,在具体实现上,中性声学模型中输入的可以是中性语音训练数据特征集,也可以是中性语音训练数据,其中,当输入中性语音训练数据时,在步骤S31的中性声学模型训练过程中还需要将中性语音训练数据进行文本特征提取以得到中性语音训练数据特征集,以继续执行中性模型训练过程。类似的,情感声学模型训练的输入也既可以是情感语音训练数据,也可以是情感语音训练数据特征集。
可选的,情感语音训练数据对应的声学特征训练误差与情感强度参数相关,其中,情感语音训练数据对应的声学特征训练误差用于表征在声学模型训练过程中使用情感语音训练数据预测得到的声学特征与该情感语音训练数据的原始声学特征之间的声学特征损失,具体描述如上述步骤S33中。进一步可选的,情感语音训练数据对应的声学特征训练误差可以采用如下误差计算公式计算得到,该误差计算公式为:
loss=0.5×(y2-β*y1-(1-β)*y)2,其中,loss为情感语音训练数据对应的声学特征训练误差,β为情感强度参数,y1为情感语音训练数据在中性声学模型下预测得到的声学特征参数,y2为情感语音训练数据在目标情感声学模型下预测得到的声学特征参数,y为情感语音训练数据的原始声学特征参数。需要说明的是,上述误差计算公式仅仅用于说明可以用于计算声学特征训练误差的一种可行的计算方式,与上述图3中所示的模型训练方法没有直接对应关系。具体来说,图3中所示的模型训练方法中声学特征训练误差的计算即可以采用上述误差计算公式,也可以采用其他误差计算公式,当采用上述误差计算公式时,还需要提前获取情感语音训练数据的原始声学特征参数y,至于其原始声学特征参数y的具体获取方式在本申请实施例中并不做任何限制。
在本申请实施例中,需要说明的是,声学特征训练误差的计算可以采用但不限于上面所述的误差计算公式进行计算,也可以采用其他类似的计算公式进行计算,对此本申请不做任何限制。
103、语音合成装置使用目标情感声学模型,将输入文本对应的文本特征转换为输入文本对应的声学特征。
其中,文本特征可以包括但不限于文本对应的音素、音节、词语或韵律短语中至少一项对应的特征,声学特征可以包括但不限于声音对应的基频特征、线谱对特征、清浊音标志特征或频谱包络特征中的至少一项。
可选的,在该语音合成方法中,还包括:语音合成装置对输入文本进行文本分析确定输入文本对应的文本特征。
具体来说,该文本分析可以包括但不限于文本规范化操作、分词操作、词性标注操作、语法分析操作、韵律预测操作、字音转换操作或时长信息分析操作中的至少一项操作。
其中,文本规范化操作是指将文本中的非汉字字符,如阿拉伯数字、英文符号、各种符号等转换为对应的汉字字符。
分词操作是指将文本中连续的汉语字串分割成由词组成的序列。
词性标注操作是指将文本中的名词、动词和形容词等标注出来。
语法分析操作是指分析文本中每个句子的语法和语义结构,确定语义中心,句子的重音位置与语调,从而为韵律预测操作提供重要信息。
韵律预测操作是指预测文本对应的每个句子中不同层级的韵律结构,如韵律词、韵律短语、语调短语等。
字音转换操作是指将汉字转换为拼音。
时长信息分析操作是指预测语音中音节、声韵母、音素、状态等的时长信息。
104、语音合成装置根据输入文本对应的声学特征生成目标情感语音。
利用声码器将输入文本对应的声学特征合成对应的目标情感语音,其中,目标情感语音的情感类型为上述目标情感类型,目标情感语音的情感强度值与上述目标情感强度参数的值相等。
其中,上述声码器可以包括但不限于STRAIGHT声码器或WORLD声码器,也可以是其他类型的声码器。本申请实施例中,通过大数据训练得到不同情感类型中不同情感强度参数对应的情感声学模型,并提取文本对应的情感类型和情感强度参数,依据情感类型和情感强度参数进行情感声学模型选择对应的目标情感声学模型,使用目标情感声学模型将文本特征转换为对应的声学特征,最终合成情感语音数据。由于情感声学模型是根据不同情感类型中不同情感强度参数进行数据训练得到的,因此,使用该情感声学模型获得的声学特征更加准确,可以合成不同情感类型且不同情感强度的语音,提升合成语音在情感表现方面的多样性。
进一步的,本申请实施例中语音合成方法使用基于情感强度参数的自适应学习技术,使得只需中性语音训练数据和少量的情感语音训练数据便能训练出不同情感强度的情感声学模型,由于情感语音训练数据的构建成本高于中性语音训练数据,因此,通过本申请实施例中的语音合成方法还可以减少情感语音训练数据的用量,从而降低训练数据构建成本。
上述主要从语音合成装置的角度对本申请实施例提供的方案进行了介绍。可以理解的是,上述语音合成装置为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的模块及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
从硬件结构上来描述,图1中所述的语音合成装置可以由一个实体设备实现,也可以由多个实体设备共同实现,还可以是一个实体设备内的一个逻辑功能模块,本申请实施例对此不作具体限定。
例如,图1中所述的语音合成装置可以通过图4中的语音合成装置来实现。图4所示为本申请实施例中提供的语音合成装置的一个硬件结构示意图。
如图4所示,该语音合成装置400包括至少一个处理器401,通信线路402,存储器403以及至少一个通信接口404。
处理器401可以是一个通用中央处理器(central processing unit,CPU),微处理器,特定应用集成电路(application-specific integrated circuit,服务器IC),或一个或多个用于控制本申请方案程序执行的集成电路。
通信线路402可包括一通路,在上述组件之间传送信息。
通信接口404,使用任何收发器一类的装置,用于与其他设备或通信网络通信,如以太网,无线接入网(radio access network,RAN),无线局域网(wireless local areanetworks,WLAN)等。
存储器403可以是只读存储器(read-only memory,ROM)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(random access memory,RAM)或者可存储信息和指令的其他类型的动态存储设备,也可以是电可擦可编程只读存储器(electricallyerable programmable read-only memory,EEPROM)、只读光盘(compact disc read-onlymemory,CD-ROM)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器可以是独立存在,通过通信线路402与处理器相连接。存储器也可以和处理器集成在一起。
其中,存储器403用于存储执行本申请方案的计算机执行指令,并由处理器401来控制执行。处理器401用于执行存储器403中存储的计算机执行指令,从而实现本申请下述实施例提供的语音合成方法。
可选的,本申请实施例中的计算机执行指令也可以称之为应用程序代码,本申请实施例对此不作具体限定。
在具体实现中,作为一种实施例,处理器401可以包括一个或多个CPU,例如图4中的CPU0和CPU1。
在具体实现中,作为一种实施例,语音合成装置400可以包括多个处理器,例如图4中的处理器401和处理器408。这些处理器中的每一个可以是一个单核(single-CPU)处理器,也可以是一个多核(multi-CPU)处理器。这里的处理器可以指一个或多个设备、电路、和/或用于处理数据(例如计算机程序指令)的处理核。
在具体实现中,作为一种实施例,语音合成装置400还可以包括输出设备405和输入设备406。输出设备405和处理器401通信,可以以多种方式来显示信息。例如,输出设备405可以是液晶显示器(liquid crystal display,LCD),发光二级管(light emittingdiode,LED)显示设备,阴极射线管(cathode ray tube,CRT)显示设备,或投影仪(projector)等。输入设备406和处理器401通信,可以以多种方式接收用户的输入。例如,输入设备406可以是鼠标、键盘、触摸屏设备或传感设备等。
上述的语音合成装置400可以是一个通用设备或者是一个专用设备。在具体实现中,语音合成装置400可以是台式机、便携式电脑、网络服务器、掌上电脑(personaldigital assistant,PDA)、移动手机、平板电脑、无线终端设备、嵌入式设备或有图4中类似结构的设备。本申请实施例不限定语音合成装置400的类型。
本申请实施例可以根据上述方法示例对语音合成模块进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本申请实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
比如,以采用集成的方式划分各个功能模块的情况下,图5为本申请实施例中提供的语音合成装置的一个实施例结构示意图。
如图5所示,本申请实施例中的语音合成装置50包括:处理模块501;
其中,处理模块501,用于执行以下操作:
获取输入文本的目标情感类型和目标情感强度参数,目标情感强度参数用于表征目标情感类型对应的情感强度;
获取与目标情感类型和目标情感强度参数对应的目标情感声学模型;
将输入文本的文本特征输入目标情感声学模型中得到输入文本的声学特征;
根据输入文本的声学特征合成目标情感语音。
可选的,在一种示例中,处理模块501具体用于:根据输入文本的情感标签确定目标情感类型;根据输入文本对应的情感强度要求确定目标情感强度参数。
可选的,在一种示例中,处理模块501具体用于:从情感声学模型集合中选取与目标情感类型和目标情感强度参数对应的情感声学模型作为目标情感声学模型,情感声学模型集合包括多个情感声学模型,多个情感声学模型包括所述目标情感声学模型。
可选的,在一种示例中,处理模块501还用于:针对不同的情感类型和情感类型的不同情感强度参数,使用中性声学模型和对应的情感语音训练数据进行模型训练得到情感声学模型集合,情感声学模型集合中包括与每一个中情感类型对应的每一种情感强度参数对应的情感声学模型,情感语音训练数据为具备一种或多种情感类型对应的情感的数据,中性声学模型是使用中性语音训练数据进行模型训练得到的,中性语音训练数据为不具备任何一种情感类型对应的情感的数据。
可选的,在一种示例中,情感语音训练数据对应的声学特征训练误差与情感强度参数相关,情感语音训练数据对应的声学特征训练误差用于表征在声学模型训练过程中使用情感语音训练数据预测得到的声学特征与情感语音训练数据的原始声学特征之间的声学特征损失。
可选的,在一种示例中,情感语音训练数据对应的声学特征训练误差是由误差计算公式进行计算得到的,误差计算公式为:
loss=0.5×(y2-β*y1-(1-β)*y)2,其中,loss为情感语音训练数据对应的声学特征训练误差,β为情感强度参数,y1为情感语音训练数据在中性声学模型下预测得到的声学特征参数,y2为情感语音训练数据在目标情感声学模型下预测得到的声学特征参数,y为情感语音训练数据的原始声学特征参数。
可选的,在一种示例中,中性声学模型和情感声学模型均可以是基于隐马尔科夫模型或者深度神经网络模型构造得到的。
可选的,在一种示例中,文本特征包括:文本对应的音素、音节、词语或韵律短语中至少一项对应的特征;声学特征包括:声音对应的基频特征、线谱对特征、清浊音标志特征或频谱包络特征中的至少一项。
可选的,在一种示例中,语音合成装置50还可以包括:输入模块502和输出模块503,其中,输入模块502可以用于将上述输入文本输入语音合成装置50中,输出模块503可以用于将最终合成的目标情感语音输出。
其中,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
在本实施例中,该语音合成装置50以采用集成的方式划分各个功能模块的形式来呈现。这里的“模块”可以指特定应用集成电路(application-specific integratedcircuit,ASIC),电路,执行一个或多个软件或固件程序的处理器和存储器,集成逻辑电路,和/或其他可以提供上述功能的器件。在一个简单的实施例中,本领域的技术人员可以想到语音合成装置50可以采用图4所示的形式。
比如,图4中的处理器401可以通过调用存储器403中存储的计算机执行指令,使得语音合成装置50执行上述方法实施例中的语音合成方法。
具体来说,图5中的处理模块501、输入模块502和输出模块503的功能/实现过程可以通过图4中的处理器401调用存储器403中存储的计算机执行指令来实现。或者,图5中的处理模块501的功能/实现过程可以通过图4中的处理器401调用存储器403中存储的计算机执行指令来实现,图5中的输入模块502和输出模块503的功能/实现过程可以通过图4中通信接口404来实现。
由于本申请实施例提供的语音合成装置可用于执行上述语音合成方法,因此其所能获得的技术效果可参考上述方法实施例,在此不再赘述。
上述实施例中,语音合成装置以采用集成的方式划分各个功能模块的形式来呈现。当然,本申请实施例也可以对应各个功能划分执行功能网元和控制功能网元的各个功能模块,本申请实施例对此不作具体限定。
可选的,本申请实施例提供了一种芯片系统,该芯片系统包括处理器,用于支持用户面功能实体实现上述语音合成方法。在一种可能的设计中,该芯片系统还包括存储器。该存储器,用于保存执行功能网元或控制功能网元必要的程序指令和数据。该芯片系统,可以由芯片构成,也可以包含芯片和其他分立器件,本申请实施例对此不作具体限定。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。
所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:ROM、RAM、磁盘或光盘等。
以上对本申请实施例所提供的语音合成方法及语音合成装置进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (12)
1.一种语音合成方法,其特征在于,包括:
获取输入文本的目标情感类型和目标情感强度参数,所述目标情感强度参数用于表征所述目标情感类型对应的情感强度;
获取与所述目标情感类型和所述目标情感强度参数对应的目标情感声学模型;
将所述输入文本的文本特征输入所述目标情感声学模型中得到所述输入文本的声学特征;
根据所述输入文本的声学特征合成目标情感语音;
其中,所述获取与所述目标情感类型和所述目标情感强度参数对应的目标情感声学模型包括:
从情感声学模型集合中选取与所述目标情感类型和所述目标情感强度参数对应的情感声学模型作为所述目标情感声学模型,所述情感声学模型集合包括多个情感声学模型,所述多个情感声学模型包括所述目标情感声学模型;
在从情感声学模型集合中选取与所述目标情感类型和所述目标情感强度参数对应的情感声学模型作为所述目标情感声学模型之前,还包括:
针对不同的情感类型和情感类型的不同情感强度参数,使用中性声学模型和对应的情感语音训练数据进行模型训练得到所述情感声学模型集合,所述情感声学模型集合包括所述目标情感声学模型,所述中性声学模型是使用中性语音训练数据进行模型训练得到的,所述情感语音训练数据对应的声学特征训练误差与所述情感强度参数相关,所述情感语音训练数据对应的声学特征训练误差用于表征在模型训练过程中使用所述情感语音训练数据预测得到的声学特征与所述情感语音训练数据的原始声学特征之间的声学特征损失。
2.根据权利要求1所述的语音合成方法,其特征在于,所述获取输入文本的目标情感类型和目标情感强度参数,包括:
根据所述输入文本的情感标签确定所述目标情感类型;
根据所述输入文本对应的情感强度要求确定所述目标情感强度参数。
3.根据权利要求1或2所述的语音合成方法,其特征在于,所述情感语音训练数据为具备一种或多种情感类型对应的情感的数据,所述中性语音训练数据为不具备任何一种情感类型对应的情感的数据。
5.根据权利要求1或4所述的语音合成方法,其特征在于,所述中性声学模型和所述情感声学模型均是基于隐马尔科夫模型或者深度神经网络模型构造得到的。
6.一种语音合成装置,其特征在于,包括:
处理模块,用于获取输入文本的目标情感类型和目标情感强度参数,所述目标情感强度参数用于表征所述目标情感类型对应的情感强度;获取与所述目标情感类型和所述目标情感强度参数对应的目标情感声学模型;将所述输入文本的文本特征 输入所述目标情感声学模型中得到所述输入文本的声学特征;根据所述输入文本的声学特征合成目标情感语音;
所述处理模块具体用于:
从情感声学模型集合中选取与所述目标情感类型和所述目标情感强度参数对应的情感声学模型作为所述目标情感声学模型,所述情感声学模型集合包括多个情感声学模型,所述多个情感声学模型包括所述目标情感声学模型;
所述处理模块还用于:
针对不同的情感类型和情感类型的不同情感强度参数,使用中性声学模型和对应的情感语音训练数据进行模型训练得到所述情感声学模型集合,所述情感声学模型集合包括所述目标情感声学模型,所述中性声学模型是使用中性语音训练数据进行模型训练得到的,所述情感语音训练数据对应的声学特征训练误差与所述情感强度参数相关,所述情感语音训练数据对应的声学特征训练误差用于表征在模型训练过程中使用所述情感语音训练数据预测得到的声学特征与所述情感语音训练数据的原始声学特征之间的声学特征损失。
7.根据权利要求6所述的语音合成装置,其特征在于,所述处理模块具体用于:
根据所述输入文本的情感标签确定所述目标情感类型;
根据所述输入文本对应的情感强度要求确定所述目标情感强度参数。
8.根据权利要求6或7所述的语音合成装置,其特征在于,所述情感语音训练数据为具备一种或多种情感类型对应的情感的数据,所述中性语音训练数据为不具备任何一种情感类型对应的情感的数据。
10.根据权利要求6或9所述的语音合成装置,其特征在于,所述中性声学模型和所述情感声学模型均是基于隐马尔科夫模型或者深度神经网络模型构造得到的。
11.一种语音合成装置,其特征在于,包括:
处理单元和存储单元;
其中,所述存储单元,用于存储计算机操作指令;
所述处理单元,用于通过调用所述计算机操作指令,以执行上述权利要求1至5中任一项所述的语音合成方法。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括计算机操作指令,当所述计算机操作指令在计算机上运行时,使得所述计算机执行上述权利要求1至5中任一项所述的语音合成方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811360232.2A CN111192568B (zh) | 2018-11-15 | 2018-11-15 | 一种语音合成方法及语音合成装置 |
PCT/CN2019/091844 WO2020098269A1 (zh) | 2018-11-15 | 2019-06-19 | 一种语音合成方法及语音合成装置 |
US16/944,863 US11282498B2 (en) | 2018-11-15 | 2020-07-31 | Speech synthesis method and speech synthesis apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811360232.2A CN111192568B (zh) | 2018-11-15 | 2018-11-15 | 一种语音合成方法及语音合成装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111192568A CN111192568A (zh) | 2020-05-22 |
CN111192568B true CN111192568B (zh) | 2022-12-13 |
Family
ID=70707121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811360232.2A Active CN111192568B (zh) | 2018-11-15 | 2018-11-15 | 一种语音合成方法及语音合成装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11282498B2 (zh) |
CN (1) | CN111192568B (zh) |
WO (1) | WO2020098269A1 (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111192568B (zh) * | 2018-11-15 | 2022-12-13 | 华为技术有限公司 | 一种语音合成方法及语音合成装置 |
US11854538B1 (en) * | 2019-02-15 | 2023-12-26 | Amazon Technologies, Inc. | Sentiment detection in audio data |
JP7405660B2 (ja) * | 2020-03-19 | 2023-12-26 | Lineヤフー株式会社 | 出力装置、出力方法及び出力プログラム |
CN112349272A (zh) * | 2020-10-15 | 2021-02-09 | 北京捷通华声科技股份有限公司 | 语音合成方法、装置、存储介质及电子装置 |
CN112489621B (zh) * | 2020-11-20 | 2022-07-12 | 北京有竹居网络技术有限公司 | 语音合成方法、装置、可读介质及电子设备 |
CN112786007B (zh) * | 2021-01-20 | 2024-01-26 | 北京有竹居网络技术有限公司 | 语音合成方法、装置、可读介质及电子设备 |
CN112951200B (zh) * | 2021-01-28 | 2024-03-12 | 北京达佳互联信息技术有限公司 | 语音合成模型的训练方法、装置、计算机设备及存储介质 |
CN113096640B (zh) * | 2021-03-08 | 2024-09-20 | 北京达佳互联信息技术有限公司 | 一种语音合成方法、装置、电子设备及存储介质 |
CN114299915A (zh) * | 2021-11-09 | 2022-04-08 | 腾讯科技(深圳)有限公司 | 语音合成方法及相关设备 |
CN114299919A (zh) * | 2021-12-27 | 2022-04-08 | 完美世界(北京)软件科技发展有限公司 | 文字转语音方法、装置、存储介质及计算机设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04199098A (ja) * | 1990-11-29 | 1992-07-20 | Meidensha Corp | 規則音声合成装置 |
JP2003233388A (ja) * | 2002-02-07 | 2003-08-22 | Sharp Corp | 音声合成装置および音声合成方法、並びに、プログラム記録媒体 |
CN106570496A (zh) * | 2016-11-22 | 2017-04-19 | 上海智臻智能网络科技股份有限公司 | 情绪识别方法和装置以及智能交互方法和设备 |
CN107103900A (zh) * | 2017-06-06 | 2017-08-29 | 西北师范大学 | 一种跨语言情感语音合成方法及系统 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7457752B2 (en) * | 2001-08-14 | 2008-11-25 | Sony France S.A. | Method and apparatus for controlling the operation of an emotion synthesizing device |
US7401020B2 (en) * | 2002-11-29 | 2008-07-15 | International Business Machines Corporation | Application of emotion-based intonation and prosody to speech in text-to-speech systems |
DE60215296T2 (de) * | 2002-03-15 | 2007-04-05 | Sony France S.A. | Verfahren und Vorrichtung zum Sprachsyntheseprogramm, Aufzeichnungsmedium, Verfahren und Vorrichtung zur Erzeugung einer Zwangsinformation und Robotereinrichtung |
JP4456537B2 (ja) * | 2004-09-14 | 2010-04-28 | 本田技研工業株式会社 | 情報伝達装置 |
US8073696B2 (en) * | 2005-05-18 | 2011-12-06 | Panasonic Corporation | Voice synthesis device |
US7983910B2 (en) * | 2006-03-03 | 2011-07-19 | International Business Machines Corporation | Communicating across voice and text channels with emotion preservation |
CN101064104B (zh) * | 2006-04-24 | 2011-02-02 | 中国科学院自动化研究所 | 基于语音转换的情感语音生成方法 |
CN102005205B (zh) * | 2009-09-03 | 2012-10-03 | 株式会社东芝 | 情感语音合成方法和装置 |
CN101661569B (zh) * | 2009-09-18 | 2013-03-27 | 北京科技大学 | 一种智能情感机器人多模态行为关联表达系统 |
WO2012003602A1 (zh) * | 2010-07-09 | 2012-01-12 | 西安交通大学 | 一种电子喉语音重建方法及其系统 |
CN102385858B (zh) | 2010-08-31 | 2013-06-05 | 国际商业机器公司 | 情感语音合成方法和系统 |
JP5066242B2 (ja) * | 2010-09-29 | 2012-11-07 | 株式会社東芝 | 音声翻訳装置、方法、及びプログラム |
GB2517503B (en) * | 2013-08-23 | 2016-12-28 | Toshiba Res Europe Ltd | A speech processing system and method |
KR102222122B1 (ko) * | 2014-01-21 | 2021-03-03 | 엘지전자 주식회사 | 감성음성 합성장치, 감성음성 합성장치의 동작방법, 및 이를 포함하는 이동 단말기 |
US10803850B2 (en) * | 2014-09-08 | 2020-10-13 | Microsoft Technology Licensing, Llc | Voice generation with predetermined emotion type |
US9824681B2 (en) * | 2014-09-11 | 2017-11-21 | Microsoft Technology Licensing, Llc | Text-to-speech with emotional content |
CN105991847B (zh) * | 2015-02-16 | 2020-11-20 | 北京三星通信技术研究有限公司 | 通话方法和电子设备 |
CN106653000A (zh) * | 2016-11-16 | 2017-05-10 | 太原理工大学 | 一种基于语音信息的情感强度实验方法 |
CN106531150B (zh) * | 2016-12-23 | 2020-02-07 | 云知声(上海)智能科技有限公司 | 一种基于深度神经网络模型的情感合成方法 |
US10418025B2 (en) * | 2017-12-06 | 2019-09-17 | International Business Machines Corporation | System and method for generating expressive prosody for speech synthesis |
CN111192568B (zh) * | 2018-11-15 | 2022-12-13 | 华为技术有限公司 | 一种语音合成方法及语音合成装置 |
-
2018
- 2018-11-15 CN CN201811360232.2A patent/CN111192568B/zh active Active
-
2019
- 2019-06-19 WO PCT/CN2019/091844 patent/WO2020098269A1/zh active Application Filing
-
2020
- 2020-07-31 US US16/944,863 patent/US11282498B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04199098A (ja) * | 1990-11-29 | 1992-07-20 | Meidensha Corp | 規則音声合成装置 |
JP2003233388A (ja) * | 2002-02-07 | 2003-08-22 | Sharp Corp | 音声合成装置および音声合成方法、並びに、プログラム記録媒体 |
CN106570496A (zh) * | 2016-11-22 | 2017-04-19 | 上海智臻智能网络科技股份有限公司 | 情绪识别方法和装置以及智能交互方法和设备 |
CN107103900A (zh) * | 2017-06-06 | 2017-08-29 | 西北师范大学 | 一种跨语言情感语音合成方法及系统 |
Non-Patent Citations (3)
Title |
---|
Emotional statistical parametric speech synthesis using LSTM-RNNs;Shumin An et al;《2017 Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC)》;20180208;全文 * |
基于邻居相似现象的情感说话人识别;陈力等;《浙江大学学报(工学版)》;20121015(第10期);全文 * |
面向情感语音识别的建模方法研究;潘玉春等;《计算机科学》;20070125(第01期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
US20200357383A1 (en) | 2020-11-12 |
WO2020098269A1 (zh) | 2020-05-22 |
US11282498B2 (en) | 2022-03-22 |
CN111192568A (zh) | 2020-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111192568B (zh) | 一种语音合成方法及语音合成装置 | |
CN112309366B (zh) | 语音合成方法、装置、存储介质及电子设备 | |
CN109036384B (zh) | 语音识别方法和装置 | |
EP3282368A1 (en) | Parallel processing-based translation method and apparatus | |
US11488577B2 (en) | Training method and apparatus for a speech synthesis model, and storage medium | |
CN112786007A (zh) | 语音合成方法、装置、可读介质及电子设备 | |
CN112331176B (zh) | 语音合成方法、装置、存储介质及电子设备 | |
CN111369971A (zh) | 语音合成方法、装置、存储介质和电子设备 | |
CN112309367B (zh) | 语音合成方法、装置、存储介质及电子设备 | |
EP4109324A2 (en) | Method and apparatus for identifying noise samples, electronic device, and storage medium | |
US20220375453A1 (en) | Method and apparatus for speech synthesis, and storage medium | |
CN113450758B (zh) | 语音合成方法、装置、设备及介质 | |
CN111354343B (zh) | 语音唤醒模型的生成方法、装置和电子设备 | |
CN113327580A (zh) | 语音合成方法、装置、可读介质及电子设备 | |
CN112382269B (zh) | 音频合成方法、装置、设备以及存储介质 | |
CN111508466A (zh) | 一种文本处理方法、装置、设备及计算机可读存储介质 | |
CN113836945B (zh) | 意图识别方法、装置、电子设备和存储介质 | |
CN112289305B (zh) | 韵律预测方法、装置、设备以及存储介质 | |
US12073822B2 (en) | Voice generating method and apparatus, electronic device and storage medium | |
Rajendran et al. | A robust syllable centric pronunciation model for Tamil text to speech synthesizer | |
CN115392189B (zh) | 多语种混合语料的生成方法及装置、训练方法及装置 | |
CN117174074A (zh) | 一种语音合成方法、装置、设备及存储介质 | |
Gunda et al. | Two-Way Multilingual Voice Assistance | |
CN117153142A (zh) | 一种语音信号合成方法、装置、电子设备及存储介质 | |
CN117037766A (zh) | 一种语音生成模型的训练方法、语音生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |