CN109754779A - 可控情感语音合成方法、装置、电子设备及可读存储介质 - Google Patents
可控情感语音合成方法、装置、电子设备及可读存储介质 Download PDFInfo
- Publication number
- CN109754779A CN109754779A CN201910033227.9A CN201910033227A CN109754779A CN 109754779 A CN109754779 A CN 109754779A CN 201910033227 A CN201910033227 A CN 201910033227A CN 109754779 A CN109754779 A CN 109754779A
- Authority
- CN
- China
- Prior art keywords
- affective style
- feature
- speech
- emotion
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
本发明实施例公开了一种可控情感语音合成方法、装置、电子设备及可读存储介质。该可控情感语音合成方法包括:获得标准情感语音和需要注入情感的输入文本;依据所述标准情感语音获得全局的情感风格嵌入特征;将所述情感风格嵌入特征嵌入所述输入文本以获得具有情感风格的情感编码文本;将具有情感风格的情感编码文本转换为语音谱参数;通过卷积神经网络并在采样点建模的方式将所述语音谱参数合成带有情感风格的自然语音。该方法可以获得具有严厉、和蔼、甜美等不同情感风格的合成音,品质高,类似人声。
Description
技术领域
本发明实施例涉及信息处理技术领域,具体涉及一种可控情感语音合成方法、装置、电子设备及可读存储介质。
背景技术
电话客服系统是一种有效的业务推广与客户服务系统,越来越受到众多企事业单位的重视和运用。当用户播打电话客户服务热线,并按照提示选择了相应的服务项目,电话客服系统通过语音为用户提供相应的语音服务。
在电话客服系统中,语音合成主要有参数语音合成和拼接语音合成两种形式。其中,参数语音合成包括基于隐马尔可夫的语音合成和基于神经网络的语音合成,这两种语音合成方式虽然可以获得不错的合成音,合成音平淡、缺乏情感,无法获得情感饱满的声音,并且含有一些背景音。拼接语音合成又称波形拼接语音合成,是根据不同的波形单元选择策略,利用平滑算法直接拼凑。因为采用原声波形进行拼接,因此合成的声音的音质很高,保留了声音的情感。然而,拼接语音合成需要录制大量的声音,以满足不同的场景需求,成本高,而且经常有拼接不连贯的问题。
在真正的电话客服场景中,需要针对不同的用户需求选择不同的发音情感,比如,在电话催收场景中需要严厉的语气,在信用卡服务场景中需要甜美吸引人的声音,等等。但是目前的参数语音合成无法满足饱满情感的需求,拼接语音合成要向获得饱满情感需要录制大量的情感数据,成本高,并且情感只能是录制时的语气,没有多样性。
发明内容
为此,本发明实施例提供一种可控情感语音合成方法、装置、电子设备及可读存储介质,以解决现有技术中由于无法获得多样、饱满情感的语音合成而导致合成语音情感不饱满、多样性差的问题。
为了实现上述目的,本发明实施例提供如下技术方案:
第一方面,本发明实施例提供了一种可控情感语音合成法,该方法包括:获得标准情感语音和需要注入情感的输入文本;
依据所述标准情感语音获得全局的情感风格嵌入特征;
将所述情感风格嵌入特征嵌入所述输入文本以获得具有情感风格的情感编码文本;
将具有情感风格的情感编码文本转换为语音谱参数;
通过卷积神经网络并在采样点建模的方式将所述语音谱参数合成带有情感风格的自然语音。
其中,标准情感语音是通过以下训练步骤得到:
对训练语音进行编码得到所述训练语音在每个时刻的语音编码向量;
对所述语音编码向量进行风格标志并提取情感风格嵌入特征;
将获得的训练输入文本进行编码获得编码状态;
将所述情感风格嵌入特征所述嵌入编码状态,获得带有情感风格的编码状态;
对带有情感风格的编码状态进行解码获得训练语音特征;
根据目标语音特征计算所述训练语音特征的损失,并调整参数;所述参数包括对训练语音进行编码的参数、提取情感风格嵌入特征的参数、对所述训练输入文本进行编码的参数以及对带有情感风格的编码状态进行解码的参数;
采用卷积神经网络在采样点上直接建模获得所述标准情感语音。
优选地,所述依据所述标准情感语音获得全局的情感风格嵌入特征的步骤包括:
将所述标准情感语音进行编码获得标准情感编码向量;
利用注意力机制对所述标准情感编码向量中的情感风格特征进行标记获得全局的情感风格嵌入特征。
优选地,所述将所述情感风格嵌入特征嵌入所述输入文本以获得具有情感风格的编码文本的步骤包括:
对所述输入文本进行编码获得编码状态;
将所述情感风格嵌入特征嵌入编码状态获得具有情感风格的情感编码文本。
优选地,所述情感编辑文本是通过自回归解码方式转换为所述语音谱参数。
第二方面,本发明实施例还提供一种可控情感语音合成装置,该装置包括:
输入单元,用于获得标准情感语音和需要注入情感的输入文本;
情感特征提取单元,用于依据所述标准情感语音获得全局的情感风格嵌入特征;
情感控制单元,用于将所述情感风格嵌入特征嵌入所述输入文本以获得具有情感风格的情感编码文本;
转换单元,用于将具有情感风格的情感编码文本转换为语音谱参数;
合成单元,用于通过采样点建模方式将所述语音谱参数合成带有情感风格的自然语音。
其中,所述情感特征提取单元包括:
语音编码器,用于对输入的语音进行编码获得语音编码向量;
标记模块,用于通过注意力机制对所述语音编码向量中的情感风格特征进行标记;
情感风格特征提取模块,用于从所述标记的语音编码向量中提取所述情感风格特征获得情感风格嵌入特征。
其中,所述情感控制单元包括:
文本编码器,用于对所述输入文本进行编码获得编码状态;
嵌入模块,用于将所述情感风格嵌入特征嵌入所述编码状态。
第三方面,本发明实施例还提供一种电子设备,包括:
至少一个处理器;
以及与所述处理器连接的至少一个存储器、总线;其中,
所述处理器、存储器通过所述总线完成相互间的通信;
所述处理器用于调用所述存储器中的程序指令,以执行本发明提供的任一项所述的可控情感语音合成方法。
第四方面,本发明实施例还提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行本发明提供的任一项所述的可控情感语音合成方法。
本发明实施例具有如下优点:
本发明提供的可控情感语音合成方法首先从标准情感语音获得全局的情感风格嵌入特征,然后将所述情感风格嵌入特征嵌入所述输入文本以获得具有情感风格的情感编码文本,再将具有情感风格的情感编码文本转换为语音谱参数,最后通过卷积神经网络并在采样点建模的方式将将所述语音谱参数合成带有情感的自然语音。针对不同的客服场景,将不同的情感风格嵌入到输入文本中,从而获得具有严厉、和蔼、甜美等不同情感风格的合成音,每一句话都与给定的韵律和情感类似;而且该方法是通过卷积神经网络并在采样点建模方式将语音谱参数合成情感饱满的自然语音,提高了合成音的品质,合成的声音与真人的声音类似。另外,该方法只需要训练一次模型,即可实现对所有的情感的控制。
附图说明
为了更清楚地说明本发明的实施方式或现有技术中的技术方案,下面将对实施方式或现有技术描述中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是示例性的,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图引伸获得其它的实施附图。
图1为本发明实施例1提供的一种可控情感语音合成方法的流程图;
图2为本发明实施例1中训练标准情感语音的流程图;
图3为本发明实施例1中全局的情感风格嵌入特征的流程图;
图4为本发明实施例1中获得具有情感风格的编码文本的流程图;
图5为本发明实施例2提供的可控情感语音合成装置的结构示意图。
图中:1-输入单元,11-语音输入单元,12-文本输入单元,2-情感特征提取单元,21-语音编码器,22-标记模块,23-情感风格特征提取模块,3-情感控制单元,31-文本编码器,32-嵌入模块,4-转换单元,5-合成单元。
具体实施方式
以下由特定的具体实施例说明本发明的实施方式,熟悉此技术的人士可由本说明书所揭露的内容轻易地了解本发明的其他优点及功效,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
本实施例提供一种可控情感语音合成方法。如图1所示,可控情感语音合成方法包括如下步骤:
步骤S1,获得标准情感语音和需要注入情感的输入文本。
步骤S2,依据标准情感语音获得全局的情感风格嵌入特征。
步骤S3,将情感风格嵌入特征嵌入输入文本以获得具有情感风格的情感编码文本。
步骤S4,将具有情感风格的情感编码文本转换为语音谱参数。
在步骤S4中,情感编辑文本是通过自回归解码方式转换为语音谱参数。
步骤S5,通过卷积神经网络并在采样点建模的方式将语音谱参数合成带有情感风格的自然语音。
如图2所示,在上述步骤S1中,标准情感语音是通过以下训练步骤得到:
步骤S11,对训练语音进行编码得到训练语音在每个时刻的编码向量。
训练用的多情感的数据来自于10-20小时单一说话人的语音,即训练语音。通过引用编码器对训练语音进行编码,得到每个时刻的语音编码向量。
步骤S12,对语音编码向量进行风格标志并提取情感风格嵌入特征。
步骤S13,将获得的训练输入文本进行编码获得编码状态。
在步骤S13中,训练输入文本通过编码器进行编码得到编码状态。
步骤S14,将情感风格嵌入特征嵌入到编码状态,获得带有情感风格的编码状态。
步骤S15,对带有情感风格的编码状态进行解码获得训练语音特征。
步骤S16,根据目标语音特征计算训练语音特征的损失,并调整参数;参数包括对训练语音进行编码的参数、提取情感风格嵌入特征的参数、对训练输入文本进行编码的参数以及对带有情感风格的编码状态进行解码的参数等。
步骤S17,采用卷积神经网络在采样点上直接建模获得标准情感语音。
如图3所示,在上述步骤S2中,全局的情感风格嵌入特征的步骤包括:
步骤S21,将标准情感语音进行编码获得标准情感编码向量;
步骤S22,利用注意力机制对标准情感编码向量中的情感风格特征进行标记获得全局的情感风格嵌入特征。
如图4所示,在上述步骤S3中,获得具有情感风格的编码文本的步骤包括:
步骤S31,对输入文本进行编码获得编码状态。
步骤S32,将情感风格嵌入特征嵌入编码状态获得具有情感风格的情感编码文本。
实施例2
本实施例提供一种可控情感语音合成装置。如图5所示,可控情感语音合成装置包括:
输入单元1,用于获得标准情感语音和需要注入情感的输入文本。
输入单元1为语音输入单元11和文本输入单元12,分别用于输入语音和文本。输入单元1也可以为语音转换文本单元,即将语音转换为文本的转换器。
情感特征提取单元2,用于依据标准情感语音获得全局的情感风格嵌入特征;
情感特征提取单元2包括:
语音编码器21,用于对输入的语音进行编码获得语音编码向量;
标记模块22,用于通过注意力机制对语音编码向量中的情感风格特征进行标记;
情感风格特征提取模块23,用于从标记的语音编码向量中提取情感风格特征获得情感风格嵌入特征。
情感控制单元3,用于将情感风格嵌入特征嵌入输入文本以获得具有情感风格的情感编码文本。
情感控制单元3包括:
文本编码器31,用于对输入文本进行编码获得编码状态;
嵌入模块32,用于将情感风格嵌入特征嵌入编码状态。
转换单元4,用于将具有情感风格的情感编码文本转换为语音谱参数;
合成单元5,用于通过采样点建模方式将语音谱参数合成带有情感风格的自然语音。
本实施例提供的可控情感语音合成装置将不同情感风格嵌入输入文本,再将输入文本转换为语音,从而使输出的语音具有嵌入的风格,每一句话都与给定的韵律和情感类似,获得具有严厉、和蔼、甜美等不同情感风格的合成音;而且通过卷积神经网络并在采样点建模方式将语音谱参数合成情感饱满的自然语音,提高了合成音的品质,合成的声音与真人的声音类似。
实施例3
本实施例提供一种电子设备。该电子设备包括:至少一个处理器;以及与处理器连接的至少一个存储器、总线;其中,处理器、存储器通过总线完成相互间的通信;处理器用于调用存储器中的程序指令,以执行如下步骤:
获得标准情感语音和需要注入情感的输入文本;依据标准情感语音获得全局的情感风格嵌入特征;将情感风格嵌入特征嵌入输入文本以获得具有情感风格的情感编码文本;将具有情感风格的情感编码文本转换为语音谱参数;通过卷积神经网络并在采样点建模的方式将语音谱参数合成带有情感风格的自然语音。
在本实施例提供的电子设备中的程序指令执行的步骤与实施例1及其优选和变型实施例相同,在此不再赘述。
该电子设备可以针对不同的客服场景输出具有严厉、和蔼、甜美等不同情感风格的合成音,而且每一句话都可以与给定的韵律和情感,获得了类似人声的合成音。
实施例4
本实施例提供一种非暂态计算机可读存储介质。非暂态计算机可读存储介质存储计算机指令,计算机指令使计算机执行可控情感语音合成方法,该语音合成方法包括:获得标准情感语音和需要注入情感的输入文本;依据标准情感语音获得全局的情感风格嵌入特征;将情感风格嵌入特征嵌入输入文本以获得具有情感风格的情感编码文本;将具有情感风格的情感编码文本转换为语音谱参数;通过卷积神经网络并在采样点建模的方式将语音谱参数合成带有情感风格的自然语音。
在本实施例提供的电子设备中的程序指令执行的步骤与实施例1及其优选和变型实施例相同,在此不再赘述。
该非暂态计算机可读存储介质可以针对不同的客服场景输出具有严厉、和蔼、甜美等不同情感风格的合成音,每一句话都可以与给定的韵律和情感类似,获得了类似人声的合成音。
虽然,上文中已经用一般性说明及具体实施例对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。
Claims (10)
1.一种可控情感语音合成方法,其特征在于,包括:
获得标准情感语音和需要注入情感的输入文本;
依据所述标准情感语音获得全局的情感风格嵌入特征;
将所述情感风格嵌入特征嵌入所述输入文本以获得具有情感风格的情感编码文本;
将具有情感风格的情感编码文本转换为语音谱参数;
通过卷积神经网络并在采样点建模的方式将所述语音谱参数合成带有情感风格的自然语音。
2.根据权利要求1所述的方法,其特征在于,所述标准情感语音是通过以下训练步骤得到:
对训练语音进行编码得到所述训练语音在每个时刻的语音编码向量;
对所述语音编码向量进行风格标志并提取情感风格嵌入特征;
将获得的训练输入文本进行编码获得编码状态;
将所述情感风格嵌入特征嵌入所述编码状态,获得带有情感风格的编码状态;
对带有情感风格的编码状态进行解码获得训练语音特征;
根据目标语音特征计算所述训练语音特征的损失,并调整参数;所述参数包括对训练语音进行编码的参数、提取情感风格嵌入特征的参数、对所述训练输入文本进行编码的参数以及对带有情感风格的编码状态进行解码的参数;
采用卷积神经网络在采样点上直接建模获得所述标准情感语音。
3.根据权利要求1所述的方法,其特征在于,所述依据所述标准情感语音获得全局的情感风格嵌入特征的步骤包括:
将所述标准情感语音进行编码获得标准情感编码向量;
利用注意力机制对所述标准情感编码向量中的情感风格特征进行标记获得全局的情感风格嵌入特征。
4.根据权利要求1所述的方法,其特征在于,所述将所述情感风格嵌入特征嵌入所述输入文本以获得具有情感风格的编码文本的步骤包括:
对所述输入文本进行编码获得编码状态;
将所述情感风格嵌入特征嵌入编码状态获得具有情感风格的情感编码文本。
5.根据权利要求1所述的方法,其特征在于,所述情感编辑文本是通过自回归解码方式转换为所述语音谱参数。
6.一种可控情感语音合成装置,其特征在于,包括:
输入单元,用于获得标准情感语音和需要注入情感的输入文本;
情感特征提取单元,用于依据所述标准情感语音获得全局的情感风格嵌入特征;
情感控制单元,用于将所述情感风格嵌入特征嵌入所述输入文本以获得具有情感风格的情感编码文本;
转换单元,用于将具有情感风格的情感编码文本转换为语音谱参数;
合成单元,用于通过采样点建模方式将所述语音谱参数合成带有情感风格的自然语音。
7.根据权利要求6所述的装置,其特征在于,所述情感特征提取单元包括:
语音编码器,用于对输入的语音进行编码获得语音编码向量;
标记模块,用于通过注意力机制对所述语音编码向量中的情感风格特征进行标记;
情感风格特征提取模块,用于从所述标记的语音编码向量中提取所述情感风格特征获得情感风格嵌入特征。
8.根据权利要求6所述的装置,其特征在于,所述情感控制单元包括:
文本编码器,用于对所述输入文本进行编码获得编码状态;
嵌入模块,用于将所述情感风格嵌入特征嵌入所述编码状态。
9.一种电子设备,其特征在于,包括:
至少一个处理器;
以及与所述处理器连接的至少一个存储器、总线;其中,
所述处理器、存储器通过所述总线完成相互间的通信;
所述处理器用于调用所述存储器中的程序指令,以执行权利要求1至权利要求5中任一项所述的可控情感语音合成方法。
10.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行权利要求1至权利要求5中任一项所述的可控情感语音合成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910033227.9A CN109754779A (zh) | 2019-01-14 | 2019-01-14 | 可控情感语音合成方法、装置、电子设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910033227.9A CN109754779A (zh) | 2019-01-14 | 2019-01-14 | 可控情感语音合成方法、装置、电子设备及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109754779A true CN109754779A (zh) | 2019-05-14 |
Family
ID=66404683
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910033227.9A Pending CN109754779A (zh) | 2019-01-14 | 2019-01-14 | 可控情感语音合成方法、装置、电子设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109754779A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110211563A (zh) * | 2019-06-19 | 2019-09-06 | 平安科技(深圳)有限公司 | 面向情景及情感的中文语音合成方法、装置及存储介质 |
CN110232907A (zh) * | 2019-07-24 | 2019-09-13 | 出门问问(苏州)信息科技有限公司 | 一种语音合成方法、装置、可读存储介质及计算设备 |
CN110288973A (zh) * | 2019-05-20 | 2019-09-27 | 平安科技(深圳)有限公司 | 语音合成方法、装置、设备及计算机可读存储介质 |
CN110299131A (zh) * | 2019-08-01 | 2019-10-01 | 苏州奇梦者网络科技有限公司 | 一种可控制韵律情感的语音合成方法、装置、存储介质 |
CN110379409A (zh) * | 2019-06-14 | 2019-10-25 | 平安科技(深圳)有限公司 | 语音合成方法、系统、终端设备和可读存储介质 |
CN111128118A (zh) * | 2019-12-30 | 2020-05-08 | 科大讯飞股份有限公司 | 语音合成方法、相关设备及可读存储介质 |
CN111627420A (zh) * | 2020-04-21 | 2020-09-04 | 升智信息科技(南京)有限公司 | 极低资源下的特定发音人情感语音合成方法及装置 |
CN111724765A (zh) * | 2020-06-30 | 2020-09-29 | 上海优扬新媒信息技术有限公司 | 一种文本转语音的方法、装置及计算机设备 |
CN112365881A (zh) * | 2020-11-11 | 2021-02-12 | 北京百度网讯科技有限公司 | 语音合成方法及对应模型的训练方法、装置、设备与介质 |
CN113327572A (zh) * | 2021-06-02 | 2021-08-31 | 清华大学深圳国际研究生院 | 基于情感类别标签的可控情感语音合成方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105280179A (zh) * | 2015-11-02 | 2016-01-27 | 小天才科技有限公司 | 一种文字转语音的处理方法及系统 |
CN105355193A (zh) * | 2015-10-30 | 2016-02-24 | 百度在线网络技术(北京)有限公司 | 语音合成方法和装置 |
CN107705783A (zh) * | 2017-11-27 | 2018-02-16 | 北京搜狗科技发展有限公司 | 一种语音合成方法及装置 |
CN108182936A (zh) * | 2018-03-14 | 2018-06-19 | 百度在线网络技术(北京)有限公司 | 语音信号生成方法和装置 |
CN108597492A (zh) * | 2018-05-02 | 2018-09-28 | 百度在线网络技术(北京)有限公司 | 语音合成方法和装置 |
CN109036375A (zh) * | 2018-07-25 | 2018-12-18 | 腾讯科技(深圳)有限公司 | 语音合成方法、模型训练方法、装置和计算机设备 |
-
2019
- 2019-01-14 CN CN201910033227.9A patent/CN109754779A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105355193A (zh) * | 2015-10-30 | 2016-02-24 | 百度在线网络技术(北京)有限公司 | 语音合成方法和装置 |
CN105280179A (zh) * | 2015-11-02 | 2016-01-27 | 小天才科技有限公司 | 一种文字转语音的处理方法及系统 |
CN107705783A (zh) * | 2017-11-27 | 2018-02-16 | 北京搜狗科技发展有限公司 | 一种语音合成方法及装置 |
CN108182936A (zh) * | 2018-03-14 | 2018-06-19 | 百度在线网络技术(北京)有限公司 | 语音信号生成方法和装置 |
CN108597492A (zh) * | 2018-05-02 | 2018-09-28 | 百度在线网络技术(北京)有限公司 | 语音合成方法和装置 |
CN109036375A (zh) * | 2018-07-25 | 2018-12-18 | 腾讯科技(深圳)有限公司 | 语音合成方法、模型训练方法、装置和计算机设备 |
Non-Patent Citations (1)
Title |
---|
龙星延等: "采用最少门单元结构的改进注意力声学模型", 《信号处理》 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020232997A1 (zh) * | 2019-05-20 | 2020-11-26 | 平安科技(深圳)有限公司 | 语音合成方法、装置、设备及计算机可读存储介质 |
CN110288973A (zh) * | 2019-05-20 | 2019-09-27 | 平安科技(深圳)有限公司 | 语音合成方法、装置、设备及计算机可读存储介质 |
CN110288973B (zh) * | 2019-05-20 | 2024-03-29 | 平安科技(深圳)有限公司 | 语音合成方法、装置、设备及计算机可读存储介质 |
CN110379409B (zh) * | 2019-06-14 | 2024-04-16 | 平安科技(深圳)有限公司 | 语音合成方法、系统、终端设备和可读存储介质 |
CN110379409A (zh) * | 2019-06-14 | 2019-10-25 | 平安科技(深圳)有限公司 | 语音合成方法、系统、终端设备和可读存储介质 |
WO2020253509A1 (zh) * | 2019-06-19 | 2020-12-24 | 平安科技(深圳)有限公司 | 面向情景及情感的中文语音合成方法、装置及存储介质 |
CN110211563A (zh) * | 2019-06-19 | 2019-09-06 | 平安科技(深圳)有限公司 | 面向情景及情感的中文语音合成方法、装置及存储介质 |
CN110232907A (zh) * | 2019-07-24 | 2019-09-13 | 出门问问(苏州)信息科技有限公司 | 一种语音合成方法、装置、可读存储介质及计算设备 |
CN110232907B (zh) * | 2019-07-24 | 2021-11-02 | 出门问问(苏州)信息科技有限公司 | 一种语音合成方法、装置、可读存储介质及计算设备 |
CN110299131A (zh) * | 2019-08-01 | 2019-10-01 | 苏州奇梦者网络科技有限公司 | 一种可控制韵律情感的语音合成方法、装置、存储介质 |
CN110299131B (zh) * | 2019-08-01 | 2021-12-10 | 苏州奇梦者网络科技有限公司 | 一种可控制韵律情感的语音合成方法、装置、存储介质 |
CN111128118A (zh) * | 2019-12-30 | 2020-05-08 | 科大讯飞股份有限公司 | 语音合成方法、相关设备及可读存储介质 |
CN111128118B (zh) * | 2019-12-30 | 2024-02-13 | 科大讯飞股份有限公司 | 语音合成方法、相关设备及可读存储介质 |
CN111627420B (zh) * | 2020-04-21 | 2023-12-08 | 升智信息科技(南京)有限公司 | 极低资源下的特定发音人情感语音合成方法及装置 |
CN111627420A (zh) * | 2020-04-21 | 2020-09-04 | 升智信息科技(南京)有限公司 | 极低资源下的特定发音人情感语音合成方法及装置 |
CN111724765B (zh) * | 2020-06-30 | 2023-07-25 | 度小满科技(北京)有限公司 | 一种文本转语音的方法、装置及计算机设备 |
CN111724765A (zh) * | 2020-06-30 | 2020-09-29 | 上海优扬新媒信息技术有限公司 | 一种文本转语音的方法、装置及计算机设备 |
CN112365881A (zh) * | 2020-11-11 | 2021-02-12 | 北京百度网讯科技有限公司 | 语音合成方法及对应模型的训练方法、装置、设备与介质 |
CN113327572A (zh) * | 2021-06-02 | 2021-08-31 | 清华大学深圳国际研究生院 | 基于情感类别标签的可控情感语音合成方法及系统 |
CN113327572B (zh) * | 2021-06-02 | 2024-02-09 | 清华大学深圳国际研究生院 | 基于情感类别标签的可控情感语音合成方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109754779A (zh) | 可控情感语音合成方法、装置、电子设备及可读存储介质 | |
CN112735373B (zh) | 语音合成方法、装置、设备及存储介质 | |
CN109036375A (zh) | 语音合成方法、模型训练方法、装置和计算机设备 | |
CN101578659B (zh) | 音质转换装置及音质转换方法 | |
CN110136691B (zh) | 一种语音合成模型训练方法、装置、电子设备及存储介质 | |
CN109979429A (zh) | 一种tts的方法及系统 | |
CN108447486A (zh) | 一种语音翻译方法及装置 | |
JP7238204B2 (ja) | 音声合成方法及び装置、記憶媒体 | |
CN109637551A (zh) | 语音转换方法、装置、设备及存储介质 | |
US20220277728A1 (en) | Paragraph synthesis with cross utterance features for neural TTS | |
CN112687259A (zh) | 一种语音合成方法、装置以及可读存储介质 | |
CN109102796A (zh) | 一种语音合成方法及装置 | |
CN113053357B (zh) | 语音合成方法、装置、设备和计算机可读存储介质 | |
CN108766433A (zh) | 一种肢体语言翻译系统及方法 | |
CN113436609B (zh) | 语音转换模型及其训练方法、语音转换方法及系统 | |
CN116364055A (zh) | 基于预训练语言模型的语音生成方法、装置、设备及介质 | |
CN115761075A (zh) | 脸部图像生成方法及其装置、设备、介质、产品 | |
CN113724683A (zh) | 音频生成方法、计算机设备及计算机可读存储介质 | |
CN112634918A (zh) | 一种基于声学后验概率的任意说话人语音转换系统及方法 | |
CN114219880A (zh) | 一种生成表情动画的方法和装置 | |
CN112908293A (zh) | 一种基于语义注意力机制的多音字发音纠错方法及装置 | |
CN113450760A (zh) | 一种文本转语音的方法、装置及电子设备 | |
CN107464569A (zh) | 声码器 | |
WO2023116243A1 (zh) | 数据转换方法及计算机存储介质 | |
CN108597493A (zh) | 语言语义的音频交换方法和音频交换系统、编码图形 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190514 |