CN112951203A - 语音合成方法、装置、电子设备及存储介质 - Google Patents
语音合成方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112951203A CN112951203A CN202110450578.7A CN202110450578A CN112951203A CN 112951203 A CN112951203 A CN 112951203A CN 202110450578 A CN202110450578 A CN 202110450578A CN 112951203 A CN112951203 A CN 112951203A
- Authority
- CN
- China
- Prior art keywords
- speech synthesis
- autoregressive
- training
- training text
- synthesis model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 181
- 238000003786 synthesis reaction Methods 0.000 title claims abstract description 178
- 238000001308 synthesis method Methods 0.000 title claims abstract description 25
- 238000012549 training Methods 0.000 claims abstract description 158
- 238000001228 spectrum Methods 0.000 claims abstract description 87
- 238000000034 method Methods 0.000 claims abstract description 19
- 239000013598 vector Substances 0.000 claims description 26
- 230000015654 memory Effects 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 12
- 238000009499 grossing Methods 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 7
- 230000006403 short-term memory Effects 0.000 claims description 5
- 230000007787 long-term memory Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000007726 management method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000001364 causal effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及人工智能领域,揭露了一种语音合成方法,包括:获取训练文本,利用预先训练好的自回归语音合成模型对所述训练文本进行语音合成,得到所述训练文本的第一声音频谱;从所述第一声音频谱中提取语言学特征,得到第一语言学特征;根据所述训练文本、所述第一声音频谱以及所述第一语言学特征,对预先构建的非自回归语音合成模型进行训练,得到训练完成的非自回归语音合成模型;利用所述训练完成的非自回归语音合成模型对待合成语音文本进行语音合成,得到语音合成结果。此外,本发明还涉及区块链技术,所述语音合成结果可存储于区块链中。本发明还揭露了一种语音合成装置、电子设备及存储介质。本发明可以提高语音合成的速度和质量。
Description
技术领域
本发明涉及人工智能领域,尤其涉及一种语音合成方法、装置、电子设备及计算机可读存储介质。
背景技术
语音合成指的是将计算机自己产生的、或外部输入的文字信息转变为可以听得懂的、流利的语音输出的技术,现如今语音合成是现代语音人工智能产品的关键技术环节之一,其合成语音的速度和质量是评判语音合成系统优劣的两个主要评价指标,也是影响语音产品用户体验的重要影响因素。
目前语音合成中的声学模型通常有两种实现方法:自回归型和非自回归型,自回归型在生成语音音频时,是以已生成的语音为基础,能有效学习声学特征的时间变化,从而生成高质量的语音,但由于语音序列生成的性质,导致语音在生成过程中推理速度较慢,从而使得语音合成的速度较慢;非自回归型在生成语音音频时可以并列生成语音,使得语音在生成过程中推理速度更快,但忽略了声学特征的时间变化,导致合成的语音质量相对较差。
发明内容
本发明提供一种语音合成方法、装置、电子设备及计算机可读存储介质,其主要目的在于提高语音合成的速度和质量。
为实现上述目的,本发明提供的一种语音合成方法,包括:
获取训练文本,利用预先训练好的自回归语音合成模型对所述训练文本进行语音合成,得到所述训练文本的第一声音频谱;
从所述第一声音频谱中提取语言学特征,得到第一语言学特征;
根据所述训练文本、所述第一声音频谱以及所述第一语言学特征,对预先构建的非自回归语音合成模型进行训练,得到训练完成的非自回归语音合成模型;
利用所述训练完成的非自回归语音合成模型对待合成语音文本进行语音合成,得到语音合成结果。
可选地,所述利用预先训练好的自回归语音合成模型对所述训练文本进行语音合成,得到所述训练文本的第一声音频谱,包括:
利用所述自回归语音合成模型中的编码器对所述训练文本进行声学特征提取,得到所述训练文本的声学特征;
利用所述自回归语音合成模型中的解码器对所述声学特征进行序列识别,得到所述训练文本的声学特征序列;
利用所述自回归语音合成模型中的声码器对所述声学特征序列进行频谱转换,得到所述训练文本的第一声音频谱。
可选地,所述利用所述自回归语音合成模型中的编码器对所述训练文本进行声学特征提取,得到所述训练文本的声学特征,包括:
利用所述编码器中的卷积层对所述训练文本进行声学特征卷积,得到初始声学特征;
利用所述编码器中的门控循环单元对所述初始声学特征进行上采样,得到所述训练文本的声学特征。
可选地,所述利用所述自回归语音合成模型中的解码器对所述声学特征进行序列识别,得到所述训练文本的声学特征序列,包括:
利用所述解码器中的卷积层对所述声学特征进行特征提取;
利用所述解码器中的长短期记忆网络单元对特征提取后的声学特征进行声学序列识别,得到所述训练文本的声学特征序列。
可选地,所述从所述第一声音频谱中提取语言学特征,得到第一语言学特征,包括:
获取所述第一声音频谱中的词语向量及句子向量,对所述词语向量及句子向量进行平滑处理;
将平滑处理后的词语向量与句子向量进行发音时长采样,得到词语发音时长和句子发音时长;
根据所述词语发音时长和句子发音时长,生成所述第一语言学特征。
可选地,所述根据所述训练文本、所述第一声音频谱以及所述第一语言学特征,对预先构建的非自回归语音合成模型进行训练,得到训练完成的非自回归语音合成模型,包括:
将所述训练文本输入所述非自回归语音合成模型中,以输出所述训练文本的第二声音频谱,并从所述第二声音频谱中提取语言学特征,得到第二语言学特征;
根据所述第一声音频谱、第二声音频谱、第一语言学特征以及第二语言学特征,计算所述非自回归语音合成模型的训练损失;
若所述训练损失不满足预设条件时,调整所述非自回归模型的参数,并返回所述将所述训练文本输入所述非自回归语音合成模型中的步骤;
若所述训练损失满足预设条件时,得到训练完成的非自回归语音合成模型。
可选地,所述根据所述第一声音频谱、第二声音频谱、第一语言学特征以及第二语言学特征,计算所述非自回归语音合成模型的训练损失,包括:
根据所述第一声音频谱及第二声音频谱,计算所述非自回归语音合成模型的第一训练损失;
根据所述第一语言学特征以及第二语言学特征,计算所述非自回归语音合成模型的第二训练损失;
根据所述第一训练损失和第二训练损失,计算所述非自回归语音合成模型的训练损失。
为了解决上述问题,本发明还提供一种语音合成装置,所述装置包括:
获取模块,用于获取训练文本,利用预先训练好的自回归语音合成模型对所述训练文本进行语音合成,得到所述训练文本的第一声音频谱;
提取模块,用于从所述第一声音频谱中提取语言学特征,得到第一语言学特征;
训练模块,用于根据所述训练文本、所述第一声音频谱以及所述第一语言学特征,对预先构建的非自回归语音合成模型进行训练,得到训练完成的非自回归语音合成模型;
合成模块,用于利用所述训练完成的非自回归语音合成模型对待合成语音文本进行语音合成,得到语音合成结果。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以实现上述所述的语音合成方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的语音合成方法。
本发明实施例首先利用预先训练好的自回归语音合成模型对训练文本进行语音合成,得到所述训练文本的第一声音频谱,并从所述第一声音频谱中提取语言学特征,得到第一语言学特征,以获取后续非自回归语音合成模型的训练数据;其次,本发明实施例将根据所述训练文本、所述第一声音频谱以及所述第一语言学特征,对预先构建的非自回归语音合成模型进行训练,得到训练完成的非自回归语音合成模型,以将语言学特征加入到模型训练数据中,可以增强训练数据的质量,并结合自回归模型生成的第一声音频谱监督非自回归模型的训练结果,以使非自回归模型可以更好的学习自回归模型语音合成的效果,从而提高非自回归模型的语音合成质量,再结合非自回归模型在语音合成过程中可以实现音频序列并行解码,从而使得所述非自回归模型具有较快的语音合成速度的同时又具有较高的语音合成质量。因此,本发明提出的一种语音合成方法、装置、电子设备以及存储介质可以提高语音合成的速度和质量。
附图说明
图1为本发明一实施例提供的语音合成方法的流程示意图;
图2为本发明第一实施例中图1提供的语音合成方法其中一个步骤的详细流程示意图;
图3为本发明一实施例提供的语音合成装置的模块示意图;
图4为本发明一实施例提供的实现语音合成方法的电子设备的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种语音合成方法。所述语音合成方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述语音合成方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示,为本发明一实施例提供的语音合成方法的流程示意图。在本发明实施例中,所述语音合成方法包括:
S1、获取训练文本,利用预先训练好的自回归语音合成模型对所述训练文本进行语音合成,得到所述训练文本的第一声音频谱。
本发明实施例中,所述训练文本包括不同类型的文本,比如:新闻文本、金融文本以及医疗文本等。所述预先训练好的自回归语音合成包括编码器、解码器以及声码器,用于将文本合成为语音。所述自回归语音合成模型可以理解为端到端的语音合成模型,即在语音合成过程,需要一步一步的处理语音数据,例如对于一个句子的生成过程可以包括:首先根据概率分布生成第一个词,其次根据第一个词生成第二个词,再根据前两个词生成第三个词,以此类推,直到生成整个句子,由于所述自回归语音合成模型对训练文本的语音合成的执行过程为串行,因此保障训练文本的语音合成结果的合成质量。
本发明的其中一个实施例,参阅图2所示,所述利用预先训练好的自回归语音合成模型对所述训练文本进行语音合成,得到所述训练文本的第一声音频谱,包括:
S20、利用所述自回归语音合成模型中的编码器对所述训练文本进行声学特征提取,得到所述训练文本的声学特征;
S21、利用所述自回归语音合成模型中的解码器对所述声学特征进行序列识别,得到所述训练文本的声学特征序列;
S22、利用所述自回归语音合成模型中的声码器对所述声学特征序列进行频谱转换,得到所述训练文本的第一声音频谱。
其中,所述编码器通过卷积层与门控循环单元(GRU)残差连接生成,用于提取所述训练文本中的声学特征,所述解码器通过卷积层与长短期记忆网络单元(LSTM)残差连接生成,所述声码器通过多层因果卷积层和全连接层构建。所述残差连接是为了保证在对训练文本处理过程中抑制模型梯度弥散的问题。所述声学特征是指表示语音声学特性的物理量,也是声音诸要素声学表现的统称,如表示音色的能量集中区、共振峰频率、共振峰强度和带宽,以及表示语音韵律特性的时长、基频、平均语声功率等。
进一步地,所述S20包括:利用所述编码器中的卷积层对所述训练文本进行声学特征卷积,得到初始声学特征,利用所述编码器中的门控循环单元对所述初始声学特征进行上采样,得到所述训练文本的声学特征。
一个可选实施例中,所述训练文本的声学特征卷积通过所述编码器中的卷积层的卷积核实现,所述初始声学特征的上采样通过所述门控循环单元中的更新门和重置门实现,所述更新门用于舍去和增添所述初始声学特征的信息,所述重置门用于对更新门处理后的初始声学特征的信息进行选择性过滤。
进一步地,所述S21包括:利用所述解码器中的卷积层对所述声学特征进行特征提取,利用所述解码器中的长短期记忆网络单元对特征提取后的声学特征进行声学序列识别,得到所述训练文本的声学特征序列。其中,所述声学序列是指所述声学特征中的离散时间信号。
一个可选实施例中,所述声学特征的特征提取通过所述解码器中的卷积层的卷积核实现,所述声学序列识别通过所述长短期记忆网络单元中的输入门、遗忘门和输出门实现,所述输入门用于对所述特征提取后的声学特征进行声学序列拆分,所述遗忘门用于对所述特征提取后的声学特征进行声学序列识别,所述输出门用于输出所述特征提取后的声学特征的声学序列。
进一步地,所述S22包括:利用所述声码器中的因果卷积层对所述声学特征序列进行声音频率提取,得到声音频率,利用所述声码器中的全连接层对所述声音频率进行矩阵映射,得到所述训练文本的第一声音频谱。可选的,利用下述公式对所述声学特征序列进行声音频率提取:
其中,Mel(f)表示声音频率,ln表示滤波函数,f表示声学特征序列。
S2、从所述第一声音频谱中提取语言学特征,得到第一语言学特征。
本发明实施例中,所述语言学特征包括词语发音时长和句子停顿时长,比如在一段声音频谱中存在10个单词和2个句子,所述10个单词之间的发音时长为0.89s,2个句子的停顿时长为1.2s。基于所述语言学特征,可以识别出生成的声音频谱的音素持续时间,从而可以判断出声音频谱的生成质量。
本发明的其中一个实施例,所述从所述第一声音频谱中提取语言学特征,得到第一语言学特征包括:获取所述第一声音频谱中的词语向量及句子向量,对所述词语向量及句子向量进行平滑处理,将平滑处理后的词语向量与句子向量进行发音时长采样,得到词语发音时长和句子发音时长,根据所述词语发音时长和句子发音时长,生成所述第一语言学特征。
一个可选实施例中,利用下述公式对所述词语向量进行平滑处理:
Y(n)=a1x1(n)+a2x2(n)-Y(n-1)
其中,Y(n)表示平滑处理后的词语向量,Y(n-1)表示词语向量,x1(n)和x2(n)表示词语向量的声音频率和声音信号,a1和a2表示滤波系数。本发明实施例中,所述句子向量的平滑处理与所述词语向量的平滑处理原理相同,在此不做进一步地赘述。
一个可选实施例中,所述词语向量与句子向量的发音时长采样可以通过所述自回归语音合成模型中的采样器实现,如KONTAKT采样器。
S3、根据所述训练文本、所述第一声音频谱以及所述第一语言学特征,对预先构建的非自回归语音合成模型进行训练,得到训练完成的非自回归语音合成模型。
本发明实施例中,所述非自回归语音合成模型不考虑训练文本中词语之间上下文的依赖关系,以直接对所述训练文本中词语进行语音解码,实现了词语的并行解码,从而大大提高训练文本的语音合成速度,因此,本发明实施例通过所述训练文本及所述第一语言学特征对所述预先构建的非自回归语音合成模型进行训练,以监督所述训练文本在所述非自回归模型中语音合成点的准确性,从而提高所述非自回归语音合成模型的语音合成准确率,使得所述非自回归模型具有较快的语音合成速度的同时也具有较高的语音合成准确率。
本发明的其中一个实施例,所述根据所述训练文本、所述第一声音频谱以及所述第一语言学特征,对预先构建的非自回归语音合成模型进行训练,得到训练完成的非自回归语音合成模型,包括:将所述训练文本输入所述非自回归语音合成模型中,以输出所述训练文本的第二声音频谱,并从所述第二声音频谱中提取语言学特征,得到第二语言学特征;根据所述第一声音频谱、第二声音频谱、第一语言学特征以及第二语言学特征,计算所述非自回归语音合成模型的训练损失;若所述训练损失不满足预设条件时,调整所述非自回归模型的参数,并返回所述将所述训练文本输入所述非自回归语音合成模型中的步骤;若所述训练损失满足预设条件时,得到训练完成的非自回归语音合成模型。
一个可选实施例中,所述第二声音频谱的语言学特征提取原理可以参阅上述第一声音频谱的语言学特征,再次不做进一步赘述。
一个可选实施例中,所述根据所述第一声音频谱、第二声音频谱、第一语言学特征以及第二语言学特征,计算所述非自回归语音合成模型的训练损失,包括:根据所述第一声音频谱及第二声音频谱,计算所述非自回归语音合成模型的第一训练损失;根据所述第一语言学特征以及第二语言学特征,计算所述非自回归语音合成模型的第二训练损失,根据所述第一训练损失和第二训练损失,计算所述非自回归语音合成模型的训练损失。
在本发明的一个可选实施例中,根据下述公式计算所述第一训练损失:
LC=mg logmp+(1-mg)log(1-mp)
其中,LC表示第一训练损失,mg表示第一声音频谱,mp表示第二声音频谱。
在本发明的一个可选实施例中,根据下述公式计算所述第二训练损失:
L1=|αp-αg|
其中,L1表示第二训练损失,αg表示第一语言学特征,αp表示第二语言学特征。
需要说明的是,所述第二训练损失是指所述语言学特征中词语发音时长损失和句子发音时长损失相加得到。
在本发明的一个可选实施例中,将所述第一训练损失和所述第二训练损失进行相加,得到所述非自回归语音合成模型的训练损失即L=L1+LC。
在本发明的一个可选实施例中,所述预设条件包括所述训练损失小于损失阈值。即当所述训练损失小于所述损失阈值时,则表示所述训练损失满足所述预设条件时,当所述训练损失大于或者等于所述损失阈值时,则表示所述训练损失不满足所述预设条件时。其中,所述损失阈值可以设置为0.1,也可以根据实际场景设置。进一步地,所述非自回归语音合成模型的参数调整可以通过梯度下降算法实现,如随机下降算法。
S4、利用所述训练完成的非自回归语音合成模型对待合成语音文本进行语音合成,得到语音合成结果。
本发明实施例中,所述利用所述训练完成的非自回归语音合成模型对待合成语音文本进行语音合成,得到语音合成结果,包括:将所述待合成语音文本输入所述训练完成的非自回归语音合成模型中,利用所述训练完成的非自回归语音合成模型识别所述待合成语音文本的声音频谱,得到所述待合成语音文本的语音合成结果。其中,所述待合成语音文本的声音频谱的识别通过所述训练完成的非自回归语音合成模型中的编码器和解码器实现。
进一步地,为保障所述语音合成结果的安全性和隐私性,所述语音合成结果还可存储于一区块链节点中。
本发明实施例首先利用预先训练好的自回归语音合成模型对训练文本进行语音合成,得到所述训练文本的第一声音频谱,并从所述第一声音频谱中提取语言学特征,得到第一语言学特征,以获取后续非自回归语音合成模型的训练数据;其次,本发明实施例将根据所述训练文本、所述第一声音频谱以及所述第一语言学特征,对预先构建的非自回归语音合成模型进行训练,得到训练完成的非自回归语音合成模型,以将语言学特征加入到模型训练数据中,可以增强训练数据的质量,并结合自回归模型生成的第一声音频谱监督非自回归模型的训练结果,以使非自回归模型可以更好的学习自回归模型语音合成的效果,从而提高非自回归模型的语音合成质量,再结合非自回归模型在语音合成过程中可以实现音频序列并行解码,从而使得所述非自回归模型具有较快的语音合成速度的同时又具有较高的语音合成质量。因此,本发明提出的一种语音合成方法可以提高语音合成的速度和质量。
如图3所示,是本发明语音合成装置的功能模块图。
本发明所述语音合成装置100可以安装于电子设备中。根据实现的功能,所述语音合成装置可以包括获取模块101、提取模块102、训练模块103以及合成模块104、。本发所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述获取模块101,用于获取训练文本,利用预先训练好的自回归语音合成模型对所述训练文本进行语音合成,得到所述训练文本的第一声音频谱;
所述提取模块102,用于从所述第一声音频谱中提取语言学特征,得到第一语言学特征;
所述训练模块103,用于根据所述训练文本、所述第一声音频谱以及所述第一语言学特征,对预先构建的非自回归语音合成模型进行训练,得到训练完成的非自回归语音合成模型;
所述合成模块104,用于利用所述训练完成的非自回归语音合成模型对待合成语音文本进行语音合成,得到语音合成结果。
详细地,本发明实施例中所述语音合成装置100中的所述各模块在使用时采用与上述的图1和图2中所述的语音合成方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
如图4所示,是本发明实现语音合成方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如语音合成程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如语音合成程序12的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行语音合成程序12等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图4仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图4示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的语音合成12是多个计算机程序的组合,在所述处理器10中运行时,可以实现:
获取训练文本,利用预先训练好的自回归语音合成模型对所述训练文本进行语音合成,得到所述训练文本的第一声音频谱;
从所述第一声音频谱中提取语言学特征,得到第一语言学特征;
根据所述训练文本、所述第一声音频谱以及所述第一语言学特征,对预先构建的非自回归语音合成模型进行训练,得到训练完成的非自回归语音合成模型;
利用所述训练完成的非自回归语音合成模型对待合成语音文本进行语音合成,得到语音合成结果。
具体地,所述处理器10对上述计算机程序的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个非易失性计算机可读取存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取训练文本,利用预先训练好的自回归语音合成模型对所述训练文本进行语音合成,得到所述训练文本的第一声音频谱;
从所述第一声音频谱中提取语言学特征,得到第一语言学特征;
根据所述训练文本、所述第一声音频谱以及所述第一语言学特征,对预先构建的非自回归语音合成模型进行训练,得到训练完成的非自回归语音合成模型;
利用所述训练完成的非自回归语音合成模型对待合成语音文本进行语音合成,得到语音合成结果。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种语音合成方法,其特征在于,所述方法包括:
获取训练文本,利用预先训练好的自回归语音合成模型对所述训练文本进行语音合成,得到所述训练文本的第一声音频谱;
从所述第一声音频谱中提取语言学特征,得到第一语言学特征;
根据所述训练文本、所述第一声音频谱以及所述第一语言学特征,对预先构建的非自回归语音合成模型进行训练,得到训练完成的非自回归语音合成模型;
利用所述训练完成的非自回归语音合成模型对待合成语音文本进行语音合成,得到语音合成结果。
2.如权利要求1所述的语音合成方法,其特征在于,所述利用预先训练好的自回归语音合成模型对所述训练文本进行语音合成,得到所述训练文本的第一声音频谱,包括:
利用所述自回归语音合成模型中的编码器对所述训练文本进行声学特征提取,得到所述训练文本的声学特征;
利用所述自回归语音合成模型中的解码器对所述声学特征进行序列识别,得到所述训练文本的声学特征序列;
利用所述自回归语音合成模型中的声码器对所述声学特征序列进行频谱转换,得到所述训练文本的第一声音频谱。
3.如权利要求1所述的语音合成方法,其特征在于,所述利用所述自回归语音合成模型中的编码器对所述训练文本进行声学特征提取,得到所述训练文本的声学特征,包括:
利用所述编码器中的卷积层对所述训练文本进行声学特征卷积,得到初始声学特征;
利用所述编码器中的门控循环单元对所述初始声学特征进行上采样,得到所述训练文本的声学特征。
4.如权利要求2所述的语音合成方法,其特征在于,所述利用所述自回归语音合成模型中的解码器对所述声学特征进行序列识别,得到所述训练文本的声学特征序列,包括:
利用所述解码器中的卷积层对所述声学特征进行特征提取;
利用所述解码器中的长短期记忆网络单元对特征提取后的声学特征进行声学序列识别,得到所述训练文本的声学特征序列。
5.如权利要求1所述的语音合成方法,其特征在于,所述从所述第一声音频谱中提取语言学特征,得到第一语言学特征,包括:
获取所述第一声音频谱中的词语向量及句子向量,对所述词语向量及句子向量进行平滑处理;
将平滑处理后的词语向量与句子向量进行发音时长采样,得到词语发音时长和句子发音时长;
根据所述词语发音时长和句子发音时长,生成所述第一语言学特征。
6.如权利要求1至5中任意一项所述的语音合成方法,其特征在于,所述根据所述训练文本、所述第一声音频谱以及所述第一语言学特征,对预先构建的非自回归语音合成模型进行训练,得到训练完成的非自回归语音合成模型,包括:
将所述训练文本输入所述非自回归语音合成模型中,以输出所述训练文本的第二声音频谱,并从所述第二声音频谱中提取语言学特征,得到第二语言学特征;
根据所述第一声音频谱、第二声音频谱、第一语言学特征以及第二语言学特征,计算所述非自回归语音合成模型的训练损失;
若所述训练损失不满足预设条件时,调整所述非自回归模型的参数,并返回所述将所述训练文本输入所述非自回归语音合成模型中的步骤;
若所述训练损失满足预设条件时,得到训练完成的非自回归语音合成模型。
7.如权利要求6所述的语音合成方法,其特征在于,所述根据所述第一声音频谱、第二声音频谱、第一语言学特征以及第二语言学特征,计算所述非自回归语音合成模型的训练损失,包括:
根据所述第一声音频谱及第二声音频谱,计算所述非自回归语音合成模型的第一训练损失;
根据所述第一语言学特征以及第二语言学特征,计算所述非自回归语音合成模型的第二训练损失;
根据所述第一训练损失和第二训练损失,计算所述非自回归语音合成模型的训练损失。
8.一种语音合成装置,其特征在于,所述装置包括:
获取模块,用于获取训练文本,利用预先训练好的自回归语音合成模型对所述训练文本进行语音合成,得到所述训练文本的第一声音频谱;
提取模块,用于从所述第一声音频谱中提取语言学特征,得到第一语言学特征;
训练模块,用于根据所述训练文本、所述第一声音频谱以及所述第一语言学特征,对预先构建的非自回归语音合成模型进行训练,得到训练完成的非自回归语音合成模型;
合成模块,用于利用所述训练完成的非自回归语音合成模型对待合成语音文本进行语音合成,得到语音合成结果。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任意一项所述的语音合成方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的语音合成方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110450578.7A CN112951203B (zh) | 2021-04-25 | 2021-04-25 | 语音合成方法、装置、电子设备及存储介质 |
PCT/CN2021/097075 WO2022227190A1 (zh) | 2021-04-25 | 2021-05-30 | 语音合成方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110450578.7A CN112951203B (zh) | 2021-04-25 | 2021-04-25 | 语音合成方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112951203A true CN112951203A (zh) | 2021-06-11 |
CN112951203B CN112951203B (zh) | 2023-12-29 |
Family
ID=76233441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110450578.7A Active CN112951203B (zh) | 2021-04-25 | 2021-04-25 | 语音合成方法、装置、电子设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112951203B (zh) |
WO (1) | WO2022227190A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113488029A (zh) * | 2021-06-23 | 2021-10-08 | 中科极限元(杭州)智能科技股份有限公司 | 基于参数共享非自回归语音识别训练解码方法及系统 |
CN113781995A (zh) * | 2021-09-17 | 2021-12-10 | 上海喜马拉雅科技有限公司 | 语音合成方法、装置、电子设备及可读存储介质 |
CN114242034A (zh) * | 2021-12-28 | 2022-03-25 | 深圳市优必选科技股份有限公司 | 一种语音合成方法、装置、终端设备及存储介质 |
CN114783406A (zh) * | 2022-06-16 | 2022-07-22 | 深圳比特微电子科技有限公司 | 语音合成方法、装置和计算机可读存储介质 |
CN117809621A (zh) * | 2024-02-29 | 2024-04-02 | 暗物智能科技(广州)有限公司 | 一种语音合成方法、装置、电子设备及存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117765926B (zh) * | 2024-02-19 | 2024-05-14 | 上海蜜度科技股份有限公司 | 语音合成方法、系统、电子设备及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110033755A (zh) * | 2019-04-23 | 2019-07-19 | 平安科技(深圳)有限公司 | 语音合成方法、装置、计算机设备及存储介质 |
CN110223705A (zh) * | 2019-06-12 | 2019-09-10 | 腾讯科技(深圳)有限公司 | 语音转换方法、装置、设备及可读存储介质 |
US20200135171A1 (en) * | 2017-02-28 | 2020-04-30 | National Institute Of Information And Communications Technology | Training Apparatus, Speech Synthesis System, and Speech Synthesis Method |
CN111243620A (zh) * | 2020-01-07 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 语音分离模型训练方法、装置、存储介质和计算机设备 |
CN112133282A (zh) * | 2020-10-26 | 2020-12-25 | 厦门大学 | 轻量级多说话人语音合成系统及电子设备 |
US20200410979A1 (en) * | 2019-06-27 | 2020-12-31 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method, device, and computer-readable storage medium for speech synthesis in parallel |
CN112233646A (zh) * | 2020-10-20 | 2021-01-15 | 携程计算机技术(上海)有限公司 | 基于神经网络的语音克隆方法、系统、设备及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10521701B2 (en) * | 2018-05-18 | 2019-12-31 | Google Llc | Parallel decoding using autoregressive machine learning models |
CN112466273A (zh) * | 2020-12-10 | 2021-03-09 | 平安科技(深圳)有限公司 | 语音合成方法、装置、电子设备及存储介质 |
-
2021
- 2021-04-25 CN CN202110450578.7A patent/CN112951203B/zh active Active
- 2021-05-30 WO PCT/CN2021/097075 patent/WO2022227190A1/zh active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200135171A1 (en) * | 2017-02-28 | 2020-04-30 | National Institute Of Information And Communications Technology | Training Apparatus, Speech Synthesis System, and Speech Synthesis Method |
CN110033755A (zh) * | 2019-04-23 | 2019-07-19 | 平安科技(深圳)有限公司 | 语音合成方法、装置、计算机设备及存储介质 |
CN110223705A (zh) * | 2019-06-12 | 2019-09-10 | 腾讯科技(深圳)有限公司 | 语音转换方法、装置、设备及可读存储介质 |
US20200410979A1 (en) * | 2019-06-27 | 2020-12-31 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method, device, and computer-readable storage medium for speech synthesis in parallel |
CN111243620A (zh) * | 2020-01-07 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 语音分离模型训练方法、装置、存储介质和计算机设备 |
CN112233646A (zh) * | 2020-10-20 | 2021-01-15 | 携程计算机技术(上海)有限公司 | 基于神经网络的语音克隆方法、系统、设备及存储介质 |
CN112133282A (zh) * | 2020-10-26 | 2020-12-25 | 厦门大学 | 轻量级多说话人语音合成系统及电子设备 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113488029A (zh) * | 2021-06-23 | 2021-10-08 | 中科极限元(杭州)智能科技股份有限公司 | 基于参数共享非自回归语音识别训练解码方法及系统 |
CN113488029B (zh) * | 2021-06-23 | 2024-06-11 | 中科极限元(杭州)智能科技股份有限公司 | 基于参数共享非自回归语音识别训练解码方法及系统 |
CN113781995A (zh) * | 2021-09-17 | 2021-12-10 | 上海喜马拉雅科技有限公司 | 语音合成方法、装置、电子设备及可读存储介质 |
CN113781995B (zh) * | 2021-09-17 | 2024-04-05 | 上海喜马拉雅科技有限公司 | 语音合成方法、装置、电子设备及可读存储介质 |
CN114242034A (zh) * | 2021-12-28 | 2022-03-25 | 深圳市优必选科技股份有限公司 | 一种语音合成方法、装置、终端设备及存储介质 |
CN114783406A (zh) * | 2022-06-16 | 2022-07-22 | 深圳比特微电子科技有限公司 | 语音合成方法、装置和计算机可读存储介质 |
CN117809621A (zh) * | 2024-02-29 | 2024-04-02 | 暗物智能科技(广州)有限公司 | 一种语音合成方法、装置、电子设备及存储介质 |
CN117809621B (zh) * | 2024-02-29 | 2024-06-11 | 暗物智能科技(广州)有限公司 | 一种语音合成方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2022227190A1 (zh) | 2022-11-03 |
CN112951203B (zh) | 2023-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112951203A (zh) | 语音合成方法、装置、电子设备及存储介质 | |
CN112086086B (zh) | 语音合成方法、装置、设备及计算机可读存储介质 | |
CN111914076B (zh) | 一种基于人机对话的用户画像构建方法、系统、终端及存储介质 | |
CN112397047A (zh) | 语音合成方法、装置、电子设备及可读存储介质 | |
CN113345431B (zh) | 跨语言语音转换方法、装置、设备及介质 | |
CN112820269A (zh) | 文本转语音方法、装置、电子设备及存储介质 | |
CN112466273A (zh) | 语音合成方法、装置、电子设备及存储介质 | |
CN113887200B (zh) | 文本变长纠错方法、装置、电子设备及存储介质 | |
WO2022121158A1 (zh) | 语音合成方法、装置、电子设备及存储介质 | |
CN112863529A (zh) | 基于对抗学习的说话人语音转换方法及相关设备 | |
CN113450765A (zh) | 语音合成方法、装置、设备及存储介质 | |
CN111241820A (zh) | 不良用语识别方法、装置、电子装置及存储介质 | |
CN112507663A (zh) | 基于文本的判断题生成方法、装置、电子设备及存储介质 | |
CN114842880A (zh) | 智能客服语音节奏调节方法、装置、设备及存储介质 | |
CN113327586A (zh) | 一种语音识别方法、装置、电子设备以及存储介质 | |
CN113555003B (zh) | 语音合成方法、装置、电子设备及存储介质 | |
CN114155832A (zh) | 基于深度学习的语音识别方法、装置、设备及介质 | |
CN113435180B (zh) | 文本纠错方法、装置、电子设备及存储介质 | |
CN113591472A (zh) | 歌词生成方法、歌词生成模型训练方法、装置及电子设备 | |
CN112489628A (zh) | 语音数据选择方法、装置、电子设备及存储介质 | |
CN116564322A (zh) | 语音转换方法、装置、设备及存储介质 | |
CN113421576B (zh) | 语音转换方法、装置、设备以及存储介质 | |
CN115631748A (zh) | 基于语音对话的情感识别方法、装置、电子设备及介质 | |
CN113160793A (zh) | 基于低资源语言的语音合成方法、装置、设备及存储介质 | |
CN113555026A (zh) | 语音转换方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20231122 Address after: Unit 1201, 12th Floor, Block B, 101, 3rd to 24th floors, Xinyuan South Road, Chaoyang District, Beijing, 100000 Applicant after: Ping An Chuangke Technology (Beijing) Co.,Ltd. Address before: 518000 Guangdong, Shenzhen, Futian District Futian street Fu'an community Yitian road 5033, Ping An financial center, 23 floor. Applicant before: PING AN TECHNOLOGY (SHENZHEN) Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |