CN112466273A - 语音合成方法、装置、电子设备及存储介质 - Google Patents
语音合成方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112466273A CN112466273A CN202011433981.0A CN202011433981A CN112466273A CN 112466273 A CN112466273 A CN 112466273A CN 202011433981 A CN202011433981 A CN 202011433981A CN 112466273 A CN112466273 A CN 112466273A
- Authority
- CN
- China
- Prior art keywords
- sound
- spectrum
- frequency spectrum
- duration
- speech synthesis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/0018—Speech coding using phonetic or linguistical decoding of the source; Reconstruction using text-to-speech synthesis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
Abstract
本发明涉及人工智能领域,揭露了一种语音合成方法,包括:获取训练文本,利用预构建的语音合成模型对训练文本进行位置向量编码和声音频谱编码,生成声音频谱;对声音频谱进行音高投影及持续时间投影,得到音高频谱和持续时间频谱,将音高频谱与声音频谱进行残差连接,生成残差声音频谱;将持续时间频谱和残差声音频谱进行汇总及平滑处理,得到目标声音频谱;计算目标声音频谱与对应标签值的损失值,根据损失值,调整语音合成模型的参数,得到训练完成的语音合成模型;利用训练完成的语音合成模型对待合成语音文本进行语音合成,得到合成结果。此外,本发明还涉及区块链技术,所述目标声音频谱可存储于区块链中。本发明可以提高语音合成的准确性。
Description
技术领域
本发明涉及人工智能领域,尤其涉及一种语音合成方法、装置、电子设备及计算机可读存储介质。
背景技术
语音合成指的是将计算机自己产生的、或外部输入的文字信息转变为可以听得懂的、流利的语音输出的技术。近年来,神经语音合成(Text-to-Speech, TTS)系统高速发展,摆脱了传统pipline冗杂的合成流程,不再依赖高度专业的文法、词法特征提取,而是将原始文本经过神经网络转成梅尔谱,再将梅尔谱转成声音波形,实现了端到端的语音合成系统,所合成的语音质量近似人声。但是,由于文本中的字符音频信号通常具有较高的时间分辨率,且字符文本中的梅尔帧生成是并行计算的,互不依赖,这样统一导致了单个输入文本缺乏足够的语义信息造成同一语音单元发音不同,进而会影响语音合成的准确性。
发明内容
本发明提供一种语音合成方法、装置、电子设备及计算机可读存储介质,其主要目的在于提高语音合成的准确性。
为实现上述目的,本发明提供的一种语音合成方法,包括:
获取训练文本,利用预构建的语音合成模型中编码层对所述训练文本进行位置向量编码,得到文本向量;
利用所述语音合成模型中前馈注意力机制对所述文本向量进行声音频谱编码,生成声音频谱;
利用所述语音合成模型中音高识别模块和声音持续时间识别模块分别对所述声音频谱进行音高投影及持续时间投影,得到音高频谱和持续时间频谱,并将所述音高频谱与所述声音频谱进行残差连接,生成残差声音频谱;
将所述持续时间频谱和所述残差声音频谱进行汇总,得到声音持续时间频谱;
利用所述语音合成模型中的滤波函数对所述声音持续时间频谱进行平滑处理,得到目标声音频谱;
利用所述语音合成模型中的损失函数计算所述目标声音频谱与对应标签值的损失值,根据所述损失值,调整所述语音合成模型的参数,直至所述损失值小于预设阈值时,得到训练完成的语音合成模型;
利用所述训练完成的语音合成模型对待合成语音文本进行语音合成,得到合成结果。
可选地,所述利用预构建的语音合成模型中编码层对所述训练文本进行位置向量编码,得到文本向量,包括:
获取所述训练文本中的文本语句,利用所述编码层对所述文本语句中的词语进行索引编码,得到词编码索引;
对所述词编码索引构建向量矩阵,生成词向量,根据所述词向量,生成文本向量。
可选地,所述利用所述语音合成模型中前馈注意力机制对所述文本向量进行声音频谱编码,生成声音频谱,包括:
利用所述前馈注意力机制中的自注意力模块查询所述文本向量的词向量;
利用所述前馈注意力机制中的卷积模块对所述词向量进行特征提取,得到特征词向量;
利用所述前馈注意力机制中的编码器提取所述特征词向量的音素信息序列;
利用所述前馈注意力机制中的解码器将所述音素信息序列转换成频谱信息序列,得到所述声音频谱。
可选地,所述利用所述语音合成模型中音高识别模块和声音持续时间识别模块分别对所述声音频谱进行音高投影及持续时间投影,得到音高频谱和持续时间频谱,包括:
利用所述音高识别模块中的卷积层对所述声音频谱进行声音频率提取,得到声音频率,利用所述音高识别模块中的全连接层对所述声音频率进行矩阵映射,得到所述音高频谱;
利用所述声音持续时间识别模块中的卷积层对所述声音频谱进行持续时间提取,得到声音持续时间,利用所述声音持续时间识别模块中的全连接层对所述声音持续时间进行矩阵映射,得到所述持续时间频谱。
可选地,所述将所述持续时间频谱和所述残差声音频谱进行汇总,得到声音持续时间频谱,包括:
获取所述持续时间频谱的时间维度,将所述时间维度加载至所述残差声音频谱中的每个音高,得到所述声音持续时间频谱。
可选地,所述滤波函数包括:
可选地,所述损失函数包括:
为了解决上述问题,本发明还提供一种语音合成装置,所述装置包括:
编码模块,用于获取训练文本,利用预构建的语音合成模型中编码层对所述训练文本进行位置向量编码,得到文本向量;
所述编码模块,还用于利用所述语音合成模型中前馈注意力机制对所述文本向量进行声音频谱编码,生成声音频谱;
投影模块,用于利用所述语音合成模型中音高识别模块和声音持续时间识别模块分别对所述声音频谱进行音高投影及持续时间投影,得到音高频谱和持续时间频谱,并将所述音高频谱与所述声音频谱进行残差连接,生成残差声音频谱;
汇总模块,用于将所述持续时间频谱和所述残差声音频谱进行汇总,得到声音持续时间频谱;
平滑模块,用于利用所述语音合成模型中的滤波函数对所述声音持续时间频谱进行平滑处理,得到目标声音频谱;
调整模块,用于利用所述语音合成模型中的损失函数计算所述目标声音频谱与对应标签值的损失值,根据所述损失值,调整所述语音合成模型的参数,直至所述损失值小于预设阈值时,得到训练完成的语音合成模型;
合成模块,用于利用所述训练完成的语音合成模型对待合成语音文本进行语音合成,得到合成结果。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以实现上述所述的语音合成方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的语音合成方法。
本发明实施例首先利用预构建的语音合成模型对训练文本进行位置向量编码和声音频谱编码,生成声音频谱,及对声音频谱进行音高投影及持续时间投影,得到音高频谱和持续时间频谱,将音高频谱与声音频谱进行残差连接,生成残差声音频谱,可以确定所述训练文本中每个词语的位置信息;其次,本发明实施例将持续时间频谱和残差声音频谱进行汇总及平滑处理,得到目标声音频谱,可以识别出训练文本中每个词语的语义信息,避免了同语音单元发音不同的状况,从而提高了语音合成的准确性;进一步地,本发明实施例计算目标声音频谱与对应标签值的损失值,根据损失值,调整语音合成模型的参数,得到训练完成的语音合成模型,并利用训练完成的语音合成模型对待合成语音文本进行语音合成,得到合成结果。因此,本发明提出的一种语音合成方法、装置、电子设备以及存储介质可以提高语音合成的准确性。
附图说明
图1为本发明一实施例提供的语音合成方法的流程示意图;
图2为本发明第一实施例中图1提供的语音合成方法其中一个步骤的详细流程示意图;
图3为本发明一实施例提供的语音合成装置的模块示意图;
图4为本发明一实施例提供的实现语音合成方法的电子设备的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种语音合成方法。所述语音合成方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述语音合成方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示,为本发明一实施例提供的语音合成方法的流程示意图。在本发明实施例中,所述语音合成方法包括:
S1、获取训练文本,利用预构建的语音合成模型中编码层对所述训练文本进行位置向量编码,得到文本向量。
本发明实施例中,所述训练文本包括不同类型的文本,比如:新闻文本、金融文本以及医疗文本等,可选的,所述训练文本从专业网站下载。所述预构建的语音合成模型包括FastSpeech 网络,用于将文本转换成语音。
进一步地,应该了解,在一个文本中会包含大量的语句和词语,而在神经网络只能接受数值输入,无法支持单词字符的输入,若直接利用文本对构建的语音合成模型进行训练,则无法识别出文本音素序列,从而使得训练出来的语音合成模型无法支持文本语音合成,因此,本发明实施例利用所述语音合成模型中编码层对所述训练文本进行位置向量编码,以确定所述训练文本中每个词语的位置信息,从而实现后续的模型训练。其中,所述编码层包括Embedding。
详细地,参阅图2所示,所述利用预构建的语音合成模型中编码层对所述训练文本进行位置向量编码,得到文本向量,包括:
S20、获取所述训练文本中的文本语句,利用所述编码层对所述文本语句中的词语进行索引编码,得到词编码索引;
S21、对所述词编码索引构建向量矩阵,生成词向量,根据所述词向量,生成文本向量。
其中,所述文本语句根据所述训练文本的标点符号进行得到,比如一个句号对应的一段话作为一个文本语句;所述索引编码基于不同用户需求设置,比如,所述文本语句为:deep in learning,对所述deep in learning中的词语进行0 1 2的索引编码,得到deep编码索引为0、in编码索引为1以及learning编码索引为2;所述向量矩阵的构建根据对应词语的潜在因子数据确定,比如所述词语存在3个潜在因子,则构建对应的向量矩阵可以为1*3的向量矩阵,所述潜在因子指的是所述词语的特征节点值,比如,所述词语为deep,则对应的潜在因子包括:高度、深度以及厚度等。
S2、利用所述语音合成模型中前馈注意力机制对所述文本向量进行声音频谱编码,生成声音频谱。
本发明实施例中,利用所述语音合成模型中前馈注意力机制对所述文本向量进行声音梅尔频谱编码,以将所述文本向量中的音素序列转换成梅尔频谱,保证后续文本语音合成的前提。其中,所述前馈注意力机制通过N个相同的Feed Forward Transformer block(简称FFT)组成,每个所述FFT包括编码器、解码器、自注意力模块以及卷积模块。
详细地,所述S2包括:利用所述前馈注意力机制中的自注意力模块查询所述文本向量的词向量,利用所述前馈注意力机制中的卷积模块对所述词向量进行特征提取,得到特征词向量,利用所述前馈注意力机制中的编码器提取所述特征词向量的音素信息序列,利用所述前馈注意力机制中的解码器将所述音素信息序列转换成频谱信息序列,得到所述声音频谱。
一个可选实施例中,所述声音频谱为梅尔频谱。
S3、利用所述语音合成模型中音高识别模块和声音持续时间识别模块分别对所述声音频谱进行音高投影及持续时间投影,得到音高频谱和持续时间频谱,并将所述音高频谱与所述声音频谱进行残差连接,生成残差声音频谱。
应该了解,上述S2生成的声音频谱由于是直接将文本向量中的音素序列直接转换成对应的频谱序列,并没有考虑所述声音频谱中的声音频率和持续时间,这样容易同语音单元发音不同的状况,从而会影响后续模型训练的准确性,进而会影响后续生成语音的准确度,因此,本发明实施例利用所述语音合成模型中音高识别模块和声音持续时间识别模块分别对所述声音频谱进行音高投影及持续时间投影,得到音高频谱和持续时间频谱,并将所述音高频谱与所述声音频谱进行残差连接,以识别所述声音频谱中的声音频率和持续时间。
详细地,所述利用所述语音合成模型中音高识别模块和声音持续时间识别模块分别对所述声音频谱进行音高投影及持续时间投影,得到音高频谱和持续时间频谱,包括:利用所述音高识别模块中的卷积层对所述声音频谱进行声音频率提取,得到声音频率,利用所述音高识别模块中的全连接层对所述声音频率进行矩阵映射,得到所述音高频谱;利用所述声音持续时间识别模块中的卷积层对所述声音频谱进行持续时间提取,得到声音持续时间,利用所述声音持续时间识别模块中的全连接层对所述声音持续时间进行矩阵映射,得到所述持续时间频谱。
进一步地,为避免所述音高频谱的梯度消散问题,本发明实施例通过将所述音高频谱与所述声音频谱进行残差连接,生成残差声音频谱。进一步地,所述残差连接属于当前较为成熟的技术,在此不做进一步地阐述。
S4、将所述持续时间频谱和所述残差声音频谱进行汇总,得到声音持续时间频谱。
本发明实施例中将所述持续时间频谱和所述残差声音频谱进行汇总,以识别出所述残差声音频谱中每个音高的持续时间,从而可以识别出对应声音频谱的声音长度,以更好的对模型进行训练,提高模型的鲁棒性。
详细地,所述将所述持续时间频谱和所述残差声音频谱进行汇总,得到声音持续时间频谱,包括:获取所述持续时间频谱的时间维度,将所述时间维度加载至所述残差声音频谱中的每个音高,得到所述声音持续时间频谱。其中,所述时间维度指的是所述持续时间频谱中的向量矩阵维度。
S5、利用所述语音合成模型中的滤波函数对所述声音持续时间频谱进行平滑处理,得到目标声音频谱。
本发明实施例中,利用所述语音合成模型中的滤波函数对所述声音持续时间频谱进行平滑处理,得到目标声音频谱,以降低所述声音持续时间频谱中的噪声,提高所述声音持续时间频谱的语音信号质量。
本发明的一个可选实施例中,所述滤波函数包括:
进一步地,为保障所述目标声音频谱的隐私性和复用性,所述目标声音频谱还可存储于一区块链节点中。
S6、利用所述语音合成模型中的损失函数计算所述目标声音频谱与对应标签值的损失值,根据所述损失值,调整所述语音合成模型的参数,直至所述损失值小于预设阈值时,得到训练完成的语音合成模型。
本发明实施例中,利用所述语音合成模型中的损失函数计算所述目标声音频谱与对应标签值的损失值,根据所述损失值,调整所述语音合成模型的参数,直至所述损失值小于预设阈值时,得到训练完成的语音合成模型。其中,所述标签值指的是预先在所述训练文本标注的真实语音,所述语音合成模型的参数包括权重和偏执,所述预设阈值为0.1。
一个可选实施例中,所述损失函数包括:
S7、利用所述训练完成的语音合成模型对待合成语音文本进行语音合成,得到合成结果。
本发明实施例首先利用预构建的语音合成模型对训练文本进行位置向量编码和声音频谱编码,生成声音频谱,及对声音频谱进行音高投影及持续时间投影,得到音高频谱和持续时间频谱,将音高频谱与声音频谱进行残差连接,生成残差声音频谱,可以确定所述训练文本中每个词语的位置信息;其次,本发明实施例将持续时间频谱和残差声音频谱进行汇总及平滑处理,得到目标声音频谱,可以识别出训练文本中每个词语的语义信息,避免了同语音单元发音不同的状况,从而提高了语音合成的准确性;进一步地,本发明实施例计算目标声音频谱与对应标签值的损失值,根据损失值,调整语音合成模型的参数,得到训练完成的语音合成模型,并利用训练完成的语音合成模型对待合成语音文本进行语音合成,得到合成结果。因此,本发明可以提高语音合成的准确性。
如图3所示,是本发明语音合成装置的功能模块图。
本发明所述语音合成装置100可以安装于电子设备中。根据实现的功能,所述语音合成装置可以包括编码模块101、投影模块102、汇总模块103、平滑模块104、调整模块105以及合成模块106。本发所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述编码模块101,用于获取训练文本,利用预构建的语音合成模型中编码层对所述训练文本进行位置向量编码,得到文本向量;
所述编码模块101,还用于利用所述语音合成模型中前馈注意力机制对所述文本向量进行声音频谱编码,生成声音频谱;
所述投影模块102,用于利用所述语音合成模型中音高识别模块和声音持续时间识别模块分别对所述声音频谱进行音高投影及持续时间投影,得到音高频谱和持续时间频谱,并将所述音高频谱与所述声音频谱进行残差连接,生成残差声音频谱;
所述汇总模块103,用于将所述持续时间频谱和所述残差声音频谱进行汇总,得到声音持续时间频谱;
所述平滑模块104,用于利用所述语音合成模型中的滤波函数对所述声音持续时间频谱进行平滑处理,得到目标声音频谱;
所述调整模块105,用于利用所述语音合成模型中的损失函数计算所述目标声音频谱与对应标签值的损失值,根据所述损失值,调整所述语音合成模型的参数,直至所述损失值小于预设阈值时,得到训练完成的语音合成模型;
所述合成模块106,用于利用所述训练完成的语音合成模型对待合成语音文本进行语音合成,得到合成结果。
详细地,本发明实施例中所述语音合成装置100中的所述各模块在使用时采用与上述的图1和图2中所述的语音合成方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
如图4所示,是本发明实现语音合成方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如语音合成程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card, SMC)、安全数字(SecureDigital, SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如语音合成的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行语音合成等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图4仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图4示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的语音合成12是多个计算机程序的组合,在所述处理器10中运行时,可以实现:
获取训练文本,利用预构建的语音合成模型中编码层对所述训练文本进行位置向量编码,得到文本向量;
利用所述语音合成模型中前馈注意力机制对所述文本向量进行声音频谱编码,生成声音频谱;
利用所述语音合成模型中音高识别模块和声音持续时间识别模块分别对所述声音频谱进行音高投影及持续时间投影,得到音高频谱和持续时间频谱,并将所述音高频谱与所述声音频谱进行残差连接,生成残差声音频谱;
将所述持续时间频谱和所述残差声音频谱进行汇总,得到声音持续时间频谱;
利用所述语音合成模型中的滤波函数对所述声音持续时间频谱进行平滑处理,得到目标声音频谱;
利用所述语音合成模型中的损失函数计算所述目标声音频谱与对应标签值的损失值,根据所述损失值,调整所述语音合成模型的参数,直至所述损失值小于预设阈值时,得到训练完成的语音合成模型;
利用所述训练完成的语音合成模型对待合成语音文本进行语音合成,得到合成结果。
具体地,所述处理器10对上述计算机程序的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个非易失性计算机可读取存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取训练文本,利用预构建的语音合成模型中编码层对所述训练文本进行位置向量编码,得到文本向量;
利用所述语音合成模型中前馈注意力机制对所述文本向量进行声音频谱编码,生成声音频谱;
利用所述语音合成模型中音高识别模块和声音持续时间识别模块分别对所述声音频谱进行音高投影及持续时间投影,得到音高频谱和持续时间频谱,并将所述音高频谱与所述声音频谱进行残差连接,生成残差声音频谱;
将所述持续时间频谱和所述残差声音频谱进行汇总,得到声音持续时间频谱;
利用所述语音合成模型中的滤波函数对所述声音持续时间频谱进行平滑处理,得到目标声音频谱;
利用所述语音合成模型中的损失函数计算所述目标声音频谱与对应标签值的损失值,根据所述损失值,调整所述语音合成模型的参数,直至所述损失值小于预设阈值时,得到训练完成的语音合成模型;
利用所述训练完成的语音合成模型对待合成语音文本进行语音合成,得到合成结果。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种语音合成方法,其特征在于,所述方法包括:
获取训练文本,利用预构建的语音合成模型中编码层对所述训练文本进行位置向量编码,得到文本向量;
利用所述语音合成模型中前馈注意力机制对所述文本向量进行声音频谱编码,生成声音频谱;
利用所述语音合成模型中音高识别模块和声音持续时间识别模块分别对所述声音频谱进行音高投影及持续时间投影,得到音高频谱和持续时间频谱,并将所述音高频谱与所述声音频谱进行残差连接,生成残差声音频谱;
将所述持续时间频谱和所述残差声音频谱进行汇总,得到声音持续时间频谱;
利用所述语音合成模型中的滤波函数对所述声音持续时间频谱进行平滑处理,得到目标声音频谱;
利用所述语音合成模型中的损失函数计算所述目标声音频谱与对应标签值的损失值,根据所述损失值,调整所述语音合成模型的参数,直至所述损失值小于预设阈值时,得到训练完成的语音合成模型;
利用所述训练完成的语音合成模型对待合成语音文本进行语音合成,得到合成结果。
2.如权利要求1所述的语音合成方法,其特征在于,所述利用预构建的语音合成模型中编码层对所述训练文本进行位置向量编码,得到文本向量,包括:
获取所述训练文本中的文本语句,利用所述编码层对所述文本语句中的词语进行索引编码,得到词编码索引;
对所述词编码索引构建向量矩阵,生成词向量,根据所述词向量,生成文本向量。
3.如权利要求1所述的语音合成方法,其特征在于,所述利用所述语音合成模型中前馈注意力机制对所述文本向量进行声音频谱编码,生成声音频谱,包括:
利用所述前馈注意力机制中的自注意力模块查询所述文本向量的词向量;
利用所述前馈注意力机制中的卷积模块对所述词向量进行特征提取,得到特征词向量;
利用所述前馈注意力机制中的编码器提取所述特征词向量的音素信息序列;
利用所述前馈注意力机制中的解码器将所述音素信息序列转换成频谱信息序列,得到所述声音频谱。
4.如权利要求1所述的语音合成方法,其特征在于,所述利用所述语音合成模型中音高识别模块和声音持续时间识别模块分别对所述声音频谱进行音高投影及持续时间投影,得到音高频谱和持续时间频谱,包括:
利用所述音高识别模块中的卷积层对所述声音频谱进行声音频率提取,得到声音频率,利用所述音高识别模块中的全连接层对所述声音频率进行矩阵映射,得到所述音高频谱;
利用所述声音持续时间识别模块中的卷积层对所述声音频谱进行持续时间提取,得到声音持续时间,利用所述声音持续时间识别模块中的全连接层对所述声音持续时间进行矩阵映射,得到所述持续时间频谱。
5.如权利要求1至4中任意一项所述的语音合成方法,其特征在于,所述将所述持续时间频谱和所述残差声音频谱进行汇总,得到声音持续时间频谱,包括:
获取所述持续时间频谱的时间维度,将所述时间维度加载至所述残差声音频谱中的每个音高,得到所述声音持续时间频谱。
8.一种语音合成装置,其特征在于,所述装置包括:
编码模块,用于获取训练文本,利用预构建的语音合成模型中编码层对所述训练文本进行位置向量编码,得到文本向量;
所述编码模块,还用于利用所述语音合成模型中前馈注意力机制对所述文本向量进行声音频谱编码,生成声音频谱;
投影模块,用于利用所述语音合成模型中音高识别模块和声音持续时间识别模块分别对所述声音频谱进行音高投影及持续时间投影,得到音高频谱和持续时间频谱,并将所述音高频谱与所述声音频谱进行残差连接,生成残差声音频谱;
汇总模块,用于将所述持续时间频谱和所述残差声音频谱进行汇总,得到声音持续时间频谱;
平滑模块,用于利用所述语音合成模型中的滤波函数对所述声音持续时间频谱进行平滑处理,得到目标声音频谱;
调整模块,用于利用所述语音合成模型中的损失函数计算所述目标声音频谱与对应标签值的损失值,根据所述损失值,调整所述语音合成模型的参数,直至所述损失值小于预设阈值时,得到训练完成的语音合成模型;
合成模块,用于利用所述训练完成的语音合成模型对待合成语音文本进行语音合成,得到合成结果。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任意一项所述的语音合成方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的语音合成方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011433981.0A CN112466273A (zh) | 2020-12-10 | 2020-12-10 | 语音合成方法、装置、电子设备及存储介质 |
PCT/CN2021/083185 WO2022121157A1 (zh) | 2020-12-10 | 2021-03-26 | 语音合成方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011433981.0A CN112466273A (zh) | 2020-12-10 | 2020-12-10 | 语音合成方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112466273A true CN112466273A (zh) | 2021-03-09 |
Family
ID=74802069
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011433981.0A Pending CN112466273A (zh) | 2020-12-10 | 2020-12-10 | 语音合成方法、装置、电子设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112466273A (zh) |
WO (1) | WO2022121157A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112765958A (zh) * | 2021-03-17 | 2021-05-07 | 中国平安人寿保险股份有限公司 | 代词消解方法、装置、电子设备及存储介质 |
CN113555003A (zh) * | 2021-07-23 | 2021-10-26 | 平安科技(深圳)有限公司 | 语音合成方法、装置、电子设备及存储介质 |
WO2022121157A1 (zh) * | 2020-12-10 | 2022-06-16 | 平安科技(深圳)有限公司 | 语音合成方法、装置、电子设备及存储介质 |
WO2022227190A1 (zh) * | 2021-04-25 | 2022-11-03 | 平安科技(深圳)有限公司 | 语音合成方法、装置、电子设备及存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117765926A (zh) * | 2024-02-19 | 2024-03-26 | 上海蜜度科技股份有限公司 | 语音合成方法、系统、电子设备及介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10699695B1 (en) * | 2018-06-29 | 2020-06-30 | Amazon Washington, Inc. | Text-to-speech (TTS) processing |
CN111161702B (zh) * | 2019-12-23 | 2022-08-26 | 爱驰汽车有限公司 | 个性化语音合成方法、装置、电子设备、存储介质 |
CN111179905A (zh) * | 2020-01-10 | 2020-05-19 | 北京中科深智科技有限公司 | 一种快速配音生成方法及装置 |
CN111816156B (zh) * | 2020-06-02 | 2023-07-21 | 南京邮电大学 | 基于说话人风格特征建模的多对多语音转换方法及系统 |
CN111862934B (zh) * | 2020-07-24 | 2022-09-27 | 思必驰科技股份有限公司 | 语音合成模型的改进方法和语音合成方法及装置 |
CN112466273A (zh) * | 2020-12-10 | 2021-03-09 | 平安科技(深圳)有限公司 | 语音合成方法、装置、电子设备及存储介质 |
-
2020
- 2020-12-10 CN CN202011433981.0A patent/CN112466273A/zh active Pending
-
2021
- 2021-03-26 WO PCT/CN2021/083185 patent/WO2022121157A1/zh active Application Filing
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022121157A1 (zh) * | 2020-12-10 | 2022-06-16 | 平安科技(深圳)有限公司 | 语音合成方法、装置、电子设备及存储介质 |
CN112765958A (zh) * | 2021-03-17 | 2021-05-07 | 中国平安人寿保险股份有限公司 | 代词消解方法、装置、电子设备及存储介质 |
WO2022227190A1 (zh) * | 2021-04-25 | 2022-11-03 | 平安科技(深圳)有限公司 | 语音合成方法、装置、电子设备及存储介质 |
CN113555003A (zh) * | 2021-07-23 | 2021-10-26 | 平安科技(深圳)有限公司 | 语音合成方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2022121157A1 (zh) | 2022-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112466273A (zh) | 语音合成方法、装置、电子设备及存储介质 | |
CN107220235B (zh) | 基于人工智能的语音识别纠错方法、装置及存储介质 | |
CN112086086A (zh) | 语音合成方法、装置、设备及计算机可读存储介质 | |
CN112397047A (zh) | 语音合成方法、装置、电子设备及可读存储介质 | |
CN112951203B (zh) | 语音合成方法、装置、电子设备及存储介质 | |
CN111639153A (zh) | 基于法律知识图谱的查询方法、装置、电子设备及介质 | |
CN114822812A (zh) | 角色对话模拟方法、装置、设备及存储介质 | |
CN113096242A (zh) | 虚拟主播生成方法、装置、电子设备及存储介质 | |
CN111862937A (zh) | 歌声合成方法、装置及计算机可读存储介质 | |
CN112820269A (zh) | 文本转语音方法、装置、电子设备及存储介质 | |
WO2022121158A1 (zh) | 语音合成方法、装置、电子设备及存储介质 | |
CN113064994A (zh) | 会议质量评估方法、装置、设备及存储介质 | |
CN113345431A (zh) | 跨语言语音转换方法、装置、设备及介质 | |
CN112951233A (zh) | 语音问答方法、装置、电子设备及可读存储介质 | |
CN112507663A (zh) | 基于文本的判断题生成方法、装置、电子设备及存储介质 | |
CN113420556A (zh) | 基于多模态信号的情感识别方法、装置、设备及存储介质 | |
CN114863945A (zh) | 基于文本的语音变声方法、装置、电子设备及存储介质 | |
CN113205814B (zh) | 语音数据标注方法、装置、电子设备及存储介质 | |
CN113887200A (zh) | 文本变长纠错方法、装置、电子设备及存储介质 | |
CN112201253A (zh) | 文字标记方法、装置、电子设备及计算机可读存储介质 | |
CN112489628A (zh) | 语音数据选择方法、装置、电子设备及存储介质 | |
CN116564322A (zh) | 语音转换方法、装置、设备及存储介质 | |
CN114842880A (zh) | 智能客服语音节奏调节方法、装置、设备及存储介质 | |
CN114155832A (zh) | 基于深度学习的语音识别方法、装置、设备及介质 | |
CN113555003A (zh) | 语音合成方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |