CN113516964A - 语音合成方法、可读存储介质及计算机程序产品 - Google Patents

语音合成方法、可读存储介质及计算机程序产品 Download PDF

Info

Publication number
CN113516964A
CN113516964A CN202110929119.7A CN202110929119A CN113516964A CN 113516964 A CN113516964 A CN 113516964A CN 202110929119 A CN202110929119 A CN 202110929119A CN 113516964 A CN113516964 A CN 113516964A
Authority
CN
China
Prior art keywords
phoneme
sequence
vector sequence
frequency spectrum
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110929119.7A
Other languages
English (en)
Other versions
CN113516964B (zh
Inventor
文成
谭兴军
韩阳
邹伟
李先刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seashell Housing Beijing Technology Co Ltd
Original Assignee
Beijing Fangjianghu Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Fangjianghu Technology Co Ltd filed Critical Beijing Fangjianghu Technology Co Ltd
Priority to CN202110929119.7A priority Critical patent/CN113516964B/zh
Publication of CN113516964A publication Critical patent/CN113516964A/zh
Application granted granted Critical
Publication of CN113516964B publication Critical patent/CN113516964B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本发明实施例提出语音合成方法、可读存储介质及计算机程序产品。方法包括:将文本转换为音素向量序列;从所述音素向量序列中提取上下文特征向量序列;将所述上下文特征向量序列中的每个向量依次输入到长短期记忆模型,得到预测的频谱;在所述长短期记忆模型输出的频谱上依次设置预设第一帧长的采样窗,每次向声码器输入一个采样窗内的帧,依次得到每个采样窗对应的音频。本发明实施例减少了语音合成的延迟。

Description

语音合成方法、可读存储介质及计算机程序产品
技术领域
本发明实施例涉及语音合成方法、可读存储介质及计算机程序产品。
背景技术
随着深度学习技术近几年的快速发展,语音相关技术也取得了长足进步。语音合成领域也涌现出很多新的算法,使得高音质语音合成落地应用成为可能。智能音箱、导航播报、智能客服等均在使用语音合成技术。
完整的语音合成系统核心包括声学模型和声码器,合成过程为:将文本序列经过声学模型生成声学特征,然后将声学特征输入声码器得到最终的语音。
现有的声学模型和声码器都为并行进行语音合成,因此,语音合成的延迟严重依赖于文本长度,当文本较长时,语音延迟较大,且并行处理期间占用的CPU和内存资源较高。
发明内容
本发明实施例提出语音合成方法、可读存储介质及计算机程序产品,以减少语音合成的延迟。
本发明实施例的技术方案是这样实现的:
一种语音合成方法,该方法包括:
将文本转换为音素向量序列;
从所述音素向量序列中提取上下文特征向量序列;
将所述上下文特征向量序列中的每个向量依次输入到长短期记忆模型,依次得到为每个向量预测的频谱;
在所述长短期记忆模型输出的频谱上依次设置预设第一帧长的采样窗,每次向声码器输入一个采样窗内的帧,依次得到每个采样窗对应的音频。
所述在所述长短期记忆模型输出的频谱上依次设置预设第一帧长的采样窗,包括:
在所述LSTM模型输出的频谱上依次设置预设第一帧长的采样窗,且相邻两个采样窗重叠预设第二帧长,第二帧长<第一帧长。
所述依次得到每个采样窗对应的音频之后,进一步包括:
在声码器输出的音频中,查找到当前采样窗与后一采样窗重叠的帧对应的音频,将查找到的音频移除。
所述将文本转换为音素向量序列,包括:
根据音素字典,将文本转换为音素序列;
将所述音素序列输入到音素嵌入模型,得到音素向量序列。
所述从所述音素向量序列中提取上下文特征向量序列,包括:
将所述音素向量序列输入到前馈转换器模型,得到从所述音素向量序列中提取的上下文特征向量序列;
将所述上下文特征向量序列输入到时长预测模型,得到每个音素的预测时长,根据每个音素的预测时长分别对对应音素进行长度扩充,得到经过时长调节后的上下文特征向量序列。
所述声码器为:多波段梅尔生成式对抗网络声码器。
所述频谱为梅尔频谱。
一种非瞬时计算机可读存储介质,所述非瞬时计算机可读存储介质存储指令,所述指令在由处理器执行时使得所述处理器执行如上任一项所述的语音合成方法的步骤。
一种计算机程序产品,包括计算机程序或指令,该计算机程序或指令被处理器执行时实现如上任一项所述的语音合成方法的步骤。
本发明实施例中,在预测频谱时,是将上下文特征向量序列中的每个向量依次输入到长短期记忆模型中,依次得到为每个向量预测的频谱,在进行声码器处理时,是在长短期记忆模型输出的频谱上依次设置预设第一帧长的采样窗,每次向声码器输入一个采样窗内的帧,依次得到每个采样窗对应的音频,从而通过采用流式的预测频谱和声码器处理,减少了语音合成的延迟。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的语音合成方法流程图;
图2为本发明另一实施例提供的语音合成方法流程图;
图3为本发明一实施例提供的语音合成装置的结构示意图;
图4为本发明实施例提供的一种电子设备的示例性结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含。例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其他步骤或单元。
下面以具体实施例对本发明的技术方案进行详细说明。下面几个具体实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
本发明实施例提出一种语音合成方法,该方法中,将文本转换为音素向量序列;从所述音素向量序列中提取上下文特征向量序列;将所述上下文特征向量序列中的每个向量依次输入到LSTM(Long Short-Term Memory,长短期记忆)模型,依次得到为每个向量预测的频谱;在LSTM模型输出的频谱上依次设置预设第一帧长的采样窗,每次向声码器输入一个采样窗内的帧,依次得到每个采样窗对应的音频。本发明实施例中,在预测频谱时,是将上下文特征向量序列中的每个向量依次输入到LSTM模型中,依次得到为每个向量预测的频谱,在进行声码器处理时,是在LSTM模型输出的频谱上依次设置预设第一帧长的采样窗,每次向声码器输入一个采样窗内的帧,依次得到每个采样窗对应的音频,从而通过采用流式的预测频谱和声码器处理,减少了语音合成的延迟。
图1为本发明一实施例提供的语音合成方法流程图,其具体步骤如下:
步骤101:将文本转换为音素向量序列。
本步骤具体包括:根据音素字典,将文本转换为音素序列;将音素序列输入到音素嵌入模型,得到音素向量序列。
其中,音素嵌入模型用于将音素序列转换为音素向量序列。在实际应用中,音素嵌入模型可以采用神经网络实现,该神经网络的层数等可根据经验等确定。
步骤102:从音素向量序列中提取上下文特征向量序列。
本步骤具体包括:将音素向量序列输入到FFT(Feed-Forward Transformer,前馈转换器)模型,得到从音素向量序列中提取的上下文特征向量序列;将上下文特征向量序列输入到时长预测模型,得到每个音素的预测时长,根据每个音素的预测时长分别对对应音素进行长度扩充,得到经过时长调节后的上下文特征向量序列。
其中,FFT模型用于从音素向量序列中提取上下文特征向量序列。在实际应用中,FFT模型可以采用神经网络实现,该神经网络的层数等可根据经验等确定。
时长预测模型用于从上下文特征向量序列中分析出每个音素的预测时长。在实际应用中,时长预测模型可以采用神经网络实现,该神经网络的层数等可根据经验等确定。
步骤103:将上下文特征向量序列中的每个向量依次输入到LSTM模型,依次得到为每个向量预测的频谱。
具体地,是将经过时长调节后的上下文特征向量序列中的每个向量依次输入到LSTM模型。
一可选实施例中,频谱可以是Mel(梅尔)频谱。
其中,LSTM模型用于从上下文特征向量序列中的每个向量中分析出为每个向量预测的频谱。在实际应用中,LSTM模型的层数等可根据经验等确定。
步骤104:在LSTM模型输出的频谱上依次设置预设第一帧长的采样窗,每次向声码器输入一个采样窗内的帧,依次得到每个采样窗对应的音频。
LSTM模型输出的频谱实质上可以一个二维向量:[帧编号,频率]来表示,即频谱代表的是各帧的频率,这里,每个采样窗内包含第一帧长的帧,例如:第一帧长为m帧,则一个采样窗内共包含频率的m帧。第一帧长的取值可根据经验等确定。一可选实施例中,声码器为:Multi-band-MelGan(Multi-band-Mel Generative adversarial network,多波段梅尔生成式对抗网络)声码器。
需要说明的是,上述实施例中的音素嵌入模型、FFT模型、时长预测模型和LSTM模型,这些模型在训练时是一起训练的,训练样本为文本样本,将文本样本转换为音素序列后输入到音素嵌入模型,再经由FFT模型、时长预测模型和LSTM模型得到与文本样本对应的预测频谱,将该预测频谱与文本样本的真实语音的频谱进行比对,根据比对结果调整音素嵌入模型、FFT模型、时长预测模型和LSTM模型,直至各模型收敛。
本发明实施例中,在预测频谱时,是将上下文特征向量序列中的每个向量依次输入到LSTM模型中,依次得到为每个向量预测的频谱,在进行声码器处理时,是在LSTM模型输出的频谱上依次设置预设第一帧长的采样窗,每次向声码器输入一个采样窗内的帧,依次得到每个采样窗对应的音频,从而通过采用流式的预测频谱和声码器处理,减少了语音合成的延迟;且,语音合成延迟不依赖文本长度,近乎为常数;且,每次输入LSTM模型的向量长度和每次输入声码器的帧长度大大减少,降低了对CPU和内存的占用,进一步提高了语音合成的实时性,且在设备端和服务端都可应用。
一可选实施例中,步骤104中,在LSTM模型输出的频谱上依次设置预设第一帧长的采样窗,包括:
在LSTM模型输出的频谱上依次设置预设第一帧长的采样窗,且相邻两个采样窗重叠预设第二帧长,第二帧长<第一帧长。
且,步骤104中,依次得到每个采样窗对应的音频之后,进一步包括:在声码器输出的音频中,查找到当前采样窗与后一采样窗重叠的帧对应的音频,将查找到的音频删除。其中,由于最后一个采样窗不存在与后一采样窗重叠的帧,因此无需对最后一个采样窗对应的音频进行移除操作。
图2为本发明另一实施例提供的语音合成方法流程图,其具体步骤如下:
步骤201:根据音素字典,将输入文本转换为音素序列。
设得到的音素序列为w1,w2,…,wU。其中,U为文本的长度(即文本中包含的单词总数),wi表示文本中的第i个单词对应的音素信息。
步骤202:将音素序列输入到已训练好的音素嵌入(Embedding)模型,以便将音素序列转换为音素向量序列。
设得到的音素向量序列为:x1,x2,…,xU。其中,xi表示文本中的第i个单词对应的音素向量。
本步骤中,是将音素序列w1,w2,…,wU并行输入到已训练好的音素嵌入模型中。
步骤203:将音素向量序列输入到已训练好的FFT模型,以提取上下文特征,FFT模型的输出为上下文特征向量序列。
设得到的上下文特征向量序列为:y1,y2,…,yU。其中,yi表示文本中的第i个音素对应的上下文特征向量。
本步骤中,是将音素向量序列x1,x2,…,xU并行输入到已训练好的FFT模型中。
步骤204:将上下文特征向量序列输入到已训练好的时长预测模型,以得到每个音素的预测时长,根据每个音素的预测时长分别对对应音素进行长度扩充,扩充后得到经过时长调节后的上下文特征向量序列。
设经过时长调节后的上下文特征向量序列为:t1,t2,…,tT。其中,T为输入文本的真实语音对应的真实频谱的帧数。
对于输入文本,会预先获取该文本的真实语音,并将该真实语音转化为真实频谱,该真实频谱的总帧数为T。
本步骤中,是将上下文特征向量序列为:y1,y2,…,yU并行输入到已训练好的时长预测模型中。
步骤205:将经过时长调节后的上下文特征向量序列中的每个向量依次输入到已训练好的LSTM模型,得到为每个向量预测的频谱。
例如:经过时长调节后的上下文特征向量序列为:t1,t2,…,tT,则依次将t1、t2、…、tT输入到已训练好的LSTM模型,即每次只输入一个经过时长调节后的上下文特征向量。
需要说明的是,步骤202中的音素嵌入模型、步骤203中的FFT模型、步骤204中的时长预测模型和步骤205中的LSTM模型,这些模型在训练时是一起训练的,训练样本为文本样本,将文本样本转换为音素序列后输入到音素嵌入模型,再经由FFT模型、时长预测模型和LSTM模型得到与文本样本对应的预测频谱,将该预测频谱与文本样本的真实语音的频谱进行比对,根据比对结果调整音素嵌入模型、FFT模型、时长预测模型和LSTM模型,直至各模型收敛。
步骤206:按照频谱在LSTM模型上的输出时间的从先到后,在频谱上依次设置预设第一帧长的当前采样窗,且当前采样窗的窗头与前一采样窗的窗尾重叠预设第二帧长,将当前采样窗内的帧输入到声码器中。
例如:设第一帧长为60帧,第二帧长为10帧,则:
按照输出时间的从先到后,在LSTM模型输出的频谱上依次设置长度为60帧的采样窗,且当前采样窗的窗头与前一采样窗的窗尾重叠10帧,即:
先在频谱上设置第一个采样窗,共60帧,则第一个采样窗内为频谱的1~60帧,则将1~60帧输入声码器,声码器输出1~60帧对应的音频;
再在频谱上设置第二个采样窗,共60帧,且窗头的前10帧即第一个采样窗的窗尾的后10帧,则第二个采样窗内为频谱的51~110帧,则将51~110帧输入声码器,声码器输出51~110帧对应的音频;
再在频谱上设置第三个采样窗,共60帧,且窗头的前10帧即第二个采样窗的窗尾的后10帧),则第三个采样窗内为频谱的101~160帧,则将101~160帧输入声码器,声码器输出101~160帧对应的音频;
依此类推,直至LSTM模型输出的所有频谱都已被输入到声码器。
由于相邻两次输入声码器的帧有重叠,则需要对声码器输出的音频进行去重处理,即,在声码器输出的音频中,查找到当前采样窗与后一采样窗重叠的帧对应的音频,将查找到的音频移除。例如:声码器输出1~60帧对应的音频时,将51~60帧对应的音频移除;声码器输出51~110帧对应的音频时,将101~110帧对应的音频移除;依此类推。其中,每一帧固定对应预设第三长度的音频,因此可根据重叠帧的位置(即当前采样窗与后一采样窗重叠的帧的位置)计算出其在输出音频中的位置,从而将对应位置的音频移除即可。
本发明实施例中,声码器可采用Multi-band-MelGan声码器。
图3为本发明实施例提供的语音合成装置的结构示意图,该装置主要包括:
频谱预测模块31,用于将文本转换为音素向量序列;从音素向量序列中提取上下文特征向量序列;将上下文特征向量序列中的每个向量依次输入到LSTM模型,依次得到为每个向量预测的频谱。
声码器模块32,用于在LSTM模型输出的频谱上依次设置预设第一帧长的采样窗,每次向声码器输入一个采样窗内的帧,依次得到每个采样窗对应的音频。
一可选实施例中,声码器模块32在LSTM模型输出的频谱上依次设置预设第一帧长的采样窗,包括:
在LSTM模型输出的频谱上依次设置预设第一帧长的采样窗,且相邻两个采样窗重叠预设第二帧长,第二帧长<第一帧长。
一可选实施例中,声码器模块32依次得到每个采样窗对应的音频之后,进一步包括:在声码器输出的音频中,查找到当前采样窗与后一采样窗重叠的帧对应的音频,将查找到的音频删除。
一可选实施例中,频谱预测模块31将文本转换为音素向量序列,包括:根据音素字典,将文本转换为音素序列;将音素序列输入到音素嵌入模型,得到音素向量序列。
一可选实施例中,频谱预测模块31从音素向量序列中提取上下文特征向量序列,包括:将音素向量序列输入到FFT模型,得到从音素向量序列中提取的上下文特征向量序列;将上下文特征向量序列输入到时长预测模型,得到每个音素的预测时长,根据每个音素的预测时长分别对对应音素进行长度扩充,得到经过时长调节后的上下文特征向量序列。
一可选实施例中,声码器模块32将延长后的当前采样窗内的帧输入到声码器中为:将延长后的当前采样窗内的帧输入到Multi-band-MelGan声码器中。
本申请实施例还提供一种计算机程序产品,包括计算机程序或指令,该计算机程序或指令被处理器执行时实现如上任一实施例所述的语音合成方法的步骤。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储指令,所述指令在由处理器执行时可执行如上所述语音合成方法中的步骤。实际应用中,所述的计算机可读介质可以是上述实施例各设备/装置/系统所包含的,也可以是单独存在,而未装配入该设备/装置/系统中。其中,在计算机可读存储介质中存储指令,其存储的指令在由处理器执行时可执行如上语音合成方法中的步骤。
根据本申请公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件,或者上述的任意合适的组合,但不用于限制本申请保护的范围。在本申请公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
如图4所示,本发明实施例还提供一种电子设备。如图4所示,其示出了本发明实施例所涉及的电子设备的结构示意图,具体来讲:
该电子设备可以包括一个或一个以上处理核心的处理器41、一个或一个以上计算机可读存储介质的存储器42以及存储在存储器上并可在处理器上运行的计算机程序。在执行所述存储器42的程序时,可以实现上述语音合成方法。
具体的,实际应用中,该电子设备还可以包括电源43、输入输出单元44等部件。本领域技术人员可以理解,图4中示出的电子设备的结构并不构成对该电子设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器41是该电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器42内的软件程序和/或模块,以及调用存储在存储器42内的数据,执行服务器的各种功能和处理数据,从而对该电子设备进行整体监控。
存储器42可用于存储软件程序以及模块,即上述计算机可读存储介质。处理器41通过运行存储在存储器42的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器42可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据服务器的使用所创建的数据等。此外,存储器42可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器42还可以包括存储器控制器,以提供处理器41对存储器42的访问。
该电子设备还包括给各个部件供电的电源43,可以通过电源管理系统与处理器41逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源43还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该电子设备还可包括输入输出单元44,该输入单元输出44可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。该输入单元输出44还可以用于显示由用户输入的信息或提供给用户的信息以及各种图像用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。
本申请附图中的流程图和框图,示出了按照本申请公开的各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或者代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应该注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同附图中所标准的顺序发生。例如,两个连接地表示的方框实际上可以基本并行地执行,它们有时也可以按照相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或者流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,即使这样的组合或结合没有明确记载于本申请中。特别地,在不脱离本申请精神和教导的情况下,本申请的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,所有这些组合和/或结合均落入本申请公开的范围。
本文中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思路,并不用于限制本申请。对于本领域的技术人员来说,可以依据本发明的思路、精神和原则,在具体实施方式及应用范围上进行改变,其所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。

Claims (9)

1.一种语音合成方法,其特征在于,该方法包括:
将文本转换为音素向量序列;
从所述音素向量序列中提取上下文特征向量序列;
将所述上下文特征向量序列中的每个向量依次输入到长短期记忆模型,依次得到为每个向量预测的频谱;
在所述长短期记忆模型输出的频谱上依次设置预设第一帧长的采样窗,每次向声码器输入一个采样窗内的帧,依次得到每个采样窗对应的音频。
2.根据权利要求1所述的方法,其特征在于,所述在所述长短期记忆模型输出的频谱上依次设置预设第一帧长的采样窗,包括:
在所述LSTM模型输出的频谱上依次设置预设第一帧长的采样窗,且相邻两个采样窗重叠预设第二帧长,第二帧长<第一帧长。
3.根据权利要求2所述的方法,其特征在于,所述依次得到每个采样窗对应的音频之后,进一步包括:
在声码器输出的音频中,查找到当前采样窗与后一采样窗重叠的帧对应的音频,将查找到的音频移除。
4.根据权利要求1所述的方法,其特征在于,所述将文本转换为音素向量序列,包括:
根据音素字典,将文本转换为音素序列;
将所述音素序列输入到音素嵌入模型,得到音素向量序列。
5.根据权利要求1所述的方法,其特征在于,所述从所述音素向量序列中提取上下文特征向量序列,包括:
将所述音素向量序列输入到前馈转换器模型,得到从所述音素向量序列中提取的上下文特征向量序列;
将所述上下文特征向量序列输入到时长预测模型,得到每个音素的预测时长,根据每个音素的预测时长分别对对应音素进行长度扩充,得到经过时长调节后的上下文特征向量序列。
6.根据权利要求1所述的方法,其特征在于,所述声码器为:多波段梅尔生成式对抗网络声码器。
7.根据权利要求1所述的方法,其特征在于,所述频谱为梅尔频谱。
8.一种非瞬时计算机可读存储介质,所述非瞬时计算机可读存储介质存储指令,其特征在于,所述指令在由处理器执行时使得所述处理器执行如权利要求1至7中任一项所述的语音合成方法的步骤。
9.一种计算机程序产品,包括计算机程序或指令,其特征在于,该计算机程序或指令被处理器执行时实现如权利要求1至7中任一项所述的语音合成方法的步骤。
CN202110929119.7A 2021-08-13 2021-08-13 语音合成方法及可读存储介质 Active CN113516964B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110929119.7A CN113516964B (zh) 2021-08-13 2021-08-13 语音合成方法及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110929119.7A CN113516964B (zh) 2021-08-13 2021-08-13 语音合成方法及可读存储介质

Publications (2)

Publication Number Publication Date
CN113516964A true CN113516964A (zh) 2021-10-19
CN113516964B CN113516964B (zh) 2022-05-27

Family

ID=78068390

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110929119.7A Active CN113516964B (zh) 2021-08-13 2021-08-13 语音合成方法及可读存储介质

Country Status (1)

Country Link
CN (1) CN113516964B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023184874A1 (zh) * 2022-03-31 2023-10-05 美的集团(上海)有限公司 语音合成方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180268806A1 (en) * 2017-03-14 2018-09-20 Google Inc. Text-to-speech synthesis using an autoencoder
CN111968618A (zh) * 2020-08-27 2020-11-20 腾讯科技(深圳)有限公司 语音合成方法、装置
CN112489618A (zh) * 2019-09-12 2021-03-12 微软技术许可有限责任公司 利用多级别上下文特征的神经文本到语音合成
CN112712812A (zh) * 2020-12-24 2021-04-27 腾讯音乐娱乐科技(深圳)有限公司 音频信号生成方法、装置、设备以及存储介质
CN112802446A (zh) * 2019-11-14 2021-05-14 腾讯科技(深圳)有限公司 音频合成方法及装置、电子设备和计算机可读存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180268806A1 (en) * 2017-03-14 2018-09-20 Google Inc. Text-to-speech synthesis using an autoencoder
CN112489618A (zh) * 2019-09-12 2021-03-12 微软技术许可有限责任公司 利用多级别上下文特征的神经文本到语音合成
CN112802446A (zh) * 2019-11-14 2021-05-14 腾讯科技(深圳)有限公司 音频合成方法及装置、电子设备和计算机可读存储介质
CN111968618A (zh) * 2020-08-27 2020-11-20 腾讯科技(深圳)有限公司 语音合成方法、装置
CN112712812A (zh) * 2020-12-24 2021-04-27 腾讯音乐娱乐科技(深圳)有限公司 音频信号生成方法、装置、设备以及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023184874A1 (zh) * 2022-03-31 2023-10-05 美的集团(上海)有限公司 语音合成方法和装置

Also Published As

Publication number Publication date
CN113516964B (zh) 2022-05-27

Similar Documents

Publication Publication Date Title
US10741170B2 (en) Speech recognition method and apparatus
CN112102815B (zh) 语音识别方法、装置、计算机设备和存储介质
EP3192070B1 (en) Text-to-speech with emotional content
KR102413692B1 (ko) 음성 인식을 위한 음향 점수 계산 장치 및 방법, 음성 인식 장치 및 방법, 전자 장치
CN106297800B (zh) 一种自适应的语音识别的方法和设备
US20170140750A1 (en) Method and device for speech recognition
CN109686383B (zh) 一种语音分析方法、装置及存储介质
US20240021202A1 (en) Method and apparatus for recognizing voice, electronic device and medium
CN110176230B (zh) 一种语音识别方法、装置、设备和存储介质
KR101131278B1 (ko) 대화 로그를 이용한 학습 기반 대화 시스템 성능 향상 방법 및 그 장치
CN112735482A (zh) 基于联合深度神经网络的端点检测方法及系统
US20140222431A1 (en) Method and apparatus for speech recognition
CN112489623A (zh) 语种识别模型的训练方法、语种识别方法及相关设备
CN114664290B (zh) 声音事件检测方法、装置及可读存储介质
CN113516964B (zh) 语音合成方法及可读存储介质
CN111554270B (zh) 训练样本筛选方法及电子设备
CN113327596B (zh) 语音识别模型的训练方法、语音识别方法和装置
JP7291099B2 (ja) 音声認識方法及び装置
CN112397053B (zh) 语音识别方法、装置、电子设备及可读存储介质
CN114220415A (zh) 一种音频合成方法、装置、电子设备及存储介质
JP7028203B2 (ja) 音声認識装置、音声認識方法、プログラム
WO2024008215A2 (zh) 语音情绪识别方法及装置
CN113592559B (zh) 口音识别模型建立方法、装置及存储介质和电子设备
CN115223547A (zh) 数据处理方法及设备
CN117456996A (zh) 语音识别方法及装置、存储介质、电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20220114

Address after: 100085 Floor 101 102-1, No. 35 Building, No. 2 Hospital, Xierqi West Road, Haidian District, Beijing

Applicant after: Seashell Housing (Beijing) Technology Co.,Ltd.

Address before: 101399 room 24, 62 Farm Road, Erjie village, Yangzhen, Shunyi District, Beijing

Applicant before: Beijing fangjianghu Technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant