CN116863912A - 语音合成方法、装置、设备及介质 - Google Patents

语音合成方法、装置、设备及介质 Download PDF

Info

Publication number
CN116863912A
CN116863912A CN202310983242.6A CN202310983242A CN116863912A CN 116863912 A CN116863912 A CN 116863912A CN 202310983242 A CN202310983242 A CN 202310983242A CN 116863912 A CN116863912 A CN 116863912A
Authority
CN
China
Prior art keywords
text
phoneme
current
semantic
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310983242.6A
Other languages
English (en)
Inventor
强春雨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Priority to CN202310983242.6A priority Critical patent/CN116863912A/zh
Publication of CN116863912A publication Critical patent/CN116863912A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L2013/021Overlap-add techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L2013/083Special characters, e.g. punctuation marks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)

Abstract

本公开实施例提供一种语音合成方法、装置、设备及介质,涉及语音合成技术领域。该方法包括:获取待处理文件序列和待处理文本序列中各个文本的音素信息和语义信息,将各个文本的音素信息和语义信息进行拼接,生成各个文本的音素语义融合特征,其中,待处理文本序列包括当前文本、上一文本和下一文本,各个文本的音素语义融合特征包括当前文本的音素语义融合特征、上一文本的音素语义融合特征、下一文本的音素语义融合特征;将各个文本的音素语义融合特征输入语音合成模型中,得到当前文本的预测声学特征;根据当前文本的预测声学特征,生成当前文本的语音信息。该方法能够融合文本的语义信息以及上下文信息,有效提升语音的表现力以及自然度。

Description

语音合成方法、装置、设备及介质
技术领域
本公开涉及语音合成技术,具体而言,涉及一种语音合成方法、语音合成装置、电子设备以及计算机可读存储介质。
背景技术
语音合成是智能语音交互的核心技术之一,将文字序列转换为自然逼真的语音波形,反馈传递给用户。语音合成技术涉及语音信号处理、模式识别、自然语言处理、声学、语言学等多个学科,是信息处理领域不可或缺的一门关键技术。
语音合成技术可以分为前端文本分析和后端波形合成两大部分。在相关技术中,前端部分采用声学模型分析文本,具体的将文本的音素序列输入到声学模型中,通过声学模型的注意力机制学习到时长信息,进而预测出音频特征;后端部分采用声码器模型进行波形合成,即通过声码器模型对前端预测的音频特征进行处理,合成语音波形。
然而,在相关技术的语音合成方法中,由于音素序列相对于文本所包含的语义信息是缺失的,影响合成语音的表现力,并且在合成当前文本时候没有考虑上下文信息,影响合成语音的自然度。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开实施例提供一种语音合成方法、语音合成装置、电子设备以及计算机可读存储介质,能够融合文本的语义信息以及上下文信息,有效提升语音的表现力以及自然度。
本公开实施例提供一种语音合成方法,包括:获取待处理文件序列和所述待处理文本序列中各个文本的音素信息和语义信息;其中,所述待处理文本序列包括当前文本、所述当前文本的上一文本和所述当前文本的下一文本;将所述当前文本的音素信息和语义信息进行拼接,生成所述当前文本的音素语义融合特征;将所述上一文本的音素信息和语义信息进行拼接,生成所述上一文本的音素语义融合特征;将所述下一文本的音素信息和语义信息进行拼接,生成所述下一文本的音素语义融合特征;将所述当前文本的音素语义融合特征、所述上一文本的音素语义融合特征和所述下一文本的音素语义融合特征输入语音合成模型中,得到所述当前文本的预测声学特征;根据所述当前文本的预测声学特征,生成所述当前文本的语音信息。
在本公开的一些示例性实施例中,所述语音合成模型包括文本隐层编码器、声学编码器和声学解码器;其中,所述将所述当前文本的音素语义融合特征、所述上一文本的音素语义融合特征和所述下一文本的音素语义融合特征输入语音合成模型中,得到所述当前文本的预测声学特征,包括:将所述上一文本的音素语义融合特征输入所述文本隐层编码器进行编码处理,得到所述上一文本的编码特征;对所述下一文本的音素语义融合特征进行反转处理,将反转处理后的所述下一文本的音素语义融合特征输入所述文本隐层编码器进行编码处理,得到所述下一文本的编码特征;将所述当前文本的音素语义融合特征、所述上一文本的编码特征和所述下一文本的编码特征输入所述声学编码器进行编码处理,得到所述当前文本的编码特征;将所述当前文本的编码特征输入所述声学解码器进行解码处理,得到所述当前文本的预测声学特征。
在本公开的一些示例性实施例中,所述声学编码器包括卷积层和双向长短期记忆网络层,所述双向长短期记忆网络层包括正向记忆单元和反向记忆单元;其中,所述将所述当前文本的音素语义融合特征、所述上一文本的编码特征和所述下一文本的编码特征输入所述声学编码器进行编码处理,得到所述当前文本的编码特征,包括:将所述当前文本的音素语义融合特征输入所述卷积层进行卷积处理,得到所述当前文本的卷积特征;将所述当前文本的卷积特征和所述上一文本的编码特征输入所述正向记忆单元进行编码处理,得到所述当前文本的正向编码特征;其中,所述上一文本的编码特征为所述正向记忆单元的正向初始记忆特征;将所述当前文本的卷积特征和所述下一文本的编码特征输入所述反向初始单元进行编码处理,得到所述当前文本的反向编码特征;其中,所述下一文本的编码特征为所述反向记忆单元的反向初始记忆特征;根据所述当前文本的正向编码特征和所述当前文本的反向编码特征,得到所述当前文本的编码特征。
在本公开的一些示例性实施例中,所述语音合成模型还包括音频隐层编码器,所述声学解码器包括门控循环单元层;其中,所述将所述当前文本的编码特征输入所述声学解码器进行解码处理,得到所述当前文本的预测声学特征,包括:获取所述上一文本对应的音频信息;将所述上一文本对应的音频信息输入所述音频隐层编码器进行编码处理,得到所述上一文本的音频特征;将所述当前文本的编码特征和所述上一文本的音频特征输入所述门控循环单元层的记忆单元进行解码处理,得到所述当前文本的预测声学特征;其中,所述上一文本的音频特征为所述记忆单元的初始记忆特征。
在本公开的一些示例性实施例中,所述语音合成模型还包括注意力机制;其中,所述将所述当前文本的编码特征输入所述声学解码器进行解码处理,得到所述当前文本的预测声学特征,包括:获取目标对象的标识信息;其中,所述目标对象的标识信息对应有目标语音音色;通过所述注意力机制,根据所述目标对象的标识信息对所述当前文本的编码特征进行预处理,获得预处理的所述当前文本的编码特征;其中,预处理的所述当前文本的编码特征融合了所述目标语音音色;将预处理的所述当前文本的编码特征输入所述声学解码器进行解码处理,得到所述当前文本的预测声学特征。
在本公开的一些示例性实施例中,所述将所述当前文本的音素信息和语义信息进行拼接,生成所述当前文本的音素语义融合特征,包括:根据所述当前文本的音素信息,获取所述当前文本的音素序列;根据所述当前文本的语义信息,获取所述当前文本的字符序列;根据所述当前文本的音素序列的长度对所述当前文本的字符序列进行采样,得到采样后的所述当前文本的字符序列;其中,所述当前文本的音素序列的长度与采样后的所述当前文本的字符序列的长度相同;对所述当前文本的音素信息进行编码处理,得到所述当前文本的音素特征;对采样后的所述当前文本的字符序列进行编码处理,得到所述当前文本的语义特征;将所述当前文本的音素特征与所述当前文本的语义特征进行拼接,生成所述当前文本的音素语义融合特征。
在本公开的一些示例性实施例中,所述将所述上一文本的音素信息和语义信息进行拼接,生成所述上一文本的音素语义融合特征,包括:根据所述上一文本的音素信息,获取所述上一文本的音素序列;根据所述上一文本的语义信息,获取所述上一文本的字符序列;根据所述上一文本的音素序列的长度对所述上一文本的字符序列进行采样,得到采样后的所述上一文本的字符序列;其中,所述上一文本的音素序列的长度与采样后的所述上一文本的字符序列的长度相同;对所述上一文本的音素信息进行编码处理,得到所述上一文本的音素特征;对采样后的所述上一文本的字符序列进行编码处理,得到所述上一文本的语义特征;将所述上一文本的音素特征与所述上一文本的语义特征进行拼接,生成所述上一文本的音素语义融合特征。
在本公开的一些示例性实施例中,所述将所述下一文本的音素信息和语义信息进行拼接,生成所述下一文本的音素语义融合特征,包括:根据所述下一文本的音素信息,获取所述下一文本的音素序列;根据所述下一文本的语义信息,获取所述下一文本的字符序列;根据所述下一文本的音素序列的长度对所述下一文本的字符序列进行采样,得到采样后的所述下一文本的字符序列;其中,所述下一文本的音素序列的长度与采样后的所述下一文本的字符序列的长度相同;对所述下一文本的音素信息进行编码处理,得到所述下一文本的音素特征;对采样后的所述下一文本的字符序列进行编码处理,得到所述下一文本的语义特征;将所述下一文本的音素特征与所述下一文本的语义特征进行拼接,生成所述下一文本的音素语义融合特征。
根据本公开实施例的另一方面,提供一种语音合成装置,包括:文本信息获取单元,被配置为获取待处理文件序列和所述待处理文本序列中各个文本的音素信息和语义信息;其中,所述待处理文本序列包括当前文本、所述当前文本的上一文本和所述当前文本的下一文本;特征生成单元,被配置为将所述当前文本的音素信息和语义信息进行拼接,生成所述当前文本的音素语义融合特征;将所述上一文本的音素信息和语义信息进行拼接,生成所述上一文本的音素语义融合特征;将所述下一文本的音素信息和语义信息进行拼接,生成所述下一文本的音素语义融合特征;声学特征预测单元,被配置为将所述当前文本的音素语义融合特征、所述上一文本的音素语义融合特征和所述下一文本的音素语义融合特征输入语音合成模型中,得到所述当前文本的预测声学特征;语音合成单元,被配置为根据所述当前文本的预测声学特征,生成所述当前文本的语音信息。
在本公开的一些示例性实施例中,所述语音合成模型包括文本隐层编码器、声学编码器和声学解码器;其中,所述声学特征预测单元还被配置为:将所述上一文本的音素语义融合特征输入所述文本隐层编码器进行编码处理,得到所述上一文本的编码特征;对所述下一文本的音素语义融合特征进行反转处理,将反转处理后的所述下一文本的音素语义融合特征输入所述文本隐层编码器进行编码处理,得到所述下一文本的编码特征;将所述当前文本的音素语义融合特征、所述上一文本的编码特征和所述下一文本的编码特征输入所述声学编码器进行编码处理,得到所述当前文本的编码特征;将所述当前文本的编码特征输入所述声学解码器进行解码处理,得到所述当前文本的预测声学特征。
在本公开的一些示例性实施例中,所述声学编码器包括卷积层和双向长短期记忆网络层,所述双向长短期记忆网络层包括正向记忆单元和反向记忆单元;其中,所述声学特征预测单元还被配置为:将所述当前文本的音素语义融合特征输入所述卷积层进行卷积处理,得到所述当前文本的卷积特征;将所述当前文本的卷积特征和所述上一文本的编码特征输入所述正向记忆单元进行编码处理,得到所述当前文本的正向编码特征;其中,所述上一文本的编码特征为所述正向记忆单元的正向初始记忆特征;将所述当前文本的卷积特征和所述下一文本的编码特征输入所述反向初始单元进行编码处理,得到所述当前文本的反向编码特征;其中,所述下一文本的编码特征为所述反向记忆单元的反向初始记忆特征;根据所述当前文本的正向编码特征和所述当前文本的反向编码特征,得到所述当前文本的编码特征。
在本公开的一些示例性实施例中,所述语音合成模型还包括音频隐层编码器,所述声学解码器包括门控循环单元层;其中,所述声学特征预测单元还被配置为:获取所述上一文本对应的音频信息;将所述上一文本对应的音频信息输入所述音频隐层编码器进行编码处理,得到所述上一文本的音频特征;将所述当前文本的编码特征和所述上一文本的音频特征输入所述门控循环单元层的记忆单元进行解码处理,得到所述当前文本的预测声学特征;其中,所述上一文本的音频特征为所述记忆单元的初始记忆特征。
在本公开的一些示例性实施例中,所述语音合成模型还包括注意力机制;其中,所述声学特征预测单元还被配置为:获取目标对象的标识信息;其中,所述目标对象的标识信息对应有目标语音音色;通过所述注意力机制,根据所述目标对象的标识信息对所述当前文本的编码特征进行预处理,获得预处理的所述当前文本的编码特征;其中,预处理的所述当前文本的编码特征融合了所述目标语音音色;将预处理的所述当前文本的编码特征输入所述声学解码器进行解码处理,得到所述当前文本的预测声学特征。
在本公开的一些示例性实施例中,所述特征生成单元还被配置为:根据所述当前文本的音素信息,获取所述当前文本的音素序列;根据所述当前文本的语义信息,获取所述当前文本的字符序列;根据所述当前文本的音素序列的长度对所述当前文本的字符序列进行采样,得到采样后的所述当前文本的字符序列;其中,所述当前文本的音素序列的长度与采样后的所述当前文本的字符序列的长度相同;对所述当前文本的音素信息进行编码处理,得到所述当前文本的音素特征;对采样后的所述当前文本的字符序列进行编码处理,得到所述当前文本的语义特征;将所述当前文本的音素特征与所述当前文本的语义特征进行拼接,生成所述当前文本的音素语义融合特征。
在本公开的一些示例性实施例中,所述特征生成单元还被配置为:根据所述上一文本的音素信息,获取所述上一文本的音素序列;根据所述上一文本的语义信息,获取所述上一文本的字符序列;根据所述上一文本的音素序列的长度对所述上一文本的字符序列进行采样,得到采样后的所述上一文本的字符序列;其中,所述上一文本的音素序列的长度与采样后的所述上一文本的字符序列的长度相同;对所述上一文本的音素信息进行编码处理,得到所述上一文本的音素特征;对采样后的所述上一文本的字符序列进行编码处理,得到所述上一文本的语义特征;将所述上一文本的音素特征与所述上一文本的语义特征进行拼接,生成所述上一文本的音素语义融合特征。
在本公开的一些示例性实施例中,所述特征生成单元还被配置为:根据所述下一文本的音素信息,获取所述下一文本的音素序列;根据所述下一文本的语义信息,获取所述下一文本的字符序列;根据所述下一文本的音素序列的长度对所述下一文本的字符序列进行采样,得到采样后的所述下一文本的字符序列;其中,所述下一文本的音素序列的长度与采样后的所述下一文本的字符序列的长度相同;对所述下一文本的音素信息进行编码处理,得到所述下一文本的音素特征;对采样后的所述下一文本的字符序列进行编码处理,得到所述下一文本的语义特征;将所述下一文本的音素特征与所述下一文本的语义特征进行拼接,生成所述下一文本的音素语义融合特征。
本公开实施例提供一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,处理器被配置为执行可执行指令,以实现上述的语音合成方法。
本公开实施例提供一种计算机可读存储介质,当计算机可读存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行上述的语音合成方法。
本公开实施例提供一种计算机程序产品,包括计算机程序,计算机程序被处理器执行时实现上述的语音合成方法。
本公开的实施例提供的技术方案至少带来以下有益效果:根据当前文本的音素信息和语义信息生成当前文本的音素语义融合特征,根据上一文本的音素信息和语义信息生成上一文本的音素语义融合特征,以及根据下一文本的音素信息和语义信息生成下一文本的音素语义融合特征,然后将生成的各个文本的音素语义融合特征输入语音合成模型中,通过语音合成模型得到当前文本的预测声学特征,进而根据当前文本的预测声学特征,生成当前文本的语音信息。一方面,音素语义融合特征包含了文本的音素信息和语义信息,将各个文本的音素语义融合特征输入语音合成模型中,使得语音合成模型可以学习到文本的音素表征信息和语义表征信息,有效提升语音的表现力;另一方面,将上以文本和下一文本的音素语义融合特征输入语音合成模型中,使得模型在预测当前文本的声学特征时考虑到上下文语义信息,有效提升语音的自然度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了可以应用本公开实施例的语音合成方法的示例性系统架构的示意图;
图2是根据一示例性实施例示出的一种语音合成方法的流程图;
图3是根据一示例性实施例示出的生成当前文本的音素语义融合特征的流程图;
图4是根据一示例性实施例示出的生成上一文本的音素语义融合特征的流程图;
图5是根据一示例性实施例示出的生成下一文本的音素语义融合特征的流程图;
图6是根据一示例性实施例示出的语音合成模型的结构示意图;
图7是根据一示例性实施例示出的根据文本的音素语义融合特征获得当前文本的预测声学特征的流程图;
图8是根据一示例性实施例示出的基于Bi-LSTM网络层实现编码的示意图;
图9是根据又一示例性实施例示出的语音合成模型的结构示意图;
图10是根据一示例性实施例示出的训练语音合成模型的流程图;
图11是根据又一示例性实施例示出的一种语音合成方法的流程图;
图12是根据一示例性实施例示出的一种语音合成装置的框图;
图13是根据一示例性实施例示出的适于用来实现本公开示例性实施例的电子设备的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施例。然而,示例实施例能够以多种形式实施,且不应被理解为限于在此阐述的实施例;相反,提供这些实施例使得本公开将全面和完整,并将示例实施例的构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
本公开所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本公开的各方面。
附图仅为本公开的示意性图解,图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在至少一个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和步骤,也不是必须按所描述的顺序执行。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
本说明书中,用语“一个”、“一”、“该”、“所述”和“至少一个”用以表示存在至少一个要素/组成部分/等;用语“包含”、“包括”和“具有”用以表示开放式的包括在内的意思并且是指除了列出的要素/组成部分/等之外还可存在另外的要素/组成部分/等;用语“第一”、“第二”和“第三”等仅作为标记使用,不是对其对象的数量限制。
图1示出了可以应用本公开实施例的语音合成方法的示例性系统架构的示意图。如图1所示,该系统架构可以包括服务器101、网络102和客户端103。网络102用以在客户端103和服务器101之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
在示例性实施例中,与服务器101进行数据传输的客户端103可以包括但不限于智能手机、平板电脑、笔记本电脑、智能音箱、数字助理、AR(Augmented Reality,增强现实)设备、VR(Virtual Reality,虚拟现实)设备、智能可穿戴设备等类型的终端设备,或者,客户端103也可以是个人计算机,比如膝上型便携计算机和台式计算机等等。可选的,电子设备上运行的操作系统可以包括但不限于安卓系统、IOS系统、linux、windows等。
服务器101可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。在一些实际应用中,服务器101也可以是网络平台的服务器,网络平台例如可以是交易平台、直播平台、社交平台或者音频平台等,本公开实施例对此不作限定。其中,服务器可以是一台服务器,也可以是多台服务器形成的集群,本公开对于服务器的具体架构不做限定。
本公开实施例中,客户端103可以是安装有各种应用的终端设备,如安装视频编辑应用的终端设备,用户可以通过客户端103所提供的视频编辑应用输入文本信息,将文本信息发送至服务器101,然后通过服务器101对输入的文本信息进行分析,合成文本信息对应的音频,并将合成的音频返回给客户端103,通过客户端103播放合成的音频。
在示例性实施例中,服务器101用于语音合成的过程可以是:服务器101获取待处理文件序列和待处理文本序列中各个文本的音素信息和语义信息,其中,待处理文本序列包括当前文本、当前文本的上一文本和当前文本的下一文本;服务器101将当前文本的音素信息和语义信息进行拼接,生成当前文本的音素语义融合特征,将上一文本的音素信息和语义信息进行拼接,生成上一文本的音素语义融合特征,以及将下一文本的音素信息和语义信息进行拼接,生成下一文本的音素语义融合特征;服务器101将当前文本的音素语义融合特征、上一文本的音素语义融合特征和下一文本的音素语义融合特征输入语音合成模型中,得到当前文本的预测声学特征;服务器101根据当前文本的预测声学特征,生成当前文本的语音信息。
此外,需要说明的是,图1所示的仅仅是本公开提供的语音合成方法的一种应用环境。图1中的客户端103、网络102和服务器101的数目仅仅是示意性的,根据实际需要,可以具有任意数目的客户端、网络和服务器。
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图及实施例对本公开示例实施例中的语音合成方法的各个步骤进行更详细的说明。
图2是根据一示例性实施例示出的一种语音合成方法的流程图,图2实施例提供的方法的执行主体可以是任意的电子设备,例如图1实施例中的服务器101,但本公开并不限定于此。如图2所示,本公开实施例提供的语音合成方法可以包括以下步骤。
步骤S210:获取待处理文件序列和待处理文本序列中各个文本的音素信息和语义信息,其中,待处理文本序列包括当前文本、当前文本的上一文本和当前文本的下一文本。
服务器可以接收用户通过终端设备输入的待处理文件序列,按照待处理文本序列中各个文本的先后顺序对每个文本进行语音合成。其中,当前文本可以理解为需要合成语音的当前文本句,上一文本为当前文本的上一句文本,下一文本为当前文本的下一句文本。
步骤S220:将当前文本的音素信息和语义信息进行拼接,生成当前文本的音素语义融合特征;将上一文本的音素信息和语义信息进行拼接,生成上一文本的音素语义融合特征;将下一文本的音素信息和语义信息进行拼接,生成下一文本的音素语义融合特征。
音素语义融合特征可以理解为将文本的音素特征和文本的字符特征拼接在一起得到的特征。由于文本的音素特征包含文本的音素信息,文本的字符特征包含文本的语义信息,因此音素语义融合特征包含文本的音素信息和语义信息。
步骤S230:将当前文本的音素语义融合特征、上一文本的音素语义融合特征和下一文本的音素语义融合特征输入语音合成模型中,得到当前文本的预测声学特征。
在步骤S220中,获取到当前文本的音素语义融合特征、上一文本的音素语义融合特征和下一文本的音素语义融合特征,然后将这些音素语义融合特征输入到语音合成模型中,通过语音合成模型进行文本分析,输出当前文本的预测声学特征。
其中,声学特征用于表示语音的频谱特征,当前文本的预测声学特征即为通过语音合成模型预测的当前文本对应的频谱特征,其可为梅尔频谱(mel-spectrogram)、梅尔倒谱系数(Mel-scale Frequency Cepstral Coefficients,MFCC)、线性预测倒谱系数(Linear Prediction Cepstral Coefficients,LPCC)、感知线性预测系数(PerceptualLinear Predictive,PLP)等。
步骤S240:根据当前文本的预测声学特征,生成当前文本的语音信息。
在本步骤中,将当前文本的预测声学特征输入声码器模型中,通过声码器模型合成当前文本的语音波形。声码器模型,又称语音信号分析合成系统,负责对声音进行分析和合成。声码器模型可以获取当前文本的预测声学特征,如梅尔频谱,然后对获取的当前文本的预测声学特征进行压缩等降维处理,使其表征能力进一步提升,最后将处理后的预测声学特征恢复至原始波形,从而得到当前文本的语音波形。
本公开实施例的语音合成方法中,根据当前文本的音素信息和语义信息生成当前文本的音素语义融合特征,根据上一文本的音素信息和语义信息生成上一文本的音素语义融合特征,以及根据下一文本的音素信息和语义信息生成下一文本的音素语义融合特征,然后将生成的各个文本的音素语义融合特征输入语音合成模型中,通过语音合成模型得到当前文本的预测声学特征,进而根据当前文本的预测声学特征,生成当前文本的语音信息。一方面,音素语义融合特征包含了文本的音素信息和语义信息,将各个文本的音素语义融合特征输入语音合成模型中,使得语音合成模型可以学习到文本的音素表征信息和语义表征信息,有效提升语音的表现力;另一方面,将上以文本和下一文本的音素语义融合特征输入语音合成模型中,使得模型在预测当前文本的声学特征时考虑到上下文语义信息,有效提升语音的自然度。
为了便于理解,接下来结合附图3至附图11对本公开的语音合成方法进行更加详细的说明。
图3是根据一示例性实施例示出的生成当前文本的音素语义融合特征的流程图。如图3所示,可以按照以下步骤生成当前文本的音素语义融合特征。
步骤S301,根据当前文本的音素信息,获取当前文本的音素序列;根据当前文本的语义信息,获取当前文本的字符序列。
其中,当前文本的音素信息可以为音素序列,其包含多个音素,音素是根据语音的自然属性划分出最小语音单位,以中文普通话为例,音素可包括声韵母、声调等。比如,当前文本为“天气预报今天下雨”时,对应的音素序列可为“tian1 qi4 yu4 bao4 jin1 tian1xia4 yu3”。音素序列可为文本所需合成语种的音素序列。不同语种对应音素可能不同,比如,文本对应的中文普通话的音素与方言的音素不同,或者,文本对应的中文音素与对应的英文音素不同。
以及,根据当前文本的语义信息将当前文本拆分为多个字符,获得当前文本的字符序列。比如,当前文本为“天气预报今天下雨”时,对应的字符序列为“天”“气”“预”“报”“今”“天”“下”“雨”。
步骤S302,根据当前文本的音素序列的长度对当前文本的字符序列进行采样,得到采样后的当前文本的字符序列;其中,当前文本的音素序列的长度与采样后的当前文本的字符序列的长度相同。
根据目标文本的音素序列的长度,对目标文本的字符序列进行上采样,使得目标文本的音素序列与目标文本的字符序列的长度一致。比如,目标文本为“天气”时,对应的音素序列可为“tian1 qi4”,对应的字符序列可为“天气”,根据音素序列的长度对字符序列进行上采样,得到“天天天天天气气气”。
步骤S303,对当前文本的音素信息进行编码处理,得到当前文本的音素特征;对采样后的当前文本的字符序列进行编码处理,得到当前文本的语义特征。
本公开实施例中,可以通过G2P(Grapheme-to-Phoneme,字音转换,输出文本的拼音或音素标注,通常采用基于规则的字典映射方法)模型将当前文本转换为音素序列,获取到当前文本的音素序列后,通过独热编码对当前文本的音素序列进行编码,得到当前文本的音素特征,即当前文本的音素序列对应的隐藏文本表征。
对当前文本的字符序列进行上采样后,将上采样后的当前文本的字符序列输入预先训练的字向量模型中,通过该预先训练的字向量模型对当前文本的字符序列进行编码,得到当前文本的语义特征,即当前文本的字符序列对应的隐藏文本表征。
其中,字向量模型用于确定文本的字符序列对应的字向量,以文本的字符序列为输入参数,输出参数为文本的字符序列对应的字向量。字向量模型可以是采用无监督词向量训练方法训练获得的。
步骤S304,将当前文本的音素特征与当前文本的语义特征进行拼接,生成当前文本的音素语义融合特征对当前文本的音素信息进行编码处理,得到当前文本的音素特征。
由于当前文本的音素序列和采样后的当前文本的字符序列的长度一致,因此当前文本的音素特征与当前文本的语义特征的向量维度是相同的,故可以将当前文本的音素特征与当前文本的语义特征直接拼接一起,得到当前文本的音素语义融合特征,如此,当前文本的音素语义融合特征融合了当前文本的音素信息和语义信息。
图4是根据一示例性实施例示出的生成上一文本的音素语义融合特征的流程图。如图4所示,可以按照以下步骤生成上一文本的音素语义融合特征。
步骤S401,根据上一文本的音素信息,获取上一文本的音素序列;根据上一文本的语义信息,获取上一文本的字符序列。
步骤S402,根据上一文本的音素序列的长度对上一文本的字符序列进行采样,得到采样后的上一文本的字符序列;其中,上一文本的音素序列的长度与采样后的上一文本的字符序列的长度相同。
步骤S403,对上一文本的音素信息进行编码处理,得到上一文本的音素特征;对采样后的上一文本的字符序列进行编码处理,得到上一文本的语义特征。
步骤S404,将上一文本的音素特征与上一文本的语义特征进行拼接,生成上一文本的音素语义融合特征。
首先,根据上一文本的音素信息获得上一文本的音素序列,具体的,可以通过G2P模型获取上一文本的音素序列;以及根据上一文本的语义信息对上一文本进行拆分,获得上一文本的字符序列。然后,根据上一文本的音素序列的长度,对上一文本的字符序列进行上采样,使得上一文本的音素序列的长度与上一文本的字符序列的长度相同。接着,在获取到上一文本的音素序列后,通过独热编码对上一文本的音素序列进行编码,得到上一文本的音素特征,即上一文本的音素序列对应的隐藏文本表征;以及,将上采样后的上一文本的字符序列输入预训练的字向量模型中,通过预训练的字向量模型对上一文本的字符序列进行编码,得到上一文本的字符特征,即上一文本的字符序列对应的隐藏文本表征。由于上一文本的音素序列和上采样后的上一文本的字符序列的长度一致,因此可以上一文本的音素特征与上一文本的字符特征的向量维度相同,故将上一文本的音素特征与上一文本的字符特征直接拼接一起,得到上一文本的音素语义融合特征,如此,上一文本的音素语义融合特征融合了上一文本的音素信息和语义信息。
图5是根据一示例性实施例示出的生成下一文本的音素语义融合特征的流程图。如图5所示,可以按照以下步骤生成下一文本的音素语义融合特征。
步骤S501,根据下一文本的音素信息,获取下一文本的音素序列;根据下一文本的语义信息,获取下一文本的字符序列。
步骤S502,根据下一文本的音素序列的长度对下一文本的字符序列进行采样,得到采样后的下一文本的字符序列;其中,下一文本的音素序列的长度与采样后的下一文本的字符序列的长度相同。
步骤S503,对下一文本的音素信息进行编码处理,得到下一文本的音素特征;对采样后的下一文本的字符序列进行编码处理,得到下一文本的语义特征。
步骤S504,将下一文本的音素特征与下一文本的语义特征进行拼接,生成下一文本的音素语义融合特征。
首先,根据下一文本的音素信息获得下一文本的音素序列,具体的,可以通过G2P模型获取下一文本的音素序列;以及根据下一文本的语义信息对下一文本进行拆分,获得下一文本的字符序列。然后,根据下一文本的音素序列的长度,对下一文本的字符序列进行下采样,使得下一文本的音素序列的长度与下一文本的字符序列的长度相同。接着,在获取到下一文本的音素序列后,通过独热编码对下一文本的音素序列进行编码,得到下一文本的音素特征,即下一文本的音素序列对应的隐藏文本表征;以及,将下采样后的下一文本的字符序列输入预训练的字向量模型中,通过预训练的字向量模型对下一文本的字符序列进行编码,得到下一文本的字符特征,即下一文本的字符序列对应的隐藏文本表征。由于下一文本的音素序列和下采样后的下一文本的字符序列的长度一致,因此可以下一文本的音素特征与下一文本的字符特征的向量维度相同,故将下一文本的音素特征与下一文本的字符特征直接拼接一起,得到下一文本的音素语义融合特征,如此,下一文本的音素语义融合特征融合了下一文本的音素信息和语义信息。
本公开实施例中,文本的音素语义融合特征是将文本的音素特征和文本的字符特征拼接得到的,因此文本的音素语义融合特征能够融合文本的音素信息和语义信息,后续将文本的音素语义融合特征输入到语音合成模型中,通过语音合成模型预测声学特征,使得模型可以学习到文本的语义表征信息和音素表征信息。并且在生成文本的音素语义融合特征过程中,根据文本的音素序列的长度对文本的字符序列进行上采样,使得文本的字符序列的长度与文本的音素序列长度一致,使得文本的音素特征的向量维度与文本的字符特征的向量维度相同,进而能够直接将文本的字符特征与文本的音素特征进行拼接。
图6是根据一示例性实施例示出的语音合成模型的结构示意图。在图6实施例中,语音合成模型600可以包括文本隐层编码器610、声学编码器620和声学解码器630。
文本隐层编码器用于对上一文本的音素语义融合特征和下一文本的音素语义融合特征进行编码处理。图6中,文本隐层编码器610可以包括3层一维卷积层和一层长短期记忆(Long Short Term Memory,LSTM)网络层,LSTM网络层的最后一个隐层单元输出作为文本隐层编码器的编码结果。
声学编码器用于对当前文本的音素语义融合特征进行编码处理,获得当前文本的编码特征。图6中,声学编码器620可以包括3层一维卷积层和一层双向长短期记忆(Bi-directional Long Short Term Memory,Bi-LSTM)网络层。Bi-LSTM由前向LSTM与后向LSTM组合而成,通过Bi-LSTM可以更好的捕捉正向语义依赖和反向语义依赖。
声学解码器用于对当前文本的编码特征进行解码处理,获得当前文本的预测声学特征。图6中,声学解码器630可以包括门控循环单元(Gated Recurrent Unit,GRU)层。由于GRU利用单元保留序列信息并记录长期依赖关系,因此GRU在处理序列数据时表现出更好的性能。
需要说明的是,图6所示的语音合成模型仅为示例,可以根据实际需求设置语音合成模型的结构,如文本隐层编码器的卷积层为2层一维卷积层,又如声学编码器还可以包括全连接层,又如声学解码器还可以包括卷积层、全连接层。
图7是根据一示例性实施例示出的根据文本的音素语义融合特征获得当前文本的预测声学特征的流程图。图7示出了将当前文本的音素语义融合特征、上一文本的音素语义融合特征和下一文本的音素语义融合特征输入语音合成模型,得到当前文本的预测声学特征的具体步骤。
在图7实施例中,上述图2实施例中的步骤S230可以进一步包括以下步骤。
在步骤S231中,将上一文本的音素语义融合特征输入文本隐层编码器进行编码处理,得到上一文本的编码特征。
在本步骤中,将上一文本的音素语义融合特征依次输入到文本隐层编码器的卷积层和LSTM层,对上一文本的音素语义融合特征进行编码处理,得到上一文本的编码特征,即上一文本的隐藏文本表征。
本公开实施例中,在获取上一文本的编码特征后,后续将上一文本的编码特征作为声学编码器的Bi-LSTM网络层的正向初始记忆特征,使得Bi-LSTM可以更好的捕捉正向语义依赖。
在步骤S232中,对下一文本的音素语义融合特征进行反转处理,将反转处理后的下一文本的音素语义融合特征输入文本隐层编码器进行编码处理,得到下一文本的编码特征。
在本步骤中,在获取到下一文本的音素语义融合特征后,可以对下一文本的音素语义融合特征进行反转处理,然后将反转处理后的下一文本的音素语义融合特征依次输入到文本隐层编码器的卷积层和LSTM层,对下一文本的音素语义融合特征进行编码处理,得到下一文本的编码特征,即下一文本的隐藏文本表征。
其中,文本隐层编码器输出的上一文本的编码特征和下一文本的编码特征可以采用向量形式、矩阵形式进行表达。由于编码器输出的上一文本的编码特征和下一文本的编码特征可以认为是模型中间处理过程中的输出,其可以不具备可解释性。
本公开实施例中,在获取下一文本的编码特征后,后续将下一文本的编码特征作为声学编码器的Bi-LSTM网络层的反向初始记忆特征,通过Bi-LSTM捕捉反向语义依赖,因此在获取下一文本的音素语义融合特征后,先对下一文本的音素语义融合特征进行反转处理,使得Bi-LSTM可以更好的捕捉反向语义依赖。
在步骤S233中,将当前文本的音素语义融合特征、上一文本的编码特征和下一文本的编码特征输入声学编码器进行编码处理,得到当前文本的编码特征。
通过文本隐层编码器对上一文本的音素语义融合特征和下一文本的音素语义融合特征进行编码处理后,得到上一文本的编码特征和下一文本的编码特征,然后将上一文本的编码特征、下一文本的编码特征和当前文本的音素语义融合特征输入到声学编码器中,通过声学编码器进行编码处理,得到当前文本的编码特征。
在本公开的一些示例性实施例中,将当前文本的音素语义融合特征、上一文本的编码特征和下一文本的编码特征输入声学编码器进行编码处理,得到当前文本的编码特征,可以包括:将当前文本的音素语义融合特征输入卷积层进行卷积处理,得到当前文本的卷积特征;将当前文本的卷积特征和上一文本的编码特征输入正向记忆单元进行编码处理,得到当前文本的正向编码特征;其中,上一文本的编码特征为正向记忆单元的正向初始记忆特征;将当前文本的卷积特征和下一文本的编码特征输入反向初始单元进行编码处理,得到当前文本的反向编码特征;其中,下一文本的编码特征为反向记忆单元的反向初始记忆特征;根据当前文本的正向编码特征和当前文本的反向编码特征,得到当前文本的编码特征。
上文已经说明,声学编码器可以包括卷积层和Bi-LSTM网络层。本公开实施例中,可以将当前文本的音素语义融合特征输入声学编码器中的卷积层进行卷积处理,得到当前文本的卷积特征。以及,将当前文本的卷积特征、上一文本的编码特征和下一文本的编码特征输入声学编码器器中的Bi-LSTM网络层进行编码处理,得到当前文本的编码特征。
图8是根据一示例性实施例示出的基于Bi-LSTM网络层实现编码的示意图。如图8所示,Bi-LSTM网络层包括正向记忆单元810和反向记忆单元820,其中811为正向初始记忆单元,821为反向初始记忆单元。
将上一文本的编码特征和当前文本的卷积特征x(n)输入正向记忆单元,具体的,将上一文本的编码特征输入正向初始记忆单元中,作为正向初始记忆特征,通过正向记忆单元810按照正向来处理输入的当前文本的卷积特征x(n),获得当前文本的正向编码特征。
以及,将下一文本的编码特征和当前文本的卷积特征x(n)输入反向记忆单元,具体的,将下一文本的编码特征输入反向初始记忆单元中,作为反向初始记忆特征,通过反向记忆单元820按照反向来处理输入的当前文本的卷积特征x(n),获得当前文本的反向编码特征。
在获得当前文本的正向编码特征和反向编码特征之后,将正向编码特征和反向编码特征进行拼接,得到当前文本的编码特征y(n)。
本公开实施例中,在通过声学编码器获得当前文本的编码特征的过程中,将上一文本的编码特征输入声学编码器的Bi-LSTM网络层的正向记忆单元,作为Bi-LSTM网络层的正向初始记忆特征,将下一文本的编码特征输入Bi-LSTM网络层的反向记忆单元,作为Bi-LSTM网络层的反向初始记忆特征,利用正向记忆单元和反向记忆单元分别对当前文本的卷积特征进行正向和反向处理,将输出的结果进行拼接得到当前文本的编码特征,使得文本的结构完整,并且声学编码器可以考虑当前文本的上下文信息,提升当前文本与上下文的关联性。
在步骤S234中,将当前文本的编码特征输入声学解码器进行解码处理,得到当前文本的预测声学特征。
在本公开的一些示例性实施例中,语音合成模型还包括音频隐层编码器。音频隐层编码器可以包括2层一维卷积层、GRU层和全连接层。音频隐层编码器用于对上一文本对应的音频信息进行编码处理,获得上一文本对应的音频信息的隐藏文本表征,后续通过声学解码器对当前文本的编码特征进行解码时,可以考虑上一文本对应的音频信息的隐藏文本表征,使得预测的声学特征能够继承上一文本的语气语调等音频信息,保证语气语调的连贯性。
进一步的,将当前文本的编码特征输入声学解码器进行解码处理,得到当前文本的预测声学特征,可以包括:获取上一文本对应的音频信息;将上一文本对应的音频信息输入音频隐层编码器进行编码处理,得到上一文本的音频特征;将当前文本的编码特征和上一文本的音频特征输入门控循环单元层的记忆单元进行解码处理,得到当前文本的预测声学特征;其中,上一文本的音频特征为记忆单元的初始记忆特征。
上一文本对应的音频信息可以包括上一文本对应的语气语调等与音频相关的信息。在获取到上一文本对应的音频信息后,可以按照预设长度对上一文本对应的音频信息进行截取,获得预设长度的上一文本对应的音频信息,然后将该音频信息输入音频隐层编码器,通过音频隐层编码器对该音频信息进行编码处理,获得上一文本的音频特征。具体的,将该音频信息依次输入音频隐层编码器的卷积层、GRU层和全连接层,对该音频信息进行编码处理,得到上一文本的音频特征,即上一文本对应的音频信息的隐藏文本表征。
在获的上一文本的音频特征后,可以将上一文本的音频特征和当前文本的编码特征输入到声学解码器的GRU层中的记忆单元。具体的,将上一文本的音频特征输入GRU层中的记忆单元中,作为初始记忆特征,将当前文本的编码特征输入到GRU层中的记忆单元,通过记忆单元对当前文本的编码特征进行解码处理,获得当前文本的预测声学特征。
本公开实施例中,通过音频隐层编码器对上一文本的音频信息进行编码处理,得到上一文本的音频特征,在通过声学解码器获得目标文本的预测声学特征的过程中,将上一文本的音频特征输入声学解码器的GRU层的记忆单元中,作为初始记忆特征,可以传递上一文本的语气语调等音频信息,能够保证上下局语义语调连贯。并且,由于GRU层的计算具有从前至后的特点,GRU层的记忆单元可以影响生成的当前文本的语音的句首发音,进一步提升语音合成自然度。
在本公开的一些示例性实施例中,语音合成模型还包括注意力机制,该注意力机制连接声学编码器和声学解码器,具体可以为attention、forward-attention、GMM-attention、location-attention。
进一步的,将当前文本的编码特征输入声学解码器进行解码处理,得到当前文本的预测声学特征,可以包括:获取目标对象的标识信息,其中,目标对象的标识信息对应有目标语音音色;通过注意力机制,根据目标对象的标识信息对当前文本的编码特征进行预处理,获得预处理的当前文本的编码特征,其中,预处理的当前文本的编码特征融合了目标语音音色;将预处理的当前文本的编码特征输入声学解码器进行解码处理,得到当前文本的预测声学特征。
其中,目标对象的标识信息对应有目标语音音色。目标语音音色可以理解为期望合成的语音音色。如,期望用小黄鸭的音色播放当前文本,目标语音音色为小黄鸭的音色,那么需要获取小黄鸭的音色对应的标识信息。
另外,目标语音音色可以为人类音色、动物音色、自然音色、乐器音色等。本公开中涉及的对象,并不局限于人类,还可以包括动物、自然环境、乐器等,对象的标识信息用于指示目标语音音色。本公开对于语音音色的具体类型并不做特殊限定。
在通过声学编码器获得当前文本的编码特征后,根据目标对象的标识信息,通过注意力机制对当前文本的编码特征进行预处理。也即,将目标对应的标识信息融入到当前文本的编码特征,然后将预处理后的当前文本的编码特征输入声学解码器,通过声学解码器进行解码处理,得到当前文本的预测声学特征。如此,获得的当前文本的预测声学特征包含目标语音音色信息,这样最后可以生成融合了目标语音音色的当前文本的语音信息。
图9是根据又一示例性实施例示出的语音合成模型的结构示意图。在图6实施例中,语音合成模型可以包括文本隐层编码器610、声学编码器620、声学解码器630、音频隐层编码器910和注意力机制920。图9中,注意力机制920连接声学编码器620和声学解码器630,声学编码器620、声学解码器630和注意力机制920可以看作为声学模型。
图10是根据一示例性实施例示出的训练语音合成模型的流程图。如图10所示,训练语音合成模型的具体步骤可以包括:
步骤S1001:获取当前文本样本、当前文本样本的上一文本样本和当前文本样本的上一文本样本的下一文本样本,其中,当前文本样本对应有参考声学特征。
步骤S1002:获取当前文本样本的音素语义融合特征、上一文本样本的音素语义融合特征和下一文本样本的音素语义融合特征。
其中,音素语义融合特征包含文本的音素信息和语义信息。
在获取当前文本样本的音素语义融合特征过程中,获取当前文本样本的音素序列,对当前文本样本的音素序列进行编码,得到当前文本样本的音素特征;获取当前文本样本的字符序列,根据当前文本样本的音素序列对当前文本样本的字符序列进行上采样,使得当前文本样本的音素序列与当前文本样本的字符序列的长度一致;对上采样后的当前文本样本的字符序列进行编码,得到当前文本样本的字符特征;将当前文本样本的音素特征与当前文本样本的字符特征进行拼接,得到当前文本样本的音素语义融合特征。
在获取上一文本样本的音素语义融合特征过程中,获取上一文本样本的音素序列,对上一文本样本的音素序列进行编码,得到上一文本样本的音素特征;获取上一文本样本的字符序列,根据上一文本样本的音素序列对上一文本样本的字符序列进行上采样,使得上一文本样本的音素序列与上一文本样本的字符序列的长度一致;对上采样后的上一文本样本的字符序列进行编码,得到上一文本样本的字符特征;将上一文本样本的音素特征与上一文本样本的字符特征进行拼接,得到上一文本样本的音素语义融合特征。
在获取下一文本样本的音素语义融合特征过程中,获取下一文本样本的音素序列,对下一文本样本的音素序列进行编码,得到下一文本样本的音素特征;获取下一文本样本的字符序列,根据下一文本样本的音素序列对下一文本样本的字符序列进行上采样,使得下一文本样本的音素序列与下一文本样本的字符序列的长度一致;对上采样后的下一文本样本的字符序列进行编码,得到下一文本样本的字符特征;将下一文本样本的音素特征与下一文本样本的字符特征进行拼接,得到下一文本样本的音素语义融合特征。
步骤S1003:将上一文本样本的音素语义融合特征输入待训练的文本隐层编码器进行编码处理,得到上一文本样本的编码特征。
步骤S1004:对下一文本样本的音素语义融合特征进行反转处理,将反转处理后的下一文本样本的音素语义融合特征输入待训练的文本隐层编码器进行编码处理,得到下一文本样本的编码特征。
步骤S1005:将当前文本样本的音素语义融合特征输入待训练的声学编码器的卷积层进行卷积处理,得到当前文本样本的卷积特征。
步骤S1006:将当前文本样本的卷积特征、上一文本样本的编码特征和下一文本样本的编码特征输入待训练的声学编码器的Bi-LSTM网络层进行编码处理,得到当前文本样本的编码特征。
具体的,将当前文本样本的卷积特征和上一文本样本的编码特征输入Bi-LSTM网络层的正向记忆单元进行编码处理,得到当前文本样本的正向编码特征,其中,上一文本样本的编码特征为正向记忆单元的正向初始记忆特征。将当前文本样本的卷积特征和下一文本样本的编码特征输入Bi-LSTM网络层的反向记忆单元进行编码处理,得到当前文本样本的反向编码特征,其中,下一文本样本的编码特征为反向记忆单元的反向初始记忆特征。最后,根据当前文本样本的正向编码特征和当前文本样本的反向编码特征,得到当前文本样本的编码特征。
步骤S1007:获取目标对象的标识信息,其中,目标对象的标识信息对应有目标语音音色。
步骤S1008:通过待训练的注意力机制,根据当前对象的标识信息对当前文本样本的编码特征进行预处理,得到预处理后的当前文本样本的编码特征。
步骤S1009:获取上一文本样本对应的音频信息,将上一文本样本对应的音频信息输入音频隐层编码器进行编码处理,得到上一文本样本的音频特征。
步骤S1010:将上一文本样本的音频特征和预处理后的当前文本样本的编码特征输入待训练的声学解码器的GRU层的记忆单元中进行解码处理,得到当前文本样本的预测声学特征。
步骤S1011:根据当前文本样本的参考声学特征和当前文本样本的预测声学特征,计算模型损失,根据模型损失调整待训练的语音合成模型中各个部分的参数,直至计算得到的模型损失小于预设值,得到训练完成的语音合成模型。
图11是根据又一示例性实施例示出的一种语音合成方法的流程图。如图11所示,具体可以通过以下步骤实现语音合成:
步骤S1101:获取当前文本、当前文本的上一文本和当前文本的上一文本的下一文本,其中,当前文本对应有参考声学特征。
步骤S1102:获取当前文本的音素语义融合特征、上一文本的音素语义融合特征和下一文本的音素语义融合特征,其中,音素语义融合特征包含文本的音素信息和语义信息。
具体的,在获取各个文本的音素语义融合特征过程中,获取文本的音素序列,对文本的音素序列进行编码,得到文本的音素特征;获取文本的字符序列,根据文本的音素序列对文本的字符序列进行上采样,使得文本的音素序列与文本的字符序列的长度一致;对上采样后的文本的字符序列进行编码,得到文本的字符特征;将文本的音素特征与文本的字符特征进行拼接,得到文本的音素语义融合特征。
步骤S1103:将上一文本的音素语义融合特征输入文本隐层编码器进行编码处理,得到上一文本的编码特征。
步骤S1104:对下一文本的音素语义融合特征进行反转处理,将反转处理后的下一文本的音素语义融合特征输入文本隐层编码器进行编码处理,得到下一文本的编码特征。
步骤S1105:将上一文本的编码特征、下一文本的编码特征和当前文本的音素语义融合特征输入声学编码器进行编码处理,得到当前文本的编码特征。
具体的,将当前文本的音素语义融合特征输入到声学编码器的卷积层进行卷积处理,得到当前文本的卷积特征;将当前文本的卷积特征、上一文本的编码特征和下一文本的编码特征输入到声学编码器的Bi-LSTM网络层中记忆单元进行编码处理,得到当前文本的编码特征。
步骤S1106:获取当前对象的标识信息,其中,当前对象的标识信息对应有当前语音音色。
步骤S1107:通过注意力机制,根据当前对象的标识信息对当前文本的编码特征进行预处理,得到预处理后的当前文本的编码特征。
步骤S1108:获取上一文本对应的音频信息,将上一文本对应的音频信息输入音频隐层编码器进行编码处理,得到上一文本的音频特征。
步骤S1109:将上一文本的音频特征和预处理后的当前文本的编码特征输入声学解码器的GRU层中进行解码处理,得到当前文本的预测声学特征。
步骤S1110:将当前文本的预测声学特征输入声码器模型中,通过声码器模型合成当前文本的语音波形。
可以理解的是,本说明书中上述方法的各个实施例之间相同/相似的部分可互相参见,每个实施例重点说明的是与其他实施例的不同之处,相关之处参见其他方法实施例的说明即可。
图12是根据一示例性实施例示出的一种语音合成装置的框图。如图12所示,语音合成装置1200包括文本信息获取单元1210、特征生成单元1220、声学特征预测单元1230和语音合成单元1240。
其中,文本信息获取单元1210被配置为:获取待处理文件序列和待处理文本序列中各个文本的音素信息和语义信息;其中,待处理文本序列包括当前文本、当前文本的上一文本和当前文本的下一文本。
特征生成单元1220被配置为:将当前文本的音素信息和语义信息进行拼接,生成当前文本的音素语义融合特征;将上一文本的音素信息和语义信息进行拼接,生成上一文本的音素语义融合特征;将下一文本的音素信息和语义信息进行拼接,生成下一文本的音素语义融合特征。
声学特征预测单元1230被配置为:将当前文本的音素语义融合特征、上一文本的音素语义融合特征和下一文本的音素语义融合特征输入语音合成模型中,得到当前文本的预测声学特征。
语音合成单元1240被配置为:根据当前文本的预测声学特征,生成当前文本的语音信息。
在本公开的一些示例性实施例中,语音合成模型包括文本隐层编码器、声学编码器和声学解码器;其中,声学特征预测单元1230还被配置为:将上一文本的音素语义融合特征输入文本隐层编码器进行编码处理,得到上一文本的编码特征;对下一文本的音素语义融合特征进行反转处理,将反转处理后的下一文本的音素语义融合特征输入文本隐层编码器进行编码处理,得到下一文本的编码特征;将当前文本的音素语义融合特征、上一文本的编码特征和下一文本的编码特征输入声学编码器进行编码处理,得到当前文本的编码特征;将当前文本的编码特征输入声学解码器进行解码处理,得到当前文本的预测声学特征。
在本公开的一些示例性实施例中,声学编码器包括卷积层和双向长短期记忆网络层,双向长短期记忆网络层包括正向记忆单元和反向记忆单元;其中,声学特征预测单元1230还被配置为:将当前文本的音素语义融合特征输入卷积层进行卷积处理,得到当前文本的卷积特征;将当前文本的卷积特征和上一文本的编码特征输入正向记忆单元进行编码处理,得到当前文本的正向编码特征;其中,上一文本的编码特征为正向记忆单元的正向初始记忆特征;将当前文本的卷积特征和下一文本的编码特征输入反向初始单元进行编码处理,得到当前文本的反向编码特征;其中,下一文本的编码特征为反向记忆单元的反向初始记忆特征;根据当前文本的正向编码特征和当前文本的反向编码特征,得到当前文本的编码特征。
在本公开的一些示例性实施例中,语音合成模型还包括音频隐层编码器,声学解码器包括门控循环单元层;其中,声学特征预测单元1230还被配置为:获取上一文本对应的音频信息;将上一文本对应的音频信息输入音频隐层编码器进行编码处理,得到上一文本的音频特征;将当前文本的编码特征和上一文本的音频特征输入门控循环单元层的记忆单元进行解码处理,得到当前文本的预测声学特征;其中,上一文本的音频特征为记忆单元的初始记忆特征。
在本公开的一些示例性实施例中,语音合成模型还包括注意力机制;其中,声学特征预测单元1230还被配置为:获取目标对象的标识信息;其中,目标对象的标识信息对应有目标语音音色;通过注意力机制,根据目标对象的标识信息对当前文本的编码特征进行预处理,获得预处理的当前文本的编码特征;其中,预处理的当前文本的编码特征融合了目标语音音色;将预处理的当前文本的编码特征输入声学解码器进行解码处理,得到当前文本的预测声学特征。
在本公开的一些示例性实施例中,特征生成单元1220还被配置为:根据当前文本的音素信息,获取当前文本的音素序列;根据当前文本的语义信息,获取当前文本的字符序列;根据当前文本的音素序列的长度对当前文本的字符序列进行采样,得到采样后的当前文本的字符序列;其中,当前文本的音素序列的长度与采样后的当前文本的字符序列的长度相同;对当前文本的音素信息进行编码处理,得到当前文本的音素特征;对采样后的当前文本的字符序列进行编码处理,得到当前文本的语义特征;将当前文本的音素特征与当前文本的语义特征进行拼接,生成当前文本的音素语义融合特征。
在本公开的一些示例性实施例中,特征生成单元1220还被配置为:根据上一文本的音素信息,获取上一文本的音素序列;根据上一文本的语义信息,获取上一文本的字符序列;根据上一文本的音素序列的长度对上一文本的字符序列进行采样,得到采样后的上一文本的字符序列;其中,上一文本的音素序列的长度与采样后的上一文本的字符序列的长度相同;对上一文本的音素信息进行编码处理,得到上一文本的音素特征;对采样后的上一文本的字符序列进行编码处理,得到上一文本的语义特征;将上一文本的音素特征与上一文本的语义特征进行拼接,生成上一文本的音素语义融合特征。
在本公开的一些示例性实施例中,特征生成单元1220还被配置为:根据下一文本的音素信息,获取下一文本的音素序列;根据下一文本的语义信息,获取下一文本的字符序列;根据下一文本的音素序列的长度对下一文本的字符序列进行采样,得到采样后的下一文本的字符序列;其中,下一文本的音素序列的长度与采样后的下一文本的字符序列的长度相同;对下一文本的音素信息进行编码处理,得到下一文本的音素特征;对采样后的下一文本的字符序列进行编码处理,得到下一文本的语义特征;将下一文本的音素特征与下一文本的语义特征进行拼接,生成下一文本的音素语义融合特征。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图13是根据一示例性实施例示出的适于用来实现本公开示例性实施例的电子设备的结构示意图。需要说明的是,图13示出的电子设备1300仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图13所示,电子设备1300以通用计算设备的形式表现。电子设备1300的组件可以包括但不限于:上述至少一个处理单元1310、上述至少一个存储单元1320、连接不同系统组件(包括存储单元1320和处理单元1310)的总线1330。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元1310执行,使得所述处理单元1310执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,处理单元1310可以执行如图2中所示的步骤S213:获取待处理文件序列和待处理文本序列中各个文本的音素信息和语义信息,其中,待处理文本序列包括当前文本、当前文本的上一文本和当前文本的下一文本;步骤S220:将当前文本的音素信息和语义信息进行拼接,生成当前文本的音素语义融合特征;将上一文本的音素信息和语义信息进行拼接,生成上一文本的音素语义融合特征;将下一文本的音素信息和语义信息进行拼接,生成下一文本的音素语义融合特征;步骤S230:将当前文本的音素语义融合特征、上一文本的音素语义融合特征和下一文本的音素语义融合特征输入语音合成模型中,得到当前文本的预测声学特征;步骤S240:根据当前文本的预测声学特征,生成当前文本的语音信息。
存储单元1320可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)13201和/或高速缓存存储单元13202,还可以进一步包括只读存储单元(ROM)13203。
存储单元1320还可以包括具有一组(至少一个)程序模块13205的程序/实用工具13204,这样的程序模块13205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1330可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1300也可以与一个或多个外部设备1360(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备1300交互的设备通信,和/或与使得该电子设备1300能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1350进行。并且,电子设备1300还可以通过网络适配器1340与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器1340通过总线1330与电子设备1300的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1300使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
根据本发明实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (11)

1.一种语音合成方法,其特征在于,所述方法包括:
获取待处理文件序列和所述待处理文本序列中各个文本的音素信息和语义信息;其中,所述待处理文本序列包括当前文本、所述当前文本的上一文本和所述当前文本的下一文本;
将所述当前文本的音素信息和语义信息进行拼接,生成所述当前文本的音素语义融合特征;将所述上一文本的音素信息和语义信息进行拼接,生成所述上一文本的音素语义融合特征;将所述下一文本的音素信息和语义信息进行拼接,生成所述下一文本的音素语义融合特征;
将所述当前文本的音素语义融合特征、所述上一文本的音素语义融合特征和所述下一文本的音素语义融合特征输入语音合成模型中,得到所述当前文本的预测声学特征;
根据所述当前文本的预测声学特征,生成所述当前文本的语音信息。
2.根据权利要求1所述的方法,其特征在于,所述语音合成模型包括文本隐层编码器、声学编码器和声学解码器;
其中,所述将所述当前文本的音素语义融合特征、所述上一文本的音素语义融合特征和所述下一文本的音素语义融合特征输入语音合成模型中,得到所述当前文本的预测声学特征,包括:
将所述上一文本的音素语义融合特征输入所述文本隐层编码器进行编码处理,得到所述上一文本的编码特征;
对所述下一文本的音素语义融合特征进行反转处理,将反转处理后的所述下一文本的音素语义融合特征输入所述文本隐层编码器进行编码处理,得到所述下一文本的编码特征;
将所述当前文本的音素语义融合特征、所述上一文本的编码特征和所述下一文本的编码特征输入所述声学编码器进行编码处理,得到所述当前文本的编码特征;
将所述当前文本的编码特征输入所述声学解码器进行解码处理,得到所述当前文本的预测声学特征。
3.根据权利要求2所述的方法,其特征在于,所述声学编码器包括卷积层和双向长短期记忆网络层,所述双向长短期记忆网络层包括正向记忆单元和反向记忆单元;
其中,所述将所述当前文本的音素语义融合特征、所述上一文本的编码特征和所述下一文本的编码特征输入所述声学编码器进行编码处理,得到所述当前文本的编码特征,包括:
将所述当前文本的音素语义融合特征输入所述卷积层进行卷积处理,得到所述当前文本的卷积特征;
将所述当前文本的卷积特征和所述上一文本的编码特征输入所述正向记忆单元进行编码处理,得到所述当前文本的正向编码特征;其中,所述上一文本的编码特征为所述正向记忆单元的正向初始记忆特征;
将所述当前文本的卷积特征和所述下一文本的编码特征输入所述反向初始单元进行编码处理,得到所述当前文本的反向编码特征;其中,所述下一文本的编码特征为所述反向记忆单元的反向初始记忆特征;
根据所述当前文本的正向编码特征和所述当前文本的反向编码特征,得到所述当前文本的编码特征。
4.根据权利要求2所述的方法,其特征在于,所述语音合成模型还包括音频隐层编码器,所述声学解码器包括门控循环单元层;
其中,所述将所述当前文本的编码特征输入所述声学解码器进行解码处理,得到所述当前文本的预测声学特征,包括:
获取所述上一文本对应的音频信息;
将所述上一文本对应的音频信息输入所述音频隐层编码器进行编码处理,得到所述上一文本的音频特征;
将所述当前文本的编码特征和所述上一文本的音频特征输入所述门控循环单元层的记忆单元进行解码处理,得到所述当前文本的预测声学特征;其中,所述上一文本的音频特征为所述记忆单元的初始记忆特征。
5.根据权利要求2所述的方法,其特征在于,所述语音合成模型还包括注意力机制;
其中,所述将所述当前文本的编码特征输入所述声学解码器进行解码处理,得到所述当前文本的预测声学特征,包括:
获取目标对象的标识信息;其中,所述目标对象的标识信息对应有目标语音音色;
通过所述注意力机制,根据所述目标对象的标识信息对所述当前文本的编码特征进行预处理,获得预处理的所述当前文本的编码特征;其中,预处理的所述当前文本的编码特征融合了所述目标语音音色;
将预处理的所述当前文本的编码特征输入所述声学解码器进行解码处理,得到所述当前文本的预测声学特征。
6.根据权利要求1所述的方法,其特征在于,所述将所述当前文本的音素信息和语义信息进行拼接,生成所述当前文本的音素语义融合特征,包括:
根据所述当前文本的音素信息,获取所述当前文本的音素序列;根据所述当前文本的语义信息,获取所述当前文本的字符序列;
根据所述当前文本的音素序列的长度对所述当前文本的字符序列进行采样,得到采样后的所述当前文本的字符序列;其中,所述当前文本的音素序列的长度与采样后的所述当前文本的字符序列的长度相同;
对所述当前文本的音素信息进行编码处理,得到所述当前文本的音素特征;对采样后的所述当前文本的字符序列进行编码处理,得到所述当前文本的语义特征;
将所述当前文本的音素特征与所述当前文本的语义特征进行拼接,生成所述当前文本的音素语义融合特征。
7.根据权利要求1所述的方法,其特征在于,所述将所述上一文本的音素信息和语义信息进行拼接,生成所述上一文本的音素语义融合特征,包括:
根据所述上一文本的音素信息,获取所述上一文本的音素序列;根据所述上一文本的语义信息,获取所述上一文本的字符序列;
根据所述上一文本的音素序列的长度对所述上一文本的字符序列进行采样,得到采样后的所述上一文本的字符序列;其中,所述上一文本的音素序列的长度与采样后的所述上一文本的字符序列的长度相同;
对所述上一文本的音素信息进行编码处理,得到所述上一文本的音素特征;对采样后的所述上一文本的字符序列进行编码处理,得到所述上一文本的语义特征;
将所述上一文本的音素特征与所述上一文本的语义特征进行拼接,生成所述上一文本的音素语义融合特征。
8.根据权利要求1所述的方法,其特征在于,所述将所述下一文本的音素信息和语义信息进行拼接,生成所述下一文本的音素语义融合特征,包括:
根据所述下一文本的音素信息,获取所述下一文本的音素序列;根据所述下一文本的语义信息,获取所述下一文本的字符序列;
根据所述下一文本的音素序列的长度对所述下一文本的字符序列进行采样,得到采样后的所述下一文本的字符序列;其中,所述下一文本的音素序列的长度与采样后的所述下一文本的字符序列的长度相同;
对所述下一文本的音素信息进行编码处理,得到所述下一文本的音素特征;对采样后的所述下一文本的字符序列进行编码处理,得到所述下一文本的语义特征;
将所述下一文本的音素特征与所述下一文本的语义特征进行拼接,生成所述下一文本的音素语义融合特征。
9.一种语音合成装置,其特征在于,所述装置包括:
文本信息获取单元,被配置为获取待处理文件序列和所述待处理文本序列中各个文本的音素信息和语义信息;其中,所述待处理文本序列包括当前文本、所述当前文本的上一文本和所述当前文本的下一文本;
特征生成单元,被配置为将所述当前文本的音素信息和语义信息进行拼接,生成所述当前文本的音素语义融合特征;将所述上一文本的音素信息和语义信息进行拼接,生成所述上一文本的音素语义融合特征;将所述下一文本的音素信息和语义信息进行拼接,生成所述下一文本的音素语义融合特征;
声学特征预测单元,被配置为将所述当前文本的音素语义融合特征、所述上一文本的音素语义融合特征和所述下一文本的音素语义融合特征输入语音合成模型中,得到所述当前文本的预测声学特征;
语音合成单元,被配置为根据所述当前文本的预测声学特征,生成所述当前文本的语音信息。
10.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述可执行指令,以实现如权利要求1至8中任一项所述的语音合成方法。
11.一种计算机可读存储介质,当所述计算机可读存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如权利要求1至8中任一项所述的语音合成方法。
CN202310983242.6A 2023-08-07 2023-08-07 语音合成方法、装置、设备及介质 Pending CN116863912A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310983242.6A CN116863912A (zh) 2023-08-07 2023-08-07 语音合成方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310983242.6A CN116863912A (zh) 2023-08-07 2023-08-07 语音合成方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
CN116863912A true CN116863912A (zh) 2023-10-10

Family

ID=88230634

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310983242.6A Pending CN116863912A (zh) 2023-08-07 2023-08-07 语音合成方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN116863912A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118197277A (zh) * 2024-05-15 2024-06-14 国家超级计算天津中心 语音合成方法、装置、电子设备和存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118197277A (zh) * 2024-05-15 2024-06-14 国家超级计算天津中心 语音合成方法、装置、电子设备和存储介质

Similar Documents

Publication Publication Date Title
CN111292720B (zh) 语音合成方法、装置、计算机可读介质及电子设备
JP7464621B2 (ja) 音声合成方法、デバイス、およびコンピュータ可読ストレージ媒体
Kisler et al. Multilingual processing of speech via web services
CN111899719A (zh) 用于生成音频的方法、装置、设备和介质
US11842728B2 (en) Training neural networks to predict acoustic sequences using observed prosody info
CN112331177B (zh) 基于韵律的语音合成方法、模型训练方法及相关设备
CN116364055B (zh) 基于预训练语言模型的语音生成方法、装置、设备及介质
WO2023020262A1 (en) Integrating dialog history into end-to-end spoken language understanding systems
CN113450765B (zh) 语音合成方法、装置、设备及存储介质
CN116129863A (zh) 语音合成模型的训练方法、语音合成方法及相关装置
CN111028824A (zh) 一种用于闽南语的合成方法及其装置
CN113327580A (zh) 语音合成方法、装置、可读介质及电子设备
US11322133B2 (en) Expressive text-to-speech utilizing contextual word-level style tokens
CN114242033A (zh) 语音合成方法、装置、设备、存储介质及程序产品
CN112802446A (zh) 音频合成方法及装置、电子设备和计算机可读存储介质
CN116863912A (zh) 语音合成方法、装置、设备及介质
CN110930975A (zh) 用于输出信息的方法和装置
CN113314097B (zh) 语音合成方法、语音合成模型处理方法、装置和电子设备
CN113823259B (zh) 将文本数据转换为音素序列的方法及设备
CN114842826A (zh) 语音合成模型的训练方法、语音合成方法及相关设备
CN113744713A (zh) 一种语音合成方法及语音合成模型的训练方法
CN116665639A (zh) 语音合成方法、语音合成装置、电子设备及存储介质
CN113314096A (zh) 语音合成方法、装置、设备和存储介质
CN116129857A (zh) 声学模型训练方法、语音合成方法及相关装置
CN116129859A (zh) 韵律标注方法、声学模型训练方法、语音合成方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination