CN111653261A - 语音合成方法、装置、可读存储介质及电子设备 - Google Patents

语音合成方法、装置、可读存储介质及电子设备 Download PDF

Info

Publication number
CN111653261A
CN111653261A CN202010609828.2A CN202010609828A CN111653261A CN 111653261 A CN111653261 A CN 111653261A CN 202010609828 A CN202010609828 A CN 202010609828A CN 111653261 A CN111653261 A CN 111653261A
Authority
CN
China
Prior art keywords
vocoder
neural network
training
network model
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010609828.2A
Other languages
English (en)
Inventor
顾宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN202010609828.2A priority Critical patent/CN111653261A/zh
Publication of CN111653261A publication Critical patent/CN111653261A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Abstract

本公开涉及一种语音合成方法、装置、可读存储介质及电子设备。所述方法包括:确定待合成文本对应的声学特征信息;根据所述声学特征信息,通过第一声码器,获得与所述待合成文本对应的音频信息,其中,所述第一声码器是通过对第二声码器进行知识蒸馏而获得的,所述第一声码器和所述第二声码器均为基于神经网络模型的声码器,且所述第一声码器的模型复杂度低于所述第二声码器的模型复杂度。这样,第一声码器学习到第二声码器的优秀的数据处理能力,且具有简单的模型结构,兼具准确性和速度这两种优点。从而,基于第一声码器对待合成文本进行语音合成,能够在保证语音合成准确性的基础上,快速获得语音合成的结果。

Description

语音合成方法、装置、可读存储介质及电子设备
技术领域
本公开涉及计算机技术领域,具体地,涉及一种语音合成方法、装置、可读存储介质及电子设备。
背景技术
声码器基于声学特征(如,基频、频谱等)构建语音波形,以形成合成后的音频。由此可见,声码器是语音合成技术中十分重要的部分。语音合成的准确性及速度是衡量声码器性能的重要指标。目前,随着神经网络的应用普及,可以基于神经网络训练得到神经网络声码器,而为了保证语音合成的准确性,神经网络声码器需要具备复杂的网络结构,然而,一方面,复杂结构的声码器在前期训练时需要耗费大量的训练时间,训练效率及模型实时率低,另一方面,训练所得的声码器由于内部结构复杂,语音合成的速度不够快。
发明内容
提供该发明内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该发明内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,本公开提供一种语音合成方法,所述方法包括:
确定待合成文本对应的声学特征信息;
根据所述声学特征信息,通过第一声码器,获得与所述待合成文本对应的音频信息,其中,所述第一声码器是通过对第二声码器进行知识蒸馏而获得的,所述第一声码器和所述第二声码器均为基于神经网络模型的声码器,且所述第一声码器的模型复杂度低于所述第二声码器的模型复杂度。
第二方面,本公开提供一种语音合成装置,所述装置包括:
确定模块,用于确定待合成文本对应的声学特征信息;
语音合成模块,用于根据所述声学特征信息,通过第一声码器,获得与所述待合成文本对应的音频信息,其中,所述第一声码器是通过对第二声码器进行知识蒸馏而获得的,所述第一声码器和所述第二声码器均为基于神经网络模型的声码器,且所述第一声码器的模型复杂度低于所述第二声码器的模型复杂度。
第三方面,本公开提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该程序被处理装置执行时实现本公开第一方面所述方法的步骤。
第四方面,本公开提供一种电子设备,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现本公开第一方面所述方法的步骤。
通过上述技术方案,首先确定待合成文本对应的声学特征信息,并根据该声学特征信息,通过第一声码器,获得与待合成文本对应的音频信息。其中,第一声码器是通过对第二声码器进行知识蒸馏而获得的。第一声码器和第二声码器均为基于神经网络模型的声码器,且第一声码器的模型复杂度低于第二声码器的模型复杂度。也就是说,第一声码器学习到第二声码器的优秀的数据处理能力,且具有简单的模型结构,兼具准确性和速度这两种优点。从而,基于第一声码器对待合成文本进行语音合成,能够在保证语音合成准确性的基础上,快速获得语音合成的结果。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
在附图中:
图1是根据本公开的一种实施方式提供的语音合成方法的流程图;
图2是根据本公开提供的语音合成方法中,获得第一声码器的一种示例性的流程图;
图3是根据本公开的一种实施方式提供的语音合成装置的框图;
图4示出了适于用来实现本公开实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
图1是根据本公开的一种实施方式提供的语音合成方法的流程图。如图1所示,该方法可以包括以下步骤。
在步骤11中,确定待合成文本对应的声学特征信息。
示例地,可以基于目前常用的端到端的语音合成模型(例如,Tacotron2)确定待合成文本对应的声学特征信息。端到端的语音合成模型中包含声学模型,声学模型用于获得待合成文本的声学特征信息。其中,声学模型包括编码器、注意力模型和解码器,其中,编码器执行文本的特征提取,即,根据待合成文本,得到相应的表示序列,之后,注意力模型和解码器基于前一步获得的序列产生声学特征信息,即,根据待合成文本的表示序列生成对应的声学特征。其中,解码器部分是一个自回归模型,它基于表示序列自回归(某一帧的输出结果依赖于该帧之前的历史输出结果)得到最终的输出(即声学特征信息)
示例地,声学特征信息可以为梅尔频谱。
在步骤12中,根据声学特征信息,通过第一声码器,获得与待合成文本对应的音频信息。
其中,第一声码器是通过对第二声码器进行知识蒸馏而获得的。第一声码器和第二声码器均为基于神经网络模型的声码器,且第一声码器的模型复杂度低于第二声码器的模型复杂度。
示例地,音频信息可以为音频波形。
下面首先对本公开所使用的知识蒸馏技术进行详细说明。
知识蒸馏(Knowledge Distillation,KD),也可称作蒸馏学习、知识提取、知识萃取等,指的是将训练好的、具有良好效果的复杂模型中的“知识”迁移到一个结构更为简单的网络中,从而达到模型压缩的目的。它的工作思路是:通过引入与教师网络(teachernetwork:复杂、但推理性能优越)相关的软目标(softtarget)作为total loss(损失值)的一部分,以诱导学生网络(student network:精简、复杂度低)的训练,实现知识迁移(knowledge transfer)。
简单来说,知识蒸馏可以包括以下步骤:
提升教师网络输出函数softmax表达式中的温度参数T,使得教师网络产生一个合适的“软目标”;
利用同样的温度参数T训练学生网络,使它产生于教师网络相匹配的“软目标”。
对于结构复杂的教师网络来说,训练结束后往往能够得到很好的学习效果,但是对于结构简单的学生网络来说,则无法得到很好的学习效果,因此,为了帮助学生网络学习,在学生网络的输出函数softmax中增加温度参数(T,Temperature)。加上温度参数T之后,在训练学生网络的过程中,错误分类在经过softmax后错误输出会被放大,也就是说,人为增加了训练难度,后期一旦将温度参数T设置为1,学生网络的输出结果会非常接近于教师网络的输出结果。其中,软目标(softtarget)指教师网络使用带有温度参数T的输出函数softmax所产生的输出结果,硬目标(hardtarget)指正常的网络训练的目标,即有标签样本的真实标签。
如上文所述,第一声码器是通过对第二声码器进行知识蒸馏而获得的。第一声码器和第二声码器均是基于神经网络模型的声码器。在这里,第二声码器就是教师网络,第一声码器则是学生网络,第一声码器的模型复杂度低于第二声码器的模型复杂度。其中,模型复杂度可以从网络规模、模型内节点数、模型内层数体现,即,网络规模越大、模型内节点数越多、模型内层数越多,模型复杂度越高,并且,复杂度较高的模型在训练后的模型效果会相对更好一些。
在这里,第二声码器就是前期训练所得的精度较高、效果较好的模型,并且,第二声码器的结构较为复杂。
示例地,第二声码器可以通过以下方式获得:
获取多组第二训练数据,每组第二训练数据包括第二音频对应的第二声学特征信息和第四音频信息;
根据多组第二训练数据,对第二神经网络模型进行训练,以得到训练完成的第二声码器。
首先获取用于训练第二声码器的多组第二训练数据。每一组第二训练数据包括第二音频对应的第二声学特征信息和第四音频信息,其中,根据已有的第二音频,可以使用目前常用的获得声学特征信息的方法及获得音频信息的方法直接获得该第二音频的声学特征信息和音频信息,并分别作为该第二音频的第二声学特征信息和第四音频信息。在获取到第二训练数据之后,就可以将第二训练数据用于训练。而在训练之前,可以先初始化一第二神经网络模型,设置其网络规模、内部结构、内部参数等,如上所述,初始化的第二神经网络模型可以是较为复杂的模型,也就是可以将网络规模设置得大一些、将模型内部结构设置得复杂一些。之后,可以开始模型训练。在每一次的训练过程中,将一组第二训练数据中的第二声学特征信息作为输入数据,输入至第二神经网络模型中,获得第二神经网络模型的实际的输出数据,并将该第二训练数据中的第四音频信息作为与输入的第二声学特征信息对应的真实输出(作为参考标准),并根据输出数据和真实输出之间的差距不断更新第二神经网络模型内部的参数,直至满足模型停止训练的条件。从而,获得训练完成的第二声码器。其中,神经网络模型的训练方式属于相关领域的公知常识,此处不详述。
从而,基于获得的第二声码器,结合前文所述的知识蒸馏方法,可以得到第一声码器。示例地,第一声码器可以通过以下方式获得,如图2所示。
在步骤21中,获取多组第一训练数据;
在步骤22中,根据多组第一训练数据,对第一神经网络模型进行迭代训练,直至满足停止训练条件,以得到训练完成的第一声码器。
其中,每组第一训练数据包括第一音频对应的第一声学特征信息和第一音频信息。
首先获取用于训练第一声码器的多组第一训练数据。每一组第一训练数据包括第一音频对应的第一声学特征信息和第一音频信息,其中,根据已有的第一音频,可以使用目前常用的获得声学特征信息的方法及获得音频信息的方法直接获得该第一音频的声学特征信息和音频信息,并分别作为该第一音频的第一声学特征信息和第一音频信息。其中,第一音频和第二音频可以是相同的音频,也可以是不同的音频。
在获取到第一训练数据之后,就可以将第一训练数据用于训练。而在训练之前,可以先初始化一第一神经网络模型,设置其网络规模、内部结构、内部参数等,初始化的第一神经网络模型应当是较为简单的模型,也就是将网络规模设置得小一些、将模型内部结构设置得简单一些,初始化的第一神经网络模型应当比第二声码器更简单。
之后,可以开始模型训练。示例地,在每一次的训练过程中,可以包括以下步骤:
将目标特征信息输入至第二声码器,获得第二声码器输出的第二音频信息,目标特征信息为目标训练数据的第一声学特征信息,目标训练数据为多组第一训练数据中的一组;
将目标特征信息输入至第一神经网络模型,获得第一神经网络模型输出的第三音频信息;
根据目标训练数据的第一音频信息和第三音频信息,确定第一神经网络模型的第一损失值;
根据第二音频信息和第三音频信息,确定第一神经网络模型的第二损失值;
根据第一损失值和第二损失值,确定目标损失值;
若目标损失值不满足停止训练条件,根据目标损失值更新第一神经网络模型,并利用更新后的第一神经网络模型进行下一次训练。
也就是说,在每一次的训练过程中,首先,将目标特征信息(目标训练数据的第一声学特征信息)输入至第二声码器中,可以得到第二声码器的输出结果,即,第二音频信息。并且,将目标特征信息输入至第一神经网络模型,可以得到第一神经网络模型的输出结果,即,第三音频信息。之后,一方面,将目标训练数据对应的第一音频信息作为输出的一个参考标准,即,根据目标训练数据的第一音频信息和第三音频信息,确定第一神经网络模型的第一损失值,以及,另一方面,将通过第二声码器得到的第二音频信息(教师网络的输出)作为输出的一个参考标准,即,根据第二音频信息和第三音频信息,确定第一神经网络模型的第二损失值。其中,损失值(损失函数)的计算方式为本领域的公知常识,此处不赘述。
之后,根据第一损失值和第二损失值,可以确定一目标损失值。示例地,目标损失值可以为第一损失值和第二损失值之和。若本次训练的目标损失值不满足停止训练条件,说明当前的第一神经网络模型还存在较大误差,需要继续训练,因此,需要根据目标损失值更新第一神经网络模型,并利用更新后的第一神经网络模型进行下一次训练。其中,停止训练条件可以例如为训练次数达到预设次数、目标损失值小于损失阈值等。其中,根据损失值更新模型内部参数的方式属于现有技术,为本领域技术人员所公知,此处不赘述。
经过若干次的训练,在满足停止训练条件的情况下,当下的第一神经网络模型即为训练完成的第一声码器。第一声码器学习到了第二声码器的优秀的数据处理能力,且具有较为简单的模型结构,兼具准确性和处理速度这两种优点。
从而,根据待合成文本对应的声学特征信息,通过第一声码器,即,将待合成文本对应的声学特征信息输入至第一声码器,即可获得第一声码器的输出,作为与待合成文本对应的音频信息,完成针对待合成文本的语音合成。在这个过程中,既能保证语音合成的准确性,又能快速获得语音合成的结果。
通过上述技术方案,首先确定待合成文本对应的声学特征信息,并根据该声学特征信息,通过第一声码器,获得与待合成文本对应的音频信息。其中,第一声码器是通过对第二声码器进行知识蒸馏而获得的。第一声码器和第二声码器均为基于神经网络模型的声码器,且第一声码器的模型复杂度低于第二声码器的模型复杂度。也就是说,第一声码器学习到第二声码器的优秀的数据处理能力,且具有简单的模型结构,兼具准确性和速度这两种优点。从而,基于第一声码器对待合成文本进行语音合成,能够在保证语音合成准确性的基础上,快速获得语音合成的结果。
其中,第一神经网络模型中的各权重矩阵可以以第一位数存储。
可选地,在第一神经网络模型中的各权重矩阵以第一位数存储的情况下,在每一次的训练过程中,还可以包括以下步骤:
在需要对第一神经网络模型中的目标权重矩阵进行矩阵乘法运算时,将目标权重矩阵量化为对应于第二位数的量化权重矩阵,并确定量化权重矩阵与目标权重矩阵之间的量化比例,其中,第二位数少于第一位数;
根据量化权重矩阵进行矩阵乘法运算,得到运算结果;
根据量化比例,将运算结果反量化为对应于第一位数的结果数据并存储。
其中,目标权重矩阵可以为第一神经网络模型中的任一权重矩阵。
模型训练过程中,一般需要借助模型内部的权重矩阵进行训练,训练的过程也可以视为权重矩阵更新的过程。在进行模型内部运算的过程中,存在针对模型内部权重矩阵的乘法运算,将会耗费极高的算力。因此,在进行权重矩阵的乘法运算时,可以将权重矩阵转换为较低的位数进行运算,以减轻计算压力,而在运算结束后,再将权重矩阵转换为原来位数的数据。
在需要对第一神经网络模型中的目标权重矩阵进行矩阵乘法运算时,可以将目标权重矩阵量化为对应于第二位数的量化权重矩阵。将第一位数的数据量化为第二位数的数据,实际上就是将第一位数的数据映射到对应于第二位数的空间内。例如,若第二位数为8,则将第一位数的数据量化为第二位数的数据,就是将第一位数的数据映射到0~255的空间内。
从而,基于上述方式,可以将目标权重矩阵量化为量化权重矩阵,同时,在得到量化权重矩阵后,根据原有的目标权重矩阵,可以计算出二者之间的量化比例,存储该量化比例以用于后续的反量化,在这里,反量化就是指将第二位数的数据转换回第一位数的数据。
示例地,第一位数可以为32位,第二位数可以为8位。在这一示例中,量化与反量化的过程可以视为float32的数据与int8的数据之间的数据转换。也就是说,第一神经网络模型的权重矩阵会按照一行的8bit整型数和一个32bit浮点数存储,这之中,8bit整型数就对应于量化权重矩阵,32bit浮点数就是量化比例。而8bit整型数乘以32bit浮点数就是反量化操作。在权重矩阵需要进行矩阵乘法运算时,先进行8bit整型数之间的乘法,得到结果后,再去乘以一个32bit浮点数(量化比例),恢复到32bit的数据。这样,可以大幅节约指令的次数,加快矩阵运算的时间,从而大幅加快训练过程。
可选地,在对第二神经网络模型进行训练的过程中,第二神经网络模型中的各权重矩阵可以以位数较高的第一位数存储及运算。也就是说,在训练第二神经网络过程中,使用全精度进行模型内部的运算,保证第二声码器的高精度。
图3是根据本公开的一种实施方式提供的语音合成装置的框图。如图3所示,该装置30可以包括:
确定模块31,用于确定待合成文本对应的声学特征信息;
语音合成模块32,用于根据所述声学特征信息,通过第一声码器,获得与所述待合成文本对应的音频信息,其中,所述第一声码器是通过对第二声码器进行知识蒸馏而获得的,所述第一声码器和所述第二声码器均为基于神经网络模型的声码器,且所述第一声码器的模型复杂度低于所述第二声码器的模型复杂度。
可选地,所述装置30还包括:
第一获取模块,用于获取多组第一训练数据,每组所述第一训练数据包括第一音频对应的第一声学特征信息和第一音频信息;
第一训练模块,用于根据所述多组第一训练数据,对第一神经网络模型进行迭代训练,直至满足停止训练条件,以得到训练完成的所述第一声码器;
其中,所述第一训练模块用于在每一次的训练过程中:
将目标特征信息输入至所述第二声码器,获得所述第二声码器输出的第二音频信息,所述目标特征信息为目标训练数据的第一声学特征信息,所述目标训练数据为所述多组第一训练数据中的一组;
将所述目标特征信息输入至所述第一神经网络模型,获得所述第一神经网络模型输出的第三音频信息;
根据所述目标训练数据的第一音频信息和所述第三音频信息,确定所述第一神经网络模型的第一损失值;
根据所述第二音频信息和所述第三音频信息,确定所述第一神经网络模型的第二损失值;
根据所述第一损失值和所述第二损失值,确定目标损失值;
若所述目标损失值不满足所述停止训练条件,根据所述目标损失值更新所述第一神经网络模型,并利用更新后的所述第一神经网络模型进行下一次训练。
可选地,所述第一神经网络模型中的各权重矩阵以第一位数存储;
以及,所述第一训练模块还用于在每一次的训练过程中:
在需要对所述第一神经网络模型中的目标权重矩阵进行矩阵乘法运算时,将所述目标权重矩阵量化为对应于第二位数的量化权重矩阵,并确定所述量化权重矩阵与所述目标权重矩阵之间的量化比例,其中,所述第二位数少于所述第一位数;
根据所述量化权重矩阵进行所述矩阵乘法运算,得到运算结果;
根据所述量化比例,将所述运算结果反量化为对应于所述第一位数的结果数据并存储。
可选地,所述第一位数为32位,所述第二位数为8位。
可选地,所述装置30还包括:
第二获取模块,用于获取多组第二训练数据,每组所述第二训练数据包括第二音频对应的第二声学特征信息和第四音频信息;
第二训练模块,用于根据所述多组第二训练数据,对第二神经网络模型进行训练,以得到训练完成的所述第二声码器。
可选地,在对所述第二神经网络模型进行训练的过程中,所述第二神经网络模型中的各权重矩阵以第一位数存储及运算。
可选地,所述待合成文本对应的声学特征信息为所述待合成文本对应的梅尔频谱。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
下面参考图4,其示出了适于用来实现本公开实施例的电子设备600的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图4示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图4所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图4示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读存储介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读存储介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读存储介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读存储介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:确定待合成文本对应的声学特征信息;根据所述声学特征信息,通过第一声码器,获得与所述待合成文本对应的音频信息,其中,所述第一声码器是通过对第二声码器进行知识蒸馏而获得的,所述第一声码器和所述第二声码器均为基于神经网络模型的声码器,且所述第一声码器的模型复杂度低于所述第二声码器的模型复杂度。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定,例如,确定模块还可以被描述为“确定待合成文本对应的声学特征信息的模块”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,提供了一种语音合成方法,所述方法包括:
确定待合成文本对应的声学特征信息;
根据所述声学特征信息,通过第一声码器,获得与所述待合成文本对应的音频信息,其中,所述第一声码器是通过对第二声码器进行知识蒸馏而获得的,所述第一声码器和所述第二声码器均为基于神经网络模型的声码器,且所述第一声码器的模型复杂度低于所述第二声码器的模型复杂度。
根据本公开的一个或多个实施例,提供了一种语音合成方法,所述第一声码器通过以下方式获得:
获取多组第一训练数据,每组所述第一训练数据包括第一音频对应的第一声学特征信息和第一音频信息;
根据所述多组第一训练数据,对第一神经网络模型进行迭代训练,直至满足停止训练条件,以得到训练完成的所述第一声码器;
其中,在每一次的训练过程中,包括以下步骤:
将目标特征信息输入至所述第二声码器,获得所述第二声码器输出的第二音频信息,所述目标特征信息为目标训练数据的第一声学特征信息,所述目标训练数据为所述多组第一训练数据中的一组;
将所述目标特征信息输入至所述第一神经网络模型,获得所述第一神经网络模型输出的第三音频信息;
根据所述目标训练数据的第一音频信息和所述第三音频信息,确定所述第一神经网络模型的第一损失值;
根据所述第二音频信息和所述第三音频信息,确定所述第一神经网络模型的第二损失值;
根据所述第一损失值和所述第二损失值,确定目标损失值;
若所述目标损失值不满足所述停止训练条件,根据所述目标损失值更新所述第一神经网络模型,并利用更新后的所述第一神经网络模型进行下一次训练。
根据本公开的一个或多个实施例,提供了一种语音合成方法,所述第一神经网络模型中的各权重矩阵以第一位数存储;
以及,在每一次的训练过程中,还包括以下步骤:
在需要对所述第一神经网络模型中的目标权重矩阵进行矩阵乘法运算时,将所述目标权重矩阵量化为对应于第二位数的量化权重矩阵,并确定所述量化权重矩阵与所述目标权重矩阵之间的量化比例,其中,所述第二位数少于所述第一位数;
根据所述量化权重矩阵进行所述矩阵乘法运算,得到运算结果;
根据所述量化比例,将所述运算结果反量化为对应于所述第一位数的结果数据并存储。
根据本公开的一个或多个实施例,提供了一种语音合成方法,所述第一位数为32位,所述第二位数为8位。
根据本公开的一个或多个实施例,提供了一种语音合成方法,所述第二声码器通过以下方式获得:
获取多组第二训练数据,每组所述第二训练数据包括第二音频对应的第二声学特征信息和第四音频信息;
根据所述多组第二训练数据,对第二神经网络模型进行训练,以得到训练完成的所述第二声码器。
根据本公开的一个或多个实施例,提供了一种语音合成方法,在对所述第二神经网络模型进行训练的过程中,所述第二神经网络模型中的各权重矩阵以第一位数存储及运算。
根据本公开的一个或多个实施例,提供了一种语音合成方法,所述待合成文本对应的声学特征信息为所述待合成文本对应的梅尔频谱。
根据本公开的一个或多个实施例,提供了一种语音合成装置,所述装置包括:
确定模块,用于确定待合成文本对应的声学特征信息;
语音合成模块,用于根据所述声学特征信息,通过第一声码器,获得与所述待合成文本对应的音频信息,其中,所述第一声码器是通过对第二声码器进行知识蒸馏而获得的,所述第一声码器和所述第二声码器均为基于神经网络模型的声码器,且所述第一声码器的模型复杂度低于所述第二声码器的模型复杂度。
根据本公开的一个或多个实施例,提供了一种非暂态计算机可读存储介质,其上存储有计算机程序,该程序被处理装置执行时实现本公开任意实施例所述的语音合成方法的步骤。
根据本公开的一个或多个实施例,提供了一种电子设备,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现本公开任意实施例所述的语音合成方法的步骤。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。

Claims (10)

1.一种语音合成方法,其特征在于,所述方法包括:
确定待合成文本对应的声学特征信息;
根据所述声学特征信息,通过第一声码器,获得与所述待合成文本对应的音频信息,其中,所述第一声码器是通过对第二声码器进行知识蒸馏而获得的,所述第一声码器和所述第二声码器均为基于神经网络模型的声码器,且所述第一声码器的模型复杂度低于所述第二声码器的模型复杂度。
2.根据权利要求1所述的方法,其特征在于,所述第一声码器通过以下方式获得:
获取多组第一训练数据,每组所述第一训练数据包括第一音频对应的第一声学特征信息和第一音频信息;
根据所述多组第一训练数据,对第一神经网络模型进行迭代训练,直至满足停止训练条件,以得到训练完成的所述第一声码器;
其中,在每一次的训练过程中,包括以下步骤:
将目标特征信息输入至所述第二声码器,获得所述第二声码器输出的第二音频信息,所述目标特征信息为目标训练数据的第一声学特征信息,所述目标训练数据为所述多组第一训练数据中的一组;
将所述目标特征信息输入至所述第一神经网络模型,获得所述第一神经网络模型输出的第三音频信息;
根据所述目标训练数据的第一音频信息和所述第三音频信息,确定所述第一神经网络模型的第一损失值;
根据所述第二音频信息和所述第三音频信息,确定所述第一神经网络模型的第二损失值;
根据所述第一损失值和所述第二损失值,确定目标损失值;
若所述目标损失值不满足所述停止训练条件,根据所述目标损失值更新所述第一神经网络模型,并利用更新后的所述第一神经网络模型进行下一次训练。
3.根据权利要求2所述的方法,其特征在于,所述第一神经网络模型中的各权重矩阵以第一位数存储;
以及,在每一次的训练过程中,还包括以下步骤:
在需要对所述第一神经网络模型中的目标权重矩阵进行矩阵乘法运算时,将所述目标权重矩阵量化为对应于第二位数的量化权重矩阵,并确定所述量化权重矩阵与所述目标权重矩阵之间的量化比例,其中,所述第二位数少于所述第一位数;
根据所述量化权重矩阵进行所述矩阵乘法运算,得到运算结果;
根据所述量化比例,将所述运算结果反量化为对应于所述第一位数的结果数据并存储。
4.根据权利要求3所述的方法,其特征在于,所述第一位数为32位,所述第二位数为8位。
5.根据权利要求1所述的方法,其特征在于,所述第二声码器通过以下方式获得:
获取多组第二训练数据,每组所述第二训练数据包括第二音频对应的第二声学特征信息和第四音频信息;
根据所述多组第二训练数据,对第二神经网络模型进行训练,以得到训练完成的所述第二声码器。
6.根据权利要求5所述的方法,其特征在于,在对所述第二神经网络模型进行训练的过程中,所述第二神经网络模型中的各权重矩阵以第一位数存储及运算。
7.根据权利要求1-6中任一项所述的方法,其特征在于,所述待合成文本对应的声学特征信息为所述待合成文本对应的梅尔频谱。
8.一种语音合成装置,其特征在于,所述装置包括:
确定模块,用于确定待合成文本对应的声学特征信息;
语音合成模块,用于根据所述声学特征信息,通过第一声码器,获得与所述待合成文本对应的音频信息,其中,所述第一声码器是通过对第二声码器进行知识蒸馏而获得的,所述第一声码器和所述第二声码器均为基于神经网络模型的声码器,且所述第一声码器的模型复杂度低于所述第二声码器的模型复杂度。
9.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现权利要求1-7中任一项所述方法的步骤。
10.一种电子设备,其特征在于,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现权利要求1-7中任一项所述方法的步骤。
CN202010609828.2A 2020-06-29 2020-06-29 语音合成方法、装置、可读存储介质及电子设备 Pending CN111653261A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010609828.2A CN111653261A (zh) 2020-06-29 2020-06-29 语音合成方法、装置、可读存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010609828.2A CN111653261A (zh) 2020-06-29 2020-06-29 语音合成方法、装置、可读存储介质及电子设备

Publications (1)

Publication Number Publication Date
CN111653261A true CN111653261A (zh) 2020-09-11

Family

ID=72352468

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010609828.2A Pending CN111653261A (zh) 2020-06-29 2020-06-29 语音合成方法、装置、可读存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN111653261A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113571047A (zh) * 2021-07-20 2021-10-29 杭州海康威视数字技术股份有限公司 一种音频数据的处理方法、装置及设备
CN113707123A (zh) * 2021-08-17 2021-11-26 慧言科技(天津)有限公司 一种语音合成方法及装置

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108734266A (zh) * 2017-04-21 2018-11-02 展讯通信(上海)有限公司 深度神经网络模型的压缩方法及装置、终端、存储介质
CN108847249A (zh) * 2018-05-30 2018-11-20 苏州思必驰信息科技有限公司 声音转换优化方法和系统
CN109637546A (zh) * 2018-12-29 2019-04-16 苏州思必驰信息科技有限公司 知识蒸馏方法和装置
CN109635935A (zh) * 2018-12-29 2019-04-16 北京航空航天大学 基于模长聚类的深度卷积神经网络模型自适应量化方法
CN109686361A (zh) * 2018-12-19 2019-04-26 深圳前海达闼云端智能科技有限公司 一种语音合成的方法、装置、计算设备及计算机存储介质
CN109754778A (zh) * 2019-01-17 2019-05-14 平安科技(深圳)有限公司 文本的语音合成方法、装置和计算机设备
US20190180732A1 (en) * 2017-10-19 2019-06-13 Baidu Usa Llc Systems and methods for parallel wave generation in end-to-end text-to-speech
US20190325308A1 (en) * 2016-12-30 2019-10-24 Google Llc Multi-task learning using knowledge distillation
US20190378006A1 (en) * 2018-06-08 2019-12-12 International Business Machines Corporation Teacher and student learning for constructing mixed-domain model
CN111223483A (zh) * 2019-12-10 2020-06-02 浙江大学 一种基于多粒度知识蒸馏的唇语识别方法
CN111292719A (zh) * 2020-02-07 2020-06-16 北京字节跳动网络技术有限公司 语音合成方法、装置、计算机可读介质及电子设备

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190325308A1 (en) * 2016-12-30 2019-10-24 Google Llc Multi-task learning using knowledge distillation
CN108734266A (zh) * 2017-04-21 2018-11-02 展讯通信(上海)有限公司 深度神经网络模型的压缩方法及装置、终端、存储介质
US20190180732A1 (en) * 2017-10-19 2019-06-13 Baidu Usa Llc Systems and methods for parallel wave generation in end-to-end text-to-speech
CN108847249A (zh) * 2018-05-30 2018-11-20 苏州思必驰信息科技有限公司 声音转换优化方法和系统
US20190378006A1 (en) * 2018-06-08 2019-12-12 International Business Machines Corporation Teacher and student learning for constructing mixed-domain model
CN109686361A (zh) * 2018-12-19 2019-04-26 深圳前海达闼云端智能科技有限公司 一种语音合成的方法、装置、计算设备及计算机存储介质
CN109637546A (zh) * 2018-12-29 2019-04-16 苏州思必驰信息科技有限公司 知识蒸馏方法和装置
CN109635935A (zh) * 2018-12-29 2019-04-16 北京航空航天大学 基于模长聚类的深度卷积神经网络模型自适应量化方法
CN109754778A (zh) * 2019-01-17 2019-05-14 平安科技(深圳)有限公司 文本的语音合成方法、装置和计算机设备
CN111223483A (zh) * 2019-12-10 2020-06-02 浙江大学 一种基于多粒度知识蒸馏的唇语识别方法
CN111292719A (zh) * 2020-02-07 2020-06-16 北京字节跳动网络技术有限公司 语音合成方法、装置、计算机可读介质及电子设备

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
AARON VAN DEN OORD,ET AL.: "ParallelWaveNet:Fast High-Fidelity Speech Synthesis", 《HTTPS://ARXIV.ORG/ABS/1711.10433》 *
AARON VAN DEN OORD,ET AL.: "ParallelWaveNet:Fast High-Fidelity Speech Synthesis", 《HTTPS://ARXIV.ORG/ABS/1711.10433》, 28 November 2017 (2017-11-28), pages 1 - 11 *
RUI LIU,ET AL.: "Teacher-Student Training For Robust Tacotron-Based TTS", 《2020 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》 *
RUI LIU,ET AL.: "Teacher-Student Training For Robust Tacotron-Based TTS", 《2020 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》, 14 May 2020 (2020-05-14), pages 6274 - 6278, XP033794339, DOI: 10.1109/ICASSP40776.2020.9054681 *
凌震华等: "基于WaveNet的语音合成声码器研究", 《人工智能》 *
凌震华等: "基于WaveNet的语音合成声码器研究", 《人工智能》, no. 1, 10 February 2018 (2018-02-10), pages 83 - 91 *
董洪义: "《深度学习之PyTorch物体检测实战》", 31 January 2020, 《机械工业出版社》, pages: 186 - 187 *
邱泽宇等: "基于WaveNet的端到端语音合成方法", 《基于WAVENET的端到端语音合成方法》 *
邱泽宇等: "基于WaveNet的端到端语音合成方法", 《基于WAVENET的端到端语音合成方法》, vol. 39, no. 5, 21 January 2019 (2019-01-21), pages 1325 - 1329 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113571047A (zh) * 2021-07-20 2021-10-29 杭州海康威视数字技术股份有限公司 一种音频数据的处理方法、装置及设备
CN113707123A (zh) * 2021-08-17 2021-11-26 慧言科技(天津)有限公司 一种语音合成方法及装置
CN113707123B (zh) * 2021-08-17 2023-10-20 慧言科技(天津)有限公司 一种语音合成方法及装置

Similar Documents

Publication Publication Date Title
CN111583903B (zh) 语音合成方法、声码器训练方法、装置、介质及电子设备
CN112634876B (zh) 语音识别方法、装置、存储介质及电子设备
US20230298562A1 (en) Speech synthesis method, apparatus, readable medium, and electronic device
WO2020207174A1 (zh) 用于生成量化神经网络的方法和装置
CN112489606B (zh) 旋律生成方法、装置、可读介质及电子设备
US20230306954A1 (en) Speech synthesis method, apparatus, readable medium and electronic device
WO2023273612A1 (zh) 语音识别模型的训练方法、语音识别方法、装置、介质及设备
CN113436620B (zh) 语音识别模型的训练方法、语音识别方法、装置、介质及设备
CN111370019A (zh) 声源分离方法及装置、神经网络的模型训练方法及装置
CN111597825B (zh) 语音翻译方法、装置、可读介质及电子设备
CN113327599B (zh) 语音识别方法、装置、介质及电子设备
CN113505206B (zh) 基于自然语言推理的信息处理方法、装置和电子设备
CN111798821A (zh) 声音转换方法、装置、可读存储介质及电子设备
WO2023088280A1 (zh) 意图识别方法、装置、可读介质及电子设备
CN112786069B (zh) 语音提取方法、装置和电子设备
CN111653261A (zh) 语音合成方法、装置、可读存储介质及电子设备
CN111785247A (zh) 语音生成方法、装置、设备和计算机可读介质
CN110009101B (zh) 用于生成量化神经网络的方法和装置
CN116128055A (zh) 图谱构建方法、装置、电子设备和计算机可读介质
CN111008213A (zh) 用于生成语言转换模型的方法和装置
CN114429658A (zh) 人脸关键点信息获取方法、生成人脸动画的方法及装置
CN116863935B (zh) 语音识别方法、装置、电子设备与计算机可读介质
WO2023185896A1 (zh) 一种文本生成方法、装置、计算机设备及存储介质
CN111312224A (zh) 语音分割模型的训练方法、装置和电子设备
CN113593527B (zh) 一种生成声学特征、语音模型训练、语音识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination