CN112466275B - 语音转换及相应的模型训练方法、装置、设备及存储介质 - Google Patents

语音转换及相应的模型训练方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN112466275B
CN112466275B CN202011375355.0A CN202011375355A CN112466275B CN 112466275 B CN112466275 B CN 112466275B CN 202011375355 A CN202011375355 A CN 202011375355A CN 112466275 B CN112466275 B CN 112466275B
Authority
CN
China
Prior art keywords
voice
training
information
source
characteristic information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011375355.0A
Other languages
English (en)
Other versions
CN112466275A (zh
Inventor
王俊超
陈昌滨
袁俊
聂志朋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202011375355.0A priority Critical patent/CN112466275B/zh
Publication of CN112466275A publication Critical patent/CN112466275A/zh
Application granted granted Critical
Publication of CN112466275B publication Critical patent/CN112466275B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本申请公开了一种语音转换及相应的模型训练方法、装置、设备及存储介质,涉及机器学习与智能语音等人工智能技术领域。具体实现方案为:基于源语音的音频,提取源语音的特征信息;基于所述源语音的特征信息和要转换的目标音色信息,采用预先训练的语音转换模型,生成目标语音的声学特征信息;基于所述目标语音的声学特征信息,采用预先训练的声码器,合成目标语音的音频。本申请能够避免语音转换中信息的损失,有效地提高合成的目标语音的音频的准确性。

Description

语音转换及相应的模型训练方法、装置、设备及存储介质
技术领域
本申请涉及计算机技术领域,具体涉及机器学习与智能语音等人工智能技术领域,尤其涉及一种语音转换及相应的模型训练方法、装置、设备及存储介质。
背景技术
语音转换在市场上变得越来越受关注。语音转换的目的是将源说话人的语音转为目标说话人的音色,并保持语音的表达内容不变。
现有技术中主要采用平行语料的语音转换。在录制所需的语料时,需要源说话人和目标说话人录制相同文本的音频。在模型训练时,由于每个人在读同一句话时,录得语音的时长肯定会有一些差异,因此从文本内容相同的音频中提取出的源说话人和目标说话人的特征序列长度也不同。因此需要通过一些对齐方法将源说话人和目标说话人的音频特征序列长度进行对齐,这样就可以构造一个模型,输入源说话人的特征序列去预测目标说话人的特征序列。在测试阶段,将源说话人语音提取特征输入模型,就可以预测得到目标说话人的特征序列,再通过声码器就可以将预测的特征序列转为语音了。
发明内容
本申请提供了一种语音转换及相应的模型训练方法、装置、设备及存储介质。
根据本申请的一方面,提供了一种语音转换方法,其中所述方法,包括:
基于源语音的音频,提取源语音的特征信息;
基于所述源语音的特征信息和要转换的目标音色信息,采用预先训练的语音转换模型,生成目标语音的声学特征信息;
基于所述目标语音的声学特征信息,采用预先训练的声码器,合成目标语音的音频。
根据本申请的另一方面,提供了一种语音转换模型的训练方法,其中,所述方法包括:
采集数条训练语音的音频;
基于各所述训练语音的音频,提取所述训练语音的训练特征信息和训练音色信息;
基于各所述训练语音对应的所述训练特征信息和所述训练音色信息,训练语音转换模型。
根据本申请的再一方面,提供了一种语音转换模型的训练装置,其中,所述装置包括:
采集模块,用于采集数条训练语音的音频;
提取模块,用于基于各所述训练语音的音频,提取所述训练语音的训练特征信息和训练音色信息;
训练模块,用于基于各所述训练语音对应的所述训练特征信息和所述训练音色信息,训练语音转换模型。
根据本申请的又一方面,提供了一种语音转换模型的训练装置,其中,所述装置包括:
采集模块,用于采集数条训练语音的音频;
提取模块,用于基于各所述训练语音的音频,提取所述训练语音的训练特征信息和训练音色信息;
训练模块,用于基于各所述训练语音对应的所述训练特征信息和所述训练音色信息,训练语音转换模型。
根据本申请的再另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方法。
根据本申请的再又一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行如上所述的方法。
根据本申请的又另一方面,提供了一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时,执行如上所述的方法。
根据本申请的技术,在合成目标语音的音频时,不仅需要源语音的特征信息,还需要基于要转换的目标音色信息,才可以实现目标语音的音频的合成。也就是说,与现有的平行语料的语音转换相比,本申请所采用的语音转换模型,不需要基于对齐方法,仅基于源语音的信息,便可以预测目标语音的信息,能够避免语音转换中信息的损失,有效地提高合成的目标语音的音频的准确性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的示意图;
图2是根据本申请第二实施例的示意图;
图3是本实施例的语音转换模型的架构图;
图4是本申请提供的一组采样块的工作原理图;
图5是根据本申请第三实施例的示意图;
图6是根据本申请第四实施例的示意图;
图7是根据本申请第五实施例的示意图;
图8是根据本申请第六实施例的示意图;
图9是根据本申请第七实施例的示意图;
图10是根据本申请第八实施例的示意图;
图11是用来实现本申请实施例的上述方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本申请第一实施例的示意图;如图1所示,本实施例提供一种语音转换方法,具体可以包括如下步骤:
S101、基于源语音的音频,提取源语音的特征信息;
本实施例的源语音的特征信息为从源语音的音频中提取的,能够表征源语音的信息。例如可以为源语音的声学特征信息,即源语音的梅尔(mel)频谱序列。
S102、基于源语音的特征信息和要转换的目标音色信息,采用预先训练的语音转换模型,生成目标语音的声学特征信息;
S103、基于目标语音的声学特征信息,采用预先训练的声码器,合成目标语音的音频。
本实施例的语音转换方法的执行主体为语音转换装置,该语音转换装置可以为电子实体,或者也可以为采用软件集成的应用。该语音装换装置中采用预先训练的语音转换模型和声码器模型来实现,使用时,仅需获取源语音的特征信息和要转换的目标音色信息便可以合成目标语音的音频。
本实施例的源语音的音频和目标语音的音频具体可以为不同发音人的音频,即携带不同的发音人的音色信息。
本实施例的语音转换装置中采用的语音转换模型,用于实现在源语音的特征信息中,去除源音色信息,并添加目标音色信息,进而生成目标语音的声学特征信息。本实施例的目标语音的声学特征信息可以采用梅尔(mel)频谱序列的形式。最后由声码器基于该目标语音的声学特征信息,合成目标语音的音频。
本实施例的声码器采用的是神经网络模型,需要经过预先训练,其训练过程与使用过程相似。例如,需要预先采集数条训练数据,每一条训练数据中包括训练语音的音频和对应提取的声学特征信息。训练时,将各条训练数据的训练声学特征信息输入至该声码器中,该声码器合成预测语音的音频。然后比对预测语音的音频和训练语音的音频是否一致,若不一致,调整声码器,使得两者趋于一致。按照上述方式,采用数条训练数据,不断地对声码器进行训练,直至预测语音的音频和训练语音的音频始终一致,确定声码器的参数,进而确定声码器,训练结束。
例如,本实施例的声码器具体可以采用WaveRNN模型来实现,详细可以参考相关技术的介绍。
本实施例的语音转换方法,通过基于源语音的音频,提取源语音的特征信息;基于源语音的特征信息和要转换的目标音色信息,采用预先训练的语音转换模型,生成目标语音的声学特征信息;基于目标语音的声学特征信息,采用预先训练的声码器,合成目标语音的音频。本实施例的技术方案在合成目标语音的音频时,不仅需要源语音的特征信息,还需要基于要转换的目标音色信息,才可以实现目标语音的音频的合成。也就是说,与现有的平行语料的语音转换相比,本实施例所采用的语音转换模型,不需要基于对齐方法,仅基于源语音的信息,便可以预测目标语音的信息,能够避免语音转换中信息的损失,有效地提高合成的目标语音的音频的准确性。
图2是根据本申请第二实施例的示意图;如图2所示,本实施例的语音转换方法,在上述图1所示实施例的技术方案的基础上,进一步更加详细地描述本申请的技术方案。如图2所示,本实施例的语音转换方法,具体可以包括如下步骤:
S201、基于源语音的音频,提取源语音的特征信息;
例如,在本实施例中,该步骤S201具体可以包括如下两种情况:
第一种情况:基于源语音的音频,提取源语音的声学特征信息,作为源语音的特征信息;该源语音的声学特征信息中可以携带源语音的音色、韵律以及内容等等信息。其中音色表示语音中发音人的声音特色;韵律表示语音中发音人的发音节奏;内容表示发音人说话的内容信息。该源语音的声学特征信息即为源语音的mel频谱序列。该源语音的mel频谱序列可以采用矩阵的形式来表示。
第二种情况:基于源语音的音频,提取源语音的声学特征信息和源音色信息;并将源语音的声学特征信息和源语音的源音色信息拼接,作为源语音的特征信息。例如,该源音色信息可以采用向量的形式来表示。
与上述第一种情况相比,该第二种情况中同时还需要提取源语音的源音色信息,例如可以通过声纹系统或音色提取器提取源语音的源音色信息。然后将源语音的mel频谱序列和源语音的源音色信息拼接,作为源语音的特征信息。这样,可以在源语音的特征信息突出源语音的音色信息,以便于后续语音转换模型中编码器去除音色时效果更加明显。
S202、基于源语音的特征信息,采用预先训练的语音转换模型中的编码器进行编码处理,以去除源语音的源音色信息,获取到源语音的深度内容信息;
S203、基于要转换的目标音色信息和源语音的深度内容信息,采用预先训练的语音转换模型中的解码器,生成目标语音的声学特征信息;
S204、基于目标语音的声学特征信息,采用预先训练的声码器,合成目标语音的音频。
该步骤S202-S203为上述图1所示实施例的步骤S102的一种实现方式。
具体地,图3是本实施例的语音转换模型的架构图。如图3所示,本实施例的语音转换模型中包括编码器和解码器两部分。进一步可选地,本实施例的编码器可以采用至少一组采样块构成,各采样块包括一个下采样单元和一个上采样单元。例如图3中以编码器共包括N组采样块为例。
将源语音的特征信息输入至编码器中,该编码器可以通过N个上下采样模块对输入的源语音的特征信息不断进行压缩和解压,这样的结构能有效去除输入的源语音的特征信息中的音色信息,实现对输入的源语音的特征信息进行深度内容和音色信息的解耦。这里的深度内容不仅包括语音音频中的内容信息,还可以包括描述内容的韵律信息等。
例如,图4是本申请提供的一组采样块的工作原理图。如图4所示,以2倍下采样和2倍上采样为例,实际应用中可以采用其他整数倍的采样,在此不再赘述。
首先,下采样前的源语音的特征信息的特征维度可以为D,特征的序列长度可以为T,这个源语音的特征信息的特征序列可以视作一个T*D的矩阵。
然后进行下采样处理。例如,可以将下采样前的源语音的特征信息的特征序列输入到下采样单元中,下采样单元可以通过池化(pooling),卷积stride等方式对特征序列进行下采样。假设进行了2倍下采样,这样,下采样后可以得到一个T/2*D的矩阵;
接下来进行上采样处理。例如,可以将下采样后的特征序列通过上采样单元进行上采样,上采样单元包含插值上采样、pixel-shuffle等方法可以对特征序列进行上采样。假设进行了2倍上采样,这样,上采样后得到T*D的一个矩阵;至此,采样块中的下采样单元和上采样单元介绍完毕,在本实施例的语音转换模型中的编码器中可以多次复用上下采样单元,实现有效去除源语音中的音色信息。
本实施例的语音转换模型中的解码器负责对信息进行重构和还原,解码器的输入为要转换的目标音色信息和编码器的输出;其中目标音色信息可以采用向量的形式。编码器的输出理论上此时基本没有包含音色信息,解码器负责将编码器输出的深度内容信息和目标音色信息进行融合再进行特征的还原,预测目标语音的声学特征信息,该目标语音的声学特征信息也为mel频谱序列的形式,其包含了目标音色信息和深度内容信息。最后采用声码器如WaveRNN,基于该目标语音的声学特征信息,合成目标语音的音频,从而实现将源音色描述的源语音转换为目标音色描述的目标语音。
本实施例的语音转换方法,通过采用技术方案,避免进行对齐处理,减少语音转换中的信息损失,有效地提高合成的目标语音的音频的准确性。而且,本实施例中,编码器通过采用至少一组包括下采样单元和上采样单元的采样块来实现,可以对输入的源语音的特征信息不断进行压缩和解压,能够有效去除输入的源语音的特征信息中的音色信息,实现对输入的源语音的特征信息进行深度内容和音色信息的解耦,进而准确获取到源语音的深度内容信息,可以有效地保证生成的目标语音的声学特征信息的准确性,进而可以确保语音转换的准确性和转换效率。
图5是根据本申请第三实施例的示意图;如图5所示,本实施例提供一种语音转换模型的训练方法,具体可以包括如下步骤:
S501、采集数条训练语音的音频;
S502、基于各训练语音的音频,提取训练语音的训练特征信息和训练音色信息;
例如,对于各训练语音的音频,可以直接提取训练语音的声学特征信息,即训练语音的梅尔(mel)频谱序列,作为该训练语音的训练特征信息。对于各训练语音的音频,可以通过声纹系统或音色提取器提取训练语音的音色信息,作为训练音色信息。
S503、基于各训练语音对应的训练特征信息和训练音色信息,训练语音转换模型。
本实施例中,在训练语音转换模型时,不需要再采集转换后的发音人的音频以及相关的特征信息,仅根据各训练语音对应的训练特征信息和训练音色信息,训练语音转换模型。
本实施例的语音转换模型的训练方法,可以基于各训练语音对应的训练特征信息和训练音色信息,训练语音转换模型,而不用采集转换后的目标音色的任何相关信息,也不需要进行对齐处理,能够有效地避免信息损失,进而能够有效地提高训练的语音转换模型的准确性,保证训练的语音转换模型的语音转换效果。
图6是根据本申请第四实施例的示意图;如图6所示,本实施例的语音转换模型的训练方法,在上述图5所示实施例的技术方案的基础上,进一步更加详细地介绍本申请的技术方案。如图6所示,本实施例的语音转换模型的训练方法,具体可以包括如下步骤:
S601、采集数条训练语音的音频;
S602、基于各训练语音的音频,提取训练语音的训练特征信息;
该步骤S602在具体实现时,可以包括如下两种情况:
第一种情况:基于各训练语音的音频,提取训练语音的目标声学特征信息,作为训练语音的训练特征信息;或者
第二种情况:基于各训练语音的音频,提取训练语音的目标声学特征信息和训练语音的音色信息;将训练语音的声学特征信息和训练语音的音色信息拼接,作为训练语音的训练特征信息。
需要说明的是,本实施例的两种情况提取训练语音的训练特征信息,与上述图2所示实施例中的两种情况提取源语音的特征信息的过程相同,详细可以参考上述图2所示实施例的相关记载,在此不再赘述。
S603、对于各训练语音,获取语音转换模型中的编码器基于训练语音对应的训练特征信息,得到的训练深度内容信息;
该步骤的实现过程与上述图2所示实施例的步骤S202类似,在此不再赘述。
S604、获取语音转换模型中的解码器,基于训练深度内容信息和训练语音对应的训练音色信息,生成训练语音的预测声学特征信息;
该步骤的实现过程与上述图2所示实施例的步骤S203类似,在此不再赘述。
S605、基于训练语音的目标声学特征信息和训练语音的预测声学特征信息,构建损失函数;
S606、检测损失函数是否收敛;若未收敛,执行步骤S607;若收敛,执行S608;
S607调整语音转换模型中的编码器和解码器的参数。使得损失函数趋于收敛;返回步骤S603,选择下一条训练数据,继续训练;
S608、检测在连续预设轮数的训练中损失函数是否始终收敛、或者训练轮数是否到达预设阈值;若是,确定语音转换模型中的编码器和解码器的参数,进而确定语音转换模型;否则返回步骤S603,选择下一条训练数据,继续训练。
步骤S608为训练截止条件。本实施例中以训练截止条件包括两种情况为例,第一种训练截止条件中,在连续预设轮数的训练中损失函数是否始终收敛,若始终收敛,则可以认为该语音转换模型已经训练完毕。其中该连续预设轮数可以根据实际需求来设置,例如可以为连续80轮、100轮、200轮或者其他正整数,在此不做限定。第二种训练截止条件中,防止损失函数一直在趋于收敛,但是永远无法达到收敛的情况。此时,可以设置一个训练的最大轮数,在训练轮数达到最大训练轮数时,可以认为声学模型已经训练完毕。例如根据实际需求,预设阈值可以设置为百万级或者其他更大数量级的数值,在此不做限定。
需要说明的是,为了能够清晰描述训练原理,本实施例的上述训练过程中是以训练过程中每次采用一条训练数据为例,实际应用中,为了提高训练效率和效果,每次训练过程中,可以选择一组训练数据同时进行训练,训练原理同上,在此不再赘述。
可选地,本实施例的语音转换模型中的编码器可以采用至少一组包括下采样单元和上采样单元的采样块来实现,采样块的结构如上述图3所示,其工作原理可以参考上述图4所示实施例的相关记载,在此不再赘述。
本实施例的语音转换模型的训练方法,可以基于各训练语音对应的训练特征信息和训练音色信息,训练语音转换模型,而不用采集转换后的目标音色的任何相关信息,也不需要进行对齐处理,能够有效地避免信息损失,进而能够有效地提高训练的语音转换模型的准确性,保证训练的语音转换模型的语音转换效果。进一步地,本实施例的语音转换模型中的编码器采用至少一组包括下采样单元和上采样单元的采样块来实现,通过对输入信息不断进行压缩和解压,能够有效去除输入信息中的音色信息,实现对输入信息进行训练深度内容和训练音色信息的解耦,进而可以再基于语音转换模型中的解码器根据训练深度内容和训练音色信息进行信息的重构和恢复,所以本实施例中的语音转换模型的训练中不需要目标音色的任何信息,便可以实现语音转换模型的训练,能够有效地提高训练效率,而且可以有效地保证训练的语音转换模型的准确性。
图7是根据本申请第五实施例的示意图;如图7所示,本实施例提供一种语音转换装置700,包括:
提取模块701,用于基于源语音的音频,提取源语音的特征信息;
生成模块702,用于基于源语音的特征信息和要转换的目标音色信息,采用预先训练的语音转换模型,生成目标语音的声学特征信息;
合成模块703,用于基于目标语音的声学特征信息,采用预先训练的声码器,合成目标语音的音频。
本实施例的语音转换装置700,通过采用上述模块实现语音转换的实现原理以及技术效果,与上述相关方法实施例的实现相同,详细可以参考上述相关方法实施例的记载,在此不再赘述。
图8是根据本申请第六实施例的示意图;如图8所示,本实施例的语音转换装置700,在上述图7所示实施例的技术方案的基础上,进一步更加详细地描述本申请的技术方案。
如图8所示,本实施例的语音转换装置700中,生成模块702,包括:
编码单元7021,用于基于源语音的特征信息,采用预先训练的语音转换模型中的编码器进行编码处理,以去除源语音的源音色信息,获取到源语音的深度内容信息;
解码单元7022,用于基于要转换的目标音色信息和源语音的深度内容信息,采用预先训练的语音转换模型中的解码器,生成目标语音的声学特征信息。
进一步可选地,本实施例的语音转换装置700中,提取模块701,用于:
基于源语音的音频,提取源语音的声学特征信息,作为源语音的特征信息;或者
基于源语音的音频,提取源语音的声学特征信息和源音色信息;
并将源语音的声学特征信息和源语音的源音色信息拼接,作为源语音的特征信息。
进一步可选地,本实施例的语音转换模型中的编码器采用至少一组下采样单元和上采样单元构成。
本实施例的语音转换装置700,通过采用上述模块实现语音转换的实现原理以及技术效果,与上述相关方法实施例的实现相同,详细可以参考上述相关方法实施例的记载,在此不再赘述。
图9是根据本申请第七实施例的示意图;如图9所示,本实施例提供一种语音转换模型的训练装置900,包括:
采集模块901,用于采集数条训练语音的音频;
提取模块902,用于基于各训练语音的音频,提取训练语音的训练特征信息和训练音色信息;
训练模块903,用于基于各训练语音对应的训练特征信息和训练音色信息,训练语音转换模型。
本实施例的语音转换模型的训练装置900,通过采用上述模块实现语音转换模型的训练的实现原理以及技术效果,与上述相关方法实施例的实现相同,详细可以参考上述相关方法实施例的记载,在此不再赘述。
图10是根据本申请第八实施例的示意图;如图10所示,本实施例的语音转换模型的训练装置900,在上述图9所示实施例的技术方案的基础上,进一步更加详细地描述本申请的技术方案。
本实施例的语音转换模型的训练装置900中,提取模块901,用于:
基于各训练语音的音频,提取训练语音的目标声学特征信息,作为训练语音的训练特征信息;或者
基于各训练语音的音频,提取训练语音的目标声学特征信息和训练语音的音色信息;将训练语音的声学特征信息和训练语音的音色信息拼接,作为训练语音的训练特征信息。
进一步可选地,如图10所示,本实施例的语音转换模型的训练装置900中,训练模块903,包括:
获取单元9031,用于对于各训练语音,获取语音转换模型中的编码器基于训练语音对应的训练特征信息,得到的训练深度内容信息;
获取单元9031,还用于获取语音转换模型中的解码器,基于训练深度内容信息和训练语音对应的训练音色信息,生成训练语音的预测声学特征信息;
构建单元9032,用于基于训练语音的目标声学特征信息和训练语音的预测声学特征信息,构建损失函数;
检测单元9033,用于检测损失函数是否收敛;
调整单元9034,用于若未收敛,调整语音转换模型中的编码器和解码器的参数。使得损失函数趋于收敛。
进一步可选地,本实施例的语音转换模型的训练装置900中,语音转换模型中的编码器中采用至少一组采样块,各采样块包括下采样单元和上采样单元。
本实施例的语音转换模型的训练装置900,通过采用上述模块实现语音转换模型的训练的实现原理以及技术效果,与上述相关方法实施例的实现相同,详细可以参考上述相关方法实施例的记载,在此不再赘述。
根据本申请的实施例,本申请还提供了一种电子设备、一种可读存储介质以及一种计算机程序产品。
如图11所示,是本申请实施例的实现上述方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图11所示,该电子设备包括:一个或多个处理器1101、存储器1102,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图11中以一个处理器1101为例。
存储器1102即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的语音转换方法或者语音转换模型的训练方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的语音转换方法或者语音转换模型的训练方法。
存储器1102作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的语音转换方法或者语音转换模型的训练方法对应的程序指令/模块(例如,附图7、附图8、附图9和附图10所示的相关模块)。处理器1101通过运行存储在存储器1102中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的语音转换方法或者语音转换模型的训练方法。
存储器1102可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据实现语音转换方法或者语音转换模型的训练方法的电子设备的使用所创建的数据等。此外,存储器1102可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器1102可选包括相对于处理器1101远程设置的存储器,这些远程存储器可以通过网络连接至实现语音转换方法或者语音转换模型的训练方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
实现语音转换方法或者语音转换模型的训练方法的电子设备还可以包括:输入装置1103和输出装置1104。处理器1101、存储器1102、输入装置1103和输出装置1104可以通过总线或者其他方式连接,图11中以通过总线连接为例。
输入装置1103可接收输入的数字或字符信息,以及产生与实现语音转换方法或者语音转换模型的训练方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置1104可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以分布式系统的服务器,或者是结合了区块链的服务器。
根据本申请实施例的技术方案,在合成目标语音的音频时,不仅需要源语音的特征信息,还需要基于要转换的目标音色信息,才可以实现目标语音的音频的合成。也就是说,与现有的平行语料的语音转换相比,本实施例所采用的语音转换模型,不需要基于对齐方法,仅基于源语音的信息,便可以预测目标语音的信息,能够避免语音转换中信息的损失,有效地提高合成的目标语音的音频的准确性。
根据本申请实施例的技术方案,通过采用技术方案,避免进行对齐处理,减少语音转换中的信息损失,有效地提高合成的目标语音的音频的准确性。而且,本实施例中,编码器通过采用至少一组包括下采样单元和上采样单元的采样块来实现,可以对输入的源语音的特征信息不断进行压缩和解压,能够有效去除输入的源语音的特征信息中的音色信息,实现对输入的源语音的特征信息进行深度内容和音色信息的解耦,进而准确获取到源语音的深度内容信息,可以有效地保证生成的目标语音的声学特征信息的准确性,进而可以确保语音转换的准确性和转换效率。
根据本申请实施例的技术方案,可以基于各训练语音对应的训练特征信息和训练音色信息,训练语音转换模型,而不用采集转换后的目标音色的任何相关信息,也不需要进行对齐处理,能够有效地避免信息损失,进而能够有效地提高训练的语音转换模型的准确性,保证训练的语音转换模型的语音转换效果。
根据本申请实施例的技术方案,可以基于各训练语音对应的训练特征信息和训练音色信息,训练语音转换模型,而不用采集转换后的目标音色的任何相关信息,也不需要进行对齐处理,能够有效地避免信息损失,进而能够有效地提高训练的语音转换模型的准确性,保证训练的语音转换模型的语音转换效果。进一步地,本申请实施例的语音转换模型中的编码器采用至少一组包括下采样单元和上采样单元的采样块来实现,通过对输入信息不断进行压缩和解压,能够有效去除输入信息中的音色信息,实现对输入信息进行训练深度内容和训练音色信息的解耦,进而可以再基于语音转换模型中的解码器根据训练深度内容和训练音色信息进行信息的重构和恢复,所以本实施例中的语音转换模型的训练中不需要目标音色的任何信息,便可以实现语音转换模型的训练,能够有效地提高训练效率,而且可以有效地保证训练的语音转换模型的准确性。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (16)

1.一种语音转换方法,其中所述方法,包括:
基于源语音的音频,提取源语音的特征信息;
基于所述源语音的特征信息和要转换的目标音色信息,采用预先训练的语音转换模型,生成目标语音的声学特征信息;所述语音转换模型,用于实现在所述源语音的特征信息中,去除源音色信息,并添加目标音色信息,进而生成目标语音的声学特征信息;
基于所述目标语音的声学特征信息,采用预先训练的声码器,合成目标语音的音频;
基于源语音的音频,提取源语音的特征信息,包括:
基于所述源语音的音频,提取源语音的声学特征信息和源音色信息;
并将所述源语音的声学特征信息和所述源语音的源音色信息拼接,作为所述源语音的特征信息;所述源语音的声学特征信息包括源语音的音色信息、源语音的韵律信息以及源语音的内容信息。
2.根据权利要求1所述的方法,其中,基于所述源语音的特征信息和要转换的目标音色信息,采用预先训练的语音转换模型,生成目标语音的声学特征信息,包括:
基于所述源语音的特征信息,采用预先训练的所述语音转换模型中的编码器进行编码处理,以去除所述源语音的源音色信息,获取到所述源语音的深度内容信息;
基于要转换的所述目标音色信息和所述源语音的深度内容信息,采用预先训练的所述语音转换模型中的解码器,生成目标语音的声学特征信息。
3.根据权利要求1所述的方法,其中,所述语音转换模型中的编码器采用至少一组下采样单元和上采样单元构成。
4.一种如权利要求1-3任一所述方法使用的语音转换模型的训练方法,其中,所述方法包括:
采集数条训练语音的音频;
基于各所述训练语音的音频,提取所述训练语音的训练特征信息和训练音色信息;
基于各所述训练语音对应的所述训练特征信息和所述训练音色信息,训练语音转换模型。
5.根据权利要求4所述的方法,其中,基于各所述训练语音的音频,提取所述训练语音的训练特征信息,包括:
基于各所述训练语音的音频,提取所述训练语音的目标声学特征信息和所述训练语音的音色信息;将所述训练语音的声学特征信息和所述训练语音的音色信息拼接,作为所述训练语音的训练特征信息。
6.根据权利要求5所述的方法,其中,基于各所述训练语音对应的所述训练特征信息和所述训练音色信息,训练语音转换模型,包括:
对于各所述训练语音,获取所述语音转换模型中的编码器基于所述训练语音对应的所述训练特征信息,得到的训练深度内容信息;
获取所述语音转换模型中的解码器,基于所述训练深度内容信息和所述训练语音对应的所述训练音色信息,生成所述训练语音的预测声学特征信息;
基于所述训练语音的目标声学特征信息和所述训练语音的预测声学特征信息,构建损失函数;
检测所述损失函数是否收敛;
若未收敛,调整所述语音转换模型中的所述编码器和所述解码器的参数,使得所述损失函数趋于收敛。
7.根据权利要求4所述的方法,其中,所述语音转换模型中的编码器中采用至少一组采样块,各所述采样块包括下采样单元和上采样单元。
8.一种语音转换装置,其中所述装置,包括:
提取模块,用于基于源语音的音频,提取源语音的特征信息;
生成模块,用于基于所述源语音的特征信息和要转换的目标音色信息,采用预先训练的语音转换模型,生成目标语音的声学特征信息;所述语音转换模型,用于实现在所述源语音的特征信息中,去除源音色信息,并添加目标音色信息,进而生成目标语音的声学特征信息;
合成模块,用于基于所述目标语音的声学特征信息,采用预先训练的声码器,合成目标语音的音频;
所述合成模块,用于:
基于所述源语音的音频,提取源语音的声学特征信息和源音色信息;
并将所述源语音的声学特征信息和所述源语音的源音色信息拼接,作为所述源语音的特征信息;所述源语音的声学特征信息包括源语音的音色信息、源语音的韵律信息以及源语音的内容信息。
9.根据权利要求8所述的装置,其中,所述生成模块,包括:
编码单元,用于基于所述源语音的特征信息,采用预先训练的所述语音转换模型中的编码器进行编码处理,以去除所述源语音的源音色信息,获取到所述源语音的深度内容信息;
解码单元,用于基于要转换的所述目标音色信息和所述源语音的深度内容信息,采用预先训练的所述语音转换模型中的解码器,生成目标语音的声学特征信息。
10.根据权利要求8所述的装置,其中,所述语音转换模型中的编码器采用至少一组下采样单元和上采样单元构成。
11.一种如权利要求8-10任一所述装置中使用的语音转换模型的训练装置,其中,所述装置包括:
采集模块,用于采集数条训练语音的音频;
提取模块,用于基于各所述训练语音的音频,提取所述训练语音的训练特征信息和训练音色信息;
训练模块,用于基于各所述训练语音对应的所述训练特征信息和所述训练音色信息,训练语音转换模型。
12.根据权利要求11所述的装置,其中,所述提取模块,用于:
基于各所述训练语音的音频,提取所述训练语音的目标声学特征信息和所述训练语音的音色信息;将所述训练语音的声学特征信息和所述训练语音的音色信息拼接,作为所述训练语音的训练特征信息。
13.根据权利要求12所述的装置,其中,所述训练模块,包括:
获取单元,用于对于各所述训练语音,获取所述语音转换模型中的编码器基于所述训练语音对应的所述训练特征信息,得到的训练深度内容信息;
所述获取单元,还用于获取所述语音转换模型中的解码器,基于所述训练深度内容信息和所述训练语音对应的所述训练音色信息,生成所述训练语音的预测声学特征信息;
构建单元,用于基于所述训练语音的目标声学特征信息和所述训练语音的预测声学特征信息,构建损失函数;
检测单元,用于检测所述损失函数是否收敛;
调整单元,用于若未收敛,调整所述语音转换模型中的所述编码器和所述解码器的参数,使得所述损失函数趋于收敛。
14.根据权利要求11所述的装置,其中,所述语音转换模型中的编码器中采用至少一组采样块,各所述采样块包括下采样单元和上采样单元。
15.一种电子设备,其中,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-3中任一项所述的语音转换方法,或者,执行权利要求4-7中任一项所述的语音转换模型的训练方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-3中任一项所述的语音转换方法,或者,执行权利要求4-7中任一项所述的语音转换模型的训练方法。
CN202011375355.0A 2020-11-30 2020-11-30 语音转换及相应的模型训练方法、装置、设备及存储介质 Active CN112466275B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011375355.0A CN112466275B (zh) 2020-11-30 2020-11-30 语音转换及相应的模型训练方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011375355.0A CN112466275B (zh) 2020-11-30 2020-11-30 语音转换及相应的模型训练方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN112466275A CN112466275A (zh) 2021-03-09
CN112466275B true CN112466275B (zh) 2023-09-22

Family

ID=74805680

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011375355.0A Active CN112466275B (zh) 2020-11-30 2020-11-30 语音转换及相应的模型训练方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN112466275B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111883149B (zh) * 2020-07-30 2022-02-01 四川长虹电器股份有限公司 一种带情感和韵律的语音转换方法及装置
CN113129908B (zh) * 2021-03-24 2022-07-26 中国科学院声学研究所南海研究站 基于循环帧级特征融合的端到端猕猴声纹验证方法及系统
CN113345451B (zh) * 2021-04-26 2023-08-22 北京搜狗科技发展有限公司 一种变声方法、装置及电子设备
CN113345452B (zh) * 2021-04-27 2024-04-26 北京搜狗科技发展有限公司 语音转换方法、语音转换模型的训练方法、装置和介质
CN113178201A (zh) * 2021-04-30 2021-07-27 平安科技(深圳)有限公司 基于无监督的语音转换方法、装置、设备及介质
CN113470664B (zh) * 2021-06-30 2024-01-30 平安科技(深圳)有限公司 语音转换方法、装置、设备及存储介质
CN113793598B (zh) * 2021-09-15 2023-10-27 北京百度网讯科技有限公司 语音处理模型的训练方法和数据增强方法、装置及设备
CN114023342B (zh) * 2021-09-23 2022-11-11 北京百度网讯科技有限公司 一种语音转换方法、装置、存储介质及电子设备
CN114360557B (zh) * 2021-12-22 2022-11-01 北京百度网讯科技有限公司 语音音色转换方法、模型训练方法、装置、设备和介质
CN114360558B (zh) * 2021-12-27 2022-12-13 北京百度网讯科技有限公司 语音转换方法、语音转换模型的生成方法及其装置
CN115602182B (zh) * 2022-12-13 2023-04-07 广州感音科技有限公司 声音变换方法、系统、计算机设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006030609A (ja) * 2004-07-16 2006-02-02 Yamaha Corp 音声合成データ生成装置、音声合成装置、音声合成データ生成プログラム及び音声合成プログラム
CN110097890A (zh) * 2019-04-16 2019-08-06 北京搜狗科技发展有限公司 一种语音处理方法、装置和用于语音处理的装置
CN110288975A (zh) * 2019-05-17 2019-09-27 北京达佳互联信息技术有限公司 语音风格迁移方法、装置、电子设备及存储介质
CN110970014A (zh) * 2019-10-31 2020-04-07 阿里巴巴集团控股有限公司 语音转换、文件生成、播音、语音处理方法、设备及介质
CN111048109A (zh) * 2019-12-25 2020-04-21 广州酷狗计算机科技有限公司 声学特征的确定方法、装置、计算机设备及存储介质
CN111261177A (zh) * 2020-01-19 2020-06-09 平安科技(深圳)有限公司 语音转换方法、电子装置及计算机可读存储介质
CN111785261A (zh) * 2020-05-18 2020-10-16 南京邮电大学 基于解纠缠和解释性表征的跨语种语音转换方法及系统
CN111883149A (zh) * 2020-07-30 2020-11-03 四川长虹电器股份有限公司 一种带情感和韵律的语音转换方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8831762B2 (en) * 2009-02-17 2014-09-09 Kyoto University Music audio signal generating system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006030609A (ja) * 2004-07-16 2006-02-02 Yamaha Corp 音声合成データ生成装置、音声合成装置、音声合成データ生成プログラム及び音声合成プログラム
CN110097890A (zh) * 2019-04-16 2019-08-06 北京搜狗科技发展有限公司 一种语音处理方法、装置和用于语音处理的装置
CN110288975A (zh) * 2019-05-17 2019-09-27 北京达佳互联信息技术有限公司 语音风格迁移方法、装置、电子设备及存储介质
CN110970014A (zh) * 2019-10-31 2020-04-07 阿里巴巴集团控股有限公司 语音转换、文件生成、播音、语音处理方法、设备及介质
CN111048109A (zh) * 2019-12-25 2020-04-21 广州酷狗计算机科技有限公司 声学特征的确定方法、装置、计算机设备及存储介质
CN111261177A (zh) * 2020-01-19 2020-06-09 平安科技(深圳)有限公司 语音转换方法、电子装置及计算机可读存储介质
CN111785261A (zh) * 2020-05-18 2020-10-16 南京邮电大学 基于解纠缠和解释性表征的跨语种语音转换方法及系统
CN111883149A (zh) * 2020-07-30 2020-11-03 四川长虹电器股份有限公司 一种带情感和韵律的语音转换方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
B. Trayanova et al..Mapping speech signals to musical scores through prosodic extraction.Proceedings. (ICASSP '05). IEEE International Conference on Acoustics, Speech, and Signal Processing, 2005..2005,全文. *
稳定音色的音乐语音变调方法;张栋等;计算机工程;全文 *

Also Published As

Publication number Publication date
CN112466275A (zh) 2021-03-09

Similar Documents

Publication Publication Date Title
CN112466275B (zh) 语音转换及相应的模型训练方法、装置、设备及存储介质
CN112382271B (zh) 语音处理方法、装置、电子设备和存储介质
CN112365882B (zh) 语音合成方法及模型训练方法、装置、设备及存储介质
CN112365880B (zh) 语音合成方法、装置、电子设备及存储介质
KR102484967B1 (ko) 음성 전환 방법, 장치 및 전자 기기
JP7194779B2 (ja) 音声合成方法及び対応するモデルのトレーニング方法、装置、電子機器、記憶媒体、並びにコンピュータプログラム
CN110619867B (zh) 语音合成模型的训练方法、装置、电子设备及存储介质
CN110473516B (zh) 语音合成方法、装置以及电子设备
CN112509552B (zh) 语音合成方法、装置、电子设备和存储介质
CN112270920A (zh) 一种语音合成方法、装置、电子设备和可读存储介质
CN112365877A (zh) 语音合成方法、装置、电子设备和存储介质
CN112287698B (zh) 篇章翻译方法、装置、电子设备和存储介质
CN112365879A (zh) 语音合成方法、装置、电子设备和存储介质
CN112116903A (zh) 语音合成模型的生成方法、装置、存储介质及电子设备
CN113111812A (zh) 一种嘴部动作驱动模型训练方法及组件
CN112365875A (zh) 语音合成方法、装置、声码器和电子设备
CN114023342A (zh) 一种语音转换方法、装置、存储介质及电子设备
CN112541956A (zh) 动画合成方法、装置、移动终端和电子设备
CN111883101A (zh) 一种模型训练及语音合成方法、装置、设备和介质
JP7412483B2 (ja) 音声処理方法、装置、電子機器及び記憶媒体
KR20220104106A (ko) 음성 합성 방법, 장치, 전자 기기 및 저장 매체
CN114841175A (zh) 机器翻译方法、装置、设备及存储介质
CN111753147A (zh) 相似度处理方法、装置、服务器及存储介质
CN113096636B (zh) 语音合成装置、方法、电子设备和存储介质
CN114360558B (zh) 语音转换方法、语音转换模型的生成方法及其装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant