CN117316139A - 训练语音合成模型及语音合成的方法和装置 - Google Patents
训练语音合成模型及语音合成的方法和装置 Download PDFInfo
- Publication number
- CN117316139A CN117316139A CN202311402770.4A CN202311402770A CN117316139A CN 117316139 A CN117316139 A CN 117316139A CN 202311402770 A CN202311402770 A CN 202311402770A CN 117316139 A CN117316139 A CN 117316139A
- Authority
- CN
- China
- Prior art keywords
- acoustic
- source
- voice
- target
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 105
- 238000003786 synthesis reaction Methods 0.000 title claims abstract description 105
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000012549 training Methods 0.000 title claims abstract description 82
- 238000006243 chemical reaction Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 14
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 239000013598 vector Substances 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 11
- 238000004891 communication Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 7
- 239000003550 marker Substances 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 108060008683 Tumor Necrosis Factor Receptor Proteins 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013518 transcription Methods 0.000 description 3
- 230000035897 transcription Effects 0.000 description 3
- 102000003298 tumor necrosis factor receptor Human genes 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241001672694 Citrus reticulata Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
Abstract
本公开提供了训练语音合成模型及语音合成的方法和装置,涉及人工智能领域,尤其涉及语音技术领域。具体实现方案为:获取训练样本;将源文本的音素序列、目标文本的音素序列和源语音的声学标记输入语音合成模型中的自回归编码器,得到目标语音的第一层量化器的声学标记;将目标语音的第一层量化器的声学标记、目标文本的音素序列和参考语音的声学标记输入语音合成模型中的非自回归编码器,得到目标语音的其余层量化器的声学标记;根据第一层量化器的声学标记和其余层量化器的声学标记的合并结果与声学标记标签的差异计算损失值;根据损失值调整自回归编码器和非自回归编码器的网络参数。该实施方式生成了具有灵活性和个性化的语音合成模型。
Description
技术领域
本公开涉及人工智能领域,尤其涉及语音技术领域,具体为一种训练语音合成模型及语音合成的方法和装置。
背景技术
人工智能(artificial intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式作出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。人工智能领域的研究包括机器人,自然语言处理,计算机视觉,决策与推理,人机交互,推荐与搜索,AI基础理论等。
目前,随着多媒体通信技术的不断发展,作为人机通信重要方式之一的语音合成技术以其方便、快捷的优点受到研究者的广泛关注。在端对端的语音合成(text tospeech,TTS)场景下,TTS模型旨在合成语音的各个方面,诸如说话风格,以产生类似人的自然话语的语音。
发明内容
本公开提供了一种训练语音合成模型及语音合成的方法、装置、设备、存储介质以及计算机程序产品。
根据本公开的第一方面,提供了一种训练语音合成模型的方法,包括:获取训练样本,其中,所述训练样本包括:源语音的声学标记、源文本的音素序列、目标文本的音素序列、目标语音的声学标记标签、参考语音的声学标记;将所述源文本的音素序列、所述目标文本的音素序列和源语音的声学标记输入语音合成模型中的自回归编码器,得到目标语音的第一层量化器的声学标记;将所述目标语音的第一层量化器的声学标记、目标文本的音素序列和参考语音的声学标记输入语音合成模型中的非自回归编码器,得到目标语音的其余层量化器的声学标记;根据所述第一层量化器的声学标记和所述其余层量化器的声学标记的合并结果与所述声学标记标签的差异计算损失值;根据所述损失值调整所述自回归编码器和所述非自回归编码器的网络参数。
根据本公开的第二方面,提供了一种语音合成的方法,包括:获取源语音和目标文本;将所述源语音输入语音识别模型,得到源文本;将所述源文本和所述目标文本分别输入音素转换模型,得到源文本的音素序列和目标文本的音素序列;将所述源语音输入音频编解码器的编码器,得到源语音的第一层量化器的声学标记;将所述源语音的第一层量化器的声学标记、所述源文本的音素序列和所述目标文本的音素序列输入根据第一方面任一项所述的方法训练的语音合成模型,输出目标语音的声学标记;将所述目标语音的声学标记输入音频编解码器的解码器,得到合成的目标语音。
根据本公开的第三方面,提供了一种训练语音合成模型的装置,包括:获取单元,被配置成获取训练样本,其中,所述训练样本包括:源语音的声学标记、源文本的音素序列、目标文本的音素序列、目标语音的声学标记标签、参考语音的声学标记;第一编码单元,被配置成将所述源文本的音素序列、所述目标文本的音素序列和源语音的声学标记输入语音合成模型中的自回归编码器,得到目标语音的第一层量化器的声学标记;第二编码单元,被配置成将所述目标语音的第一层量化器的声学标记、目标文本的音素序列和参考语音的声学标记输入语音合成模型中的非自回归编码器,得到目标语音的其余层量化器的声学标记;计算单元,被配置成根据所述第一层量化器的声学标记和所述其余层量化器的声学标记的合并结果与所述声学标记标签的差异计算损失值;调整单元,被配置成根据所述损失值调整所述自回归编码器和所述非自回归编码器的网络参数。
根据本公开的第四方面,提供了一种语音合成的装置,包括:获取单元,被配置成获取源语音和目标文本;语音识别单元,被配置成将所述源语音输入语音识别模型,得到源文本;音素转换单元,被配置成将所述源文本和所述目标文本分别输入音素转换模型,得到源文本的音素序列和目标文本的音素序列;编码单元,被配置成将所述源语音输入音频编解码器的编码器,得到源语音的第一层量化器的声学标记;预测单元,被配置成将所述源语音的第一层量化器的声学标记、所述源文本的音素序列和所述目标文本的音素序列输入根据第三方面所述的装置训练的语音合成模型,输出目标语音的声学标记;合成单元,被配置成将所述目标语音的声学标记输入音频编解码器的解码器,得到合成的目标语音。
根据本公开的第五方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面或第二方面中任一项所述的方法。
根据本公开的第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行第一方面或第二方面中任一项所述的方法。
根据本公开的第七方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现第一方面或第二方面中任一项所述的方法。
本公开的实施例提供的训练语音合成模型及语音合成的方法和装置,训练了一个多语言条件编解码器语言模型,通过使用源语言及其语音和目标语言文本作为提示,来预测目标语言语音的声学标记。与传统的TTS(文本到语音)方法不同,本申请将TTS视为具有声学标记的中间表示条件进行语言建模任务,为语音合成任务提供了更高的灵活性和个性化的输出。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是本公开可以应用于其中的示例性系统架构图;
图2是根据本公开训练语音合成模型的方法的一个实施例的流程图;
图3是根据本公开训练语音合成模型的方法的一个应用场景的示意图;
图4是根据本公开语音合成的方法的一个实施例的流程图;
图5是根据本公开训练语音合成模型的装置的一个实施例的结构示意图;
图6是根据本公开语音合成的装置的一个实施例的结构示意图;
图7是适于用来实现本公开实施例的电子设备的计算机系统的结构示意图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1示出了可以应用本公开实施例的训练语音合成模型的方法、训练语音合成模型的装置、语音合成的方法或语音合成的装置的示例性系统架构100。
如图1所示,系统架构100可以包括终端101、102,网络103、数据库服务器104和服务器105。网络103用以在终端101、102,数据库服务器104与服务器105之间提供通信链路的介质。网络103可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户110可以使用终端101、102通过网络103与服务器105进行交互,以接收或发送消息等。终端101、102上可以安装有各种客户端应用,例如模型训练类应用、语音合成类应用、购物类应用、支付类应用、网页浏览器和即时通讯工具等。
这里的终端101、102可以是硬件,也可以是软件。当终端101、102为硬件时,可以是具有麦克风的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、膝上型便携计算机和台式计算机等等。当终端101、102为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
当终端101、102为硬件时,其上还可以安装有声音采集设备。声音采集设备可以是各种能实现采集声音功能的设备,如麦克风、传感器等等。用户110可以利用终端101、102上的声音采集设备,来采集自身或他人的声音。
数据库服务器104可以是提供各种服务的数据库服务器。例如数据库服务器中可以存储有训练样本集。训练样本集中包含有大量的训练样本。其中,训练样本可以包括源语音的声学标记、源文本的音素序列、目标文本的音素序列、目标语音的声学标记标签、参考语音的声学标记。这样,用户110也可以通过终端101、102,从数据库服务器104所存储的训练样本集中选取训练样本。
服务器105也可以是提供各种服务的服务器,例如对终端101、102上显示的各种应用提供支持的后台服务器。后台服务器可以利用终端101、102发送的训练样本集中的训练样本,对初始模型进行训练,并可以将训练结果(如生成的语音合成模型)发送给终端101、102。这样,用户可以应用生成的语音合成模型进行语音合成。
这里的数据库服务器104和服务器105同样可以是硬件,也可以是软件。当它们为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当它们为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。数据库服务器104和服务器105也可以为分布式系统的服务器,或者是结合了区块链的服务器。数据库服务器104和服务器105也可以是云服务器,或者是带人工智能技术的智能云计算服务器或智能云主机。
需要说明的是,本公开实施例所提供的训练语音合成模型的方法或语音合成的方法一般由服务器105执行。相应地,训练语音合成模型的装置或语音合成的装置一般也设置于服务器105中。
需要指出的是,在服务器105可以实现数据库服务器104的相关功能的情况下,系统架构100中可以不设置数据库服务器104。
应该理解,图1中的终端、网络、数据库服务器和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端、网络、数据库服务器和服务器。
继续参见图2,其示出了根据本公开的训练语音合成模型的方法的一个实施例的流程200。该训练语音合成模型的方法可以包括以下步骤:
步骤201,获取训练样本。
在本实施例中,训练语音合成模型的方法的执行主体(例如图1所示的服务器105)可以通过多种方式来获取训练样本集。例如,执行主体可以通过有线连接方式或无线连接方式,从数据库服务器(例如图1所示的数据库服务器104)中获取存储于其中的现有的训练样本集。再例如,用户可以通过终端(例如图1所示的终端101、102)来收集训练样本。这样,执行主体可以接收终端所收集的训练样本,并将这些训练样本存储在本地,从而生成训练样本集。
在这里,训练样本集中可以包括至少一个训练样本。其中,训练样本包括:源语音的声学标记、源文本的音素序列、目标文本的音素序列、目标语音的声学标记标签、参考语音的声学标记。可以从训练样本集集中随机选取至少一个训练样本,也可以是选取源语音和目标语音较长的训练样本。
源语音、参考语音和目标语音都是来自于同一个人,但是对应的内容不同。源语音的转录就是源文本,目标语音的转录就是目标文本。可预先准备源文本、目标文本、参考文本由同一个人来朗读,从而得到源语音、目标语音和参考语音。也可由同一个人说多句话,分别作为源语音、目标语音和参考语音,然后再将源语音、目标语音经过语音识别得到源文本、目标文本。
语音和转录的文本分别使用音频编解码器编码器(Encodec)和G2P音素转化工具转换为声学标记A和音素序列C。为了加以区分,可分别表示为:源语音的声学标记Ac、源文本的音素序列cc、目标文本的音素序列ct、目标语音的声学标记标签Ab、参考语音的声学标记A~。Encodec编码出来的token(声学标记)是具有层级结构的(使用了RVQ残差结构的缘故),第一层量化器的声学标记往往包含了发音者的音色等相关的声学特征,而第二到第八层声学标记学习到的是更加细节的东西。
步骤202,将源文本的音素序列、目标文本的音素序列和源语音的声学标记输入语音合成模型中的自回归编码器,得到目标语音的第一层量化器的声学标记。
在本实施例中,自回归编解码器(φTFR)是一个单向Transformer解码器,根据语义标记(音素序列)自回归地生成声学标记。为了提高句子级训练的效率并加速推理过程,本申请只使用TFR来预测模型的第一层量化器的声学标记(At:,1)。TFR通过最大化对数似然来进行优化,其中对数似然由以下公式给出:TFR=-logpAR(At:,1|C,Ac:,1:8;φTFR),其中Ac:,1:8是从源语音中提取的声学标记,也可只输入源语音的第一层量化器的声学标记Ac:,1,C是转录的音素序列(是由源文本的音素序列cc、目标文本的音素序列ct连接起来的),pAR是softmax函数。
步骤203,将目标语音的第一层量化器的声学标记、目标文本的音素序列和参考语音的声学标记输入语音合成模型中的非自回归编码器,得到目标语音的其余层量化器的声学标记。
在本实施例中,非自回归编解码器(φTNFR)是一个非自回归的Transformer语言模型,旨在从第一层量化器的声学标记中迭代地生成其余层的声学标记。它以当前句子的音素序列(Ct)和具有相同说话人的另一个句子的声学标记序列(A~:,1:8)作为提示。TNFR的学习目标是最大化对数似然,公式如下:TNFR=∑logpNAR(At:l|l=2,...8|{Ct,A~:,1:8,At:,1};φTNFR)其中,A:,1是第1层的声学标记,A~:,1:8是从训练样本集中与源语音同一声音来源的其它句子中提取的声学标记,用作额外的参考。通过最大化对数似然来优化模型的参数,以生成准确的声学标记。
步骤204,根据第一层量化器的声学标记和其余层量化器的声学标记的合并结果与声学标记标签的差异计算损失值。
在本实施例中,自回归编解码器得到了第一层量化器的声学标记,非自回归编解码器得到了第二层到第八层量化器的声学标记,合并结果即为预测的目标语音的声学标记。本申请的语音合成模型训练过程为有监督的训练,将训练样本中目标语音的声学标记标签作为监督信号,根据预测的目标语音的声学标记与监督信号之间的差异计算损失值。可通过交叉熵函数计算损失值。
步骤205,根据损失值调整自回归编码器和非自回归编码器的网络参数。
在本实施例中,采用梯度下降法根据损失值调整自回归编码器和非自回归编码器的网络参数。若损失值没有收敛到预定阈值,则重复执行步骤201-205,直到损失值收敛到预定阈值。
本实施例中训练语音合成模型的方法,可以得到快捷、准确的语音合成合成模型。该语音合成模型可以根据一个训练集中没见过的说话者的参考音频进行语音合成,得到声学标记,再通过解码器(decoder)合成的语音,通过学习到的第一层量化器的声学标记保留了参考音频中的音色、环境条件如混响、以及说话的情感。
在本实施例的一些可选地实现方式中,所述目标文本和所述源文本的语言不同,所述源语音的声学标记中嵌入了语言标识。可以利用双语语音转录(ASR)语料库,成对的(cc,Ac)和(ct,At)来训练多语言语音合成模型。
语言标识是用于指导特定语言的语音生成。如果没有语言标识,语音合成模型会在选择特定语言的声学标记时会迷茫,因为它是使用多语言数据进行训练的。另一方面,一些语言具有非常不同的特征,这增加了跨语言调整说话风格的难度,本申请将语言标识嵌入到密集向量中,并将其添加到声学标记的嵌入中。例如汉语是声调语言,而英语是非声调语言。这在引导正确的说话风格和缓解口音问题方面出奇地有效。
如果目标文本和源语音是同种语言,则可将目标文本通过翻译工具翻译成语言标识指定的语言后,作为新的目标文本,执行上述过程。这样可以实现多语言的语音合成,即实现翻译+语音合成的功能。
在本实施例的一些可选地实现方式中,所述获取训练样本,包括:将源语音输入音频编解码器的编码器,得到源语音的声学标记。训练样本可以是现有的公开数据源,也可以自行制作。可以采集不同来源的源语音,以防止训练的模型过拟合。例如,可采集不同性别、年龄、地区的人的语音。甚至可以是方言,或者不标准的普通话(例如,川普、广普等)。
在本实施例的一些可选地实现方式中,所述获取训练样本,包括:将源语音输入语音识别模型,得到源文本;将所述源文本输入音素转换模型,得到源文本的音素序列。这样不需要提前准备文本让用户照着朗读,可以让用户随便说,然后转换文本。这样生成的训练样本更丰富,防止训练的模型过拟合。
在本实施例的一些可选地实现方式中,所述获取训练样本,包括:将目标语音输入音频编解码器的编码器,得到目标语音的声学标记标签。可以针对性的快速、便捷地自制样本。例如,同一个人成年的语音作为源语音,儿童时的语音作为目标语音,分别提取声学标记以及对应的源文本的音素序列、目标文本的音素序列。利用这种样本训练出的语音合成模型,可以实现声音的年龄转换,将一个成年人的语音转换成自己儿童时的语音,保留自己的发音特点。还可以反过来,同一个人儿童时的语音作为源语音,成年后的语音作为目标语音,制作样本。生成的语音合成模型可以将儿童的语音转换成年后的语音。可针对不同应用场景灵活地生成训练样本,从而实现不同的语音合成效果。
在本实施例的一些可选地实现方式中,所述方法还包括:将所述第一层量化器的声学标记和所述其余层量化器的声学标记的合并结果输入音频编解码器的解码器,得到合成的目标语音。可以将训练样本合成语音,由人工判断是否转换的准确。只要达到人耳区分不出来的程度就可以结束训练,从而加快模型训练速度。
在本实施例的一些可选地实现方式中,所述方法还包括:通过最大化softmax函数的对数似然来优化所述自回归编码器和所述非自回归编码器的网络参数。可以进一步加快模型的收敛速度。
进一步参见图3,图3是根据本实施例的训练语音合成模型的方法的一个应用场景的示意图。在图3的应用场景中,将源文本的音素序列cc和目标文本的音素序列ct连接起来作为提示,然后将源语音的第一层量化器的声学标记Ac:,1作为解码前缀,基于这个前缀,自回归编解码器生成目标语言的第一层量化器的声学标记At:,1。在从自回归编解码器获取到目标语言的第一层量化器的声学标记At:,1后,使用非自回归编解码器通过贪婪搜索来预测剩余层的声学标记{At:,l∣l=2,…,8},选择具有最大概率的标记,最后,使用解码器根据完整的目标语言声学标记At:,1:8合成目标语音。
请参见图4,其示出了本公开提供的语音合成的方法的一个实施例的流程400。该语音合成的方法可以包括以下步骤:
步骤401,获取源语音和目标文本。
在本实施例中,语音合成的方法的执行主体(例如图1所示的服务器105)可以通过多种方式来获取源语音和目标文本。例如,执行主体可以通过有线连接方式或无线连接方式,从数据库服务器(例如图1所示的数据库服务器104)中获取存储于其中的源语音和目标文本。再例如,执行主体也可以接收终端(例如图1所示的终端101、102)或其他设备采集的源语音和目标文本。源语音可以是很短的一句话,例如,3秒钟的语音,用于提取说话人的声音特征。目标文本为待转换成语音的内容。
步骤402,将源语音输入语音识别模型,得到源文本。
在本实施例中,语音识别(Automatic Speech Recognition,ASR)模型,其目标是将人类的语音中的词汇内容转换为计算机可读的输入,例如按键、二进制编码或者字符序列。
步骤403,将源文本和目标文本分别输入音素转换模型,得到源文本的音素序列和目标文本的音素序列。
在本实施例中,通过G2P(字音转化,Grapheme-To-Phoneme)分别将源文本和目标文本转换成源文本的音素序列和目标文本的音素序列。在语音合成中,中文的音素常常使用的是拼音,实际上会切分为声母和韵母,并且会调整删除yw声母、调整[jqx]后的u、[zcs]后的i、"[zcs]h|r"后的i和其他声母之后的i区分开来。英文则多使用的是ARPAbet符号集。
在多语种的语音合成中,有时我们也会将不同语种的音素再转化为不同语种之间有交叉集合的国际音标来实现声学模型不同语种之间的迁移。
步骤404,将源语音输入音频编解码器的编码器,得到源语音的第一层量化器的声学标记。
在本实施例中,声学标记是离散的音频表示,可提供声学细节的高保真重建。训练了一个SoundStream神经编解码器来重建语音,同时将其压缩成一些离散单元。SoundStream通过在卷积自编码器的瓶颈中添加一个残差量化器来实现这一目标。一共得到8层量化器的声学标记,可使用源语音的第一层量化器的声学标记来生成目标语音的第一层量化器的声学标记。
步骤405,将源语音的第一层量化器的声学标记、源文本的音素序列和目标文本的音素序列输入语音合成模型,输出目标语音的声学标记。
在本实施例中,语音合成模型可以是采用如上述图2实施例所描述的方法而生成的。具体生成过程可以参见图2实施例的相关描述,在此不再赘述。
步骤406,将目标语音的声学标记输入音频编解码器的解码器,得到合成的目标语音。
在本实施例中,语音合成模型输出的是声学标记,还需要通过音频编解码器的解码器,才能得到合成的目标语音。
需要说明的是,本实施例语音合成的方法可以用于测试上述各实施例所生成的语音合成模型。进而根据测试结果可以不断地优化语音合成模型。该方法也可以是上述各实施例所生成的语音合成模型的实际应用方法。采用上述各实施例所生成的语音合成模型,来进行语音合成,有助于提高语音合成的性能。
在本实施例的一些可选的实现方式中,所述将所述源语音的第一层量化器的声学标记、所述源文本的音素序列和所述目标文本的音素序列输入根据权利要求1-7中任一项所述的方法训练的语音合成模型,输出目标语音的声学标记,包括:将所述源语音的第一层量化器的声学标记作为前缀通过自回归编码器采集概率采样的方式生成目标语音的第一层量化器的声学标记;基于所述目标语音的第一层量化器的声学标记通过非自回归编码器进行贪婪搜索来预测目标语音的其余层量化器的声学标记。这样便可以显著增加合成的多样性,并加快训练速度。
在本实施例的一些可选的实现方式中,所述方法还包括:获取语言标识;将所述语言标识转换成嵌入向量添加到源语音的第一层量化器的声学标记中。如果目标文本和源语音是同种语言,则可将目标文本通过翻译工具翻译成语言标识指定的语言后,作为新的目标文本,执行上述过程。这样可以实现多语言的语音合成,即实现翻译+语音合成的功能。
继续参见图5,作为对上述各图所示方法的实现,本公开提供了一种训练语音合成模型的装置的一个实施例。该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的训练语音合成模型的装置500可以包括:获取单元501、第一编码单元502、第二编码单元503、计算单元504和调整单元505。其中,获取单元501,被配置成获取训练样本,其中,所述训练样本包括:源语音的声学标记、源文本的音素序列、目标文本的音素序列、目标语音的声学标记标签、参考语音的声学标记;第一编码单元502,被配置成将所述源文本的音素序列、所述目标文本的音素序列和源语音的声学标记输入语音合成模型中的自回归编码器,得到目标语音的第一层量化器的声学标记;第二编码单元503,被配置成将所述目标语音的第一层量化器的声学标记、目标文本的音素序列和参考语音的声学标记输入语音合成模型中的非自回归编码器,得到目标语音的其余层量化器的声学标记;计算单元504,被配置成根据所述第一层量化器的声学标记和所述其余层量化器的声学标记的合并结果与所述声学标记标签的差异计算损失值;调整单元505,被配置成根据所述损失值调整所述自回归编码器和所述非自回归编码器的网络参数。
在本实施例的一些可选的实现方式中,所述目标文本和所述源文本的语言不同,所述源语音的声学标记中嵌入了语言标识。
在本实施例的一些可选的实现方式中,所述获取单元501进一步被配置成:将源语音输入音频编解码器的编码器,得到源语音的声学标记。
在本实施例的一些可选的实现方式中,所述获取单元501进一步被配置成:将源语音输入语音识别模型,得到源文本;将所述源文本输入音素转换模型,得到源文本的音素序列。
在本实施例的一些可选的实现方式中,所述获取单元501进一步被配置成:将目标语音输入音频编解码器的编码器,得到目标语音的声学标记标签。
在本实施例的一些可选的实现方式中,所述装置500还包括合成单元(附图中未示出),被配置成:将所述第一层量化器的声学标记和所述其余层量化器的声学标记的合并结果输入音频编解码器的解码器,得到合成的目标语音。
在本实施例的一些可选的实现方式中,所述调整单元505进一步被配置成:通过最大化softmax函数的对数似然来优化所述自回归编码器和所述非自回归编码器的网络参数。
继续参见图6,作为对上述图4所示方法的实现,本公开提供了一种语音合成的装置的一个实施例。该装置实施例与图4所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的语音合成的装置600可以包括:获取单元601,被配置成获取源语音和目标文本;语音识别单元602,被配置成将所述源语音输入语音识别模型,得到源文本;音素转换单元603,被配置成将所述源文本和所述目标文本分别输入音素转换模型,得到源文本的音素序列和目标文本的音素序列;编码单元604,被配置成将所述源语音输入音频编解码器的编码器,得到源语音的第一层量化器的声学标记;预测单元605,被配置成将所述源语音的第一层量化器的声学标记、所述源文本的音素序列和所述目标文本的音素序列输入装置500训练的语音合成模型,输出目标语音的声学标记;合成单元606,被配置成将所述目标语音的声学标记输入音频编解码器的解码器,得到合成的目标语音。
在本实施例的一些可选的实现方式中,所述预测单元605进一步被配置成:将所述源语音的第一层量化器的声学标记作为前缀通过自回归编码器采集概率采样的方式生成目标语音的第一层量化器的声学标记;基于所述目标语音的第一层量化器的声学标记通过非自回归编码器进行贪婪搜索来预测目标语音的其余层量化器的声学标记。
在本实施例的一些可选的实现方式中,所述编码单元604进一步被配置成:获取语言标识;将所述语言标识转换成嵌入向量添加到源语音的第一层量化器的声学标记中。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行流程200或400所述的方法。
一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行流程200或400所述的方法。
一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现流程200或400所述的方法。
图7示出了可以用来实施本公开的实施例的示例电子设备700的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,设备700包括计算单元701,其可以根据存储在只读存储器(ROM)702中的计算机程序或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序,来执行各种适当的动作和处理。在RAM 703中,还可存储设备700操作所需的各种程序和数据。计算单元701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
设备700中的多个部件连接至I/O接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如训练语音合成模型的方法。例如,在一些实施例中,训练语音合成模型的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM 702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序加载到RAM 703并由计算单元701执行时,可以执行上文描述的训练语音合成模型的方法的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行训练语音合成模型的方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (23)
1.一种训练语音合成模型的方法,包括:
获取训练样本,其中,所述训练样本包括:源语音的声学标记、源文本的音素序列、目标文本的音素序列、目标语音的声学标记标签、参考语音的声学标记;
将所述源文本的音素序列、所述目标文本的音素序列和源语音的声学标记输入语音合成模型中的自回归编码器,得到目标语音的第一层量化器的声学标记;
将所述目标语音的第一层量化器的声学标记、目标文本的音素序列和参考语音的声学标记输入语音合成模型中的非自回归编码器,得到目标语音的其余层量化器的声学标记;
根据所述第一层量化器的声学标记和所述其余层量化器的声学标记的合并结果与所述声学标记标签的差异计算损失值;
根据所述损失值调整所述自回归编码器和所述非自回归编码器的网络参数。
2.根据权利要求1所述的方法,其中,所述目标文本和所述源文本的语言不同,所述源语音的声学标记中嵌入了语言标识。
3.根据权利要求1所述的方法,所述获取训练样本,包括:
将源语音输入音频编解码器的编码器,得到源语音的声学标记。
4.根据权利要求1所述的方法,所述获取训练样本,包括:
将源语音输入语音识别模型,得到源文本;
将所述源文本输入音素转换模型,得到源文本的音素序列。
5.根据权利要求1所述的方法,所述获取训练样本,包括:
将目标语音输入音频编解码器的编码器,得到目标语音的声学标记标签。
6.根据权利要求1所述的方法,所述方法还包括:
将所述第一层量化器的声学标记和所述其余层量化器的声学标记的合并结果输入音频编解码器的解码器,得到合成的目标语音。
7.根据权利要求1所述的方法,所述方法还包括:
通过最大化softmax函数的对数似然来优化所述自回归编码器和所述非自回归编码器的网络参数。
8.一种语音合成的方法,包括:
获取源语音和目标文本;
将所述源语音输入语音识别模型,得到源文本;
将所述源文本和所述目标文本分别输入音素转换模型,得到源文本的音素序列和目标文本的音素序列;
将所述源语音输入音频编解码器的编码器,得到源语音的第一层量化器的声学标记;
将所述源语音的第一层量化器的声学标记、所述源文本的音素序列和所述目标文本的音素序列输入根据权利要求1-7中任一项所述的方法训练的语音合成模型,输出目标语音的声学标记;
将所述目标语音的声学标记输入音频编解码器的解码器,得到合成的目标语音。
9.根据权利要求8所述的方法,其中,所述将所述源语音的第一层量化器的声学标记、所述源文本的音素序列和所述目标文本的音素序列输入根据权利要求1-7中任一项所述的方法训练的语音合成模型,输出目标语音的声学标记,包括:
将所述源语音的第一层量化器的声学标记作为前缀通过自回归编码器采集概率采样的方式生成目标语音的第一层量化器的声学标记;
基于所述目标语音的第一层量化器的声学标记通过非自回归编码器进行贪婪搜索来预测目标语音的其余层量化器的声学标记。
10.根据权利要求8所述的方法,其中,所述方法还包括:
获取语言标识;
将所述语言标识转换成嵌入向量添加到源语音的第一层量化器的声学标记中。
11.一种训练语音合成模型的装置,包括:
获取单元,被配置成获取训练样本,其中,所述训练样本包括:源语音的声学标记、源文本的音素序列、目标文本的音素序列、目标语音的声学标记标签、参考语音的声学标记;
第一编码单元,被配置成将所述源文本的音素序列、所述目标文本的音素序列和源语音的声学标记输入语音合成模型中的自回归编码器,得到目标语音的第一层量化器的声学标记;
第二编码单元,被配置成将所述目标语音的第一层量化器的声学标记、目标文本的音素序列和参考语音的声学标记输入语音合成模型中的非自回归编码器,得到目标语音的其余层量化器的声学标记;
计算单元,被配置成根据所述第一层量化器的声学标记和所述其余层量化器的声学标记的合并结果与所述声学标记标签的差异计算损失值;
调整单元,被配置成根据所述损失值调整所述自回归编码器和所述非自回归编码器的网络参数。
12.根据权利要求11所述的装置,其中,所述目标文本和所述源文本的语言不同,所述源语音的声学标记中嵌入了语言标识。
13.根据权利要求11所述的装置,所述获取单元进一步被配置成:
将源语音输入音频编解码器的编码器,得到源语音的声学标记。
14.根据权利要求11所述的装置,所述获取单元进一步被配置成:
将源语音输入语音识别模型,得到源文本;
将所述源文本输入音素转换模型,得到源文本的音素序列。
15.根据权利要求11所述的装置,所述获取单元进一步被配置成:
将目标语音输入音频编解码器的编码器,得到目标语音的声学标记标签。
16.根据权利要求11所述的装置,所述装置还包括合成单元,被配置成:
将所述第一层量化器的声学标记和所述其余层量化器的声学标记的合并结果输入音频编解码器的解码器,得到合成的目标语音。
17.根据权利要求11所述的装置,所述调整单元进一步被配置成:
通过最大化softmax函数的对数似然来优化所述自回归编码器和所述非自回归编码器的网络参数。
18.一种语音合成的装置,包括:
获取单元,被配置成获取源语音和目标文本;
语音识别单元,被配置成将所述源语音输入语音识别模型,得到源文本;
音素转换单元,被配置成将所述源文本和所述目标文本分别输入音素转换模型,得到源文本的音素序列和目标文本的音素序列;
编码单元,被配置成将所述源语音输入音频编解码器的编码器,得到源语音的第一层量化器的声学标记;
预测单元,被配置成将所述源语音的第一层量化器的声学标记、所述源文本的音素序列和所述目标文本的音素序列输入根据权利要求11-17中任一项所述的装置训练的语音合成模型,输出目标语音的声学标记;
合成单元,被配置成将所述目标语音的声学标记输入音频编解码器的解码器,得到合成的目标语音。
19.根据权利要求18所述的装置,其中,所述预测单元进一步被配置成:
将所述源语音的第一层量化器的声学标记作为前缀通过自回归编码器采集概率采样的方式生成目标语音的第一层量化器的声学标记;
基于所述目标语音的第一层量化器的声学标记通过非自回归编码器进行贪婪搜索来预测目标语音的其余层量化器的声学标记。
20.根据权利要求18所述的装置,其中,所述编码单元进一步被配置成:
获取语言标识;
将所述语言标识转换成嵌入向量添加到源语音的第一层量化器的声学标记中。
21.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-10中任一项所述的方法。
22.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-10中任一项所述的方法。
23.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311402770.4A CN117316139A (zh) | 2023-10-26 | 2023-10-26 | 训练语音合成模型及语音合成的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311402770.4A CN117316139A (zh) | 2023-10-26 | 2023-10-26 | 训练语音合成模型及语音合成的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117316139A true CN117316139A (zh) | 2023-12-29 |
Family
ID=89237259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311402770.4A Pending CN117316139A (zh) | 2023-10-26 | 2023-10-26 | 训练语音合成模型及语音合成的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117316139A (zh) |
-
2023
- 2023-10-26 CN CN202311402770.4A patent/CN117316139A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110491382B (zh) | 基于人工智能的语音识别方法、装置及语音交互设备 | |
US11837216B2 (en) | Speech recognition using unspoken text and speech synthesis | |
CN111899719A (zh) | 用于生成音频的方法、装置、设备和介质 | |
CN111223498A (zh) | 情绪智能识别方法、装置及计算机可读存储介质 | |
CN112331177B (zh) | 基于韵律的语音合成方法、模型训练方法及相关设备 | |
CN116364055B (zh) | 基于预训练语言模型的语音生成方法、装置、设备及介质 | |
CN113450765B (zh) | 语音合成方法、装置、设备及存储介质 | |
US20230127787A1 (en) | Method and apparatus for converting voice timbre, method and apparatus for training model, device and medium | |
US11322133B2 (en) | Expressive text-to-speech utilizing contextual word-level style tokens | |
CN113470622B (zh) | 一种可将任意语音转换成多个语音的转换方法及装置 | |
JP2024505076A (ja) | 多様で自然なテキスト読み上げサンプルを生成する | |
CN113450758B (zh) | 语音合成方法、装置、设备及介质 | |
CN113808571B (zh) | 语音合成方法、装置、电子设备以及存储介质 | |
KR20230026242A (ko) | 음성 합성 방법, 장치, 기기 및 컴퓨터 기록 매체 | |
CN112463942A (zh) | 文本处理方法、装置、电子设备及计算机可读存储介质 | |
CN118043885A (zh) | 用于半监督语音识别的对比孪生网络 | |
CN112489634A (zh) | 语言的声学模型训练方法、装置、电子设备及计算机介质 | |
CN116343747A (zh) | 语音合成方法、语音合成装置、电子设备及存储介质 | |
CN114373443A (zh) | 语音合成方法和装置、计算设备、存储介质及程序产品 | |
US20240153484A1 (en) | Massive multilingual speech-text joint semi-supervised learning for text-to-speech | |
US12073822B2 (en) | Voice generating method and apparatus, electronic device and storage medium | |
CN116469374A (zh) | 基于情感空间的语音合成方法、装置、设备及存储介质 | |
CN113763924B (zh) | 声学深度学习模型训练方法、语音生成方法及设备 | |
CN117316139A (zh) | 训练语音合成模型及语音合成的方法和装置 | |
Jiang et al. | A method of phonemic annotation for Chinese dialects based on a deep learning model with adaptive temporal attention and a feature disentangling structure |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |