CN115995225A - 模型训练方法和装置、语音合成方法、设备及存储介质 - Google Patents
模型训练方法和装置、语音合成方法、设备及存储介质 Download PDFInfo
- Publication number
- CN115995225A CN115995225A CN202211101808.XA CN202211101808A CN115995225A CN 115995225 A CN115995225 A CN 115995225A CN 202211101808 A CN202211101808 A CN 202211101808A CN 115995225 A CN115995225 A CN 115995225A
- Authority
- CN
- China
- Prior art keywords
- data
- sample
- target
- voice
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Electrically Operated Instructional Devices (AREA)
Abstract
本申请实施例提供了一种模型训练方法和装置、语音合成方法、设备及存储介质,属于人工智能技术领域。该方法包括:获取样本语音特征数据和样本音素数据;将样本语音特征数据输入预设的原始特征生成模型进行特征扩充得到初步语音特征数据;对样本语音特征数据和初步语音特征数据进行损失计算得到特征损失值;根据特征损失值对原始特征生成模型进行参数调整得到目标特征生成模型;将样本语音特征数据输入至目标特征生成模型进行特征扩充得到目标语音特征数据;根据目标语音特征数据更新原始样本数据得到目标样本数据;根据目标样本数据对预设的原始语音合成模型进行训练得到目标语音合成模型。本申请实施例能够得到合成效果更优的语音合成模型。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种模型训练方法和装置、语音合成方法、设备及存储介质。
背景技术
机器学习模型在学习时需要大量的数据进行训练。例如,在语音合成领域需要收集大量语音资源作为模型训练的样本数据,但涉及多种语言类型的语音资源较少,如何通过少量不同语言类型的语音样本训练具有更好合成效果的语音合成模型是目前亟待解决的问题。
发明内容
本申请实施例的主要目的在于提出一种模型训练方法和装置、语音合成方法、设备及存储介质,旨在实现少量的语音样本的场景下,训练得到语音合成效果更优的语音合成模型。
为实现上述目的,本申请实施例的第一方面提出了一种模型训练方法,所述方法包括:
获取原始样本数据;其中,所述原始样本数据包括:样本语音特征数据和样本音素数据;
将所述样本语音特征数据输入预设的原始特征生成模型进行特征扩充处理,得到初步语音特征数据;
对所述样本语音特征数据和所述初步语音特征数据进行损失计算,得到特征损失值;
根据所述特征损失值对所述原始特征生成模型进行参数调整,直至所述特征损失值最小,得到目标特征生成模型;
将所述样本语音特征数据输入至所述目标特征生成模型进行特征扩充处理,得到目标语音特征数据;
根据所述样本语音特征数据、所述目标语音特征数据和所述样本音素数据构建目标样本数据;
根据所述目标样本数据对预设的原始语音合成模型进行模型训练,得到目标语音合成模型。
在一些实施例,所述原始特征生成模型包括:第一编码器、第一解码器和网络层;所述将所述样本语音特征数据输入预设的原始特征生成模型进行特征扩充处理,得到初步语音特征数据,包括:
将所述样本语音特征数据输入所述第一编码器进行编码处理,得到初步特征向量;
通过所述网络层将所述初步特征向量以预设码书进行转化处理,得到嵌入候选特征向量;
通过所述网络层将预设的说话对象信息嵌入至所述嵌入候选特征向量,得到解码候选特征向量;
通过所述第一解码器对所述解码候选特征向量进行解码处理,得到所述初步语音特征数据。
在一些实施例,所述通过所述网络层将所述初步特征向量以预设码书进行转化处理,得到嵌入候选特征向量,包括:
通过所述网络层获取所述预设码书的离散变量,得到码本向量;
通过所述网络层将所述初步特征向量以所述码本向量进行映射处理,得到所述嵌入候选特征向量。
在一些实施例,所述根据所述样本语音特征数据、所述目标语音特征数据和所述样本音素数据构建目标样本数据,包括:
将所述样本语音特征数据和所述目标语音特征数据进行合并处理,得到更新语音特征数据;
根据预设的数据映射关系对所述更新语音特征数据和所述样本音素数据进行筛选处理,得到音频配对数据;
根据所述音频配对数据、所述更新语音特征数据和所述样本音素数据构建所述目标样本数据。
在一些实施例,所述根据所述目标样本数据对预设的原始语音合成模型进行模型训练,得到目标语音合成模型,包括:
将所述样本音素数据输入所述原始语音合成模型进行语音合成,得到语音合成预测数据;
根据所述音频配对数据和所述样本音素数据对所述更新语音特征数据进行筛选处理,得到语音特征验证数据;
根据所述语音特征验证数据和所述语音合成预测数据对所述原始语音合成模型进行参数调整,得到所述目标语音合成模型。
在一些实施例,所述原始语音合成模型包括:第二编码器、第二解码器和声码器;所述将所述样本音素数据输入所述原始语音合成模型进行语音合成,得到语音合成预测数据,包括:
将所述样本音素数据输入所述第二编码器进行编码处理,得到初步语音向量;
根据预设的说话对象信息对所述初步语音向量进行注意力处理,得到解码候选语音向量;
通过所述第二解码器对所述解码候选语音向量进行解码处理,得到语音频谱数据;
通过所述声码器对所述语音频谱数据进行波形计算,得到所述语音合成预测数据。
为实现上述目的,本申请实施例的第二方面提出了一种语音合成方法,所述方法包括:
获取目标音素数据;
将所述目标音素数据输入目标语音合成模型;其中,所述目标语音合成模型通过如第一方面所述的模型训练方法得到;
通过所述目标语音合成模型对所述目标音素数据进行语音合成,得到目标语音合成数据;其中,所述目标语音合成数据为基于梅尔频谱的波形数据。
为实现上述目的,本申请实施例的第三方面提出了一种模型训练装置,所述装置包括:
样本获取模块,用于获取原始样本数据;其中,所述原始样本数据包括:样本语音特征数据和样本音素数据;
数据输入模块,用于将所述样本语音特征数据输入预设的原始特征生成模型进行特征扩充处理,得到初步语音特征数据;
损失计算模块,用于对所述样本语音特征数据和所述初步语音特征数据进行损失计算,得到特征损失值;
参数调整模块,用于根据所述特征损失值对所述原始特征生成模型进行参数调整,直至所述特征损失值最小,得到目标特征生成模型;
数据扩充模块,用于将所述样本语音特征数据输入至所述目标特征生成模型进行特征扩充处理,得到目标语音特征数据;
数据汇集模块,用于根据所述样本语音特征数据、所述目标语音特征数据和所述样本音素数据构建目标样本数据;
模型训练模块,用于根据所述目标样本数据对预设的原始语音合成模型进行模型训练,得到目标语音合成模型。
为实现上述目的,本申请实施例的第四方面提出了一种电子设备,所述电子设备包括存储器和处理器、存储在所述存储器上并可在所述处理器上运行的计算机程序以及用于实现所述处理器和所述存储器之间的连接通信的数据总线,所述计算机程序被所述处理器执行时实现上述第一方面所述的方法、或第二方面所述的方法。
为实现上述目的,本申请实施例的第五方面提出了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的方法、或第二方面所述的方法。
本申请提出的模型训练方法和装置、语音合成方法、设备及存储介质,其通过根据样本语音特征数据对原始特征生成模型进行训练得到目标特征生成模型,且目标特征生成模型对样本语音特征数据进行特征扩充得到目标语音特征数据,以在少量样本数据的情况下扩充语音特征数据,则根据目标语音特征数据、样本语音特征数据和样本音素数据构建目标样本数据,以扩充样本数据后,根据目标样本数据对原始语音合成模型进行模型训练得到目标语音合成模型,从而实现在少量样本数据的情况下构建语音合成效果更好的语音合成模型。
附图说明
图1是本申请实施例提供的模型训练方法的流程图;
图2是图1中的步骤S102的流程图;
图3是图2中的步骤S202的流程图;
图4是图1中的步骤S106的流程图;
图5是图1中的步骤S107的流程图;
图6是图5中的步骤S502的流程图;
图7是本申请实施例提供的语音合成方法的流程图;
图8是本申请实施例提供的模型训练装置的结构示意图;
图9是本申请实施例提供的语音合成装置的结构示意图;
图10是本申请实施例提供的电子设备的硬件结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
首先,对本申请中涉及的若干名词进行解析:
人工智能(artificial intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
自然语言处理(natural language processing,NLP):NLP用计算机来处理、理解以及运用人类语言(如中文、英文等),NLP属于人工智能的一个分支,是计算机科学与语言学的交叉学科,又常被称为计算语言学。自然语言处理包括语法分析、语义分析、篇章理解等。自然语言处理常用于机器翻译、手写体和印刷体字符识别、语音识别及文语转换、信息意图识别、信息抽取与过滤、文本分类与聚类、舆情分析和观点挖掘等技术领域,它涉及与语言处理相关的数据挖掘、机器学习、知识获取、知识工程、人工智能研究和与语言计算相关的语言学研究等。
少样本学习(Few-shot Learning):少样本学习是Meta Learning在监督学习领域的应用。Meta Learning,又称为learning to learn,该算法旨在让模型学会“学习”,能够处理类型相似的任务,而不是只会单一的分类任务。Meta Learning中,在meta training阶段将数据集分解为不同的meta task,去学习类别变化的情况下模型的泛化能力,在metatesting阶段,面对全新的类别,不需要变动已有的模型,就可以完成分类。在Few-shotLearning中有一个术语叫做N-way K-shot问题。形式化来说,few-shot的训练集中包含了很多的类别,每个类别中有多个样本。在训练阶段,会在训练集中随机抽取N个类别,每个类别K个样本(总共N*K个数据),构建一个meta-task,作为模型的支撑集(support set)输入;再从这N个类中剩余的数据中抽取一批(batch)样本作为模型的预测对象(batch set)。即要求模型从N*K个数据中学会如何区分这N个类别,这样的任务被称为N-way K-shot问题。
语音合成(Text to Speech,TTS):语音合成是一种将文本转换为语音的技术,赋予机器像人一样自如说话能力的技术,是人机语音交互中重要的一环。语音合成系统在生活中被广泛应用于各个场景,包括语音对话系统;智能语音助手,如Siri,讯飞语点;电话信息查询系统;车载导航,有声电子书等辅助应用;语言学习;机场,车站等实时信息广播系统;视力或语音障碍者的信息获取与交流等。语音合成是通过机械的、电子的方法产生人造语音的技术。TTS技术(又称文语转换技术)隶属于语音合成,它是将计算机自己产生的、或外部输入的文字信息转变为可以听得懂的、流利的汉语口语输出的技术。
VQ-VAE:VQ-VAE是离散隐变量的生成模型,VQ-VAE相比VAE有两个重要的区别:首先VQ-VAE采用离散隐变量,而不是像VAE那样采用连续的隐变量;然后VQ-VAE需要单独训练一个基于自回归的模型如PixelCNN来学习先验(Prior),而不是像VAE那样采用一个固定的先验(标准正态分布)。此外,VQ-VAE还是一个强大的无监督表征学习模型,它学习的离散编码具有很强的表征能力。一个VAE模型包括三个部分:后验分布(Posterior),先验分布(Prior),以及似然(Likelihood)。其中后验分布用encoder网络来学习,似然用decoder网络来学习,而先验分布采用参数固定的标准正态分布。
梅尔频谱:在语音分析、合成、转换中,第一步往往是提取语音特征参数。利用机器学习方法进行上述语音任务,常用到梅尔频谱。我们一般听音乐、语音所使用的是时域,在时域信号上使用傅里叶变换就能得到信号的频域表示,使用短时傅里叶变换得到频谱,然后取模平方可以得到下面的功率谱,基于频谱我们可以得到梅尔频谱。用mel filter bank乘以功率谱,就得到了梅尔频谱。
随着智能化技术的发展,语音合成技术也被广泛应用于各个智能领域。例如,在智能旅游领域,通过智能机器人的语音播报功能准确地播报导航内容、景点信息,且可以准确地回答用户的咨询。因此,语音合成技术成为人机语音交互中重要内容之一。其中,语音合成通过语音合成模型生成语音合成数据,因此在进行语音合成之前需要构建语音合成模型。通常获取语音样本数据对语音合成模型进行训练,但是相关技术中,语音样本数据主要是普通话或者英语资源较多。若需要构建可以合成方言类型的语音,则需要获取大量的方言资源,但是对于方言资源获取需要耗费大量的人力和时间,因此如何通过少量的语音样本数据构建语音合成效果更优的语音合成模型是目前亟待解决的问题。
基于此,本申请实施例提供了一种模型训练方法和装置、语音合成方法、设备及存储介质,旨在通过少量的语音数据资源构建准确的语音合成模型。
本申请实施例提供的模型训练方法和装置、语音合成方法、设备及存储介质,具体通过如下实施例进行说明,首先描述本申请实施例中的模型训练方法。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例提供的模型训练方法,涉及人工智能技术领域。本申请实施例提供的模型训练方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现模型训练方法的应用等,但并不局限于以上形式。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
需要说明的是,在本申请的各个具体实施方式中,当涉及到需要根据用户信息、用户行为数据,用户历史数据以及用户位置信息等与用户身份或特性相关的数据进行相关处理时,都会先获得用户的许可或者同意,而且,对这些数据的收集、使用和处理等,都会遵守相关国家和地区的相关法律法规和标准。此外,当本申请实施例需要获取用户的敏感个人信息时,会通过弹窗或者跳转到确认页面等方式获得用户的单独许可或者单独同意,在明确获得用户的单独许可或者单独同意之后,再获取用于使本申请实施例能够正常运行的必要的用户相关数据。
图1是本申请实施例提供的模型训练方法的一个可选的流程图,图1中的方法可以包括但不限于包括步骤S101至步骤S107。
步骤S101,获取原始样本数据;其中,原始样本数据包括:样本语音特征数据和样本音素数据;
步骤S102,将样本语音特征数据输入预设的原始特征生成模型进行特征扩充处理,得到初步语音特征数据;
步骤S103,对样本语音特征数据和初步语音特征数据进行损失计算,得到特征损失值;
步骤S104,根据特征损失值对原始特征生成模型进行参数调整,直至特征损失值最小,得到目标特征生成模型;
步骤S105,将样本语音特征数据输入至目标特征生成模型进行特征扩充处理,得到目标语音特征数据;
步骤S106,根据样本语音特征数据、目标语音特征数据和样本音素数据构建目标样本数据;
步骤S107,根据目标样本数据对预设的原始语音合成模型进行模型训练,得到目标语音合成模型。
本申请实施例所示意的步骤S101至步骤S107,通过获取样本语音特征数据和样本音素数据,并将样本语音特征数据输入预设的原始特征生成模型进行特征扩充处理得到初步语音特征数据,并将样本语音特征数据和初步语音特征数据进行损失计算得到特征损失值,根据特征损失值对原始特征生成模型进行参数调整,直至特征损失值最小以得到目标特征生成模型。然后将样本语音特征数据输入目标特征生成模型进行特征扩充处理得到目标语音特征数据,则将样本语音特征数据、目标语音特征数据和样本音素数据构建目标样本数据,并根据目标样本数据对预设的原始语音合成模型进行模型训练得到目标语音合成模型。因此,通过构建目标特征生成模型,且目标特征生成模型对样本语音特征数据进行特征扩充处理得到目标语音特征数据,以在少量样本数据的情况下扩充语音特征数据,也即在少样本学习的场景下构建语音合成效果更好的语音合成模型。
在一些实施例的步骤S101中,获取原始样本数据,且原始样本数据通过样本数据库获取。也可以通过其他方式获取原始样本数据,不限于此。原始样本数据包括:样本音素数据和样本语音特征数据,样本语音特征数据的语言类型包括但不限于包括:普通话、英语、粤语、上海话、客家话,且根据语言类型将样本语音特征数据分类存储至对应的数据库,以便于根据语音合成的语种要求从对应的数据库提取样本语音特征数据。其中,通过获取样本文本数据,并对样本文本数据进行语义理解得到样本音素数据。
请参阅图2,在一些实施例中,原始特征生成模型包括:第一编码器、第一解码器和网络层;原始特征生成模型为VQ-VAE模型,且VQ-VAE模型作为离散化语音单元的提取器,VQ-VAE模型包括:第一编码器、第一解码器和网络层,第一编码器能够将样本语音特征数据编码到隐变量空间,第一解码器则能够进行特征重建以得到新的样本语音特征数据,从而扩充样本语音特征数据。
其中,步骤S102可以包括但不限于包括步骤S201至步骤S204:
步骤S201,将样本语音特征数据输入第一编码器进行编码处理,得到初步特征向量;
步骤S202,通过网络层将初步特征向量以预设码书进行转化处理,得到嵌入候选特征向量;
步骤S203,通过网络层将预设的说话对象信息嵌入至嵌入候选特征向量,得到解码候选特征向量;
步骤S204,通过第一解码器对解码候选特征向量进行解码处理,得到初步语音特征数据。
本申请实施例所示意的步骤S201至步骤S204,将样本语音特征数据输入第一编码器进行编码处理得到初步特征向量,且通过网络层将初步特征向量以预设码书进行转化处理得到嵌入候选特征向量,并将预设的说话对象信息嵌入至嵌入候选特征向量得到解码候选特征向量,最后通过第一解码器对解码候选特征向量进行解码处理得到初步语音特征数据。因此,根据样本语音特征数据重建初步语音特征数据,以对样本语音特征数据进行特征扩充,使得样本语音特征数据扩充简易。
在一些实施例的步骤S201中,通过将样本语音特征数据输入第一编码器,第一编码器将样本语音特征数据编码到隐变量空间以得到初步特征向量。例如,若样本语音特征数据为x,初步特征向量为z,将样本语音特征数据映射到隐变量空间的公式为Ze(x)=z,式中,Ze代表x编码到Z空间以得到初步特征向量z,使得样本语音特征数据编码成初步特征向量的操作简易。
在一些实施例的步骤S202中,通过第一编码器将样本语音特征数据进行编码得到初步特征向量,初步特征向量以中间隐变量表示,且初步特征向量为连续变量,需要将连续变量转化为离散变量,则需要预设码书,且对预设码书进行初始化处理后,将初步特征向量以预设码书中的离散变量进行表示以得到嵌入候选特征向量,也即得到矢量量化后的嵌入候选特征向量。例如,若预设码书的大小为50,则设置预设码书是一个数量为50的向量集,然后将连续的初步特征向量表示为数量是50的向量集以得到嵌入候选特征向量。
具体地,根据预设码书将初步特征向量替换为嵌入候选特征向量,即式中,zi,j为初步特征向量,ek为预设码书的码字。根据预设码书找到初步特征向量zi,j对应的码字ek,并将初步特征向量一一替换为码字,从而用ek代替初步特征向量z,以将连续变量转换为离散变量,以便于第一解码器解码生成的初步语音特征数据与样本语音特征数据更加匹配。
在一些实施例的步骤S203中,为了使重建的初步语音特征数据更加符合说话对象,则通过网络层将预设的说话对象信息嵌入到嵌入候选特征向量以得到解码候选特征向量,以重建符合目标说话对象的解码候选特征向量。
在一些实施例的步骤S204中,输出解码候选特征向量后,网络层将解码候选特征向量输入至第一解码器,则第一解码器将离散化的解码候选特征向量进行解码处理,重建语音特征以得到初步语音特征数据。因此,通过重建语音特征,以将少量的语音特征进行数量增加,无需人工采集大量的语音特征数据,节省人工采集训练样本花费的时间和精力。
请参阅图3,在一些实施例中,步骤S202可以包括但不限于包括步骤S301至步骤S302:
步骤S301,通过网络层获取预设码书的离散变量,得到码本向量;
步骤S302,通过网络层将初步特征向量以码本向量进行映射处理,得到嵌入候选特征向量。
本申请实施例所示意的步骤S301至步骤S302,通过网络层获取预设码书的离散变量得到码本向量,再将初步特征向量以码本向量进行映射处理,也即将初步特征向量按照码本向量的格式一一进行替换以得到嵌入候选特征向量。因此,通过将连续化的初步特征向量映射到离散化的码本向量,以得到更高级别的隐藏表示,也即得到离散化的嵌入候选特征向量。
在一些实施例的步骤S301中,初步特征向量输入网络层后,获取预设码书的离散变量也即获取预设码书的码字以得到码本向量。例如,若预设码书为e=C*D,C为嵌入的数量,D为每个嵌入的大小。则对预设码书进行离散变量提取以得到码本向量为C*D,以便于根据码本向量将初步特征向量进行映射处理。
在一些实施例的步骤S302中,获取码本向量后,将初步特征向量映射到离散化的码本向量以得到嵌入候选特征向量,因此在将预设的说话对象信息嵌入到嵌入候选特征向量之前,生成更高级别的隐藏表示。因此,得到嵌入候选特征向量后,通过第一解码器生成的初步语音特征数据与样本语音特征数据更加相近,不仅能够扩展样本语音特征数据,还能够生成与样本语音特征数据近似的目标语音特征数据。
在一些实施例的步骤S103中,对样本语音特征数据和初步语音特征数据进行损失计算得到特征损失值,特征损失值为语音特征数据的重建损失,除此之外还需要计算码书损失和输出损失。其中,重建损失为重建的初步语音特征数据和样本语音特征数据之间的MSE损失,码本损失则是用于更新预设码书以构建更加准确的预设码书,而输出损失则是第一编码器的输出损失,以根据输出损失调节第一编码器,使得第一编码器输出的初步特征向量更加接近预设码书。例如,通过计算特征损失值,且特征损失值的计算公式如公式(1)所示:
L=log p(x|Ze(x))-sg(e) (1)
式中,Ze(x)为样本语音特征数据,sg(e)为初步语音特征数据。
在一些实施例的步骤S104中,根据特征损失值调整原始特征生成模型的参数,并通过参数调整后的原始特征生成模型继续根据样本语音特征数据进行特征扩充处理得到初步语音特征数据,并反复执行特征扩充处理、特征损失值计算和参数调整,直至计算得到的特征损失值最小,则停止对原始特征生成模型进行参数调整以得到目标特征生成模型。其中,构建得到的目标特征生成模型为无监督语音模型,以通过无监督语音模型对样本语音特征数据进行特征扩充处理,以在少量样本语音特征数据的情况下也能够构建语音合成效果更优的语音合成模型。
在一些实施例的步骤S105中,通过构建生成近似样本语音特征数据的目标特征生成模型,则将样本语音特征数据输入目标特征生成模型得到目标语音特征数据,且目标语音特征数据接近样本语音特征数据,不仅实现了样本语音特征数据的扩充,还不影响样本语音特征数据的一致性,以便于根据样本语音特征数据和目标语音特征数据构建语音合成模型更加准确。
需要说明的是,目标特征生成模型与样本语音特征数据的具体结构一致,且目标特征生成模型包括:第一编码器、第一解码器和网络层,且目标特征生成模型将样本语音特征数据进行编码处理、转化处理、嵌入说话对象信息和解码处理以得到目标语音特征数据。由于目标特征生成模型为已训练好的特征生成模型,则通过目标特征生成模型生成目标语音特征数据,且目标语音特征数据更加接近样本语音特征数据,所以在扩充样本语音特征数据的前提下保证语音特征数据保持近似,则对语音合成模型的训练也更加准确。
请参阅图4,在一些实施例中,步骤S106可以包括但不限于包括步骤S401至步骤S403:
步骤S401,将样本语音特征数据和目标语音特征数据进行合并处理,得到更新语音特征数据;
步骤S402,根据预设的数据映射关系对更新语音特征数据和样本音素数据进行筛选处理,得到音频配对数据;
步骤S403,根据音频配对数据、更新语音特征数据和样本音素数据构建目标样本数据。
本申请实施例所示意的步骤S401至步骤S403,将样本语音特征数据和目标语音特征数据进行合并处理得到更新语音特征数据,并根据预设的数据映射关系对更新语音特征数据和样本音素数据进行筛选处理得到音频配对数据,且音频配对数据为更新语音特征数据和样本音素数据的配对关系,最后将音频配对数据、更新语音特征数据和样本音素数据构建目标样本数据,使得目标样本数据构建简易,以便于根据目标样本数据训练原始语音合成模型。其中,通过音频配对数据可以确定样本音素数据对应的更新语音特征数据,以根据样本音素数据对应的更新语音特征数据确定原始语音合成模型的输入和输出。
在一些实施例的步骤S401中,由于目标语音特征数据为近似于样本语音特征数据的语音特征数据,则将目标语音特征数据和样本语音特征数据合并得到更新语音特征数据,以扩展样本语音特征数据。其中,样本语音特征数据的语言类型包括以下任意一种:普通话、英语、粤语、上海话、客家话,则每一种语言类型的样本语音特征数据通过目标特征生成模型进行特征扩充处理得到目标语音特征数据,并将同一语言类型的样本语音特征数据和目标语音特征数据进行合并得到更新语音特征数据。
在一些实施例的步骤S402中,预设的数据映射关系记载语音特征数据和音素数据的映射关系,则根据数据映射关系对更新语音特征数据和样本音素数据进行筛选处理,也即确定每一个样本音素数据对应的更新语音特征数据,并根据样本音素数据对应的更新语音特征数据确定音频配对数据。例如,确定样本音素数据分别为A、B,根据预设的数据映射关系确定A对应的更新语音特征数据为YI,确定B对应的更新语音特征数据为Y2,则构建音频配对数据为<A,Y1>、<B,Y2>,以根据音频配对数据确定样本音素数据对应的更新语音特征数据,以便于对原始语音合成模型进行模型训练。
在一些实施例的步骤S403中,通过根据音频配对数据、更新语音特征数据和样本音素数据构建目标样本数据,得到扩充的目标样本数据,以实现在少量样本资源的场景下,实现语音合成任务,以构建更加准确的目标语音合成模型。
请参阅图5,在一些实施例中,步骤S107可以包括但不限于包括步骤S501至步骤S503:
步骤S501,将样本音素数据输入原始语音合成模型进行语音合成,得到语音合成预测数据;
步骤S502,根据音频配对数据和样本音素数据对更新语音特征数据进行筛选处理,得到语音特征验证数据;
步骤S503,根据语音特征验证数据和语音合成预测数据对原始语音合成模型进行参数调整,得到目标语音合成模型。
本申请实施例所示意的步骤S501至步骤S503,将样本音素数据输入原始语音合成模型,原始语音合成模型根据样本音素数据进行语音合成得到语音合成预测数据,并根据样本音素数据在音频配对数据中查找到对应的更新语音特征数据以得到语音特征验证数据,根据语音特征验证数据和语音合成预测数据对原始语音合成模型进行参数调整,以使语音合成预测数据逼近语音特征验证数据以得到目标语音合成模型。因此,通过已扩充的更新语音特征数据,在少量样本资源的情况下,也能够对原始语音合成模型进行训练,以得到语音合成效果更好的目标语音合成模型。
在一些实施例的步骤S501中,通过将样本音素数据输入原始语音合成模型,原始语音合成模型根据样本音素数据进行语音合成得到语音合成预测数据。其中,语音合成预测数据为基于梅尔频谱的波形数据,以根据语音合成预测数据确定原始语音合成模型语音合成的效果。
需要说明的是,原始语音合成模型为Seq2seq模型,Seq2seq模型通过输入样本音素数据以生成语音合成预测数据,而本申请的Seq2seq模型应用于问答系统,以根据用户输入的音素数据生成语音合成数据,实现智能问答。
在一些实施例的步骤S502中,音频配对数据包括样本音素数据和更新语音特征数据的配对关系,则根据音频配对数据和样本音素数据对更新语音特征数据进行筛选处理,以筛选出与样本音素数据对应的更新语音特征数据得到语音特征验证数据,并根据语音特征验证数据判断语音合成预测数据是否正确,以便于根据语音特征验证数据和语音合成预测数据对原始语音合成模型进行参数调整。
在一些实施例的步骤S503中,由于语音合成预测数据为基于梅尔频谱的波形数据,则将样本语音特征数据输入声码器以得到基于梅尔频谱的波形数据,再根据两个波形数据的匹配情况对原始语音合成模型进行参数调整以得到目标语音合成模型,使得目标语音合成模型输出的语音合成预测数据与样本语音特征数据更加接近,以提高语音合成的效果。
请参阅图6,在一些实施例,原始语音合成模型包括:第二编码器、第二解码器和声码器;步骤S502包括但不限于包括步骤S601至步骤S604:
步骤S601,将样本音素数据输入第二编码器进行编码处理,得到初步语音向量;
步骤S602,根据预设的说话对象信息对初步语音向量进行注意力处理,得到解码候选语音向量;
步骤S603,通过第二解码器对解码候选语音向量进行解码处理,得到语音频谱数据;
步骤S604,通过声码器对语音频谱数据进行波形计算,得到语音合成预测数据。
本申请实施例所示意的步骤S601至步骤S604,通过将样本音素数据输入第二编码器以将样本音素数据编码成初步语音向量,以通过向量的形式表示样本音素数据,再根据预设的说话对象信息对初步语音向量进行注意力处理,提高初步语音向量中与说话对象信息对应的向量的权重以得到解码候选语音向量,再通过第二解码器对解码候选语音向量进行解码处理得到语音频谱数据,再通过声码器根据语音频谱数据进行波形计算得到语音合成预测数据,以实现通过音素数据直接生成语音合成预测数据,使得语音合成操作简易且更加符合说话对象。
在一些实施例的步骤S601中,将样本音素数据输入第二编码器,第二编码器将样本音素数据进行编码处理,以将样本音素数据转化为一个固定长度的向量以得到初步语音向量。
在一些实施例的步骤S602中,第二编码器输出初步语音向量后,根据注意力机制将说话对象信息嵌入初步语音向量,并根据说话对象信息对初步语音向量进行注意力处理,以提高初步语音向量中与说话对象信息对应的向量的权重,以得到解码候选语音向量,以实现输出的解码候选语音向量更加符合说话对象的语音特征。
在一些实施例的步骤S603中,通过将解码候选语音向量输入第二解码器,则第二解码器对解码候选语音向量进行解码处理,以将向量形式的解码候选语音向量转化为数据序列形式的语音频谱数据,使得语音合成操作简易。
在一些实施例的步骤S604中,通过第二解码器输出语音频谱数据,以实现语音合成,为了便于直接得到语音波形数据,则将语音频谱数据输入声码器,以通过声码器对语音频谱数据进行波形计算得到语音合成预测数据,且语音合成预测数据为基于梅尔频谱的波形数据,以便于音频播放器根据语音合成预测数据直接播放音频。
请参阅图7,本申请实施例还提供一种语音合成方法,语音合成方法可以包括但不限于包括步骤S701至步骤S703:
步骤S701,获取目标音素数据;
步骤S702,将目标音素数据输入目标语音合成模型;其中,目标语音合成模型通过如上述的模型训练方法得到;
步骤S703,通过目标语音合成模型对目标音素数据进行语音合成,得到目标语音合成数据;其中,目标语音合成数据为基于梅尔频谱的波形数据。
本申请实施例所示意的步骤S701至步骤S703,通过获取目标音素数据,并将目标音素数据输入目标语音合成模型,通过目标语音合成模型对目标音素数据进行语音合成得到目标语音合成数据,使得语音合成操作简易。目标语音合成模型由上述的模型训练方法得到,以在少量样本资源的场景下构建准确的目标语音合成模型,则通过目标语音合成模型对目标音素数据进行语音合成的目标语音合成数据也更加准确。
在一些实施例的步骤S701中,若获取目标音频数据,并将目标音频数据进行音频内容分析以得到目标音频文本,并对目标音频文本进行分词处理得到目标音素数据,以实现用户直接说话即可确定用户的目标音素数据。若获取目标音频文本,则直接目标音频文本进行分词处理得到目标音素数据,也即通过输入文本即可实现语音合成,以扩大语音合成时输入的数据类型,从而提高用户进行语音合成的体验感。
在一些实施例的步骤S702和步骤S703中,通过将目标音素数据输入目标语音合成模型,且目标语音合成模型的具体结构与原始语音合成模型一致,也即通过目标语音合成模型对目标音素数据进行编码处理、说话对象信息嵌入、解码处理、波形计算以得到目标语音合成数据,使得语音合成操作简易,且合成效果更优。
本申请实施例通过获取样本语音特征数据和样本音素数据,将样本语音特征输入第一编码器进行编码处理得到初步特征向量,再通过网络层获取预设码书的码本向量,将初步语音特征向量以码本向量进行映射处理得到嵌入候选特征向量,并通过网络层将说话对象信息嵌入至嵌入候选特征向量得到解码候选特征向量,且通过第一解码器对解码候选特征向量进行解码处理得到初步语音特征数据。对样本语音特征数据和初步语音特征数据进行损失计算得到特征损失值,并根据特征损失值对原始特征生成模型进行参数调整,且不断循环原始特征生成模型的特征损失值计算、参数调整,直至特征损失值最小以得到目标特征生成模型,则将样本语音特征数据输入目标特征生成模型进行特征扩充处理得到目标语音特征数据,以得到更加接近样本语音特征的目标语音特征数据。因此,将目标语音特征数据和样本语音特征数据进行汇集处理得到更新语音特征数据,再根据预设的数据映射关系对更新语音特征数据和样本音素数据进行筛选处理,以筛选出样本音素数据对应的更新语音特征数据以得到音频配对数据,并根据音频配对数据、更新语音特征数据和样本音素数据构建目标样本数据,以实现样本数据的扩充。因此,将样本音素数据输入第二编码器进行编码处理得到初步语音向量,根据预设的说话对象信息对初步语音向量进行注意力处理得到解码候选语音向量,通过第二解码器对解码候选语音向量进行解码处理得到语音频谱数据;通过声码器对语音频谱数据进行波形计算得到语音合成预测数据,并根据音频配对数据和样本音素数据对更新语音特征数据进行筛选处理得到语音特征验证数据,最后根据语音特征验证数据和语音合成预测数据对原始语音合成模型进行参数调整得到目标语音合成模型,以构建语音合成喜效果更优的目标语音合成模型,且通过目标语音合成模型对目标音素数据进行语音合成得到基于梅尔频谱的波形数据。因此,在少量的样本资源的场景下,构建语音合成效果更好的目标语音合成模型。
请参阅图8,本申请实施例还提供一种模型训练装置,可以实现上述模型训练方法,该装置包括:
样本获取模块801,用于获取原始样本数据;其中,原始样本数据包括:样本语音特征数据和样本音素数据;
数据输入模块802,用于将样本语音特征数据输入预设的原始特征生成模型进行特征扩充处理,得到初步语音特征数据;
损失计算模块803,用于对样本语音特征数据和初步语音特征数据进行损失计算,得到特征损失值;
参数调整模块804,用于根据特征损失值对原始特征生成模型进行参数调整,直至特征损失值最小,得到目标特征生成模型;
数据扩充模块805,用于将样本语音特征数据输入至目标特征生成模型进行特征扩充处理,得到目标语音特征数据;
数据汇集模块806,用于根据样本语音特征数据、目标语音特征数据和样本音素数据构建目标样本数据;
模型训练模块807,用于根据目标样本数据对预设的原始语音合成模型进行模型训练,得到目标语音合成模型。
该模型训练装置的具体实施方式与上述模型训练方法的具体实施例基本相同,在此不再赘述。
请参阅图9,本申请实施例还提供一种语音合成装置,可以实现上述语音合成方法,该装置包括:
目标获取模块901,用于获取目标音素数据;
音素输入模块902,用于将目标音素数据输入目标语音合成模型;其中,目标语音合成模型通过如上述的模型训练装置得到;
语音合成模块903,用于通过目标语音合成模型对目标音素数据进行语音合成,得到目标语音合成数据;其中,目标语音合成数据为基于梅尔频谱的波形数据。
该语音合成装置的具体实施方式与上述语音合成方法的具体实施例基本相同,在此不再赘述。
本申请实施例还提供了一种电子设备,电子设备包括括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现上述模型训练方法,或语音合成方法。该电子设备可以为包括平板电脑、车载电脑等任意智能终端。
请参阅图10,图10示意了另一实施例的电子设备的硬件结构,电子设备包括:
处理器101,可以采用通用的CPU(CentralProcessingUnit,中央处理器)、微处理器、应用专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案;
存储器102,可以采用只读存储器(ReadOnlyMemory,ROM)、静态存储设备、动态存储设备或者随机存取存储器(RandomAccessMemory,RAM)等形式实现。存储器102可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器102中,并由处理器101来调用执行本申请实施例的上述模型训练方法,或语音合成方法;
输入/输出接口103,用于实现信息输入及输出;
通信接口104,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;
总线105,在设备的各个组件(例如处理器101、存储器102、输入/输出接口103和通信接口104)之间传输信息;
其中处理器101、存储器102、输入/输出接口103和通信接口104通过总线105实现彼此之间在设备内部的通信连接。
本申请实施例还提供了一种存储介质,存储介质为计算机可读存储介质,该存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述模型训练方法,或语音合成方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本申请实施例提供的模型训练方法和装置、语音合成方法和装置、设备及存储介质,其通过获取样本语音特征数据和样本音素数据,并将样本语音特征数据输入预设的原始特征生成模型进行特征扩充处理得到初步语音特征数据,并将样本语音特征数据和初步语音特征数据进行损失计算得到特征损失值,根据特征损失值对原始特征生成模型进行参数调整,且不断循环原始特征生成模型的特征损失值计算、参数调整,直至特征损失值最小以得到目标特征生成模型,则将样本语音特征数据输入目标特征生成模型进行特征扩充处理得到目标语音特征数据,以得到更加接近样本语音特征的目标语音特征数据,再根据目标语音特征数据、样本语音特征数据和样本音素数据构建目标样本数据,以扩充样本数据,最后根据扩充的目标样本数据对原始语音合成模型进行训练得到目标语音合成模型,且目标语音合成模型的语音合成效果更优。
本申请实施例描述的实施例是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图1-7中示出的技术方案并不构成对本申请实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例的方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参照附图说明了本申请实施例的优选实施例,并非因此局限本申请实施例的权利范围。本领域技术人员不脱离本申请实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本申请实施例的权利范围之内。
Claims (10)
1.一种模型训练方法,其特征在于,所述方法包括:
获取原始样本数据;其中,所述原始样本数据包括:样本语音特征数据和样本音素数据;
将所述样本语音特征数据输入预设的原始特征生成模型进行特征扩充处理,得到初步语音特征数据;
对所述样本语音特征数据和所述初步语音特征数据进行损失计算,得到特征损失值;
根据所述特征损失值对所述原始特征生成模型进行参数调整,直至所述特征损失值最小,得到目标特征生成模型;
将所述样本语音特征数据输入至所述目标特征生成模型进行特征扩充处理,得到目标语音特征数据;
根据所述样本语音特征数据、所述目标语音特征数据和所述样本音素数据构建目标样本数据;
根据所述目标样本数据对预设的原始语音合成模型进行模型训练,得到目标语音合成模型。
2.根据权利要求1所述的方法,其特征在于,所述原始特征生成模型包括:第一编码器、第一解码器和网络层;所述将所述样本语音特征数据输入预设的原始特征生成模型进行特征扩充处理,得到初步语音特征数据,包括:
将所述样本语音特征数据输入所述第一编码器进行编码处理,得到初步特征向量;
通过所述网络层将所述初步特征向量以预设码书进行转化处理,得到嵌入候选特征向量;
通过所述网络层将预设的说话对象信息嵌入至所述嵌入候选特征向量,得到解码候选特征向量;
通过所述第一解码器对所述解码候选特征向量进行解码处理,得到所述初步语音特征数据。
3.根据权利要求2所述的方法,其特征在于,所述通过所述网络层将所述初步特征向量以预设码书进行转化处理,得到嵌入候选特征向量,包括:
通过所述网络层获取所述预设码书的离散变量,得到码本向量;
通过所述网络层将所述初步特征向量以所述码本向量进行映射处理,得到所述嵌入候选特征向量。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述根据所述样本语音特征数据、所述目标语音特征数据和所述样本音素数据构建目标样本数据,包括:
将所述样本语音特征数据和所述目标语音特征数据进行合并处理,得到更新语音特征数据;
根据预设的数据映射关系对所述更新语音特征数据和所述样本音素数据进行筛选处理,得到音频配对数据;
根据所述音频配对数据、所述更新语音特征数据和所述样本音素数据构建所述目标样本数据。
5.根据权利要求4所述的方法,其特征在于,所述根据所述目标样本数据对预设的原始语音合成模型进行模型训练,得到目标语音合成模型,包括:
将所述样本音素数据输入所述原始语音合成模型进行语音合成,得到语音合成预测数据;
根据所述音频配对数据和所述样本音素数据对所述更新语音特征数据进行筛选处理,得到语音特征验证数据;
根据所述语音特征验证数据和所述语音合成预测数据对所述原始语音合成模型进行参数调整,得到所述目标语音合成模型。
6.根据权利要求5所述的方法,其特征在于,所述原始语音合成模型包括:第二编码器、第二解码器和声码器;所述将所述样本音素数据输入所述原始语音合成模型进行语音合成,得到语音合成预测数据,包括:
将所述样本音素数据输入所述第二编码器进行编码处理,得到初步语音向量;
根据预设的说话对象信息对所述初步语音向量进行注意力处理,得到解码候选语音向量;
通过所述第二解码器对所述解码候选语音向量进行解码处理,得到语音频谱数据;
通过所述声码器对所述语音频谱数据进行波形计算,得到所述语音合成预测数据。
7.一种语音合成方法,其特征在于,所述方法包括:
获取目标音素数据;
将所述目标音素数据输入目标语音合成模型;其中,所述目标语音合成模型通过如权利要求1至6任一项所述的模型训练方法得到;
通过所述目标语音合成模型对所述目标音素数据进行语音合成,得到目标语音合成数据;其中,所述目标语音合成数据为基于梅尔频谱的波形数据。
8.一种模型训练装置,其特征在于,所述装置包括:
样本获取模块,用于获取原始样本数据;其中,所述原始样本数据包括:样本语音特征数据和样本音素数据;
数据输入模块,用于将所述样本语音特征数据输入预设的原始特征生成模型进行特征扩充处理,得到初步语音特征数据;
损失计算模块,用于对所述样本语音特征数据和所述初步语音特征数据进行损失计算,得到特征损失值;
参数调整模块,用于根据所述特征损失值对所述原始特征生成模型进行参数调整,直至所述特征损失值最小,得到目标特征生成模型;
数据扩充模块,用于将所述样本语音特征数据输入至所述目标特征生成模型进行特征扩充处理,得到目标语音特征数据;
数据汇集模块,用于根据所述样本语音特征数据、所述目标语音特征数据和所述样本音素数据构建目标样本数据;
模型训练模块,用于根据所述目标样本数据对预设的原始语音合成模型进行模型训练,得到目标语音合成模型。
9.一种电子设备,其特征在于,所述电子设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至6中任一项所述的方法、或者如权利要求7所述的方法。
10.一种计算机可读存储介质,所述存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任一项所述的方法、或者如权利要求7所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211101808.XA CN115995225A (zh) | 2022-09-09 | 2022-09-09 | 模型训练方法和装置、语音合成方法、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211101808.XA CN115995225A (zh) | 2022-09-09 | 2022-09-09 | 模型训练方法和装置、语音合成方法、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115995225A true CN115995225A (zh) | 2023-04-21 |
Family
ID=85994313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211101808.XA Pending CN115995225A (zh) | 2022-09-09 | 2022-09-09 | 模型训练方法和装置、语音合成方法、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115995225A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117727288A (zh) * | 2024-02-07 | 2024-03-19 | 翌东寰球(深圳)数字科技有限公司 | 一种语音合成方法、装置、设备及存储介质 |
-
2022
- 2022-09-09 CN CN202211101808.XA patent/CN115995225A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117727288A (zh) * | 2024-02-07 | 2024-03-19 | 翌东寰球(深圳)数字科技有限公司 | 一种语音合成方法、装置、设备及存储介质 |
CN117727288B (zh) * | 2024-02-07 | 2024-04-30 | 翌东寰球(深圳)数字科技有限公司 | 一种语音合成方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115641834A (zh) | 一种语音合成方法、装置、电子设备及存储介质 | |
CN116386594A (zh) | 语音合成方法、语音合成装置、电子设备及存储介质 | |
CN116312463A (zh) | 语音合成方法、语音合成装置、电子设备及存储介质 | |
CN111767697B (zh) | 文本处理方法、装置、计算机设备以及存储介质 | |
CN116343747A (zh) | 语音合成方法、语音合成装置、电子设备及存储介质 | |
CN115497477A (zh) | 语音交互方法、语音交互装置、电子设备、存储介质 | |
CN115995225A (zh) | 模型训练方法和装置、语音合成方法、设备及存储介质 | |
CN116913278B (zh) | 语音处理方法、装置、设备和存储介质 | |
CN116645961A (zh) | 语音识别方法、语音识别装置、电子设备及存储介质 | |
CN116469370A (zh) | 目标语言语音合成方法和装置、电子设备、存储介质 | |
CN116665638A (zh) | 语音合成方法、语音合成装置、电子设备及存储介质 | |
CN116432705A (zh) | 文本生成模型构建、文本生成方法和装置、设备及介质 | |
CN116541551A (zh) | 音乐分类方法、音乐分类装置、电子设备及存储介质 | |
CN115273805A (zh) | 基于韵律的语音合成方法和装置、设备、介质 | |
CN116645956A (zh) | 语音合成方法、语音合成系统、电子设备及存储介质 | |
CN116629283A (zh) | 文本翻译方法和装置、计算机设备及存储介质 | |
CN116580691A (zh) | 语音合成方法、语音合成装置、电子设备及存储介质 | |
CN114611529B (zh) | 意图识别方法和装置、电子设备及存储介质 | |
CN115641860A (zh) | 模型的训练方法、语音转换方法和装置、设备及存储介质 | |
CN116364054A (zh) | 基于diffusion的语音合成方法、装置、设备、存储介质 | |
CN115620702A (zh) | 语音合成方法、语音合成装置、电子设备及存储介质 | |
CN115273804A (zh) | 基于编码模型的语音转换方法、装置、电子设备及介质 | |
CN114974219A (zh) | 语音识别方法、语音识别装置、电子设备及存储介质 | |
CN116645952A (zh) | 语音合成方法和装置、计算机设备及存储介质 | |
CN116453511A (zh) | 模型训练方法和装置、音素分割方法、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |