CN116030792B - 用于转换语音音色的方法、装置、电子设备和可读介质 - Google Patents
用于转换语音音色的方法、装置、电子设备和可读介质 Download PDFInfo
- Publication number
- CN116030792B CN116030792B CN202310322971.7A CN202310322971A CN116030792B CN 116030792 B CN116030792 B CN 116030792B CN 202310322971 A CN202310322971 A CN 202310322971A CN 116030792 B CN116030792 B CN 116030792B
- Authority
- CN
- China
- Prior art keywords
- voice
- layer
- frequency spectrum
- tone
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本公开的实施例公开了一种用于转换语音音色的方法、装置、电子设备和计算机可读介质。该方法的一具体实施方式包括:获取目标语音和参考语音;对目标语音和参考语音进行频谱特征提取,得到目标语音对应的目标对数梅尔频谱以及参考语音对应的参考对数梅尔频谱;将目标对数梅尔频谱输入至预先训练的内容编码器,得到目标语音内容编码向量;对参考对数梅尔频谱进行音色特征提取,得到参考语音音色编码向量;将参考语音音色编码向量和目标语音内容编码向量输入至预先训练的解码器中,得到预测梅尔频谱,根据预测梅尔频谱生成音色转换语音。该实施方式能够生成音色转换语音,并且使生成的音色转换语音具有较高的语音质量。消除了人们跨语言交流的障碍。
Description
技术领域
本公开的实施例涉及计算机技术领域,具体涉及一种用于转换语音音色的方法、装置、电子设备和计算机可读介质。
背景技术
在现有的跨语言音色转换方法中,由于目标语音的语言和源语音的语言有较大差异,生成的语音质量受到了严重影响。大多数跨语言音色转换模型是基于多领域对抗生成网络的或是自编码器网络的,它们需要提取参考语音的音色和内容语音的内容编码。
例如,使用英文目标语音提取音色编码向量,使用中文目标语音提取内容编码向量,转换得到的语音往往呈现出一种“洋腔洋调”的效果,即基频无法保持稳定。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了一种用于转换语音音色的方法、装置、电子设备和计算机可读介质,来解决以上背景技术部分提到的技术问题。
第一方面,本公开的一些实施例提供了一种用于转换语音音色的方法,该方法包括:获取目标语音和参考语音;对所述目标语音和所述参考语音进行频谱特征提取,得到所述目标语音对应的目标对数梅尔频谱以及所述参考语音对应的参考对数梅尔频谱;将所述目标对数梅尔频谱输入至预先训练的内容编码器,得到目标语音内容编码向量,其中,所述内容编码器由多层多头自注意力层以及至少两层卷积层组成;对所述参考对数梅尔频谱进行音色特征提取,得到参考语音音色编码向量;将所述参考语音音色编码向量和所述目标语音内容编码向量输入至预先训练的解码器中,得到预测梅尔频谱,以及根据所述预测梅尔频谱生成音色转换语音,其中,所述解码器包括至少一层重参数化卷积层、多层自注意力风格迁徙模块以及至少一层后处理网络。
第二方面,本公开的一些实施例提供了一种用于转换语音音色的装置,装置包括:获取单元,被配置成获取目标语音和参考语音;第一提取单元,被配置成对上述目标语音和上述参考语音进行频谱特征提取,得到上述目标语音对应的目标对数梅尔频谱以及上述参考语音对应的参考对数梅尔频谱;第二提取单元,被配置成将所述目标对数梅尔频谱输入至预先训练的内容编码器,得到目标语音内容编码向量,其中,所述内容编码器由多层多头自注意力层以及至少两层卷积层组成;第三提取单元,被配置成对上述参考对数梅尔频谱进行音色特征提取,得到参考语音音色编码向量;生成单元,被配置成将所述参考语音音色编码向量和所述目标语音内容编码向量输入至预先训练的解码器中,得到预测梅尔频谱,以及根据所述预测梅尔频谱生成音色转换语音,其中,所述解码器包括至少一层重参数化卷积层、多层自注意力风格迁徙模块以及至少一层后处理网络。
第三方面,本申请实施例提供了一种电子设备,该网络设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本公开的上述各个实施例中的一个实施例具有如下有益效果:首先获取目标语音和参考语音,之后对目标语音和参考语音进行频谱特征提取,以得到目标对数梅尔频谱以及参考对数梅尔频谱,再对目标对数梅尔频谱进行内容特征提取,得到目标语音内容编码向量,进而对参考对数梅尔频谱进行音色特征提取,得到参考语音音色编码向量,最后根据目标语音内容编码向量和参考语音音色编码向量,生成音色转换语音。本文提出的方法尝试设计更好的编解码器和风格迁移模块,即自注意力风格迁移模块,能够在各个说话人少样本的情况下,生成的音色转换语音能良好地进行多对多的跨语言交流,能使外国人说中文,或者中国人说外语,并且能够保证最后生成的音色转换语音具有优良的语音质量。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,元件和元素不一定按照比例绘制。
图1是根据本公开一些实施例的一种用于转换语音音色的方法的一个应用场景的示意图;
图2是根据本发明公开的一种用于转换语音音色的方法的一些实施例的流程图;
图3是内容编码器的结构示意图;
图4是音色编码器的结构示意图;
图5是解码器的结构示意图;
图6是重参数化层的结构示意图;
图7是后处理网络的结构示意图;
图8是自注意力风格迁移模块的示意图;
图9是根据本公开的一种用于转换语音音色装置的一些实施例的结构示意图;
图10是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
图1是根据本公开一些实施例的一种用于转换语音音色的方法的一个应用场景的示意图。
如图1所示,服务器101可以获取目标语音102和参考语音103,之后,服务器可以对对上述目标语音102和上述参考语音103进行频谱特征提取,目标对数梅尔频谱104和参考对数梅尔频谱105,接着,对上述目标对数梅尔频谱104进行内容特征提取,得到目标语音内容编码向量106,再对上述参考对数梅尔频谱105进行音色特征提取,得到参考语音音色编码向量107,最后,上述目标语音内容编码向量106和上述参考语音音色编码向量107,生成音色转换语音108。
可以理解的是,一种用于转换语音音色的方法可以是由终端设备来执行,或者也可以是由服务器101来执行,上述方法的执行主体还可以包括上述终端设备与上述服务器101通过网络相集成所构成的设备,或者还可以是各种软件程序来执行。其中,终端设备可以是具有信息处理能力的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。执行主体也可以体现为服务器101、软件等。当执行主体为软件时,可以安装在上述所列举的电子设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的服务器数目仅仅是示意性的。根据实现需要,可以具有任意数目的服务器。
继续参考图2,示出了根据本公开的一种用于转换语音音色的方法的一些实施例的流程200。该一种用于转换语音音色的方法,包括以下步骤:
步骤201,获取目标语音和参考语音。
在一些实施例中,一种用于转换语音音色的方法的执行主体(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式获取目标语音和参考语音。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
在这里,上述目标语音通常是指需要进行音色转换的语音。上述参考语音通常是指存在上述目标语音需要的音色的语音。作为示例,上述目标语音可以是“您好”,上述参考语音可以是“hello”。
步骤202,对目标语音和上述参考语音进行频谱特征提取,得到上述目标语音对应的目标对数梅尔频谱以及上述参考语音对应的参考对数梅尔频谱。
在一些实施例中,上述执行主体可以对上述目标语音和上述参考语音进行频谱特征提取,得到上述目标语音对应的目标对数梅尔频谱以及上述参考语音对应的参考对数梅尔频谱。
在这里,上述频谱特征提取的方式有多种,在此不再赘述。
步骤203,将所述目标对数梅尔频谱输入至预先训练的内容编码器,得到目标语音内容编码向量。
在一些实施例中,上述执行主体可以将所述目标对数梅尔频谱输入至预先训练的内容编码器,得到目标语音内容编码向量。所述内容编码器由多层多头自注意力层以及至少两层卷积层组成。
在一些实施例的一些可选的实现方式中,所述多头自注意力层依次包含一个256隐藏单元的自注意力层、一个LN层、一次残差连接层和一个2层的一维卷积网络;所述至少两层卷积层包括VAE均值预测卷积层和VAE标准差预测卷积层。
具体的,如图3所示,图3是内容编码器的结构示意图。上述内容编码器由多层多头自注意力层以及至少两层卷积层组成,首先堆叠6层多头自注意力模块,每个多头自注意力模块包含的结构依次是1个256隐藏单元的self-attention(SA)层,1个LN层,1次残差连接,1个2层的1维卷积网络,隐藏单元数为1024,核大小分别为3和9,步长都为1。激活函数为ReLU,1个LN层,另外一个残差连接。第一个多头自注意力模块的开始处额外加一个1维卷积层,其输出通道为256,核大小为3,步长为1。VAE均值预测卷积层和VAE标准差预测卷积层均为输出通道为32的1维卷积层,核大小为5,步长为1。
步骤204,对参考对数梅尔频谱进行音色特征提取,得到参考语音音色编码向量。
在一些实施例中,上述执行主体可以对上述参考对数梅尔频谱进行音色特征提取,得到参考语音音色编码向量。在这里,上述音色特征提取通常是指对语音或频谱进行音色特征提取的方式。上述参考语音音色编码向量通常是指上述参考语音的音色特征向量。
在一些实施例的一些可选的实现方式中,上述执行主体可以将上述参考对数梅尔频谱输入至预先训练的音色编码器,得到参考语音音色编码向量,上述音色编码器由多层卷积层以及至少一层自适应平均池化层组成。
如图4所示,图4是音色编码器的结构示意图,上述音色编码器包含6个堆叠的卷积模块。每个卷积模块包含一个1维卷积神经网络和一个Relu激活函数。后接一个自适应平均池化层(AdaAvgPool1d),输出定长256维度的音色编码向量。
步骤205,将所述参考语音音色编码向量和所述目标语音内容编码向量输入至预先训练的解码器中,得到预测梅尔频谱,以及根据所述预测梅尔频谱生成音色转换语音。
在一些实施例中,上述执行主体可以将所述参考语音音色编码向量和所述目标语音内容编码向量输入至预先训练的解码器中,得到预测梅尔频谱,以及根据所述预测梅尔频谱生成音色转换语音,其中,所述解码器包括至少一层重参数化卷积层、多层自注意力风格迁徙模块以及至少一层后处理网络。具体的,上述音色转换语音通常是指拥有上述目标语音所包含的信息,以及拥有上述参考语音的音色的语音。在这里,上述执行主体可以将转换语音的预测梅尔频谱输入到预训练好的HiFi-GAN声码器,得到转换语音。
在这里,HIFI-GAN由一个生成器和两个判别器组成。判别器分别是:multi-scale判别器和multi-period判别器,即多尺度判别器,多周期判别器。
如图5所示,图5是解码器的结构示意图,解码器中的重参数化卷积层(重参数化层)无需神经网络参数,对VAE均值预测卷积层的输出和VAE标准差预测卷积层/>做一个重采样计算得到内容编码。随后内容编码进入6个堆叠的自注意力风格迁移模块,其具体参数如下所示。Wq、Wk、Wv的矩阵维度为[256,256]。
在第一个自注意力风格迁移模块前额外加入一个1维卷积层,其输出通道为256。最后一个自注意力风格迁移模块的W矩阵的维度为[256,80]。6个堆叠的自注意力风格迁移模块得到前置预测梅尔频谱,前置预测梅尔频谱进入到后处理网络,其具体参数是包含3个卷积模块,每个卷积模块包含1维卷积、批量归一化和Relu激活函数,以及一次残差连接,卷积核大小均为5,步长为1,输出通道分别为256,256,80。
如图6所示,图6是重参数化层的结构示意图,示出了重参数化层的内部操作。重参数化是基于神经网络的变分自编码器训练所要求的操作,其操作是从均值为0,方程为1的正态分布中采样一个变量,该变量的维度大小与VAE均值相同。
接下来利用VAE均值和VAE标准差将该正态分布仿射为均值为VAE均值,标准差为VAE标准差的正态分布变量:内容编码。仿射公式为:内容编码= VAE标准差×z + VAE均值。z 是一个服从均值为0、方差为1的正态分布的随机变量。该变量使用 randO函数直接生成。
在一些实施例的一些可选的实现方式中,所述后处理网络包括3层卷积模块和一次残差连接模块。具体的,如图7所示,图7是后处理网络的结构示意图,后处理网络为3层卷积模块和一次残差连接。其计算公式为:,其中,m表示预测梅尔频谱,h表示前置预测频谱,convs表示多层卷积模块。每个卷积模块包含一维卷积层、批归一化和Relu激活函数。上述后处理网络可以对频谱进行去噪处理,使得生成的音色转换语音的音质更好。
如图8所示,图8是自注意力风格迁移模块的示意图,该模块在神经网络创建的同时初始化三个神经网络参数矩阵Wq、Wk、Wv,随后,使用音色编码向量γ对这三个参数矩阵进行风格化:
,
之后将内容编码x进行实例归一化,对时间维度t和通道维度c求其平均值和方差,进行归一化:
,
接着,将风格化的参数矩阵与归一化的内容编码x'进行Q、K、V的计算:再进行自注意力计算:/>,其中,d表示Q矩阵的维度,T表示转置,H表示模块输出,Wq、Wk、Wv矩阵在随后的神经网络训练中可更新其参数值。
在一些实施例的一些可选的实现方式中,上述解码器是根据以下步骤训练得到的:获取样本,其中,上述样本包括样本音色编码向量和样本内容编码向量,以及与上述样本音色编码向量和上述样本内容编码向量对应的样本梅尔频谱;将上述样本音色编码向量和上述样本内容编码向量输入至待训练模型,得到输出梅尔频谱;将上述样本梅尔频谱和上述输出梅尔频谱进行比较,得到比较结果;根据比较结果确定待训练模型是否训练完成;响应于确定待训练模型训练完成,将待训练模型确定为音色转换模型。
在这里,上述解码器通常用于表征音色编码向量以及内容编码向量与梅尔频谱的对应关系。作为示例,上述解码器可以是音色编码向量以及内容编码向量与梅尔频谱的对应关系表。作为又一示例,上述解码器可以是经过预先训练的神经网络。
在这里,上述比较方式可以是将预测对数梅尔频谱与源语音的对数梅尔频谱进行均方差损失计算。
在这里,模型的训练超参数可以是:批大小为16,控制参数的数值从0等距增加到/>,数值增加的步长为/>,本发明/>,KL_step=20000。本发明在训练VCTK数据集和AISHELL-3数据集时,迭代30W步。
另外,响应于确定待训练模型未训练完成,上述执行主体可以调整待训练模型中的相关参数。
在这里,上述调整相关参数的方式可以是利用均方差损失对神经网络参数求导得到各个参数的梯度,使用梯度对神经网络参数进行更新并反复训练直到指定次数,获得音色转换模型。
本公开的上述各个实施例中的一个实施例具有如下有益效果:首先获取目标语音和参考语音,之后对目标语音和参考语音进行频谱特征提取,以得到目标对数梅尔频谱以及参考对数梅尔频谱,再对目标对数梅尔频谱进行内容特征提取,得到目标语音内容编码向量,进而对参考对数梅尔频谱进行音色特征提取,得到参考语音音色编码向量,最后根据目标语音内容编码向量和参考语音音色编码向量,生成音色转换语音。本文提出的方法尝试设计更好的编解码器和风格迁移模块,即自注意力风格迁移模块,能够在各个说话人少样本的情况下,生成的音色转换语音能良好地进行多对多的跨语言交流,能使外国人说中文,或者中国人说外语,并且能够保证最后生成的音色转换语音具有优良的语音质量。
进一步参考图9,作为对上述各图所示方法的实现,本公开提供了一种用于转换语音音色的装置的一些实施例,这些装置实施例与图2所示的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图9所示,一些实施例的一种用于转换语音音色的装置900包括:获取单元901、第一提取单元902、第二提取单元903、第三提取单元904和生成单元905,其中,获取单元901,被配置成获取目标语音和参考语音;第一提取单元902,被配置成对上述目标语音和上述参考语音进行频谱特征提取,得到上述目标语音对应的目标对数梅尔频谱以及上述参考语音对应的参考对数梅尔频谱;第二提取单元903,被配置成将所述目标对数梅尔频谱输入至预先训练的内容编码器,得到目标语音内容编码向量,其中,所述内容编码器由多层多头自注意力层以及至少两层卷积层组成;第三提取单元904,被配置成对上述参考对数梅尔频谱进行音色特征提取,得到参考语音音色编码向量;生成单元905,被配置成将所述参考语音音色编码向量和所述目标语音内容编码向量输入至预先训练的解码器中,得到预测梅尔频谱,以及根据所述预测梅尔频谱生成音色转换语音,其中,所述解码器包括至少一层重参数化卷积层、多层自注意力风格迁徙模块以及至少一层后处理网络。
在一些实施例的可选实现方式中,所述多头自注意力层依次包含一个256隐藏单元的自注意力层、一个LN层、一次残差连接层和一个2层的一维卷积网络;所述至少两层卷积层包括VAE均值预测卷积层和VAE标准差预测卷积层。
在一些实施例的可选实现方式中,所述后处理网络包括3层卷积模块和一次残差连接模块。
在一些实施例的可选实现方式中,上述第三提取单元被进一步的配置成:将上述参考对数梅尔频谱输入至预先训练的音色编码器,得到参考语音音色编码向量,其中,上述音色编码器由多层卷积层以及至少一层自适应平均池化层组成。
在一些实施例的可选实现方式中,上述生成单元被进一步的配置成:将上述参考语音音色编码向量和上述目标语音内容编码向量输入至预先训练的解码器中,得到预测梅尔频谱,其中,上述解码器由至少一层重参数化卷积层、多层自注意力风格迁徙模块以及至少一层后处理网络组成;根据上述预测梅尔频谱生成音色转换语音。
在一些实施例的可选实现方式中,上述解码器是根据以下步骤训练得到的:获取样本,其中,上述样本包括样本音色编码向量和样本内容编码向量,以及与上述样本音色编码向量和上述样本内容编码向量对应的样本梅尔频谱;将上述样本音色编码向量和上述样本内容编码向量输入至待训练模型,得到输出梅尔频谱;将上述样本梅尔频谱和上述输出梅尔频谱进行比较,得到比较结果;根据比较结果确定待训练模型是否训练完成;响应于确定待训练模型训练完成,将待训练模型确定为音色转换模型。
可以理解的是,该装置900中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置900及其中包含的单元,在此不再赘述。
本公开的上述各个实施例中的一个实施例具有如下有益效果:首先获取目标语音和参考语音,之后对目标语音和参考语音进行频谱特征提取,以得到目标对数梅尔频谱以及参考对数梅尔频谱,再对目标对数梅尔频谱进行内容特征提取,得到目标语音内容编码向量,进而对参考对数梅尔频谱进行音色特征提取,得到参考语音音色编码向量,最后根据目标语音内容编码向量和参考语音音色编码向量,生成音色转换语音。本文提出的方法尝试设计更好的编解码器和风格迁移模块,即自注意力风格迁移模块,能够在各个说话人少样本的情况下,生成的音色转换语音能良好地进行多对多的跨语言交流,能使外国人说中文,或者中国人说外语,并且能够保证最后生成的音色转换语音具有优良的语音质量。
下面参考图10,其示出了适于用来实现本公开的一些实施例的电子设备(例如图1中的服务器)1000的结构示意图。图10示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图10所示,电子设备1000可以包括处理装置(例如中央处理器、图形处理器等)1001,其可以根据存储在只读存储器(ROM)1002中的程序或者从存储装置1008加载到随机访问存储器(RAM)1003中的程序而执行各种适当的动作和处理。在RAM 1003中,还存储有电子设备1000操作所需的各种程序和数据。处理装置1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
通常,以下装置可以连接至I/O接口1005:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置1006;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置1007;包括例如磁带、硬盘等的存储装置1008;以及通信装置1009。通信装置1009可以允许电子设备1000与其他设备进行无线或有线通信以交换数据。虽然图10示出了具有各种装置的电子设备1000,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图10中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置1009从网络上被下载和安装,或者从存储装置1008被安装,或者从ROM 1002被安装。在该计算机程序被处理装置1001执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取目标语音和参考语音;对上述目标语音和上述参考语音进行频谱特征提取,得到上述目标语音对应的目标对数梅尔频谱以及上述参考语音对应的参考对数梅尔频谱;对上述目标对数梅尔频谱进行内容特征提取,得到目标语音内容编码向量;对上述参考对数梅尔频谱进行音色特征提取,得到参考语音音色编码向量;根据上述目标语音内容编码向量和上述参考语音音色编码向量,生成音色转换语音。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、第一提取单元、第二提取单元、第三提取单元和生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取目标语音和参考语音的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (8)
1.一种用于转换语音音色的方法,包括:
获取目标语音和参考语音;
对所述目标语音和所述参考语音进行频谱特征提取,得到所述目标语音对应的目标对数梅尔频谱以及所述参考语音对应的参考对数梅尔频谱;
将所述目标对数梅尔频谱输入至预先训练的内容编码器,得到目标语音内容编码向量,其中,所述内容编码器由多层多头自注意力层以及至少两层卷积层组成;
其中,所述多头自注意力层依次包含一个256隐藏单元的自注意力层、一个LN层、一次残差连接层和一个2层的一维卷积网络;所述至少两层卷积层包括VAE均值预测卷积层和VAE标准差预测卷积层;
对所述参考对数梅尔频谱进行音色特征提取,得到参考语音音色编码向量;
将所述参考语音音色编码向量和所述目标语音内容编码向量输入至预先训练的解码器中,得到预测梅尔频谱,以及根据所述预测梅尔频谱生成音色转换语音,其中,所述解码器包括至少一层重参数化卷积层、多层自注意力风格迁徙模块以及至少一层后处理网络;
解码器中的重参数化卷积层无需神经网络参数,对VAE均值预测卷积层的输出和VAE标准差预测卷积层/>做一个重采样计算得到内容编码。
2.根据权利要求1所述的方法,其中,所述对所述参考对数梅尔频谱进行音色特征提取,得到参考语音音色编码向量,包括:
将所述参考对数梅尔频谱输入至预先训练的音色编码器,得到参考语音音色编码向量,其中,所述音色编码器由多层卷积层以及至少一层自适应平均池化层组成。
3.根据权利要求1所述的方法,其中,所述解码器是根据以下步骤训练得到的:
获取样本,其中,所述样本包括样本音色编码向量和样本内容编码向量,以及与所述样本音色编码向量和所述样本内容编码向量对应的样本梅尔频谱;
将所述样本音色编码向量和所述样本内容编码向量输入至待训练模型,得到输出梅尔频谱;
将所述样本梅尔频谱和所述输出梅尔频谱进行比较,得到比较结果;
根据比较结果确定待训练模型是否训练完成;
响应于确定待训练模型训练完成,将待训练模型确定为音色转换模型。
4.根据权利要求1所述的方法,其中,所述后处理网络包括3层卷积模块和一次残差连接模块。
5.一种用于转换语音音色的装置,包括:
获取单元,被配置成获取目标语音和参考语音;
第一提取单元,被配置成对所述目标语音和所述参考语音进行频谱特征提取,得到所述目标语音对应的目标对数梅尔频谱以及所述参考语音对应的参考对数梅尔频谱;
第二提取单元,被配置成将所述目标对数梅尔频谱输入至预先训练的内容编码器,得到目标语音内容编码向量,其中,所述内容编码器由多层多头自注意力层以及至少两层卷积层组成;
第三提取单元,被配置成对所述参考对数梅尔频谱进行音色特征提取,得到参考语音音色编码向量;
生成单元,被配置成将所述参考语音音色编码向量和所述目标语音内容编码向量输入至预先训练的解码器中,得到预测梅尔频谱,以及根据所述预测梅尔频谱生成音色转换语音,其中,所述解码器包括至少一层重参数化卷积层、多层自注意力风格迁徙模块以及至少一层后处理网络。
6.根据权利要求5所述的装置,其中,所述多头自注意力层依次包含一个256隐藏单元的自注意力层、一个LN层、一次残差连接层和一个2层的一维卷积网络;所述至少两层卷积层包括VAE均值预测卷积层和VAE标准差预测卷积层。
7.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-4中任一所述的方法。
8.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-4中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310322971.7A CN116030792B (zh) | 2023-03-30 | 2023-03-30 | 用于转换语音音色的方法、装置、电子设备和可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310322971.7A CN116030792B (zh) | 2023-03-30 | 2023-03-30 | 用于转换语音音色的方法、装置、电子设备和可读介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116030792A CN116030792A (zh) | 2023-04-28 |
CN116030792B true CN116030792B (zh) | 2023-07-25 |
Family
ID=86074443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310322971.7A Active CN116030792B (zh) | 2023-03-30 | 2023-03-30 | 用于转换语音音色的方法、装置、电子设备和可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116030792B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116312469B (zh) * | 2023-05-17 | 2023-08-11 | 天津大学 | 一种基于语音转换的病理嗓音修复方法 |
CN116312466B (zh) * | 2023-05-23 | 2023-08-15 | 澳克多普有限公司 | 基于少量样本的说话人适应方法、语音翻译方法和系统 |
CN116959422B (zh) * | 2023-09-21 | 2023-11-24 | 深圳麦风科技有限公司 | 多对多的实时语音变音方法、设备及存储介质 |
CN117746834B (zh) * | 2024-02-21 | 2024-05-24 | 青岛海尔科技有限公司 | 基于大模型的语音生成方法及装置、存储介质、电子装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110444193A (zh) * | 2018-01-31 | 2019-11-12 | 腾讯科技(深圳)有限公司 | 语音关键词的识别方法和装置 |
CN111145720A (zh) * | 2020-02-04 | 2020-05-12 | 清华珠三角研究院 | 一种将文本转换成语音的方法、系统、装置和存储介质 |
CN112365881A (zh) * | 2020-11-11 | 2021-02-12 | 北京百度网讯科技有限公司 | 语音合成方法及对应模型的训练方法、装置、设备与介质 |
CN113327575A (zh) * | 2021-05-31 | 2021-08-31 | 广州虎牙科技有限公司 | 一种语音合成方法、装置、计算机设备和存储介质 |
CN114141228A (zh) * | 2021-12-07 | 2022-03-04 | 北京百度网讯科技有限公司 | 语音合成模型的训练方法、语音合成方法和装置 |
KR20220105043A (ko) * | 2021-01-19 | 2022-07-26 | 고려대학교 산학협력단 | 음성 변환 방법 및 장치 |
CN114999443A (zh) * | 2022-05-27 | 2022-09-02 | 网易(杭州)网络有限公司 | 语音生成方法及装置、存储介质、电子设备 |
CN115273890A (zh) * | 2022-07-29 | 2022-11-01 | 平安科技(深圳)有限公司 | 音色转换方法、电子设备和计算机可读存储介质 |
CN115410550A (zh) * | 2022-06-02 | 2022-11-29 | 柯登峰 | 一种细粒度韵律可控的情感语音合成方法、系统及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11830473B2 (en) * | 2020-01-21 | 2023-11-28 | Samsung Electronics Co., Ltd. | Expressive text-to-speech system and method |
-
2023
- 2023-03-30 CN CN202310322971.7A patent/CN116030792B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110444193A (zh) * | 2018-01-31 | 2019-11-12 | 腾讯科技(深圳)有限公司 | 语音关键词的识别方法和装置 |
CN111145720A (zh) * | 2020-02-04 | 2020-05-12 | 清华珠三角研究院 | 一种将文本转换成语音的方法、系统、装置和存储介质 |
CN112365881A (zh) * | 2020-11-11 | 2021-02-12 | 北京百度网讯科技有限公司 | 语音合成方法及对应模型的训练方法、装置、设备与介质 |
KR20220105043A (ko) * | 2021-01-19 | 2022-07-26 | 고려대학교 산학협력단 | 음성 변환 방법 및 장치 |
CN113327575A (zh) * | 2021-05-31 | 2021-08-31 | 广州虎牙科技有限公司 | 一种语音合成方法、装置、计算机设备和存储介质 |
CN114141228A (zh) * | 2021-12-07 | 2022-03-04 | 北京百度网讯科技有限公司 | 语音合成模型的训练方法、语音合成方法和装置 |
CN114999443A (zh) * | 2022-05-27 | 2022-09-02 | 网易(杭州)网络有限公司 | 语音生成方法及装置、存储介质、电子设备 |
CN115410550A (zh) * | 2022-06-02 | 2022-11-29 | 柯登峰 | 一种细粒度韵律可控的情感语音合成方法、系统及存储介质 |
CN115273890A (zh) * | 2022-07-29 | 2022-11-01 | 平安科技(深圳)有限公司 | 音色转换方法、电子设备和计算机可读存储介质 |
Non-Patent Citations (2)
Title |
---|
Enhancing Zero-Shot Many to Many Voice Conversion via Self-Attention VAE with Structurally Regularized Layers;Ziang Long,et al.;《https://arxiv.org/pdf2203.16037.pdf》;全文 * |
语音风格迁移研究进展;刘畅等;《计算机科学》;第49卷(第S1期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116030792A (zh) | 2023-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116030792B (zh) | 用于转换语音音色的方法、装置、电子设备和可读介质 | |
JP7337953B2 (ja) | 音声認識方法及び装置、ニューラルネットワークの訓練方法及び装置、並びにコンピュータープログラム | |
JP6803365B2 (ja) | 音声合成モデルを生成するための方法、及び装置 | |
WO2020232860A1 (zh) | 语音合成方法、装置及计算机可读存储介质 | |
US11355097B2 (en) | Sample-efficient adaptive text-to-speech | |
TWI610295B (zh) | 解壓縮及壓縮用於語音辨識之轉換器資料的電腦實施方法及電腦實施之語音辨識系統 | |
CN112699991A (zh) | 用于加速神经网络训练的信息处理的方法、电子设备和计算机可读介质 | |
WO2022253061A1 (zh) | 一种语音处理方法及相关设备 | |
WO2022141868A1 (zh) | 一种提取语音特征的方法、装置、终端及存储介质 | |
CN111462728A (zh) | 用于生成语音的方法、装置、电子设备和计算机可读介质 | |
CN111597825B (zh) | 语音翻译方法、装置、可读介质及电子设备 | |
WO2022126904A1 (zh) | 语音转换方法、装置、计算机设备及存储介质 | |
CN114582329A (zh) | 语音识别方法、装置、计算机可读介质及电子设备 | |
CN113327599B (zh) | 语音识别方法、装置、介质及电子设备 | |
WO2023142454A1 (zh) | 语音翻译和模型训练方法、装置、电子设备以及存储介质 | |
CN115081616A (zh) | 一种数据的去噪方法以及相关设备 | |
CN115803806A (zh) | 用于训练双模式机器学习言语识别模型的系统和方法 | |
CN113468344B (zh) | 实体关系抽取方法、装置、电子设备和计算机可读介质 | |
JP2023169230A (ja) | コンピュータプログラム、サーバ装置、端末装置、学習済みモデル、プログラム生成方法、及び方法 | |
CN113362804A (zh) | 一种合成语音的方法、装置、终端及存储介质 | |
CN115101075A (zh) | 一种语音识别的方法以及相关装置 | |
CN114464163A (zh) | 语音合成模型的训练方法、装置、设备、存储介质和产品 | |
CN112951270A (zh) | 语音流利度检测的方法、装置和电子设备 | |
CN112687262A (zh) | 语音转换方法、装置、电子设备及计算机可读存储介质 | |
WO2024055752A1 (zh) | 语音合成模型的训练方法、语音合成方法和相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230625 Address after: Room 1404, Unit 2, Building 1, Haizhi Yungu, No. 2094, Shenyan Road, Tiandong Community, Haishan Street, Yantian District, Shenzhen, Guangdong 518081 Applicant after: Shenzhen Weiou Technology Co.,Ltd. Address before: Room 401, Building B, No. 2, Lanshui Industrial Zone, Longxin Community, Baolong Street, Longgang District, Shenzhen City, Guangdong Province, 518116 Applicant before: Ocdop Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |