CN113744757A - 一种语音转换方法、系统、计算机设备及存储介质 - Google Patents

一种语音转换方法、系统、计算机设备及存储介质 Download PDF

Info

Publication number
CN113744757A
CN113744757A CN202111083885.2A CN202111083885A CN113744757A CN 113744757 A CN113744757 A CN 113744757A CN 202111083885 A CN202111083885 A CN 202111083885A CN 113744757 A CN113744757 A CN 113744757A
Authority
CN
China
Prior art keywords
sound
target
fundamental frequency
convolution
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111083885.2A
Other languages
English (en)
Inventor
彭宁
萧博耀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Wondershare Software Co Ltd
Original Assignee
Shenzhen Wondershare Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Wondershare Software Co Ltd filed Critical Shenzhen Wondershare Software Co Ltd
Priority to CN202111083885.2A priority Critical patent/CN113744757A/zh
Publication of CN113744757A publication Critical patent/CN113744757A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • G10L21/007Changing voice quality, e.g. pitch or formants characterised by the process used

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本发明公开了一种语音转换方法、系统、计算机设备及存储介质,该方法包括:利用语音合成系统提取语音样本中的基频特征和音频MCEP特征;将音频MCEP特征输入至预训练的语音转换网络中进行音频转换,得到平均声音,并利用音色转换网络将平均声音转换为目标声音;将基频特征进行音调转换,并将目标声音、非周期分量特征以及转换后的基频特征进行音频合成处理,得到音频时域特征;利用语音信号处理函数将音频时域特征进行语音还原处理,得到目标语音。本发明通过预训练的语音转换网络和音色转换网络对输入的音频特征进行训练得到目标声音,训练过程更加准确,对于新语音无需重新对网络进行训练,提高了转换效率。

Description

一种语音转换方法、系统、计算机设备及存储介质
技术领域
本发明涉及语音转换技术领域,尤其涉及一种语音转换方法、系统、计算机设备及存储介质。
背景技术
变声器是通过改变输入音频的音色、音调,并将变声后的音频输出的工具,其中包括变声器硬件和变声器软件。现有技术中变声器软件一般采用StarGAN模型对输入音频进行训练,得到目标语音,但是该类变声器软件应用过程中,每次输入新语音时,均需要重新训练StarGAN模型,从而得到目标语音。
发明内容
本发明实施例提供了一种语音转换方法、系统、计算机设备及存储介质,旨在解决现有技术中对于新输入的语音需要对模型进行重新训练的问题。
第一方面,本发明实施例提供了一种语音转换方法,包括以下步骤:
利用语音合成系统提取语音样本中的基频特征和音频MCEP特征;
将所述音频MCEP特征输入至预训练的语音转换网络中进行音频转换,得到平均声音,并利用音色转换网络将所述平均声音转换为目标声音;
将所述基频特征进行音调转换,并将目标声音、非周期分量特征以及转换后的基频特征进行音频合成处理,得到音频时域特征;
利用语音信号处理函数将所述音频时域特征进行语音还原处理,得到目标语音。
第二方面,本发明实施例提供了一种语音转换系统,其包括:
特征提取单元,用于利用语音合成系统提取语音样本中的基频特征和音频MCEP特征;
目标声音获取单元,用于将所述音频MCEP特征输入至预训练的语音转换网络中进行音频转换,得到平均声音,并利用音色转换网络将所述平均声音转换为目标声音;
音频时域特征获取单元,用于将所述基频特征进行音调转换,并将目标声音、非周期分量特征以及转换后的基频特征进行音频合成处理,得到音频时域特征;
目标语音获取单元,用于利用语音信号处理函数将所述音频时域特征进行语音还原处理,得到目标语音。
第三方面,本发明实施例又提供了一种计算机设备,其包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的语音转换方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其中所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述第一方面所述的语音转换方法。
本发明实施例提供了一种语音转换方法、系统、计算机设备及存储介质。该方法包括:利用语音合成系统提取语音样本中的基频特征和音频MCEP特征;将所述音频MCEP特征输入至预训练的语音转换网络中进行音频转换,得到平均声音,并利用音色转换网络将所述平均声音转换为目标声音;将所述基频特征进行音调转换,并将目标声音、非周期分量特征以及转换后的基频特征进行音频合成处理,得到音频时域特征;利用语音信号处理函数将所述音频时域特征进行语音还原处理,得到目标语音。本发明实施例先利用语音转换网络对音频MCEP特征进行音频转换,再利用音色转换网络对平均声音进行音色转换,从而得到目标声音,再将目标声音和其余特征进行合成得到目标语音,整个转换过程更加准确,通过预训练的语音转换网络和音色转换网络可以适用于不同声音的转换,无需重新进行训练,提高了转换效率。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的语音转换方法的流程示意图;
图2为本发明实施例提供的语音转换系统的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1,图1为本发明实施例提供的一种语音转换方法的流程示意图,该方法包括步骤S101~S104。
S101、利用语音合成系统提取语音样本中的基频特征和音频MCEP特征;
S102、将所述音频MCEP特征输入至预训练的语音转换网络中进行音频转换,得到平均声音,并利用音色转换网络将所述平均声音转换为目标声音;
S103、将所述基频特征进行音调转换,并将目标声音、非周期分量特征以及转换后的基频特征进行音频合成处理,得到音频时域特征;
S104、利用语音信号处理函数将所述音频时域特征进行语音还原处理,得到目标语音。
在本实施例中,先利用语音合成系统提取语音样本中的基频特征和音频MCEP特征;然后将基频特征进行音调转换,将音频MCEP特征输入至训练好的语音转换网络中进行训练,得到平均声音,再将平均声音输入至音色转换网络进行训练,得到目标声音;将目标声音、非周期分量特征以及转换后的基频特征合成为音频时域特征;最后在利用语音信号处理函数将音频时域特征还原成目标语音。
本实施例采用pyWORLD作为语音合成系统,利用pyWORLD中的pyworld.harvest文件提取基频特征,利用pyworld中的pyworld.code_spectral_envelope提取音频MCEP特征。在提取到基频特征和音频MCEP特征后,利用预先训练好的NormalVoice GAN网络将音频MCEP特征转换成平均声音,再利用预先训练好的StarGAN-VC网络将平均声音转换成目标声音;然后利用以下公式将所述基频特征进行音调转换:
Figure BDA0003261833480000041
其中,f0_conversion代表转换后的基频特征,f0代表原始的基频特征,f0_target代表目标音频音色,f0_mean代表原始的基频特征平均值,f0_target_mean代表目标音频基频平均值,f0_std代表原始的基频特征方差,f0_target_std代表目标音频基频方差。通过上述公式对基频特征进行音调转换,从而得到转换后的基频特征,再利用声码器将目标声音非周期分量特征以及转换后的基频特征通过pyworld.synthesize转换为音频时域特征;最后利用librosa.output.write_wav函数将音频时域特征还原为目标语音。
在一实施例中,所述将所述语音转换网络的训练过程如下:
提取声音样本集中的基频特征,并将最接近指定频率的基频特征作为目标样本,并将其余基频特征作为原始输入样本;
将所述原始输入样本输入至第一生成器中进行卷积,得到生成值,并将所述目标样本和生成值输入至第一鉴别器中进行卷积,得到所述生成值为所述目标样本的概率;若所述生成值不为所述目标样本,则计算所述第一生成器和第一鉴别器的损失误差,并将所述损失误差反向传播更新所述语音转换网络的参数;
将所述生成值输入至第二生成器中进行卷积,得到生成输入样本,并将所述目标样本和生成输入样本输入至第二鉴别器中进行卷积,得到所述生成输入样本为所述目标样本的概率;若所述生成输入样本不为所述目标样本,则计算所述第二生成器和第二鉴别器的损失误差,并将所述损失误差反向传播更新所述语音转换网络的参数。
在本实施例中,先提取出声音样本集中的基频特征,并找出其中最接近指定频率的基频特征作为的目标样本,其余的基频特征则作为原始输入样本;利用所述第一生成器对所述原始输入样本进行卷积处理,得到生成值,再利用第一鉴别器计算得到生成值为目标样本的概率;若所述生成值被判定为非所述目标样本,则计算所述第一生成器和第一鉴别器的损失误差,并将所述损失误差反向传播更新所述语音转换网络的参数,若所述生成值被判定为所述目标样本,则说明所述语音转换网络参数正确,可通过现有语音转换网络进行语音转换;利用第二生成器对所述生成值进行卷积得到生成输入样本,利用第二鉴别器计算得到生成输入样本为目标样本的概率;若所述生成输入样本被判定为非所述目标样本,则计算所述第二生成器和第二鉴别器的损失误差,并将所述损失误差反向传播更新所述语音转换网络的参数,若所述生成输入样本被判定为所述目标样本,则说明所述语音转换网络参数正确,可通过现有语音转换网络进行语音转换。其中,所述原始输入样本与生成输入样本实质相同,通过第二生成器将所述生成值进行还原,得到与所述初始输入样本相同特征的生成输入样本。
所述语音转换网络包括第一迭代模块和第二迭代模块,所述第一迭代模块包括第一生成器和第一鉴别器,所述第一生成器的输入为初始输入样本,输出为生成值,所述第一鉴别器的输入为所述第一生成器输出的生成值,输出为第一概率值,所述第一概率值用于对所述生成值进行真伪判断;所述第二迭代模块包括第二生成器和第二鉴别器,所述第二生成器的输入为所述第一生成器输出的生成值,输出为生成输入样本,所述第一鉴别器的输入为所述第二生成器输出的生成输入样本,输出为第二概率值,所述第二概率值用于对所述生成输入样本进行真伪判断。所述语音转换网络通过所述第一迭代模块和第二迭代模块不断进行迭代、从而使整个所述语音转换网络不断进行收敛,直至所述语音转换网络得到最佳参数。所述第一迭代模块和第二迭代模块均包含有一生成器和鉴别器,其中生成器的目的是让输出的生成值越来越接近目标样本,而鉴别器的目的是使得生成值与目标样本的分布越来越远,通过两者之间对抗生成让所述鉴别器的鉴别能力越来越强,同时生成器生成平均声音的能力也越来越强。所述第二生成器将所述第一生成器输出的生成值还原为生成输入样本的操作,可以使得生成值与目标样本越来越接近的同时保留有输入样本的特征。
在一实施例中,所述提取声音样本集中的基频特征,并将最接近指定频率的基频特征作为目标样本,并将其余基频特征作为原始输入样本,包括:
建立声音样本集,利用语音合成系统提取声音样本集中的基频特征,并计算所述基频特征的平均值;
依次计算每个所述基频特征与所述平均值之间的差值并筛选出最小差值;
将所述最小差值对应的基频特征作为目标样本,其余基频特征作为原始输入样本。
在本实施例中,利用语音合成系统从预先建立的声音样本集中提取基频特征,然后计算所有基频特征的平均值,通过计算每个基频特征与平均值之间的差值,筛选出与平均值的差值最小的基频特征作为目标样本,其余基频特征作为输入样本。
本实施例中,预先建立声音样本集,并提取所述声音样本集中的基频特征,记为:X[1],X[2],……,X[n],计算所有基频特征的平均值
Figure BDA0003261833480000061
Figure BDA0003261833480000062
Figure BDA0003261833480000063
先计算第一个基频特征与平均值之间的差值,并作为初始最小差值Min,此时
Figure BDA0003261833480000064
依次计算每个基频特征与平均值之间的差值并判断是否小于初始最小差值,可表示为
Figure BDA0003261833480000065
若存在小于初始最小差值的差值,则将该差值替换成初始最小差值,此时
Figure BDA0003261833480000066
在所有基频特征与平均值之间的差值均进行比较后,将最终的最小差值所对应的基频特征作为目标样本输出。具体提取流程如下:
Figure BDA0003261833480000067
Figure BDA0003261833480000068
for i in rang(n):
Figure BDA0003261833480000069
Figure BDA00032618334800000610
Return i
k=i
Normal_Voice=X[k]
其中,X[k]为目标样本,X[i](i!=k)为输入样本。
在一实施例中,所述将所述音频MCEP特征输入至预训练的语音转换网络中进行音频转换,得到平均声音,包括:
将所述音频MCEP特征输入至第一降采样模块进行卷积处理,得到第一降采样卷积结果,并将所述第一降采样卷积结果输入至多个连续的残差模块进行卷积处理,得到残差卷积结果,并将所述残差卷积结果输入至第一上采样模块进行卷积,得到第一卷积结果;
将所述第一卷积结果输入至第二降采样模块进行卷积处理,得到第二降采样卷积结果,并将第二降采样卷积结果输入至全连接层进行卷积得到第二卷积结果,利用sigmoid激活函数计算所述第二卷积结果为目标样本的概率;
若所述第二卷积结果为目标样本,则将所述第一卷积结果作为平均声音进行输出,若所述第二卷积结果不为目标样本,则重新进行音频转换。
在本实施例中,先将音频MCEP特征输入至第一降采样模块进行降采样,然后再经由多个连续的残差模块进行卷积,最后再输入至第一上采样模块进行上采样,得到第一卷积结果;将第一卷积结果输入至第二降采样模块进行降采样,然后输入至全连接层内进行卷积,得到第二卷积结果,最后利用sigmoid激活函数计算第二卷积结果为目标样本的概率;若第二卷积结果为目标样本,则将第一卷积结果作为平均声音输出,否则重新进行音频转换。本实施例中,将所述音频MCEP特征输入至预训练的语音转换网络中进行音频转换,具体是将所述音频MCEP特征输入至所述语音转换网络的第一生成器中生成平均声音,再根据第一鉴别器判断所述第一生成器生成的平均声音的真伪,若为真,则将平均声音进行输出,若为假则重新进行语音转换。本实施例生成第一卷积结果的过程实质上即为第一生成器生成平均声音的过程,计算第二卷积结果为目标样本的概率的过程实际上即为第一鉴别器的判定真伪过程。
在一实施例中,所述利用音色转换网络将所述平均声音转换为目标声音,包括:
将所述平均声音输入至第三降采样模块进行卷积处理,得到第三降采样卷积结果,并将所述第三降采样卷积结果输入至降维模块进行降维处理,得到降维后的第三降采样卷积结果;
将所述降维后的第三降采样卷积结果输入至多个连续的卷积模块进行卷积,并将卷积结果输入至升维模块进行升维处理,并将升维结果输入至第二上采样模块进行卷积处理,得到初始目标声音;
将所述初始目标声音输入至第四降采样模块进行卷积处理,得到所述初始目标声音为需求声音的概率,若所述初始目标声音为需求声音,则将所述初始目标声音作为最终的目标声音。
在本实施例中,将所述平均声音输入至第三降采样模块进行降采样处理,再输入至降维模块进行降维处理,得到降维后的第三降采样卷积结果,并将降维后的第三降采样卷积结果输入至多个连续的卷积模块进行卷积处理,再输入至升维模块进行升维处理,恢复原有维度,最后将升维结果输入至第二上采样模块进行上采样,得到初始目标声音;随后将所述初始目标声音输入至第四降采样模块进行降采样处理,并输出所述初始目标声音为需求声音的概率,若所述初始目标声音为需求声音,则将所述初始目标声音作为最终的目标声音进行输出,否则重新进行转换。
所述音色转换网络包括一生成器和鉴别器,所述生成器的输入为平均声音,输出为目标声音,所述鉴别器的输入为目标声音,输出为第三概率,所述第三概率用于鉴别所述目标声音的真伪。其中所述生成器生成目标声音的过程为:先对平均声音进行降采样处理,在将维度由2D降维至1D,在进行多次卷积处理,然后将维度由1D升维至2D,最后进行上采样处理,最终输出目标声音。
请参阅图2,图2为本发明实施例提供的一种语音转换系统的示意性框图,该语音转换系统200包括:
特征提取单元201,用于利用语音合成系统提取语音样本中的基频特征和音频MCEP特征;
目标声音获取单元202,用于将所述音频MCEP特征输入至预训练的语音转换网络中进行音频转换,得到平均声音,并利用音色转换网络将所述平均声音转换为目标声音;
音频时域特征获取单元203,用于将所述基频特征进行音调转换,并将目标声音、非周期分量特征以及转换后的基频特征进行音频合成处理,得到音频时域特征;
目标语音获取单元204,用于利用语音信号处理函数将所述音频时域特征进行语音还原处理,得到目标语音。
在一实施例中,语音转换网络训练单元如下:
样本分类单元,用于提取声音样本集中的基频特征,并将最接近指定频率的基频特征作为目标样本,并将其余基频特征作为原始输入样本;
第一生成对抗单元,用于将所述原始输入样本输入至第一生成器中进行卷积,得到生成值,并将所述目标样本和生成值输入至第一鉴别器中进行卷积,得到所述生成值为所述目标样本的概率;若所述生成值不为所述目标样本,则计算所述第一生成器和第一鉴别器的损失误差,并将所述损失误差反向传播更新所述语音转换网络的参数;
第二生成对抗单元,用于将所述生成值输入至第二生成器中进行卷积,得到生成输入样本,并将所述目标样本和生成输入样本输入至第二鉴别器中进行卷积,得到所述生成输入样本为所述目标样本的概率;若所述生成输入样本不为所述目标样本,则计算所述第二生成器和第二鉴别器的损失误差,并将所述损失误差反向传播更新所述语音转换网络的参数。
在一实施例中,所述样本分类单元包括:
基频特征平均值计算单元,用于建立声音样本集,利用语音合成系统提取声音样本集中的基频特征,并计算所述基频特征的平均值;
最小差值筛选单元,用于依次计算每个所述基频特征与所述平均值之间的差值并筛选出最小差值;
目标样本确认单元,用于将所述最小差值对应的基频特征作为目标样本,其余基频特征作为原始输入样本。
在一实施例中,所述目标声音获取单元202包括:
第一卷积结果获取单元,用于将所述音频MCEP特征输入至第一降采样模块进行卷积处理,得到第一降采样卷积结果,并将所述第一降采样卷积结果输入至多个连续的残差模块进行卷积处理,得到残差卷积结果,并将所述残差卷积结果输入至第一上采样模块进行卷积,得到第一卷积结果;
第二卷积结果获取单元,用于将所述第一卷积结果输入至第二降采样模块进行卷积处理,得到第二降采样卷积结果,并将第二降采样卷积结果输入至全连接层进行卷积得到第二卷积结果,利用sigmoid激活函数计算所述第二卷积结果为目标样本的概率;
第二卷积结果判断单元,用于若所述第二卷积结果为目标样本,则将所述第一卷积结果作为平均声音进行输出,若所述第二卷积结果不为目标样本,则重新进行音频转换。
在一实施例中,所述目标声音获取单元202包括:
第三降采样卷积结果获取单元,用于将所述平均声音输入至第三降采样模块进行卷积处理,得到第三降采样卷积结果,并将所述第三降采样卷积结果输入至降维模块进行降维处理,得到降维后的第三降采样卷积结果;
初始目标声音获取单元,用于将所述降维后的第三降采样卷积结果输入至多个连续的卷积模块进行卷积,并将卷积结果输入至升维模块进行升维处理,并将升维结果输入至第二上采样模块进行卷积处理,得到初始目标声音;
目标声音输出单元,用于将所述初始目标声音输入至第四降采样模块进行卷积处理,得到所述初始目标声音为需求声音的概率,若所述初始目标声音为需求声音,则将所述初始目标声音作为最终的目标声音。
在一实施例中,所述音频时域特征获取单元203包括:
公式计算单元,用于利用以下公式将所述基频特征进行音调转换:
Figure BDA0003261833480000101
其中,f0_conversion代表转换后的基频特征,f0代表原始的基频特征,f0_target代表目标音频音色,f0_mean代表原始的基频特征平均值,f0_target_mean代表目标音频基频平均值,f0_std代表原始的基频特征方差,f0_target_std代表目标音频基频方差。本发明实施例还提供一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述的语音转换方法。
本发明实施例还提供一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述的语音转换方法。
本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的语音转换方法。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
还需要说明的是,在本说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的状况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

Claims (10)

1.一种语音转换方法,其特征在于,包括:
利用语音合成系统提取语音样本中的基频特征和音频MCEP特征;
将所述音频MCEP特征输入至预训练的语音转换网络中进行音频转换,得到平均声音,并利用音色转换网络将所述平均声音转换为目标声音;
将所述基频特征进行音调转换,并将目标声音、非周期分量特征以及转换后的基频特征进行音频合成处理,得到音频时域特征;
利用语音信号处理函数将所述音频时域特征进行语音还原处理,得到目标语音。
2.根据权利要求1所述的语音转换方法,其特征在于,所述语音转换网络的训练过程如下:
提取声音样本集中的基频特征,并将最接近指定频率的基频特征作为目标样本,并将其余基频特征作为原始输入样本;
将所述原始输入样本输入至第一生成器中进行卷积,得到生成值,并将所述目标样本和生成值输入至第一鉴别器中进行卷积,得到所述生成值为所述目标样本的概率;若所述生成值不为所述目标样本,则计算所述第一生成器和第一鉴别器的损失误差,并将所述损失误差反向传播更新所述语音转换网络的参数;
将所述生成值输入至第二生成器中进行卷积,得到生成输入样本,并将所述目标样本和生成输入样本输入至第二鉴别器中进行卷积,得到所述生成输入样本为所述目标样本的概率;若所述生成输入样本不为所述目标样本,则计算所述第二生成器和第二鉴别器的损失误差,并将所述损失误差反向传播更新所述语音转换网络的参数。
3.根据权利要求2所述的语音转换方法,其特征在于,所述提取声音样本集中的基频特征,并将最接近指定频率的基频特征作为目标样本,并将其余基频特征作为原始输入样本,包括:
建立声音样本集,利用语音合成系统提取声音样本集中的基频特征,并计算所述基频特征的平均值;
依次计算每个所述基频特征与所述平均值之间的差值并筛选出最小差值;
将所述最小差值对应的基频特征作为目标样本,其余基频特征作为原始输入样本。
4.根据权利要求3所述的语音转换方法,其特征在于,所述将所述音频MCEP特征输入至预训练的语音转换网络中进行音频转换,得到平均声音,包括:
将所述音频MCEP特征输入至第一降采样模块进行卷积处理,得到第一降采样卷积结果,并将所述第一降采样卷积结果输入至多个连续的残差模块进行卷积处理,得到残差卷积结果,并将所述残差卷积结果输入至第一上采样模块进行卷积,得到第一卷积结果;
将所述第一卷积结果输入至第二降采样模块进行卷积处理,得到第二降采样卷积结果,并将第二降采样卷积结果输入至全连接层进行卷积得到第二卷积结果,利用sigmoid激活函数计算所述第二卷积结果为目标样本的概率;
若所述第二卷积结果为目标样本,则将所述第一卷积结果作为平均声音进行输出,若所述第二卷积结果不为目标样本,则重新进行音频转换。
5.根据权利要求1所述的语音转换方法,其特征在于,所述利用音色转换网络将所述平均声音转换为目标声音,包括:
将所述平均声音输入至第三降采样模块进行卷积处理,得到第三降采样卷积结果,并将所述第三降采样卷积结果输入至降维模块进行降维处理,得到降维后的第三降采样卷积结果;
将所述降维后的第三降采样卷积结果输入至多个连续的卷积模块进行卷积,并将卷积结果输入至升维模块进行升维处理,并将升维结果输入至第二上采样模块进行卷积处理,得到初始目标声音;
将所述初始目标声音输入至第四降采样模块进行卷积处理,得到所述初始目标声音为需求声音的概率,若所述初始目标声音为需求声音,则将所述初始目标声音作为最终的目标声音。
6.根据权利要求1所述的语音转换方法,其特征在于,所述将所述基频特征进行音调转换,包括:
利用以下公式将所述基频特征进行音调转换:
Figure FDA0003261833470000021
其中,f0_conversion代表转换后的基频特征,f0代表原始的基频特征,f0_target代表目标音频音色,f0_mean代表原始的基频特征平均值,f0_target_mean代表目标音频基频平均值,f0_std代表原始的基频特征方差,f0_target_std代表目标音频基频方差。
7.一种语音转换系统,其特征在于,包括:
特征提取单元,用于利用语音合成系统提取语音样本中的基频特征和音频MCEP特征;
目标声音获取单元,用于将所述音频MCEP特征输入至预训练的语音转换网络中进行音频转换,得到平均声音,并利用音色转换网络将所述平均声音转换为目标声音;
音频时域特征获取单元,用于将所述基频特征进行音调转换,并将目标声音、非周期分量特征以及转换后的基频特征进行音频合成处理,得到音频时域特征;
目标语音获取单元,用于利用语音信号处理函数将所述音频时域特征进行语音还原处理,得到目标语音。
8.根据权利要求7所述的语音转换系统,其特征在于,所述目标声音获取单元包括:
第三降采样卷积结果获取单元,用于将所述平均声音输入至第三降采样模块进行卷积处理,得到第三降采样卷积结果,并将所述第三降采样卷积结果输入至降维模块进行降维处理,得到降维后的第三降采样卷积结果;
初始目标声音获取单元,用于将所述降维后的第三降采样卷积结果输入至多个连续的卷积模块进行卷积,并将卷积结果输入至升维模块进行升维处理,并将升维结果输入至第二上采样模块进行卷积处理,得到初始目标声音;
目标声音输出单元,用于将所述初始目标声音输入至第四降采样模块进行卷积处理,得到所述初始目标声音为需求声音的概率,若所述初始目标声音为需求声音,则将所述初始目标声音作为最终的目标声音。
9.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6中任一项所述的语音转换方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如权利要求1至6任一项所述的语音转换方法。
CN202111083885.2A 2021-09-14 2021-09-14 一种语音转换方法、系统、计算机设备及存储介质 Pending CN113744757A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111083885.2A CN113744757A (zh) 2021-09-14 2021-09-14 一种语音转换方法、系统、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111083885.2A CN113744757A (zh) 2021-09-14 2021-09-14 一种语音转换方法、系统、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN113744757A true CN113744757A (zh) 2021-12-03

Family

ID=78739214

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111083885.2A Pending CN113744757A (zh) 2021-09-14 2021-09-14 一种语音转换方法、系统、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN113744757A (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110060690A (zh) * 2019-04-04 2019-07-26 南京邮电大学 基于STARGAN和ResNet的多对多说话人转换方法
CN111462768A (zh) * 2020-03-12 2020-07-28 南京邮电大学 基于共享训练的多尺度StarGAN的语音转换方法
US20210089909A1 (en) * 2019-09-25 2021-03-25 Deepmind Technologies Limited High fidelity speech synthesis with adversarial networks
CN112712812A (zh) * 2020-12-24 2021-04-27 腾讯音乐娱乐科技(深圳)有限公司 音频信号生成方法、装置、设备以及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110060690A (zh) * 2019-04-04 2019-07-26 南京邮电大学 基于STARGAN和ResNet的多对多说话人转换方法
US20210089909A1 (en) * 2019-09-25 2021-03-25 Deepmind Technologies Limited High fidelity speech synthesis with adversarial networks
CN111462768A (zh) * 2020-03-12 2020-07-28 南京邮电大学 基于共享训练的多尺度StarGAN的语音转换方法
CN112712812A (zh) * 2020-12-24 2021-04-27 腾讯音乐娱乐科技(深圳)有限公司 音频信号生成方法、装置、设备以及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
沙淮: "《非平行文本条件下基于Multi-Scale StarGAN的共享训练的多对多语音转换研究》", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 02 *

Similar Documents

Publication Publication Date Title
US10381020B2 (en) Speech model-based neural network-assisted signal enhancement
JP5159279B2 (ja) 音声処理装置及びそれを用いた音声合成装置。
EP1688921B1 (en) Speech enhancement apparatus and method
EP1995723B1 (en) Neuroevolution training system
EP1160772A2 (en) Multisensor based acoustic signal processing
WO2009110118A1 (ja) 音信号の分離方法
EP1160768A2 (en) Robust features extraction for speech processing
JP2010224321A (ja) 信号処理装置
KR20080113111A (ko) 가우시안 혼합 모델 기반 변환에서의 소프트 정렬
JP7124373B2 (ja) 学習装置、音響生成装置、方法及びプログラム
JP5351856B2 (ja) 音源パラメータ推定装置と音源分離装置とそれらの方法と、プログラムと記憶媒体
WO2012105385A1 (ja) 有音区間分類装置、有音区間分類方法、及び有音区間分類プログラム
CN111968669B (zh) 一种多元混合声信号分离方法及装置
JP6157926B2 (ja) 音声処理装置、方法およびプログラム
EP3242295B1 (en) A signal processor
CN113744757A (zh) 一种语音转换方法、系统、计算机设备及存储介质
CN115910091A (zh) 引入基频线索的生成式语音分离方法和装置
JP5070591B2 (ja) 雑音抑圧装置、コンピュータプログラム、及び音声認識システム
KR100217372B1 (ko) 음성처리장치의 피치 추출방법
CN111862931A (zh) 一种语音生成方法及装置
JP4242320B2 (ja) 音声認識方法、その装置およびプログラム、その記録媒体
Hua Nebula: F0 estimation and voicing detection by modeling the statistical properties of feature extractors
Orphanidou et al. Voice morphing using the generative topographic mapping
CN113393858B (zh) 语音分离方法和系统、电子设备及可读存储介质
JP7293162B2 (ja) 信号処理装置、信号処理方法、信号処理プログラム、学習装置、学習方法及び学習プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination