CN105654941A - 一种基于指向目标人变声比例参数的语音变声方法及装置 - Google Patents

一种基于指向目标人变声比例参数的语音变声方法及装置 Download PDF

Info

Publication number
CN105654941A
CN105654941A CN201610036866.7A CN201610036866A CN105654941A CN 105654941 A CN105654941 A CN 105654941A CN 201610036866 A CN201610036866 A CN 201610036866A CN 105654941 A CN105654941 A CN 105654941A
Authority
CN
China
Prior art keywords
voice
change
frame
limit
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610036866.7A
Other languages
English (en)
Inventor
宁更新
钟英文
杨文圣
张军
冯义志
季飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201610036866.7A priority Critical patent/CN105654941A/zh
Publication of CN105654941A publication Critical patent/CN105654941A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis

Abstract

本发明公开了一种基于指向目标人变声比例参数的语音变声方法及装置,获得使用者和特定目标人同一内容语音样本,根据声道建模模型,分别求得系统的极点,推导出两者语音之间的变声比例参数。随后输入该使用者待变声的一段语音,并根据建模模型和变声比例参数搬移极点,从而求得新的发音的系统模型,最后利用变声比例参数修正待变声语音激励的基音周期,并在新的声道系统中还原输出变声后的语音信号。本发明的装置具有可行性强、安装简单且设备成本低廉,可适用于多种语音变声应用场景等优点。

Description

一种基于指向目标人变声比例参数的语音变声方法及装置
技术领域
本发明涉及语音信号处理技术领域,特别涉及一种基于指向目标人变声比例参数的语音变声方法及装置。
背景技术
在语音信号处理领域中,语音变声是一个重要的分支,具有重要的学术研究价值和应用价值。目前语音变声已有不少方法,传统的方法基本上是基于以下三种思想:第一种方法是在时域上处理语音信号,通过缩放时域长度来改变信号的频率,再通过插值法使新信号长度与原信号保持一致(CN03137014.4);第二种方法是在频域上进行处理,即先对语音信号进行插值或抽检,再对其作傅里叶变换,在频域上使其频谱整体搬移一段距离,最后再将其变换回时域,从而达到改变语音信号频率的效果(CN200410062337.1)。第三种方法,从发声系统角度出发设计,在系统域上,求出声道对应的极点,通过调节声道系统的极点的幅值和相角等参数实现极点搬移,从而改变声道系统,来实现语音变声(CN102592590B)。
由此可见,方法一和方法二都是将信号在频域或时域进行直接处理,使之频率改变,从而达到变声的效果。但是这些方法都没从发音系统角度出发设计,使得变声后语音的谐波关系保持的不佳,造成了语音的不自然。方法三,针对方法一和二的缺点,从系统域的角度去设计,确实是消除了变声后语音的不自然、有机器味的缺点,但是方法三无法往特定目标人语音变化,它只是通过盲目地调节变声参数,无方向地搬移极点,也即无方向地改变声道系统,所以也就不能变化出特定目标人的语音,不能适应语音变声的实际应用需求。
本发明在方法三的基础上出发,同样是从声音的产生过程出发,在系统域上进行处理,但是本方法,在极点的搬移上,引入特定目标人的语音,根据使用者语音和目标人语音来共同确定变声比例参数,这样搬移后的极点对应的声道系统会具有“指向性”,变化出来的语音更像特定目标人发出来的语音,这一方法可以有效解决先前方法中的不足,不仅实现了语音变声的自然变声,而且还可往特定目标人语音变化。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种基于指向目标人变声比例参数的语音变声方法及装置,克服现有变声方法存在的变声语音不自然、机器味重、以及不能往特定目标人语音变化等缺点。
本发明的目的通过如下技术方案实现:一种基于指向目标人变声比例参数的语音变声方法,具体包括以下步骤:
S1、从发声原理出发建立声道模型,并求得发音系统的传递函数和极点;
所述步骤S1具体为:由人声道发声原理可知,可使用如下R阶的声道模型:
y [ n ] = G [ n ] + Σ k = 1 R a k y [ n - k ] ,
其中G[n]是声带振动产生的一个激励,y[n]是G[n]通过声道后输出的信号,系数ak即为声道模型的参数,可由杜宾算法等估计算法来提取,可知上式是一个R阶全极点的AR模型,所以它的系统函数H(z),也即声道的系统函数为:
H ( z ) = 1 Σ k = 0 R a k z - k
对于一帧短时语音(通常取5ms-20ms),求它的极点,也即令:
Σ k = 0 R a k z - k = Π k = 0 R ( 1 - ϵ k z - 1 ) = 0
解该方程,可以得到一组复数根k=1,2,…,R即为系统函数H(z)的极点。
S2、输入使用者和特定目标人的同一内容语音样本,求出使用者和特定目标人语音之间的变声比例参数,包括极点变声比例参数和基音周期变声比例参数两种参数;
所述步骤S2包括以下分步骤:
S21、取使用者语音样本,并分帧(每帧Xms,设共N帧),根据步骤一可求出每一帧的极点,同时,利用经典的基音周期估计法(如基于求短时自相关函数(ACF)或者求短时平均幅度差函数(AMDF)法)求得每一帧的基音周期,结果如下:
记第i帧的第k阶极点为:i=1,2,…N,k=1,2,…R,
记第i帧的基音周期为:Tii=1,2,…,N。
S22、取特定目标人语音样本,并分帧(每帧Xms,设共M帧),与上一步同理,可求出每一帧的极点和基音周期,结果如下:
记第i帧的第k阶极点为i=1,2,…M,k=1,2,…R,
记第i帧的基音周期为:T'ii=1,2,…M。
S23、那么,求得极点变声比例参数如下:
极点幅值比例参数:
λ k = 1 M Σ i = 1 M r ′ i k 1 N Σ i = 1 N r i k , k = 1 , 2 , ... , R ,
极点相角比例参数:
Δ k = 1 M Σ i = 1 M w ′ i k 1 N Σ i = 1 N w i k , k = 1 , 2 , ... , R ,
S24、求得基音周期变声比例参数为:
ρ = 1 M Σ i = 1 M T ′ i 1 N Σ i = 1 N T i ,
这样,我们便获得了语音变声所需的变声比例参数λk,Δk,ρ。
S3、输入使用者待变声语音,并求其语音系统极点,后进行极点搬移获得新的声道系统,再修正激励基音周期后输入新的声道,获得变声语音。
所述步骤S3包括如下分步骤:
S31、取得一帧使用者待变声语音(每帧Xms),求该帧语音的R阶极点和该帧语音的基波频率(利用经典的基音周期估计法),结果如下:
记求得的该帧的第k阶极点为k=1,2,…R,记求得的该帧的基波频率为:ω0
S32、那么,可以按照下面的表达式去搬移极点,即该帧第k阶新的极点表达式为:
ϵ ^ k = λ k r k e jω k ( 1 + ω k ω 0 Δ k ) , k = 1 , 2 ... R
即为系统的新极点。这样,在移位的过程中就引进了特定目标人语音的特性,使新的声道系统更具有“指向性”,而不是盲目随意地变声;
S33、再利用移位后的新极点恢复出新的为该帧语音新的声道系统参数,这样,新的声道模型得以建立,
对于该帧语音,由公式3可得下式:
Π k = 0 R ( 1 - ϵ ^ k z - 1 ) = Σ k = 0 R a ^ k z - k ,
由上式求得新的从而可以得到新声道的系统函数
H ^ ( z ) = 1 Σ k = 0 R a ^ k z - k ;
S34、最后,修正待变声语音激励G[n]的基音周期,并输入新声道中,便可得到变声后的语音信号:
可以得到该帧语音的的激励的表达式为:
G [ n ] = Σ k = 0 R a k y [ n - k ] ,
对G[n]进行ρ倍的插值得到现将输入新的声道系统中,便可得到该帧变声后的语音信号:
y ^ [ n ] = G ^ [ n ] + Σ k = 1 R a ^ k y [ n - k ]
最后,再将该帧变声后的语音输出即可;
循环S31、S32、S33、S34四个步骤,直至待变声语音处理完毕为止。
通过上述三大步骤,本发明通过引进使用者和特定目标人的同一段语音样本构造出来的变声比例参数,有“指向性”地搬移极点,同时修正激励基音周期,克服了现有方法的缺点。
本发明的另一目的通过如下技术方案实现:一种基于指向目标人变声比例参数的语音变声装置,包括电源模块,输入模块,输出模块,控制模块与处理模块,其中:
控制模块与处理模块、输入模块、输出模块和显示模块相连接,主要用于发出指令对各个模块进行控制;
输入模块与处理模块、控制模块相连接,其主要根据控制模块的指令向处理模块输入特定目标人和使用者语音,同时也包括输入前将模拟信号转变为数字信号;
输出模块与处理模块、控制模块相连接,其主要根据控制模块的指令输出变声后的语音,同时也包括输出前将数字信号转变为模拟信号;
处理模块与控制模块、输入模块和输出模块相连,根据控制模块的指令进行数字语音信号处理,运用相关算法完成语音变声;
显示模块,与控制模块相连,提供人机交互界面,根据控制模块的指令指引用户输入语音样本和待变声语音。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明变声自然,无机器味。由于本发明是从系统域的角度去设计,消除了插值或者抽值等变声方法带来的语音的不自然、有机器味的缺点,使变声后的语音具有很自然的声音效果。
2、本发明可往特定目标人的语音变化。本发明引入特定目标人的语音,根据使用者语音和目标人语音来共同确定变声参数,新的声道系统和激励会具有“指向性”,变化出来的语音更像特定目标人发出来的语音。
3、本发明装置可行性强、安装简单且设备成本低廉,可适用于多种语音变声应用场景。
附图说明
图1为本发明所述的基于指向目标人变声比例参数的语音变声装置的总体结构示意框图。
图2为图1所述装置的硬件结构框图。
图3为本发明装置工作流程图。
图4为本发明所述的基于指向目标人变声比例参数的语音变声方法的总体流程图。
图5为图4所述方法中求解语音变声比例参数算法流程图。
图6为图4所述方法中待变声语音变声处理算法流程图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
本发明主要装置如图1所示分为输入模块,输出模块,电源模块,控制模块和处理模块五个部分。其中,输入模块包括麦克风和A/D转换器,输出模块包括音箱和D/A转换器。控制模块和处理模块中的数字处理器可以用DSP芯片来实现(如:TI公司TMS320VC5509A的DSP芯片)。本发明所述装置的硬件结构框图如图2所示。本发明装置主要工作流程如图3所示。
本发明方法主要流程图如图4所示,详细步骤如下:
步骤一:根据显示模块的提示,分别向输入模块的麦克风输入使用者和特定目标人同一内容的语音样本(例如均输入:“您好,这是语音测试样本”),输入模块的A/D转换器以8k/s的采样率采样转变为数字信号,输入到处理模块中存储后等待处理。
步骤二,处理模块通过下面处理步骤求得变声比例参数,具体流程图如附图5所示:
(1)取使用者语音样本,并分帧(每帧Xms,设共N帧),求出它的10阶极点,同时,利用求短时平均幅度差函数法(AMDF)求得该语音样本的基音周期,结果如下:
记第i帧的第k阶极点为:i=1,2,…N,k=1,2,…10
记第i帧的基音周期为:Tii=1,2,…,N
(2)取特定目标人语音样本,并分帧(每帧Xms,设共M帧),与上一步同理,可求出它的10阶极点和该语音样本的基音周期,结果如下:
记第i帧的第k阶极点:i=1,2,…M,k=1,2,…10
记第i帧的基音周期为:T'ii=1,2,…M
(3)那么,可以求得极点变声比例参数如下:
极点幅值比例参数:
λ k = 1 M Σ i = 1 M r ′ i k 1 N Σ i = 1 N r i k , k = 1 , 2 , ... , 10
极点相角比例参数
Δ k = 1 M Σ i = 1 M w ′ i k 1 N Σ i = 1 N w i k , k = 1 , 2 , ... , 10
(4)那么,可以求得基音周期变声比例参数为:
ρ = 1 M Σ i = 1 M T ′ i 1 N Σ i = 1 N T i
这样,我们便获得了语音变声所需的变声比例参数λk,Δk,ρ。
步骤三,具体流程图如附图6所示,根据显示模块的提示,向输入模块输入使用者待变声语音,(例如输入:“您好,这是待变声语音”),同样地,输入模块的A/D转换器以8k/s的采样率采样转变为数字信号,输入到处理模块中存储后等待处理。再通过如下步骤对待变声语音进行语音自然变声处理:
(1)取得一帧使用者待变声语音(每帧20ms),求该帧语音的10阶极点,并利用AMDF法求解该帧语音的基波频率:
该帧语音的10阶极点为:k=1,2,…10
该帧语音的基波频率为:ω0
(2)再按照下面的表达式去搬移极点,即该帧第k阶新的极点为:
ϵ ^ k = λ k r k e jω k ( 1 + ω k ω 0 Δ k ) , k = 1 , 2 ... 10
(3)再利用移位后的新极点恢复出新的声道参数建立新声道系统。
对于该帧语音,求解下面的方程式可以得到新的声道参数
Π k = 0 10 ( 1 - ϵ ^ k z - 1 ) = Σ k = 0 10 a ^ k z - k
从而可以得到新声道的系统函数
H ^ ( z ) = 1 Σ k = 0 10 a ^ k z - k
(4)修正待变声语音激励G[n]的基音周期,并输入新声道中,便可得到变声后的语音信号。
首先利用杜宾算法提取该帧待变声语音声道参数ak,于是可以得到该帧语音的的激励为:
G [ n ] = Σ k = 0 R a k y [ n - k ]
对G[n]进行ρ倍的插值得到现将输入新的声道系统中,便可得到该帧变声后的语音信号:
y ^ [ n ] = G ^ [ n ] + Σ k = 1 R a ^ k y [ n - k ]
(5)将该帧变声后的语音信号经D/A转换器变为模拟信号后,再通过输出模块的音箱输出。
循环(1)(2)(3)(4)(5)五小步,直至待变声语音处理完毕为止。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (5)

1.一种基于指向目标人变声比例参数的语音变声方法具体包括以下步骤:
S1、从发声原理出发建立声道模型,并求得发音系统的传递函数和极点;
S2、输入使用者和特定目标人的同一内容语音样本,求出使用者和特定目标人语音之间的变声比例参数,包括极点变声比例参数和基音周期变声比例参数两种参数;
S3、输入使用者待变声语音,并求其语音系统极点,后进行极点搬移获得新的声道系统,再修正激励基音周期后输入新的声道,获得变声语音。
2.根据权利要求1所述的基于指向目标人变声比例参数的语音变声方法,其特征在于所述步骤S1具体为:
由人声道发声原理可知,使用如下R阶的声道模型:
y [ n ] = G [ n ] + Σ k = 1 R a k y [ n - k ] ,
其中G[n]是声带振动产生的一个激励,y[n]是G[n]通过声道后输出的信号,系数ak即为声道模型的参数,由杜宾算法等估计算法来提取,可知上式是一个R阶全极点的AR模型,所以它的系统函数H(z),也即声道的系统函数为:
H ( z ) = 1 Σ k = 0 R a k z - k
对于一帧短时语音(通常取5ms-20ms),求它的极点,也即令:
Σ k = 0 R a k z - k = Π k = 0 R ( 1 - ϵ k z - 1 ) = 0
解该方程,得到一组复数根k=1,2,…,R即为系统函数H(z)的极点。
3.根据权利要求1所述的基于指向目标人变声比例参数的语音变声方法,其特征在于所述步骤S2包括以下分步骤:
S21、取使用者语音样本,并分帧:每帧Xms,设共N帧,根据步骤S1可求出每一帧的极点,同时,利用经典的基音周期估计法求得每一帧的基音周期,结果如下:
记第i帧的第k阶极点为:i=1,2,…N,k=1,2,…R,记第i帧的基音周期为:Tii=1,2,…,N;
S22、取特定目标人语音样本,并分帧:每帧Xms,设共M帧,与上一步同理,可求出每一帧的极点和基音周期,结果如下:
记第i帧的第k阶极点为i=1,2,…M,k=1,2,…R,记第i帧的基音周期为:T'ii=1,2,…M;
S23、那么,求得极点变声比例参数如下:
极点幅值比例参数:
λ k = 1 M Σ i = 1 M r ′ i k 1 N Σ i = 1 N r i k , k = 1 , 2 , ... , R ,
极点相角比例参数:
Δ k = 1 M Σ i = 1 M w ′ i k 1 N Σ i = 1 N w i k , k = 1 , 2 , ... , R ,
S24、求得基音周期变声比例参数为:
ρ = 1 M Σ i = 1 M T ′ i 1 N Σ i = 1 N T i ,
这样,我们便获得了语音变声所需的变声比例参数λk,Δk,ρ。
4.根据权利要求1所述的基于指向目标人变声比例参数的语音变声方法,其特征在于所述步骤S3包括如下分步骤:
S31、取得一帧使用者待变声语音,每帧为Xms,求该帧语音的R阶极点和该帧语音的基波频率(利用经典的基音周期估计法),结果如下:
记求得的该帧的第k阶极点为k=1,2,…R,记求得的该帧的基波频率为:ω0
S32、那么按照下面的表达式去搬移极点,即该帧第k阶新的极点表达式为:
ϵ ^ k = λ k r k e jω k ( 1 + ω k ω 0 Δ k ) , k = 1 , 2... R ,
其中即为系统的新极点,这样,在移位的过程中就引进了特定目标人语音的特性,使新的声道系统更具有“指向性”,而不是盲目随意地变声;
S33、再利用移位后的新极点恢复出新的为该帧语音新的声道系统参数,这样,新的声道模型得以建立,
对于该帧语音,由公式3得下式:
Π k = 0 R ( 1 - ϵ ^ k z - 1 ) = Σ k = 0 R a ^ k z - k ,
由上式求得新的从而得到新声道的系统函数
H ^ ( z ) = 1 Σ k = 0 R a ^ k z - k ;
S34、最后,修正待变声语音激励G[n]的基音周期,并输入新声道中,便可得到变声后的语音信号:
y [ n ] = G [ n ] + Σ k = 1 R a k y [ n - k ] 得到该帧语音的的激励的表达式为:
G [ n ] = Σ k = 0 R a k y [ n - k ] ,
对G[n]进行ρ倍的插值得到现将输入新的声道系统中,便得到该帧变声后的语音信号:
y ^ [ n ] = G ^ [ n ] + Σ k = 1 R a ^ k y [ n - k ]
最后,再将该帧变声后的语音输出即可;循环S31、S32、S33、S34四个步骤,直至待变声语音处理完毕为止。
5.一种基于指向目标人变声比例参数的语音变声装置,其特征在于包括电源模块,输入模块,输出模块,控制模块与处理模块,其中:
控制模块与处理模块、输入模块、输出模块和显示模块相连接,主要用于发出指令对各个模块进行控制;
输入模块与处理模块、控制模块相连接,其主要根据控制模块的指令向处理模块输入特定目标人和使用者语音,同时也包括输入前将模拟信号转变为数字信号;
输出模块与处理模块、控制模块相连接,其主要根据控制模块的指令输出变声后的语音,同时也包括输出前将数字信号转变为模拟信号;
处理模块与控制模块、输入模块和输出模块相连,根据控制模块的指令进行数字语音信号处理,运用相关算法完成语音变声;
显示模块,与控制模块相连,提供人机交互界面,根据控制模块的指令指引用户输入语音样本和待变声语音。
CN201610036866.7A 2016-01-20 2016-01-20 一种基于指向目标人变声比例参数的语音变声方法及装置 Pending CN105654941A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610036866.7A CN105654941A (zh) 2016-01-20 2016-01-20 一种基于指向目标人变声比例参数的语音变声方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610036866.7A CN105654941A (zh) 2016-01-20 2016-01-20 一种基于指向目标人变声比例参数的语音变声方法及装置

Publications (1)

Publication Number Publication Date
CN105654941A true CN105654941A (zh) 2016-06-08

Family

ID=56487776

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610036866.7A Pending CN105654941A (zh) 2016-01-20 2016-01-20 一种基于指向目标人变声比例参数的语音变声方法及装置

Country Status (1)

Country Link
CN (1) CN105654941A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108269579A (zh) * 2018-01-18 2018-07-10 厦门美图之家科技有限公司 语音数据处理方法、装置、电子设备及可读存储介质
CN110097890A (zh) * 2019-04-16 2019-08-06 北京搜狗科技发展有限公司 一种语音处理方法、装置和用于语音处理的装置
CN110164461A (zh) * 2019-07-08 2019-08-23 腾讯科技(深圳)有限公司 语音信号处理方法、装置、电子设备及存储介质
CN111739546A (zh) * 2020-07-24 2020-10-02 深圳市声扬科技有限公司 变声语音还原方法、装置、计算机设备和存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1102291A (zh) * 1993-02-12 1995-05-03 诺基亚电信公司 转换语音的方法
CN1534595A (zh) * 2003-03-28 2004-10-06 中颖电子(上海)有限公司 语音转换合成装置及其方法
CN1567428A (zh) * 2003-06-19 2005-01-19 北京中科信利技术有限公司 一种基于数字信号处理的语音变声方法
US20060129399A1 (en) * 2004-11-10 2006-06-15 Voxonic, Inc. Speech conversion system and method
WO2008142836A1 (ja) * 2007-05-14 2008-11-27 Panasonic Corporation 声質変換装置および声質変換方法
US20090306988A1 (en) * 2008-06-06 2009-12-10 Fuji Xerox Co., Ltd Systems and methods for reducing speech intelligibility while preserving environmental sounds
CN102184731A (zh) * 2011-05-12 2011-09-14 北京航空航天大学 一种韵律类和音质类参数相结合的情感语音转换方法
CN102568472A (zh) * 2010-12-15 2012-07-11 盛乐信息技术(上海)有限公司 说话人可选的语音合成系统及其实现方法
CN102592590A (zh) * 2012-02-21 2012-07-18 华南理工大学 一种可任意调节的语音自然变声方法及装置
CN103632672A (zh) * 2012-08-28 2014-03-12 腾讯科技(深圳)有限公司 一种变声系统、方法及人机交互系统及方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1102291A (zh) * 1993-02-12 1995-05-03 诺基亚电信公司 转换语音的方法
CN1534595A (zh) * 2003-03-28 2004-10-06 中颖电子(上海)有限公司 语音转换合成装置及其方法
CN1567428A (zh) * 2003-06-19 2005-01-19 北京中科信利技术有限公司 一种基于数字信号处理的语音变声方法
US20060129399A1 (en) * 2004-11-10 2006-06-15 Voxonic, Inc. Speech conversion system and method
WO2008142836A1 (ja) * 2007-05-14 2008-11-27 Panasonic Corporation 声質変換装置および声質変換方法
US20090306988A1 (en) * 2008-06-06 2009-12-10 Fuji Xerox Co., Ltd Systems and methods for reducing speech intelligibility while preserving environmental sounds
CN102568472A (zh) * 2010-12-15 2012-07-11 盛乐信息技术(上海)有限公司 说话人可选的语音合成系统及其实现方法
CN102184731A (zh) * 2011-05-12 2011-09-14 北京航空航天大学 一种韵律类和音质类参数相结合的情感语音转换方法
CN102592590A (zh) * 2012-02-21 2012-07-18 华南理工大学 一种可任意调节的语音自然变声方法及装置
CN103632672A (zh) * 2012-08-28 2014-03-12 腾讯科技(深圳)有限公司 一种变声系统、方法及人机交互系统及方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108269579A (zh) * 2018-01-18 2018-07-10 厦门美图之家科技有限公司 语音数据处理方法、装置、电子设备及可读存储介质
CN108269579B (zh) * 2018-01-18 2020-11-10 厦门美图之家科技有限公司 语音数据处理方法、装置、电子设备及可读存储介质
CN110097890A (zh) * 2019-04-16 2019-08-06 北京搜狗科技发展有限公司 一种语音处理方法、装置和用于语音处理的装置
CN110097890B (zh) * 2019-04-16 2021-11-02 北京搜狗科技发展有限公司 一种语音处理方法、装置和用于语音处理的装置
CN110164461A (zh) * 2019-07-08 2019-08-23 腾讯科技(深圳)有限公司 语音信号处理方法、装置、电子设备及存储介质
CN110164461B (zh) * 2019-07-08 2023-12-15 腾讯科技(深圳)有限公司 语音信号处理方法、装置、电子设备及存储介质
CN111739546A (zh) * 2020-07-24 2020-10-02 深圳市声扬科技有限公司 变声语音还原方法、装置、计算机设备和存储介质

Similar Documents

Publication Publication Date Title
CN102664003B (zh) 基于谐波加噪声模型的残差激励信号合成及语音转换方法
US11410637B2 (en) Voice synthesis method, voice synthesis device, and storage medium
Song et al. ExcitNet vocoder: A neural excitation model for parametric speech synthesis systems
CN105654941A (zh) 一种基于指向目标人变声比例参数的语音变声方法及装置
CN106653056A (zh) 基于lstm循环神经网络的基频提取模型及训练方法
CN108172210B (zh) 一种基于歌声节奏的演唱和声生成方法
CN110120212B (zh) 基于用户示范音频风格的钢琴辅助作曲系统及方法
Saito et al. Text-to-speech synthesis using STFT spectra based on low-/multi-resolution generative adversarial networks
CN113241082A (zh) 变声方法、装置、设备和介质
CN104616665B (zh) 基于语音类似度的混音方法
CN105719640B (zh) 声音合成装置及声音合成方法
CN102231275B (zh) 一种基于加权混合激励的嵌入式语音合成方法
CN103886859A (zh) 基于一对多码书映射的语音转换方法
Xu et al. The extraction and simulation of Mel frequency cepstrum speech parameters
CN106356055B (zh) 基于正弦模型的可变频语音合成系统及方法
Xie et al. Pitch transformation in neural network based voice conversion
Wang et al. Research on transformer fault voiceprint recognition based on Mel time-frequency spectrum-convolutional neural network
Yoneyama et al. High-Fidelity and Pitch-Controllable Neural Vocoder Based on Unified Source-Filter Networks
JP4654615B2 (ja) 音声効果付与装置及び音声効果付与プログラム
JP3756686B2 (ja) 所望信号抽出の度合いを評価する評価値を求める方法および装置、ならびに信号抽出装置のパラメータ制御方法および装置
CN112837670B (zh) 语音合成方法、装置及电子设备
Canazza et al. Symbolic and audio processing to change the expressive intention of a recorded music performance
Zhao et al. Few-Shot Custom Speech Synthesis with Multi-Angle Fusion
CN111899715B (zh) 一种语音合成方法
Roddy et al. A Method of Morphing Spectral Envelopes of the Singing Voice for Use with Backing Vocals.

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20160608

RJ01 Rejection of invention patent application after publication