CN104538026A - 一种用于参数化语音合成的基频建模方法 - Google Patents
一种用于参数化语音合成的基频建模方法 Download PDFInfo
- Publication number
- CN104538026A CN104538026A CN201510015224.4A CN201510015224A CN104538026A CN 104538026 A CN104538026 A CN 104538026A CN 201510015224 A CN201510015224 A CN 201510015224A CN 104538026 A CN104538026 A CN 104538026A
- Authority
- CN
- China
- Prior art keywords
- mrow
- fundamental frequency
- msub
- msup
- math
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 26
- 238000003786 synthesis reaction Methods 0.000 title claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 11
- 238000007476 Maximum Likelihood Methods 0.000 claims abstract description 8
- 239000011159 matrix material Substances 0.000 claims description 15
- 238000002945 steepest descent method Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000036651 mood Effects 0.000 abstract description 3
- 230000032683 aging Effects 0.000 abstract description 2
- 230000033764 rhythmic process Effects 0.000 abstract description 2
- 210000001260 vocal cord Anatomy 0.000 description 14
- 230000007774 longterm Effects 0.000 description 13
- 239000012528 membrane Substances 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000003066 decision tree Methods 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000001308 synthesis method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000010355 oscillation Effects 0.000 description 2
- 210000002027 skeletal muscle Anatomy 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 239000002344 surface layer Substances 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Landscapes
- Machine Translation (AREA)
- Complex Calculations (AREA)
Abstract
本发明涉及一种用于参数化语音合成的基频建模方法,能够对音节的整体基频包络进行可训练的参数化描述,以捕捉目标说话人在不同语境和情绪下的长时基频包络变化,进而提高合成语音的韵律表现力;属于语音合成技术领域。本发明方法首先提取训练语料的基频,并对基频目标参数s、r和ω0进行估计;然后对基频目标参数进行统计建模得到音节基频目标模型λu与短时基频模型λf;最后采用最大似然参数生成算法生成基频包络f。对比现有技术,本发明方法不带有明显的说话人总体特征(如性别、年龄等),但体现有说话人的时效特征(如情绪、语境等);且本发明方法可以直接用于语音合成,使用本发明方法的语音合成自然度有明显提升。
Description
技术领域
本发明涉及一种基频建模方法,特别涉及一种用于参数化语音合成的基频建模方法,属于语音合成技术领域。
背景技术
在参数化语音合成技术中,语音信号由声学参数生成,包括频谱特征和韵律特征。在自然语音中,频谱特征的变化是相对稳定的,因为频谱往往与语义直接相关。而韵律特征属于长时特征,会随着语境和情感的变化出现较大的波动,相关的参数需要由其在各种韵律层级结构中的变化模式描述。但在参数化语音合成技术中,这两类参数都由一种描述短时特征的HMM建模。
韵律特征中对于感知影响最大的是基音频率。从人类发音过程中对基频的控制机理来看,仅使用HMM对短时基频建模是不足的。比如在汉语中,声调会受到音调和语调的影响。音调特征携带着语义信息,不同音调的音节具有不同的含义,同时还会受到上下文的影响产生变调现象。语调特征在不同语言中的定义也不同,它决定了生成语音的句式和情绪。这些特性都是由基音频率决定的。
因此,使用长时基频模型对HMM的短时基频模型进行补充是符合自然语音产生机理的。长时基频包络受到短时基频波动的影响小,可以用于对语音的韵律进行分析。而且,将长时基频参数与短时HMM相结合,探索其在参数生成以及自适应方面的优势,对于进行多尺度的声学建模具有重要意义。但是,现有的长时基频模型,如Fujisaki模型和目标逼近模型,不适用于统计建模。需要一种新的长时基频参数化方法,使得长时基频参数能够与短时声学特征统计模型结合,从而提高合成语音的自然度。
发明内容
为了改善用于参数语音合成的基频模型,本发明的目的是提供一种基频参数化和统计建模方法,能够对音节的整体基频包络进行可训练的参数化描述,以捕捉目标说话人在不同语境和情绪下的长时基频包络变化,进而提高合成语音的韵律表现力。
本发明的目的是通过以下技术方案实现的:
一种用于参数化语音合成的基频建模方法,包括以下步骤:
步骤一,基频目标参数s、r和ω0估计,包括以下步骤:
1.1提取训练语料的基频;
1.2初始化全局线性变换系数ω0;
1.3使用最速下降法估计所有音节的目标参数s和r;
1.4根据下式计算全局评价指标m;
m=||e||+1-c;
其中,||e||为所有音节的均方根误差的平均,c为所有音节的相关系数的平均;
1.5如果m的值较前次迭代减小,使用网格搜索的方法估计ω0,转步骤1.3;否则,记录此时所有音节的目标参数s和r,以及全局线性变换系数ω0;
步骤二,对步骤一得到的目标参数进行统计建模得到音节基频目标模型λu与短时基频模型λf;
步骤三,根据下式生成基频包络f:
其中,u为待生成的基频目标,为由最大似然方法估计得到的最优值,f为待生成的基频包络,fmax为由最大似然方法估计得到的最优值,q表示由短时基频模型确定的状态序列,表示最优状态序列的估计,λu和λf为由上述步骤二得到的音节基频目标模型和短时基频模型,εf和σf为短时基频残差模型的均值和方差,P()表示似然度,P(u|q,λu)表示基频目标似然度,P(f|u,q,λf)表示基频包络似然度,N()表示基频包络f服从正态分布,A-1为目标估计矩阵,其逆矩阵A-1为目标实现矩阵,A-1表示如下:
其中,t0为离散采样周期。
作为优选,所述步骤1.3使用最速下降法估计所有音节的目标参数s和r,对于每一个音节,通过下述步骤获取最优s和r:
2.1初始化s和r;
2.2根据下式计算误差ε;=(A-1u-f)T(A-1u-f)
ε=(A-1u-f)T(A-1u-f);
其中,f为从原始语料中提取的基频值,()T表示矩阵转置,u为音节基频目标,通过下式计算:
u=st+r;
其中,t表示由该音节所处时间刻度组成的矢量;
其中,γ表示迭代步长,1N表示长度为N的单位矢量;转步骤2.2;否则,记录该音节此时的s和r。
本发明方法的原理为:
本发明专利从人类声带控制机理出发,提出一个基频长时参数化方法。声带为膜结构,但在绷紧状态下,其振动规律相当于弦。根据弦的震动频率公式,声带的振动频率F0为:
其中,L为声带的面积,Ts为声带的内部纵向张力,ρ为声带薄膜的密度。膜的张力与附着在膜上的骨骼肌刚性存在线性关系,由此可得
s=a+bTs (2)
其中s为骨骼肌的刚性,a为膜的张力Ts为0时的肌肉刚性,b为调整参数。根据刚性的定义
其中,x为膜的形变。求解式(2)与(3)组成的微分方程可得
其中,T0为声带肌不收缩时声带的张力。根据声带张力特性,T0远远大于a/b,所以式(4)等同于
Ts=T0exp(bx) (5)
将式(5)代入式(1)并在等式两侧取对数可得
音高是语音信号基频的函数。在语音合成的研究中,通常使用对数基频来表示音高。这样处理的原因是,虽然合成语音的最终目的仍然由人耳感知,但是对于基频的建模应当以感知特性为基础。由式(6)可知,对数基频与声带的形变之间存在线性关系。因此声带的控制系统可以直接用作基频或音高的控制系统。其输入为由言语功能神经所设定的目标基频或音高,用于表达特定语义和韵律信息,输出为实际基频或音高。
因此,人类对于声带长度的控制系统可以用于描述基频的控制机制,也称为基频生成系统。其传递函数为
其中,U(s)为输入即目标基频的拉普拉斯变换,F(s)为输出即实际基频的拉普拉斯变换。ω0为系统的自然震荡频率。在统计建模中,基频信号属于离散信号。因此,需要将基频生成系统的S域传递函数转换为Z域。使用一阶后向Pade近似,将
代入式(7)中,可得离散系统的传递函数
其中,
在连续系统离散化的转换中,t0为离散采样周期。对于基频信号而言,离散采样周期可以认为是帧长。将式(9)转换为差分方程,即设系统的输入为离散时间域的基频目标u[n],输出为离散时间域的实际基频f[n],可得
u[n]=a2f[n-2]+a1f[n-1]+a0f[n],1≤n≤N (11)
其中
将基频目标的实现过程表示为矩阵形式,即
f=A-1u (13)
其中
A-1为目标估计矩阵,其逆矩阵A-1为目标实现矩阵。音节的基频目标矢量定义为
u=st+r (15)
由式(10)、(11)和(12)可知,离散的目标实现可以用目标与基频的线性变换表示。A仅由一个超参数决定,即目标实现滤波器的系数ω0,同时也是S域系统传递函数的自然振荡频率。在此,称其为全局线性变换系数。
根据本发明的具体实施例,提出一种在语音合成的参数合成阶段,将长时基频模型与短时基频模型HMM结合的方法。在传统的统计参数语音合成中,基频的生成准则为最大化基频模型似然度p(f|q,λ),即
其中λ为已有训练好的模型,q为对应的状态序列。最佳的生成基频包络f应当具有最大的条件似然度。在此基础上,假设训练的模型包含两部分,即基频目标λu与短时基频λf。那么其联合似然度可以定义为
p(f,u|q,λ)=p(f|u,q,λf)p(u|λu) (17)
其中,状态序列q是由时长模型和短时基频模型的上下文决策树决定的。在将长时模型与短时模型结合的过程中,模型间的对齐是重要的因素。本专利中,状态序列确定了与短时基频模型对齐的音节基频目标模型的边界。使用联合概率密度估计生成基频时,目标仍然是最佳的输出表层基频,而不是底层目标。因此,基频的似然度可以使用边缘概率密度函数表示,即对所有可能的u的概率密度积分,可得
已知模型参数集合时,输出观测矢量是由最大化给定状态序列q的条件似然度得到的,而条件似然度的最大化可以分步求取。在合成阶段,首先由状态序列确定音节基频目标的起止时间,然后由音节级的基频目标参数根据式(15)生成基频目标u。因此,在计算似然度时,可以使用短时基频模型的状态序列作为联合基频模型的状态序列,即定义
为给定表层短时基频模型和长时基频目标模型的条件下,生成基频序列的似然度函数。按式(19)计算似然度需要遍历所有的状态序列和生成目标参数,这从计算复杂度的角度来说是不可行的。因此,使用最优值代替积分,得到次优的生成参数序列,即
为已知最优状态序列和基频模型参数时,输出基频序列的似然度。其中,为最优状态序列,相当于式(17)中的q。区别在于,式(20)将作为生成基频目标的先验知识参与计算。按照同样的方法,可以用最优基频目标代替式(19)中对于u的积分。因此,基频序列的生成可以分为两步
即首先生成最优目标,然后生成基频序列。状态序列由时长模型和基频决策树共同决定。其中,第一步基频目标的概率分布为
在已知最优基频目标时,引入基频实现矩阵可得基频的条件概率函数为
该条件概率分布定义为基频目标概率分布的线性变换。由于基频目标重构得到的基频包络存在重构误差,因此需要在条件概率分布中引入噪声成分。由式(21)-(23)定义的基频生成方法称为目标相关基频生成。这个框架所使用的模型包括两部分,第一部分是目标参数模型,由训练语料的目标参数估计得到;第二部分是短时基频模型,由训练语料的基频重构误差估计得到。
有益效果
对比现有技术,本发明具有以下特点:
第一,与现有的长时基频参数模型,如命令相应模型和目标逼近模型不同,根据本模型得到的基频目标不带有明显的说话人总体特征(如性别、年龄等),其说话人特性由声带控制系统频率ω0决定。而生成的基频受到初始状态的影响,获得不同的基频包络,以体现说话人的时效特征(如情绪、语境等);
第二,本专利提出的基频参数化方法可以直接用于语音合成,这是现有的其他方法所不具备的特性。使用本专利方法的语音合成自然度有明显提升。
附图说明
图1为本发明方法实施例的流程示意图。
具体实施方式
下面结合实例对本发明进一步说明,通过对方法各关键步骤的详细说明将会更好地描述实现本发明的步骤和过程。
在本发明的实施方案中,本方法分为三个部分:基频目标估计、目标参数建模和基频包络生成。其中,基频目标估计和目标参数建模离线进行,目的是由训练语料得到合成阶段所需的声学模型。这两部分可以作为传统基于HMM语音合成建模过程中基频建模的补充或替代方案。基频包络生成以离线训练部分得到的模型为基础,作为传统基于HMM语音合成器的补充。
第一步:基频目标估计
首先,使用任意基频提取算法获得训练语料的基频。
作为优选,在本实施例中,将得到的基频进行对数域转换。
然后,进行目标参数估计。根据公式(13)-(15),音节序列的基频包络可以由三个参数描述。其中,定义目标参数s和r为基于音节的,而目标实现全局线性变换系数ω0是由说话人决定的。因此,这三种参数的估计无法同时进行。本实施例中,先使用最速下降法估计目标参数s和r,再使用网格搜索的方法估计滤波器参数ω0。为使用最速下降法,定义基频重构误差ε为
ε=(A-1u-f)T(A-1u-f) (24)
其中,A-1为由ω0确定的目标估计矩阵的逆矩阵,u为音节基频目标u=st+r,f为从原始语料中提取的基频值。T表示转置。目标参数s和r的迭代估计公式为
其中γ为预定义的迭代步长,定义下降方向为
其中,t表示由该音节所处时间刻度组成的矢量,1N为长度为N的单位矢量。在估计每个音节的基频目标参数时,先随机初始化一个ω0,即给定矩阵A,通过公式(24)至(26)即可得到每个音节的基频目标参数。具体步骤如下:
循环训练数据中所有音节:
初始化s和r;
判断迭代误差变化小于阈值:
使用式(26)计算梯度;
使用式(25)调整参数;
使用式(24)计算新的基频重构误差;
迭代结束
循环结束
最后,为估计全局线性变换系数ω0,定义全局评价指标m为
m=||e||+1-c (27)给定数据的原始基频和生成基频,||e||为所有音节的均方根误差的平均,c为所有音节的相关系数的平均。m值越小,说明生成基频在短时误差和长时包络相似度这两种尺度的联合评价下越接近原始基频。反之,则说明生成基频的误差较大,即模型参数不够合理。以此指标为基础,使用网格搜索算法找到m值最小点,搜索范围由经验确定,最小点对应的值为估计目标说话人的ω0,完成一轮迭代。此迭代可以多次进行,当最优m的值不再减小时,终止迭代。
第二步:目标参数建模
目标参数建模指的是对s和r进行统计建模。首先,使用传统的HMM建模方法,由s和r组成特征矢量,进行音节建模,得到基频目标模型λu。然后,求取训练语料的基频重构误差,使用HMM短时建模方法,得到短时基频模型λf。
第三步:基频包络生成
在语音合成阶段,首先根据上下文,由短时基频模型的决策树得到状态序列q。然后根据式(21),使用最大似然参数生成算法,生成基频目标和基频残差。最后,使用式(23)定义的概率分布函数,结合式(21),使用最大似然参数生成算法,得到生成的基频包络。
其中,u为待生成的基频目标,为由最大似然方法估计得到的最优值,f为待生成的基频包络,fmax为由最大似然方法估计得到的最优值。q表示由短时基频模型确定的状态序列,表示最优状态序列的估计。λu和λf为上述第二步训练得到的音节基频目标模型和短时基频模型。εf和σf为短时基频残差模型的均值和方差。p()表示似然度,p(u|q,λu)表示基频目标似然度,p(f|u,q,λf)表示基频包络似然度,N()表示基频包络f服从正态分布。
本方法得到的基频包络可以用于与基于HMM语音合成方法得到的其他声学参数结合用于语音合成。在不同的应用场景下,本发明方法得到的基频包络的均方生成误差比传统基于HMM的语音合成方法低5~10Hz。
上述实施例为本发明的较佳实施例。目标参数估计方法不限于最速下降和网格搜索。此外,该基频生成算法不限于实施例中的使用方法,也可以与其他参数化语音合成方法结合。为此,本发明的范围不应由该描述来限定。本领域的技术人员应该理解,在不脱离本发明的范围内的任何修改或局部替换,均属于本发明权利要求来限定的范围。
Claims (3)
1.一种用于参数化语音合成的基频建模方法,其特征在于,包括如下步骤:
步骤一,基频目标参数s、r和ω0估计,包括以下步骤:
1.1提取训练语料的基频;
1.2初始化全局线性变换系数ω0;
1.3使用最速下降法估计所有音节的目标参数s和r;
1.4根据下式计算全局评价指标m;
m=||e||+1-c;
其中,||e||为所有音节的均方根误差的平均,c为所有音节的相关系数的平均;
1.5如果m的值较前次迭代减小,使用网格搜索的方法估计ω0,转步骤1.3;否则,记录此时所有音节的目标参数s和r,以及全局线性变换系数ω0;
步骤二,对步骤一得到的目标参数进行统计建模得到音节基频目标模型λu与短时基频模型λf;
步骤三,根据下式生成基频包络f:
其中,u为待生成的基频目标,为由最大似然方法估计得到的最优值,f为待生成的基频包络,fmax为由最大似然方法估计得到的最优值,q表示由短时基频模型确定的状态序列,表示最优状态序列的估计,λu和λf为由上述步骤二得到的音节基频目标模型和短时基频模型,εf和σf为短时基频残差模型的均值和方差,p()表示似然度,p(u|q,λu)表示基频目标似然度,p(f|u,q,λf)表示基频包络似然度,N()表示基频包络f服从正态分布,A-1为目标估计矩阵,其逆矩阵A-1为目标实现矩阵,A表示如下:
其中,t0为离散采样周期。
2.根据权利要求1所述的一种用于参数化语音合成的基频建模方法,其特征在于:所述步骤1.3使用最速下降法估计所有音节的目标参数s和r,对于每一个音节,通过下述步骤获取最优s和r:
2.1初始化s和r;
2.2根据下式计算误差ε;
ε=(A-1u-f)T(A-1u-f);
其中,f为从原始语料中提取的基频值,()T表示矩阵转置,u为音节基频目标,通过下式计算:
u=st+r;
其中,t表示由该音节所处时间刻度组成的矢量;
2.3如果误差ε的变化大于阈值T,根据下式优化s和r:
其中,γ表示迭代步长,1N表示长度为N的单位矢量;转步骤2.2;否则,记录该音节此时的s和r。
3.根据权利要求1或2所述的一种用于参数化语音合成的基频建模方法,其特征在于:将步骤1.1得到的基频进行对数域转换。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510015224.4A CN104538026B (zh) | 2015-01-12 | 2015-01-12 | 一种用于参数化语音合成的基频建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510015224.4A CN104538026B (zh) | 2015-01-12 | 2015-01-12 | 一种用于参数化语音合成的基频建模方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104538026A true CN104538026A (zh) | 2015-04-22 |
CN104538026B CN104538026B (zh) | 2018-10-23 |
Family
ID=52853542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510015224.4A Expired - Fee Related CN104538026B (zh) | 2015-01-12 | 2015-01-12 | 一种用于参数化语音合成的基频建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104538026B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104916284A (zh) * | 2015-06-10 | 2015-09-16 | 百度在线网络技术(北京)有限公司 | 用于语音合成系统的韵律与声学联合建模的方法及装置 |
CN106328125A (zh) * | 2016-10-28 | 2017-01-11 | 许昌学院 | 一种河南方言语音识别系统 |
CN112382273A (zh) * | 2020-11-13 | 2021-02-19 | 北京有竹居网络技术有限公司 | 用于生成音频的方法、装置、设备和介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101051459A (zh) * | 2006-04-06 | 2007-10-10 | 株式会社东芝 | 基频和停顿预测及语音合成的方法和装置 |
CN101064103A (zh) * | 2006-04-24 | 2007-10-31 | 中国科学院自动化研究所 | 基于音节韵律约束关系的汉语语音合成方法及系统 |
-
2015
- 2015-01-12 CN CN201510015224.4A patent/CN104538026B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101051459A (zh) * | 2006-04-06 | 2007-10-10 | 株式会社东芝 | 基频和停顿预测及语音合成的方法和装置 |
CN101064103A (zh) * | 2006-04-24 | 2007-10-31 | 中国科学院自动化研究所 | 基于音节韵律约束关系的汉语语音合成方法及系统 |
Non-Patent Citations (3)
Title |
---|
CHING X. XU 等: "A PITCH TARGET APPROXIMATION MODEL FOR F0 CONTOURS IN MANDARIN", 《ICPHS99》 * |
XINGYU NA 等: "CONVOLUTIONAL PITCH TARGET APPROXIMATION MODEL FOR SPEECH SYNTHESIS", 《IDIAP RESEARCH REPORT》 * |
YISHAN JIAO 等: "IMPROVING VOICE QUALITY OF HMM-BASED SPEECH SYNTHESIS USING VOICE CONVERSION METHOD", 《2014 ICASSP》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104916284A (zh) * | 2015-06-10 | 2015-09-16 | 百度在线网络技术(北京)有限公司 | 用于语音合成系统的韵律与声学联合建模的方法及装置 |
CN104916284B (zh) * | 2015-06-10 | 2017-02-22 | 百度在线网络技术(北京)有限公司 | 用于语音合成系统的韵律与声学联合建模的方法及装置 |
CN106328125A (zh) * | 2016-10-28 | 2017-01-11 | 许昌学院 | 一种河南方言语音识别系统 |
CN106328125B (zh) * | 2016-10-28 | 2023-08-04 | 许昌学院 | 一种河南方言语音识别系统 |
CN112382273A (zh) * | 2020-11-13 | 2021-02-19 | 北京有竹居网络技术有限公司 | 用于生成音频的方法、装置、设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN104538026B (zh) | 2018-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11423874B2 (en) | Speech synthesis statistical model training device, speech synthesis statistical model training method, and computer program product | |
US10186252B1 (en) | Text to speech synthesis using deep neural network with constant unit length spectrogram | |
Airaksinen et al. | Quasi closed phase glottal inverse filtering analysis with weighted linear prediction | |
US10529314B2 (en) | Speech synthesizer, and speech synthesis method and computer program product utilizing multiple-acoustic feature parameters selection | |
JP5300975B2 (ja) | 音声合成装置、方法およびプログラム | |
CN114694632A (zh) | 语音处理装置 | |
CN110648684B (zh) | 一种基于WaveNet的骨导语音增强波形生成方法 | |
WO2013018294A1 (ja) | 音声合成装置および音声合成方法 | |
Stuttle | A Gaussian mixture model spectral representation for speech recognition | |
CN105474307A (zh) | 定量的f0轮廓生成装置及方法、以及用于生成f0轮廓的模型学习装置及方法 | |
CN104538026B (zh) | 一种用于参数化语音合成的基频建模方法 | |
US10446133B2 (en) | Multi-stream spectral representation for statistical parametric speech synthesis | |
Ramos | Voice conversion with deep learning | |
JP6142401B2 (ja) | 音声合成モデル学習装置、方法、及びプログラム | |
JP3646060B2 (ja) | 話者特徴抽出装置および話者特徴抽出方法、音声認識装置、音声合成装置、並びに、プログラム記録媒体 | |
CN106157948A (zh) | 一种基频建模方法及系统 | |
CN104485099A (zh) | 一种合成语音自然度的提升方法 | |
JP7357518B2 (ja) | 音声合成装置及びプログラム | |
Mann | An investigation of nonlinear speech synthesis and pitch modification techniques | |
Jafri et al. | Statistical formant speech synthesis for Arabic | |
Murphy | Controlling the voice quality dimension of prosody in synthetic speech using an acoustic glottal model | |
Al-Radhi | High-Quality Vocoding Design with Signal Processing for Speech Synthesis and Voice Conversion | |
Del Pozo | Voice source and duration modelling for voice conversion and speech repair | |
Richard et al. | Simulation and visualization of articulatory trajectories estimated from speech signals | |
KR100608643B1 (ko) | 음성 합성 시스템의 억양 모델링 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20181023 |
|
CF01 | Termination of patent right due to non-payment of annual fee |