CN102385859A - 参数语音合成方法和系统 - Google Patents
参数语音合成方法和系统 Download PDFInfo
- Publication number
- CN102385859A CN102385859A CN201110331821XA CN201110331821A CN102385859A CN 102385859 A CN102385859 A CN 102385859A CN 201110331821X A CN201110331821X A CN 201110331821XA CN 201110331821 A CN201110331821 A CN 201110331821A CN 102385859 A CN102385859 A CN 102385859A
- Authority
- CN
- China
- Prior art keywords
- parameter
- speech
- value
- phoneme
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 92
- 230000002194 synthesizing effect Effects 0.000 title claims abstract description 43
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 81
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 81
- 238000013179 statistical model Methods 0.000 claims abstract description 70
- 238000005457 optimization Methods 0.000 claims abstract description 63
- 238000001914 filtration Methods 0.000 claims description 56
- 230000003068 static effect Effects 0.000 claims description 46
- 239000000203 mixture Substances 0.000 claims description 35
- 230000005284 excitation Effects 0.000 claims description 30
- 239000000284 extract Substances 0.000 claims description 26
- 238000001228 spectrum Methods 0.000 claims description 23
- 239000002131 composite material Substances 0.000 claims description 10
- 230000000737 periodic effect Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 238000007476 Maximum Likelihood Methods 0.000 description 10
- 238000003860 storage Methods 0.000 description 7
- 238000007792 addition Methods 0.000 description 6
- 238000009499 grossing Methods 0.000 description 6
- 239000012467 final product Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000010189 synthetic method Methods 0.000 description 3
- 238000003066 decision tree Methods 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000002035 prolonged effect Effects 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 230000036962 time dependent Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 238000004064 recycling Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Machine Translation (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明提供了一种参数语音合成方法和系统,该方法包括:依次对输入文本的音素序列中每一音素的每一帧语音进行如下处理:对当前音素,从统计模型库中提取相应的统计模型,并将该统计模型在当前音素当前帧下相应的模型参数作为当前所预测语音参数的粗略值;利用粗略值以及当前时刻之前预定数目语音帧的信息,得到当前所预测语音参数的平滑值;根据统计得到的语音参数的全局均值和全局标准差比值,对语音参数的平滑值进行全局优化,生成所需的语音参数;对生成的所述语音参数进行合成,得到对当前音素当前帧所合成的一帧语音。利用本方案,能够使语音合成所需要的RAM不会随着合成语音长度的增加而增加,合成语音的时长不再受到RAM的限制。
Description
技术领域
本发明涉及参数语音合成技术领域,更为具体地,涉及一种连续合成任意时长语音的参数语音合成方法和系统。
背景技术
语音合成通过机械、电子的方法产生人造语音,其是使人机交互更加自然的一项重要技术。当前常见的语音合成技术有两类,一类是基于单元挑选和波形拼接的语音合成方法,另一类是基于声学统计模型的参数语音合成方法。由于参数语音合成方法对存储空间的要求相对较小,更适于应用在小型电子设备上。
在参数语音合成方法中,分为训练与合成两个阶段。在训练阶段,参见图1,首先提取出语料库中所有语音的声学参数,这包括静态参数,如频谱包络参数、基因频率参数,和动态参数,如频谱包络参数和基音频率参数的一阶和二阶差分参数;然后为每个音素根据其上下文标注信息训练出对应的声学统计模型,同时训练出针对整个语料库的全局方差模型;最后由所有音素的声学统计模型及全局方差模型组成模型库。
在合成阶段,采用分层离线处理的方式,进行语音的合成。如图1所示,包括第一层:分析输入的整段文本得到所有带上下文信息的音素组成音素序列。第二层:从训练好的模型库中提取音素序列中每个音素对应的模型组成模型序列。第三层:使用最大似然算法从模型序列中预测出每一帧语音对应的声学参数组成语音参数序列。第四层:使用全局方差模型对语音参数序列进行整体优化。第五层:将所有优化后的语音参数序列输入到参数语音合成器生成最终的合成语音。
发明人在实现本发明的过程中,发现现有技术中至少存在如下缺陷:
现有的参数语音合成方法,在合成阶段的分层操作中采用一种横向的处理方式:取出所有统计模型的参数、以最大似然算法预测生成所有帧的平滑参数、以全局方差模型得到所有帧的优化参数,最后从参数合成器输出所有帧的语音,即在每一层都需要保存所有帧的相关参数,导致语音合成时所需的随机存储器(Random AccessMemory,RAM)的容量随着合成语音时长的增长呈正比例增加,而芯片上RAM的大小是固定的,很多应用中芯片的RAM小到不足100K字节,现有的参数语音合成方法无法在具有较小RAM的芯片上连续合成任意时长语音。
下面结合上述合成阶段中第三层和第四层的操作,进一步详细说明造成上述问题的原因:
在上述合成阶段的第三层操作中,参见图4,运用最大似然算法从模型序列中预测出语音参数序列的实施过程必须通过逐帧前向递推和后向递推两步来实现。在第一步递推过程结束后,会为每帧语音产生对应的临时参数。所有帧的临时参数再输入到第二步的反向递推过程才能预测出所需的参数序列。当合成语音时长越长时,对应的语音帧数就越多,预测每帧语音参数时都会产生一帧对应的临时参数。所有帧的临时参数都必须保存在RAM中,才能完成第二步的递推预测过程,从而导致无法在具有较小RAM的芯片上连续合成任意时长语音。
并且,第四层中的操作需要从第三层输出的所有帧语音参数中计算出均值与方差,再运用全局方差模型对语音参数的平滑值进行整体优化生成最终的语音参数。因此,也需要相应帧数的RAM保存第三层输出的所有帧的语音参数,也导致无法在具有较小RAM的芯片上连续合成任意时长语音。
发明内容
鉴于上述问题,本发明的目的是解决原有的语音合成过程中需要的RAM大小随着合成语音长度呈正比例增加、进而无法在小RAM的芯片上连续合成出任意时长语音的问题。
根据本发明的一个方面,提供了一种参数语音合成方法,包括训练阶段和合成阶段,其中所述合成阶段具体包括:
依次对输入文本的音素序列中每一音素的每一帧语音进行如下处理:
对输入文本的音素序列中的当前音素,从统计模型库中提取相应的统计模型,并将该统计模型在当前音素当前帧下相应的模型参数作为当前所预测语音参数的粗略值;
利用所述粗略值以及当前时刻之前预定数目语音帧的信息,对所述粗略值进行滤波,得到当前所预测语音参数的平滑值;
根据统计得到的所述语音参数的全局均值和全局标准差比值,对所述当前所预测语音参数的平滑值进行全局优化,生成所需的语音参数;
对生成的所述语音参数进行合成,得到对当前音素当前帧所合成的一帧语音。
其中,优选的方案是,利用所述粗略值以及上一时刻语音帧的信息,对所述粗略值进行滤波,得到当前所预测语音参数的平滑值,该上一时刻语音帧的信息为上一时刻所预测语音参数的平滑值。
此外,优选的方案是,利用如下公式,根据统计得到所述语音参数的全局均值和全局标准差比值,对所述当前所预测语音参数的平滑值进行全局优化,生成所需的语音参数:
其中,yt为t时刻的语音参数在优化前的平滑值,为初步优化后的值,w为权重值,zt为全局优化后得到的所需的语音参数,r为统计得到的所预测语音参数的全局标准差比值,m为统计得到的所预测语音参数的全局均值,r和m的取值为常数。
进一步的,本方案还包括:利用子带浊音度参数构造浊音子带滤波器和清音子带滤波器;将由基音频率参数构造的准周期性脉冲序列,经过所述浊音子带滤波器得到语音信号的浊音成分;将由白噪声构造的随机序列,经过所述清音子带滤波器得到语音信号的清音成分;将所述浊音成分与清音成分相加得到混合激励信号;将所述混合激励信号通过由频谱包络参数构造的滤波器后输出一帧合成的语音波形。
进一步的,本方案在所述合成阶段之前,所述方法还包括训练阶段,
在训练阶段,从语料库中提取的声学参数仅包括静态参数,或者,从语料库中提取的声学参数包括静态参数和动态参数;训练后所得到的统计模型的模型参数中仅保留静态模型参数;
在合成阶段中,根据所述当前音素,将训练阶段中所得到所述统计模型在当前音素当前帧下相应的静态模型参数作为当前所预测语音参数的粗略值。
根据本发明的另一方面,提供了一种参数语音合成系统,包括:
循环合成装置,用于在合成阶段,依次对输入文本的音素序列中每一音素的每一帧语音进行语音合成;
所述循环合成装置包括:
粗略搜索单元,用于对输入文本的音素序列中的当前音素,从统计模型库中提取相应的统计模型,并将该统计模型在当前音素当前帧下相应的模型参数作为当前所预测语音参数的粗略值;
平滑滤波单元,用于利用所述粗略值以及当前时刻之前预定数目语音帧的信息,对所述粗略值进行滤波,得到当前所预测语音参数的平滑值;
全局优化单元,用于根据统计得到的所述语音参数的全局均值和全局标准差比值,对所述当前所预测语音参数的平滑值进行全局优化,生成所需的语音参数;
参数语音合成单元,用于对生成的所述语音参数进行合成,得到对当前音素当前帧所合成的一帧语音。
进一步的,所述平滑滤波单元包括低通滤波器组,用于利用所述粗略值以及上一时刻语音帧的信息,对所述粗略值进行滤波,得到当前所预测语音参数的平滑值,该上一时刻语音帧的信息为上一时刻所预测语音参数的平滑值。
进一步的,所述全局优化单元包括全局参数优化器,用于利用如下公式,根据统计得到所述语音参数的全局均值和全局标准差比值,对所述当前所预测语音参数的平滑值进行全局优化,生成所需的语音参数:
其中,yt为t时刻的语音参数在优化前的平滑值,为初步优化后的值,w为权重值,zt为全局优化后得到的所需的语音参数,r为统计得到的所预测语音参数的全局标准差比值,m为统计得到的所预测语音参数的全局均值,r和m的取值为常数。
进一步的,所述参数语音合成单元,包括:
滤波器构造模块,用于利用子带浊音度参数构造浊音子带滤波器和清音子带滤波器;
所述浊音子带滤波器,用于对由基音频率参数构造的准周期性脉冲序列进行滤波,得到语音信号的浊音成分;
所述清音子带滤波器,用于对由白噪声构造的随机序列进行滤波,得到语音信号的清音成分;
加法器,用于将所述浊音成分与清音成分相加得到混合激励信号;
合成滤波器,用于将所述混合激励信号通过由频谱包络参数构造的滤波器后输出一帧合成的语音波形。
进一步的,所述系统还包括训练装置,用于在训练阶段,从语料库中提取的声学参数仅包括静态参数,或者,从语料库中提取的声学参数包括静态参数和动态参数;以及,在训练后所得到的统计模型的模型参数中仅保留静态模型参数;
所述粗略搜索单元,具体用于在合成阶段中,根据所述当前音素,将训练阶段中所得到所述统计模型在当前音素当前帧下相应的静态模型参数作为当前所预测语音参数的粗略值。
由上所述,本发明实施例的技术方案通过利用当前帧之前的语音帧的信息以及预先统计得到语音参数的全局均值和全局标准差比值等技术手段,提供了一种新型的参数语音合成方案。
本发明所提供的参数语音合成方法和系统,采用纵向处理的合成方法,即每一帧语音的合成都需要经过取出统计模型粗略值、滤波得平滑值、全局优化得优化值、参数语音合成得语音四个步骤,之后每一帧语音的合成都再次重复这四个步骤,从而在参数语音合成处理的过程中仅需要保存当前帧需要的固定存储容量的参数即可,使语音合成所需要的RAM不会随着合成语音长度的增加而增加,合成语音的时长不再受到RAM的限制。
另外,本发明中所采用的声学参数为静态参数,在模型库中也仅保存各模型的静态均值参数,从而能够有效减少统计模型库的大小。
再者,本发明在合成语音的过程中使用多子带清浊混合激励,使每个子带中清音与浊音按照浊音度进行混合,从而使清音和浊音在时间上不再有明确的硬边界,避免了语音合成后音质的明显畸变。
本方案能够合成出具有较高连续性、一致性和自然度的语音,有助于语音合成方法在小存储空间芯片上的推广和应用。
为了实现上述以及相关目的,本发明的一个或多个方面包括后面将详细说明并在权利要求中特别指出的特征。下面的说明以及附图详细说明了本发明的某些示例性方面。然而,这些方面指示的仅仅是可使用本发明的原理的各种方式中的一些方式。此外,本发明旨在包括所有这些方面以及它们的等同物
附图说明
通过参考以下结合附图的说明及权利要求书的内容,并且随着对本发明的更全面理解,本发明的其它目的及结果将更加明白及易于理解。在附图中:
图1为现有技术中基于动态参数及最大似然准则的参数语音合成方法分阶段示意图;
图2为本发明一个实施例的参数语音合成方法的流程图;
图3为本发明一个实施例的参数语音合成方法分阶段示意图;
图4为现有技术中基于动态参数的最大似然参数预测示意图;
图5为本发明一个实施例的基于静态参数的滤波平滑参数预测示意图;
图6为根据本发明一个实施例的基于混合激励的合成滤波器示意图;
图7为现有技术中基于清/浊判决的合成滤波示意图;
图8为本发明另一个实施例的参数语音合成系统的方框示意图;
图9为本发明另一个实施例的参数语音合成单元的逻辑结构示意图;
图10为本发明又一个实施例的参数语音合成方法的流程图;
图11为本发明又一个实施例的参数语音合成系统的结构示意图。
在所有附图中相同的标号指示相似或相应的特征或功能。
具体实施方式
以下将结合附图对本发明的具体实施例进行详细描述。
图2示出了根据本发明一个实施例的参数语音合成方法的流程图。
如图2所示,本发明所提供的能够连续合成任意时长语音的参数语音合成方法的实现包括如下步骤:
S210:分析输入文本,根据对输入文本的分析获取包含上下文信息的音素序列;
S220:依次取出上述音素序列中的一个音素,在统计模型库中搜索所述音素的各声学参数对应的统计模型,按帧取出所述音素的各统计模型作为待合成语音参数的粗略值;
S230:使用滤波器组对上述待合成语音参数的粗略值进行参数平滑,得到平滑后的语音参数;
S240:使用全局参数优化器对所述平滑后的语音参数进行全局参数优化,得到优化后的语音参数;
S250:利用参数语音合成器对所述优化后的语音参数进行合成,输出一帧合成语音;
S260:判断所述音素的所有帧是否都处理完毕,如果没有,则对所述音素的下一帧重复步骤S220~S250的语音合成处理,直至处理完所述音素序列中的所有音素的所有帧。
为了能够进一步清楚的对本发明的参数语音合成技术进行说明,以突出本发明的技术特点,下面将分阶段、分步骤与现有技术中的参数语音合成方法逐一进行对比说明。
图3为本发明实施例的参数语音合成方法分阶段示意图。如图3所示,与现有技术中基于动态参数及最大似然准则的参数语音合成方法相类似,本发明的参数语音合成的实现也包括训练和合成两个阶段,其中,训练阶段用于通过语料库中的语音信息提取语音的声学参数,并根据所提取的声学参数训练出每个音素在每个上下文信息时对应的统计模型,形成合成阶段所需要的音素的统计模型库。步骤S210~S260属于合成阶段,在合成阶段,主要包括文本分析、参数预测和语音合成三部分,其中参数预测部分又可以细分为目标模型搜索、参数生成和参数优化三个环节。
首先,在训练阶段提取训练语料库的声学参数的过程中,本发明与现有参数语音合成技术的主要区别在于:现有技术中所提取的声学参数中包含动态参数,而本发明中所提取的声学参数可以全部为静态参数,也可以包含表征前后帧参数变化的动态参数,如一阶或二阶差分参数,以提高模型训练后的精度。
具体地,本发明从语料库中提取的声学参数至少包括三种静态参数:频谱包络参数、基音频率参数、子带浊音度参数,还可以选择性地包括其它如共振峰频率等参数。
其中,频谱包络参数可以是线性预测系数(LPC)或其衍生参数,如线谱对参数(LSP),也可以是倒谱类参数;还可以是前几个共振峰的参数(频率、带宽、幅值)或者离散傅立叶变换系数。另外,还可以使用这些频谱包络参数在美尔域的变种,以改善合成语音的音质。基音频率使用对数基音频率,子带浊音度为子带中浊音所占比重。
除了上述静态参数外,从语料库中提取的声学参数还可以包括表征前后帧声学参数变化的动态参数,如前后几帧基音频率间的一阶或二阶参数。训练时要将各音素自动对齐到语料库中大量的语音片段上,然后从这些语音片段中统计出该音素对应的声学参数模型。联合使用静态参数和动态参数进行自动对齐的精度略高于仅使用静态参数的情形,使得模型的参数更准确。但是,由于本发明在合成阶段并不需要模型中的动态参数,因此,本发明在最终训练出的模型库中仅保留静态参数。
在根据所提取的声学参数训练出每个音素在不同上下文信息时各声学参数对应的统计模型的过程中,采用隐马尔可夫模型(HMM,Hidden MarkovModel)对各声学参数进行建模。具体地,对于频谱包络参数与子带浊音度参数,使用连续概率分布的HMM建模,而对于基音频率则采用多空间概率分布的HMM建模。这种建模方案为现有技术中已有的建模方案,因此在下面的表述中只对该建模方案作简单的说明。
HMM是一种典型的统计信号处理方法,由于其随机性、可以处理未知字长的字符串输入、可以有效的避开切分的问题以及具有大量快速有效的训练和识别算法等特点,被广泛应用于信号处理的各个领域。HMM的结构为5个状态左右型,每个状态上观察概率的分布为单高斯密度函数。而该函数由参数的均值和方差唯一确定。所述的均值由静态参数的均值、动态参数(一阶与二阶差分)的均值组成。所述的方差由静态参数的方差、动态参数(一阶与二阶差分)的方差组成。
训练时根据上下文信息为每个音素的各声学参数训练出一个模型,为了提高模型训练的稳健性,需要根据音素的上下文信息对相关的音素进行聚类,如采用基于决策树的聚类方法。在上述声学参数对应的模型训练完成之后,再使用这些模型对训练语料库中的语音进行帧到状态的强制对齐,然后利用对齐过程中产生的时长信息(即各状态对应的帧数),训练音素在不同上下文信息时采用决策树聚类后的状态时长模型,最终由每个音素在不同上下文信息时的各声学参数对应的统计模型形成统计模型库。
在训练完成后,本发明在模型库中仅保存各模型的静态均值参数。而现有的参数语音合成方法则需要保留静态均值参数、一阶差分参数、二阶差分的均值参数及这些参数所对应的方差参数,统计模型库较大。实践证明,在本发明中,仅保存各模型的静态均值参数的统计模型库的大小只有现有技术中形成的统计模型库的约1/6,极大地减少了统计模型库的存储空间。其中,所减少的数据虽然在现有的参数语音合成技术中是必须的,但对于本发明提供的参数语音合成技术方案则是不需要的,因此,数据量的减少并不会影响本发明参数语音合成的实现。
在合成阶段,首先需要对输入的文本进行分析,以便从中提取出包含上下文信息的音素序列(步骤S210),作为参数合成的基础。
在此,音素的上下文信息指的是与当前音素前后相邻的音素的信息,这些上下文信息可以是其前后一个或几个音素的名称,也可以包含其它语言层或音韵层的信息。比如,一个音素的上下文信息包括当前音素名、前后两个音素名、所在音节的音调或者重音,还可以选择性地包括所在词的词性等。
在确定了输入文本中包含上下文信息的音素序列之后,就可以依次取出序列中的一个音素,在统计模型库中搜索该音素的各声学参数对应的统计模型,然后按帧取出该音素的各统计模型作为待合成语音参数的粗略值(步骤S220)。
在目标统计模型的搜索过程中,将音素的上下文标注信息输入到聚类决策树中,即可搜索出频谱包络参数、基音频率参数、子带浊音度参数、状态时长参数对应的统计模型。其中的状态时长参数不是从原始语料库中提取的静态声学参数,它是在训练中作状态与帧的对齐时生成的新参数。从模型各状态中依次取出所保存的静态参数的均值即为各参数对应的静态均值参数。其中,状态时长均值参数被直接用于确定待合成的某个音素中各状态该持续多少帧,而频谱包络、基音频率、子带浊音度等静态均值参数就是待合成语音参数的粗略值。
在确定了待合成语音参数的粗略值之后,基于滤波器组对所确定的语音参数粗略值进行滤波,从而预测语音参数(步骤S230)。在这一步骤中,利用一组专门的滤波器分别对频谱包络、基音频率和子带浊音度进行滤波,以预测合成效果更好的语音参数值。
本发明在步骤S230中所采用的滤波方法为基于静态参数的平滑滤波方法。图5为本发明基于静态参数的滤波平滑参数预测示意图,如图5所示,本发明用这组参数预测滤波器取代了现有的参数语音合成技术中的最大似然参数预测器,利用一组低通滤波器用以分别预测待合成语音参数的频谱包络参数、基音频率参数、子带浊音度参数。处理过程如公式(1)所示:
yt=ht*xt (1)
其中,t表示时间为第t帧,xt是从模型中得到的某个语音参数在第t帧时的粗略值,yt为经过滤波平滑后的值,运算符*表示卷积,ht为预先设计好的滤波器的冲击响应。对于不同类型的声学参数,由于参数特性不同,ht可以被设计成不同的表示。
对于频谱包络参数、子带浊音度参数,可使用公式(2)所示的滤波器进行参数的预测。
yt=α·yt-1+(1-α)·xt (2)
其中,α为预先设计好的固定的滤波器系数,α的选择可根据实际语音中频谱包络参数、子带浊音度随时间变化的快慢程度由实验确定。
对于基音频率参数,则可使用公式(3)所示的滤波器进行参数的预测。
yt=β·yt-1+(1-β)·xt (3)
其中,β为预先设计好的固定的滤波器系数,β的选择可根据实际语音中基音频率参数随时间变化的快慢程度由实验确定。
可以看出,本发明所使用的这组滤波器在预测待合成语音参数的过程中所涉及的参数不会延及将来的参数,某一时刻的输出帧仅仅依赖于该时刻及之前的输入帧或该时刻的前一时刻的输出帧,而与将来的输入或输出帧无关,从而使滤波器组所需要的RAM大小能够事先固定。也就是说,在本发明中,运用公式(2)和(3)预测语音的声学参数时,当前帧的输出参数仅依赖于当前帧的输入及前一帧的输出参数。
这样,整个参数的预测过程使用固定大小的RAM缓存即可现实,不会随着待合成语音时长的增加而增加,从而就可以连续预测出任意时长的语音参数,解决了现有技术中运用最大似然准则预测参数过程中所需RAM随合成语音时长呈正比例增长的问题。
由上述公式(2)和(3)可以看出,本方案在使用滤波器组对当前时刻的待合成语音参数的粗略值进行参数平滑时,可以根据该时刻的粗略值以及上一时刻语音帧的信息,对该粗略值进行滤波,得到平滑后的语音参数。在此,上一时刻语音帧的信息为上一时刻所预测语音参数的平滑值。
在预测出语音参数的平滑值之后,就可以使用全局参数优化器对平滑后的各语音参数进行优化,进而确定优化后的语音参数(步骤S240)。
为了使合成语音参数的方差与训练语料库中语音参数的方差一致,改善合成语音的音质,本发明在优化语音参数的过程中,使用下面的公式(4)对合成语音参数的变化范围进行调节。
然而,现有的参数语音合成方法在确定m和r时,需要利用到某个语音参数在所有帧对应的值来计算均值和方差,然后才能运用全局方差模型来调整所有帧的参数,使得调整后合成语音参数的方差与全局方差模型一致,达到提高音质的目的。如公式(5)所示。
其中,T表示待合成语音总时长为T帧,σc为某个语音参数在训练语料库中所有语音上统计得到的标准差(由全局方差模型提供),σs为当前待合成语音参数的标准差,每合成一段文本,σs都需要重新计算。由于m和r的计算需要用到调整前合成语音所有帧的语音参数值,需要RAM保存所有帧未优化时的参数,因此,所需要的RAM会随着待合成语音时长的增加而增加,从而导致固定大小的RAM无法满足连续合成任意时长语音的需要。
针对现有技术中存在的这种缺陷,本发明在对参数语音进行优化时,重新设计了全局参数优化器,使用如下的公式(6)对参数语音进行优化。
m=M
r=R (6)
其中,M和R均为常数,其值为从大量合成语音中分别统计出来的某个参数的均值及标准差比。优选的确定方法是,在不加全局参数优化时,合成一段较长的语音,例如一小时左右的合成语音,然后使用公式(5)计算出各声学参数对应的均值与标准差的比值,并将其作为固定值赋予各声学参数对应的M和R。
可以看出,本发明所设计的全局参数优化器包含全局均值及全局方差比,用全局均值表征合成语音各声学参数的均值,用全局方差比表征合成语音与训练语音的参数在方差上的比例。使用本发明中的全局参数优化器,在每次合成时,可以对输入的一帧语音参数直接进行优化,不再需要从所有合成语音帧中重新计算语音参数的均值及标准差比,因而不需要保存待合成语音参数所有帧的值。以固定的RAM解决了现有的参数语音合成方法RAM随合成语音时长呈正比例增长的问题。另外,本发明对每次合成的语音采用相同的m和r进行调节,而原方法在每次合成中使用新计算的m和r进行调节,因而本发明在合成不同文本时合成语音间的一致性比原方法要好。并且,可以明显看出本发明的计算复杂度低于原方法。
在确定了优化后的语音参数之后,就可以利用参数语音合成器对所述优化后的语音参数进行合成,合成出一帧语音波形(步骤S250)。
图6为根据本发明实施例的基于混合激励的合成滤波器示意图,图7为现有技术中基于清/浊判决的合成滤波示意图。如图6和图7所示,本发明采用的基于混合激励的合成滤波器采用源-滤波器形式;而现有技术中的滤波激励为简单的二元激励。
现有的参数语音合成技术中,在运用参数合成器合成语音时所采用的技术是基于清/浊判决的参数语音合成,需要使用一个预先设定的门限做清/浊音的硬判决,将某帧合成语音要么判定为浊音,要么判定为清音。这就导致在合成出的某些浊音中间突然出现清音帧,听感上会有明显的音质畸变。在图7所示的合成滤波示意图中,合成语音前先进行清/浊音预测,然后分别进行激励,清音时采用白噪声作为激励,浊音时采用准周期性脉冲作为激励,最后将此激励通过合成滤波器得到合成语音的波形。不可避免地,这种激励合成方法会导致合成出的清音和浊音在时间上有明确的硬边界,从而使合成语音中存在音质明显畸变。
但在如图6所示的采用本发明提供的基于混合激励的合成滤波示意图中,使用多子带清浊混合激励,不再进行清/浊预测,而是将每个子带中清音与浊音按浊音度进行混合,因而清音和浊音在时间上不再有明确的硬边界,解决了原方法在某些浊音中间因突然出现清音而导致音质明显畸变的问题。可以通过下面的公式(7)从原始语料库的语音中提取某个子带当前帧的浊音度:
其中,St是某个子带当前帧第t个语音样本的值,st+τ为和t间隔为τ时的语音样本的值,T为一帧的样本数,当τ取基音周期时,cτ为就为当前子带当前帧的浊音度。
具体地,如图6所示,经过全局优化后生成的语音参数,输入参数语音合成器中,首先根据语音参数中的基音频率参数构造准周期性脉冲序列,由白噪声构造随机序列;然后经过由浊音度构造的浊音子带滤波器产品从所构造的准周期脉冲序列中得到信号的浊音成分,经过由浊音度构造的清音子带滤波器从随机序列中得到信号的清音成分;将浊音成分与清音成分相加即可得到混合激励信号。最后将混合激励信号通过由频谱包络参数构造的合成滤波器后输出一帧合成语音波形。
当然,在确定了优化后的语音参数之后,也可以依然先作清/浊音判决,浊音时使用混合激励,清音时仅使用白噪声。但此方案同样有硬边界致音质畸变的问题,因此,本发明优选上述不进行清/浊预测、使用多子带清浊混合激励的实施方式。
由于本发明在连续合成任意时长语音方面的优势,因此,在完成一帧语音波形的输出之后,还可以继续循环处理下一帧语音。由于下一帧优化后的语音参数没有预先生成并存储在RAM中,因此,在当前帧处理完之后,需要返回步骤S220,从模型中取出该音素的下一帧语音参数的粗略值,重复进行步骤S220~S250,对该音素的下一帧进行语音合成处理,才能最终输出下一帧的语音波形。这样循环处理,直至所有音素模型的所有帧的参数都处理完成、合成出所有的语音。
本发明的上述参数语音合成方法,可以采用软件实现,也可以采用硬件实现,或采用软件和硬件组合的方式实现。
图8示出了根据本发明另一个实施例的参数语音合成系统800的方框示意图。如图8所示,参数语音合成系统800包括输入文本分析单元830、粗略搜索单元840、平滑滤波单元850、全局优化单元860、参数语音合成单元870和循环判断单元880。其中,还可以包括用于语料训练的声学参数提取单元和统计模型训练单元(图中未示出)。
其中,声学参数提取单元用于提取训练语料库中语音的声学参数;统计模型训练单元用于根据声学参数提取单元所提取的声学参数训练出每个音素在不同上下文信息时各声学参数对应的统计模型,并将该统计模型保存在统计模型库中。
输入文本分析单元830用于分析输入的文本,并根据对所述输入文本的分析获取包含上下文信息的音素序列;粗略搜索单元840用于依次取出音素序列中的一个音素,并在统计模型库中搜索输入文本分析单元830所获取的所述音素的各声学参数对应的统计模型,按帧取出该音素的各统计模型作为待合成语音参数的粗略值;平滑滤波单元850用于使用滤波器组对待合成语音参数的粗略值进行滤波,得到平滑后的语音参数;全局优化单元860用于使用全局参数优化器对平滑滤波单元850所平滑后的各语音参数进行全局参数优化,得到优化后的语音参数;参数语音合成单元870用于利用参数语音合成器对全局优化单元860所优化后的语音参数进行合成,输出合成语音。
循环判断单元880连接在参数语音合成单元870和粗略搜索单元840之间,用以在完成一帧语音波形的输出之后,判断音素中是否存在未处理的帧,如果存在,则对该音素的下一帧重复利用所述粗略搜索单元、平滑滤波单元、全局优化单元和参数语音合成单元继续进行搜索取得声学参数对应的统计模型粗略值、滤波得平滑值、全局优化、参数语音合成的循环处理,直至处理完所述音素序列中的所有音素的所有帧。
由于下一帧优化后的语音参数没有预先生成并存储在RAM中,因此,在当前帧处理完之后,需要返回粗略搜索单元840,从模型中取出该音素的下一帧,重复利用粗略搜索单元840、平滑滤波单元850、全局优化单元860和参数语音合成单元870进行语音合成处理,才能最终输出下一帧的语音波形。这样循环处理,直至所有音素序列中的所有音素的所有帧的参数都处理完成、合成出所有的语音。
其中,与上述方法相对应,在本发明的一个优选实施方式中,统计模型训练单元进一步包括声学参数模型训练单元、聚类单元、强制对齐单元、状态时长模型训练单元以及模型统计单元(图中未示出),具体的:
声学参数模型训练单元,用于根据每个音素的上下文信息为每个音素的各声学参数训练出一个模型;
聚类单元,用于根据所述音素的上下文信息对相关的音素进行聚类;
强制对齐单元,用于使用所述模型对训练语料库中的语音进行帧到状态的强制对齐;
状态时长模型训练单元,用于利用所述强制对齐单元在强制对齐过程中产生的时长信息训练音素在不同上下文信息时聚类后的状态时长模型;
模型统计单元,用于将每个音素在不同上下文信息时的各声学参数对应的统计模型形成统计模型库。
图9示出了根据本发明一个优选实施例的参数语音合成单元的逻辑结构示意图。如图9所示,参数语音合成单元870进一步包括准周期脉冲发生器871、白噪声发生器872、浊音子带滤波器873、清音子带滤波器874、加法器875和合成滤波器876,其中,准周期脉冲发生器871用于根据语音参数中的基音频率参数构造准周期性脉冲序列;白噪声发生器872用于通过白噪声构造随机序列;浊音子带滤波器873用于根据子带浊音度从所构造的准周期脉冲序列中确定信号的浊音成分;清音子带滤波器874用于根据子带浊音度从随机序列中确定信号的清音成分;然后将浊音成分与清音成分通过加法器875相加即可得到混合激励信号。最后将混合激励信号通过由频谱包络参数构造的合成滤波器876合成滤波后即可输出对应的一帧合成语音波形。
可以看出,本发明采用的合成方法是纵向处理,即每一帧语音的合成,都需要经过取出统计模型粗略值、滤波得平滑值、全局优化得优化值、参数语音合成得语音这处理四个环节,之后每一帧语音的合成都再次重复这四个处理环节。而现有的参数语音合成方法采用的是横向离线处理,即取出所有模型的粗略参数、以最大似然算法生成所有帧的平滑参数、以全局方差模型得到所有帧的优化参数,最后从参数合成器输出所有帧的语音。与现有的参数语音合成方法中每一层都需要保存所有帧的参数相比,本发明的纵向处理方式仅需要保存当前帧需要的固定存储容量的参数即可,因此本发明的纵向处理方式也解决了原有方法采用横向处理方式所导致的合成语音时长有限的问题。
另外,本发明通过在合成阶段仅仅使用静态参数,不再使用动态参数及方差信息,将模型库的大小减小为原有方法的约1/6。通过使用专门设计的滤波器组取代最大似然参数方法进行参数的平滑生成,并使用新的全局参数优化器取代原有方法中的全局方差模型进行语音参数的优化,结合纵向处理结构实现了使用固定大小的RAM连续预测出任意时长语音参数的功能,解决了原有方法在小RAM芯片上不能连续预测出任意时长语音参数的问题,并且有助于扩大语音合成方法在小存储空间芯片上的应用。通过在每一时刻均使用清浊音混合激励,取代原有方法在合成语音波形前先做清/浊音硬判决,解决了原有方法在合成某些浊音的中间突然出现清音而产生音质畸变的问题,使得产生的语音更加一致连贯。
本发明又一个实施例提供的一种参数语音合成方法,参见图10,该方法包括:
在合成阶段,依次对输入文本的音素序列中每一音素的每一帧语音进行如下处理:
101:对输入文本的音素序列中的当前音素,从统计模型库中提取相应的统计模型,并将该统计模型在当前音素当前帧下相应的模型参数作为当前所预测语音参数的粗略值;
102:利用所述粗略值以及当前时刻之前预定数目语音帧的信息,对所述粗略值进行滤波,得到当前所预测语音参数的平滑值;
103:根据统计得到的所述语音参数的全局均值和全局标准差比值,对所述当前所预测语音参数的平滑值进行全局优化,生成所需的语音参数;
104:对生成的所述语音参数进行合成,得到对当前音素当前帧所合成的一帧语音。
进一步的,本方案在预测待合成语音参数的过程中,预测时所涉及的参数不会延及将来的参数,某一时刻的输出帧仅仅依赖于该时刻及之前的输入帧或该时刻的前一时刻的输出帧,而与将来的输入或输出帧无关。具体地,在步骤102中,可以利用上述粗略值以及上一时刻语音帧的信息,对该粗略值进行滤波,得到当前所预测语音参数的平滑值,其中,该上一时刻语音帧的信息为上一时刻所预测语音参数的平滑值。
进一步的,所预测语音参数为频谱包络参数、子带浊音度参数时,参见上述公式(2),本方案根据如下公式,利用所述粗略值以及上一时刻所预测语音参数的平滑值,对所述粗略值进行滤波,得到当前所预测语音参数的平滑值:
yt=α·yt-1+(1-α)·xt;
所预测语音参数为基音频率参数时,参见上述公式(3),本方案根据如下公式,利用所述粗略值以及上一时刻所预测语音参数的平滑值,对所述粗略值进行滤波,得到当前所预测语音参数的平滑值:
yt=β·yt-1+(1-β)·xt
其中,上述公式中t表示时刻为第t帧,xt表示所预测语音参数在第t帧时的粗略值,yt表示xt经过滤波平滑后的值,α、β分别为滤波器的系数,α和β的取值不同。
进一步的,本方案在步骤104中,可以具体包括如下处理:
利用子带浊音度参数构造浊音子带滤波器和清音子带滤波器;
将由基音频率参数构造的准周期性脉冲序列,经过所述浊音子带滤波器得到语音信号的浊音成分;将由白噪声构造的随机序列,经过所述清音子带滤波器得到语音信号的清音成分;
将所述浊音成分与清音成分相加得到混合激励信号;将所述混合激励信号通过由频谱包络参数构造的滤波器后输出一帧合成的语音波形。
进一步的,本方案在上述合成阶段之前,还包括训练阶段。在训练阶段,从语料库中提取的声学参数仅包括静态参数,或者,从语料库中提取的声学参数包括静态参数和动态参数;训练后所得到的统计模型的模型参数中仅保留静态模型参数;
合成阶段中步骤101可以具体包括:根据当前音素,将训练阶段中所得到所述统计模型在当前音素当前帧下相应的静态模型参数作为当前所预测语音参数的粗略值。
本发明又一个实施例还提供了一种参数语音合成系统,参见图11,该系统包括:
循环合成装置110,用于在合成阶段,依次对输入文本的音素序列中每一音素的每一帧语音进行语音合成;
所述循环合成装置110包括:
粗略搜索单元111,用于对输入文本的音素序列中的当前音素,从统计模型库中提取相应的统计模型,并将该统计模型在当前音素当前帧下相应的模型参数作为当前所预测语音参数的粗略值;
平滑滤波单元112,用于利用所述粗略值以及当前时刻之前预定数目语音帧的信息,对所述粗略值进行滤波,得到当前所预测语音参数的平滑值;
全局优化单元113,用于根据统计得到的所述语音参数的全局均值和全局标准差比值,对所述当前所预测语音参数的平滑值进行全局优化,生成所需的语音参数;
参数语音合成单元114,用于对生成的所述语音参数进行合成,得到对当前音素当前帧所合成的一帧语音。
进一步的,所述平滑滤波单元112包括低通滤波器组,用于利用所述粗略值以及上一时刻语音帧的信息,对所述粗略值进行滤波,得到当前所预测语音参数的平滑值,该上一时刻语音帧的信息为上一时刻所预测语音参数的平滑值。
进一步的,所预测语音参数为频谱包络参数、子带浊音度参数时,所述低通滤波器组,根据如下公式,利用所述粗略值以及上一时刻所预测语音参数的平滑值,对所述粗略值进行滤波,得到当前所预测语音参数的平滑值:
yt=α·yt-1+(1-α)·xt;
所预测语音参数为基音频率参数时,所述低通滤波器组,根据如下公式,利用所述粗略值以及上一时刻所预测语音参数的平滑值,对所述粗略值进行滤波,得到当前所预测语音参数的平滑值:
yt=β·yt-1+(1-β)·xt
其中,上述公式中t表示时刻为第t帧,xt表示所预测语音参数在第t帧时的粗略值,yt表示xt经过滤波平滑后的值,α、β分别为滤波器的系数,α和β的取值不同。
进一步的,所述全局优化单元113包括全局参数优化器,用于利用如下公式,根据统计得到所述语音参数的全局均值和全局标准差比值,对所述当前所预测语音参数的平滑值进行全局优化,生成所需的语音参数:
其中,yt为t时刻的语音参数在优化前的平滑值,为初步优化后的值,w为权重值,zt为全局优化后得到的所需的语音参数,r为统计得到的所预测语音参数的全局标准差比值,m为统计得到的所预测语音参数的全局均值,r和m的取值为常数。
进一步的,所述参数语音合成单元114,包括:
滤波器构造模块,用于利用子带浊音度参数构造浊音子带滤波器和清音子带滤波器;
所述浊音子带滤波器,用于对由基音频率参数构造的准周期性脉冲序列进行滤波,得到语音信号的浊音成分;
所述清音子带滤波器,用于对由白噪声构造的随机序列进行滤波,得到语音信号的清音成分;
加法器,用于将所述浊音成分与清音成分相加得到混合激励信号;
合成滤波器,用于将所述混合激励信号通过由频谱包络参数构造的滤波器后输出一帧合成的语音波形。
进一步的,所述系统还包括训练装置,用于在训练阶段,从语料库中提取的声学参数仅包括静态参数,或者,从语料库中提取的声学参数包括静态参数和动态参数;以及,在训练后所得到的统计模型的模型参数中仅保留静态模型参数;
上述粗略搜索单元111,具体用于在合成阶段中,根据所述当前音素,将训练阶段中所得到所述统计模型在当前音素当前帧下相应的静态模型参数作为当前所预测语音参数的粗略值。
本发明实施例中的粗略搜索单元111、平滑滤波单元112、全局优化单元113和参数语音合成单元114的相关操作,可以分别参见上述实施例中的粗略搜索单元840、平滑滤波单元850、全局优化单元860和参数语音合成单元870的相关内容。
由上所述,本发明实施例的技术方案通过利用当前帧之前的语音帧的信息以及预先统计得到语音参数的全局均值和全局标准差比值等技术手段,提供了一种新型的参数语音合成方案。
本方案在合成阶段采用了一种纵向的处理方式,对每一帧语音逐次分别进行合成,在合成过程中仅保存当前帧需要的固定容量的参数即可。本方案这种新型的纵向处理的架构,能够使用固定容量大小的RAM实现任意时长语音的合成,显著降低了语音合成时对RAM容量的要求,从而能够在具有较小RAM的芯片上连续合成任意时长语音。
本方案能够合成出具有较高连续性、一致性和自然度的语音,有助于语音合成方法在小存储空间芯片上的推广和应用。
如上参照附图以示例的方式描述根据本发明的参数语音合成方法和系统。但是,本领域技术人员应当理解,对于上述本发明所提出的参数语音合成方法和系统,还可以在不脱离本发明内容的基础上做出各种改进。因此,本发明的保护范围应当由所附的权利要求书的内容确定。
Claims (10)
1.一种参数语音合成方法,包括:
在合成阶段,依次对输入文本的音素序列中每一音素的每一帧语音进行如下处理:
对输入文本的音素序列中的当前音素,从统计模型库中提取相应的统计模型,并将该统计模型在当前音素当前帧下相应的模型参数作为当前所预测语音参数的粗略值;
利用所述粗略值以及当前时刻之前预定数目语音帧的信息,对所述粗略值进行滤波,得到当前所预测语音参数的平滑值;
根据统计得到的所述语音参数的全局均值和全局标准差比值,对所述当前所预测语音参数的平滑值进行全局优化,生成所需的语音参数;
对生成的所述语音参数进行合成,得到对当前音素当前帧所合成的一帧语音。
2.根据权利要求1所述的方法,其特征在于,所述利用所述粗略值以及当前时刻之前预定数目语音帧的信息,对所述粗略值进行滤波,得到当前所预测语音参数的平滑值具体包括:
利用所述粗略值以及上一时刻语音帧的信息,对所述粗略值进行滤波,得到当前所预测语音参数的平滑值;
其中,所述上一时刻语音帧的信息为上一时刻所预测语音参数的平滑值。
4.根据权利要求1所述的方法,其特征在于,所述对生成的所述语音参数进行合成,得到对当前音素当前帧所合成的一帧语音包括:
利用子带浊音度参数构造浊音子带滤波器和清音子带滤波器;
将由基音频率参数构造的准周期性脉冲序列,经过所述浊音子带滤波器得到语音信号的浊音成分;
将由白噪声构造的随机序列,经过所述清音子带滤波器得到语音信号的清音成分;
将所述浊音成分与清音成分相加得到混合激励信号;
将所述混合激励信号通过由频谱包络参数构造的滤波器后输出一帧合成的语音波形。
5.根据权利要求1所述的方法,其特征在于,在所述合成阶段之前,所述方法还包括训练阶段,
在训练阶段,从语料库中提取的声学参数仅包括静态参数,或者,从语料库中提取的声学参数包括静态参数和动态参数;
训练后所得到的统计模型的模型参数中仅保留静态模型参数;
合成阶段中所述将该统计模型在当前音素当前帧下相应的模型参数作为当前所预测语音参数的粗略值具体为:
根据所述当前音素,将训练阶段中所得到所述统计模型在当前音素当前帧下相应的静态模型参数作为当前所预测语音参数的粗略值。
6.一种参数语音合成系统,包括:循环合成装置,用于在合成阶段,依次对输入文本的音素序列中每一音素的每一帧语音进行语音合成;
所述循环合成装置包括:
粗略搜索单元,用于对输入文本的音素序列中的当前音素,从统计模型库中提取相应的统计模型,并将该统计模型在当前音素当前帧下相应的模型参数作为当前所预测语音参数的粗略值;
平滑滤波单元,用于利用所述粗略值以及当前时刻之前预定数目语音帧的信息,对所述粗略值进行滤波,得到当前所预测语音参数的平滑值;
全局优化单元,用于根据统计得到的所述语音参数的全局均值和全局标准差比值,对所述当前所预测语音参数的平滑值进行全局优化,生成所需的语音参数;
参数语音合成单元,用于对生成的所述语音参数进行合成,得到对当前音素当前帧所合成的一帧语音。
7.根据权利要求6所述的系统,其中,所述平滑滤波单元包括低通滤波器组,
所述低通滤波器组,用于利用所述粗略值以及上一时刻语音帧的信息,对所述粗略值进行滤波,得到当前所预测语音参数的平滑值;
其中,所述上一时刻语音帧的信息为上一时刻所预测语音参数的平滑值。
8.根据权利要求6所述的系统,其中,所述全局优化单元包括全局参数优化器,
所述全局参数优化器,用于利用如下公式,根据统计得到所述语音参数的全局均值和全局标准差比值,对所述当前所预测语音参数的平滑值进行全局优化,生成所需的语音参数:
其中,yt为t时刻的语音参数在优化前的平滑值,为初步优化后的值,w为权重值,zt为全局优化后得到的所需的语音参数,r为统计得到的所预测语音参数的全局标准差比值,m为统计得到的所预测语音参数的全局均值,r和m的取值为常数。
9.根据权利要求6所述的系统,其中,所述参数语音合成单元,包括:
滤波器构造模块,用于利用子带浊音度参数构造浊音子带滤波器和清音子带滤波器;
所述浊音子带滤波器,用于对由基音频率参数构造的准周期性脉冲序列进行滤波,得到语音信号的浊音成分;
所述清音子带滤波器,用于对由白噪声构造的随机序列进行滤波,得到语音信号的清音成分;
加法器,用于将所述浊音成分与清音成分相加得到混合激励信号;
合成滤波器,用于将所述混合激励信号通过由频谱包络参数构造的滤波器后输出一帧合成的语音波形。
10.根据权利要求6所述的系统,其特征在于,所述系统还包括训练装置,
所述训练装置,用于在训练阶段,从语料库中提取的声学参数仅包括静态参数,或者,从语料库中提取的声学参数包括静态参数和动态参数;以及,在训练后所得到的统计模型的模型参数中仅保留静态模型参数;
所述粗略搜索单元,具体用于在合成阶段中,根据所述当前音素,将训练阶段中所得到所述统计模型在当前音素当前帧下相应的静态模型参数作为当前所预测语音参数的粗略值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110331821XA CN102385859B (zh) | 2011-08-10 | 2011-10-27 | 参数语音合成方法和系统 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011102290132A CN102270449A (zh) | 2011-08-10 | 2011-08-10 | 参数语音合成方法和系统 |
CN201110229013.2 | 2011-08-10 | ||
CN201110331821XA CN102385859B (zh) | 2011-08-10 | 2011-10-27 | 参数语音合成方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102385859A true CN102385859A (zh) | 2012-03-21 |
CN102385859B CN102385859B (zh) | 2012-12-19 |
Family
ID=45052729
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011102290132A Pending CN102270449A (zh) | 2011-08-10 | 2011-08-10 | 参数语音合成方法和系统 |
CN201110331821XA Active CN102385859B (zh) | 2011-08-10 | 2011-10-27 | 参数语音合成方法和系统 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011102290132A Pending CN102270449A (zh) | 2011-08-10 | 2011-08-10 | 参数语音合成方法和系统 |
Country Status (7)
Country | Link |
---|---|
US (1) | US8977551B2 (zh) |
EP (1) | EP2579249B1 (zh) |
JP (1) | JP5685649B2 (zh) |
KR (1) | KR101420557B1 (zh) |
CN (2) | CN102270449A (zh) |
DK (1) | DK2579249T3 (zh) |
WO (1) | WO2013020329A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106062867A (zh) * | 2014-02-26 | 2016-10-26 | 微软技术许可有限责任公司 | 语音字体说话者以及韵律插值 |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103854643B (zh) * | 2012-11-29 | 2017-03-01 | 株式会社东芝 | 用于合成语音的方法和装置 |
CN103226946B (zh) * | 2013-03-26 | 2015-06-17 | 中国科学技术大学 | 一种基于受限玻尔兹曼机的语音合成方法 |
US9484015B2 (en) * | 2013-05-28 | 2016-11-01 | International Business Machines Corporation | Hybrid predictive model for enhancing prosodic expressiveness |
EP3095112B1 (en) | 2014-01-14 | 2019-10-30 | Interactive Intelligence Group, Inc. | System and method for synthesis of speech from provided text |
KR20160058470A (ko) * | 2014-11-17 | 2016-05-25 | 삼성전자주식회사 | 음성 합성 장치 및 그 제어 방법 |
JP5995226B2 (ja) * | 2014-11-27 | 2016-09-21 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 音響モデルを改善する方法、並びに、音響モデルを改善する為のコンピュータ及びそのコンピュータ・プログラム |
JP6483578B2 (ja) * | 2015-09-14 | 2019-03-13 | 株式会社東芝 | 音声合成装置、音声合成方法およびプログラム |
WO2017046887A1 (ja) * | 2015-09-16 | 2017-03-23 | 株式会社東芝 | 音声合成装置、音声合成方法、音声合成プログラム、音声合成モデル学習装置、音声合成モデル学習方法及び音声合成モデル学習プログラム |
CA3004700C (en) * | 2015-10-06 | 2021-03-23 | Interactive Intelligence Group, Inc. | Method for forming the excitation signal for a glottal pulse model based parametric speech synthesis system |
CN105654939B (zh) * | 2016-01-04 | 2019-09-13 | 极限元(杭州)智能科技股份有限公司 | 一种基于音向量文本特征的语音合成方法 |
US10044710B2 (en) | 2016-02-22 | 2018-08-07 | Bpip Limited Liability Company | Device and method for validating a user using an intelligent voice print |
JP6852478B2 (ja) * | 2017-03-14 | 2021-03-31 | 株式会社リコー | 通信端末、通信プログラム及び通信方法 |
JP7209275B2 (ja) * | 2017-08-31 | 2023-01-20 | 国立研究開発法人情報通信研究機構 | オーディオデータ学習装置、オーディオデータ推論装置、およびプログラム |
CN107481715B (zh) * | 2017-09-29 | 2020-12-08 | 百度在线网络技术(北京)有限公司 | 用于生成信息的方法和装置 |
CN107945786B (zh) * | 2017-11-27 | 2021-05-25 | 北京百度网讯科技有限公司 | 语音合成方法和装置 |
CN117524188A (zh) | 2018-05-11 | 2024-02-06 | 谷歌有限责任公司 | 时钟式层次变分编码器 |
US11264010B2 (en) | 2018-05-11 | 2022-03-01 | Google Llc | Clockwork hierarchical variational encoder |
CN109036377A (zh) * | 2018-07-26 | 2018-12-18 | 中国银联股份有限公司 | 一种语音合成方法及装置 |
CN108899009B (zh) * | 2018-08-17 | 2020-07-03 | 百卓网络科技有限公司 | 一种基于音素的中文语音合成系统 |
CN109102796A (zh) * | 2018-08-31 | 2018-12-28 | 北京未来媒体科技股份有限公司 | 一种语音合成方法及装置 |
CN109285535A (zh) * | 2018-10-11 | 2019-01-29 | 四川长虹电器股份有限公司 | 基于前端设计的语音合成方法 |
CN109285537B (zh) * | 2018-11-23 | 2021-04-13 | 北京羽扇智信息科技有限公司 | 声学模型建立、语音合成方法、装置、设备及存储介质 |
US11302301B2 (en) * | 2020-03-03 | 2022-04-12 | Tencent America LLC | Learnable speed control for speech synthesis |
CN111862931A (zh) * | 2020-05-08 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 一种语音生成方法及装置 |
US11495200B2 (en) * | 2021-01-14 | 2022-11-08 | Agora Lab, Inc. | Real-time speech to singing conversion |
CN112802449B (zh) * | 2021-03-19 | 2021-07-02 | 广州酷狗计算机科技有限公司 | 音频合成方法、装置、计算机设备及存储介质 |
CN113160794B (zh) * | 2021-04-30 | 2022-12-27 | 京东科技控股股份有限公司 | 基于音色克隆的语音合成方法、装置及相关设备 |
CN113571064B (zh) * | 2021-07-07 | 2024-01-30 | 肇庆小鹏新能源投资有限公司 | 自然语言理解方法及装置、交通工具及介质 |
CN114822492B (zh) * | 2022-06-28 | 2022-10-28 | 北京达佳互联信息技术有限公司 | 语音合成方法及装置、电子设备、计算机可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6317713B1 (en) * | 1996-03-25 | 2001-11-13 | Arcadia, Inc. | Speech synthesis based on cricothyroid and cricoid modeling |
CN1609949A (zh) * | 2003-10-24 | 2005-04-27 | 无敌科技股份有限公司 | 母音间转音的平滑处理方法 |
CN1835075A (zh) * | 2006-04-07 | 2006-09-20 | 安徽中科大讯飞信息科技有限公司 | 一种结合自然样本挑选与声学参数建模的语音合成方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03102399A (ja) * | 1989-09-18 | 1991-04-26 | Fujitsu Ltd | 規則音声合成装置 |
US6910007B2 (en) | 2000-05-31 | 2005-06-21 | At&T Corp | Stochastic modeling of spectral adjustment for high quality pitch modification |
GB0112749D0 (en) * | 2001-05-25 | 2001-07-18 | Rhetorical Systems Ltd | Speech synthesis |
US6912495B2 (en) * | 2001-11-20 | 2005-06-28 | Digital Voice Systems, Inc. | Speech model and analysis, synthesis, and quantization methods |
US20030135374A1 (en) * | 2002-01-16 | 2003-07-17 | Hardwick John C. | Speech synthesizer |
DE602005019070D1 (de) * | 2004-09-16 | 2010-03-11 | France Telecom | Her einheiten und sprachsynthesevorrichtung |
US20060129399A1 (en) * | 2004-11-10 | 2006-06-15 | Voxonic, Inc. | Speech conversion system and method |
US20060229877A1 (en) * | 2005-04-06 | 2006-10-12 | Jilei Tian | Memory usage in a text-to-speech system |
JP4662139B2 (ja) * | 2005-07-04 | 2011-03-30 | ソニー株式会社 | データ出力装置、データ出力方法、およびプログラム |
US7996222B2 (en) * | 2006-09-29 | 2011-08-09 | Nokia Corporation | Prosody conversion |
US8321222B2 (en) * | 2007-08-14 | 2012-11-27 | Nuance Communications, Inc. | Synthesis by generation and concatenation of multi-form segments |
JP4469883B2 (ja) | 2007-08-17 | 2010-06-02 | 株式会社東芝 | 音声合成方法及びその装置 |
CN101178896B (zh) | 2007-12-06 | 2012-03-28 | 安徽科大讯飞信息科技股份有限公司 | 基于声学统计模型的单元挑选语音合成方法 |
KR100932538B1 (ko) * | 2007-12-12 | 2009-12-17 | 한국전자통신연구원 | 음성 합성 방법 및 장치 |
CN102341842B (zh) * | 2009-05-28 | 2013-06-05 | 国际商业机器公司 | 用于语者调适的基频移动量学习装置和方法及基频生成装置和方法 |
US20110071835A1 (en) * | 2009-09-22 | 2011-03-24 | Microsoft Corporation | Small footprint text-to-speech engine |
GB2478314B (en) * | 2010-03-02 | 2012-09-12 | Toshiba Res Europ Ltd | A speech processor, a speech processing method and a method of training a speech processor |
US20120143611A1 (en) * | 2010-12-07 | 2012-06-07 | Microsoft Corporation | Trajectory Tiling Approach for Text-to-Speech |
-
2011
- 2011-08-10 CN CN2011102290132A patent/CN102270449A/zh active Pending
- 2011-10-27 DK DK11864132.3T patent/DK2579249T3/en active
- 2011-10-27 CN CN201110331821XA patent/CN102385859B/zh active Active
- 2011-10-27 JP JP2013527464A patent/JP5685649B2/ja active Active
- 2011-10-27 WO PCT/CN2011/081452 patent/WO2013020329A1/zh active Application Filing
- 2011-10-27 US US13/640,562 patent/US8977551B2/en active Active
- 2011-10-27 KR KR1020127031341A patent/KR101420557B1/ko active IP Right Grant
- 2011-10-27 EP EP11864132.3A patent/EP2579249B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6317713B1 (en) * | 1996-03-25 | 2001-11-13 | Arcadia, Inc. | Speech synthesis based on cricothyroid and cricoid modeling |
CN1609949A (zh) * | 2003-10-24 | 2005-04-27 | 无敌科技股份有限公司 | 母音间转音的平滑处理方法 |
CN1835075A (zh) * | 2006-04-07 | 2006-09-20 | 安徽中科大讯飞信息科技有限公司 | 一种结合自然样本挑选与声学参数建模的语音合成方法 |
Non-Patent Citations (2)
Title |
---|
《IEEE TRANSACTIONS ON SPEECH AND AUDIO PROCESSING》 20010131 Jerome R. Bellegarda et al Statistical Prosodic Modeling: From Corpus Design to Parameter Estimation 第9卷, 第1期 * |
《IEEE TRANSACTIONS ON SPEECH AND AUDIO PROCESSING》 20030731 Sin-Horng Chen et al A New Duration Modeling Approach for Mandarin Speech 第11卷, 第4期 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106062867A (zh) * | 2014-02-26 | 2016-10-26 | 微软技术许可有限责任公司 | 语音字体说话者以及韵律插值 |
Also Published As
Publication number | Publication date |
---|---|
CN102385859B (zh) | 2012-12-19 |
US20130066631A1 (en) | 2013-03-14 |
US8977551B2 (en) | 2015-03-10 |
CN102270449A (zh) | 2011-12-07 |
JP2013539558A (ja) | 2013-10-24 |
EP2579249A4 (en) | 2015-04-01 |
EP2579249A1 (en) | 2013-04-10 |
EP2579249B1 (en) | 2018-03-28 |
KR101420557B1 (ko) | 2014-07-16 |
JP5685649B2 (ja) | 2015-03-18 |
KR20130042492A (ko) | 2013-04-26 |
WO2013020329A1 (zh) | 2013-02-14 |
DK2579249T3 (en) | 2018-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102385859B (zh) | 参数语音合成方法和系统 | |
CN101828218B (zh) | 通过多形式段的生成和连接进行的合成 | |
US10621969B2 (en) | Method for forming the excitation signal for a glottal pulse model based parametric speech synthesis system | |
US20140114663A1 (en) | Guided speaker adaptive speech synthesis system and method and computer program product | |
US8494856B2 (en) | Speech synthesizer, speech synthesizing method and program product | |
CN1815552B (zh) | 基于线谱频率及其阶间差分参数的频谱建模与语音增强方法 | |
CN104538024A (zh) | 语音合成方法、装置及设备 | |
CN102810311B (zh) | 说话人估计方法和说话人估计设备 | |
CN102496363A (zh) | 一种用于汉语语音合成的音调修正方法 | |
CN105096933A (zh) | 分词词典的生成方法和装置及语音合成方法和装置 | |
US11170755B2 (en) | Speech synthesis apparatus and method | |
Wang et al. | A Comparative Study of the Performance of HMM, DNN, and RNN based Speech Synthesis Systems Trained on Very Large Speaker-Dependent Corpora. | |
CN103366737A (zh) | 在自动语音识别中应用声调特征的装置和方法 | |
CN114495969A (zh) | 一种融合语音增强的语音识别方法 | |
RU61924U1 (ru) | Статистическая модель речи | |
Yu et al. | Probablistic modelling of F0 in unvoiced regions in HMM based speech synthesis | |
Savargiv et al. | Study on unit-selection and statistical parametric speech synthesis techniques | |
CN102231275A (zh) | 一种基于加权混合激励的嵌入式语音合成方法 | |
CN104282300A (zh) | 一种非周期成分音节模型建立、及语音合成的方法和设备 | |
Woods et al. | A robust ensemble model for spoken language recognition | |
EP4020464A1 (en) | Acoustic model learning device, voice synthesis device, method, and program | |
CA2991913C (en) | System and method for outlier identification to remove poor alignments in speech synthesis | |
Takaki et al. | Overview of NIT HMM-based speech synthesis system for Blizzard Challenge 2012 | |
JP3584002B2 (ja) | 音声認識装置および音声認識方法 | |
Rassam et al. | A Voice Morphing Model Based on the Gaussian Mixture Model and Generative Topographic Mapping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C56 | Change in the name or address of the patentee | ||
CP01 | Change in the name or title of a patent holder |
Address after: 261031 Dongfang Road, Weifang high tech Industrial Development Zone, Shandong, China, No. 268 Patentee after: Goertek Inc. Address before: 261031 Dongfang Road, Weifang high tech Industrial Development Zone, Shandong, China, No. 268 Patentee before: Goertek Inc. |