CN101000765B - 基于韵律特征的语音合成方法 - Google Patents

基于韵律特征的语音合成方法 Download PDF

Info

Publication number
CN101000765B
CN101000765B CN2007100716134A CN200710071613A CN101000765B CN 101000765 B CN101000765 B CN 101000765B CN 2007100716134 A CN2007100716134 A CN 2007100716134A CN 200710071613 A CN200710071613 A CN 200710071613A CN 101000765 B CN101000765 B CN 101000765B
Authority
CN
China
Prior art keywords
rhythm
syllable
phrase
primitive
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2007100716134A
Other languages
English (en)
Other versions
CN101000765A (zh
Inventor
张鹏
王丽红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Heilongjiang University
Original Assignee
Heilongjiang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Heilongjiang University filed Critical Heilongjiang University
Priority to CN2007100716134A priority Critical patent/CN101000765B/zh
Publication of CN101000765A publication Critical patent/CN101000765A/zh
Application granted granted Critical
Publication of CN101000765B publication Critical patent/CN101000765B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

本发明提供了一种能够丰富和改进韵律控制方法、进一步提高汉语语音合成自然度的基于韵律特征的语音合成方法。它包括以下计算机可实现的步骤:文本处理程序,合成基元选取程序和语音合成处理程序,文本处理程序包括文本规整步骤、韵律结构分析步骤和语言学处理步骤,合成基元选取程序包括确定基元步骤、匹配步骤、拼接步骤和优化筛选步骤,语音合成处理程序包括短语单元的基频轮廓生成步骤、音节单元的基频轮廓生成步骤和语调叠加步骤。本发明从汉语的语音特征、汉语的声调与特点和汉语的语调及模式出发,构筑套完整的基于韵律特征的语音合成方法,其中各步骤及模块均为计算机程序处理过程,通用性强,可移植性强,适用范围及场合广。

Description

基于韵律特征的语音合成方法
(一)技术领域
本发明涉及语音信号处理技术领域,具体涉及到语音合成技术中一种基于韵律特征的语音合成方法。
(二)背景技术
现有的汉语语音合成方法是以字为切分单位的单字式的字音转换,或是以语法词为切分单位的词组式的文语转换。事实上,人在说话时不是以字或语法词为切分单位,而是以韵律词为切分单位。前面两种语音合成方法会导致计算机及语音合成装置所输出的合成语音自然度相对较低,“机器味”太浓,好像是在“蹦字”发音,无法达到用户可以接受的程度,从而制约了这项技术大规模地进入市场。其原因是语音合成及其韵律控制存在以下几个方面的问题:①连续的合成语音的自然度有待进一步提高;②文本分析过程应当能够反映自然语音中韵律变化,来丰富合成语音的表现力;③语音合成的韵律控制过程应当符合自然语音的韵律规律。
而现有的语音合成技术中有关基元选取方法,一般是采用统计的基元选取方法或规则的基元选取方法。统计的基元选取方法适用于大范围的基元选取,而规则的基元选取方法适用于一些特殊情况下的基元选取。实践中发现,汉语的韵律模型及韵律控制极为复杂,基于一种方式的基元选取方法在目前的情况下根本无法满足语音合成对韵律特征及其韵律控制的要求。因为汉语的韵律是多变的,即使同一个句子也会由于不同的语境而产生不同的韵律组合。所以,必须寻求更好的方法,以适应多变的韵律变化。
(三)发明内容
本发明的目的在于提供一种能够丰富和改进韵律控制方法,进一步提高汉语合成语音自然度的基于韵律特征的语音合成方法。
本发明的目的是这样实现的:它包括以下计算机可实现的步骤:
文本处理程序,包括:
文本规整步骤,将输入的文本字符序列按照预先设置的特殊符号表转换成合法读音字符序列,输出合法读音字符序列送给韵律结构分析步骤;
韵律结构分析步骤,将接收到的合法读音字符序列送入韵律结构分析模块进行处理,根据预先设置的分词规则、韵律结构分析规则对合法读音字符序列标注韵律结构信息,输出标注了韵律结构信息的标注字符序列送给语言学处理步骤;
语言学处理步骤,将接收到的标注字符序列送入语言学处理模块进行处理,逐字按照预先设置的拼音表、韵律规则进行字音转换,将输入的汉字符映射为拼音码,将韵律结构信息标注映射为相应韵律信息,输出处理后的标注拼音码序列送给合成基元选取程序;
合成基元选取程序,包括:
确定基元步骤,将送入的标注拼音码序列作为目标序列送入统计模块进行处理,采用统计方法、根据索引从语音库中选出与目标序列对应的候选基元序列,并输出候选基元序列给匹配步骤;
匹配步骤,将确定基元步骤送出的候选基元序列送入韵律匹配代价基元选取模块,根据韵律匹配代价从语音库中选出与单个目标序列在韵律特征上匹配的候选基元,输出候选基元序列送给拼接步骤;
拼接步骤,将匹配步骤送出的候选基元序列送入韵律拼接代价基元选取模块,根据拼接代价判断相邻的候选基元在韵律特征上是否满足要求,从中选出满足拼接代价要求的候选基元,最后输出候选基元序列送给优化筛选步骤;
优化筛选步骤,将拼接步骤送出的候选基元序列送入韵律匹配代价与韵律拼接代价的基元选取模块,根据韵律匹配代价与韵律拼接代价找出在韵律特征上使匹配代价与韵律拼接代价最小的路径上的候选基元,最后输出优化筛选的基元序列送给语音合成处理程序;
语音合成处理程序,包括:
短语单元的基频轮廓生成步骤,将输入的标注拼音码序列从头至尾依次提取韵律信息,判断是否为短语信息;如果是,则作为短语命令送入给短语控制机构,同时根据这个短语韵律信息,从韵律模板库中索引出相应的短语单元韵律模板,生成并输出短语单元的基频轮廓曲线,并保留在缓冲区中;否则继续查找短语信息;以此类推,直至将整个标注拼音码序列搜索完毕,输出短语单元的基频轮廓曲线;
音节单元的基频轮廓生成步骤,将输入的标注拼音码序列从头至尾依次提取韵律信息,判断是否为音节信息;如果是,则作为音节命令输入给音节控制机构,同时根据这个音节韵律信息,从韵律模板库中索引出相应的音节单元韵律模板,生成并输出音节单元的基频轮廓曲线,并保留在缓冲区中;否则继续查找音节信息;以此类推,直至将整个标注拼音码序列搜索完毕,输出音节单元的基频轮廓曲线;
语调叠加步骤,将短语控制机构送出的短语单元的基频轮廓、音节控制机构送出的音节单元的基频轮廓和最小基频值Fmin,依照汉语语调模型、按序位、幅度大小和时间长短进行对数叠加;如果判断标注拼音码序列没有处理完毕,则返回继续执行;否则,生成并输出语调基频轮廓曲线给后续的信号处理步骤。
本发明还有这样一些技术特征:
1、所述的韵律结构分析模块包括以下几个子模块:
分词和词性标注子模块,用以对输入的合法读音字符序列根据预先设置的分词规则进行比较,将字符序列根据分词规则标注分词信息和词性信息,输出标注了分词信息和词性信息的字符序列送给韵律结构预测子模块;
韵律结构预测子模块,用以将送入的标注分词信息和词性信息的字符序列构建韵律结构预测树,并根据韵律结构预测树来确定韵律边界位置,对目标语句确定输出语句的韵律组块及其层级结构,输出标注韵律层次结构的标注字符序列给语言学处理步骤;
2、所述的韵律结构分析规则进一步包括以下几个处理步骤:
将语句中在句法上距离最近的语法词两两连接为韵律节点,构成韵律词;
再将在句法上距离最近的韵律词两两连接为更高一个层级的韵律节点,构成韵律短语;
重复连接构建直到在句法上仅有一个最高层级的节点,构成语调短语;
将同层的每两个相邻的节点之间划分为韵律边界或一个韵律停顿,则构建成为韵律结构预测树;
3、所述的语言学处理模块进一步包括以下几个子模块:
音变、变调分析子模块,用以将送入的标注字符序列进行音变现象分析,将每个词组的字符序列按照二字词、三字词和四字词分别与文本处理规则数据库中的音变、变调规则表进行匹配比对,如果完全匹配则进行相应的转换处理,将应发生音变或变调现象的字或音节标注为正确的音调,输出转换后的字符序列,否则输出原字符序列,输出的字符序列送给停顿分析子模块;
停顿分析子模块,用以将音变、变调分析模块送入的标注字符序列根据文本处理规则数据库中的停顿规则按照韵律边界的不同,从句首向句尾依次将字符序列中韵律边界标记与韵律词标记、韵律短语标记和语调短语标记进行匹配,如果满足其一就在其韵律边界标记处插入与韵律边界标记等价的停顿;否则字符序列保持不变并输出,输出的字符序列送给强调、重音分析子模块;
强调、重音分析子模块,用以将停顿分析子模块送入的标注字符序列根据常规重音分布规律标注重音位置,并按照韵律结构预测树韵律边界的不同标注重音位置,根据预先设置的韵律规则中的强调、重音规则修正停顿的时间长度或者韵律边界的字词的音高或时长,输出的字符序列送给字音转换子模块;
字音转换子模块,用以将强调、重音分析子模块送入的字符序列从句首向句尾依次将字符与文本处理数据库中的拼音表进行匹配,如果满足匹配要求就将该字符用与其对应的拼音码替代,直至将整个文本字符替代完毕,输出标注拼音码序列送给语音合成处理程序;
4、所述的强调、重音分析子模块中标注重音位置步骤又包括以下计算机可以实现的步骤:将得到的字符序列按照韵律结构预测树内部两个分叉之间的句法关系,以及常规重音分布规律,给每个二分叉韵律成分标注相对的重、轻地位;计算每个韵律词最后标注的重度指标,确定每个韵律词的重度;将各个韵律词的重度标注于字符序列上,输出标注后的字符序列;
5、所述的统计模块的处理过程为:
首先设置条件概率阈值,然后设置候选基元数量最大值M;
对于输入的目标基元序列以及与它对应的拼音码序列,从头至尾、逐一计算每个目标基元和它对应的拼音码基元在语音库中的条件概率;
判断如果其条件概率大于或等于预先设置的阈值时,则从语音库选出候选基元保留在缓存中,否则,继续在语音库中查找候选基元,然后重新计算下一目标基元条件概率;
当找到M个基元时就停止查找,否则对整个语音库进行查找;
以此类推,逐一将输入的目标基元查找完毕,输出保留在缓存中的候选基元序列并退出模块;
所述的韵律匹配代价基元选取模块的处理过程为:
首先,设置目标基元的候选基元数量最大值M,调入一个目标基元p维韵律特征参数向量的p值;
将输入的标注了韵律特征参数的拼音码序列从头至尾、逐一计算每个基元的p维韵律特征参数向量与语音库中每个基元的p维韵律特征参数向量之差的加权和,直到将整个语音库中搜索完毕,从中选出加权和最小的前M个候选基元保留在缓存中;
以此类推,直至将整个输入的文本搜索计算完毕,输出保留在缓存中的候选基元并退出模块;
所述的韵律拼接代价基元选取模块的处理过程为:
首先,设置候选基元数量最大值M,然后设置候选基元的p维韵律特征参数向量的p值大小;
按照输入的拼音码序列的顺序从头至尾、逐一计算每个候选基元的p维韵律特征参数向量与它前一个候选基元的p维韵律特征参数向量之差的加权和,从中选出加权和最小的基元保留在缓存中;
以此类推,直至将整个输入文本序列搜索计算完毕,输出保留在缓存中的基元并退出模块;
所述的韵律匹配代价与韵律拼接代价的基元选取模块的处理过程为:
首先设置候选基元数量最大值M,然后设置候选基元的p维韵律特征参数向量的p值大小;
按照输入的拼音码序列的顺序从头至尾、逐一计算每个候选基元的p维韵律特征参数向量的匹配代价和拼接代价的加权和,保留在缓存中;
以此类推,直至将整个输入文本搜索计算完毕,从满足条件的候选基元中优化筛选出使加权和最小的路径上的候选基元作为最后优化筛选的基元输出。
6、所述的基频轮廓曲线,其数学表达式如下:
ln F 0 ( t ) = ln F min + Σ i = 1 I A pi G pi ( t - T 0 i ) + Σ j = 1 J A aj [ G aj ( t - T 1 j ) - G aj ( t - T 2 j ) ]
G pi = R i 2 texp ( - R i t ) , t &GreaterEqual; 0 0 , t < 0
G pi ( m ) ( t ) = G pi ( 1 ) ( t ) , G pi ( 2 ) ( t ) &CenterDot; &CenterDot; &CenterDot; G pi ( M ) ( t ) , m = 1,2 , &CenterDot; &CenterDot; &CenterDot; M
G aj = Min [ 1 - ( 1 + B j t ) exp ( - B j t ) , &theta; j ] , t &GreaterEqual; 0 0 , t < 0
G aj ( n ) ( t ) = G aj ( 1 ) ( t ) , G aj ( 2 ) ( t ) &CenterDot; &CenterDot; &CenterDot; G aj ( N ) ( t ) , n = 1,2 , &CenterDot; &CenterDot; &CenterDot; N
其中:
Fmin:句子的基频最小值;
i:短语的数目;Ri:第i个短语衰减系数,经验值为3/s;T0i:第i个短语控制命令发生的时间;Api第i个短语控制命令的幅度;
j:音节或韵律词的数目;Aaj:第j个音节控制命令的幅度:T1j:第j个音节控制命令开始的时间;T2j:第j个音节控制命令结束的时间;Bj:第j个音节控制命令在音节控制机构下的固有角度值,经验值为20/s;θj:第j个音节控制命令的音节成分的最大允许值,经验值为0.9;Gqj (m)代表不同的音节调型。
7、所述的模型参数由计算机程序自动生成,算法的第一步的是确定短语命令参数和基频最小值Fmin,然后,由基步最小值Fmin和短语参数模拟出准确的F0曲线,短语单元的参数优化好后,再计算音节单元的参数;单独的韵律词从左到右处理,对每个韵律词都做局部的基顿曲线模拟。
其中,所述的预先设置的分词规则为:将输入文本的合法读音字符序列从句首向句尾、逐字假设分割点形成词,从当前字向后进行最大词匹配处理确定词边界;而本发明将汉语的韵律结构主要分为由底到高的三个基本层级:韵律词、韵律短语和语调短语,并且它们之间的关系在韵律上是按照树状的层级结构、有序地排列。一个语调短语包括一个或一个以上的韵律短语,一个韵律短语包括一个或一个以上的韵律词,一个韵律词包括一个或一个以上的语法词。
而基元选取步骤中所述的韵律匹配代价为在预先设置的语音库中当前候选基元的韵律特征向量与其目标基元韵律特征向量之差的加权和,其中的权值满足归一化条件;韵律拼接代价为任意两个候选基元韵律拼接代价为当的候选基元的韵律特征向量与其相邻的前一个候选基元韵律特征向量之差的加权和,其中的权值满足归一化条件;而韵律匹配代价与韵律拼接代价的加权和最小路径的步骤为Viterbi寻优算法;优化筛选也可以为Viterbi寻优算法。
计算机对键入的特定文本信息分析并转换成含有韵律结构信息的发音符号序列,根据韵律规则划分的短语和词语结构,标注语句的短语位置和个数、各短语强度、音节个数、音节调号属性、音节清/浊音长度、音节调域幅度和整句基调值等参数;用人工和参数优化算法调节并定量提取有关控制参量,按模型分层综合,计算出成句基频轮廓数据;然后,根据基频输出值和对应的时长参数,最后采用PSOA方法对音库中各音节波形韵律进行调整,拼接合成连续语音。
本发明的有益优点有:
(1)采用韵律分层技术对要合成的句子文本进行有效的韵律切分,合成的声音更加自然、流畅;
(2)采用韵律分层技术可以更好地反映韵律变化复杂多变的要求,符合自然语音的韵律要求。
(3)采用韵律分层技术,为以后的语音基元选取提供了方便;
(4)采用韵律分层技术可以简化后期语音合成的韵律控制;
(5)提出了基于韵律特征的汉语语音合成基元的选取方法,为语音合成系统提供了更加优化的候选基元;
(6)将韵律特征作为基元选取的重要指标,符合自然语音的韵律要求,同时降低了后期的语音合成韵律控制的难度;
(7)将基于统计的基元选取方法和韵律特征基元选取方法相结合,可以更好地满足韵律变化复杂多变的要求;
(8)从输入文本的标注拼音码序列中得到短语和音节的韵律信息,来生成语调基频轮廓音符合自然语音的韵律结构要求;
(9)将短语单元的基频轮廓和音节单元的基频轮廓分别处理可以准确地确定短语单元、音节单元的时间序位;
(10)采用短语单元韵律模板和音节单元韵律模板可以简化短语单元、音节单元的基频轮廓的生成过程。同时,可以更好地反映韵律变化复杂多变的要求;
(11)将短语控制机构和音节单元控制机构看作衰减的二阶振荡系统,符合人发音器官的生理特性。
汉语不同于其它西方语系,表现在语法结构、语法规则、声学特性、韵律结构等多个方面。首先,汉语是一字一音,即单音节字;其次,汉语是声调语言,声调具有辨义作用,每个字都有固定的音调(基频形状)。而且,字与字之间的音调前后彼此互相影响会发生变异,甚至失去了原有的调型,即出现协同发音现象(音变现象)。同时,连续语句的发音中间还会有短暂的停顿。每个人说话都有一个基本频率,称作基频,它体现了说话人的音调高低,此外,人们说话还有声音大小的区别等等。在汉语的文语转换(TTS)系统中,对语音基频、时长、幅度等韵律信息的预测、分析和控制称作韵律控制。针对这种情况,发明人从汉语的语音特征出发,研究汉语的声调与特点、汉语的语调及模式,构筑了一套基于韵律特征的语音合成方法。
语音识别和语音合成技术是实现人机语音交互的两项关键技术,它能使电脑象人一样具有“能说会听”的能力,是现代信息产业的重要竞争市场。研究语音合成技术的目的是制造一种会说话的机器,将文本信息转换成为语音。而本发明通过对汉语韵律结构以及汉语语音合成韵律控制方法的研究,揭示了汉语的韵律结构与韵律规则和模型之间的内在联系,丰富和改进了韵律控制方法,进一步提高了汉语语音合成的自然度。本发明对汉语的分析处理方法合理实用,其中各步骤及模块均为计算机程序处理过程,通用性强,可移植性强,适用范围及场合广,是新一代的语音合成处理技术。
(四)附图说明
图1为文语转换系统示意图;
图2为文本处理框图;
图3为文本处理流程图;
图4为汉语的韵律层级结构示意图;
图5为韵律结构预测树示意图;
图6为基于韵律特征的语音合成基元选取方法框图;
图7为统计方法的基元选取流程图;
图8为匹配代价方法的基元选取流程图;
图9为拼接代价方法的基元选取流程图
图10为匹配代价与拼接代价基元选取方法路径示意图;
图11为汉语语调基频轮廓生成模型框图;
图12为汉语语调基频轮廓生成框图;
图13为汉语语调基频轮廓生成流程图;
图14为衰减特性的短语基频曲线;
图15为上扬特性的音节基频曲线;
图16为韵律特征控制流程图;
图17为本发明实施例的计算机硬件系统框图。
(五)具体实施方式
下面结合附图和具体实施例对本发明作进一步的详细说明:
结合图1,本发明包括以下计算机可实现的步骤:
文本处理程序,包括:
文本规整步骤,将输入的文本字符序列按照预先设置的特殊符号表转换成合法读音字符序列,输出合法读音字符序列送给韵律结构分析步骤;
韵律结构分析步骤,将接收到的合法读音字符序列送入韵律结构分析模块进行处理,根据预先设置的分词规则、韵律结构分析规则对合法读音字符序列标注韵律结构信息,输出标注了韵律结构信息的标注字符序列送给语言学处理步骤;
语言学处理步骤,将接收到的标注字符序列送入语言学处理模块进行处理,逐字按照预先设置的拼音表、韵律规则进行字音转换,将输入的汉字符映射为拼音码,将韵律结构信息标注映射为相应韵律信息,输出处理后的标注拼音码序列送给合成基元选取程序;
合成基元选取程序,包括:
确定基元步骤,将送入的标注拼音码序列作为目标序列送入统计模块进行处理,采用统计方法、根据索引从语音库中选出与目标序列对应的候选基元序列,并输出候选基元序列给匹配步骤;
匹配步骤,将确定基元步骤送出的候选基元序列送入韵律匹配代价基元选取模块,根据韵律匹配代价从语音库中选出与单个目标序列在韵律特征上匹配的候选基元,输出候选基元序列送给拼接步骤;
拼接步骤,将匹配步骤送出的候选基元序列送入韵律拼接代价基元选取模块,根据拼接代价判断相邻的候选基元在韵律特征上是否满足要求,从中选出满足拼接代价要求的候选基元,最后输出候选基元序列送给优化筛选步骤;
优化筛选步骤,将拼接步骤送出的候选基元序列送入韵律匹配代价与韵律拼接代价的基元选取模块,根据韵律匹配代价与韵律拼接代价找出在韵律特征上使匹配代价与韵律拼接代价最小的路径上的候选基元,最后输出优化筛选的基元序列送给语音合成处理程序;
语音合成处理程序,包括:
短语单元的基频轮廓生成步骤,将输入的标注拼音码序列从头至尾依次提取韵律信息,判断是否为短语信息;如果是,则作为短语命令送入给短语控制机构,同时根据这个短语韵律信息,从韵律模板库中索引出相应的短语单元韵律模板,生成并输出短语单元的基频轮廓曲线,并保留在缓冲区中;否则继续查找短语信息;以此类推,直至将整个标注拼音码序列搜索完毕,输出短语单元的基频轮廓曲线;
音节单元的基频轮廓生成步骤,将输入的标注拼音码序列从头至尾依次提取韵律信息,判断是否为音节信息;如果是,则作为音节命令输入给音节控制机构,同时根据这个音节韵律信息,从韵律模板库中索引出相应的音节单元韵律模板,生成并输出音节单元的基频轮廓曲线,并保留在缓冲区中;否则继续查找音节信息;以此类推,直至将整个标注拼音码序列搜索完毕,输出音节单元的基频轮廓曲线;
语调叠加步骤,将短语控制机构送出的短语单元的基频轮廓、音节控制机构送出的音节单元的基频轮廓和基频最小值Fmin,依照汉语语调模型、按序位、幅度大小和时间长短进行对数叠加;如果判断标注拼音码序列没有处理完毕,则返回继续执行;否则,生成并输出语调基频轮廓曲线给后续的信号处理步骤。
实施例中各步骤及模块、子模块均由计算机程序实现。
同行,程序中语音库及韵律模板库的构建采用常规的方法即可,与一般建立数据库的方法相同,这里就不细举。本发明在综合考虑各种因素之后,选择汉语中的最小听辨单位—音节作为语音合成的基元,并将语音库中的一个音节存储多个样本,各个样本的轻重音及基频曲线也各不相同。
实施例:
1、文本处理程序
1.1、文本规整
结合图2-5,本发明对于输入的文本,通过文本规整步骤进行处理,目的是将输入文本中如日期、数字、天气预报、门牌号等一些带有特殊符号的信息,根据正确读法对输入文本进行标注;例如:日期“2000-12-12”标注为“2000年12月12日”,“晚间最低气温-12℃”标注为“晚间最低气温零下12度”,等等。文本规整装置的输出是合法读音字符序列,如表1所示。
表1  特殊符号与输入文本的关系
字符类型 输入字符格式 特殊符号读法   合法读音的字符序列
  日期   2000-12-12   第一个“-”读作“年”   第二个“-”读作“月”   2000年12月12日
温度 -12℃   “+”读作“零上”,“-”读作“零下” “℃”读作“度” 零下12度”
首先,对输入文本字符逐字进行判断,当文本字符是合法字符时则正常输出,而当文本字符是非法字符时进入特殊符号处理过程。特殊符号处理过程中,首先判断文本字符是否为日期格式,是则进行日期格式的读音转换,并输出转换后合法读音字符序列;否则继续判断是否为温度格式,是则进行温度格式的读音转换,并输出转换后合法读音字符序列;否则进行下一步,判断是否为其他特殊字符,以此类推,直至将整个文本字符序列处理完毕。
1.2、韵律结构分析
韵律结构分析步骤是将文本借助于如“韵律结构树CART的方法”等方法进行语义分析、或韵律结构分析,目的是将一个文本按照语法规则和韵律结构分析规则切分成较小的单位,这有利于确定文本的韵律结构。如果按照语义规则对文本进行切分,则切分的最小单位是语法词和韵律词;如果是按照韵律结构对文本进行切分,则切分的最小单位是韵律词。韵律结构分析步骤的输出是标注的字符序列。
在做韵律结构分析步骤以前,应预先建立文本处理规则数据库。文本处理规则数据库包括特殊符号表、分词规则及词典、韵律结构分析规则、韵律规则和拼音表,其中特殊符号表是文本中一些特殊符号与其在文本中正确读法的映射规定;分词规则是字与语法词之间的映射规定;韵律结构分析规则是将语法词按照韵律层级结构合并成韵律词的规定;韵律规则包括音变、变调规则,停顿规则,强调、重音规则,分别解决文本中字与字之间的音变现象,韵律成分之间的停顿,以及语义焦点重音的规定;拼音表是文本中每个文字转换成与其对应的拼音码的映射规定。建库的方法与一般建立数据库的方法相同,这里就不一一细举。
其中标注分词信息步骤为根据分词规则对输入文本进行分词和词性标注,利用分词和词性信息查找韵律分析规则实现分词;而韵律结构预测模块是在对目标语句完成句法切分和句法标注的基础上,结合最初的韵律组词构建韵律结构预测树,借此预测韵律边界位置,确定输出语句的韵律组块及其层级结构。
分词方法是采用正向最大匹配法,即从句首向句尾逐字假设分割点形成词,在确定了词边界后从当前字向后按最大词匹配,把句子分成词或词组序列。与本分词法相匹配建立了分词词库,词库中包括二字词、三字词和四字词。最大匹配是指按最大匹配后确定不可以再分的字符序列的原则,如语句“晚间最低气温零下十度。”经上述正向最大匹配法匹配的过程如表2所示:
表2  分词举例
  步骤   比较   分词结果
  1   晚间   “晚间”是词
  2   晚间最   “晚间最”、“间最”不是饲,确定“最”不是词。
  3   最低   “最低”是词
  4   最低气   “最低气”、“低气”不是词,确定“气”不是词
  5   气温   “气温”是词
  6   气温零   “气温零”、“温零”不是词,确定“零”
  7   零下   “零下”是词
  8   零下十   “零下十”、“下十”不是词,确定“十”不是词
  9   十度   “度”不是词,确定“十度”是词
  分词的最后结果   晚间/最低/气温/零下/十度/
结合图4可以概括出这样几个韵律结构特点:
(1)一个语调短语包含了一个或一个以上的韵律短语;一个韵律短语包含了若干个韵律词;而一个韵律词也可以包含了一个或一个以上的语法词;
(2)两个语法词在同一个韵律词内部;
(3)两个语法词在不同的韵律词内,但在同一个韵律短语内;
(4)两个语法词不在同一个韵律短语内。
本发明将汉语的韵律结构主要分为由底到高的三个基本层级:韵律词、韵律短语和语调短语,并且它们之间的关系在韵律上是按照树状的层级结构、有序地排列。
利用从文本分析获得的句法信息和词性信息,再根据已经认识的有关韵律与句法之间的某种相关性,可以预测合成话语的总体韵律结构框架,包括停顿的位置分布和等级的确定,以及重音的位置分布和等级的确定。这种预测的实质,就是首先给每个语法(词)边界确立韵律地位,然后给每个韵律词确立重音地位。因此,韵律组词是预测的关键。
综合上面的分析结果,利用韵律预测树可以实现韵律结构的预测,具体方法如下:
(1)基本步骤
首先,借助韵律结构分析模块对输入文本的句子进行分词和词性标注,利用分词和词性信息,查找韵律结构分析规则实现韵律组词;然后,在输入文本句子完成句法切分和句法标注的基础上,结合最初的韵律组词构建韵律结构预测树;藉此预测韵律边界位置,确定输出语句的韵律组块及其层级结构。
(2)预测树的构建方法
预测树的构建综合利用了文本分析时得到的句法、词性和韵律组词信息。它的上半部是个倒置的二分叉树,通常汉语语音在韵律组词上有偶分的倾向。首先把语句中在句法上距离最近的韵律词两两连接为节点,然后再依此法建立更高层级的韵律节点,同层级中的每个节点都代表了它所对应的两个下位树权之间的一个韵律停顿或韵律边界。这样,自低层向高层总会找到根节点,从而构建韵律结构树。基于这种二分叉结构,可以实现对一个句子韵律层级的预测,即:越是接近根部的节点,它所代表的停顿级别越高,韵律边界也就越强。
因此,所述的韵律结构分析规则进一步包括以下几个处理步骤:
(1)、将语句中在句法上距离最近的语法词两两连接为韵律节点,构成韵律词;
(2)、再将在句法上距离最近的韵律词两两连接为更高一个层级的韵律节点,构成韵律短语;
(3)、重复连接构建直到在句法上仅有一个最高层级的节点,构成语调短语;
(4)、将同层的每两个相邻的节点之间划分为韵律边界或一个韵律停顿,则构建成为韵律结构预测树。
1.3、语言学处理
语言学处理模块又包括音变、变调分析子模块、停顿分析子模块、强调、重音分析子模块和字音转换子模块,其中音变、变调分析子模块是将输入文本进行音变现象分析。汉语的每个音节在单独发音时,都有自己稳定的静态声调。然而在连续语流中,由于每个音节都会受到它前后音节的影响,使得它原有的单字声调发生变异,成为“动态声调”,我们把这种现象称之为协同发音现象,也叫“音变”现象。其变化的情况可以分为:发生“部分变调”;或发生“全部变调”,即失去原有的单字调值;或发生声调融合,即与别的声调连成一体。例如,“重量(zhong4liang4)”和“重庆(chong2qing4)”,同一个“重”字在不同的两个词组里发音已经完全不相同;再如“爸爸(ba1ba4)”,第一个“爸”的发音已经变为阳平(1声)。
声调的变化与字(音节)所在的词组及它在词组中的位置有关。比如某个音节声调在字词、三字词和四字词以及在词中的位置不同,变化也不尽相同。动态声调和静态声调直接有内在的联系性和对应性。二字词在汉语中占的比例最高,约为74.3%,是最常用的基本语言单位,也是构成三字词和四字词一部分。
音变、变调处理过程采用音变匹配法,即将每个词组字符序列中的二字词、三字词和四字词分别与文本处理规则数据库音变、变调规则表中的二字词、三字词和四字词进行匹配比对,如果完全匹配则进行相应的转换处理,否则原字符序列保持不变。
表3  变调规则表
双音节词的变调规则   (1)上声+上声→阳平+上声;
  (2)上声+其它声调,平上+其它声调(不变)
  三音节词变调规则   (1)阴平+阳平+阴平(或阳平、去声)→阳平+阴平+阴平(或阳平、去声);
  (2)阴平+阳平+上声→阴平+去声+上声;
  (3)阳平+阳平+阴平(或去声)→阳平+阴平+阴平(或去声);
  (4)阳平+阳平+阳平(或上声)→阳平+去声+阳平(或上声);
  (5)上声+上声+阴平(或阳平、上声、去声)→阳平+半上+阴平(或阳平、上声、去声);
  (6)去声+去声+其它~去声(53)+去声(31)+其它;
轻声调型规则   (1)阴平+轻声,轻声取41降调,例如“他的”;
  (2)阳平+轻声,轻声取51降调,例如“得了”;
  (3)上声+轻声,轻声取高平调44,例如“好的”;
  (4)去声+轻声,轻声取21降调,例如“对的”;
音节词变调规则   以双音节变调规律为基础,例如可以将前两个音节和后两个音节分别当作双音节词变调。
停顿分析子模块是将送入的字符序列根据韵律规则中的停顿规则,按照韵律边界的不同,插入适当时间长度的停顿(无声段)。其处理过程采用韵律边界匹配法,即从句首向句尾依次将字符序列中韵律边界标记与韵律词标记、韵律短语标记和语调短语标记进行匹配,如果满足其一就将其韵律边界标记处插入与韵律边界等价的停顿。否则,字符序列保持不变。其停顿等级包括:一级停顿、二级停顿、三级停顿和四级停顿,其适用范围如表3和表4所示。
表4  停顿与停顿位置、时间间隔列表
  停顿等级   停顿位置   插入形式的   时间间隔
  一级停顿   语调短语边界   插入   0.125秒~0.6秒
  二级停顿   韵律短语边界   插入   0.05秒~0.1秒
  三级停顿   韵律词组边界   插入   0.0375秒
  四级停顿   韵律词边界   插入   0.0157秒
强调、重音分析子模块是根据韵律规则中的强调、重音规则,将停顿分析模块的输出字符序列中按照韵律边界不同和重音的位置修正停顿(无声段)的时间长度或者韵律边界的字词的音高或时长,其适用范围如表4所示。
强调、重音分析子模块的处理过程采用强调、重音匹配法,即:从句首向句尾依次将字符序列中强调、重音标记与强调、重音标记表进行匹配,如果满足其一就在其标记处插入相应的强调、重音标注等级或词组提高基频、时长。
本发明中语句重音等级的预测借助于韵律预测树实现,利用多重二分叉韵律预测树,根据韵律组块内部两个分叉之间句法关系,以及常规重音分布规律,给每个二分叉韵律成分赋予相对的轻/重地位;计算每个韵律词最后负载的重度指标,确定每个韵律词的重度;根据各个韵律词的重度,输出标注重度信息的字符序列。
表5  重音的区别特征表
Figure S07171613420070122D000141
注:“+”表示增大,“-”表示减小。
字音转换子模块是将输入文本按照拼音表转换成标注了韵律信息的拼音码序列。处理过程为:从句首向句尾依次将文本字符与文本处理规则数据库中的拼音表进行匹配,如果满足匹配条件则将该字符用与其对应的拼音码替代,直至将整个文本字符替代完毕。输出转换后的拼音码序列给语音合成处理程序。
而后的语音合成处理就可以采用通用的语音合成方法,如采用Viterbi等寻优算法实现合成基元选取,再采用PSOLA技术的波形拼接算法进行语音合成,即可输出自然度很高的自然语音。
下面对从文本到语音合成韵律标注的映射举例说明:
例如:
·文本:他们的关系本来就一向很不好。
·分词标注后的结果:
(名—形(名代{的}—名(名{的}他们的)关系)(副—形本来(副—形就(副—形一向(副—形(程副一副很不)好)))))
·韵律标注后的结果:
<sentence><w>他们<w/><w>的</w><w>关系</w><breaktime=400/><w>本来<w/><w>就</w><w>一向</w><w emp=1>很</w><w>不好</w></sentence>
·拼音码标注的结果:
<sentence><w>/r{talmen5}<w/><w>/u{de5}<w/><w>/n{guanlxi4}<w/><breaktime=300/><w>/d{ben3lai2}<w/><w>/d{jiu4}<w/><w>/d{yilxiang4}<w/><w emp=1><w>/d{hen3}<w/><w>/a{bu4hao3}/</w></sentence>
其中,韵律标注符号见表6。
表6  韵律标注符号
  标识名称 句式结构   用途与说明
  句子标识 <sentence>...</sentence>   ...表示为句子
  字词标识 <w>...</w>   ...表示为字词
  读法标识 <say-as type=“number”>XIII</say-as>   罗马字读法
<say-as type=“digits”>123</say-as>   数字读法
  <say-as type=“date:ymd”>2004/5/1</say-as>   日期读法
  <say-as type=“currency”>$23.89</say-as>   货币读法
  <say-as type=“net:email”>123@sina.com</say-as>   网址读法
  <say-as sub=“第五页”>P5</say-as>   页码读法
  
Figure 071716134_0
  
Figure 071716134_1
  语气标识   <sentence>...</sentence>   陈述句语气
  <sentence mode=question>...</sentence>   疑问句语气
  <sentence mode=ejaculatory>...</sentence>   感叹句语气
  停顿标识   <break time=x/>   x代表时间,单位为毫秒
发音基元标识 <w emp=x>...</w>   x=-1或0或1,分别代表字的发音为轻读、正常读和重读。
2、合成基元选取程序
2.1、基于统计方法的基元选取
结合图6-10,从Bayes原则出发,自然语音被看作一个随机序列。语流中的每一个语音基元都是一个具有一定分布的随机变量。在基于大的语音库的TTS系统中,语音合成的主要思想是在已知文本序列W=(w1,w2...,wj,...wn)的条件下,求出概率最大的语音基元序列V=(v1,v2...,vj,...vn),以达到高自然度、高表现力的要求。对于文本序列W=(w1,w2...,wj,...wn)中的某个目标基元wj,在语音库中可能有多个候选的语音基元,记为(vj,1,vj,2...,vj,k,...vj,m),其中定义Vj,c为选出的候选基元,vj,k为wj对应的第k个候选语音基元,m为其候选基元的个数。基于统计方法的基元选取可以描述为:
V j , c = arg max p P ( v j , k | w j ) = arg max p P ( w j | v j , k ) P ( v j , k ) , ( 1 &le; k &le; m ) - - - ( 1 )
由上式可知,基于统计方法的基元选取需要完成二项工作内容:一是计算P(wm|vm,k),基于统计的方法就是建立含有大量数据的语音库,对其进行标注,建立选音模型;二是建立韵律模型,即计算P(vm,k)。
统计方法的基元选取模块的输入是输入文本及它的拼音码序列。设置概率阈值的目的,是为了从语音库中能够选出合适的基元。这个概率阈值的大小是根据概率最大生成准则或概率最小生成准则来确定。概率最大生成准则是指条件概率阈值比较大,只有语音库中某个基元的条件概率大于或等于这个阈值时才可以作为候选基元,这样在语音库中只能选出较少的候选基元来参加优化筛选。概率最小生成准则是指条件概率阈值比较小,只要语音库中某个基元的条件概率大于或等于这个阈值就可以作为候选基元。这样,在语音库中就可以选出更多的候选基元来参加优化筛选。候选基元是指经过筛选出的、但还要参加优化筛选的基元。优化筛选是从候选基元中再筛选出满足韵律特征要求、唯一的基元。概率阈值大小可根据优化筛选的实际效果来确定。
设置候选基元数量最大值是为了当候选基元数量较多时,使被选出的候选基元数量不能超过这个最大值,通过限定候选基元的数量来加快优化筛选候选基元的速度。例如只有满足条件概率阈值的前M个基元可以参加以后的优化筛选。M的大小可根据优化筛选时所期望的计算速度来确定,也可对M的大小不加限制。
统计方法的基元选取模块的处理过程是:首先设置条件概率阈值,然后设置候选基元数量最大值M。接下来,对于输入的文本序列以及与它对应的拼音码序列,从句首向句尾逐一计算每个目标基元在语音库中的条件概率,如果其条件概率满足阈值要求则保留在缓存中,否则继续在语音库中查找;当找到第M个基元时就停止查找,否则将整个语音库搜索完毕。这样,一个目标基元可以在语音库中选出若干个基元,其数量等于M个或小于M个。以此类推,直至将整个输入的文本序列查找完毕。统计方法的基元选取模块的输出是经过统计方法筛选出的若干基元组序列。
优化筛选可以直接采用Viterbi等寻优算法来实现,也可以利用后面韵律匹配代价和韵律拼接代价的方法来实现。
2.2、基于韵律匹配代价的基元的选取
汉语中由于语音的音联现象,相邻音节、词汇之间在韵律特征和声学特性上相互影响。基元的匹配代价反映了当前候选基元的韵律特征与目标基元韵律特征之间的匹程度,对于已知的一个文本序列W=(w1,w2...,wj,...wn),拟选定的对应的语音序列为V=(v1,v2...,vj,...vn);其中j为语音基元序号,n为文本序列中目标基元的数量。对于文本序列W=(w1,w2...,wj,...wn)中的某个目标基元wj,在语音库中可能有多个候选的语音基元,记为(vj,1,vj,2...,vj,k,...vj,m),其中定义vj,k为wj对应的第k个候选语音基元,m为其候选基元的个数。语音库中的每个候选语音基元,都可以用个p维的韵律特征参数向量 D &RightArrow; k = ( d k 1 &CenterDot; &CenterDot; &CenterDot; , d k i , &CenterDot; &CenterDot; &CenterDot; d k p ) 来描述,其中p为韵律特征参数的个数,k为当前候选基元的序号,则dk i表示为第k个候选基元的第i个韵律特征参数。对于待合成的目标基元,通过文本分析和韵律建模等,可以得到它的目标韵律特征向量 D &RightArrow; = ( d 1 &CenterDot; &CenterDot; &CenterDot; , d i , &CenterDot; &CenterDot; &CenterDot; d p ) . 我们定义韵律匹配代价为当前候选基元的韵律特征向量与其目标基元的韵律特征向量之差的加权和,即:
D u = arg min D u ( D &RightArrow; , D &RightArrow; k ) = arg min &Sigma; i = 1 p &omega; u i | d i - d k i | - - - ( 2 )
其中ωui为韵律匹配权系数,并月满足归一化条件 &Sigma; i = 1 p &omega; u i = 1 , ( &omega; u i &GreaterEqual; 0 ) . 所以基元选取时,只要根据目标韵律特征向量
Figure S07171613420070122D000172
从语音库中选择合适的样本,使其韵律特征向量
Figure S07171613420070122D000173
和其目标韵律特征向量
Figure S07171613420070122D000174
达到最接近即可。
因此,基元的选取必须解决两个关键的问题:①语音韵律特征参数选择;②根据韵律参数之间的关系和各参数对整体韵律特征的影响,设置或训练权重向量。
韵律匹配代价基元选取模块的处理过程是:首先,设置目标基元的候选基元数量最大值M,然后调入一个目标基元p维韵律特征参数向量的p值。接下来,对于输入的标注了韵律特征参数的拼音码序列,从头至尾、逐一计算每个目标基元的p维韵律特征参数向量与语音库中每个语音基元的p维韵律特征参数向量之差的加权和,直到将整个语音库搜索完毕,从中选出加权和最小的前M个候选基元保留在缓存中。以此类推,直至将整个输入的文本序列搜索完毕。
2.3、基于韵律拼接代价的基元的选取
通常,将所有经过匹配代价单独筛选出的最优基元直接拼接在一起,得到的最终合成语句并不一定是最优的。因为,匹配代价只是考虑单个候选基元与它所对应的目标基元之间在韵律特征上的匹配程度,而没有更多地考虑音节与音节之间的拼接匹配程度对合成语句自然度的显著影响,也就是说单个筛选出的最优基元并不一定是全局最优的基元。
拼接代价反映了前后语音基元的韵律连续性的匹配程度。对于合成语音来说,每个候选基元,都可以用一个p维的韵律特征参数向量 D &RightArrow; j = ( d j 1 &CenterDot; &CenterDot; &CenterDot; , d j i , &CenterDot; &CenterDot; &CenterDot; d j p ) 来描述,而它的前一个候选基元的韵律特征参数为 D &RightArrow; j - 1 = ( d j - 1 1 &CenterDot; &CenterDot; &CenterDot; , d j - 1 i , &CenterDot; &CenterDot; &CenterDot; d j - 1 p ) . 为了保证语音合成基元之间的谱过渡更加自然,我们定义任意两个候选基元韵律拼接代价为当前候选基元的韵律特征向量与其相邻的前一个候选基元韵律特征向最之差的加权和,即:
D c = arg min D c ( D &RightArrow; j , D &RightArrow; j - 1 ) = arg min &Sigma; i = 1 p &omega; c i | d j i - 1 d j - 1 i | - - - ( 3 )
其中ωci为韵律拼接权系数,并月满足归一化条件 &Sigma; i = 1 p &omega; c i = 1 , ( &omega; c i &GreaterEqual; 0 ) . 所以在保证候选基元与目标基元之间匹配距离一定的情况下,使当前候选基元的韵律特征与它相邻的前一个候选基元的韵律特征参数之间的拼接距离最小即可。
韵律拼接代价基元选取模块的处理过程是:首先,设置候选基元数量最大值M,然后设置候选基元的p维韵律特征参数向量的p值大小。接下来,按照输入的拼音码序列的顺序,从头至尾、逐一计算每个候选基元的p维韵律特征参数向量与它前一个候选基元的p维韵律特征参数向量之差的加权和,从中选出加权和最小的候选基元保留在缓存中。以此类推,直至将整个输入文本序列搜索完毕。
2.4、基于韵律匹配代价与韵律拼接代价的基元的选取
同样,我们可以将韵律匹配代价与韵律拼接代价进行综合考虑,使得候选的语音基元在能够从两个方面来逼近目标的韵律特征。对于一个已知的文本序列,可以找到一个与之对应的最优的语音基元序列,即从语料库中筛选出使下式达到最小的路径上的语音基元:
D = arg min [ &omega; u &Sigma; j = 1 n D uj + &omega; c &Sigma; j = 2 n D cj ] - - - ( 4 )
这样可以保证候选基元在韵律特征和谱过渡两个方面都能满足一个完整句子对自然度的要求。不同的权重可以导致不同特征重要性的相对变化,比如在基元选取时,可以允许基频特征比时长特征发挥更大的作用。另外,权重可以为零,这样就可以在基元选取时忽略某一特征的影响。与此同时,匹配代价的权重也不同于拼接代价的权重。
韵律匹配代价与韵律拼接代价的基元选取模块的处理过程是:首先,设置候选基元数量最大值M,然后设置候选基元的p维韵律特征参数向量的p值大小。接下来,按照输入的拼音码序列的顺序,从头至尾、逐一计算每个候选基元的p维韵律特征参数向量的匹配代价和拼接代价的加权和,并保留在缓存中。以此类推,直至将整个输入文本序列搜索完毕,从中选出使加权和最小的路径上的候选基元作为最后优化筛选的基元。
3、语音合成处理程序
3.1、汉语的语调模型
结合图11-16,一个发音自然、完整的语句主要表现在三个方面:一是句子的调型,主要体现在句子的基频上,即句子的音高曲线;二是韵律短语和韵律词在句子中的具体位置,因为它们反映了整个句子的韵律特征属性变化;三是句子的重音和停顿位置,重音能凸显和强调整个句子的语义中心,停顿反映了句子的韵律节奏;在这三个方面,句子的基频曲线尤为重要,它反映了整个句子韵律变化最显著的特征以及整个句子基频曲线轮廓的变化的趋势。
可以把一个句子的F0基频轮廓曲线看作是短语单元的基频轮廓曲线、音节单元的基频轮廓曲线和基频最小值Fmin的叠加,基频轮廓用对数坐标表示。其中短语单元的基频轮廓曲线反映了句子全局的基频轮廓变化,音节单元的基频轮廓曲线反映了音节或韵律词的局部基频轮廓变化,而基频最小值Fmin代表了使人声带振动发小声音的最低频率。短语单元和音节单元分别属于短语控制机构和音节控制机构,两个控制机构类似于衰减的二阶振荡系统。短语控制机构的输入是短语命令,输出是短语单元的基频轮廓;而音节控制机构的输入是音节命令,输出是音节单元的基频轮廓。短语命令可以用一个冲击函数宋描述,音节命令可以用一个阶跃函数来描述。这些函数分别有两组不同的控制命令和参数组成:
(1)短语命令的定时、幅度以及短语控制机构的阻尼系数;
(2)音节命令开始和结束的时刻、幅度以及音节控制机构的阻尼系数。
这些参数必须在一个设定的时间段内保持恒定,即短语单元的参数在一个韵律短语内部恒定,音节单元的参数在音节或韵律词中恒定,基频最小值Fmin在整个句子中恒定。汉语语调基频轮廓生成模型框图,如图11所示。
基于上述汉语语调基频轮廓生成模型,用两种命令即短语命令和音节命令,作为句子语调模型的输入,而模型的输出为句子的基频轮廓曲线,其数学表达式如下:
ln F 0 ( t ) = ln F min + &Sigma; i = 1 I A pi G pi ( t - T 0 i ) + &Sigma; j = 1 J A aj &lsqb; G aj ( t - T 1 j ) - G aj ( t - T 2 j ) &rsqb; - - - ( 5 )
G pi = R i 2 texp ( - R i t ) , t &GreaterEqual; 0 0 , t < 0 - - - ( 6 )
G pi ( m ) ( t ) = G pi ( 1 ) ( t ) , G pi ( 2 ) ( t ) &CenterDot; &CenterDot; &CenterDot; G pi ( M ) ( t ) , m = 1,2 , &CenterDot; &CenterDot; &CenterDot; M
G aj = Min [ 1 - ( 1 + B j t ) exp ( - B j t ) , &theta; j ] , t &GreaterEqual; 0 0 , t < 0 - - - ( 7 )
G aj ( n ) ( t ) = G aj ( 1 ) ( t ) , G aj ( 2 ) ( t ) &CenterDot; &CenterDot; &CenterDot; G aj ( N ) ( t ) , n = 1,2 , &CenterDot; &CenterDot; &CenterDot; N
其中:
Fmin:句子的基频最小值;
i:短语的数目;Ri:第i个短语衰减系数,经验值为3/s;T0i:第i个短语控制命令发生的时间;Api第i个短语控制命令的幅度。
j:音节或韵律词的数目;Aaj:第j个音节控制命令的幅度;T1j:第j个音节控制命令开始的时间;T2j:第j个音节控制命令结束的时间:Bj:第j个音节控制命令在音节控制机构下的固有角度值,经验值为20/s;θj:第j个音节控制命令的旨节成分的最大允许值,经验值为0.9;Gaj (m)代表不同的音节调型。
式(5)的第1部分可以看作是使声带保持振动的基频最小值;第2部分代表短语单元的基频轮廓;第3部分代表音节单元的基频轮廓;三者成对数迭加形式。这里基频最小值Fmin是由句子的语态和调型所决定,贯穿于整个语句;其次在它的上面叠加短语的基频变化曲线,得到一个句子的基频中心轨迹的基本走向;然后在这个基频中心轨迹的基础上继续按序位叠加音节或韵律词的基频变化曲线。最后,这三个部分叠加的结果即为一个完整句子的基频变化曲线。
对短语的缓降趋势,可以通过调节Ri的大小来改变Gpi(t)的衰减特性,进而达到调整短语基频走向的目的。Ri值越大,则衰减程度越大,短语基频曲线下倾的越严重;同时,Ri的大小也间接地反映了语调短语的长短。同样,对音节的缓升趋势可以通过调节Bj的大小来实现,Bj值越大,音节的基频曲线上扬的越明显。图14和图15分别列出了短语衰减特性的基频曲线和音节上扬特性的基频曲线。
对于每个短语的具体调形,根据标注的拼音码序列中的短语信息确定短语调形,其短语调形函数可以采用“短语单元韵律模板”直接生成短语的基频轮廓曲线。
对于每个音节的具体调形,根据标注的拼音码序列中的音节信息确定音节调形,其音节调形函数可以采用“音节单元韵律模板”直接生成音节的韵律基频曲线,也可以利用曲线方程 G aj ( n ) ( t ) = a 0 + a 1 t + a 2 t 2 + a 3 t 3 + a 4 t 4 生成拟合效果较为理想的音节调形曲线。调长由对应的浊音段的定时起点和终点来确定;调域用与调长对应的阶梯式调域幅度来控制。
3.2、模型参数的设置
模型参数由计算机程序自动生成。基于重叠原则,算法的第一步的是确定短语命令参数和基频最小值Fmin,这一步可与音节命令参数的确定分开。然后,由基频最小值Fmin和短语参数模拟出准确的F0曲线。短语模型的参数优化好后,再计算音节单元的参数。
一个音节命令生成的基频曲线模拟一个音节或韵律词。单独的韵律词从左到右处理,整个音节单元没有进行全局优化,但是对每个韵律词都做局部的基频曲线模拟。对此F0基频曲线的处理从左到右应有两个限制条件:一个条件是防止后面的音节命令影响优化后的曲线;另一个条件是保证在前面命令参数不充分的情况下也能估计音节或韵律词。
3.3、基于规则的F0的合成
(1)阻尼系数
短语单元和音节单元当作阻尼时间的常量来处理。对于短语单元,阴尼系数标准值为3.1Hz。所有说话人和所有音节或韵律词的阻尼系数均值为16Hz。
(2)基频最小值Fmin
基频最小值Fmin分布离散度较小,典型值的范围是男性为70-80Hz,女性为120-140Hz。
(3)短语命令的幅度和定时
短语单元代表了语句中F0曲线的全局下倾和缓慢变化,是语调基频曲线的基础。从基频幅度上看,短语命令的幅度是确定短语基频曲线的在频域上偏移量的乘积系数,是句子中F0下倾的直接尺度,并且在很大程度上与说话人相关。句子模式通过短语单元的基频曲线在全局上表现出来,例如,陈述句的基频曲线呈下倾态势,而一般疑问句和反意疑问句的基频曲线从头向尾先下倾、然后到尾部再上扬。从时间上看,短浯的坫频曲线相对较早地达到最大值,并且随着句子的主要部分单独下降。短语基频曲线的峰值与句子或韵律短语的头一致,因此短语命令的定时直接依据阴尼系数(3.1Hz)。句子开始前的第一个短语命令设置为323ms,这也证明了F0的生成和控制的研究结果,揭示了喉部肌肉发音前的活动。
(4)音节命令幅度
音节幅度是确定音节曲线的在频域上偏移量以及音节高峰值高度的乘积系数,并且幅度在很大程度上与音节的位置有关。句尾音节命令幅度远小于句子中其它位置的幅度,名词的幅度要高于其它词性,而短语边界前的音节命令幅度要比其它位置的幅度高大约10~20%。
(5)音节命令时长
音节命令的时长可以通过该音节所在的韵律词的时长预测出,二者的相关度(r=0.84),即音节命令时长大约70%以上的变化可从韵律词的时长来得到。
(6)音节命令位置
非句尾位置中音节(或韵律词)开始和命令开始之间的瞬时距离大约是音节(或韵律词)时长的10%,即在音节(或韵律词)命令开始和音节(或韵律词)发音开始之间有一个静音段,这一距离在句子术尾韵律词中趋于零。
因此,根据上面的分析,可以建立一套规则宋控制参数的调整,比如语句模式、语句重音、短语边界或词重旨,以此为一个给定的句子生成人工语调曲线。而需要输入的信息包括词音节的位置、韵律词的时长及它们的词性。
这里所提出的规则是基于统计分析的结果为基础,提供的参数为平均值,所以产生的曲线不代表任何一个真实的说话人。但从另一个方面说明:如果能够准确的捕捉说话人的特征,那么由上述规则及模型所产生的语调模式和被建模的说话人发出的语调模式就会非常接近。语调模型参数见表7。
表7  语调模型参数表
  语调模型参数   参数说明
  阻尼系数   短语单元3.1Hz,音节单元16Hz。
  基频最小值Fmin   典型值的范围是男性为7080Hz,女性为120-140Hz。
  短语命令幅度   短语命令的幅度是确定短语基频曲线的在频域上偏移量的乘积系数。是句子中F0下倾的直接尺度,并且在很大程度上与说话人相关。
音节命令幅度   音节幅度是确定音节曲线的在频域上偏移量以及音节高峰值高度的乘积系数,并且幅度在很大程度上与音节的位置有关。短语边界前的音节命令幅度要比其它位置的幅度高大约10~20%。
  短语命令时间设置   句子开始前的第一个短语命令设置为323ms。
音节命令时间设置   非句尾位置中音节(或韵律词)命令开始和音节发音开始之间的瞬时距离大约是音节(或韵律词)时长的10%,即在音节(或韵律词)命令开始和音节(或韵律词)发音开始之间要有一个静音段,这一距离在句子末尾韵律词中趋于零。
  短语命令时长   短语命令时长可以从韵律短语的时长来得到。
  音节命令时长   音节命令时长大约70%以上的变化可从韵律词的时长来得到。
图16是韵律特征控制流程图,结合图16,计算机对键入的特定文本信息分析并转换成含有韵律结构信息的发音符号序列,根据韵律规则划分的短语和词语结构,标注语句的短语位置和个数、各短语强度、音节个数、音节调号属性、音节清/浊音长度、音节调域幅度和整句基调值等参数;用人工和参数优化算法调节并定量提取有关控制参量,按模型分层综合,计算出成句基频轮廓数据;然后,根据基频输出值和对应的时长参数,最后采用PSOLA方法对音库中各音节波形韵律进行调整,拼接合成连续语音。
4、计算系统环境
结合图17,为一个可以实施本发明的适合的计算系统环境。该计算系统环境只是可以实施本发明的计算系统环境的一个实施例,而并非是对本发明的应用范围或功能进行任何限制。计算环境也不应被认为是对实例性操作环境中所示的任何一个部件或者部件的组合有任何依赖性或要求。
本发明可以用于众多的特定的或非特定的计算系统环境或配置,如:个人计算机,小型计算机,中型计算机,大型计算机,网络计算机,服务器计算机,手持或膝上型装置,多处理器系统,基于微处理器的系统,机顶盒,可编程电子消费装置,包括任何上述的系统或装置的分布式计算环境,等等。
本发明可以使计算机可执行指令的一般模式来描述,例如计算机的程序模块。程序模块包括程序、子程序、对象、控件、组件、数据结构等,它们用来执行特定的任务或者实现特定的抽象数据类型。本发明也可以被应用于分布式计算环境,其中通过利用通信网络链接的远程处理装置来执行任务。在分布式计算环境中,程序模块可以同时存放在包括存储器存储装置在内的本地和远程计算机存储介质中。
图17所示的计算机装置的构成包括:一个或多个中央处理单元、内部存储器、外部存储器、输入设备接口、输出设备接口以及连接上述各个单元或部件的系统总线。系统总线可以是包括如下几种类型的总线结构中的任何总线结构:一个存储总线或存储控制器、一个外围总线和使用各种总线结构中总线的局部总线。这些总线结构;如工业标准结构(ISA)总线、微通道体系结构(MCA)总线、增强的ISA线、视频电子标准协会(VESA),局部总线以及外部设备互连(PCI)总线(也叫夹层总线(Mezzanine bus),等等。
用户可以通过输入装置向计算机口输人命令和信息。这些输入装置可以是键盘、麦克风以及指点装置如鼠标、轨迹球或触摸板,还可以是其他的输入装置(图上未画出),例如操作杆、游戏垫、圆盘式卫星电视大线(satellite dish)、扫描仪等。上述输入装置通常是通过一个耦合到系统总线的用户输入接口连接到处理单元的,但也可以通过别的的接口和总线结构连接,例如并行端口、游戏端口或者通用序列行总线(USB)。监视器或者其他类型的显示装置通过一个接口,例如视频接口连接到系统总线。除了该监视器外,计算机也可以包括其他的外部输出设备,例如扬声器以及打印机,它们通过一个外部输出接口连接。
计算机可以通过逻辑连接的方式连接到一台或更多远程计算机(例如远程计算机)从而在网络环境中进行操作。

Claims (7)

1.一种基于韵律特征的语音合成方法,其特征在于它包括以下计算机可实现的步骤:
文本处理步骤,包括:
文本规整步骤,将输入的文本字符序列按照预先设置的特殊符号表转换成合法读音字符序列,输出合法读音字符序列送给韵律结构分析步骤;
韵律结构分析步骤,将接收到的合法读音字符序列送入韵律结构分析模块进行处理,根据预先设置的分词规则、韵律结构分析规则对合法读音字符序列标注韵律结构信息,输出标注了韵律结构信息的标注字符序列送给语言学处理步骤;
语言学处理步骤,将接收到的标注字符序列送入语言学处理模块进行处理,逐字按照预先设置的拼音表、韵律规则进行字音转换,将输入的汉字符映射为拼音码,将韵律结构信息标注映射为相应韵律信息,输出处理后的标注拼音码序列送给合成基元选取步骤和语音合成处理步骤;
合成基元选取步骤,包括:
确定基元步骤,将送入的标注拼音码序列作为目标序列送入统计模块进行处理,采用统计方法、根据索引从语音库中选出与目标序列对应的候选基元序列,并输出候选基元序列给匹配步骤;
匹配步骤,将确定基元步骤送出的候选基元序列送入韵律匹配代价基元选取模块,根据韵律匹配代价从语音库中选出与单个目标序列在韵律特征上匹配的候选基元,输出给拼接步骤;
拼接步骤,将匹配步骤送出的候选基元序列送入韵律拼接代价基元选取模块,根据拼接代价判断相邻的候选基元在韵律特征上是否满足要求,从中选出满足拼接代价要求的候选基元,输出给优化筛选步骤;
优化筛选步骤,将拼接步骤送出的候选基元序列送入韵律匹配代价与韵律拼接代价的基元选取模块,根据韵律匹配代价与韵律拼接代价找出在韵律特征上使匹配代价与韵律拼接代价的加权和最小的路径上的候选基元,最后输出优化筛选的基元序列送给语音合成处理步骤;
语音合成处理步骤,包括:
短语单元的基频轮廓生成步骤,将输入的标注拼音码序列从头至尾依次提取韵律信息,判断是否为短语信息;如果是,则作为短语命令送入给短语控制机构,同时根据这个短语韵律信息,从韵律模板库中索引出相应的短语单元韵律模板,生成并输出短语单元的基频轮廓曲线,并保留在缓冲区中;否则继续查找短语信息;以此类推,直至将整个标注拼音码序列搜索完毕,输出所输入的标注拼音码序列的全部短语单元的基频轮廓曲线;
音节单元的基频轮廓生成步骤,将输入的标注拼音码序列从头至尾依次提取韵律信息,判断是否为音节信息;如果是,则作为音节命令输入给音节控制机构,同时根据这个音节韵律信息,从韵律模板库中索引出相应的音节单元韵律模板,生成并输出音节单元的基频轮廓曲线,并保留在缓冲区中;否则继续查找音节信息;以此类推,直至将整个标注拼音码序列搜索完毕,输出所输入的标注拼音码序列的全部音节单元的基频轮廓曲线;
语调基频轮廓叠加步骤,将基频最小值Fmin、短语控制机构送出的短语单元的基频轮廓和音节控制机构送出的音节单元的基频轮廓,依照汉语语调模型、按序位、幅度大小和时间长短进行对数叠加;如果判断标注拼音码序列没有处理完毕,则继续执行;否则,生成并输出所输入的标注拼音码序列的语调基频轮廓曲线给后续的信号处理步骤。
2.根据权利要求1所述的基于韵律特征的语音合成方法,其特征在于所述的韵律结构分析模块包括以下几个子模块:
分词和词性标注子模块,用以对输入的合法读音字符序列与预先设置的分词规则进行比较,将字符序列根据分词规则标注分词信息和词性信息,输出标注了分词信息和词性信息的字符序列送给韵律结构预测子模块;
韵律结构预测子模块,用以对送入的标注了分词信息和词性信息的字符序列构建韵律结构预测树,并根据韵律结构预测树来确定韵律边界位置,对目标语句确定输出语句的韵律组块及其层级结构,输出标注了韵律层次结构的标注字符序列给语言学处理步骤。
3.根据权利要求1所述的基于韵律特征的语音合成方法,其特征在于所述的韵律结构分析规则通过以下几个处理步骤来设置:
将语句中在句法上距离最近的语法词两两连接为韵律节点,构成韵律词;
再将在句法上距离最近的韵律词两两连接为更高一个层级的韵律节点,构成韵律短语;
重复连接构建直到在句法上仅有一个最高层级的节点,构成语调短语;
将同层的每两个相邻的节点之间划分为韵律边界或一个韵律停顿,则构建成为韵律结构预测树。
4.根据权利要求1所述的基于韵律特征的语音合成方法,其特征在于所述的语言学处理模块进一步包括以下几个子模块:
音变、变调分析子模块,用以将送入的标注字符序列进行音变现象分析,将每个词组的字符序列按照二字词、三字词和四字词分别与文本处理规则数据库中的音变、变调规则表进行匹配比对,如果完全匹配则进行相应的转换处理,将应发生音变或变调现象的字或音节标注为正确的音调,输出转换后的字符序列,否则输出原字符序列,输出的字符序列送给停顿分析子模块;
停顿分析子模块,用以将音变、变调分析模块送入的标注字符序列根据文本处理规则数据库中的停顿规则按照韵律边界的不同,从句首向句尾依次将字符序列中韵律边界标记与韵律词标记、韵律短语标记和语调短语标记进行匹配,如果满足其一就在其韵律边界标记处插入与韵律边界标记等价的停顿;否则字符序列保持不变并输出,输出的字符序列送给强调、重音分析子模块;
强调、重音分析子模块,用以将停顿分析子模块送入的标注字符序列根据常规重音分布规律标注重音位置,并按照韵律结构预测树韵律边界的不同标注重音位置,根据预先设置的韵律规则中的强调、重音规则修正停顿的时间长度或者韵律边界的字词的音高或时长,输出的字符序列送给字音转换子模块;
字音转换子模块,用以将强调、重音分析子模块送入的字符序列从句首向句尾依次将字符与文本处理数据库中的拼音表进行匹配,如果满足匹配要求就将该字符用与其对应的拼音码替代,直至将整个文本字符替代完毕,输出标注拼音码序列送给基元选取步骤和语音合成处理步骤。
5.根据权利要求4所述的基于韵律特征的语音合成方法,其特征在于所述的强调、重音分析子模块中标注重音位置步骤又包括以下计算机可以实现的步骤:将得到的字符序列按照韵律结构预测树内部两个分叉之间的句法关系,以及常规重音分布规律,给每个二分叉韵律成分标注相对的重、轻地位;计算每个韵律词最后标注的重度指标,确定每个韵律词的重度;将各个韵律词的重度标注于字符序列上,输出标注后的字符序列。
6.根据权利要求1所述的一种基于韵律特征的语音合成方法,其特征在于所述的语调基频轮廓曲线,其数学表达式如下:
ln F 0 ( t ) = ln F min + &Sigma; i = 1 I A pi G pi ( t - T 0 i ) + &Sigma; j = 1 J A aj [ G aj ( t - T 1 j ) - G aj ( t - T 2 j ) ] - - - ( 1 )
G pi ( t ) = R i 2 t exp ( - R i t ) , t &GreaterEqual; 0 0 , t < 0 - - - ( 2 )
G aj ( t ) = Min [ 1 - ( 1 + B j t ) exp ( - B j t ) , &theta; j ] , t &GreaterEqual; 0 0 , t < 0 - - - ( 3 )
其中:
Fmin:句子的基频最小值;
i:短语的序号;I:短语的数目;Ri:第i个短语衰减系数,经验值为3/s;T0i:第i个短语控制命令发生的时间;Api:第i个短语控制命令的幅度;Gpi(t):表示不同的短语调型;
j:音节的序号;J:音节的数目;Aaj:第j个音节控制命令的幅度;T1j:第j个音节控制命令开始的时间;T2j:第j个音节控制命令结束的时间;Bj:第j个音节控制命令在音节控制机构下的固有角度值,经验值为20/s;θj:第j个音节控制命令的音节成分的最大允许值,经验值为0.9;Gaj(t):表示不同的音节调型;
对于每个短语的具体调型Gpi(t),根据标注的拼音码序列中的短语信息确定短语调型,其短语调型函数采用短语单元韵律模板直接生成短语的基频轮廓曲线;
对于每个音节的具体调型Gaj(t),根据标注拼音码序列中的音节信息确定音节调型,其音节调型函数采用音节单元韵律模板直接生成音节的韵律基频曲线,或利用曲线方程Gaj(t)=a0+a1t+a2t2+a3t3+a4t4生成拟合效果较为理想的音节单元的基频轮廓曲线。
7.根据权利要求1所述的基于韵律特征的语音合成方法,其特征在于所述语调模型参数由计算机程序自动生成,算法的第一步是确定短语命令参数和基频最小值Fmin,然后,由基频最小值Fmin和短语命令参数模拟出准确的语调基频轮廓曲线,短语命令参数优化好后,再计算音节命令参数;单独的音节从左到右处理,对每个音节都做局部的基频曲线模拟。
CN2007100716134A 2007-01-09 2007-01-09 基于韵律特征的语音合成方法 Expired - Fee Related CN101000765B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2007100716134A CN101000765B (zh) 2007-01-09 2007-01-09 基于韵律特征的语音合成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2007100716134A CN101000765B (zh) 2007-01-09 2007-01-09 基于韵律特征的语音合成方法

Publications (2)

Publication Number Publication Date
CN101000765A CN101000765A (zh) 2007-07-18
CN101000765B true CN101000765B (zh) 2011-03-30

Family

ID=38692704

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2007100716134A Expired - Fee Related CN101000765B (zh) 2007-01-09 2007-01-09 基于韵律特征的语音合成方法

Country Status (1)

Country Link
CN (1) CN101000765B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111078937A (zh) * 2019-12-27 2020-04-28 北京世纪好未来教育科技有限公司 语音信息检索方法、装置、设备和计算机可读存储介质
US11848001B2 (en) 2014-09-26 2023-12-19 Intel Corporation Systems and methods for providing non-lexical cues in synthesized speech

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101872613A (zh) * 2010-06-12 2010-10-27 广东中大讯通软件科技有限公司 一种基于数字家庭的地理信息的可听化表达方法
CN102201234B (zh) * 2011-06-24 2013-02-06 北京宇音天下科技有限公司 一种基于音调自动标注及预测的语音合成方法
CN102254554B (zh) * 2011-07-18 2012-08-08 中国科学院自动化研究所 一种对普通话重音进行层次化建模和预测的方法
CN102779508B (zh) * 2012-03-31 2016-11-09 科大讯飞股份有限公司 语音库生成设备及其方法、语音合成系统及其方法
CN103854643B (zh) * 2012-11-29 2017-03-01 株式会社东芝 用于合成语音的方法和装置
US9257954B2 (en) * 2013-09-19 2016-02-09 Microsoft Technology Licensing, Llc Automatic audio harmonization based on pitch distributions
WO2015040751A1 (ja) * 2013-09-20 2015-03-26 株式会社東芝 音声選択支援装置、音声選択方法、およびプログラム
CN104217722B (zh) * 2014-08-22 2017-07-11 哈尔滨工程大学 一种海豚哨声信号时频谱轮廓提取方法
CN105206264B (zh) * 2015-09-22 2017-06-27 百度在线网络技术(北京)有限公司 语音合成方法和装置
CN106202238A (zh) * 2016-06-30 2016-12-07 马根昌 真实人物模拟方法
CN106205600A (zh) * 2016-07-26 2016-12-07 浪潮电子信息产业股份有限公司 一种可交互中文文本语音合成系统及方法
CN106128450A (zh) * 2016-08-31 2016-11-16 西北师范大学 一种汉藏双语跨语言语音转换的方法及其系统
CN107871495A (zh) * 2016-09-27 2018-04-03 晨星半导体股份有限公司 文字转语音方法及系统
CN106920547B (zh) * 2017-02-21 2021-11-02 腾讯科技(上海)有限公司 语音转换方法和装置
CN107644637B (zh) * 2017-03-13 2018-09-25 平安科技(深圳)有限公司 语音合成方法和装置
US10468050B2 (en) 2017-03-29 2019-11-05 Microsoft Technology Licensing, Llc Voice synthesized participatory rhyming chat bot
CN107564511B (zh) * 2017-09-25 2018-09-11 平安科技(深圳)有限公司 电子装置、语音合成方法和计算机可读存储介质
CN108305612B (zh) * 2017-11-21 2020-07-31 腾讯科技(深圳)有限公司 文本处理、模型训练方法、装置、存储介质和计算机设备
CN107909993A (zh) * 2017-11-27 2018-04-13 安徽经邦软件技术有限公司 一种智能语音报告生成系统
CN108615524A (zh) * 2018-05-14 2018-10-02 平安科技(深圳)有限公司 一种语音合成方法、系统及终端设备
CN109389968B (zh) * 2018-09-30 2023-08-18 平安科技(深圳)有限公司 基于双音节混搭的波形拼接方法、装置、设备及存储介质
CN109087627A (zh) * 2018-10-16 2018-12-25 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN110176225B (zh) * 2019-05-30 2021-08-13 科大讯飞股份有限公司 一种韵律预测效果的评估方法及装置
CN110517662A (zh) * 2019-07-12 2019-11-29 云知声智能科技股份有限公司 一种智能语音播报的方法及系统
CN112242132B (zh) * 2019-07-18 2024-06-14 阿里巴巴集团控股有限公司 语音合成中的数据标注方法、装置和系统
CN110390104B (zh) * 2019-07-23 2023-05-05 思必驰科技股份有限公司 用于语音对话平台的不规则文本转写方法及系统
CN110299131B (zh) * 2019-08-01 2021-12-10 苏州奇梦者网络科技有限公司 一种可控制韵律情感的语音合成方法、装置、存储介质
CN112562637B (zh) * 2019-09-25 2024-02-06 北京中关村科金技术有限公司 拼接语音音频的方法、装置以及存储介质
CN110782880B (zh) * 2019-10-22 2024-04-09 腾讯科技(深圳)有限公司 一种韵律生成模型的训练方法及装置
CN110782871B (zh) 2019-10-30 2020-10-30 百度在线网络技术(北京)有限公司 一种韵律停顿预测方法、装置以及电子设备
CN111177542B (zh) * 2019-12-20 2021-07-20 贝壳找房(北京)科技有限公司 介绍信息的生成方法和装置、电子设备和存储介质
CN111128116B (zh) * 2019-12-20 2021-07-23 珠海格力电器股份有限公司 一种语音处理方法、装置、计算设备及存储介质
WO2021134581A1 (zh) * 2019-12-31 2021-07-08 深圳市优必选科技股份有限公司 基于韵律特征预测的语音合成方法、装置、终端及介质
CN111402858B (zh) * 2020-02-27 2024-05-03 平安科技(深圳)有限公司 一种歌声合成方法、装置、计算机设备及存储介质
CN111354346B (zh) * 2020-03-30 2023-04-07 上海依图信息技术有限公司 一种语音识别数据扩充方法与系统
CN113516963B (zh) * 2020-04-09 2023-11-10 菜鸟智能物流控股有限公司 音频数据的生成方法、装置、服务器和智能音箱
CN111710326B (zh) * 2020-06-12 2024-01-23 携程计算机技术(上海)有限公司 英文语音的合成方法及系统、电子设备及存储介质
CN111739492B (zh) * 2020-06-18 2023-07-11 南京邮电大学 一种基于音高轮廓曲线的音乐旋律生成方法
CN111724765B (zh) * 2020-06-30 2023-07-25 度小满科技(北京)有限公司 一种文本转语音的方法、装置及计算机设备
CN111883104B (zh) * 2020-07-08 2021-10-15 马上消费金融股份有限公司 语音切割方法、语音转换网络模型的训练方法及相关设备
CN111856997A (zh) * 2020-07-09 2020-10-30 中车青岛四方机车车辆股份有限公司 轨道车辆智能控制系统及轨道车辆
CN112530213B (zh) * 2020-12-25 2022-06-03 方湘 一种汉语音调学习方法及系统
CN112735378B (zh) * 2020-12-29 2024-05-31 科大讯飞股份有限公司 泰语语音合成方法、装置以及设备
CN112735379B (zh) * 2020-12-30 2023-06-13 北京大米科技有限公司 语音合成方法、装置、电子设备和可读存储介质
TWI766575B (zh) * 2021-02-05 2022-06-01 國立陽明交通大學 提升構音患者語音轉換效益之系統及方法
CN112802451B (zh) * 2021-03-30 2021-07-09 北京世纪好未来教育科技有限公司 韵律边界预测方法及计算机存储介质
CN113393829B (zh) * 2021-06-16 2023-08-29 哈尔滨工业大学(深圳) 一种融合韵律和个人信息的中文语音合成方法
CN113421543B (zh) * 2021-06-30 2024-05-24 深圳追一科技有限公司 一种数据标注方法、装置、设备及可读存储介质
CN114333763A (zh) * 2022-03-16 2022-04-12 广东电网有限责任公司佛山供电局 一种基于重音的语音合成方法及相关装置
CN115294958B (zh) * 2022-06-28 2024-07-02 北京奕斯伟计算技术股份有限公司 用于语音合成的单元选择方法及装置
CN116030789B (zh) * 2022-12-28 2024-01-26 南京硅基智能科技有限公司 一种生成语音合成训练数据的方法和装置
CN116821271B (zh) * 2023-08-30 2023-11-24 安徽商信政通信息技术股份有限公司 一种基于音形码的地址识别和规范化方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6366883B1 (en) * 1996-05-15 2002-04-02 Atr Interpreting Telecommunications Concatenation of speech segments by use of a speech synthesizer
CN1731509A (zh) * 2005-09-02 2006-02-08 清华大学 移动语音合成方法
CN1811912A (zh) * 2005-01-28 2006-08-02 北京捷通华声语音技术有限公司 小音库语音合成方法
CN1835075A (zh) * 2006-04-07 2006-09-20 安徽中科大讯飞信息科技有限公司 一种结合自然样本挑选与声学参数建模的语音合成方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6366883B1 (en) * 1996-05-15 2002-04-02 Atr Interpreting Telecommunications Concatenation of speech segments by use of a speech synthesizer
CN1811912A (zh) * 2005-01-28 2006-08-02 北京捷通华声语音技术有限公司 小音库语音合成方法
CN1731509A (zh) * 2005-09-02 2006-02-08 清华大学 移动语音合成方法
CN1835075A (zh) * 2006-04-07 2006-09-20 安徽中科大讯飞信息科技有限公司 一种结合自然样本挑选与声学参数建模的语音合成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张鹏.汉语语音合成韵律控制方法与实现的研究.2006,全文. *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11848001B2 (en) 2014-09-26 2023-12-19 Intel Corporation Systems and methods for providing non-lexical cues in synthesized speech
CN111078937A (zh) * 2019-12-27 2020-04-28 北京世纪好未来教育科技有限公司 语音信息检索方法、装置、设备和计算机可读存储介质

Also Published As

Publication number Publication date
CN101000765A (zh) 2007-07-18

Similar Documents

Publication Publication Date Title
CN101000765B (zh) 基于韵律特征的语音合成方法
CN101000764B (zh) 基于韵律结构的语音合成文本处理方法
CN105244020B (zh) 韵律层级模型训练方法、语音合成方法及装置
CN110782870A (zh) 语音合成方法、装置、电子设备及存储介质
Battenberg et al. Effective use of variational embedding capacity in expressive end-to-end speech synthesis
CN104021784B (zh) 基于大语料库的语音合成方法和装置
CN101064103B (zh) 基于音节韵律约束关系的汉语语音合成方法及系统
JP6815899B2 (ja) 出力文生成装置、出力文生成方法および出力文生成プログラム
CN101000766B (zh) 基于语调模型的汉语语调基频轮廓生成方法
CN106128450A (zh) 一种汉藏双语跨语言语音转换的方法及其系统
KR20230039750A (ko) 운율적 특징들로부터 파라메트릭 보코더 파라미터들을 예측하기
Narendra et al. Optimal weight tuning method for unit selection cost functions in syllable based text-to-speech synthesis
Indumathi et al. Survey on speech synthesis
Zou et al. Fine-Grained Prosody Modeling in Neural Speech Synthesis Using ToBI Representation.
Chomphan et al. Tone correctness improvement in speaker dependent HMM-based Thai speech synthesis
Alías et al. Towards high-quality next-generation text-to-speech synthesis: A multidomain approach by automatic domain classification
Wu et al. Exemplar-based emotive speech synthesis
Sheikhan Generation of suprasegmental information for speech using a recurrent neural network and binary gravitational search algorithm for feature selection
Liu et al. Controllable accented text-to-speech synthesis
CN116798403A (zh) 一种可合成多情感音频的语音合成模型方法
CN101004909A (zh) 基于韵律特征的汉语语音合成基元的选取方法
Le et al. Emotional Vietnamese Speech Synthesis Using Style-Transfer Learning.
Ronanki Prosody generation for text-to-speech synthesis
Formiga et al. Adaptation of the URL-TTS system to the 2010 Albayzin Evaluation Campaign
Li et al. A lyrics to singing voice synthesis system with variable timbre

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20110330

Termination date: 20140109