CN1755796A - 文本到语音转换中基于统计技术的距离定义方法和系统 - Google Patents
文本到语音转换中基于统计技术的距离定义方法和系统 Download PDFInfo
- Publication number
- CN1755796A CN1755796A CNA2004100851861A CN200410085186A CN1755796A CN 1755796 A CN1755796 A CN 1755796A CN A2004100851861 A CNA2004100851861 A CN A2004100851861A CN 200410085186 A CN200410085186 A CN 200410085186A CN 1755796 A CN1755796 A CN 1755796A
- Authority
- CN
- China
- Prior art keywords
- unit
- sample
- generic
- gmm
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
Abstract
本发明提供一种在TTS系统中进行距离定义的方法。该方法将高斯混合模型GMM应用于TTS的距离定义中,以解决现有TTS技术中的诸如数据稀疏和数据分散这样的疑难问题。该方法在合成过程中包括如下步骤:为需要进行TTS语音合成的单元决定其类属,由此确定该类属的GMM模型;计算该类属中的各个待选样本与确定的GMM模型间的距离;取出具有最小距离的那个样本,以用于语音合成。
Description
技术领域
本发明涉及文本到语音转换(text-to-speech:TTS)领域。更具体地说,本发明涉及用于文本到语音转换中基于统计技术的距离定义的系统和方法。
背景技术
所谓文本到语音转换(TTS),是指在计算机的支持下,通过复杂的自然语言处理算法的设计,把文字智能地转化为自然语音流的技术,该技术可以使用户方便地与计算机进行交流,从而大大提高应用系统的灵活性。
如图1所示,一个典型的TTS系统100通常包括三个组件:文本分析单元101,韵律预测单元102以及语音合成单元103。其中,文本分析单元101负责将输入的纯文本分析为具有描述性韵律注释(例如,发音、重音、短语边界和停顿)的带标记文本。韵律预测单元102负责根据文本分析的结果预测韵律的发音表示,例如,音调值,每个合成段的持续时间和能量。而语音合成单元103负责生成可理解的语音,作为纯文本中隐含的语义和韵律信息的表示的物理结果。
例如,将文本“这是一个专利申请”进行文本到语音转换,将会有下列结果。
首先,将该文本输入文本分析单元101,于是每个字的发音以及短语边界等信息被辨别出来:
这|是|一个|专利申请。
zhe4 shi4 yi2 ge4 zhuan1 li4 shen1 qing3
在进行了上述文本分析后,韵律预测单元102会对文本中的字进行发音预测。
在对文本进行了上述预测后,所述语音合成单元103会根据预测的韵律信息生成该段文本的相应语音。
在目前的TTS中,使用基于统计的方法是一种重要的趋势。在这些方法中,从大型的有标记的语料库(labeled corpus)中训练韵律预测模型,并且语音合成总是基于每个合成段的多个侯选的选择。图2示出了通用的基于语料库的TTS的框架结构。
在基于统计的方法中,特别是在韵律预测和基于库(inventory)的选择中,很多问题归根到底都是样本和给定类之间的距离定义的问题。这种距离定义不是很容易实现,因为即使类数据有复杂的上下文,但数据分散问题在几乎每个类中还都会严重,并且类之间的重叠也很严重,以致难以评估样本是否属于给定的类。
在目前的TTS中有一些经典的基于统计的距离定义方式,如加权Euclid距离和Mahalanobis距离。但是,它们分别都存在一些问题。对于Euclid距离而言,由于其使用各样本的平均值作为样本点,因而通常不能选择最适当的那个值来作为样本点,且不同维度(dimension)间的关系被忽略或通过预先给定的知识被很差地建模。而Mahalanobis距离的不足之处在于其不能模拟复杂分布。
图3示出了一个直方图,其表示在一个TTS语料库的一个类中某个样本的持续时间分布为对数分布时的情形。在图3所示的情形中,数据比较分散,因此采用Euclid距离定义的取平均值的方式根本无法模拟其分布,又由于该分布不是正态分布,也难以采用Mahalanobis距离定义对其进行精细模拟。
发明内容
为了克服如上所述的问题,本发明提出将高斯混合模型(Gaussian Mixture Model:GMM)应用于TTS的距离定义。具体而言,本发明提出了一种用于文本到语音转换的统计技术的全新距离定义方式。在根据本发明的距离定义中,通过GMM来引入概率分布。由于概率分布的使用,与前述加权Euclid距离定义和Mahalanobis距离定义相比,能够很好地解决TTS统计技术中的诸如数据稀疏和数据分散这样的疑难问题。GMM是用于通过具有用于每个高斯模型的简单参数的高斯类属来描述某些复杂分布的通用算法。例如,图3的分布可由GMM组合两个高斯模型来模拟,图4是模拟的示意图。但是,本领域技术人员能够理解,用2个高斯分布来模拟图3的分布只是示例性的,也可以根据情形需要用其他数量的高斯分布进行模拟。
为了实现上述目的,根据本发明的第一方面,提供了一种在TTS系统中进行距离定义的方法,包括如下步骤:对要进行TTS的文本进行分析,以获得带有描述性韵律注释的文本;针对所获得的文本中的样本进行分类;以及为每个分类产生GMM模型,确定样本与其相应GMM模型的距离。
根据本发明的第二方面,提供了一种在TTS系统中进行距离定义的系统,包括:文本分析单元,用于对要进行TTS的文本进行分析,以获得带有描述性韵律注释的文本;韵律预测单元,用于针对从文本分析单元获得的文本中的样本进行分类,以为所述分类产生GMM模型;以及GMM模型库,与所述韵律预测单元相连,用于存储所产生的GMM模型。
本发明的第一和第二方面涉及利用语料库对GMM模型进行训练。
根据本发明的第三方面,提供了一种在TTS系统中进行语音合成的方法,包括如下步骤:为需要进行TTS语音合成的单元决定其类属,由此确定该类属的GMM模型;计算该类属中的各个待选样本与确定的GMM模型间的距离;取出具有最小距离的那个样本,以用于语音合成。
根据本发明的第四方面,提供了一种在TTS系统中进行语音合成的系统,包括:类属决定单元,用于为需要进行TTS语音合成的单元决定其类属,由此确定该类属的GMM模型;距离计算单元,用于计算该类属中的各个待选样本与确定的GMM模型间的距离;以及优化单元,用于取出具有最小距离的那个样本,以用于语音合成。
本发明的第三和第四方面涉及利用GMM模型进行语音合成。
附图说明
图1是典型TTS系统的框图;
图2是通用的基于语料库的TTS的框图;
图3表示在一个TTS语料库的一个类中某个样本的持续时间分布为对数分布时的情形;
图4表示用GMM组合两个高斯模型来模拟图2中分布的示意图;
图5是根据本发明的方法在训练过程中的流程图;
图6是根据本发明的用于对样本进行分类的决策树;
图7是根据本发明的系统在训练部分的框图;
图8是根据本发明的方法在合成过程中的流程图;
图9表示根据本发明的动态规划的示意图;
图10是根据本发明的系统在合成部分的框图;
图11和图12是类属决定单元、距离计算单元及优化单元1003的示意框图;
图13表示音调树中一个树叶中的所有数据;以及
图14表示相邻单元之间出现不合理跳跃时的情形。
具体实施方式
以下将参照附图对本发明的优选实施方式进行说明。应当指出,尽管将以简体中文为例对本发明的距离定义方式进行说明,但是本领域技术人员能够理解,本发明的实施与其所使用的语言无关,本发明同等地适用于任何语言。
GMM刻画了当前类中样本的分布情况。分布密集的位置,其输出概率偏大,反之输出概率偏小。单元与GMM模型的距离描述的是该单元与模型所在的类的近似度。GMM作为该类的抽象表示,单元与GMM模型的距离可以用单元在该模型中的概率输出来表示,概率大的距离小,概率小的距离大。
G代表GMM模型,单元X在G中的概率输出为P(X|G)。单元X与G的距离定义为D(X,G)。若存在两个单元X1和X2,如果P(X1|G)>P(X2|G),则D(X1,G)<D(X2,G);如果P(X1|G)<P(X2|G),则D(X1,G)>D(X2,G);如果P(X1|G)=P(X2|G),则D(X1,G)=D(X2,G)。
首先参见图5,图5示出了根据本发明的方法在训练阶段的流程图。根据本发明的方法在步骤S510开始,然后进入步骤S520。
步骤S520用于对要进行TTS的文本进行分析,以获得带描述性韵律注释的文本。然后,根据本发明的方法进入步骤S530,在这里对文本中的样本进行分类,如本领域技术人员所知,“样本”可以表示建模所依据的条件,例如,若针对持续时间建立模型,则该持续时间本身即为样本。在对样本进行了分类之后,该方法进入步骤S540,其中会对每个分类产生GMM模型。在产生了GMM模型后,根据本发明的方法的训练过程在步骤S550中结束。
如此产生的GMM模型将被用于后续的语音合成过程,如下文所述。
以下将对具体的分类方式进行详细说明。如本领域技术人员所知,可以采用多种方式对样本进行分类。例如,可以依据维度对样本进行分类;也可以依据例如“持续时间”这样的条件对样本分类。
然而,根据本发明的一种优选实施方式,通过采用决策树来对样本进行分类。与其他分类方式相比,决策树是一种数据驱动的自动分类方法,它通过数据来决定分类,从而不需要使用者具备有关分类的很多知识。在TTS中,决策树被普遍用于与上下文相关的分类或预测。决策树可以有多种类型,图6示例性地给出了决策树的典型表示。
在树的父节点中的所有数据由来自预定义的问题集的优化问题分成两个子节点。遵循预定的准则,任何子节点中的距离都小,而两个子节点之间的距离大。在每个分离过程后,可以实现可选的功能,以在所有树叶间合并类似的节点。分离、停止分离和合并均由预定的准则优化。
如图6所示,假定条件1表示是否为句首,条件2表示是否为4声,条件3表示是否后跟轻声。在一个样本经过了决策树中足够多的节点(这里为3个)而足以得到一个适当的分类时,则为该分类生成GMM模型。由于对分类生成GMM模型的各种方式对于本领域技术人员而言是公知的,因此这里不再赘述。
此外,如果决策树中的两个分类之间的距离足够接近,可以将这两个分类合并,以用于决策树中的后续分类。如图6所示,该决策树的条件1和条件2的“否”分支在距离上接近(即,彼此相似),因此它们被合并后在条件4处用于进一步的分类。如本领域技术人员所知,根据本发明的距离定义系统可以包括一个合并单元,用于执行上述决策树中的分支合并操作。
有关生成GMM模型的更多信息,可参见例如N.Kambhatla,“Local Models and Gaussian Mixture Models for Statistical DataProcessing”PhD thesis,Oregon Graduate Institute of Science andTechnology,1996年1月。
以下将参照图7对本发明的训练系统进行描述。如图7所示,根据本发明的训练系统700包括的文本分析单元701,韵律预测单元702以及一个与韵律预测单元702相连的GMM模型存储单元703,用于存储为每个分类产生的GMM模型。
根据本发明的优选实施方式,所述训练系统700还可包括用于存储一系列优化问题的单元(未示出)、针对所述各优化问题进行判断的单元(未示出)以及对适当的分类进行合并的单元(未示出),以实现前述决策树。
以下将讨论根据本发明的合成方法与系统。
图8示出了根据本发明的合成方法的流程图。
根据本发明的合成方法在步骤S810开始并随后进入步骤S820。在步骤S820中,决定需要合成的单元(例如,可以是文本中包含的字)的类属,以确定该类的GMM模型。例如,可通过决策树中的一系列问题来决定所述类属,以在GMM模型库中找到与之对应的GMM模型。接着,在步骤S830中,针对该类属中的各个待选样本,计算这些样本与找到的GMM模型间的距离。有关计算该距离的具体方式将在下文中详细描述。在计算了每个样本的距离之后,在步骤S840中取出具有最小距离的那个样本作为最优的样本,以用于合成。随后,根据本发明的方法在步骤S850中结束。
以下将对步骤S830进行详细描述。如前所述,根据本发明的方法需要计算每个需要合成的单元与其GMM模型间的距离,且距离最小的最优。所述距离又称为目标代价(target cost)。当针对每个需要合成的单元都进行了上述计算后,将所得到的所有距离最小的需要合成单元相加,即可得到最终的合成语音。
在本发明中,采用动态规划(dynamic programming)来计算代价(cost)。即,通过本地的优化代价函数估计来找出全局优化路径。
根据本发明的一种优选实施方式,除计算上述目标代价之外,还可计算转换代价。目标代价指一个需要合成单元与其GMM模型之间的距离。连续的两个合成单元的语音参数需要满足一定的转换关系,只有匹配的单元才能得到较高的合成自然度,转换模型从模型的角度刻画这种转换关系。
连续的两个合成单元的语音参数的转换特性在当前转换模型中的评价,即该转换特性与当前转换模型之间的距离称为转换代价。该距离也可用GMM模型距离来表示。
如图9中的粗实线所显示的路径所示。通过累计每个节点的目标代价和转换代价,可以获得每个可能路径的代价。在评估了所有可能的路径后,以最小的代价生成全局优化的路径。
如图9所示,假定C(1,x)代表前述文本中的“这”,C(2,x)代表前述文本中的“是”,C(1,x)代表前述文本中的“一”,等等。根据本发明的一种方式,可以只选出每个需要合成单元的最小目标代价,并直接将这些目标代价最小的单元合成起来进行语音输出。然而,根据本发明的另一种优选实施方式,可以同时考虑路径的转换代价。在图9中认为C(1,2)-C(2,m2)-C(3,1)被认为是目标代价加转换代价最小的路径。
本发明的合成过程可通过如图10所示的合成系统1000实现。根据本发明的合成系统1000包括类属决定单元1001,用于决定需要合成的单元的类属以从GMM模型库中确定对应的GMM模型。在确定了GMM模型后,由距离计算单元1002针对各待选样本计算这些样本与找到的GMM模型间的距离。接下来,由优化单元1003对计算得到的距离进行评估,以得到距离最小的合成单元。然后,所述距离最小的需要合成的单元被输出到合成单元1004,以形成物理声音。
此外,所述距离计算单元1002还可进一步包括目标代价计算单元以及转换代价计算单元(未示出)。
以上描述了基于GMM的距离定义。有两种典型的情况来使用所述距离定义。一种是评估给定样本与给定分类之间的距离,这是基于单元选择(unit-selection)的方法的任务,另一种是通过在给定概率分布的空间中进行搜索来预测明确的发音参数。
将所述距离定义应用于TTS系统中的单元选择的步骤如下:
(在训练过程中)
1.从带标记的语料库中提取发音参数及其上下文信息;
2.基于发音参数的上下文信息对其进行分类,并由基于GMM的距离定义给出发音参数之间的距离;
3.生成GMM模型来描述在步骤2中生成的每个分类的概率分布。
(在合成过程中)
4.从文本分析单元的结果获取每个发音段(即,要合成单元)的上下文信息;
5.查找每个段的上下文等同类属,所述类属对应于一个GMM模型;
6.通过基于GMM的距离定义评估段的所有候选;
7.基于步骤6中给出的距离以及总体优化准则(例如,动态规划)找出总体优化侯选序列;
8.进行语音合成以生成物理语音。
将所述距离定义用于明确预测的步骤如下:
1.从带标记的语料库中提取发音参数及其上下文信息;
2.基于发音参数的上下文信息对其进行分类,并由基于GMM的距离定义给出发音参数之间的距离;
3.生成GMM模型来描述在步骤2中生成的每个分类的概率分布。
(在合成过程中)
4.从文本分析单元的结果获取每个发音段(即,要合成单元)的上下文信息;
5.查找每个段的上下文等同类属,所述类属对应于一个GMM模型;
6.在GMM混合模型序列的空间中,基于距离定义以及总体优化准则搜索最佳值,最佳值序列被认为是明确预测;
7.根据步骤6中的明确预测进行合成。
为实现上述操作,所述类属决定单元1001可进一步包括:用于获取每个需要合成的单元的描述性韵律注释信息的韵律注释信息获取装置;用于查找每个需要合成单元的类属的查找装置,所述类属对应于一个GMM模型;以及用于在GMM混合模型序列的空间中,基于距离定义以及总体优化准则搜索最佳值,从而最佳值序列被作为GMM模型的明确预测的最佳值搜索装置。
相应地,所述距离计算单元1002可进一步包括:用于获取每个需要合成单元的描述性韵律注释信息的韵律注释信息获取装置;用于查找每个需要合成单元的属,所述类属对应于一个GMM模型的查找装置;以及用于通过基于GMM的距离定义评估需要合成单元的所有侯选的候选评估装置;以及
而所述优化单元1003可进一步包括用于基于评估步骤中给出的距离以及总体优化准则找出总体优化候选序列,以进行语音合成的总体优化候选序列获得装置。
图11、12示意地给出了类属决定单元1001、距离计算单元1002及优化单元1003的例证构成。
应当指出,上述各可以有多种实现方式,例如采用计算机程序代码单元,或电子逻辑电路,这是本领域技术人员能够理解的,因此不再详述。
基于GMM的距离定义的本质是精确地模拟在TTS数据中定义的类属的概率分布,然后给出孤立的样本和类属之间的距离,这对于基于单元选择的方法是非常关键的。
基于GMM的距离定义的另一个优点在于可以在TTS的统计技术中顺利的部署诸如容错、适应之类的某些成熟算法。
在根据本发明的TTS训练与合成过程中,一种优选的实施方式是将决策树、GMM和动态规划三者组合起来,成为一种基于单元选择的TSS。其中,GMM被用于描述合成序列中每个节点的目标的预测,以及相邻节点间的转换预测。
这种组合的要点在于:
·首先,使用基于决策树的分类算法将语料库中的所有韵律矢量或段分成合理的类。类的数量取决于预定义的准则以及语料库中的数据量。
·对于每个类,基于该类中的数据对GMM进行训练。
·动态规划中的代价函数被改变为log概率分布,这意味着全局优化路径是具有最大累计log概率值的路径。它可以被看作是代价函数的负操作。
·每个节点的韵律目标的GMM生成目标log概率函数。目标预测是某些TTS系统中的普遍方法。并且两个相邻节点的韵律转换的GMM会生成转换log概率分布。
以下将对韵律转换进行详细说明。
如前所述,目标韵律被广泛使用。它是预测每个段的期望和基于预测进行选择的自然方式。但最大的问题是数据分散问题。例如,图13是音调树中一个树叶中所有数据的图形表示。范围看起来很大,而且分布看起来平均。尽管容易通过GMM模型给出目标概率预测,难以期望只有目标模型就能得到好的选择结果。
有人试图通过平滑准则来解决这一问题。但是,这只能解决一些问题,而不是全部,而且最重要的问题是,有时,简单的平滑准则会使情形更差。
图14详细表示了这一现象。相邻单元之间的两个参数可能存在合理的跳跃或不合理的跳跃。跳跃的幅度值是与上下文相关的。
因此,提出转换韵律的概率模型,以对两个相邻段之间的变化进行建模。有多种与转换相关的韵律参数,例如,两个段之间的log音调差、log持续时间和音量值。很自然,转换模型在动态规划搜索方案中生成转换概率输出。
根据本发明的一种优选方式,将全新的转换韵律概率模型集成到决策树、GMM和动态规划的组合中。一方面,语库中的所有段都可用于训练目标概率预测树和单个转换概率树,这意味着在概率模型建立中不存在数据稀疏问题。由于有了转换模型,即使仍然存在数据分散问题,其影响也被部分消除,因而使得预测的韵律更稳定、更合理。
以上对本发明的优选实施方式进行了说明,但本领域技术人员应当理解,本发明给出的各优选实施方式只是为了说明的目的,不应理解为对本发明的任何限制。本发明可以采用软件、硬件或二者结合的形式实现。本领域技术人员可以根据上述描述获得有关本发明的任何变形和改进,但这些变形和改进都包括在随附权利要求书中所限定的本发明的范围和精神内。
Claims (18)
1.一种在TTS系统中进行距离定义的方法,包括如下步骤:
对要进行TTS的文本进行分析,以获得带有描述性韵律注释的文本;
针对所获得的文本中的样本进行分类;以及
为每个分类产生GMM模型,确定样本与其相应GMM模型的距离。
2.根据权利要求1所述的方法,其中分类步骤包括采用决策树进行分类。
3.根据权利要求2所述的方法,还包括在决策树中的两个分支相似时,将这两个分支合并的步骤。
4.一种在TTS系统中进行距离定义的系统,包括:
文本分析单元,用于对要进行TTS的文本进行分析,以获得带有描述性韵律注释的文本;
韵律预测单元,用于针对从文本分析单元获得的文本中的样本进行分类,以为所述分类产生GMM模型;以及
GMM模型库,与所述韵律预测单元相连,用于存储所产生的GMM模型。
5.根据权利要求4所述的系统,其中所述韵律预测单元采用决策树来对从文本分析单元获得的文本中的样本进行分类。
6.根据权利要求5所述的系统,还包括合并单元,用于对韵律预测单元所使用的决策树中的相似分支进行合并。
7.一种在TTS系统中进行语音合成的方法,包括如下步骤:
为需要进行TTS语音合成的单元决定其类属,由此确定该类属的GMM模型;
计算该类属中的各个待选样本与确定的GMM模型间的距离;
取出具有最小距离的那个样本,以用于语音合成。
8.根据权利要求7所述的方法,其中所述计算距离的步骤包括计算目标代价和转换代价。
9.根据权利要求7或8所述的方法,其中取出具有最小距离的样本的步骤包括取出目标代价最小的样本的步骤。
10.根据权利要求7-9中任意一项所述的方法,其中取出具有最小距离的样本的步骤包括取出目标代价加转换代价最小的样本的步骤。
11.根据权利要求7所述的方法,其中为需要进行TTS语音合成的单元决定其类属,由此确定该类属的GMM模型的步骤包括:
获取每个需要合成的单元的描述性韵律注释信息;
查找每个需要合成单元的类属,所述类属对应于一个GMM模型;
在GMM混合模型序列的空间中,基于距离定义以及总体优化准则搜索最佳值,从而最佳值序列被作为GMM模型的明确预测。
12.根据权利要求7所述的方法,其中计算该类属中的各个待选样本与确定的GMM模型间的距离以及取出具有最小距离的那个样本以用于语音合成的步骤包括:
获取每个需要合成单元的描述性韵律注释信息;
查找每个需要合成单元的属,所述类属对应于一个GMM模型;
通过基于GMM的距离定义评估需要合成单元的所有侯选;以及
基于评估步骤中给出的距离以及总体优化准则找出总体优化侯选序列,以进行语音合成。
13.一种在TTS系统中进行语音合成的系统,包括:
类属决定单元,用于为需要进行TTS语音合成的单元决定其类属,由此确定该类属的GMM模型;
距离计算单元,用于计算该类属中的各个待选样本与确定的GMM模型间的距离;
优化单元,用于取出具有最小距离的那个样本,以用于语音合成。
14.根据权利要求13所述的系统,其中所述距离计算单元还包括目标代价计算单元和转换代价计算单元。
15.根据权利要求13或14所述的系统,其中优化单元从目标代价计算单元取出目标代价最小的样本。
16.根据权利要求13-15中任意一项所述的系统,其中优化单元从目标代价计算单元和转换代价计算单元二者中分别取出目标代价加转换代价最小的样本。
17.根据权利要求13所述的系统,其中所述类属决定单元包括:
用于获取每个需要合成的单元的描述性韵律注释信息的装置;
用于查找每个需要合成单元的类属的装置,所述类属对应于一个GMM模型;
用于在GMM混合模型序列的空间中,基于距离定义以及总体优化准则搜索最佳值,从而最佳值序列被作为GMM模型的明确预测的装置。
18.根据权利要求13所述的系统,其中距离计算单元包括:
用于获取每个需要合成单元的描述性韵律注释信息的装置;
用于查找每个需要合成单元的属,所述类属对应于一个GMM模型的装置;以及
用于通过基于GMM的距离定义评估需要合成单元的所有侯选的装置;以及
优化单元还包括:
用于基于评估步骤中给出的距离以及总体优化准则找出总体优化侯选序列,以进行语音合成的装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNA2004100851861A CN1755796A (zh) | 2004-09-30 | 2004-09-30 | 文本到语音转换中基于统计技术的距离定义方法和系统 |
US11/239,500 US7590540B2 (en) | 2004-09-30 | 2005-09-29 | Method and system for statistic-based distance definition in text-to-speech conversion |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNA2004100851861A CN1755796A (zh) | 2004-09-30 | 2004-09-30 | 文本到语音转换中基于统计技术的距离定义方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN1755796A true CN1755796A (zh) | 2006-04-05 |
Family
ID=36126676
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2004100851861A Pending CN1755796A (zh) | 2004-09-30 | 2004-09-30 | 文本到语音转换中基于统计技术的距离定义方法和系统 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7590540B2 (zh) |
CN (1) | CN1755796A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008006241A1 (en) * | 2006-07-03 | 2008-01-17 | Intel Corporation | Method and apparatus for fast audio search |
CN102063897A (zh) * | 2010-12-09 | 2011-05-18 | 北京宇音天下科技有限公司 | 一种用于嵌入式语音合成系统的音库压缩及使用方法 |
CN102201232A (zh) * | 2011-06-01 | 2011-09-28 | 北京宇音天下科技有限公司 | 一种用于嵌入式语音合成系统的音库结构压缩及使用方法 |
CN101178896B (zh) * | 2007-12-06 | 2012-03-28 | 安徽科大讯飞信息科技股份有限公司 | 基于声学统计模型的单元挑选语音合成方法 |
CN102360543B (zh) * | 2007-08-20 | 2013-03-27 | 微软公司 | 基于hmm的双语(普通话-英语)tts技术 |
CN102456077B (zh) * | 2006-07-03 | 2014-11-05 | 英特尔公司 | 用于快速音频搜索的方法和设备 |
CN104392716A (zh) * | 2014-11-12 | 2015-03-04 | 百度在线网络技术(北京)有限公司 | 高表现力的语音合成方法和装置 |
CN108172211A (zh) * | 2017-12-28 | 2018-06-15 | 云知声(上海)智能科技有限公司 | 可调节的波形拼接系统及方法 |
Families Citing this family (125)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US8412528B2 (en) * | 2005-06-21 | 2013-04-02 | Nuance Communications, Inc. | Back-end database reorganization for application-specific concatenative text-to-speech systems |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US8036894B2 (en) * | 2006-02-16 | 2011-10-11 | Apple Inc. | Multi-unit approach to text-to-speech synthesis |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8027837B2 (en) * | 2006-09-15 | 2011-09-27 | Apple Inc. | Using non-speech sounds during text-to-speech synthesis |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
JP5238205B2 (ja) * | 2007-09-07 | 2013-07-17 | ニュアンス コミュニケーションズ,インコーポレイテッド | 音声合成システム、プログラム及び方法 |
US8583438B2 (en) * | 2007-09-20 | 2013-11-12 | Microsoft Corporation | Unnatural prosody detection in speech synthesis |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8374873B2 (en) * | 2008-08-12 | 2013-02-12 | Morphism, Llc | Training and applying prosody models |
WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US20120066166A1 (en) * | 2010-09-10 | 2012-03-15 | International Business Machines Corporation | Predictive Analytics for Semi-Structured Case Oriented Processes |
US8688435B2 (en) | 2010-09-22 | 2014-04-01 | Voice On The Go Inc. | Systems and methods for normalizing input media |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
JP6036682B2 (ja) * | 2011-02-22 | 2016-11-30 | 日本電気株式会社 | 音声合成システム、音声合成方法、および音声合成プログラム |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
EP4138075A1 (en) | 2013-02-07 | 2023-02-22 | Apple Inc. | Voice trigger for a digital assistant |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
KR101759009B1 (ko) | 2013-03-15 | 2017-07-17 | 애플 인크. | 적어도 부분적인 보이스 커맨드 시스템을 트레이닝시키는 것 |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
WO2014200728A1 (en) | 2013-06-09 | 2014-12-18 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
CN105265005B (zh) | 2013-06-13 | 2019-09-17 | 苹果公司 | 用于由语音命令发起的紧急呼叫的系统和方法 |
JP6163266B2 (ja) | 2013-08-06 | 2017-07-12 | アップル インコーポレイテッド | リモート機器からの作動に基づくスマート応答の自動作動 |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
WO2015184186A1 (en) | 2014-05-30 | 2015-12-03 | Apple Inc. | Multi-command single utterance input method |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9390725B2 (en) | 2014-08-26 | 2016-07-12 | ClearOne Inc. | Systems and methods for noise reduction using speech recognition and speech synthesis |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10255905B2 (en) * | 2016-06-10 | 2019-04-09 | Google Llc | Predicting pronunciations with word stress |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
CN111724765B (zh) * | 2020-06-30 | 2023-07-25 | 度小满科技(北京)有限公司 | 一种文本转语音的方法、装置及计算机设备 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA1261472A (en) | 1985-09-26 | 1989-09-26 | Yoshinao Shiraki | Reference speech pattern generating method |
EP0481107B1 (en) | 1990-10-16 | 1995-09-06 | International Business Machines Corporation | A phonetic Hidden Markov Model speech synthesizer |
JP3118725B2 (ja) | 1991-09-11 | 2000-12-18 | 株式会社日立製作所 | 自動分類方法 |
GB2296846A (en) | 1995-01-07 | 1996-07-10 | Ibm | Synthesising speech from text |
US6240384B1 (en) | 1995-12-04 | 2001-05-29 | Kabushiki Kaisha Toshiba | Speech synthesis method |
US5913193A (en) * | 1996-04-30 | 1999-06-15 | Microsoft Corporation | Method and system of runtime acoustic unit selection for speech synthesis |
US5913194A (en) | 1997-07-14 | 1999-06-15 | Motorola, Inc. | Method, device and system for using statistical information to reduce computation and memory requirements of a neural network based speech synthesis system |
US6163769A (en) * | 1997-10-02 | 2000-12-19 | Microsoft Corporation | Text-to-speech using clustered context-dependent phoneme-based units |
JP2965537B2 (ja) | 1997-12-10 | 1999-10-18 | 株式会社エイ・ティ・アール音声翻訳通信研究所 | 話者クラスタリング処理装置及び音声認識装置 |
US6185530B1 (en) | 1998-08-14 | 2001-02-06 | International Business Machines Corporation | Apparatus and methods for identifying potential acoustic confusibility among words in a speech recognition system |
JP3903610B2 (ja) | 1998-09-28 | 2007-04-11 | 富士ゼロックス株式会社 | 検索装置、検索方法及び検索プログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP3903613B2 (ja) | 1998-11-04 | 2007-04-11 | 富士ゼロックス株式会社 | 検索装置及び検索プログラムを記録したコンピュータ読み取り可能な記録媒体 |
US6317867B1 (en) | 1999-01-29 | 2001-11-13 | International Business Machines Corporation | Method and system for clustering instructions within executable code for compression |
US6961704B1 (en) * | 2003-01-31 | 2005-11-01 | Speechworks International, Inc. | Linguistic prosodic model-based text to speech |
-
2004
- 2004-09-30 CN CNA2004100851861A patent/CN1755796A/zh active Pending
-
2005
- 2005-09-29 US US11/239,500 patent/US7590540B2/en active Active
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102456077B (zh) * | 2006-07-03 | 2014-11-05 | 英特尔公司 | 用于快速音频搜索的方法和设备 |
US7908275B2 (en) | 2006-07-03 | 2011-03-15 | Intel Corporation | Method and apparatus for fast audio search |
WO2008006241A1 (en) * | 2006-07-03 | 2008-01-17 | Intel Corporation | Method and apparatus for fast audio search |
CN101553799B (zh) * | 2006-07-03 | 2012-03-21 | 英特尔公司 | 用于快速音频搜索的方法和设备 |
CN102360543B (zh) * | 2007-08-20 | 2013-03-27 | 微软公司 | 基于hmm的双语(普通话-英语)tts技术 |
CN101178896B (zh) * | 2007-12-06 | 2012-03-28 | 安徽科大讯飞信息科技股份有限公司 | 基于声学统计模型的单元挑选语音合成方法 |
CN102063897A (zh) * | 2010-12-09 | 2011-05-18 | 北京宇音天下科技有限公司 | 一种用于嵌入式语音合成系统的音库压缩及使用方法 |
CN102063897B (zh) * | 2010-12-09 | 2013-07-03 | 北京宇音天下科技有限公司 | 一种用于嵌入式语音合成系统的音库压缩及使用方法 |
CN102201232A (zh) * | 2011-06-01 | 2011-09-28 | 北京宇音天下科技有限公司 | 一种用于嵌入式语音合成系统的音库结构压缩及使用方法 |
CN104392716A (zh) * | 2014-11-12 | 2015-03-04 | 百度在线网络技术(北京)有限公司 | 高表现力的语音合成方法和装置 |
CN104392716B (zh) * | 2014-11-12 | 2017-10-13 | 百度在线网络技术(北京)有限公司 | 高表现力的语音合成方法和装置 |
CN108172211A (zh) * | 2017-12-28 | 2018-06-15 | 云知声(上海)智能科技有限公司 | 可调节的波形拼接系统及方法 |
CN108172211B (zh) * | 2017-12-28 | 2021-02-12 | 云知声(上海)智能科技有限公司 | 可调节的波形拼接系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
US7590540B2 (en) | 2009-09-15 |
US20060074674A1 (en) | 2006-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1755796A (zh) | 文本到语音转换中基于统计技术的距离定义方法和系统 | |
Gonzalvo et al. | Recent advances in Google real-time HMM-driven unit selection synthesizer | |
CN1256714C (zh) | 语音识别方法及语境模型分级结构生成方法 | |
CN111739508B (zh) | 一种基于dnn-hmm双模态对齐网络的端到端语音合成方法及系统 | |
US20220076693A1 (en) | Bi-directional recurrent encoders with multi-hop attention for speech emotion recognition | |
Bulyko et al. | Joint prosody prediction and unit selection for concatenative speech synthesis | |
CN1975856A (zh) | 一种基于支持向量机的语音情感识别方法 | |
CN101064103A (zh) | 基于音节韵律约束关系的汉语语音合成方法及系统 | |
CN104538024A (zh) | 语音合成方法、装置及设备 | |
CN1835075A (zh) | 一种结合自然样本挑选与声学参数建模的语音合成方法 | |
CN103854643A (zh) | 用于合成语音的方法和装置 | |
WO2014183411A1 (en) | Method, apparatus and speech synthesis system for classifying unvoiced and voiced sound | |
CN1924994A (zh) | 一种嵌入式语音合成方法及系统 | |
CN112037764A (zh) | 一种音乐结构的确定方法、装置、设备及介质 | |
JP2024505076A (ja) | 多様で自然なテキスト読み上げサンプルを生成する | |
US7263486B1 (en) | Active learning for spoken language understanding | |
CN1956057A (zh) | 一种基于决策树的语音时长预测装置及方法 | |
JP2015001695A (ja) | 音声認識装置、音声認識方法及びプログラム | |
CN1787072A (zh) | 基于韵律模型和参数选音的语音合成方法 | |
JP4945465B2 (ja) | 音声情報処理装置及びその方法 | |
JP4292191B2 (ja) | 素片接続型音声合成装置及びコンピュータプログラム | |
CN1773606A (zh) | 一种基于混淆网络的语音解码方法 | |
CN1343966A (zh) | 声音识别系统 | |
JP5294700B2 (ja) | 音声認識及び合成システム、プログラム及び方法 | |
Fu et al. | Composite feature extraction for speech emotion recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Open date: 20060405 |