CN106297765B - 语音合成方法及系统 - Google Patents
语音合成方法及系统 Download PDFInfo
- Publication number
- CN106297765B CN106297765B CN201510305754.2A CN201510305754A CN106297765B CN 106297765 B CN106297765 B CN 106297765B CN 201510305754 A CN201510305754 A CN 201510305754A CN 106297765 B CN106297765 B CN 106297765B
- Authority
- CN
- China
- Prior art keywords
- unit
- synthesized
- alternative voice
- voice data
- voice unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明公开了一种语音合成方法及系统,该方法首先对待合成文本进行预处理,得到待合成文本的待合成单元序列及待合成单元的上下文相关信息;根据待合成单元的上下文相关信息从音库中获取待合成单元的最优备选语音单元,并进行拼接得到待合成单元序列的备选语音数据;然后获取测听人员对备选语音数据的测听结果;根据测听结果训练对应不同声学特征的修正模型;再根据修正模型及待合成单元的上下文信息重新从音库中获取各待合成单元的最优备选语音单元,并进行拼接得到优化后的语音数据;最后将所述优化后的语音数据作为所述待合成文本的合成语音数据输出。本发明可以准确地将人工主观听感融合到待合成文本的合成结果中,提升语音合成效果。
Description
技术领域
本发明涉及语音合成技术领域,具体涉及一种语音合成方法及系统。
背景技术
实现人机之间人性化、智能化的有效交互,构建高效自然的人机交流环境,已经成为当前信息技术应用和发展的迫切需求。语音合成技术作为人机交流的重要环节,可以将文字信息转化为自然的语音信号,赋予计算机像人一样自如说话的能力,改变了传统通过录音回放实现机器开口说话的繁琐操作。为了使合成语音更加自然,更符合人的主观听感,出现了融合人主观听感的语音合成方法,具体融合方法一般是分析人工主观测听结果来提升合成语音的自然度。
现有的融合人主观听感的语音合成方法一般是通过预先收集大量合成语音及相应人工测听的反馈结果,训练分类模型,分类标签一般为合成正确数据与合成错误数据,利用所述分类模型找到待合成文本多组备选合成语音中最符合人听感的一组合成语音,作为待合成文本的最优合成结果。可见,所述方法主要依赖分类模型将人工测听的反馈结果融合到合成语音中。然而,由于现有合成系统合成语音时,合成错误的语音单元数远远少于合成正确的语音单元数,即训练分类模型的两类训练数据分布不均衡,从而导致训练得到的分类模型具有倾向性,将错误合成单元倾向正确合成单元,影响待合成文本最优合成结果的挑选。因此,如何准确地将人工主观听感融合到待合成文本的合成结果中,是提升语音合成效果亟待解决的问题。
发明内容
本发明实施例提供一种语音合成方法及系统,以准确地将人工主观听感融合到待合成文本的合成结果中,提升语音合成效果。
为此,本发明实施例提供如下技术方案:
一种语音合成方法,包括以下步骤:
(1)接收待合成文本;
(2)对所述待合成文本进行预处理,得到所述待合成文本的待合成单元序列及待合成单元的上下文相关信息;
(3)根据所述待合成单元的上下文相关信息从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元;
(4)依序将所有待合成单元的最优备选语音单元进行拼接,得到待合成单元序列的备选语音数据;
(5)获取测听人员对所述备选语音数据的测听结果;
(6)根据所述测听结果训练对应不同声学特征的修正模型;
(7)根据所述修正模型及所述待合成单元的上下文信息重新从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元;
(8)依序将重新获取的所有待合成单元的最优备选语音单元进行拼接,得到优化后的语音数据;
(9)将所述优化后的语音数据作为所述待合成文本的合成语音数据输出。
优选地,所述根据所述待合成单元的上下文相关信息从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元包括:
从音库中获取所述待合成单元的备选语音单元序列;
提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
计算在所述上下文相关信息表征的环境下,备选语音单元的各声学特征相对目标模型的似然值的和,得到第一计算值;
选取对应最大第一计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
优选地,所述测听结果包括:有错误语音数据;
所述根据所述测听结果训练对应不同声学特征的修正模型包括:根据所述错误语音数据训练对应不同声学特征的错误空间模型;
所述根据所述修正模型及所述待合成单元的上下文信息重新从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元包括:
从音库中获取所述待合成单元的备选语音单元序列;
提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
计算在所述上下文相关信息表征的环境下,所述备选语音单元的各声学特征相对目标模型的似然值减去各声学特征相对所述错误空间模型的似然值的差值的总和,得到第二计算值;
选取对应最大第二计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
优选地,所述测听结果包括:有错误语音数据和无错误语音数据;
所述根据所述测听结果训练对应不同声学特征的修正模型包括:根据所述有错误语音数据训练对应不同声学特征的错误空间模型、以及根据所述无错误语音数据训练对应不同声学特征的正确空间模型;
所述根据所述修正模型及所述待合成单元的上下文信息重新从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元包括:
从音库中获取所述待合成单元的备选语音单元序列;
提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
计算在所述上下文相关信息表征的环境下,所述备选语音单元的各声学特征相对目标模型的似然值、加上相对正确空间模型的似然值、并减去相对错误空间模型的似然值的总和后,得到第三计算值;
选取对应最大第三计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
优选地,所述测听结果包括:有错误语音数据及其错误类型,所述错误类型包括以下任意一种或多种:发音错误、音高错误、语速错误、发音平滑性错误、音高平滑性错误;
所述根据所述测听结果训练对应不同声学特征的修正模型包括:
根据相同错误类型的有错误语音数据训练对应该错误类型的错误空间模型;
所述根据所述修正模型及所述待合成单元的上下文信息重新从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元包括:
从音库中获取所述待合成单元的备选语音单元序列;
提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
计算在所述上下文相关信息表征的环境下,所述备选语音单元的各声学特征相对目标模型的似然值减去各声学特征相对每类错误空间模型的似然值的差值的和,得到第四计算值;
选取对应最大第四计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
优选地,在步骤(8)和步骤(9)之间还包括:
获取测听人员对所述优化后的语音数据的测听结果;
判断所述测听结果是否达到要求;
如果达到,则执行步骤(9);否则,返回步骤(6)。
一种语音合成系统,包括:
接收模块,用于接收待合成文本;
预处理模块,用于对所述待合成文本进行预处理,得到所述待合成文本的待合成单元序列及待合成单元的上下文相关信息;
第一挑选模块,用于根据所述待合成单元的上下文相关信息从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元;
拼接模块,用于依序将所有待合成单元的最优备选语音单元进行拼接,得到待合成单元序列的备选语音数据;
测听结果获取模块,用于获取测听人员对所述备选语音数据的测听结果;
修正模型训练模块,用于根据所述测听结果训练对应不同声学特征的修正模型;
第二挑选模块,用于根据所述修正模型及所述待合成单元的上下文信息重新从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元;
所述拼接模块,还用于依序将重新获取的所有待合成单元的最优备选语音单元进行拼接,得到优化后的语音数据;
输出模块,用于将所述优化后的语音数据作为所述待合成文本的合成语音数据输出。
优选地,所述第一挑选模块包括:
备选语音单元获取单元,用于从音库中获取所述待合成单元的备选语音单元序列;
特征提取单元,用于提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
第一计算单元,用于计算在所述上下文相关信息表征的环境下,备选语音单元的各声学特征相对目标模型的似然值的和,得到第一计算值;
选取单元,用于选取对应最大第一计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
优选地,所述测听结果包括:有错误语音数据;
所述修正模型训练模块,具体用于根据所述错误语音数据训练对应不同声学特征的错误空间模型;
所述第二挑选模块包括:
备选语音单元获取单元,用于从音库中获取所述待合成单元的备选语音单元序列;
特征提取单元,用于提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
第二计算单元,用于计算在所述上下文相关信息表征的环境下,所述备选语音单元的各声学特征相对目标模型的似然值减去各声学特征相对所述错误空间模型的似然值的差值的总和,得到第二计算值;
选取单元,用于选取对应最大第二计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
优选地,所述测听结果包括:有错误语音数据和无错误语音数据;
所述修正模型训练模块,具体用于根据所述有错误语音数据训练对应不同声学特征的错误空间模型、以及根据所述无错误语音数据训练对应不同声学特征的正确空间模型;
所述第二挑选模块包括:
备选语音单元获取单元,用于从音库中获取所述待合成单元的备选语音单元序列;
特征提取单元,用于提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
第三计算单元,用于计算在所述上下文相关信息表征的环境下,所述备选语音单元的各声学特征相对目标模型的似然值、加上相对正确空间模型的似然值、并减去相对错误空间模型的似然值的总和后,得到第三计算值;
选取单元,用于选取对应最大第三计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
优选地,所述测听结果包括:有错误语音数据及其错误类型,所述错误类型包括以下任意一种或多种:发音错误、音高错误、语速错误、发音平滑性错误、音高平滑性错误;
所述修正模型训练模块,具体用于根据相同错误类型的有错误语音数据训练对应该错误类型的错误空间模型;
所述第二挑选模块包括:
备选语音单元获取单元,用于从音库中获取所述待合成单元的备选语音单元序列;
特征提取单元,用于提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
第三计算单元,用于计算在所述上下文相关信息表征的环境下,所述备选语音单元的各声学特征相对目标模型的似然值减去各声学特征相对每类错误空间模型的似然值的差值的和,得到第四计算值;
选取单元,用于选取对应最大第四计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
优选地,所述测听结果获取模块,还用于获取测听人员对所述优化后的语音数据的测听结果;
所述系统还包括:判断模块,用于判断所述测听结果是否达到要求;如果达到,则触发所述输出模块将所述优化后的语音数据作为所述待合成文本的合成语音数据输出;如果未达到,则触发所述修正模型训练模块继续根据所述测听结果训练对应不同声学特征的修正模型。
本发明实施例提供的语音合成方法及系统,对于待合成文本,首先从音库中挑选出待合成单元序列中各待合成单元的最优备选语音单元,并将其进行拼接,得到待合成单元序列的备选语音数据。然后根据测听人员对备选语音数据的测听结果训练对应不同声学特征的修正模型;再根据修正模型及待合成单元的上下文信息重新从音库中获取各待合成单元的最优备选语音单元,并进行拼接得到优化后的语音数据;将所述优化后的语音数据作为待合成文本的合成语音数据输出。由于将人的主观听感直接融合到了最优备选语音单元的挑选中,因而使最终得到的合成语音数据更符合人的主观听感,有效地提升了语音合成效果,而且避免了现有技术中由于测听结果中数据不均衡对语音单元挑选产生的不良影响。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1是本发明实施例语音合成方法的一种流程图;
图2是本发明实施例中利用修正模型获取待合成单元的最优备选语音单元的一种实现流程图;
图3是本发明实施例中利用修正模型获取待合成单元的最优备选语音单元的另一种实现流程图;
图4是本发明实施例中利用修正模型获取待合成单元的最优备选语音单元的另一种实现流程图;
图5是本发明实施例语音合成系统的一种结构示意图;
图6是本发明实施例语音合成系统的另一种结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明实施例的方案,下面结合附图和实施方式对本发明实施例作进一步的详细说明。
如图1所示,是本发明实施例语音合成方法的流程图,包括以下步骤:
步骤101,接收待合成文本。
步骤102,对所述待合成文本进行预处理,得到所述待合成文本的待合成单元序列及待合成单元的上下文相关信息。
所述预处理主要包括:分词、词性标注及韵律分析。以中文为例,待合成文本“发生在我们身边的爱情故事”的韵律分析结果如下:
发生在*我们*身边的#爱情*故事;
fa1sheng1zai4*wo3men0*shen1bian1de0#ai4qing2gu4shi1;
其中,第一行为韵律行,“*”表示韵律词边界,“#”表示韵律短语边界,不限于这种表示形式;第二行为拼音行,数字表示声调信息,不限于这种表示形式,拼音行中的声母和韵母组成的序列即为待合成单元序列。
利用所述预处理结果即可获得待合成单元的上下文相关信息,如待合成单元在句子中的位置、待合成单元的词性信息等。
步骤103,根据所述待合成单元的上下文相关信息从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元。
具体地,首先需要从音库中获取各待合成单元的备选语音单元序列,一个备选语音单元序列中可以有一个或多个备选语音单元,然后根据备选语音单元的各声学特征相对目标模型的似然值的和,从这些备选语音单元中挑选出一个最优备选语音单元。
在挑选最优备选语音单元时,挑选准则可以依照现有技术,即依照每个待合成单元的备选语音单元在所述上下文相关信息表征的环境下相对目标模型的似然值进行挑选,挑选出似然值最大的备选语音单元作为最优备选语音单元。在本发明实施例中,将备选语音单元的各声学特征在所述上下文相关信息表征的环境下相对目标模型的似然值的和作为该备选语音单元与目标模型的似然值,为了描述方便,将其称为第一计算值。
为了描述方便,将挑选出的待合成单元序列中待合成单元的最优备选语音单元序
列表示为
假设C={c1,c2,...,cn,...,cN}表示待合成文本的N个待合成单元的上下文环境
信息,其中,cn为第n个待合成单元的上下文环境信息。表示待合成文
本中N个待合成单元中每个待合成单元的K个备选语音单元序列,如u12表示第1个待合成单
元的第2个备选语音单元,则挑选最优备选语音单元的计算如下所示:
其中,U*表示备选语音单元的各声学特征与对应的目标模型的似然值的和,为了描述方便,将其称为第一计算值;X(U,m)表示根据备选语音单元序列U提取的备选语音单元声学特征,M为待合成单元声学特征的类型数,所述声学特征的类型包括:频谱、基频、时长、拼接处频谱变化、拼接处基频变化中的一种或多种;logP(X(U,m)|C,λm)是给定上下文环境C时,备选语音单元声学特征相对目标模型λm的似然值;λm为音库中当前待合成单元声学特征m对应的目标模型,所述目标模型一般可以通过预先收集数据训练得到,用来指导备选语音单元的挑选,一般挑选语音单元的声学参数分布越符合目标模型的分布越好,wm表示第m类声学特征声学模型的权值,具体取值可以根据经验或实验结果而定。
根据上述公式,可以得到待合成单元的每个备选语音单元对应的第一计算值,然后,选取对应最大第一计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
步骤104,依序将所有待合成单元的最优备选语音单元进行拼接,得到待合成单元序列的备选语音数据。
具体拼接方法与现有技术相同,在此不再详述。
步骤105,获取测听人员对所述备选语音数据的测听结果。
由于合成语音可能会出现不同的错误类型,比如,发音错误、音高错误、语速错误、发音平滑性错误、音高平滑性错误。相应地,每种错误类型对应的声学模型依次为:频谱模型、基频模型、时长模型、频谱连接模型、基频连接模型。因此,在实际应用中,根据不同的应用需求,可以根据不同粒度的错误类型训练对应不同声学特征的修正模型。
相应地,对测听人员可以根据其专业水平分为不同类型,比如:初级测听人员,高级测听人员。其中:
(1)初级测听人员可以判断出每句合成语音是否有错误,将合成语音分为有错误和无错误两种类型。具体测听时,可以将一般用户作为初级测听人员,将合成好的语音数据开放给用户进行体验。根据用户体验的反馈结果,获取测听结果。
例如,初级测听人员反馈结果的收集形式如下:
“本句合成语音是否有错误?”,A:有错误,B:无错误。
(2)高级测听人员一般可以是从事语音方向相关工作的人员。高级测听人员在初级测听人员专业水平的基础上,可以对合成语音中错误单元进行初步定位(例如定位到错误词语单元),同时判断出该错误单元所属的错误类型。如对语句“语音合成前沿技术”进行错误单元定位时,可以定位到句中错误词语单元,以及该错误单元所属的错误类型,例如错误词语单元为“前沿”,错误类型为“发音错误”。
例如,高级测听人员测听结果的收集形式如下:
“本句合成语音是否有错误?”,A:有错误,B:无错误;
如果有错误请给出错误位置,及错误类型。错误位置可以定位到错误词语单元所在位置,或更粗粒度。
错误类型可以包括:发音错误、音高错误、语速错误、发音平滑性错误、音高平滑性错误。
根据测听人员的反馈,即可得到测听结果。
步骤106,根据所述测听结果训练对应不同声学特征的修正模型。
前面提到,测听人员的测听结果可以有不同的粒度,相应地,在训练修正模型时,也可以有不同的粒度,不同粒度的修正模型的训练过程将在后面详细描述。
步骤107,根据所述修正模型及所述待合成单元的上下文信息重新从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元。
步骤108,依序将重新获取的所有待合成单元的最优备选语音单元进行拼接,得到优化后的语音数据。
步骤109,将所述优化后的语音数据作为所述待合成文本的合成语音数据输出。
下面对不同粒度的修正模型及利用该修正模型选取待合成单元的最优备选语音单元的过程进行详细说明。
1.针对初级测听人员的测听结果的修正处理
由于初级测听人员只能判定出每句合成语音是否有错误,因此,得到的合成语音数据分类只有两类:即有错误语音数据、无错误语音数据。
需要说明的是,在实际应用中,可以只根据有错误语音数据进行修正处理,也可以同时根据有错误语音数据及无错误语音数据进行修正处理。下面对这两种情况分别进行说明。
(1)测听结果包括:有错误语音数据
在这种情况下,修正模型为根据所述错误语音数据训练的错误空间模型λunatural,即利用测听结果中的所有有错误语音数据训练目标模型,将所述目标模型称为错误空间模型,具体模型训练方法与现有技术相同,在此不再赘述。
利用上述错误空间模型获取待合成单元的最优备选语音单元的一种实现流程图如图2所示,包括以下步骤:
步骤201,从音库中获取待合成单元的备选语音单元序列。
步骤202,提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化。
步骤203,计算在所述上下文相关信息表征的环境下,备选语音单元的各声学特征相对目标模型的似然值减去各声学特征相对所述错误空间模型的似然值的差值的总和,得到第二计算值。
步骤204,选取对应最大第二计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
具体计算公式如下:
其中,为相对第m类声学特征的错误空间模型。
在该实施例中,对应不同类型声学特征的错误空间模型的训练数据相同,即所有的有错误语音数据。
(2)测听结果包括:有错误语音数据和无错误语音数据
在这种情况下,修正模型包括:根据所述错误语音数据训练的错误空间模型、以及根据所述无错误语音数据训练的目标模型,称为正确空间模型,具体模型训练方法与现有技术相同,在此不再赘述。
利用上述错误空间模型和正确空间模型获取待合成单元的最优备选语音单元的一种实现流程图如图3所示,包括以下步骤:
步骤301,从音库中获取待合成单元的备选语音单元序列。
步骤302,提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化。
步骤303,计算在所述上下文相关信息表征的环境下,所述备选语音单元的各声学特征相对目标模型的似然值、加上相对正确空间模型的似然值、并减去相对错误空间模型的似然值的总和,得到第三计算值。
步骤304,选取对应最大第三计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
具体计算公式如下:
其中,为相对第m类声学特征的正确空间模型。
在该实施例中,对应不同声学特征的错误空间模型的训练数据相同,即所有的有错误语音数据,对应不同声学特征的正确误空间模型的训练数据相同,即所有的无错误语音数据。
相应于图2所示实施例,该实施例可以使挑选的最优备选语音单元更符合人的主观听感,使挑选的单元在远离错误空间模型的同时,更靠近正确空间模型,合成语音更加平稳。
2.针对高级测听人员的测听结果的修正处理
由于初级测听人员只能从整体上判断每句合成语音正确与否,并不能给出合成语音具体的错误类型,如发音错误还是音高错误等。但是在最优备选语音单元的挑选中,分别使用了不同类型特征的声学模型指导语音单元的挑选,如基频模型、频谱模型、时长模型等。如果将不同错误类型的数据统一建模,容易造成错误类型混淆,影响语音单元挑选的准确性。此外,由于一句合成语音只有少量错误,直接将整句作为错误类型数据进行错误空间建模,容易造成错误空间模型中存在大量声学特征的正确空间分布,影响语音单元挑选的准确性。
因此,可以针对高级测听人员的测听结果进行分析,找到每句合成语音的错误位置及错误类型,对每种具体错误类型数据单独进行建模,从而得到不同类型的错误空间模型。也就是说,测听结果可以包括:有错误语音数据、错误位置及其错误类型,所述错误位置可以为词组,或更粗粒度,所述错误类型可以是以下任意一种或多种:发音错误、音高错误、语速错误、发音平滑性错误、音高平滑性错误,每种错误类型对应的声学特征分别为频谱、基频、时长、拼接处频谱变化、拼接处基频变化。
比如,根据每种错误类型的数据构建的不同类型声学特征的错误空间模型包括:频谱错误空间模型基频错误空间模型时长错误空间模型频谱连接错误空间模型基频连接错误空间模型如果一句合成语音只有少量合成错误,只需要将合成错误的片段作为错误类型数据,所述合成错误片段如合成词组,进行每种错误类型模型的构建,然后利用这些不同类型的错误空间模型指导最优备选语音单元的挑选。
利用上述不同类型的错误空间模型获取待合成单元的最优备选语音单元的一种实现流程图如图4所示,包括以下步骤:
步骤401,从音库中获取待合成单元的备选语音单元序列。
步骤402,提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化。
步骤403,计算在所述上下文相关信息表征的环境下,所述备选语音单元的各声学特征相对目标模型的似然值减去各声学特征相对每类错误空间模型的似然值的差值的总和,得到第四计算值。
步骤404,选取对应最大第四计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
具体计算公式如下:
其中,表示第m类声学特征对应的错误空间模型,所述错误空间模型可以为频谱错误空间模型、基频错误空间模型,时长错误空间模型,频谱连接错误空间模型,基频连接错误空间模型中的一种或多种。
可见,本发明实施例提供的语音合成方法,对于待合成文本,首先从音库中挑选出待合成单元序列中各待合成单元的最优备选语音单元,并将其进行拼接,得到待合成单元序列的备选语音数据。然后根据测听人员对备选语音数据的测听结果训练对应不同声学特征的修正模型;再根据修正模型及待合成单元的上下文信息重新从音库中获取各待合成单元的最优备选语音单元,并进行拼接得到优化后的语音数据;将所述优化后的语音数据作为待合成文本的合成语音数据输出。由于将人的主观听感直接融合到了最优备选语音单元的挑选中,因而使最终得到的合成语音数据更符合人的主观听感,有效地提升了语音合成效果,而且避免了现有技术中由于测听结果中数据不均衡对语音单元挑选产生的不良影响。
进一步地,还可以根据实际应用需求,得到不同粒度的测听结果,进而采用不同粒度的修正策略,使最终得到的合成语音数据更符合人的主观听感。
另外,需要说明的是,在实际应用中,还可以通过迭代方式进行多次修正处理,以使最终得到的合成语音数据更符合人的听感。具体地,在输出最终的合成语音数据之前,先获取测听人员对优化后的语音数据的测听结果,判断该测听结果是否达到要求(如待合成文本为教育相关文本,对合成结果的要求较高,如测听结果的MOS(Mean Opinion Score,MOS)分需要达到4.0以上);如果达到,则执行上述步骤109;否则,返回步骤106,继续进行修正处理,直至测听结果达到要求。
相应地,本发明实施例还提供一种语音合成系统,如图5所示,是该系统的一种结构示意图。在该实施例中,所述系统包括:
接收模块501,用于接收待合成文本;
预处理模块502,用于对所述待合成文本进行预处理,得到所述待合成文本的待合成单元序列及待合成单元的上下文相关信息;
第一挑选模块503,用于根据所述待合成单元的上下文相关信息从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元;
拼接模块504,用于依序将所有待合成单元的最优备选语音单元进行拼接,得到待合成单元序列的备选语音数据;
测听结果获取模块505,用于获取测听人员对所述备选语音数据的测听结果;
修正模型训练模块506,用于根据所述测听结果训练对应不同声学特征的修正模型;
第二挑选模块507,用于根据所述修正模型及所述待合成单元的上下文信息重新从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元;
所述拼接模块504,还用于依序将重新获取的所有待合成单元的最优备选语音单元进行拼接,得到优化后的语音数据;
输出模块508,用于将所述优化后的语音数据作为所述待合成文本的合成语音数据输出。
所述预处理主要包括:分词、词性标注及韵律分析,利用所述预处理结果即可获得待合成单元的上下文相关信息,如待合成单元在句子中的位置、待合成单元的词性信息等。
上述第一挑选模块503可以采用现有的方式从音库中获取待合成单元序列中各待合成单元的最优备选语音单元,而第二挑选模块507需要根据修正模型及待合成单元的上下文信息从音库中获取各待合成单元的最优备选语音单元,最优备选语音单元的挑选准则与第一挑选模块503的挑选准则不同,而且,根据测听结果的粒度不同,第二挑选模块507在具体实现上也会采用不同的挑选准则。下面分别对第一挑选模块503和第二挑选模块507的实现方式进行详细说明。
所述第一挑选模块503的一种具体结构包括以下各单元:
备选语音单元获取单元,用于从音库中获取所述待合成单元的备选语音单元序列;
特征提取单元,用于提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
第一计算单元,用于计算在所述上下文相关信息表征的环境下,备选语音单元的各声学特征相对目标模型的似然值的和,得到第一计算值;
选取单元,用于选取对应最大第一计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
前面提到,测听结果的粒度不同,第二挑选模块507也有不同的实现方式,比如可以有以下几种:
(1)测听结果包括:有错误语音数据。
相应地,在该实施例中,修正模型训练模块506具体用于根据所述错误语音数据训练对应不同声学特征的错误空间模型。
第二挑选模块507可以包括以下各单元:
备选语音单元获取单元,用于从音库中获取所述待合成单元的备选语音单元序列;
特征提取单元,用于提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
第二计算单元,用于计算在所述上下文相关信息表征的环境下,所述备选语音单元的各声学特征相对目标模型的似然值减去各声学特征相对所述错误空间模型的似然值的差值的总和,得到第二计算值;
选取单元,用于选取对应最大第二计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
(2)所述测听结果包括:有错误语音数据和无错误语音数据。
相应地,在该实施例中,修正模型训练模块506具体用于根据所述有错误语音数据训练对应不同声学特征的错误空间模型、以及根据所述无错误语音数据训练对应不同声学特征的正确空间模型;
第二挑选模块507可以包括以下各单元:
备选语音单元获取单元,用于从音库中获取所述待合成单元的备选语音单元序列;
特征提取单元,用于提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
第三计算单元,用于计算在所述上下文相关信息表征的环境下,所述备选语音单元的各声学特征相对目标模型的似然值、加上与正确空间模型的似然值、并减去相对错误空间模型的似然值的总和后,得到第三计算值;
选取单元,用于选取对应最大第三计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
(3)测听结果包括:有错误语音数据及其错误类型,所述错误类型包括以下任意一种或多种:发音错误、音高错误、语速错误、发音平滑性错误、音高平滑性错误,每种错误类型对应的声学特征分别为频谱、基频、时长、拼接处频谱变化、拼接处基频变化。
相应地,在该实施例中,修正模型训练模块506具体用于根据相同错误类型的有错误语音数据训练对应该错误类型的错误空间模型。
第二挑选模块507可以包括以下各单元:
备选语音单元获取单元,用于从音库中获取所述待合成单元的备选语音单元序列;
特征提取单元,用于提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
第三计算单元,用于计算在所述上下文相关信息表征的环境下,所述备选语音单元的各声学特征相对目标模型的似然值减去各声学特征相对每类错误空间模型的似然值的差值的和,得到第四计算值;
选取单元,用于选取对应最大第四计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
上述不同实施例中第二挑选模块507的挑选准则对应的具体计算公式可参照前面本发明方法实施例中的描述,在此不再赘述。
本发明实施例提供的语音合成系统,对于待合成文本,首先从音库中挑选出待合成单元序列中各待合成单元的最优备选语音单元,并将其进行拼接,得到待合成单元序列的备选语音数据。然后根据测听人员对备选语音数据的测听结果训练对应不同声学特征的修正模型;再根据修正模型及待合成单元的上下文信息重新从音库中获取各待合成单元的最优备选语音单元,并进行拼接得到优化后的语音数据;将所述优化后的语音数据作为待合成文本的合成语音数据输出。由于将人的主观听感直接融合到了最优备选语音单元的挑选中,因而使最终得到的合成语音数据更符合人的主观听感,有效地提升了语音合成效果,而且避免了现有技术中由于测听结果中数据不均衡对语音单元挑选产生的不良影响。
进一步地,还可以根据实际应用需求,得到不同粒度的测听结果,进而采用不同粒度的修正策略,使最终得到的合成语音数据更符合人的主观听感。
另外,需要说明的是,在实际应用中,还可以通过迭代方式进行多次修正处理,以使最终得到的合成语音数据更符合人的听感。
如图6所示,是本发明实施例语音合成系统的另一种结构示意图。
与图5所示实施例不同的是,在该实施例中,所述系统还包括:判断模块509。
在该实施例中,测听结果获取模块505还用于获取测听人员对所述优化后的语音数据的测听结果。判断模块509用于判断所述测听结果是否达到要求;如果达到,则触发输出模块508将优化后的语音数据作为待合成文本的合成语音数据输出;如果未达到,则触发修正模型训练模块506继续根据所述测听结果训练对应不同声学特征的修正模型。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上对本发明实施例进行了详细介绍,本文中应用了具体实施方式对本发明进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及系统;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (12)
1.一种语音合成方法,其特征在于,包括以下步骤:
(1)接收待合成文本;
(2)对所述待合成文本进行预处理,得到所述待合成文本的待合成单元序列及待合成单元的上下文相关信息;
(3)根据所述待合成单元的上下文相关信息从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元;
(4)依序将所有待合成单元的最优备选语音单元进行拼接,得到待合成单元序列的备选语音数据;
(5)获取测听人员对所述备选语音数据的测听结果;
(6)根据所述测听结果训练对应不同声学特征的修正模型;
(7)根据所述修正模型及所述待合成单元的上下文信息重新从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元;
(8)依序将重新获取的所有待合成单元的最优备选语音单元进行拼接,得到优化后的语音数据;
(9)将所述优化后的语音数据作为所述待合成文本的合成语音数据输出。
2.根据权利要求1所述的方法,其特征在于,所述根据所述待合成单元的上下文相关信息从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元包括:
从音库中获取所述待合成单元的备选语音单元序列;
提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
计算在所述上下文相关信息表征的环境下,备选语音单元的各声学特征相对目标模型的似然值的和,得到第一计算值;
选取对应最大第一计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
3.根据权利要求2所述的方法,其特征在于,所述测听结果包括:有错误语音数据;
所述根据所述测听结果训练对应不同声学特征的修正模型包括:根据所述错误语音数据训练对应不同声学特征的错误空间模型;
所述根据所述修正模型及所述待合成单元的上下文信息重新从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元包括:
从音库中获取所述待合成单元的备选语音单元序列;
提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
计算在所述上下文相关信息表征的环境下,所述备选语音单元的各声学特征相对目标模型的似然值减去各声学特征相对所述错误空间模型的似然值的差值的总和,得到第二计算值;
选取对应最大第二计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
4.根据权利要求2所述的方法,其特征在于,所述测听结果包括:有错误语音数据和无错误语音数据;
所述根据所述测听结果训练对应不同声学特征的修正模型包括:根据所述有错误语音数据训练对应不同声学特征的错误空间模型、以及根据所述无错误语音数据训练对应不同声学特征的正确空间模型;
所述根据所述修正模型及所述待合成单元的上下文信息重新从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元包括:
从音库中获取所述待合成单元的备选语音单元序列;
提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
计算在所述上下文相关信息表征的环境下,所述备选语音单元的各声学特征相对目标模型的似然值、加上相对正确空间模型的似然值、并减去相对错误空间模型的似然值的总和后,得到第三计算值;
选取对应最大第三计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
5.根据权利要求2所述的方法,其特征在于,所述测听结果包括:有错误语音数据及其错误类型,所述错误类型包括以下任意一种或多种:发音错误、音高错误、语速错误、发音平滑性错误、音高平滑性错误;
所述根据所述测听结果训练对应不同声学特征的修正模型包括:
根据相同错误类型的有错误语音数据训练对应该错误类型的错误空间模型;
所述根据所述修正模型及所述待合成单元的上下文信息重新从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元包括:
从音库中获取所述待合成单元的备选语音单元序列;
提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
计算在所述上下文相关信息表征的环境下,所述备选语音单元的各声学特征相对目标模型的似然值减去各声学特征相对每类错误空间模型的似然值的差值的和,得到第四计算值;
选取对应最大第四计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
6.根据权利要求1至5任一项所述的方法,其特征在于,在步骤(8)和步骤(9)之间还包括:
获取测听人员对所述优化后的语音数据的测听结果;
判断所述测听结果是否达到要求;
如果达到,则执行步骤(9);否则,返回步骤(6)。
7.一种语音合成系统,其特征在于,包括:
接收模块,用于接收待合成文本;
预处理模块,用于对所述待合成文本进行预处理,得到所述待合成文本的待合成单元序列及待合成单元的上下文相关信息;
第一挑选模块,用于根据所述待合成单元的上下文相关信息从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元;
拼接模块,用于依序将所有待合成单元的最优备选语音单元进行拼接,得到待合成单元序列的备选语音数据;
测听结果获取模块,用于获取测听人员对所述备选语音数据的测听结果;
修正模型训练模块,用于根据所述测听结果训练对应不同声学特征的修正模型;
第二挑选模块,用于根据所述修正模型及所述待合成单元的上下文信息重新从音库中获取所述待合成单元序列中各待合成单元的最优备选语音单元;
所述拼接模块,还用于依序将重新获取的所有待合成单元的最优备选语音单元进行拼接,得到优化后的语音数据;
输出模块,用于将所述优化后的语音数据作为所述待合成文本的合成语音数据输出。
8.根据权利要求7所述的系统,其特征在于,所述第一挑选模块包括:
备选语音单元获取单元,用于从音库中获取所述待合成单元的备选语音单元序列;
特征提取单元,用于提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
第一计算单元,用于计算在所述上下文相关信息表征的环境下,备选语音单元的各声学特征相对目标模型的似然值的和,得到第一计算值;
选取单元,用于选取对应最大第一计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
9.根据权利要求8所述的系统,其特征在于,所述测听结果包括:有错误语音数据;
所述修正模型训练模块,具体用于根据所述错误语音数据训练对应不同声学特征的错误空间模型;
所述第二挑选模块包括:
备选语音单元获取单元,用于从音库中获取所述待合成单元的备选语音单元序列;
特征提取单元,用于提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
第二计算单元,用于计算在所述上下文相关信息表征的环境下,所述备选语音单元的各声学特征相对目标模型的似然值减去各声学特征相对所述错误空间模型的似然值的差值的总和,得到第二计算值;
选取单元,用于选取对应最大第二计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
10.根据权利要求8所述的系统,其特征在于,所述测听结果包括:有错误语音数据和无错误语音数据;
所述修正模型训练模块,具体用于根据所述有错误语音数据训练对应不同声学特征的错误空间模型、以及根据所述无错误语音数据训练对应不同声学特征的正确空间模型;
所述第二挑选模块包括:
备选语音单元获取单元,用于从音库中获取所述待合成单元的备选语音单元序列;
特征提取单元,用于提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
第三计算单元,用于计算在所述上下文相关信息表征的环境下,所述备选语音单元的各声学特征相对目标模型的似然值、加上相对正确空间模型的似然值、并减去相对错误空间模型的似然值的总和后,得到第三计算值;
选取单元,用于选取对应最大第三计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
11.根据权利要求8所述的系统,其特征在于,所述测听结果包括:有错误语音数据及其错误类型,所述错误类型包括以下任意一种或多种:发音错误、音高错误、语速错误、发音平滑性错误、音高平滑性错误;
所述修正模型训练模块,具体用于根据相同错误类型的有错误语音数据训练对应该错误类型的错误空间模型;
所述第二挑选模块包括:
备选语音单元获取单元,用于从音库中获取所述待合成单元的备选语音单元序列;
特征提取单元,用于提取所述备选语音单元序列中各备选语音单元的声学特征,所述声学特征的类型包括以下任意一种或多种:频谱、基频、时长、拼接处频谱变化、拼接处基频变化;
第三计算单元,用于计算在所述上下文相关信息表征的环境下,所述备选语音单元的各声学特征相对目标模型的似然值减去各声学特征相对每类错误空间模型的似然值的差值的和,得到第四计算值;
选取单元,用于选取对应最大第四计算值的备选语音单元作为所述待合成单元的最优备选语音单元。
12.根据权利要求7至11任一项所述的系统,其特征在于,
所述测听结果获取模块,还用于获取测听人员对所述优化后的语音数据的测听结果;
所述系统还包括:
判断模块,用于判断所述测听结果是否达到要求;如果达到,则触发所述输出模块将所述优化后的语音数据作为所述待合成文本的合成语音数据输出;如果未达到,则触发所述修正模型训练模块继续根据所述测听结果训练对应不同声学特征的修正模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510305754.2A CN106297765B (zh) | 2015-06-04 | 2015-06-04 | 语音合成方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510305754.2A CN106297765B (zh) | 2015-06-04 | 2015-06-04 | 语音合成方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106297765A CN106297765A (zh) | 2017-01-04 |
CN106297765B true CN106297765B (zh) | 2019-10-18 |
Family
ID=57659786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510305754.2A Active CN106297765B (zh) | 2015-06-04 | 2015-06-04 | 语音合成方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106297765B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106920547B (zh) | 2017-02-21 | 2021-11-02 | 腾讯科技(上海)有限公司 | 语音转换方法和装置 |
CN108288464B (zh) * | 2018-01-25 | 2020-12-29 | 苏州奇梦者网络科技有限公司 | 一种修正合成音中错误声调的方法 |
CN108630190B (zh) * | 2018-05-18 | 2019-12-10 | 百度在线网络技术(北京)有限公司 | 用于生成语音合成模型的方法和装置 |
CN110070857B (zh) * | 2019-04-25 | 2021-11-23 | 北京梧桐车联科技有限责任公司 | 语音唤醒模型的模型参数调整方法及装置、语音设备 |
CN110136687B (zh) * | 2019-05-20 | 2021-06-15 | 深圳市数字星河科技有限公司 | 一种基于语音训练克隆口音及声韵方法 |
CN111145723B (zh) * | 2019-12-31 | 2023-11-17 | 广州酷狗计算机科技有限公司 | 转换音频的方法、装置、设备以及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1622195A (zh) * | 2003-11-28 | 2005-06-01 | 株式会社东芝 | 语音合成方法和语音合成系统 |
CN1954361A (zh) * | 2004-05-11 | 2007-04-25 | 松下电器产业株式会社 | 声音合成装置和方法 |
CN101131818A (zh) * | 2006-07-31 | 2008-02-27 | 株式会社东芝 | 语音合成装置与方法 |
CN101178896A (zh) * | 2007-12-06 | 2008-05-14 | 安徽科大讯飞信息科技股份有限公司 | 基于声学统计模型的单元挑选语音合成方法 |
CN103065619A (zh) * | 2012-12-26 | 2013-04-24 | 安徽科大讯飞信息科技股份有限公司 | 一种语音合成方法和语音合成系统 |
-
2015
- 2015-06-04 CN CN201510305754.2A patent/CN106297765B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1622195A (zh) * | 2003-11-28 | 2005-06-01 | 株式会社东芝 | 语音合成方法和语音合成系统 |
CN1312655C (zh) * | 2003-11-28 | 2007-04-25 | 株式会社东芝 | 语音合成方法和语音合成系统 |
CN1954361A (zh) * | 2004-05-11 | 2007-04-25 | 松下电器产业株式会社 | 声音合成装置和方法 |
CN101131818A (zh) * | 2006-07-31 | 2008-02-27 | 株式会社东芝 | 语音合成装置与方法 |
CN101178896A (zh) * | 2007-12-06 | 2008-05-14 | 安徽科大讯飞信息科技股份有限公司 | 基于声学统计模型的单元挑选语音合成方法 |
CN103065619A (zh) * | 2012-12-26 | 2013-04-24 | 安徽科大讯飞信息科技股份有限公司 | 一种语音合成方法和语音合成系统 |
Non-Patent Citations (1)
Title |
---|
融合主观评价与反馈的语音合成方法研究;夏咸军;《中国优秀硕士学位论文全文数据库 信息科技辑》;20141215;17-38 * |
Also Published As
Publication number | Publication date |
---|---|
CN106297765A (zh) | 2017-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106297765B (zh) | 语音合成方法及系统 | |
CN106297800B (zh) | 一种自适应的语音识别的方法和设备 | |
CN102034475B (zh) | 一种运用计算机对开放式短对话进行交互式评分的方法 | |
US10074363B2 (en) | Method and apparatus for keyword speech recognition | |
CN101064103B (zh) | 基于音节韵律约束关系的汉语语音合成方法及系统 | |
CN112185337B (zh) | 多语言神经文本到语音合成 | |
CN104780388B (zh) | 一种视频数据的切分方法和装置 | |
CN103559894B (zh) | 口语评测方法及系统 | |
CN111954903A (zh) | 多说话者神经文本到语音合成 | |
EP1906386A1 (en) | Using child directed speech to bootstrap a model based speech segmentation and recognition system | |
CN109408833A (zh) | 一种翻译方法、装置、设备及可读存储介质 | |
CN109858038A (zh) | 一种文本标点确定方法及装置 | |
CN107437417A (zh) | 基于循环神经网络语音识别中语音数据增强方法及装置 | |
Scharenborg | Modeling the use of durational information in human spoken-word recognition | |
CN103632663B (zh) | 一种基于hmm的蒙古语语音合成前端处理的方法 | |
CN1924994B (zh) | 一种嵌入式语音合成方法及系统 | |
CN110516244A (zh) | 一种基于bert的句子自动填充方法 | |
CN110415725B (zh) | 使用第一语言数据评估第二语言发音质量的方法及系统 | |
CN106297766B (zh) | 语音合成方法及系统 | |
CN108877769A (zh) | 识别方言种类的方法和装置 | |
CN109166569B (zh) | 音素误标注的检测方法和装置 | |
CN108172211B (zh) | 可调节的波形拼接系统及方法 | |
CN110490428A (zh) | 空中交通管制工作质量评估方法及相关装置 | |
CN110111778A (zh) | 一种语音处理方法、装置、存储介质及电子设备 | |
CN109036376A (zh) | 一种闽南语语音合成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20191230 Address after: 244000 No.1, floor 7, building A1, Beidou Star City, No.518, Cuihu 1st Road, Tongguan District, Tongling City, Anhui Province Patentee after: IFLYTEK Changjiang Information Technology Co., Ltd Address before: Wangjiang Road high tech Development Zone Hefei city Anhui province 230088 No. 666 Patentee before: Iflytek Co., Ltd. |
|
TR01 | Transfer of patent right |