CN103035251A - 一种建立语音转换模型的方法、语音转换的方法及系统 - Google Patents
一种建立语音转换模型的方法、语音转换的方法及系统 Download PDFInfo
- Publication number
- CN103035251A CN103035251A CN2011102970687A CN201110297068A CN103035251A CN 103035251 A CN103035251 A CN 103035251A CN 2011102970687 A CN2011102970687 A CN 2011102970687A CN 201110297068 A CN201110297068 A CN 201110297068A CN 103035251 A CN103035251 A CN 103035251A
- Authority
- CN
- China
- Prior art keywords
- language
- syllable
- duration
- parameters
- fundamental
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
本发明公开了一种建立语音转换模型的方法和实现第一语言与第二语言之间的语音转换方法和装置,该转换方法包括:对待转换的第一语言语音进行语音切分得到至少一个第一语言音节,并记录通过语音切分得到的各个第一语言音节的音节时长参数;提取各个第一语言音节的基频参数;按照第一语言和第二语言的语音转换模型,根据各个第一语言音节的基频参数以及音节时长参数确定所对应各个第二语言音节的基频参数以及音节时长;对应各个第二语言音节,用其基频参数和音节时长调整所对应第一语言音节的语音波形,获得各个第二语言音节的语音波形,并输出。应用本发明进行语音转换时,能够基本保持输入语音和经转换后输出语音音质的一致性,且能够实时转换。
Description
技术领域
本发明涉及利用计算机实现不同语音转换的技术,特别涉及一种建立语音转换模型的方法以及实现第一语言与第二语言之间语音转换的方法及系统。
背景技术
目前,从中国普通话到方言之间的转换有两种实现方式。第一种常用的转换方式是完全的人工转换,这就是说,如果想把普通话语音转换成相应的方言语音,需要知道普通话语音的内容,再将用方言读出的所述语音内容的每个句子录制下来。由于普通话语音内容的多少是没有限制的,这就导致转换工作既费时又费力。
第二种是利用计算机的语音合成技术来实现,典型的如申请号为200610038587.0的中国专利申请就公开了一种在方言语音合成系统中进行文本方言化处理的方法。该方法首先建立普通话与目标方言之间的同意翻译的方言化规则,然后根据该规则,将输入方言语音合成系统的普通话文本转换为方言文本,再将方言文本输入到语音合成模块,由语音合成模块将方言文本转换为方言语音输出。该方法在刚开始方言化规则建立阶段,需要对所有的方言和普通话建立标注句库,这等于新建了一个文本语音系统,因此也很费时。
虽然,第二种实现方式比第一种实现方式提高了适应性,能够将任意的普通话文本转换为方言语音,但是,第二种方式一个明显的问题就是由语音合成系统转换的方言语音是固定的音质,再有就是只能将普通话文本转换为方言语音,而不能实现普通话语音与方言语音之间的实时转换。
发明内容
有鉴于此,本发明提供了一种建立语言转换模型的方法以及实现第一语言与第二语言之间的语音转换方法及系统,应用该方法及系统能够实现第一语言语音与第二语言语音之间的实时转换,且能够基本保持输入语音和经转换后输出语音音质的一致性。
本发明的实施例提供的建立语言转换模型的方法包括:建立存储第一语言语音和针对同一文本的第二语言语音的语音数据库;对语音数据库中存储的第一语言语音进行语音切分得到第一语言音节,并对针对同一文本的第二语言语音进行语音切分得到第二语言音节;记录通过语音切分得到的各个第一语言音节和各个第二语言音节的音节时长参数;分别提取通过语音切分得到的各个第一语言音节和各个第二语言音节的基频参数;以及根据各个第一语言音节和各个第二语言音节的音节时长参数和基频参数建立第一语言和第二语言之间的语音转换模型。
上述根据各个第一语言音节和各个第二语言音节的音节时长参数和基频参数建立第一语言和第二语言之间的语音转换模型包括:根据各个第一语言音节和各个第二语言音节的基频参数,建立第一语言和第二语言之间的基频转换模型;以及分别统计第一语言音节以及第二语言音节的音节时长参数,并根据音节时长参数的统计结果建立第一语言和第二语言之间的时长转换模型。
上述基频参数包括:每个音节内所有基频点的基频值、基频开始位置以及基频峰值点信息;其中,建立第一语言和第二语言之间的基频转换模型包括:分别根据各个第一语言音节的基频参数确定各个第一语言音节的基频曲线特征参数,其中,基频曲线特征参数包括:基频的均值特征参数、基频开始位置以及四个调型特征参数,其中,所述四个调型特征参数为用三次多项式Ax3+Bx2+Cx+D=y拟合第一语言音节或第二语言音节的基频曲线获得的三次多项式的四个系数;应用各个第一语言音节的基频曲线特征参数对各个第一语言音节对应的基频曲线进行聚类,得到至少一个第一基频曲线类别;分别根据各个第二语言音节的基频参数确定各个第二语言音节的基频曲线特征参数,应用各个第二语言音节的基频曲线特征参数对各个第二语言音节对应的基频曲线进行聚类,得到至少一个第二基频曲线类别;其中,第一基频曲线类别和第二基频曲线类别一一对应;针对每一对一一对应的第一基频曲线类别和第二基频曲线类别,建立属于该第一基频曲线类别的第一语言音节的基频曲线特征参数与属于该第二基频曲线类别的第二语言音节的基频曲线特征参数之间的对应关系。
特别地,应用各个第一语言音节的基频曲线特征参数对各个第一语言音节对应的基频曲线进行聚类包括:为各个第一语音音节的基频曲线特征参数设置相同或不同的权重,并应用各个第一语言音节的基频曲线特征参数对各个第一语言音节对应的基频曲线进行聚类;以及应用各个第二语言音节的基频曲线特征参数对各个第二语言音节对应的基频曲线进行聚类包括:为各个第二语音音节的基频曲线特征参数设置相同或不同的权重,并应用各个第二语言音节的基频曲线特征参数对各个第二语言音节对应的基频曲线进行聚类。
上述音节时长参数包括:每个音节的音节时长、每个音节的韵律位置特征参数以及该音节各个该韵律位置下的声调值;其中,所述韵律位置特征参数表示该音节在句中的位置,包括:句首韵律词、句尾韵律词、句中非韵律短语边界或句中韵律短语边界;此时,建立第一语言和第二语言之间的时长转换模型包括:统计出各个第一语言音节和各个第二语言音节在各个韵律位置、各声调下的平均音节时长;对平均音节时长进行归一化处理后,再求出各个韵律位置同声调下第二语言音节与第一语言音节的平均音节时长的比值,得到如下公式所示的时长变换系数矩阵:
根据上述时长变换系数矩阵,处于i韵律位置具有声调值j的音节的音节时长调整公式为:TDij=TMij×aij,其中,TMij为第一语言音节的音节时长,TDij为经过转换后第二语言音节的音节时长;i=0~m代表不同的韵律位置特征参数,j=0~n代表不同的声调值。
上述方法进一步包括:通过个性化语音训练过程建立个性化语音数据库,其中,所述个性化语音数据库存储第二语言的特殊词汇的语音波形。
本发明实施例所述的语音转换方法包括:对待转换的第一语言语音进行语音切分得到至少一个第一语言音节,并记录通过语音切分得到的各个第一语言音节的音节时长参数;提取通过语音切分得到的各个第一语言音节的基频参数;按照第一语言和第二语言之间的语音转换模型,根据各个第一语言音节的基频参数以及音节时长参数确定所对应各个第二语言音节的基频参数以及音节时长;对应各个第二语言音节,用其基频参数和音节时长调整所对应第一语言音节的语音波形,获得各个第二语言音节的语音波形,并输出所获得的各个第二语言音节的语音波形。
上述根据各个第一语言音节的基频参数以及音节时长参数确定所对应各个第二语言音节的基频参数以及音节时长包括:按照第一语言和第二语言之间的基频转换模型,根据各个第一语言音节的基频参数以及音节时长参数确定所对应各个第二语言音节的基频参数;以及按照第一语言和第二语言之间的音节时长转换模型,根据各个第一语言音节的音节时长参数确定所对应各个第二语言音节的音节时长。
上述根据各个第一语言音节的基频参数以及音节时长参数确定所对应各个第二语言音节的基频参数包括:根据各个第一语言音节的基频参数确定各个第一语言音节的基频曲线特征参数;其中,所述基频参数包括:每个音节内所有基频点的基频值、基频开始位置以及基频峰值点信息;所述基频曲线特征参数包括:基频的均值特征参数、基频开始位置以及四个调型特征参数;其中,所述四个调型特征参数为用三次多项式Ax3+Bx2+Cx+D=y拟合第一语言音节或第二语言音节的基频曲线获得的三次多项式的四个系数(A、B、C、D);根据各个第一语言音节的基频曲线特征参数,与所建立的语音转换模型中的各个基频曲线类别进行匹配,分别找到各个第一语言音节对应的基频曲线类型,从而得到各个第一语言音节的基频曲线特征参数和第二语言音节的基频曲线特征参数之间的对应关系;按照各个第一语言音节的基频曲线特征参数与第二语言音节的基频曲线特征参数之间的对应关系,获得与各个第一语言音节对应的第二语言音节的基频曲线特征参数;以及根据各个第一语言音节对应的第二语言语音的基频曲线特征参数,确定各个第一语言音节所对应的第二语言音节的基频参数。
上述确定各个第一语言音节所对应的第二语言音节的基频参数包括:记录各个第一语言音节对应的第二语言音节的基频曲线特征参数中的基频开始位置;根据各个第二语言音节的基频曲线特征参数中的基频开始位置以及四个调型特征参数分别进行三次多项式插值,获得各个第二语言音节的基频值;用各个第一语言音节的基频峰值点信息以及对应的第二语言音节的基频值进行计算,获得各个第二语言音节的基频峰值点信息。
在对待转换的第一语言语音进行语音切分后,上述方法进一步包括:对待转换各个第一语言音节进行语音识别,对识别出的特殊词汇,到个性化语音数据库查找对应的第二语言音节的语音波形;对除特殊词汇之外的各个第一语言音节,根据各个第一语言音节的基频参数和音节时长参数,按照所述语音转换模型,确定各个第二语言音节的基频参数和音节时长,对第一语言的语音波形进行调整,获得各个第二语言音节的语音波形。
需要说明的是,上述第一语言为中国普通话,第二语言为北方方言;或者第一语言为北方方言,第二语言为中国普通话。
本发明实施例所述的语音转换系统包括:第一语言语音输入模块310、语音转换模块320以及第二语言语音输出模块330;其中,第一语言语音输入模块310用于接收用户输入的待转换的第一语言语音,并发送给语音转换模块320;语音转换模块320用于对接收的第一语言语音进行语音切分得到至少一个第一语言音节,并记录各个第一语言音节的音节时长参数,然后提取各个第一语言音节的基频参数,再按照存储的语音转换模型确定各个第一语言音节对应的第二语言音节的基频参数和音节时长,再用各个第二语言音节的基频参数和音节时长调整对应各个第一语言音节的语音波形,获得各个第二语言音节的语音波形,并输出给第二语言语音输出模块330;
第二语言语音输出模块330用于将各个第二语言音节的语音波形输出给用户。
上述语音转换模块320包括:语音切分单元321、语音转换单元322、语音转换模型存储单元323和波形调整单元324;其中,
语音切分单元321对接收的第一语言语音进行语音切分得到至少一个第一语言音节,并将第一语言音节发送给语音转换单元322;
语音转换单元322记录各个第一语言音节的音节时长参数,提取各个第一语言音节的基频参数,再按照语音转换模型存储单元323中存储的语音转换模型,确定与各个第一语言音节对应的第二语言音节的基频参数和音节时长,并各个将第二语言音节的基频参数和音节时长发给波形调整单元324;以及
波形调整单元324用各个第二语言音节的基频参数和音节时长调整所对应各个第一语言音节的语音波形,获得各个第二语言音节的语音波形,并输出给第二语言语音输出模块330。
上述进一步包括:个性化语音数据库450,用于存储与第一语言特殊词汇对应的第二语言特殊词汇的每个音节的语音波形;此时语音转换模块420将对接收的待转换的第一语言语音进行语音切分得到至少一个第一语言音节,然后对第一语言音节进行识别判断是否有特殊词汇,如果有,则真对特殊词汇音节到个性化语音数据库450查找对应音节的第二语言语音波形,并对除特殊词汇语音段外的每个第一语言音节,记录各个第一语言音节的音节时长参数,然后提取各个第一语言音节的基频参数,再按照存储的语音转换模型确定各个第一语言音节对应的第二语言音节的基频参数和音节时长,再用各个第二语言音节的基频参数和音节时长调整对应各个第一语言音节的语音波形,获得各个第二语言音节的语音波形,而对特殊词汇音节,用第二语言音节的语音波形替换对应第一语言音节语音波形,然后将获得各个第二语言音节的语音波形输出给第二语言语音输出模块430。
由上述的方案可知,本发明利用了第一语言与第二语言读音基本相同,而声调不同的特点。在进行语音转换时,不改变原始语音与目标语音的基本读音,而用目标语音的声调参数调整原始语音的波形的方式,保持了待转换第一语言与第二语言的基本读音,能够基本保持输入语音和经转换后输出语音音质的一致性,而且不需要将语音转换为文本,能够实现第一语言语音与第二语言语音之间的直接转换。
附图说明
图1为本发明实施例所述语音转换方法中建立语音转换模型的流程示意图;
图2为本发明实施例所述语音转换方法中进行语音转换的流程示意图;
图3为本发明实施例所述的语音转换系统的内部结构示意图;
图4为本发明另一实施例所述的语音转换系统的内部结构示意图。
具体实施方式
为使本发明的技术方案更加清楚、明白,以下参照附图并举实施例,对本发明的方案作进一步地详细说明。
本发明实施例提出了一种建立语音转换模型的方法以及实现第一语言与第二语言之间语音转换的方法及语音转换系统,其中,本发明实施例要求进行语音转换的第一语言与第二语言的读音基本相同,而声调和音节时长不同,例如中国普通话和北方方言就存在上述特点。因此,在本发明中,上述第一语言可以是中国普通话,第二语言可以是北方方言;或者反过来,上述第一语言是北方方言,第二语言是中国普通话。当进行语音转换的第一语言与第二语言具有读音基本相同、但声调和音节时长不同的特点时,就可以以第一语言语音和第二语言语音的基频和时长参数为主要参数建立语音转换模型。这样,在进行语音转换时,按照建立的语音转换模型,找到第二语言语音的基频和时长参数,并用第二语言语音的基频和时长参数调整第一语言的语音波形,从而将第一语言语音转换为第二语言语音。
为了实现第一语言与第二语言之间的语音转换需要预先建立语音转换模型,该语音转换模型用于记录第一语言语音中各音节的基频曲线特征参数和音节时长与针对同一文本的第二语言语音中各音节的基频曲线特征参数和音节时长之间的对应关系。建立语音转换模型是实现实时语音转换的准备阶段,该阶段工作完成后,就可以利用建立的语音转换模型进行实时语音转换。因此,在第一语音与第二语言之间的语音转换过程中,不需要重复执行建立语音转换模型的过程。在本发明实施例中,语音转换模型包括基频转换模型和时长转换模型。
以下对本发明的建立语音转换模型的方法以及实现第一语言与第二语言之间语音转换的方法和语音转换系统进行详细说明。
图1为本发明实施例所述的语音转换方法中建立语音转换模型的流程示意图。如图1所示,该流程主要包括以下步骤:
步骤101,建立存储第一语言语音和针对同一文本的第二语言语音的语音数据库。
本步骤是一个语言录制过程,分别对第一语言语音和针对同一文本的第二语言一句话一句话的录制,并存储到上述语音数据库中,也即在语音数据库中存储的每一个第一语言语音或第二语言语音都是一句话。这里,录制的语音应当尽可能覆盖所有汉字。为了描述方便,下文将上述针对同一文本的第二语言语音简称为对应的第二语言语音。同理,在下文中,在描述与第二语言语音针对同一文本的第一语言语音时,也将针对同一文本的第一语言语音简称为对应的第一语言语音。
步骤102,对语音数据库中存储的第一语言语音进行语音切分,得到第一语言音节;对针对同一文本的第二语言语音进行语音切分得到第二语言音节,并记录通过语音切分得到的各个第一语言音节和各个第二语言音节的音节时长参数。
本步骤中,可以利用现有的语音切分算法将语音数据库中存储的第一语言语音和对应的第二语言语音分别进行语音切分,分别得到第一语言音节和第二语言音节。
在本实施例中,上述音节时长参数包括:每个音节的音节时长、每个音节的韵律位置特征参数以及该音节各个该韵律位置下的声调值等。其中,上述韵律位置特征参数表示该音节在句中的位置,包括:句首韵律词、句尾韵律词、句中非韵律短语边界或句中韵律短语边界。例如一个句子包含6个字,切分后得到6个音节,其中第一个字是单音节词、第二个和第三个字组合为一个双音节词、第四个字是个单音节词、第五个和第六个字组合为一个双音节词,则第一个音节的韵律特征就是句首韵律词、第二个音节和第五个音节的韵律特征就是句中非韵律短语边界、第三个音节和第四个音节的韵律特征就是句中韵律短语边界,第六个音节的韵律特征是句尾韵律词。上述声调值包括五种声调:阴平、阳平、上声、去声、轻声。
步骤103,分别提取通过语音切分得到的各个第一语言音节和各个第二语言音节的基频参数。
本步骤中,上述基频参数包括:包括:每个音节内所有基频点的基频值、基频开始位置以及基频峰值点信息。其中,上述基频值表示基频的频率值;上述基频开始位置表示基频在音节中开始的时间点;上述基频峰值点信息表示音节内出现波形峰值时的时间点组成的序列。这些参数可以由人工提取,也可以利用现有的基频参数提取算法提取。
步骤104,根据各个第一语言音节和各个第二语言音节的音节时长参数和基频参数建立第一语言和第二语言之间的语音转换模型。
上述步骤104具体包括:子步骤1041:根据各个第一语言音节和各个第二语言音节的基频参数,建立第一语言和第二语言之间的基频转换模型;以及子步骤1042:分别统计第一语言音节以及第二语言音节的音节时长参数,并根据音节时长参数的统计结果建立第一语言和第二语言之间的时长转换模型。需要说明的是,上述两个子步骤1041和1042可以串行执行也可以并行执行。下面将详细描述上述两个子步骤的实现过程。
总体来讲,在子步骤1041中,首先根据各个第一语言音节的基频参数确定各个第一语言音节的基频曲线特征参数,然后按照确定的各个第一语言音节的基频曲线特征参数将各个第一语言音节对应的基频曲线划分为至少一个第一基频曲线类别;然后根据各个第二语言音节的基频参数确定各个第二语言音节的基频曲线特征参数,然后按照确定的各个第二语言音节的基频曲线特征参数将各个第二语言音节对应的基频曲线划分为至少一个第二基频曲线类别,其中,所划分的第一基频曲线类别与所划分的第二基频曲线类别一一对应;最后,针对每一对一一对应的第一基频曲线类别和第二基频曲线类别,建立属于该第一基频曲线类别的第一语言音节的基频曲线特征参数与属于该第二基频曲线类别的第二语言音节的基频曲线特征参数之间的对应关系。
具体而言,建立第一语言音节和第二语言音节之间的基频转换模型主要包括以下步骤:
第一步,分别根据各个第一语言音节的基频参数确定各个第一语言音节的基频曲线特征参数,在这里,所述的基频曲线特征参数具体包括:
1、基频的均值特征参数,该参数是对该音节内所有的基频点的基频值进行平均得到的。
2、基频开始位置,该参数就是指上述基频参数中的基频开始位置。
3、四个调型特征参数,这四个参数就是用三次多项式Ax3+Bx2+Cx+D=y拟合该第一语言音节的基频曲线获得的该三次多项式的四个系数:A、B、C、D。用三次多项式来拟合曲线是现有技术,在本发明实施例中应用于基频曲线,其中x为时间,y为基频的频率值。
第二步,应用各个第一语言音节的基频曲线特征参数,对各个第一语言音节对应的基频曲线进行聚类,得到至少一个第一基频曲线类别。
在本步骤中,可以采用现有的聚类算法,例如凝聚聚类算法对上述所有音节对应的基频曲线进行聚类。此外,为了得到更好的聚类效果,在对各个第一语言音节对应的基频曲线进行聚类时,可以进一步为各个特征参数设置相同或不同的权重,例如,设置四个调型特征参数的权重都为3,设置基频的均值特征参数的权重为2,而基频开始位置的权重为1。
第三步,使用相同的方法对各个第二语言音节对应的基频曲线进行聚类,得到至少一个第二基频曲线类别。需要说明的是,该步骤得到的第二基频曲线类别应当与通过上述第二步得到的第一基频曲线类别一一对应。
具体而言,在本步骤中,首先确定第二语言音节的基频曲线特征参数,再应用各个第二语言音节的基频曲线特征参数,对各个第二语言音节对应的基频曲线进行聚类,得到至少一个第二基频曲线类别。同样,在对各个第二语言音节对应的基频曲线进行聚类时,可以进一步为各个特征参数设置相同或不同的权重。
第四步,针对每一对一一对应的第一基频曲线类别和第二基频曲线类别,建立属于该第一基频曲线类别的第一语言音节的基频曲线特征参数与属于该第二基频曲线类别的第二语言音节的基频曲线特征参数之间的对应关系。例如,分别针对每一对一一对应的第一基频曲线类别和第二基频曲线类别,可以将属于该第一基频曲线类别的第一语言音节的基频曲线的特征参数与属于与该第二基频曲线类别的第二语言基频曲线特征参数存储到一张如表1所示的参数对应表中。也就是说,所建立的基频转换模型可以包括至少一个如下表1所示的参数对应表,其中每一个参数对应表对应一对一一对应的第一基频曲线类别和第二基频曲线类别。
本发明实施例在建立语音转换模型中的基频转换模型时,可以进一步记录属于每种第一基频曲线类别的第一语言音节的声调值,如下表1所示,在如表1所示的参数对应表中增加声调值一项,这样,在对每个待转换的第一语言音节进行实时语音转换的音节时长转换时,首先根据第一语言音节所对应基频曲线的基频曲线类别,获得基频转换模型中此基频曲线类别对应的第一语言音节的声调值。具体的音节时长转换方法将在下面详细说明。
参数名称 | 第一语言参数值 | 第二语言参数值 |
基频均值特征 | ||
基频开始位置 | ||
三次多项式系数A | ||
三次多项式系数B | ||
三次多项式系数C | ||
三次多项式系数D | ||
声调值 | 空 |
表1
在子步骤1042,所建立的时长转换模型只有一个,该时长转换模型是根据各个第一语言音节和第二语言音节在每种声调下持续时间的统计结果得到的一个音节时长调整公式,它的建立比较简单。具体地,先统计出对各个第一语言音节和各个第二语言音节在各个韵律位置、各声调下的平均音节时长,该平均音节时长是对五种声调:阴平、阳平、上声、去声和轻声的统计得到的,然后对平均音节时长进行归一化处理后,再求出各个韵律位置同声调下第二语言音节与第一语言音节的平均音节时长的比值,即为时长变换系数。可以得到如下公式(1)所示的时长变换系数矩阵:
因此,处于i韵律位置具有声调值j的音节的音节时长调整公式为:TDij=TMij×aij,其中,TMij为第一语言音节的音节时长,TDij为经过转换后第二语言音节的音节时长;上述时长变换系数矩阵公式中i=0~m代表不同的韵律位置特征参数,通常m小于或等于3,j=0~n代表不同的声调值,通常n小于或等于5,该5种声调值:阴平、阳平、上声、去声、轻声。
通过上述方法可以建立第一语言和第二语言之间基频转换模型和时长转换模型,也即语音转换模型。从上述语音转换模型可以看出,通过上述方法建立的语音转换模型只与基频参数和时长参数有关,而与读音无关,也即不同读音的汉字,得到的语音转换模型是一个。
本实施例中建立语音数据库的目的就是为了建立语音转换模型,其并不提供给用户。语音转换过程中,只需根据语音转换模型即可进行语音转换。
参见图2,图2为本发明实施例所述进行语音转换的流程示意图。该流程主要包括以下步骤:
步骤201,对待转换的第一语言语音进行语音切分得到至少一个第一语言音节,并记录通过语音切分得到的各个第一语言音节的音节时长参数。
本步骤与图1所示步骤102中对语音数据库中存储的语音进行语音切分的方法相同,即利用现有的音节切分算法,将接收到的第一语言语音切分为至少一个第一语言音节。此外,通常情况下,在本步骤中记录的各个第一语言音节的音节时长参数只包括每个音节的音节时长和每个音节的韵律位置特征参数。
此外,与语音转换模型建立过程中对应,这里所述的待转换的第一语言语音是用第一语言读出的一句话的语音。
步骤202,提取通过语音切分得到的各个第一语言音节的基频参数。
本步骤中,提取通过语音切分得到的各个第一语言音节的基频参数的方法与步骤103所述的方法相同,在此不再赘述。
步骤203,按照第一语言和第二语言的语音转换模型,根据各个第一语言音节的基频参数以及音节时长参数确定所对应各个第二语言音节的基频参数以及音节时长。
本步骤具体包括两个子步骤:子步骤2031:按照第一语言和第二语言的基频转换模型,根据各个第一语言音节的基频参数确定所对应各个第二语言音节的基频参数;子步骤2032:按照第一语言和第二语言的音节时长转换模型,根据各个第一语言音节的音节时长参数确定所对应各个第二语言音节的音节时长。下面将详细描述上述两个子步骤的实现方法。
上述子步骤2031具体包括:
首先,根据各个第一语言音节的基频参数,例如基频点值和基频点开始位置,确定各个第一语言音节的基频曲线特征参数,包括:基频的均值特征参数、基频开始位置以及四个调型特征参数即四个多项式系数。本步骤中,获得这6个基频曲线的特征参数的方法与上述步骤104中获取第一语言语音的基频曲线的特征参数的方法相同,这里不再重复。
然后,根据各个第一语言音节的基频曲线特征参数,与所建立的语音转换模型中的各个基频曲线类别进行匹配,分别找到各个第一语言音节对应的基频曲线类型,从而得到各个第一语言音节的基频曲线特征参数和第二语言音节的基频曲线特征参数之间的对应关系。
再然后,按照各个第一语言音节的基频曲线特征参数与第二语言音节的基频曲线特征参数之间的对应关系,获得与各个第一语言音节对应的第二语言音节的基频曲线特征参数。具体地,该步骤可以直接通过查参数对应表得到。
最后,根据各个第一语言音节对应的第二语言语音的基频曲线特征参数,确定各个第一语言音节所对应的第二语言音节的基频参数。
本步骤具体可以包括:首先,记录各个第一语言音节对应的第二语言音节的基频曲线特征参数中的基频开始位置;并根据各个第二语言音节的基频曲线特征参数中的基频开始位置以及四个调型特征参数分别进行三次多项式插值,获得各个第二语言音节的基频值;然后用各个第一语言音节的基频峰值点信息以及对应的第二语言音节的基频值进行计算,获得各个第二语言音节的基频峰值点信息。本步骤具体可以采用现有的算法来实现。
上述子步骤2032具体包括:按照第一语言和第二语言之间的音节时长转换模型,根据各个第一语言音节的音节时长参数(音节时长、韵律位置特征参数和声调值)确定第二语言音节的音节时长。
需要说明的是,在本步骤中,上述各个第一语言音节的音节时长、韵律位置特征参数是在上述步骤202中记录的,而上述第一语言音节的声调值是从基频转换模型中读取的该第一语言音节的声调值。
步骤204,对应各个第二语言音节,用其基频参数和音节时长调整所对应第一语言音节的语音波形,获得各个第二语言音节的语音波形,并输出所获得的各个第二语言音节的语音波形。
本步骤中,就是用各个第二语言音节的基频参数(具体为基频峰值点信息)及音节时长来调整所对应各个第一语言音节的语音波形,从而获得第二语言语音波形。具体的波形调整属于现有技术,这里不再赘述。至此,完成了一句话的语音转换。
由于有的第二语言会有一些特殊词汇,与第一语言语音不仅声调不同,读音也有所不同。例如:第一语言的“我”,在山东话中是“俺”。对于这类特殊词汇,本发明的实施例可以通过个性化语音训练过程,建立了一个个性化语音数据库,其中存储了第二语言的特殊词汇的语音波形。
本实施例中,为了保持第一语言语音与第二语言语音音质的一致性,这个个性化训练过程由用户来参与完成,使得个性化语音数据库中的语音都是用户自己的语音,这样在语音转换时,特殊词汇也保持了用户自己的音质。
个性话语音训练过程很简单,就是对那些不能通过声调变化直接转化,而需要先进行语音识别的特殊词,用户按照语音转换系统提示读音,将用户读出的特殊词汇的语音,存储到个性化语音数据库中。
本实施例中,在语音转换过程中,在对待转换的第一语言语音进行语音切分后,提取基频参数之前,先对待转换各个第一语言音节进行语音识别,对识别出的特殊词汇的音节,到所述个性化语音数据库查找对应的第二语言音节的语音波形;然后对除特殊词汇之外的各个第一语言音节,根据每个第一语言音节的基频参数和音节时长参数,按照所述基频转换模型和时长转换模型,确定每个第二语言音节的基频参数。然后,再对各个第一语言音节的语音波形进行调整,获得各个相对应第二语言音节的语音波形。在此过程中,对第一语言中的特殊词汇,用查找到相对应的第二语言音节的语音波形替换第一语言音节的语音波形;对除特殊词汇之外的各个第一语言音节,用第二语言音节的基频参数和音节时长调整相对应第一语言音节的语音波形;获得各个第二语言音节的语音波形。其他实现细节与上述方法相同,这里不再重复。
以下,对本发明实施例所述的实现第一语言与第二语言之间的语音转换系统进行详细说明。
本实施例与图1、图2所示的语音转换方法相对应,具体参见图3,图3为本发明实施例所述语音转换系统的内部结构示意图,该语音转换系统包括:第一语言语音输入模块310、语音转换模块320、第二语言语音输出模块330以及可选的功能选择模块340。
其中,第一语言语音输入模块310用于接收用户输入的待转换的第一语言语音,并发送给语音转换模块320。具体可以采用话筒等语音输入设备实现。
语音转换模块320首先对接收的第一语言语音进行语音切分得到至少一个第一语言音节,并记录各个第一语言音节的音节时长参数,然后提取各个第一语言音节的基频参数,再按照存储的语音转换模型确定各个第一语言音节对应的第二语言音节的基频参数和音节时长,再用各个第二语言音节的基频参数和音节时长调整对应各个第一语言音节的语音波形,获得各个第二语言音节的语音波形,并输出给第二语言语音输出模块330。其具体的实现原理,参见上述语言转换方法的步骤202~步骤205。
如图3所示,本实施例中的语音转换模块320具体包括:语音切分单元321、语音转换单元322、语音转换模型存储单元323和波形调整单元324。其中,语音切分单元321对接收的第一语言语音进行语音切分得到至少一个第一语言音节,并将第一语言音节发送给语音转换单元322;语音转换单元322记录各个第一语言音节的音节时长参数,提取各个第一语言音节的基频参数,再按照语音转换模型存储单元323中存储的语音转换模型,确定与各个第一语言音节对应的第二语言音节的基频参数和音节时长,并将各个第二语言音节的基频参数和音节时长发送给波形调整单元324;波形调整单元324用各个第二语言音节的基频参数和音节时长调整所对应各个第一语言音节的语音波形,获得各个第二语言音节的语音波形,并输出给第二语言语音输出模块330。
第二语言语音输出模块330用于将各个第二语言音节的语音波形输出给用户。具体可以采用喇叭、耳机等语音输出设备实现。
本实施例中,如果只实现第一语言语音到一种第二语言语音的单方向语音转换,可以不设置功能选择模块340,如果要实现第一语言语音与多种第二语言语音的多方向语音转换,则需要设置功能选择模块340,语音转换模块320中的语音转换模型存储单元323将分别存储第一语言到多种第二语言及多种第二语言到第一语言的语音转换模型。
此时,功能选择模块340将根据用户的选择,向语音转换模块320发送语音转换命令,如从第一语言语音到第一种第二语言语音的语音转换命令、第二种第二语言语音到第一语言语音的转换命令等,语音转换模块320根据该命令确定哪种语音为待转换的第一语言语音,哪种语音为转换后的第二语言语音,并用与转换命令对应的语音转换模型进行语音转换。
为了对特殊词汇进行处理,上述语音转换系统还可以进一步包括:个性化语音数据库450。
上述个性化语音数据库450存储了第一语言特殊词汇和其对应第二语言特殊词汇的每个音节的语音波形。
在本实施例中,语音转换模块420将首先对接收的待转换的第一语言语音进行语音切分得到至少一个第一语言音节,然后对第一语言音节进行识别判断是否有特殊词汇,如果有,则真对特殊词汇音节到个性化语音数据库460查找对应音节的第二语言语音波形,并对除特殊词汇语音段外的每个第一语言音节,记录各个第一语言音节的音节时长参数,然后提取各个第一语言音节的基频参数,再按照存储的语音转换模型确定各个第一语言音节对应的第二语言音节的基频参数和音节时长,再用各个第二语言音节的基频参数和音节时长调整对应各个第一语言音节的语音波形,获得各个第二语言音节的语音波形,而对特殊词汇音节,用第二语言音节的语音波形替换对应第一语言音节语音波形,然后将获得各个第二语言音节的语音波形输出给第二语言语音输出模块430。
如图4所示,在这种情况下语音转换模块420进一步包括:特殊词汇识别单元425。在本实施例中,语音转换单元422首先将通过语音切分得到的第一语言音节发送给特殊词汇识别单元425进行识别;特殊词汇识别单元425进行语音识别,将语音识别的结果返回给语音转换单元422;此后,语音转换单元422判断如果有特殊词汇,则对特殊词汇音节到个性化语音数据库460查找对应的第二语言音节的语音波形,并对除特殊词汇音节外的各个第一语言音节,按照语音转换模型确定各个对应的第二语言音节的基频参数和音节时长,然后将特殊词汇的第二语言音节的语音波形和除特殊词汇音节外的各个第二语言音节的基频参数和音节时长发送给波形调整单元423;如果没有特殊词汇,则按照语音转换模型存储单元424中的语音转换模型确定各个第二语言音节的基频参数和音节时长,发送给波形调整单元423;波形调整单元423对有特殊词汇的句子,用特殊词汇的第二语言音节的语音波形替换第一语言音节的语音波形,对非特殊词汇音节用对应的第二语言音节的基频参数和音节时长调整第一语言音节的语音波形,获得各个第二语言音节的语音波形,并输出给第二语言语音输出模块430;对没有特殊词汇的句子,用对应的第二语言音节的基频参数和音节时长调整第一语言音节的语音波形,获得各个第二语言音节的语音波形,并输出给第二语言语音输出模块430。
由此可以看出,本发明实施例提出的实现第一语言与第二语言之间的语音转换方法及系统,可以实现第一语言语音和第二语言之间的一句话一句话的实时转换,而且能够基本保持输入语音与输出语音的音质一致性。
本发明还提供了一种机器可读的存储介质,存储用于使一机器执行如本文所述的建立语音转换模型的方法以及语音转换方法的指令。具体地,可以提供配有存储介质的系统或者装置,在该存储介质上存储着实现上述实施例中任一实施例的功能的软件程序代码,且使该系统或者装置的计算机(或CPU或MPU)读出并执行存储在存储介质中的程序代码。
在这种情况下,从存储介质读取的程序代码本身可实现上述实施例中任何一项实施例的功能,因此程序代码和存储程序代码的存储介质构成了本发明的一部分。
用于提供程序代码的存储介质实施例包括软盘、硬盘、磁光盘、光盘(如CD-ROM、CD-R、CD-RW、DVD-ROM、DVD-RAM、DVD-RW、DVD+RW)、磁带、非易失性存储卡和ROM。可选择地,可以由通信网络从服务器计算机上下载程序代码。
此外,应该清楚的是,不仅可以通过执行计算机所读出的程序代码,而且可以通过基于程序代码的指令使计算机上操作的操作系统等来完成部分或者全部的实际操作,从而实现上述实施例中任意一项实施例的功能。
此外,可以理解的是,将由存储介质读出的程序代码写到插入计算机内的扩展板中所设置的存储器中或者写到与计算机相连接的扩展单元中设置的存储器中,随后基于程序代码的指令使安装在扩展板或者扩展单元上的CPU等来执行部分和全部实际操作,从而实现上述实施例中任一实施例的功能。
本发明公开了一种建立语音转换模型的方法和实现第一语言与第二语言之间的语音转换方法和装置。其中转换方法包括:对待转换的第一语言语音进行语音切分得到至少一个第一语言音节,并记录通过语音切分得到的各个第一语言音节的音节时长参数;提取各个第一语言音节的基频参数;按照第一语言和第二语言的语音转换模型,根据各个第一语言音节的基频参数以及音节时长参数确定所对应各个第二语言音节的基频参数以及音节时长;对应各个第二语言音节,用其基频参数和音节时长调整所对应第一语言音节的语音波形,获得各个第二语言音节的语音波形,并输出。应用本发明进行语音转换时,能够基本保持输入语音和经转换后输出语音音质的一致性,且能够实时转换。
Claims (17)
1.一种建立语音转换模型的方法,所述方法包括:
建立存储第一语言语音和针对同一文本的第二语言语音的语音数据库;
对所述语音数据库中存储的第一语言语音进行语音切分得到第一语言音节,并对针对同一文本的第二语言语音进行语音切分得到第二语言音节;
记录通过语音切分得到的各个第一语言音节和各个第二语言音节的音节时长参数;
分别提取通过语音切分得到的各个第一语言音节和各个第二语言音节的基频参数;以及
根据各个第一语言音节和各个第二语言音节的音节时长参数和基频参数建立第一语言和第二语言之间的语音转换模型。
2.根据权利要求1所述的方法,其中,所述根据各个第一语言音节和各个第二语言音节的音节时长参数和基频参数建立第一语言和第二语言之间的语音转换模型,包括:
根据各个第一语言音节和各个第二语言音节的基频参数,建立第一语言和第二语言之间的基频转换模型;以及
分别统计第一语言音节以及第二语言音节的音节时长参数,并根据所述音节时长参数的统计结果建立第一语言和第二语言之间的时长转换模型。
3.根据权利要求2所述的方法,其中,
所述基频参数包括:每个音节内所有基频点的基频值、基频开始位置以及基频峰值点信息;
所述建立第一语言和第二语言之间的基频转换模型包括:
分别根据各个第一语言音节的基频参数确定各个第一语言音节的基频曲线特征参数,其中,所述基频曲线特征参数包括:基频的均值特征参数、基频开始位置以及四个调型特征参数;其中,所述四个调型特征参数为用三次多项式Ax3+Bx2+Cx+D=y拟合第一语言音节或第二语言音节的基频曲线获得的三次多项式的四个系数(A、B、C、D);
应用各个第一语言音节的基频曲线特征参数对各个第一语言音节对应的基频曲线进行聚类,得到至少一个第一基频曲线类别;
分别根据各个第二语言音节的基频参数确定各个第二语言音节的基频曲线特征参数,应用各个第二语言音节的基频曲线特征参数对各个第二语言音节对应的基频曲线进行聚类,得到至少一个第二基频曲线类别;其中,所述第一基频曲线类别和所述第二基频曲线类别一一对应;
针对每一对一一对应的第一基频曲线类别和第二基频曲线类别,建立属于该第一基频曲线类别的第一语言音节的基频曲线特征参数与属于该第二基频曲线类别的第二语言音节的基频曲线特征参数之间的对应关系。
4.根据权利要求3所述的方法,其中,所述应用各个第一语言音节的基频曲线特征参数对各个第一语言音节对应的基频曲线进行聚类包括:为各个第一语音音节的基频曲线特征参数设置相同或不同的权重,并应用各个第一语言音节的基频曲线特征参数对各个第一语言音节对应的基频曲线进行聚类;以及
所述应用各个第二语言音节的基频曲线特征参数对各个第二语言音节对应的基频曲线进行聚类包括:为各个第二语音音节的基频曲线特征参数设置相同或不同的权重,并应用各个第二语言音节的基频曲线特征参数对各个第二语言音节对应的基频曲线进行聚类。
5.根据权利要求2所述的方法,其中,所述音节时长参数包括:每个音节的音节时长、每个音节的韵律位置特征参数以及该音节各个该韵律位置下的声调值;其中,所述韵律位置特征参数表示该音节在句中的位置,包括:句首韵律词、句尾韵律词、句中非韵律短语边界或句中韵律短语边界;
所述建立第一语言和第二语言之间的时长转换模型包括:
统计出各个第一语言音节和各个第二语言音节在各个韵律位置、各声调下的平均音节时长;
对平均音节时长进行归一化处理后,再求出各个韵律位置同声调下第二语言音节与第一语言音节的平均音节时长的比值,得到如下公式所示的时长变换系数矩阵:
根据上述时长变换系数矩阵,处于i韵律位置具有声调值j的音节的音节时长调整公式为:TDij=TMij×aij,其中,TMij为第一语言音节的音节时长,TDij为经过转换后第二语言音节的音节时长;i=0~m代表不同的韵律位置特征参数,j=0~n代表不同的声调值。
6.根据权利要求1所述的方法,其中,该方法进一步包括:通过个性化语音训练过程建立个性化语音数据库,其中,所述个性化语音数据库存储第二语言的特殊词汇的语音波形。
7.一种语音转换方法,该方法包括:
对待转换的第一语言语音进行语音切分得到至少一个第一语言音节,并记录通过语音切分得到的各个第一语言音节的音节时长参数;
提取通过语音切分得到的各个第一语言音节的基频参数;
按照根据权利要求1至6中任一项所建立的第一语言和第二语言之间的语音转换模型,根据各个第一语言音节的基频参数以及音节时长参数确定所对应各个第二语言音节的基频参数以及音节时长;
对应各个第二语言音节,用其基频参数和音节时长调整所对应第一语言音节的语音波形,获得各个第二语言音节的语音波形,并输出所获得的各个第二语言音节的语音波形。
8.根据权利要求7所述的方法,其中,所述根据各个第一语言音节的基频参数以及音节时长参数确定所对应各个第二语言音节的基频参数以及音节时长包括:
按照第一语言和第二语言之间的基频转换模型,根据各个第一语言音节的基频参数确定所对应各个第二语言音节的基频参数;以及
按照第一语言和第二语言的之间音节时长转换模型,根据各个第一语言音节的音节时长参数确定所对应各个第二语言音节的音节时长。
9.根据权利要求8所述的方法,其中,所述根据各个第一语言音节的基频参数以及音节时长参数确定所对应各个第二语言音节的基频参数包括:
根据各个第一语言音节的基频参数确定各个第一语言音节的基频曲线特征参数;其中,所述基频参数包括:每个音节内所有基频点的基频值、基频开始位置以及基频峰值点信息;所述基频曲线特征参数包括:基频的均值特征参数、基频开始位置以及四个调型特征参数;其中,所述四个调型特征参数为用三次多项式Ax3+Bx2+Cx+D=y拟合第一语言音节或第二语言音节的基频曲线获得的三次多项式的四个系数(A、B、C、D);
根据各个第一语言音节的基频曲线特征参数,与所建立的语音转换模型中的各个基频曲线类别进行匹配,分别找到各个第一语言音节对应的基频曲线类型,从而得到各个第一语言音节的基频曲线特征参数和第二语言音节的基频曲线特征参数之间的对应关系;
按照各个第一语言音节的基频曲线特征参数与第二语言音节的基频曲线特征参数之间的对应关系,获得与各个第一语言音节对应的第二语言音节的基频曲线特征参数;以及
根据各个第一语言音节对应的第二语言语音的基频曲线特征参数,确定各个第一语言音节所对应的第二语言音节的基频参数。
10.根据权利要求9所述的方法,其中,所述确定各个第一语言音节所对应的第二语言音节的基频参数包括:
记录各个第一语言音节对应的第二语言音节的基频曲线特征参数中的基频开始位置;
根据各个第二语言音节的基频曲线特征参数中的基频开始位置以及四个调型特征参数分别进行三次多项式插值,获得各个第二语言音节的基频值;
用各个第一语言音节的基频峰值点信息以及对应的第二语言音节的基频值进行计算,获得各个第二语言音节的基频峰值点信息。
11.根据权利要求7所述的方法,其特征在于,在对待转换的第一语言语音进行语音切分后,进一步包括:
对待转换各个第一语言音节进行语音识别,对识别出的特殊词汇,到个性化语音数据库查找对应的第二语言音节的语音波形;
对除特殊词汇之外的各个第一语言音节,根据各个第一语言音节的基频参数和音节时长参数,按照所述语音转换模型,确定各个第二语言音节的基频参数和音节时长,对第一语言的语音波形进行调整,获得各个第二语言音节的语音波形。
12.根据权利要求1至11中任一项所述的方法,其特征在于,所述第一语言为中国普通话,所述第二语言为北方方言;或者所述第一语言为北方方言,所述第二语言为中国普通话。
13.一种语音转换系统,该系统包括:第一语言语音输入模块(310)、语音转换模块(320)以及第二语言语音输出模块(330);其中,
所述第一语言语音输入模块(310)用于接收用户输入的待转换的第一语言语音,并发送给所述语音转换模块(320);
所述语音转换模块(320)用于对接收的第一语言语音进行语音切分得到至少一个第一语言音节,并记录各个第一语言音节的音节时长参数,然后提取各个第一语言音节的基频参数,再按照存储的根据权利要求1至6任一项所建立的语音转换模型确定各个第一语言音节对应的第二语言音节的基频参数和音节时长,再用各个第二语言音节的基频参数和音节时长调整对应各个第一语言音节的语音波形,获得各个第二语言音节的语音波形,并输出给所述第二语言语音输出模块(330);
所述第二语言语音输出模块(330)用于将各个第二语言音节的语音波形输出给用户。
14.根据权利要求13所述的系统,其中,所述语音转换模块(320)包括:语音切分单元(321)、语音转换单元(322)、语音转换模型存储单元(323)和波形调整单元(324);其中,
所述语音切分单元(321)对接收的第一语言语音进行语音切分得到至少一个第一语言音节,并将该第一语言音节发送给所述语音转换单元(322);
所述语音转换单元(322)记录各个第一语言音节的音节时长参数,提取各个第一语言音节的基频参数,再按照所述语音转换模型存储单元(323)中存储的语音转换模型,确定与各个第一语言音节对应的第二语言音节的基频参数和音节时长,并各个将第二语言音节的基频参数和音节时长发送给所述波形调整单元(324);以及
所述波形调整单元(324)用各个第二语言音节的基频参数和音节时长调整所对应各个第一语言音节的语音波形,获得各个第二语言音节的语音波形,并输出给所述第二语言语音输出模块(330)。
15.根据权利要求13所述的系统,其中,进一步包括:个性化语音数据库(450),用于存储与第一语言特殊词汇对应的第二语言特殊词汇的每个音节的语音波形;
所述语音转换模块(420)将对接收的待转换的第一语言语音进行语音切分得到至少一个第一语言音节,然后对第一语言音节进行识别判断是否有特殊词汇,如果有,则针对特殊词汇音节到个性化语音数据库(450)查找对应的第二语言语音波形,并对除特殊词汇语音段外的每个第一语言音节,记录各个第一语言音节的音节时长参数,然后提取各个第一语言音节的基频参数,再按照存储的语音转换模型确定各个第一语言音节对应的第二语言音节的基频参数和音节时长,再用各个第二语言音节的基频参数和音节时长调整对应各个第一语言音节的语音波形,获得各个第二语言音节的语音波形,而对特殊词汇音节,用第二语言音节的语音波形替换对应第一语言音节语音波形,然后将获得各个第二语言音节的语音波形输出给第二语言语音输出模块(430)。
16.一种机器可读的存储介质,存储用于使一机器执行如权利要求1至12中任意一项所述方法的指令。
17.一种计算机程序,当所述计算机程序运行于一机器中时使所述一机器执行如权利要求1至12中任意一项所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011102970687A CN103035251A (zh) | 2011-09-30 | 2011-09-30 | 一种建立语音转换模型的方法、语音转换的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011102970687A CN103035251A (zh) | 2011-09-30 | 2011-09-30 | 一种建立语音转换模型的方法、语音转换的方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103035251A true CN103035251A (zh) | 2013-04-10 |
Family
ID=48022080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011102970687A Pending CN103035251A (zh) | 2011-09-30 | 2011-09-30 | 一种建立语音转换模型的方法、语音转换的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103035251A (zh) |
Cited By (71)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105023570A (zh) * | 2014-04-30 | 2015-11-04 | 安徽科大讯飞信息科技股份有限公司 | 一种实现声音转换的方法及系统 |
CN105702248A (zh) * | 2014-12-09 | 2016-06-22 | 苹果公司 | 在话音合成中消除同形异音词的歧义 |
CN109285536A (zh) * | 2018-11-23 | 2019-01-29 | 北京羽扇智信息科技有限公司 | 一种语音特效合成方法、装置、电子设备及存储介质 |
CN109859737A (zh) * | 2019-03-28 | 2019-06-07 | 深圳市升弘创新科技有限公司 | 通讯加密方法、系统及计算机可读存储介质 |
US10720160B2 (en) | 2018-06-01 | 2020-07-21 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US10741181B2 (en) | 2017-05-09 | 2020-08-11 | Apple Inc. | User interface for correcting recognition errors |
CN111627421A (zh) * | 2020-05-13 | 2020-09-04 | 广州国音智能科技有限公司 | 语音识别方法、装置、设备及计算机可读存储介质 |
US10878809B2 (en) | 2014-05-30 | 2020-12-29 | Apple Inc. | Multi-command single utterance input method |
US10930282B2 (en) | 2015-03-08 | 2021-02-23 | Apple Inc. | Competing devices responding to voice triggers |
US10978090B2 (en) | 2013-02-07 | 2021-04-13 | Apple Inc. | Voice trigger for a digital assistant |
US11009970B2 (en) | 2018-06-01 | 2021-05-18 | Apple Inc. | Attention aware virtual assistant dismissal |
US11037565B2 (en) | 2016-06-10 | 2021-06-15 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
WO2021134232A1 (zh) * | 2019-12-30 | 2021-07-08 | 深圳市优必选科技股份有限公司 | 一种流式语音转换方法、装置、计算机设备及存储介质 |
US11070949B2 (en) | 2015-05-27 | 2021-07-20 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on an electronic device with a touch-sensitive display |
CN113178186A (zh) * | 2021-04-27 | 2021-07-27 | 湖南师范大学 | 一种方言语音合成方法、装置、电子设备和存储介质 |
US11087759B2 (en) | 2015-03-08 | 2021-08-10 | Apple Inc. | Virtual assistant activation |
US11120372B2 (en) | 2011-06-03 | 2021-09-14 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US11126400B2 (en) | 2015-09-08 | 2021-09-21 | Apple Inc. | Zero latency digital assistant |
US11133008B2 (en) | 2014-05-30 | 2021-09-28 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11152002B2 (en) | 2016-06-11 | 2021-10-19 | Apple Inc. | Application integration with a digital assistant |
US11169616B2 (en) | 2018-05-07 | 2021-11-09 | Apple Inc. | Raise to speak |
US20210375290A1 (en) * | 2020-05-26 | 2021-12-02 | Apple Inc. | Personalized voices for text messaging |
US11217251B2 (en) | 2019-05-06 | 2022-01-04 | Apple Inc. | Spoken notifications |
US11237797B2 (en) | 2019-05-31 | 2022-02-01 | Apple Inc. | User activity shortcut suggestions |
US11257504B2 (en) | 2014-05-30 | 2022-02-22 | Apple Inc. | Intelligent assistant for home automation |
US11269678B2 (en) | 2012-05-15 | 2022-03-08 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11348582B2 (en) | 2008-10-02 | 2022-05-31 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
US11380310B2 (en) | 2017-05-12 | 2022-07-05 | Apple Inc. | Low-latency intelligent automated assistant |
US11388291B2 (en) | 2013-03-14 | 2022-07-12 | Apple Inc. | System and method for processing voicemail |
US11405466B2 (en) | 2017-05-12 | 2022-08-02 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US11423886B2 (en) | 2010-01-18 | 2022-08-23 | Apple Inc. | Task flow identification based on user intent |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11431642B2 (en) | 2018-06-01 | 2022-08-30 | Apple Inc. | Variable latency device coordination |
US11468282B2 (en) | 2015-05-15 | 2022-10-11 | Apple Inc. | Virtual assistant in a communication session |
US11467802B2 (en) | 2017-05-11 | 2022-10-11 | Apple Inc. | Maintaining privacy of personal information |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11488406B2 (en) | 2019-09-25 | 2022-11-01 | Apple Inc. | Text detection using global geometry estimators |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
US11500672B2 (en) | 2015-09-08 | 2022-11-15 | Apple Inc. | Distributed personal assistant |
US11516537B2 (en) | 2014-06-30 | 2022-11-29 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US11526368B2 (en) | 2015-11-06 | 2022-12-13 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US11532306B2 (en) | 2017-05-16 | 2022-12-20 | Apple Inc. | Detecting a trigger of a digital assistant |
US11580990B2 (en) | 2017-05-12 | 2023-02-14 | Apple Inc. | User-specific acoustic models |
US11599331B2 (en) | 2017-05-11 | 2023-03-07 | Apple Inc. | Maintaining privacy of personal information |
US11656884B2 (en) | 2017-01-09 | 2023-05-23 | Apple Inc. | Application integration with a digital assistant |
US11657813B2 (en) | 2019-05-31 | 2023-05-23 | Apple Inc. | Voice identification in digital assistant systems |
US11671920B2 (en) | 2007-04-03 | 2023-06-06 | Apple Inc. | Method and system for operating a multifunction portable electronic device using voice-activation |
US11675829B2 (en) | 2017-05-16 | 2023-06-13 | Apple Inc. | Intelligent automated assistant for media exploration |
US11696060B2 (en) | 2020-07-21 | 2023-07-04 | Apple Inc. | User identification using headphones |
US11710482B2 (en) | 2018-03-26 | 2023-07-25 | Apple Inc. | Natural assistant interaction |
US11727219B2 (en) | 2013-06-09 | 2023-08-15 | Apple Inc. | System and method for inferring user intent from speech inputs |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11765209B2 (en) | 2020-05-11 | 2023-09-19 | Apple Inc. | Digital assistant hardware abstraction |
US11790914B2 (en) | 2019-06-01 | 2023-10-17 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11798547B2 (en) | 2013-03-15 | 2023-10-24 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
US11809783B2 (en) | 2016-06-11 | 2023-11-07 | Apple Inc. | Intelligent device arbitration and control |
US11809483B2 (en) | 2015-09-08 | 2023-11-07 | Apple Inc. | Intelligent automated assistant for media search and playback |
US11838734B2 (en) | 2020-07-20 | 2023-12-05 | Apple Inc. | Multi-device audio adjustment coordination |
US11854539B2 (en) | 2018-05-07 | 2023-12-26 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US11853647B2 (en) | 2015-12-23 | 2023-12-26 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US11853536B2 (en) | 2015-09-08 | 2023-12-26 | Apple Inc. | Intelligent automated assistant in a media environment |
US11886805B2 (en) | 2015-11-09 | 2024-01-30 | Apple Inc. | Unconventional virtual assistant interactions |
US11893992B2 (en) | 2018-09-28 | 2024-02-06 | Apple Inc. | Multi-modal inputs for voice commands |
US11914848B2 (en) | 2020-05-11 | 2024-02-27 | Apple Inc. | Providing relevant data items based on context |
US11947873B2 (en) | 2015-06-29 | 2024-04-02 | Apple Inc. | Virtual assistant for media playback |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1815551A (zh) * | 2006-02-28 | 2006-08-09 | 安徽中科大讯飞信息科技有限公司 | 在方言语音合成系统中进行文本方言化处理的方法 |
CN101667424A (zh) * | 2008-09-04 | 2010-03-10 | 英业达股份有限公司 | 普通话与多种方言之间的语音翻译系统及其方法 |
-
2011
- 2011-09-30 CN CN2011102970687A patent/CN103035251A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1815551A (zh) * | 2006-02-28 | 2006-08-09 | 安徽中科大讯飞信息科技有限公司 | 在方言语音合成系统中进行文本方言化处理的方法 |
CN101667424A (zh) * | 2008-09-04 | 2010-03-10 | 英业达股份有限公司 | 普通话与多种方言之间的语音翻译系统及其方法 |
Non-Patent Citations (3)
Title |
---|
张帅等: "方言转换系统中的音节切分算法研究", 《计算机技术与发展》, vol. 19, no. 7, 31 July 2009 (2009-07-31) * |
梁青青等: "利用五度字调模型实现普通话到兰州方言的转换", 《声学技术》, vol. 29, no. 6, 31 December 2010 (2010-12-31) * |
贾珈等: "汉语普通话与沈阳方言转换的研究", 《清华大学学报(自然科学版)》, vol. 49, no. 1, 31 December 2009 (2009-12-31) * |
Cited By (108)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11671920B2 (en) | 2007-04-03 | 2023-06-06 | Apple Inc. | Method and system for operating a multifunction portable electronic device using voice-activation |
US11900936B2 (en) | 2008-10-02 | 2024-02-13 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US11348582B2 (en) | 2008-10-02 | 2022-05-31 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US11423886B2 (en) | 2010-01-18 | 2022-08-23 | Apple Inc. | Task flow identification based on user intent |
US11120372B2 (en) | 2011-06-03 | 2021-09-14 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US11269678B2 (en) | 2012-05-15 | 2022-03-08 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US11321116B2 (en) | 2012-05-15 | 2022-05-03 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US11636869B2 (en) | 2013-02-07 | 2023-04-25 | Apple Inc. | Voice trigger for a digital assistant |
US11862186B2 (en) | 2013-02-07 | 2024-01-02 | Apple Inc. | Voice trigger for a digital assistant |
US10978090B2 (en) | 2013-02-07 | 2021-04-13 | Apple Inc. | Voice trigger for a digital assistant |
US11557310B2 (en) | 2013-02-07 | 2023-01-17 | Apple Inc. | Voice trigger for a digital assistant |
US11388291B2 (en) | 2013-03-14 | 2022-07-12 | Apple Inc. | System and method for processing voicemail |
US11798547B2 (en) | 2013-03-15 | 2023-10-24 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
US11727219B2 (en) | 2013-06-09 | 2023-08-15 | Apple Inc. | System and method for inferring user intent from speech inputs |
CN105023570A (zh) * | 2014-04-30 | 2015-11-04 | 安徽科大讯飞信息科技股份有限公司 | 一种实现声音转换的方法及系统 |
CN105023570B (zh) * | 2014-04-30 | 2018-11-27 | 科大讯飞股份有限公司 | 一种实现声音转换的方法及系统 |
US11810562B2 (en) | 2014-05-30 | 2023-11-07 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US11670289B2 (en) | 2014-05-30 | 2023-06-06 | Apple Inc. | Multi-command single utterance input method |
US11257504B2 (en) | 2014-05-30 | 2022-02-22 | Apple Inc. | Intelligent assistant for home automation |
US11699448B2 (en) | 2014-05-30 | 2023-07-11 | Apple Inc. | Intelligent assistant for home automation |
US10878809B2 (en) | 2014-05-30 | 2020-12-29 | Apple Inc. | Multi-command single utterance input method |
US11133008B2 (en) | 2014-05-30 | 2021-09-28 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US11838579B2 (en) | 2014-06-30 | 2023-12-05 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US11516537B2 (en) | 2014-06-30 | 2022-11-29 | Apple Inc. | Intelligent automated assistant for TV user interactions |
CN105702248B (zh) * | 2014-12-09 | 2019-11-19 | 苹果公司 | 用于操作智能自动化助理的电子设备和方法、存储介质 |
CN105702248A (zh) * | 2014-12-09 | 2016-06-22 | 苹果公司 | 在话音合成中消除同形异音词的歧义 |
US11087759B2 (en) | 2015-03-08 | 2021-08-10 | Apple Inc. | Virtual assistant activation |
US11842734B2 (en) | 2015-03-08 | 2023-12-12 | Apple Inc. | Virtual assistant activation |
US10930282B2 (en) | 2015-03-08 | 2021-02-23 | Apple Inc. | Competing devices responding to voice triggers |
US11468282B2 (en) | 2015-05-15 | 2022-10-11 | Apple Inc. | Virtual assistant in a communication session |
US11070949B2 (en) | 2015-05-27 | 2021-07-20 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on an electronic device with a touch-sensitive display |
US11947873B2 (en) | 2015-06-29 | 2024-04-02 | Apple Inc. | Virtual assistant for media playback |
US11550542B2 (en) | 2015-09-08 | 2023-01-10 | Apple Inc. | Zero latency digital assistant |
US11954405B2 (en) | 2015-09-08 | 2024-04-09 | Apple Inc. | Zero latency digital assistant |
US11500672B2 (en) | 2015-09-08 | 2022-11-15 | Apple Inc. | Distributed personal assistant |
US11853536B2 (en) | 2015-09-08 | 2023-12-26 | Apple Inc. | Intelligent automated assistant in a media environment |
US11809483B2 (en) | 2015-09-08 | 2023-11-07 | Apple Inc. | Intelligent automated assistant for media search and playback |
US11126400B2 (en) | 2015-09-08 | 2021-09-21 | Apple Inc. | Zero latency digital assistant |
US11809886B2 (en) | 2015-11-06 | 2023-11-07 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US11526368B2 (en) | 2015-11-06 | 2022-12-13 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US11886805B2 (en) | 2015-11-09 | 2024-01-30 | Apple Inc. | Unconventional virtual assistant interactions |
US11853647B2 (en) | 2015-12-23 | 2023-12-26 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US11657820B2 (en) | 2016-06-10 | 2023-05-23 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US11037565B2 (en) | 2016-06-10 | 2021-06-15 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US11749275B2 (en) | 2016-06-11 | 2023-09-05 | Apple Inc. | Application integration with a digital assistant |
US11152002B2 (en) | 2016-06-11 | 2021-10-19 | Apple Inc. | Application integration with a digital assistant |
US11809783B2 (en) | 2016-06-11 | 2023-11-07 | Apple Inc. | Intelligent device arbitration and control |
US11656884B2 (en) | 2017-01-09 | 2023-05-23 | Apple Inc. | Application integration with a digital assistant |
US10741181B2 (en) | 2017-05-09 | 2020-08-11 | Apple Inc. | User interface for correcting recognition errors |
US11599331B2 (en) | 2017-05-11 | 2023-03-07 | Apple Inc. | Maintaining privacy of personal information |
US11467802B2 (en) | 2017-05-11 | 2022-10-11 | Apple Inc. | Maintaining privacy of personal information |
US11380310B2 (en) | 2017-05-12 | 2022-07-05 | Apple Inc. | Low-latency intelligent automated assistant |
US11580990B2 (en) | 2017-05-12 | 2023-02-14 | Apple Inc. | User-specific acoustic models |
US11862151B2 (en) | 2017-05-12 | 2024-01-02 | Apple Inc. | Low-latency intelligent automated assistant |
US11837237B2 (en) | 2017-05-12 | 2023-12-05 | Apple Inc. | User-specific acoustic models |
US11405466B2 (en) | 2017-05-12 | 2022-08-02 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US11538469B2 (en) | 2017-05-12 | 2022-12-27 | Apple Inc. | Low-latency intelligent automated assistant |
US11532306B2 (en) | 2017-05-16 | 2022-12-20 | Apple Inc. | Detecting a trigger of a digital assistant |
US11675829B2 (en) | 2017-05-16 | 2023-06-13 | Apple Inc. | Intelligent automated assistant for media exploration |
US11710482B2 (en) | 2018-03-26 | 2023-07-25 | Apple Inc. | Natural assistant interaction |
US11854539B2 (en) | 2018-05-07 | 2023-12-26 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US11487364B2 (en) | 2018-05-07 | 2022-11-01 | Apple Inc. | Raise to speak |
US11907436B2 (en) | 2018-05-07 | 2024-02-20 | Apple Inc. | Raise to speak |
US11169616B2 (en) | 2018-05-07 | 2021-11-09 | Apple Inc. | Raise to speak |
US11900923B2 (en) | 2018-05-07 | 2024-02-13 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US11009970B2 (en) | 2018-06-01 | 2021-05-18 | Apple Inc. | Attention aware virtual assistant dismissal |
US11630525B2 (en) | 2018-06-01 | 2023-04-18 | Apple Inc. | Attention aware virtual assistant dismissal |
US11360577B2 (en) | 2018-06-01 | 2022-06-14 | Apple Inc. | Attention aware virtual assistant dismissal |
US11431642B2 (en) | 2018-06-01 | 2022-08-30 | Apple Inc. | Variable latency device coordination |
US10984798B2 (en) | 2018-06-01 | 2021-04-20 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US10720160B2 (en) | 2018-06-01 | 2020-07-21 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US11893992B2 (en) | 2018-09-28 | 2024-02-06 | Apple Inc. | Multi-modal inputs for voice commands |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
CN109285536B (zh) * | 2018-11-23 | 2022-05-13 | 出门问问创新科技有限公司 | 一种语音特效合成方法、装置、电子设备及存储介质 |
CN109285536A (zh) * | 2018-11-23 | 2019-01-29 | 北京羽扇智信息科技有限公司 | 一种语音特效合成方法、装置、电子设备及存储介质 |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11783815B2 (en) | 2019-03-18 | 2023-10-10 | Apple Inc. | Multimodality in digital assistant systems |
CN109859737A (zh) * | 2019-03-28 | 2019-06-07 | 深圳市升弘创新科技有限公司 | 通讯加密方法、系统及计算机可读存储介质 |
US11217251B2 (en) | 2019-05-06 | 2022-01-04 | Apple Inc. | Spoken notifications |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11675491B2 (en) | 2019-05-06 | 2023-06-13 | Apple Inc. | User configurable task triggers |
US11705130B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | Spoken notifications |
US11888791B2 (en) | 2019-05-21 | 2024-01-30 | Apple Inc. | Providing message response suggestions |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11360739B2 (en) | 2019-05-31 | 2022-06-14 | Apple Inc. | User activity shortcut suggestions |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11657813B2 (en) | 2019-05-31 | 2023-05-23 | Apple Inc. | Voice identification in digital assistant systems |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
US11237797B2 (en) | 2019-05-31 | 2022-02-01 | Apple Inc. | User activity shortcut suggestions |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
US11790914B2 (en) | 2019-06-01 | 2023-10-17 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11488406B2 (en) | 2019-09-25 | 2022-11-01 | Apple Inc. | Text detection using global geometry estimators |
WO2021134232A1 (zh) * | 2019-12-30 | 2021-07-08 | 深圳市优必选科技股份有限公司 | 一种流式语音转换方法、装置、计算机设备及存储介质 |
US11914848B2 (en) | 2020-05-11 | 2024-02-27 | Apple Inc. | Providing relevant data items based on context |
US11765209B2 (en) | 2020-05-11 | 2023-09-19 | Apple Inc. | Digital assistant hardware abstraction |
US11924254B2 (en) | 2020-05-11 | 2024-03-05 | Apple Inc. | Digital assistant hardware abstraction |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
CN111627421A (zh) * | 2020-05-13 | 2020-09-04 | 广州国音智能科技有限公司 | 语音识别方法、装置、设备及计算机可读存储介质 |
CN111627421B (zh) * | 2020-05-13 | 2023-08-11 | 广州国音智能科技有限公司 | 语音识别方法、装置、设备及计算机可读存储介质 |
US11508380B2 (en) * | 2020-05-26 | 2022-11-22 | Apple Inc. | Personalized voices for text messaging |
US20210375290A1 (en) * | 2020-05-26 | 2021-12-02 | Apple Inc. | Personalized voices for text messaging |
US11838734B2 (en) | 2020-07-20 | 2023-12-05 | Apple Inc. | Multi-device audio adjustment coordination |
US11696060B2 (en) | 2020-07-21 | 2023-07-04 | Apple Inc. | User identification using headphones |
US11750962B2 (en) | 2020-07-21 | 2023-09-05 | Apple Inc. | User identification using headphones |
CN113178186A (zh) * | 2021-04-27 | 2021-07-27 | 湖南师范大学 | 一种方言语音合成方法、装置、电子设备和存储介质 |
CN113178186B (zh) * | 2021-04-27 | 2022-10-18 | 湖南师范大学 | 一种方言语音合成方法、装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103035251A (zh) | 一种建立语音转换模型的方法、语音转换的方法及系统 | |
CN107369440B (zh) | 一种针对短语音的说话人识别模型的训练方法及装置 | |
JP5293460B2 (ja) | 歌唱合成用データベース生成装置、およびピッチカーブ生成装置 | |
TWI721268B (zh) | 用於語音合成的系統和方法 | |
CN111433847B (zh) | 语音转换的方法及训练方法、智能装置和存储介质 | |
CN111247584B (zh) | 语音转换方法、系统、装置及存储介质 | |
CN110675886B (zh) | 音频信号处理方法、装置、电子设备及存储介质 | |
US20090254349A1 (en) | Speech synthesizer | |
CN105609097A (zh) | 语音合成装置及其控制方法 | |
CN103778912A (zh) | 引导式说话人自适应语音合成的系统与方法及程序产品 | |
KR20170107683A (ko) | 딥러닝 기반의 음성 합성 시스템을 위한 피치 동기화 음성 합성 방법 | |
JP4829477B2 (ja) | 声質変換装置および声質変換方法ならびに声質変換プログラム | |
CN104732969A (zh) | 语音处理系统及语音处理方法 | |
CN103632663A (zh) | 一种基于hmm的蒙古语语音合成及前端处理的方法 | |
CN104750677A (zh) | 语音传译装置、语音传译方法及语音传译程序 | |
JP2000347681A (ja) | テキスト・ベースの音声合成を利用した音声制御システム用の再生方法 | |
JP6013104B2 (ja) | 音声合成方法、装置、及びプログラム | |
JP2013164609A (ja) | 歌唱合成用データベース生成装置、およびピッチカーブ生成装置 | |
CN113393830B (zh) | 混合声学模型训练及歌词时间戳生成方法、设备、介质 | |
CN114927122A (zh) | 一种情感语音的合成方法及合成装置 | |
CN107924677B (zh) | 用于异常值识别以移除语音合成中的不良对准的系统和方法 | |
KR101890303B1 (ko) | 가창 음성 생성 방법 및 그에 따른 장치 | |
CN113539236A (zh) | 一种语音合成方法和装置 | |
CN112164387A (zh) | 音频合成方法、装置及电子设备和计算机可读存储介质 | |
CN112071299A (zh) | 神经网络模型训练方法、音频生成方法及装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130410 |