CN102779508B - 语音库生成设备及其方法、语音合成系统及其方法 - Google Patents
语音库生成设备及其方法、语音合成系统及其方法 Download PDFInfo
- Publication number
- CN102779508B CN102779508B CN201210091240.8A CN201210091240A CN102779508B CN 102779508 B CN102779508 B CN 102779508B CN 201210091240 A CN201210091240 A CN 201210091240A CN 102779508 B CN102779508 B CN 102779508B
- Authority
- CN
- China
- Prior art keywords
- speech
- voice
- text
- sound
- speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明提供一种语音库生成设备及其方法,所述语音库生成设备包括:语音提取装置,用于从收集的数据中提取预定发音人的语音数据;语音识别装置,用于将所述预定发音人的语音数据识别为文本;文本标注装置,用于对所述文本进行标注。以及本发明提供一种语音合成系统及其方法。由于本发明通过自动收集数据并自动处理,生成语音库,节约了大量的人力成本。此外,缩短语音合成系统的构建周期以及方便对其进行更新,并实现个性化定制。
Description
技术领域
本发明涉及语音合成技术领域,更具体地,涉及一种语音库生成设备及其方法,以及一种语音合成系统及其方法,实现了自动收集预定的语音数据,以及提供特定发音人的合成的语音。
背景技术
实现人机之间人性化、智能化的有效交互,构建高效自然的人机交流环境,已经成为当前信息技术应用和发展的迫切需求。作为语音技术中十分实用的一项重要技术,语音合成技术,或称文语转换技术TTS(Text-To-Speech),将文字信息转化为自然的语音信号,实现任意文本的实时转换。它赋予计算机像人一样自如说话的能力,改变了传统通过录音回放实现机器开口说话的繁琐操作,并节省了系统存储空间,在信息交互日益增多的当今特别是在信息内容需要经常变动的动态查询应用方法中发挥了越来越重要的作用。
计算机技术和数字信号处理技术的发展促成了语音合成技术的发展和实际应用。基于单元挑选的波形拼接语音合成方法由于计算机运算能力和存储容量的提高运用了更大规模的音库及引入更精细的单元挑选策略,在很大幅度上提高了合成语音的音质,音色和自然度。而另一主流语音合成技术,基于隐马尔可夫模型(hidden Markov model,HMM)的参数语音合成方法,也因其更好的鲁棒性能和推广性获得很多研究人员的推崇。作为语音合成系统重要组成部分的音库,其质量如数据规模,精细度,自然度以及准确度等对语音合成系统性能有着重要影响。在基于单元挑选的波形拼接语音合成方法中,系统根据输入文本信息直接从标注好的语音库中挑选合适的单元(音节、音素、状态、帧等)并拼接得到连续语音段。显然当语料库中样本单元数量过少或语境环境单一时,很可能出现挑选不到合适单元的情况,导致合成效果急剧下降;而在基于隐马尔可夫模型(hidden Markov model,HMM)的参数语音合成方法中,系统首先对语音信号进行参数化分解并建立各参数对应的统计模型,随后在合成时利用训练得到的统计模型预测待合成文本的语音参数,并恢复最终的合成语音。当标注音库规模过小或者没有正确标注时,其模型精确度将得不到有效保障,进而造成合成效果的明显下降。
传统合成系统音库的构建需要经过设计、录音、标注等三个阶段。首先在设计阶段,研究人员在收集大量的语料文本后通过考察音素覆盖率人工筛检得到合适的录音语料。随后在录音阶段寻找嗓音良好、发音标准、具有一定播音功底的发音人,在专业录音棚的录制环境下完成所述录音语料的音库录制。最后在标注阶段由专业标注人员对录制的音库语音数据完成文本修订、音段切分、韵律标注等处理。可以看出,传统语音合成系统中音库构建主要依赖人工操作,需要安排专业录音人员选择对韵律和音段进行手工标注,其构建所需工作量较大,制作周期较长,因而音库规模往往受限。另一方面由于音库的录制标注工作对技术专业要求较高,语音合成系统往往只能提供有限特定的若干发音人音色,难以响应多样化的应用需求。总之,构建传统音库需要大量的人力和工作量,且难以适应网络时代定制化和个性化需求的问题。
发明内容
为了解决上述问题,提出了本发明。本发明的目的是提出一种语音库生成设备及语音库生成方法,以及一种语音合成系统和语音合成方法。根据本发明的语音库生成设备可以通过自动收集特定发音人的语音数据生成语音库。由于采用自动收集的方式而无需人工收集特定发音人的语音,语音库规模较大,从而语音合成系统通过采用所述语音库可以提供适用于特定发音人的语音合成,且语音合成系统性能得到了提高。
根据本发明第一方面,提供了一种语音库生成设备,包括:语音提取装置,用于从收集的数据中提取预定发音人的语音数据;语音识别装置,用于将所述预定发音人的语音数据识别为文本;文本标注装置,用于对所述文本进行标注。
根据本发明第二方面,提供了一种语音库生成方法,包括:语音提取步骤,从收集的数据中提取预定发音人的语音数据;语音识别步骤,将所述预定发音人的语音数据识别为文本;文本标注步骤,对所述文本进行标注。
根据本发明第三方面,提供了一种语音合成系统,包括:分词装置,用于对输入的文本进行分词;查找装置,用于根据分词结果查找预定发音人语音库中与文本对应的至少一个预定发音人的语音片段;选择装置,用于从查找的预定发音人的语音片段中选择最优的语音片段;以及合成装置,用于将挑选的语音片段拼接以合成连续的预定发音人的语音序列。
根据本发明第四方面,提供了一种语音合成方法,包括:分词步骤,对输入的文本进行分词;查找步骤,根据分词结果查找语音库中与文本对应的至少一个预定发音人的语音片段;选择步骤,从查找的预定发音人的语音片段中选择最优的语音片段;以及合成步骤,将挑选的语音片段拼接以合成连续的预定发音人的语音序列。
由于本发明通过从网络世界中海量非专业级语音数据中收集有效数据并通过自动处理,生成了语音库,节约了大量的人力成本,缩短语音合成系统的构建周期以及方便对其更新。
附图说明
从下面结合附图的详细描述中,本发明的上述特征和优点将更明显,
其中:
图1是根据本发明的语音库生成设备的示意图;
图2是预处理装置的一个示例;
图3是根据本发明的语音库生成设备生成语音库的流程图;
图4是数据信号预处理方法的流程图;
图5是根据本发明的语音提取方法的流程图;
图6是根据本发明的语音识别方法的流程图;
图7是根据本发明语音合成系统的示意图;
图8示出了根据本发明的语音合成方法的流程图。
具体实施方式
下面,参考附图详细说明本发明的优选实施方式。在附图中,虽然示于不同的附图中,但相同的附图标记用于表示相同的或相似的组件。为了清楚和简明,包含在这里的已知的功能和结构的详细描述将被省略,否则它们将使本发明的主题不清楚。
图1示出了根据本发明的语音库生成设备的方框图。语音库生成设备包括用于对原始收集的数据进行预处理的预处理装置10;用于从预处理的语音数据中提取特定发音人的语音数据的语音提取装置20;用于识别特定发音人的语音数据对应文本的语音识别装置30;对获取的文本分析获得标注信息以生成语音库的文本标注装置40和用于存储生成的语音库的存储装置(未示出)。其中,生成的语音库可以包括特定发音人的语音波形数据和其相关的标注信息。语音提取装置20包括:用于提取输入语音的语音声纹特征序列的声纹特征提取单元201;用于计算提取的语音声纹特征序列与背景模型的第一似然度的第一计算单元202;用于计算提取的语音声纹特征序列与特定发音人的说话人声纹模型的第二似然度的第二计算单元203以及比较第二似然度与第一似然度之比并将比值大于预定阈值的语音数据确定为特定发音人的语音数据的第一判别单元204。语音识别装置30包括:用于从特定发音人的语音数据中提取语音声学参数并解码为文本的识别单元301;用于计算解码的置信度的置信度计算单元302和将置信度大于预定阈值的数据判断为有效文本的第二判别单元303。
图2示出了预处理装置10的一个示例。由于输入语音库生成设备的语音数据是从各种信息渠道收集,其质量参差不齐,因此需要对输入的语音数据进行预处理以获取有效的语音数据。预处理装置10包括:规整单元101;信道均衡单元102;分句处理单元103和噪音去除单元104。预处理装置10可以采用现有技术实现。此外,预处理装置10可以包括音频视频分离单元(未示出),用于对收集到的视频文件进行音频视频分离转录其中的音轨数据以获得语音数据。
下面将参考图3-图6具体描述本发明的语音库生成设备如何生成语音库的处理流程。
图3示出了根据本发明的语音库生成设备生成语音库的示意处理流程。输入语音库生成设备的语音数据可以是从各种信息渠道海量非专业级语音数据中收集的数据,例如,从丰富的网络资源或电视、广播等渠道收集的各种音频、视频数据,如影视剧、有声小说、电话留言。
由于原始收集的音视频信号来源复杂,质量也参差不齐,在步骤S60,预处理装置10对收集的音视频信号执行预处理,以提取有效的语音数据。
在步骤S61,语音提取装置20从收集的多人的语音数据中提取特定发音人的语音数据。通常为了提高合成语音的可懂度及自然度,构建语音库时需要考虑对某些特定发音人的合成语音提供支持,本发明可以采用声纹识别等技术对语音的发音人身份进行判断,获得所述特定发音人的语音数据。
在步骤S62,语音识别装置30将特定发音人的语音数据识别为文本。特别的,为了确保语音识别(转写)的准确性,本发明提出一种基于置信度判别的算法,在对语音信号通过语音识别等技术进行识别后进一步计算该识别的置信度。只有当该置信度高于预定阈值时该语音信号才被判定为有效语音数据。
在步骤S63,文本标注装置40对有效语音数据通过文本分析,获取上下文韵律等标注信息作为文本的标注。
由于输入语音库生成设备的语音数据是从各种信息渠道收集,其质量参差不齐,因此需要对输入的语音数据进行预处理以提高采集数据的质量。图4具体示出了数据信号预处理方法的流程图。
首先在步骤S70,规整单元101需要对收集的信号进行格式和能量的规整。具体的,对收集到的各种语音数据做格式和能量的规整,比如转成16k,16bit wav格式等。可选地,音频视频分离单元可以收集视频文件中的语音数据,对收集到的视频文件进行音视频分离转录其中的音轨数据以获得语音数据。
之后,在步骤S71,信道均衡单元102对规整的数据执行信道均衡等处理以减少噪音对语音信号的干扰,提高语音数据质量。原始收集的数据由于来源信道不同或在不同环境下录制,语音听感差异往往较大。对此本发明采用信道均衡技术,将任意批次的数据信道均衡处理到预先指定的某个批次数据的听感感觉上。
在步骤S72,分句处理单元103利用端点检测技术对收集到的语音数据分句处理。可以通过对语音信号的短时能量和短时过零率等进行分析,将连续的语音信号分割成独立的语音片断和非语音片断,并标定每一段人声语音的起始位置。
在步骤S73,噪音去除单元104删除收集数据中无意义的噪音段。根据步骤S72的端点检测结果,对界定为非纯净人声的声音标定为噪声或静音段直接丢弃。
在对收集的数据预处理之后,语音提取装置提取语音数据。图5示出了根据本发明的语音提取装置提取语音数据的方法的流程图。为了提高合成语音的可懂度及自然度,语音库可以支持特定发音人的合成语音。例如,特定发音人可以是预定的,也可以由用户指定。预定的特定发音人可以是名人,卡通人物等公众人物,用户指定的特定发音人可以是用户喜爱的特定人物等。
语音提取装置20采用了声纹识别等技术对语音发音人的身份进行判断,通过分别计算作为收集的语音数据所对应的语音段的声纹特征序列和特定发音人声纹模型的匹配得分以及该声纹特征序列和背景模型的匹配得分的比值,确认其和预定阈值的大小关系,以确定收集的语音数据的有效性。
具体地,在步骤S80,声纹特征提取单元201从预处理的语音数据中提取语音声纹特征序列。该声纹特征序列包含一组声纹特征,可以有效地区分不同的说话人,且对同一说话人的变化保持相对稳定。所述声纹特征主要有:谱包络参数语音特征,基音轮廓、共振峰频率带宽特征,线性预测系数,倒谱系数等。考虑到上述声纹特征的可量化性、训练样本的数量和系统性能的评价等问题,可以选用Mel频率倒谱系数MFCC(Mel Frequency Cepstrum Coefficient,)特征,对窗长25ms帧移10ms的每帧语音数据做短时分析得到MFCC参数及其一阶二阶差分,共计39维。从而将每句语音信号量化为一个39维声纹特征矢量序列X。
在步骤S81,第一计算单元202计算所述声纹特征序列与背景模型(UBM)(Universal Background Model)的似然度。具体的,本发明设定背景模型为GMM(Guassian Mixture Model)模型并计算帧数为T的声纹特征矢量序列X相应于背景模型的似然度为:
其中,cm是第m个高斯的加权系数,满足
μm以及∑m分别是第m个高斯的均值和方差;M是系统预先设置的混合高斯模型的高斯数,例如,可以选择1024,2048等数值。其中N(.)满足正态分布,用于计算t时刻的声纹特征矢量Xt在单高斯分量上的似然度:
在步骤S82,第二计算单元203计算所述声纹特征序列与特定发音人的说话人声纹模型的似然度。特定发音人的说话人模型预先通过收集若干句特定发音人的语音片段训练得到,例如,30秒(s)的语音片段。同样的根据公式(1)计算声纹特征序列和特定发音人的说话人模型的似然度:
这里的说话人模型U为用户声纹模型,具有和背景模型不同的模型参数,包括高斯的加权系数cm,μm以及∑m等。
需要说明的是,背景模型和用户声纹模型还可以采用其他统计模型,如HMM(Hidden Markov Model)模型,NN(Neural Network)等,在此不作赘述。
在步骤S83,第一判别单元204根据所述声纹特征序列与特定发音人的说话人模型的似然度、以及所述声纹特征序列与背景模型的似然度,计算似然比;
似然比为:
其中,p(X|U)为所述声纹特征序列与特定发音人的说话人模型的似然度,p(X|UBM)为所述声纹特征序列与背景模型的似然度。
在步骤S84:第一判别单元204判断计算的似然比是否大于预定阈值,若是,则该语音数据为特定发音人的语音数据,否则为非特定发音人的语音数据。一般来说,域值设置越大则对所述语音质量要求越高,要求该语音信号的发音特点和预设特定发音人声学模型越类似。其中,可选地,本案在似然度Log域计算的设置下,可以相应设置该阈值为一大于等于0.5的数值。在生成语音库时,可以根据需求在所述阈值中进行选择,以满足不同用户对合成效果的要求。
此外,本发明还可利用得到的特定发音人高置信度数据重新训练特定发音人模型,提升声纹识别的整体精度,从而将语音生成库应用在语音合成系统上以改善语音合成系统的效果。
所述的训练特定发音人模型的方法为:以原特定发音人声纹模型为种子模型,利用收集的预处理的语音声纹特征数据采用自适应算法更新模型参数。自适应算法例如采用最大似然回归MLLR(Maximum likelihoodlinear regression),最大后验概率回归MAPLR(Maximum a posteriorlinear regression)。
其中,新高斯均值
计算为样本统计量和原始高斯均值的加权平均,即:
其中,xt表示第t帧声纹特征,γm(xt)表示第t帧声纹特征落于第m个高斯的概率,τ是遗忘因子,用于平衡历史均值以及样本对新均值的更新力度。一般来说,τ值越大,则新均值主要受原始均值制约。而若τ值较小,则新均值主要由样本统计量决定,更多的体现了新样本分布的特点。
在获取了特定发音人的语音数据之后,为了提高文本转写的正确率,本发明采用基于置信度判别的识别算法,只有当置信度高于预定阈值时才保存转写的文本。
图6是根据本发明的语音识别方法的流程图。参考图6,在S90,识别单元301从特定发音人的语音数据提取语音声学参数,将所述参数通过声学模型和语言模型的解码,输出最终识别文本转写。所述语音声学参数可以为语音识别领域常用的MFCC特征,以及可以通过采用各种传统经典算法实现语音识别,如Token passing算法,基于加权有限状态转换器WFST(Weighted Finite-State Transducers)的解码等。
之后,在步骤S91:置信度计算单元302计算解码的置信度。具体地,利用识别结果及竞争结果计算后验概率作为置信度。其中,识别结果是指在LVCSR解码中具有最大相似度的路径,即最优字词集合,竞争结果是指LVCSR解码中具有次优相似度的多条路径,即次优字词集合,也就是得分和最优结果接近的混淆解码结果。依据贝叶斯公式,语音X对应识别文本为W时的后验概率P(W|X):
其中先验概率P(W)和识别文本对应的声学似然度P(X|W)分别可以从语音模型和声学模型得到。Ω为辅助解码空间,包含有全部的解码路径,Wi代表Ω中某条具体的竞争路径。
在步骤S92,第二判别单元303判断所述置信度是否大于预定阈值,如果是,则保存转写的文本;否则丢弃转写的文本及其对应的语音数据。其中该置信度阈值可以根据需要设置。
由于本发明采用了基于置信度判别的算法,在对语音信号通过语音识别技术进行转写后进一步计算该识别的置信度以选择文本内容,从而提高了文本转写的准确性。
在获得了特定发音人的识别文本之后,文本标注装置40对所述语音识别文本通过前端韵律分析等技术获取文本的发音序列(中文声韵母,英文音素),韵律分词、词性,重音,句末调型等信息作为发音序列的上下文标注。例如,语音生成系统利用字词表得到汉字文本的拼音序列或英文单词的音素序列。随后通过分析文本的韵律层次获取语句的韵律分词结果。比如在基于最长匹配原则下利用语言模型对“南京市长江大桥”进行正向和逆向两遍解码,得到概率最高的韵律分词结果“南京市”“长江大桥”。最后考虑结合语言模型的频度和词性等信息,对中文的多音字和英文的重读、句末升降调类型做出判定。
虽然图1示出的根据本发明的语音库生成设备包括:预处理装置10;语音提取装置20;语音识别装置30、文本标注装置40和存储装置。但是,很显然,根据本发明的语音库生成设备可以包括:语音提取装置20;语音识别装置30和文本标注装置40。
由于语音库生成设备通过自动操作流程对原始收集数据分类、识别,生成语音库,一方面,本发明可以从海量的原始数据中自动收集所需数据;另一方面,本发明可以提供丰富的特定发音人的语音。
可以将本发明的语音库应用到语音合成系统,由于该语音库提供特定发音人的语音,语音合成系统可以实现将用户输入的文本合成为特定发音人的语音,且该特定发音人的语音可以由用户定制。从而,通过以自动收集海量数据并提取特定发音人的语音节省了大量的人力成本,缩短语音合成系统的构建过程,也提高了用户与语音合成系统的交互便捷性。
图7示出了应用本发明语音库生成设备生成的语音库的语音合成系统的方框图。语音合成系统2包括对输入的文本进行分词的分词装置50;根据分词结果查找语音库54中与文本对应的至少一个特定发音人的语音片段的查找装置51;从查找的特定发音人的语音片段中选择最优的语音片段的选择装置52;以及将挑选的语音片段拼接以合成连续的特定发音人的语音序列的合成装置53。语音合成系统还包括通信装置以及存储装置(未示出)。可选地,语音合成系统包括第一更新装置以及第二更新装置。在语音生成设备收集到的语音数据累积量初次满足语音合成系统构建的预定条件时,例如,语音数据语料内容覆盖率满足基本的语音合成系统需求,包括所有基本音节单元时,语音生成设备生成语音库,语音合成系统基于该语音库实现语音合成系统的构建。在语音合成系统采用的语音库满足该系统预定更新条件时,例如,在更新时间满足预定时间或者更新数据量达到一定规模时,第一更新装置对语音库自动更新,第二更新装置利用更新的语音库通过各种自适应算法实现对语音合成系统的更新,从而提高了系统的性能并节省了人力。例如,通过持续的数据收集,使特定发音人语音数据规模扩大30%以上时第二更新装置更新语音合成系统,通过新增数据的自适应方式更新合成系统的统计预测模型。
图8示出了根据本发明语音合成方法的流程图。首先,在步骤S501,语音合成系统接收用户输入的文本。在步骤S502,分词装置50对文本进行分词,将文本切分到词的级别或者单字。在步骤S503,查找装置51根据分词结果查找语音库中与文本对应的至少一个特定发音人的语音片段。在步骤S504,选择装置52从查找的语音片段中选择最优的特定发音人的语音片段。可以根据语音合成系统的预定规则来挑选最优化的特定发音人的语音片段。在步骤S505,合成装置53将挑选的语音片段拼接以合成连续的特定发音人的语音序列。在步骤S506,语音合成系统将合成的语音序列输出为特定发音人的语音。
上面的描述仅用于实现本发明的实施方式,本领域的技术人员应该理解,在不脱离本发明的范围的任何修改或局部替换,均应该属于本发明的权利要求来限定的范围,因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (12)
1.一种语音库生成设备,包括:
语音提取装置,用于从收集的数据中提取预定发音人的语音数据;
语音识别装置,用于将所述预定发音人的语音数据识别为文本;
文本标注装置,用于对所述文本进行标注;
其中所述语音提取装置包括:
声纹特征提取单元,用于提取收集的数据中的语音声纹特征序列;
第一计算单元,用于计算所述语音声纹特征序列与背景模型的第一似然度;
第二计算单元,用于计算所述语音声纹特征序列与预定发音人的说话人声纹模型的第二似然度;
第一判别单元,用于将所述第二似然度与所述第一似然度之比大于第一阈值的语音数据确定为预定发音人的语音数据。
2.如权利要求1所述的语音库生成设备,其中还包括:
预处理装置,用于对收集的数据进行预处理。
3.如权利要求1或2所述的语音库生成设备,其中所述语音识别装置包括:
识别单元,用于从预定发音人的语音数据中提取语音声学参数,将所述语音声学参数解码以获得第一识别文本;
置信度计算单元,用于计算所述解码的置信度;
第二判别单元,用于将所述置信度大于第二阈值的所述第一识别文本确定为第二识别文本。
4.一种语音库生成方法,包括:
语音提取步骤,从收集的数据中提取预定发音人的语音数据;
语音识别步骤,将所述预定发音人的语音数据识别为文本;
文本标注步骤,对所述文本进行标注;
其中所述语音提取步骤包括:
声纹特征提取步骤,提取收集的数据中的语音声纹特征序列;
第一计算步骤,计算所述语音声纹特征序列与背景模型的第一似然度;
第二计算步骤,计算所述语音声纹特征序列与预定发音人的说话人声纹模型的第二似然度;
第一判别步骤,将所述第二似然度与所述第一似然度之比大于第一阈值的语音数据确定为预定发音人的语音数据。
5.如权利要求4所述的语音库生成方法,其中还包括:
预处理步骤,对收集的数据进行预处理。
6.如权利要求4或5所述的语音库生成方法,其中所述语音识别步骤包括:
识别步骤,从预定发音人的语音数据中提取语音声学参数,将所述语音声学参数解码以获得第一识别文本;
置信度计算步骤,计算所述解码的置信度;
第二判别步骤,将所述置信度大于第二阈值的所述第一识别文本确定为第二识别文本。
7.一种语音合成系统,包括:
分词装置,用于对输入的文本进行分词;
查找装置,用于根据分词结果查找预定发音人语音库中与文本对应的至少一个预定发音人的语音片段;
选择装置,用于从查找的预定发音人的语音片段中选择最优的语音片段;以及
合成装置,用于将挑选的语音片段拼接以合成连续的预定发音人的语音序列;
所述系统还包括用于生成语音库的语音库生成设备,所述语音库生成设备包括:
语音提取装置,用于从收集的数据中提取预定发音人的语音数据;
语音识别装置,用于将所述预定发音人的语音数据识别为文本;
文本标注装置,用于对所述文本进行标注;
其中所述语音提取装置包括:
声纹特征提取单元,用于提取收集的数据中的语音声纹特征序列;
第一计算单元,用于计算所述语音声纹特征序列与背景模型的第一似然度;
第二计算单元,用于计算所述语音声纹特征序列与预定发音人的说话人声纹模型的第二似然度;
第一判别单元,用于将所述第二似然度与所述第一似然度之比大于第一阈值的语音数据确定为预定发音人的语音数据。
8.如权利要求7所述的语音合成系统,其中还包括用于在满足第一预定条件时更新预定发音人语音库的第一更新装置。
9.如权利要求7所述的语音合成系统,其中还包括用于在满足第二预定条件时更新语音合成系统的第二更新装置。
10.一种语音合成方法,包括:
分词步骤,对输入的文本进行分词;
查找步骤,根据分词结果查找预定发音人语音库中与文本对应的至少一个预定发音人的语音片段;
选择步骤,从查找的预定发音人的语音片段中选择最优的语音片段;以及
合成步骤,将挑选的语音片段拼接以合成连续的预定发音人的语音序列;
所述方法还包括生成语音库的语音库生成步骤,所述语音库生成步骤包括:
语音提取步骤,从收集的数据中提取预定发音人的语音数据;
语音识别步骤,将所述预定发音人的语音数据识别为文本;
文本标注步骤,对所述文本进行标注;
其中所述语音提取步骤包括:
声纹特征提取步骤,提取收集的数据中的语音声纹特征序列;
第一计算步骤,计算所述语音声纹特征序列与背景模型的第一似然度;
第二计算步骤,计算所述语音声纹特征序列与预定发音人的说话人声纹模型的第二似然度;
第一判别步骤,将所述第二似然度与所述第一似然度之比大于第一阈值的语音数据确定为预定发音人的语音数据。
11.如权利要求10所述的语音合成方法,其中还包括用于在满足第一预定条件时更新预定发音人语音库的第一更新步骤。
12.如权利要求10所述的语音合成方法,其中还包括用于在满足第二预定条件时采用自适应算法的第二更新步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210091240.8A CN102779508B (zh) | 2012-03-31 | 2012-03-31 | 语音库生成设备及其方法、语音合成系统及其方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210091240.8A CN102779508B (zh) | 2012-03-31 | 2012-03-31 | 语音库生成设备及其方法、语音合成系统及其方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102779508A CN102779508A (zh) | 2012-11-14 |
CN102779508B true CN102779508B (zh) | 2016-11-09 |
Family
ID=47124408
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210091240.8A Active CN102779508B (zh) | 2012-03-31 | 2012-03-31 | 语音库生成设备及其方法、语音合成系统及其方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102779508B (zh) |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104217717B (zh) * | 2013-05-29 | 2016-11-23 | 腾讯科技(深圳)有限公司 | 构建语言模型的方法及装置 |
US9396724B2 (en) | 2013-05-29 | 2016-07-19 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for building a language model |
CN104347065A (zh) * | 2013-07-26 | 2015-02-11 | 英业达科技有限公司 | 依据使用者语音产生合适语音信号的装置及其方法 |
CN103578464B (zh) * | 2013-10-18 | 2017-01-11 | 威盛电子股份有限公司 | 语言模型的建立方法、语音辨识方法及电子装置 |
CN103929534B (zh) * | 2014-03-19 | 2017-05-24 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN103985392A (zh) * | 2014-04-16 | 2014-08-13 | 柳超 | 音素级的低功耗的口语评价与缺陷诊断方法 |
CN104320255A (zh) * | 2014-09-30 | 2015-01-28 | 百度在线网络技术(北京)有限公司 | 生成账户认证数据的方法、账户认证的方法以及装置 |
CN104536570A (zh) * | 2014-12-29 | 2015-04-22 | 广东小天才科技有限公司 | 智能手表的信息处理方法及装置 |
CN104810018B (zh) * | 2015-04-30 | 2017-12-12 | 安徽大学 | 基于动态累积量估计的语音信号端点检测方法 |
CN106373558B (zh) * | 2015-07-24 | 2019-10-18 | 科大讯飞股份有限公司 | 语音识别文本处理方法及系统 |
JP6499305B2 (ja) * | 2015-09-16 | 2019-04-10 | 株式会社東芝 | 音声合成装置、音声合成方法、音声合成プログラム、音声合成モデル学習装置、音声合成モデル学習方法及び音声合成モデル学習プログラム |
CN105206258B (zh) * | 2015-10-19 | 2018-05-04 | 百度在线网络技术(北京)有限公司 | 声学模型的生成方法和装置及语音合成方法和装置 |
US10152965B2 (en) * | 2016-02-03 | 2018-12-11 | Google Llc | Learning personalized entity pronunciations |
CN105786797B (zh) * | 2016-02-23 | 2018-09-14 | 北京云知声信息技术有限公司 | 一种基于语音输入的信息处理方法及装置 |
CN107886938B (zh) * | 2016-09-29 | 2020-11-17 | 中国科学院深圳先进技术研究院 | 虚拟现实引导催眠语音处理方法及装置 |
CN107644637B (zh) * | 2017-03-13 | 2018-09-25 | 平安科技(深圳)有限公司 | 语音合成方法和装置 |
CN107293309B (zh) * | 2017-05-19 | 2021-04-30 | 四川新网银行股份有限公司 | 一种基于客户情绪分析提升舆情监控效率的方法 |
CN107293289B (zh) * | 2017-06-13 | 2020-05-29 | 南京医科大学 | 一种基于深度卷积生成对抗网络的语音生成方法 |
CN107315742A (zh) * | 2017-07-03 | 2017-11-03 | 中国科学院自动化研究所 | 具有人机对话功能的拟人化口语翻译方法及系统 |
GB201801527D0 (en) * | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Method, apparatus and systems for biometric processes |
CN107293284A (zh) * | 2017-07-27 | 2017-10-24 | 上海传英信息技术有限公司 | 一种基于智能终端的语音合成方法及语音合成系统 |
CN108304154B (zh) * | 2017-09-19 | 2021-11-05 | 腾讯科技(深圳)有限公司 | 一种信息处理方法、装置、服务器及存储介质 |
CN108053822B (zh) * | 2017-11-03 | 2021-01-15 | 深圳和而泰智能控制股份有限公司 | 一种语音信号处理方法、装置、终端设备及介质 |
CN108109633A (zh) * | 2017-12-20 | 2018-06-01 | 北京声智科技有限公司 | 无人值守的云端语音库采集与智能产品测试的系统与方法 |
CN108417205B (zh) * | 2018-01-19 | 2020-12-18 | 苏州思必驰信息科技有限公司 | 语义理解训练方法和系统 |
CN108364655B (zh) * | 2018-01-31 | 2021-03-09 | 网易乐得科技有限公司 | 语音处理方法、介质、装置和计算设备 |
CN108417200A (zh) * | 2018-02-27 | 2018-08-17 | 湖南世杰信息技术有限公司 | 语音合成播报方法和装置 |
CN110797001B (zh) * | 2018-07-17 | 2022-04-12 | 阿里巴巴(中国)有限公司 | 电子书语音音频的生成方法、装置及可读存储介质 |
CN109086455B (zh) * | 2018-08-30 | 2021-03-12 | 广东小天才科技有限公司 | 一种语音识别库的构建方法及学习设备 |
CN109300468B (zh) * | 2018-09-12 | 2022-09-06 | 科大讯飞股份有限公司 | 一种语音标注方法及装置 |
CN109389968B (zh) * | 2018-09-30 | 2023-08-18 | 平安科技(深圳)有限公司 | 基于双音节混搭的波形拼接方法、装置、设备及存储介质 |
CN109308892B (zh) | 2018-10-25 | 2020-09-01 | 百度在线网络技术(北京)有限公司 | 语音合成播报方法、装置、设备及计算机可读介质 |
CN109859746B (zh) * | 2019-01-22 | 2021-04-02 | 安徽声讯信息技术有限公司 | 一种基于tts的语音识别语料库生成方法及系统 |
CN111627417B (zh) * | 2019-02-26 | 2023-08-08 | 北京地平线机器人技术研发有限公司 | 播放语音的方法、装置及电子设备 |
CN110335608B (zh) * | 2019-06-17 | 2023-11-28 | 平安科技(深圳)有限公司 | 声纹验证方法、装置、设备及存储介质 |
CN110310620B (zh) * | 2019-07-23 | 2021-07-13 | 苏州派维斯信息科技有限公司 | 基于原生发音强化学习的语音融合方法 |
CN114303186A (zh) * | 2019-08-21 | 2022-04-08 | 杜比实验室特许公司 | 用于在语音合成中适配人类说话者嵌入的系统和方法 |
CN111091807B (zh) * | 2019-12-26 | 2023-05-26 | 广州酷狗计算机科技有限公司 | 语音合成方法、装置、计算机设备及存储介质 |
CN111354334B (zh) * | 2020-03-17 | 2023-09-15 | 阿波罗智联(北京)科技有限公司 | 语音输出方法、装置、设备和介质 |
CN113192493B (zh) * | 2020-04-29 | 2022-06-14 | 浙江大学 | 一种结合GMM Token配比与聚类的核心训练语音选择方法 |
CN111629267B (zh) * | 2020-04-30 | 2023-06-09 | 腾讯科技(深圳)有限公司 | 音频标注方法、装置、设备及计算机可读存储介质 |
CN111666469B (zh) * | 2020-05-13 | 2023-06-16 | 广州国音智能科技有限公司 | 语句库构建方法、装置、设备和存储介质 |
CN111916088B (zh) * | 2020-08-12 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 一种语音语料的生成方法、设备及计算机可读存储介质 |
CN117891928B (zh) * | 2024-03-15 | 2024-06-07 | 福建省政务门户网站运营管理有限公司 | 一种用户语音留言的智能处理方法及系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101000765A (zh) * | 2007-01-09 | 2007-07-18 | 黑龙江大学 | 基于韵律特征的语音合成方法 |
CN101067780A (zh) * | 2007-06-21 | 2007-11-07 | 腾讯科技(深圳)有限公司 | 智能设备的文字输入系统及方法 |
CN101094445A (zh) * | 2007-06-29 | 2007-12-26 | 中兴通讯股份有限公司 | 一种实现文本短信语音播放的系统及方法 |
CN101211615A (zh) * | 2006-12-31 | 2008-07-02 | 于柏泉 | 一种对特定人的语音进行自动录制的方法、系统及设备 |
CN101923855A (zh) * | 2009-06-17 | 2010-12-22 | 复旦大学 | 文本无关的声纹识别系统 |
CN102142254A (zh) * | 2011-03-25 | 2011-08-03 | 北京得意音通技术有限责任公司 | 基于声纹识别和语音识别的防录音假冒的身份确认方法 |
CN102201233A (zh) * | 2011-05-20 | 2011-09-28 | 北京捷通华声语音技术有限公司 | 一种混搭语音合成方法和系统 |
JP2011197124A (ja) * | 2010-03-17 | 2011-10-06 | Oki Electric Industry Co Ltd | データ作成システム及びプログラム |
CN202026434U (zh) * | 2011-04-29 | 2011-11-02 | 广东九联科技股份有限公司 | 一种语音转换机顶盒 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7369994B1 (en) * | 1999-04-30 | 2008-05-06 | At&T Corp. | Methods and apparatus for rapid acoustic unit selection from a large speech corpus |
CN1924994B (zh) * | 2005-08-31 | 2010-11-03 | 中国科学院自动化研究所 | 一种嵌入式语音合成方法及系统 |
JP2008225254A (ja) * | 2007-03-14 | 2008-09-25 | Canon Inc | 音声合成装置及び方法並びにプログラム |
CN101312038B (zh) * | 2007-05-25 | 2012-01-04 | 纽昂斯通讯公司 | 用于合成语音的方法 |
-
2012
- 2012-03-31 CN CN201210091240.8A patent/CN102779508B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101211615A (zh) * | 2006-12-31 | 2008-07-02 | 于柏泉 | 一种对特定人的语音进行自动录制的方法、系统及设备 |
CN101000765A (zh) * | 2007-01-09 | 2007-07-18 | 黑龙江大学 | 基于韵律特征的语音合成方法 |
CN101067780A (zh) * | 2007-06-21 | 2007-11-07 | 腾讯科技(深圳)有限公司 | 智能设备的文字输入系统及方法 |
CN101094445A (zh) * | 2007-06-29 | 2007-12-26 | 中兴通讯股份有限公司 | 一种实现文本短信语音播放的系统及方法 |
CN101923855A (zh) * | 2009-06-17 | 2010-12-22 | 复旦大学 | 文本无关的声纹识别系统 |
JP2011197124A (ja) * | 2010-03-17 | 2011-10-06 | Oki Electric Industry Co Ltd | データ作成システム及びプログラム |
CN102142254A (zh) * | 2011-03-25 | 2011-08-03 | 北京得意音通技术有限责任公司 | 基于声纹识别和语音识别的防录音假冒的身份确认方法 |
CN202026434U (zh) * | 2011-04-29 | 2011-11-02 | 广东九联科技股份有限公司 | 一种语音转换机顶盒 |
CN102201233A (zh) * | 2011-05-20 | 2011-09-28 | 北京捷通华声语音技术有限公司 | 一种混搭语音合成方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN102779508A (zh) | 2012-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102779508B (zh) | 语音库生成设备及其方法、语音合成系统及其方法 | |
US10789290B2 (en) | Audio data processing method and apparatus, and computer storage medium | |
US20230043916A1 (en) | Text-to-speech processing using input voice characteristic data | |
CN107195296B (zh) | 一种语音识别方法、装置、终端及系统 | |
CN108899009B (zh) | 一种基于音素的中文语音合成系统 | |
TWI721268B (zh) | 用於語音合成的系統和方法 | |
KR100815115B1 (ko) | 타 언어권 화자 음성에 대한 음성 인식시스템의 성능향상을 위한 발음 특성에 기반한 음향모델 변환 방법 및이를 이용한 장치 | |
Panda et al. | Automatic speech segmentation in syllable centric speech recognition system | |
JP4829477B2 (ja) | 声質変換装置および声質変換方法ならびに声質変換プログラム | |
CN112750446B (zh) | 语音转换方法、装置和系统及存储介质 | |
CN106653002A (zh) | 一种文字直播方法及平台 | |
Chittaragi et al. | Acoustic-phonetic feature based Kannada dialect identification from vowel sounds | |
TWI605350B (zh) | 文字轉語音方法以及多語言語音合成裝置 | |
Sinha et al. | Empirical analysis of linguistic and paralinguistic information for automatic dialect classification | |
Hanani et al. | Palestinian Arabic regional accent recognition | |
Rafi et al. | Relative significance of speech sounds in speaker verification systems | |
Sultana et al. | A survey on Bengali speech-to-text recognition techniques | |
Lee et al. | Korean dialect identification based on intonation modeling | |
Nazir et al. | Deep learning end to end speech synthesis: A review | |
Cahyaningtyas et al. | Development of under-resourced Bahasa Indonesia speech corpus | |
Mary et al. | Evaluation of mimicked speech using prosodic features | |
Woods et al. | A robust ensemble model for spoken language recognition | |
Sztahó et al. | Speech activity detection and automatic prosodic processing unit segmentation for emotion recognition | |
Koolagudi et al. | Spectral features for emotion classification | |
Lingam | Speaker based language independent isolated speech recognition system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: Wangjiang Road high tech Development Zone Hefei city Anhui province 230088 iFLYTEK Building No. 666 Applicant after: Iflytek Co., Ltd. Address before: Wangjiang Road high tech Development Zone Hefei city Anhui province 230088 iFLYTEK Building No. 666 Applicant before: Anhui USTC iFLYTEK Co., Ltd. |
|
COR | Change of bibliographic data | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |