CN112634863B - 一种语音合成模型的训练方法、装置、电子设备及介质 - Google Patents
一种语音合成模型的训练方法、装置、电子设备及介质 Download PDFInfo
- Publication number
- CN112634863B CN112634863B CN202011448005.2A CN202011448005A CN112634863B CN 112634863 B CN112634863 B CN 112634863B CN 202011448005 A CN202011448005 A CN 202011448005A CN 112634863 B CN112634863 B CN 112634863B
- Authority
- CN
- China
- Prior art keywords
- data set
- text
- word
- speech synthesis
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 241
- 238000003786 synthesis reaction Methods 0.000 title claims abstract description 241
- 238000012549 training Methods 0.000 title claims abstract description 89
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000006835 compression Effects 0.000 claims description 20
- 238000007906 compression Methods 0.000 claims description 20
- 238000005520 cutting process Methods 0.000 claims description 17
- 230000011218 segmentation Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 7
- 238000012545 processing Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 238000012163 sequencing technique Methods 0.000 description 4
- 238000003776 cleavage reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000007017 scission Effects 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明公开了一种语音合成模型的训练方法、装置、电子设备及介质;所述方法包括:基于原始的语音合成数据集中的各个音频对应的文本,对原始的语音合成数据集进行压缩处理,得到压缩后的语音合成数据集;基于压缩后的语音合成数据集中的各个音频对语音合成模型进行训练。本申请实施例可以有效地加快语音合成模型的收敛速度,提高训练效率,在消耗同等算力资源的情况下,得到更好的效果。
Description
技术领域
本发明实施例涉及人工智能技术领域,尤其涉及一种语音合成模型的训练方法、装置、电子设备及介质。
背景技术
数据是决定模型效果的关键因素之一。在语音合成领域,基于传统统计学的模型需要的数据较少,有研究表明,一般单个说话人只需要数小时就能合成可理解的语音。当训练数据超过4-5小时,效果提升趋于饱和。而到了深度学习时代,基于神经网络的模型,依赖于海量的参数和强大的算力,合成语音质量的上限得到大幅提升,自然度与清晰度与真人几乎没有差别,但与此同时对数据量的需求也开始变得没有止境。
谷歌研发的Parrotron是基于seq2seq框架的自回归语音转换模型,使用了约3万小时(约2400万个句子)的音频作为训练数据。然而这一代价并非普通企业和研究集构所能承受,因此也有不断有研究在探索仅用少量数据就取得好结果的方法。如基于GAN框架的模型,仅用少量数据就能合成很清晰的音频,但这一类模型的稳定度(发音是否正确,是否有噪声等)和自然度比seq2seq模型低很多,因此目前还未被工业界普遍采纳。
在实现本发明的过程中,发明人发现现有技术中至少存在如下问题:
在现有的语音合成模型的训练方法中,需要使用大量的音频作为训练样本,由于这些训练样本中可能会包含大量的冗余信息,所以直接使用这些训练样本进行模型训练则会导致模型收敛速度慢,训练效率很低。
发明内容
本发明提供一种语音合成模型的训练方法、装置、电子设备及介质,可以有效地加快语音合成模型的收敛速度,提高训练效率,在消耗同等算力资源的情况下,得到更好的效果。
第一方面,本发明实施例提供了一种语音合成模型的训练方法,所述方法包括:
基于原始的语音合成数据集中的各个音频对应的文本,对所述原始的语音合成数据集进行压缩处理,得到压缩后的语音合成数据集;
基于所述压缩后的语音合成数据集中的各个音频对语音合成模型进行训练。
第二方面,本发明实施例还提供了一种语音合成模型的训练装置,所述装置包括:压缩模块和训练模块;其中,
所述压缩模块,用于基于原始的语音合成数据集中的各个音频对应的文本,对所述原始的语音合成数据集进行压缩处理,得到压缩后的语音合成数据集;
所述训练模块,用于基于所述压缩后的语音合成数据集中的各个音频对语音合成模型进行训练。
第三方面,本发明实施例提供了一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明任意实施例所述的语音合成模型的训练方法。
第四方面,本发明实施例提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现本发明任意实施例所述的语音合成模型的训练方法。
本发明实施例提出了一种语音合成模型的训练方法、装置、电子设备及介质,先基于原始的语音合成数据集中的各个音频对应的文本,对原始的语音合成数据集进行压缩处理,得到压缩后的语音合成数据集;然后基于压缩后的语音合成数据集中的各个音频对语音合成模型进行训练。也就是说,在本发明的技术方案中,先对原始的语音合成数据集进行压缩处理,然后基于压缩后的语音合成数据集中的各个音频对语音合成模型进行训练;而现有的语音合成模型的训练方法,直接使用原始的语音合成数据集中的各个音频对语音合成模型进行训练,由于这些原始的语音合成数据集中可能会包含大量的冗余信息,所以直接使用原始的语音合成数据集中的各个音频进行模型训练则会导致模型收敛速度慢,训练效率很低。因此,和现有技术相比,本发明实施例提出的语音合成模型的训练方法、装置、电子设备及介质,可以有效地加快语音合成模型的收敛速度,提高训练效率,在消耗同等算力资源的情况下,得到更好的效果;并且,本发明实施例的技术方案实现简单方便、便于普及,适用范围更广。
附图说明
图1为本发明实施例一提供的语音合成模型的训练方法的流程示意图;
图2为本发明实施例二提供的语音合成模型的训练方法的流程示意图;
图3为本发明实施例三提供的语音合成模型的训练方法的流程示意图;
图4为本发明实施例四提供的语音合成模型的训练装置的结构示意图;
图5为本发明实施例四提供的压缩模块的结构示意图;
图6为本发明实施例五提供的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的语音合成模型的训练方法的流程示意图。如图1所示,语音合成模型的训练方法可以包括以下步骤:
步骤101、基于原始的语音合成数据集中的各个音频对应的文本,对原始的语音合成数据集进行压缩处理,得到压缩后的语音合成数据集。
在本步骤中,电子设备可以基于原始的语音合成数据集中的各个音频对应的文本,对原始的语音合成数据集进行压缩处理,得到压缩后的语音合成数据集。具体地,电子设备可以先在原始的语音合成数据集中提取出一个音频对应的文本作为当前文本;然后对当前文本进行切割处理,得到当前文本所包含的至少一个分词;重复执行上述提取当前文本的操作,直到得到原始的语音合成数据集中的各个音频对应的文本所包含的至少一个分词;再基于原始的语音合成数据集中的各个音频对应的文本所包含的至少一个分词,对原始的语音合成数据集进行压缩处理,得到压缩后的语音合成数据集。
本申请中的切割粒度包括但不限于:词汇、字符、音素、短语等等。通过一系列统计方法,可以减少冗余数据,用最少的句子覆盖所有出现过的词汇,降低音素不平衡的现象,使得数据集中较少出现的词汇和音素也能得到充分的训练,从而提高了训练效率。另外,本申请不仅适用于语音合成(VC和TTS),也同样适用于其它使用到文本作为训练数据的领域,如ASR,NLP,多模态识别和合成等。
步骤102、基于压缩后的语音合成数据集中的各个音频对语音合成模型进行训练。
在本步骤中,电子设备可以基于压缩后的语音合成数据集中的各个音频对语音合成模型进行训练。具体地,电子设备可以在压缩后的语音合成数据集中提取出一个音频作为当前训练样本;响应于语音合成模型不满足预先设置的收敛条件,将当前训练样本输入至语音合成模型中,使用当前训练样本对语音合成模型进行训练;重复执行上述提取当前训练样本的操作,直到语音合成模型满足预先设置的收敛条件。
本发明实施例提出的语音合成模型的训练方法,先基于原始的语音合成数据集中的各个音频对应的文本,对原始的语音合成数据集进行压缩处理,得到压缩后的语音合成数据集;然后基于压缩后的语音合成数据集中的各个音频对语音合成模型进行训练。也就是说,在本发明的技术方案中,先对原始的语音合成数据集进行压缩处理,然后基于压缩后的语音合成数据集中的各个音频对语音合成模型进行训练;而现有的语音合成模型的训练方法,直接使用原始的语音合成数据集中的各个音频对语音合成模型进行训练,由于这些原始的语音合成数据集中可能会包含大量的冗余信息,所以直接使用原始的语音合成数据集中的各个音频进行模型训练则会导致模型收敛速度慢,训练效率很低。因此,和现有技术相比,本发明实施例提出的语音合成模型的训练方法、装置、电子设备及介质,可以有效地加快语音合成模型的收敛速度,提高训练效率,在消耗同等算力资源的情况下,得到更好的效果;并且,本发明实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例二
图2为本发明实施例二提供的语音合成模型的训练方法的流程示意图。如图2所示,语音合成模型的训练方法可以包括以下步骤:
步骤201、在原始的语音合成数据集中提取出一个音频对应的文本作为当前文本。
在本步骤中,电子设备可以在原始的语音合成数据集中提取出一个音频对应的文本作为当前文本。具体地,电子设备可以在原始的语音合成数据集中保存各个音频以及与其对应的文本,所以电子设备可以在语音合成数据集中提取出每一个音频对应的文本。
步骤202、对当前文本进行切割处理,得到当前文本所包含的至少一个分词;重复执行上述提取当前文本的操作,直到得到原始的语音合成数据集中的各个音频对应的文本所包含的至少一个分词。
在本步骤中,电子设备可以对当前文本进行切割处理,得到当前文本所包含的至少一个分词;重复执行上述提取当前文本的操作,直到得到原始的语音合成数据集中的各个音频对应的文本所包含的至少一个分词。较佳地,电子设备在对当前文本进行切割处理之前,还可以先将当前文本中的标点符号转换成空格;将当前文本中的数字符号和特殊符号转换为文本;然后基于转换后的当前文本执行对当前文本进行切割处理的操作。
本申请中的切割粒度包括但不限于:词汇、字符、音素、短语等等。通过一系列统计方法,可以减少冗余数据,用最少的句子覆盖所有出现过的词汇,降低音素不平衡的现象,使得数据集中较少出现的词汇和音素也能得到充分的训练,从而提高了训练效率。另外,本申请不仅适用于语音合成(VC和TTS),也同样适用于其它使用到文本作为训练数据的领域,如ASR,NLP,多模态识别和合成等。
步骤203、基于原始的语音合成数据集中的各个音频对应的文本所包含的至少一个分词,对原始的语音合成数据集进行压缩处理,得到压缩后的语音合成数据集。
在本步骤中,电子设备可以基于原始的语音合成数据集中的各个音频对应的文本所包含的至少一个分词,对原始的语音合成数据集进行压缩处理,得到压缩后的语音合成数据集。具体地,电子设备可以先基于原始的语音合成数据集中的各个音频对应的文本所包含的至少一个分词,统计原始的语音合成数据集中的各个音频对应的文本所包含的各个分词在原始的语音合成数据集中出现的次数;然后根据原始的语音合成数据集中的各个音频对应的文本所包含的各个分词在原始的语音合成数据集中出现的次数,按照从小到大的顺序对原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词进行排序,得到原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词的排序结果;再根据原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词的排序结果,对原始的语音合成数据集进行压缩处理,得到压缩后的语音合成数据集。
步骤204、基于压缩后的语音合成数据集中的各个音频对语音合成模型进行训练。
本发明实施例提出的语音合成模型的训练方法,先基于原始的语音合成数据集中的各个音频对应的文本,对原始的语音合成数据集进行压缩处理,得到压缩后的语音合成数据集;然后基于压缩后的语音合成数据集中的各个音频对语音合成模型进行训练。也就是说,在本发明的技术方案中,先对原始的语音合成数据集进行压缩处理,然后基于压缩后的语音合成数据集中的各个音频对语音合成模型进行训练;而现有的语音合成模型的训练方法,直接使用原始的语音合成数据集中的各个音频对语音合成模型进行训练,由于这些原始的语音合成数据集中可能会包含大量的冗余信息,所以直接使用原始的语音合成数据集中的各个音频进行模型训练则会导致模型收敛速度慢,训练效率很低。因此,和现有技术相比,本发明实施例提出的语音合成模型的训练方法、装置、电子设备及介质,可以有效地加快语音合成模型的收敛速度,提高训练效率,在消耗同等算力资源的情况下,得到更好的效果;并且,本发明实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例三
图3为本发明实施例三提供的语音合成模型的训练方法的流程示意图。如图3所示,语音合成模型的训练方法可以包括以下步骤:
步骤301、在原始的语音合成数据集中提取出一个音频对应的文本作为当前文本。
步骤302、对当前文本进行切割处理,得到当前文本所包含的至少一个分词;重复执行上述提取当前文本的操作,直到得到原始的语音合成数据集中的各个音频对应的文本所包含的至少一个分词。
步骤303、基于原始的语音合成数据集中的各个音频对应的文本所包含的至少一个分词,统计原始的语音合成数据集中的各个音频对应的文本所包含的各个分词在原始的语音合成数据集中出现的次数。
在本步骤中,电子设备可以基于原始的语音合成数据集中的各个音频对应的文本所包含的至少一个分词,统计原始的语音合成数据集中的各个音频对应的文本所包含的各个分词在原始的语音合成数据集中出现的次数。具体地,电子设备可以先在原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词中提取出一个分词作为当前分词,然后统计当前分词在原始的语音合成数据集中出现的次数;重复执行上述提取当前分词的操作,直到统计出原始的语音合成数据集中的各个音频对应的文本所包含的各个分词在原始的语音合成数据集中出现的次数。
步骤304、根据原始的语音合成数据集中的各个音频对应的文本所包含的各个分词在原始的语音合成数据集中出现的次数,按照从小到大的顺序对原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词进行排序,得到原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词的排序结果。
在本步骤中,电子设备可以根据原始的语音合成数据集中的各个音频对应的文本所包含的各个分词在原始的语音合成数据集中出现的次数,按照从小到大的顺序对原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词进行排序,得到原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词的排序结果。由于原始的语音合成数据集中的各个音频对应的文本所包含的各个分词在原始的语音合成数据集中出现的次数是不同的,有的分词出现的次数多,有的分词出现的次数少,因此可以先按照从小到大的顺序对原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词进行排序,得到原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词的排序结果。
步骤305、根据原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词的排序结果,对原始的语音合成数据集进行压缩处理,得到压缩后的语音合成数据集。
在本步骤中,电子设备可以根据原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词的排序结果,对原始的语音合成数据集进行压缩处理,得到压缩后的语音合成数据集。具体地,电子设备可以根据原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词的排序结果,在原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词中提取出一个分词作为当前分词;然后判断当前分词是否存在于目标句子列表中的任何一个句子中;若当前分词在存在于目标句子列表中的任何一个句子中,则电子设备可以将当前分词确定为当前冗余分词;然后在原始的语音合成数据集中删除当前冗余分词所在的文本以及该文本对应的音频;重复执行上述提取当前分词的操作,直到在原始的语音合成数据集中删除各个冗余分词所在的文本以及该文本对应的音频。
步骤306、基于压缩后的语音合成数据集中的各个音频对语音合成模型进行训练。
本发明实施例提出的语音合成模型的训练方法,先基于原始的语音合成数据集中的各个音频对应的文本,对原始的语音合成数据集进行压缩处理,得到压缩后的语音合成数据集;然后基于压缩后的语音合成数据集中的各个音频对语音合成模型进行训练。也就是说,在本发明的技术方案中,先对原始的语音合成数据集进行压缩处理,然后基于压缩后的语音合成数据集中的各个音频对语音合成模型进行训练;而现有的语音合成模型的训练方法,直接使用原始的语音合成数据集中的各个音频对语音合成模型进行训练,由于这些原始的语音合成数据集中可能会包含大量的冗余信息,所以直接使用原始的语音合成数据集中的各个音频进行模型训练则会导致模型收敛速度慢,训练效率很低。因此,和现有技术相比,本发明实施例提出的语音合成模型的训练方法、装置、电子设备及介质,可以有效地加快语音合成模型的收敛速度,提高训练效率,在消耗同等算力资源的情况下,得到更好的效果;并且,本发明实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例四
图4为本发明实施例四提供的语音合成模型的训练装置的结构示意图。如图4所示,所述语音合成模型的训练装置包括:压缩模块401和训练模块402;其中,
所述压缩模块401,用于基于原始的语音合成数据集中的各个音频对应的文本,对所述原始的语音合成数据集进行压缩处理,得到压缩后的语音合成数据集;
所述训练模块402,用于基于所述压缩后的语音合成数据集中的各个音频对语音合成模型进行训练。
图5为本发明实施例四提供的压缩模块的结构示意图。如图5所示,所述压缩模块401包括:提取子模块4011、切割子模块4012和压缩子模块4013;其中,
所述提取子模块4011,用于在所述原始的语音合成数据集中提取出一个音频对应的文本作为当前文本;
所述切割子模块4012,用于对所述当前文本进行切割处理,得到所述当前文本所包含的至少一个分词;重复执行上述提取所述当前文本的操作,直到得到所述原始的语音合成数据集中的各个音频对应的文本所包含的至少一个分词;
所述压缩子模块4013,用于基于所述原始的语音合成数据集中的各个音频对应的文本所包含的至少一个分词,对所述原始的语音合成数据集进行压缩处理,得到压缩后的语音合成数据集。
进一步的,所述压缩子模块4013,具体用于基于所述原始的语音合成数据集中的各个音频对应的文本所包含的至少一个分词,统计所述原始的语音合成数据集中的各个音频对应的文本所包含的各个分词在所述原始的语音合成数据集中出现的次数;根据所述原始的语音合成数据集中的各个音频对应的文本所包含的各个分词在所述原始的语音合成数据集中出现的次数,按照从小到大的顺序对所述原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词进行排序,得到所述原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词的排序结果;根据所述原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词的排序结果,对所述原始的语音合成数据集进行压缩处理,得到压缩后的语音合成数据集。
进一步的,所述压缩子模块4013,具体用于根据所述原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词的排序结果,在所述原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词中提取出一个分词作为当前分词;判断所述当前分词是否存在于目标句子列表中的任何一个句子中;若所述当前分词在存在于所述目标句子列表中的任何一个句子中,则将所述当前分词确定为当前冗余分词;在所述原始的语音合成数据集中删除所述当前冗余分词所在的文本以及该文本对应的音频;重复执行上述提取所述当前分词的操作,直到在所述原始的语音合成数据集中删除各个冗余分词所在的文本以及该文本对应的音频。
进一步的,所述切割子模块4012,还用于将所述当前文本中的标点符号转换成空格;将所述当前文本中的数字符号和特殊符号转换为文本;基于转换后的当前文本执行所述对所述当前文本进行切割处理的操作。
上述语音合成模型的训练装置可执行本发明任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明任意实施例提供的语音合成模型的训练方法。
实施例五
图6是本发明实施例五中的电子设备的结构示意图。图6示出了适于用来实现本发明实施方式的示例性电子设备的框图。图6显示的电子设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,电子设备12以通用计算设备的形式表现。电子设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
电子设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被电子设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。电子设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
电子设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该电子设备12交互的设备通信,和/或与使得该电子设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,电子设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与电子设备12的其它模块通信。应当明白,尽管图6中未示出,可以结合电子设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的语音合成模型的训练方法。
实施例六
本发明实施例六提供了一种计算机存储介质。
本发明实施例的计算机可读存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (8)
1.一种语音合成模型的训练方法,其特征在于,所述方法包括:
在原始的语音合成数据集中提取出一个音频对应的文本作为当前文本;
对所述当前文本进行切割处理,得到所述当前文本所包含的至少一个分词;重复执行上述提取所述当前文本的操作,直到得到所述原始的语音合成数据集中的各个音频对应的文本所包含的至少一个分词;其中,切割粒度包括词汇、字符、音素和短语;
在所述原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词中提取出一个分词作为当前分词;判断所述当前分词是否存在于目标句子列表中的任何一个句子中;若所述当前分词在存在于所述目标句子列表中的任何一个句子中,则将所述当前分词确定为当前冗余分词;在所述原始的语音合成数据集中删除所述当前冗余分词所在的文本以及该文本对应的音频;重复执行上述提取所述当前分词的操作,直到在所述原始的语音合成数据集中删除各个冗余分词所在的文本以及该文本对应的音频,得到压缩后的语音合成数据集;
基于所述压缩后的语音合成数据集中的各个音频对语音合成模型进行训练。
2.根据权利要求1所述的方法,其特征在于,在所述原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词中提取出一个分词作为当前分词之前,所述方法还包括:
基于所述原始的语音合成数据集中的各个音频对应的文本所包含的至少一个分词,统计所述原始的语音合成数据集中的各个音频对应的文本所包含的各个分词在所述原始的语音合成数据集中出现的次数;
根据所述原始的语音合成数据集中的各个音频对应的文本所包含的各个分词在所述原始的语音合成数据集中出现的次数,按照从小到大的顺序对所述原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词进行排序,得到所述原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词的排序结果。
3.根据权利要求1所述的方法,其特征在于,在所述对所述当前文本进行切割处理之前,所述方法还包括:
将所述当前文本中的标点符号转换成空格;将所述当前文本中的数字符号和特殊符号转换为文本;基于转换后的当前文本执行所述对所述当前文本进行切割处理的操作。
4.一种语音合成模型的训练装置,其特征在于,所述装置包括:压缩模块和训练模块;其中,
所述压缩模块,包括提取子模块、切割子模块和压缩子模块;
所述提取子模块,用于在原始的语音合成数据集中提取出一个音频对应的文本作为当前文本;
所述切割子模块,用于对所述当前文本进行切割处理,得到所述当前文本所包含的至少一个分词;重复执行上述提取所述当前文本的操作,直到得到所述原始的语音合成数据集中的各个音频对应的文本所包含的至少一个分词;其中,切割粒度包括词汇、字符、音素和短语;
所述压缩子模块,用于在所述原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词中提取出一个分词作为当前分词;判断所述当前分词是否存在于目标句子列表中的任何一个句子中;若所述当前分词在存在于所述目标句子列表中的任何一个句子中,则将所述当前分词确定为当前冗余分词;在所述原始的语音合成数据集中删除所述当前冗余分词所在的文本以及该文本对应的音频;重复执行上述提取所述当前分词的操作,直到在所述原始的语音合成数据集中删除各个冗余分词所在的文本以及该文本对应的音频,得到压缩后的语音合成数据集;
所述训练模块,用于基于所述压缩后的语音合成数据集中的各个音频对语音合成模型进行训练。
5.根据权利要求4所述的装置,其特征在于,所述压缩子模块,还用于基于所述原始的语音合成数据集中的各个音频对应的文本所包含的至少一个分词,统计所述原始的语音合成数据集中的各个音频对应的文本所包含的各个分词在所述原始的语音合成数据集中出现的次数;根据所述原始的语音合成数据集中的各个音频对应的文本所包含的各个分词在所述原始的语音合成数据集中出现的次数,按照从小到大的顺序对所述原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词进行排序,得到所述原始的语音合成数据集中的全部音频对应的文本所包含的至少一个分词的排序结果。
6.根据权利要求4所述的装置,其特征在于,所述切割子模块,还用于将所述当前文本中的标点符号转换成空格;将所述当前文本中的数字符号和特殊符号转换为文本;基于转换后的当前文本执行所述对所述当前文本进行切割处理的操作。
7.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1至3中任一项所述的语音合成模型的训练方法。
8.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至3中任一项所述的语音合成模型的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011448005.2A CN112634863B (zh) | 2020-12-09 | 2020-12-09 | 一种语音合成模型的训练方法、装置、电子设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011448005.2A CN112634863B (zh) | 2020-12-09 | 2020-12-09 | 一种语音合成模型的训练方法、装置、电子设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112634863A CN112634863A (zh) | 2021-04-09 |
CN112634863B true CN112634863B (zh) | 2024-02-09 |
Family
ID=75310310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011448005.2A Active CN112634863B (zh) | 2020-12-09 | 2020-12-09 | 一种语音合成模型的训练方法、装置、电子设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112634863B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102063897A (zh) * | 2010-12-09 | 2011-05-18 | 北京宇音天下科技有限公司 | 一种用于嵌入式语音合成系统的音库压缩及使用方法 |
US8543398B1 (en) * | 2012-02-29 | 2013-09-24 | Google Inc. | Training an automatic speech recognition system using compressed word frequencies |
CN104103268A (zh) * | 2013-04-03 | 2014-10-15 | 中国移动通信集团安徽有限公司 | 一种语料库处理方法、装置及语音合成系统 |
CN107657947A (zh) * | 2017-09-20 | 2018-02-02 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音处理方法及其装置 |
CN107808673A (zh) * | 2017-11-13 | 2018-03-16 | 河海大学常州校区 | 语音数据基于分簇聚类的分块高斯回归模型子集建模方法 |
CN108922543A (zh) * | 2018-06-11 | 2018-11-30 | 平安科技(深圳)有限公司 | 模型库建立方法、语音识别方法、装置、设备及介质 |
CN110717333A (zh) * | 2019-09-02 | 2020-01-21 | 平安科技(深圳)有限公司 | 文章摘要自动生成方法、装置及计算机可读存储介质 |
CN111914936A (zh) * | 2020-08-05 | 2020-11-10 | 平安科技(深圳)有限公司 | 语料数据的数据特征增强方法、装置及计算机设备 |
US10839809B1 (en) * | 2017-12-12 | 2020-11-17 | Amazon Technologies, Inc. | Online training with delayed feedback |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005071663A2 (en) * | 2004-01-16 | 2005-08-04 | Scansoft, Inc. | Corpus-based speech synthesis based on segment recombination |
CN101464856A (zh) * | 2007-12-20 | 2009-06-24 | 株式会社东芝 | 平行口语语料的对齐方法和装置 |
-
2020
- 2020-12-09 CN CN202011448005.2A patent/CN112634863B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102063897A (zh) * | 2010-12-09 | 2011-05-18 | 北京宇音天下科技有限公司 | 一种用于嵌入式语音合成系统的音库压缩及使用方法 |
US8543398B1 (en) * | 2012-02-29 | 2013-09-24 | Google Inc. | Training an automatic speech recognition system using compressed word frequencies |
CN104103268A (zh) * | 2013-04-03 | 2014-10-15 | 中国移动通信集团安徽有限公司 | 一种语料库处理方法、装置及语音合成系统 |
CN107657947A (zh) * | 2017-09-20 | 2018-02-02 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音处理方法及其装置 |
CN107808673A (zh) * | 2017-11-13 | 2018-03-16 | 河海大学常州校区 | 语音数据基于分簇聚类的分块高斯回归模型子集建模方法 |
US10839809B1 (en) * | 2017-12-12 | 2020-11-17 | Amazon Technologies, Inc. | Online training with delayed feedback |
CN108922543A (zh) * | 2018-06-11 | 2018-11-30 | 平安科技(深圳)有限公司 | 模型库建立方法、语音识别方法、装置、设备及介质 |
CN110717333A (zh) * | 2019-09-02 | 2020-01-21 | 平安科技(深圳)有限公司 | 文章摘要自动生成方法、装置及计算机可读存储介质 |
CN111914936A (zh) * | 2020-08-05 | 2020-11-10 | 平安科技(深圳)有限公司 | 语料数据的数据特征增强方法、装置及计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112634863A (zh) | 2021-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109887497B (zh) | 语音识别的建模方法、装置及设备 | |
US11688391B2 (en) | Mandarin and dialect mixed modeling and speech recognition | |
WO2021000408A1 (zh) | 面试评分方法、装置、设备及存储介质 | |
US20240021202A1 (en) | Method and apparatus for recognizing voice, electronic device and medium | |
CN111402861B (zh) | 一种语音识别方法、装置、设备及存储介质 | |
JP3426176B2 (ja) | 音声認識装置、方法、コンピュータ・システム及び記憶媒体 | |
CN111177350A (zh) | 智能语音机器人的话术形成方法、装置和系统 | |
WO2021051514A1 (zh) | 一种语音识别方法、装置、计算机设备及非易失性存储介质 | |
WO2021218028A1 (zh) | 基于人工智能的面试内容精炼方法、装置、设备及介质 | |
US20230089308A1 (en) | Speaker-Turn-Based Online Speaker Diarization with Constrained Spectral Clustering | |
TW201327218A (zh) | 電子設備及其自然語言分析方法 | |
CN112116907A (zh) | 语音识别模型建立、语音识别方法、装置、设备和介质 | |
CN115099239B (zh) | 一种资源识别方法、装置、设备以及存储介质 | |
CN111126084B (zh) | 数据处理方法、装置、电子设备和存储介质 | |
CN110503956B (zh) | 语音识别方法、装置、介质及电子设备 | |
CN110647613A (zh) | 一种课件构建方法、装置、服务器和存储介质 | |
CN113782029A (zh) | 语音识别模型的训练方法、装置、设备以及存储介质 | |
CN112489634A (zh) | 语言的声学模型训练方法、装置、电子设备及计算机介质 | |
CN113393841A (zh) | 语音识别模型的训练方法、装置、设备及存储介质 | |
CN112634863B (zh) | 一种语音合成模型的训练方法、装置、电子设备及介质 | |
CN113889073B (zh) | 语音处理方法、装置、电子设备和存储介质 | |
CN114758649A (zh) | 一种语音识别方法、装置、设备和介质 | |
CN113362801A (zh) | 基于梅尔谱对齐的音频合成方法、系统、设备及存储介质 | |
CN110442714B (zh) | Poi名称规范性评估方法、装置、设备和存储介质 | |
CN114550692A (zh) | 文本处理及其模型的训练方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |