CN113689844A - 语音合成模型的确定方法、装置、设备和存储介质 - Google Patents
语音合成模型的确定方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN113689844A CN113689844A CN202110831297.6A CN202110831297A CN113689844A CN 113689844 A CN113689844 A CN 113689844A CN 202110831297 A CN202110831297 A CN 202110831297A CN 113689844 A CN113689844 A CN 113689844A
- Authority
- CN
- China
- Prior art keywords
- audio
- processing
- acoustic
- vocoder
- adopted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 99
- 238000003786 synthesis reaction Methods 0.000 title claims abstract description 99
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000012545 processing Methods 0.000 claims abstract description 136
- 238000004590 computer program Methods 0.000 claims description 11
- 239000000126 substance Substances 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 7
- 238000013507 mapping Methods 0.000 description 6
- 238000003062 neural network model Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 238000013145 classification model Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/22—Mode decision, i.e. based on audio signal content versus external parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Stereophonic System (AREA)
- Telephone Function (AREA)
Abstract
本公开提供了一种语音合成模型的确定方法、装置、设备和存储介质,涉及计算机技术领域,具体涉及语音合成、深度学习等人工智能领域。语音合成模型的确定方法包括:基于待采用语音合成模型,对文本进行处理,以获得所述文本对应的音频;若所述音频的音频指标不符合预设标准,更新所述待采用语音合成模型,直至所述音频指标符合所述预设标准;基于所述音频指标符合所述预设标准时的待采用语音合成模型,确定最终语音合成模型。本公开可以提高语音合成模型的确定速度。
Description
技术领域
本公开涉及计算机技术领域,具体涉及语音合成、深度学习等人工智能领域,尤其涉及一种语音合成模型的确定方法、装置、设备和存储介质。
背景技术
语音合成(Text to Speech,TTS)是指将文本转换为音频。语音合成一般采用语音合成模型对文本进行处理,以获得文本对应的音频。
相关技术中,一般采用人工评测的方式选择语音合成模型。
发明内容
本公开提供了一种语音合成模型的确定方法、装置、设备和存储介质。
根据本公开的一方面,提供了一种语音合成模型的确定方法,包括:基于待采用语音合成模型,对文本进行处理,以获得所述文本对应的音频;若所述音频的音频指标不符合预设标准,更新所述待采用语音合成模型,直至所述音频指标符合所述预设标准;基于所述音频指标符合所述预设标准时的待采用语音合成模型,确定最终语音合成模型。
根据本公开的另一方面,提供了一种语音合成模型的确定装置,包括:处理模块,用于基于待采用语音合成模型,对文本进行处理,以获得所述文本对应的音频;更新模块,用于若所述音频的音频指标不符合预设标准,更新所述待采用语音合成模型,直至所述音频指标符合所述预设标准;确定模块,用于基于所述音频指标符合所述预设标准时的待采用语音合成模型,确定最终语音合成模型。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上述任一方面的任一项所述的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据上述任一方面的任一项所述的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据上述任一方面的任一项所述的方法。
根据本公开的技术方案,可以提高语音合成模型的确定速度。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的示意图;
图2是根据本公开第二实施例的示意图;
图3是根据本公开第三实施例的示意图;
图4是根据本公开第四实施例的示意图;
图5是根据本公开第五实施例的示意图;
图6是根据本公开第六实施例的示意图;
图7是根据本公开第七实施例的示意图;
图8是用来实现本公开实施例的语音合成模型的确定方法中任一方法的电子设备的示意图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
相关技术中,采用人工评测的方式选择语音合成模型时,会存在效率差、易受主观因素影响等问题。
图1是根据本公开第一实施例的示意图,本实施例提供一种语音合成模型的确定方法,所述方法包括:
101、基于待采用语音合成模型,对文本进行处理,以获得所述文本对应的音频。
102、若所述音频的音频指标不符合预设标准,更新所述待采用语音合成模型,直至所述音频指标符合所述预设标准。
103、基于所述音频指标符合所述预设标准时的待采用语音合成模型,确定最终语音合成模型。
其中,语音合成方法可以应用到不同的语音合成场景下,不同的语音合成场景比如包括:语音导航、呼叫中心、小说语音播放、智能音箱语音交互等。可以基于不同的语音合成场景,选择对应场景的一批文本进行处理。
其中,可以采用音频评测工具获取音频的音频指标,比如,音频评价工具可以获取的音频指标为杂音数量,则可以将杂音数量作为音频指标。具体地,音频评测工具可以包括一个预先训练的分类模型,该分类模型的输入为待评测的音频,输出为该音频中是否包含杂音,之后,针对一批文本对应的一批音频,可以统计这一批音频中包含杂音的音频的数量作为杂音数量。
预设标准比如为杂音数量小于预设阈值。此时,若音频的杂音数量小于该预设阈值,则表明该音频指标符合预设标准,否则为不符合预设标准。
其中,可以预设多个语音合成模型,这多个语音合成模型作为多个候选模型,初始时,可以随机选择一个候选模型作为初始模型,采用该初始模型获取音频。更新语音合成模型是指在多个候选模型中重新选择候选模型作为更新后的语音合成模型。
上述的“所述音频指标符合所述预设标准”可以包括初始采用的语音合成模型对应的音频符合所述预设标准,或者,也可以包括经过更新处理后,更新后的语音合成模型对应的音频符合所述预设标准。
通过基于音频的音频指标确定语音合成模型,相对于人工评测选择模型的方式,可以提高语音合成模型的确定速度。
如图2所示,语音合成模型可以包括声学模型和声码器,声学模型用于对文本进行处理,以获得文本对应的声学特征,声学特征比如为梅尔频谱;声码器用于对声学特征进行处理,以获得所述文本对应的音频。
如图3所示,以声学特征为梅尔频谱为例,对于一个文本X,假设从文本到梅尔频谱的真实的映射关系用Ft表示,声学模型对应的映射关系用Fs表示,真实的梅尔频谱到真实音频的映射关系用Ht表示,声码器对应的映射关系用Hs表示。对应上述的文本X,合成音频用Ys表示,真实音频用Yt表示。
合成音频的质量可以用合成音频与真实音频的距离L表示,公式如下:
L=||Ys-Yt||
其中,||·||表示一种距离运算。
基于三角不等式,可以获得如下两个不等式:
L=||Hs(Fs(X))-Ht(Ft(X))||≤||Hs(Fs(X))-Hs(Ft(X))||+||Hs(Ft(X))-Ht(Ft(X))||=A+B
其中,A=||Hs(Fs(X))-Hs(Ft(X))||,B=||Hs(Ft(X))-Ht(Ft(X))||
L=||Hs(Fs(X))-Ht(Ft(X))||≤||Hs(Fs(X))-Ht(Fs(X))||+||Ht(Fs(X))-Ht(Ft(X))||=C+D
其中,C=||Hs(Fs(X))-Ht(Fs(X))||,D=||Ht(Fs(X))-Ht(Ft(X))||
基于上述两个不等式,可得:
L≤min{A+B,C+D}。
基于L≤min{A+B,C+D}可知:
一方面,固定声学模型Fs,此时D为常量;当声码器Hs更接近真实映射Ht时,C+D这个上界会变小;另一方面,固定声码器Hs,此时B为常量,当声学模型Fs更接近真实映射Ft时候,A+B这个上界会变小。
因此,可以分别固定声学模型Fs和声码器Hs来交替控制距离的上界C+D以及A+B。
以音频指标为杂音数量为例,当抽象的距离具化为杂音数量时,可以基于杂音数量,交替固定声学模型和声码器,在多个声学模型和多个声码器中选择出一个合适的声学模型和一个合适的声码器作为最终的语音合成模型。
多个声学模型和多个声码器可以是预先获取的,比如,以声学模型为例,声学模型可以为神经网络模型,该神经网络模型的具体结构可以为多种,从而可以获得多种结构的神经网络模型作为多个声学模型,或者,对应同一结构的神经网络模型,该神经网络模型在训练的不同阶段可以具有不同的模型参数,可以将不同阶段的具有不同的模型参数的多个神经网络模型作为多个声学模型。多个声码器的获取过程类似。
基于多个声学模型和多个声码器,可以在这多个声学模型和多个声码器中选择出合适的一个声学模型和一个声码器作为最终确定的声学模型和声码器。
选择过程可以是声学模型和声码器的迭代更新过程。如图4所示,初始时,可以采用初始化声学模型对文本进行处理,以获得文本对应的声学特征,采用初始化声码器对声学特征进行处理,以获得文本对应的音频,若音频的音频指标符合预设标准,则确定出最终的声学模型和声码器。若音频指标不符合预设标准,则进入声学模型和声码器的迭代更新过程,迭代更新过程中可以包括不断地更新声学模型和更新声码器,直至音频的音频指标符合预设标准。
即,所述待采用语音合成模型包括待采用声学模型和待采用声码器,所述处理为至少一轮处理,所述至少一轮处理包括当前轮处理,所述基于待采用语音合成模型,对文本进行处理,以获得所述文本对应的音频,包括:采用所述当前轮处理的待采用声学模型,对所述文本进行处理,以获得所述文本对应的声学特征;采用所述当前轮处理的待采用声码器,对所述声学特征进行处理,以获得所述文本对应的音频。
通过基于最终的音频来选择声学模型和声码器,相对于单独选择或者说单独训练声学模型和声码器的方式,可以考虑整体的合成音频的效果,从而可以选择更合适的语音合成模型,提高语音合成效果。
以语音合成模型包括声学模型和声码器为例,声学模型和声码器均存在多个候选,可以分别固定所述声学模型和所述声码器中的一项,基于另外一项的多个候选,生成多路音频,并基于多路音频的音频指标,选择出最终的声学模型和声码器,或者对声学模型和声码器进行更新。
多路音频可以对应多个声码器,或者,也可以对应多个声学模型,即,可以固定一个声学模型,采用多个声码器对声学特征进行处理,以获得多路音频,或者,也可以采用多个声学模型对文本进行处理,以获得多路声学特征,再采用固定的一个声码器对多路声学特征进行处理,以获得多路音频。
当多路音频对应多个声码器时,所述当前轮处理的待采用声学模型为固定的声学模型,所述固定的声学模型为所述多个声学模型中的一个声学模型,所述当前轮处理的待采用声码器为所述多个声码器中的各个声码器,所述采用所述当前轮处理的待采用声码器,对所述声学特征进行处理,以获得所述文本对应的音频,包括:采用所述多个声码器中的各个声码器,分别对所述固定的声学模型输出的声学特征进行处理,以获得多路音频,所述多路音频分别为所述各个声码器输出的所述文本对应的音频。
通过上述处理,可以获得对应多个声码器的多路音频,进而可以基于多路音频在多个声码器中选择出合适的一个声码器。
相应地,确定或者更新语音合成模型的过程可以包括:
所述若所述音频的音频指标不符合预设标准,更新所述待采用语音合成模型,包括:若所述多路音频的音频指标均不符合所述预设标准,在所述多路音频中选择音频指标最接近所述预设标准的音频,将所述选择的音频对应的声码器作为所述当前轮处理的下一轮处理的待采用声码器;将所述多个声学模型中的各个声学模型作为所述当前轮处理的下一轮处理的待采用声学模型。
或者,
所述基于所述音频指标符合所述预设标准时的待采用语音合成模型,确定最终语音合成模型,包括:若所述多路音频中的至少一路音频的音频指标符合所述预设标准,将符合所述预设标准的音频对应的声码器,作为当前声码器;将所述固定的声学模型和所述当前声码器,作为所述最终语音合成模型。
具体地,如图5所示,固定声学模型时,比如,初始时,可以在多个声学模型中随机选择一个声学模型作为固定的声学模型,采用该固定的声学模型对文本进行处理,以获得文本对应的声学特征。固定声学模型时,对应的待采用声码器为多个声码器中的各个声码器,比如,初始时,待采用声码器为多个声码器中的各个声码器,采用所述各个声码器分别对所述固定的声学模型输出的声学特征进行处理,以获得多路音频,所述多路音频为所述各个声码器输出的所述文本对应的音频。
获得多路音频,即各个声码器输出的所述文本对应的音频后,可以采用音频评测工具获取所述多路音频中各路音频的音频指标,比如杂音数量。
之后,可以选择杂音数量最小的音频对应的声码器作为当前声码器,若当前声码器对应的音频的杂音数量小于预设阈值,即最小的杂音数量小于预设阈值,则将当前声码器和该固定的声学模型作为最终选择的声码器和声学模型。
若当前声码器对应的音频的杂音数量大于或等于预设阈值,则可以将该当前声码器作为下一轮处理的固定的声码器,将多个声学模型中的各个声学模型作为下一轮处理的待采用声学模型。在采用多个声学模型对文本进行处理时,会获得对应多个声学模型的多路音频。
通过上述处理,可以在固定声学模型的基础上,选择出合适的声学模型和声码器,或者更新下一轮待采用的声学模型和声码器。
当多路音频对应多个声学模型时,所述当前轮处理的待采用声学模型为预设的多个声学模型中的各个声学模型,所述当前轮处理的待采用声码器为固定的声码器,所述固定的声码器为预设的多个声码器中的一个声码器;所述采用所述当前轮处理的待采用声学模型,对所述文本进行处理,以获得所述文本对应的声学特征,包括:采用所述多个声学模型中的各个声学模型,分别对所述文本进行处理,以获得多路声学模型,所述多路声学模型为所述各个声学模型输出的所述文本对应的声学特征;所述采用所述当前轮处理的待采用声码器,对所述声学特征进行处理,以获得所述文本对应的音频,包括:采用所述固定的声码器,分别对所述多路声学特征进行处理,以获得多路音频,所述多路音频分别对应所述多路声学特征。
通过上述处理,可以获得对应多个声学模型的多路音频,进而可以基于多路音频在多个声学模型中选择出合适的一个声学模型。
相应地,确定或者更新语音合成模型的过程可以包括:
所述若所述音频的音频指标不符合预设标准,更新所述待采用语音合成模型,包括:若所述多路音频的音频指标均不符合所述预设标准,在所述多路音频中选择音频指标最接近所述预设标准的音频,将所述选择的音频对应的声学模型作为所述当前轮处理的下一轮处理的待采用声学模型;将所述多个声码器中的各个声码器作为所述当前轮处理的下一轮处理的待采用声码器。或者,
所述基于所述音频指标符合所述预设标准时的待采用语音合成模型,确定最终语音合成模型,包括:若所述多路音频中的至少一路音频的音频指标符合所述预设标准,将符合所述预设标准的音频对应的声学模型,作为当前声学模型;将所述当前声学模型和所述固定的声码器,作为所述最终语音合成模型。
具体地,如图6所示,固定声码器时,待采用的声学模型为多个声学模型中的各个声学模型,可以采用所述各个声学模型分别对文本进行处理,以获得多路声学特征。之后,采用固定的声码器分别对多路声学特征进行处理,以获得多路音频,所述多路音频分别与所述多路声学特征对应,又由于多路声学特征与多个声学模型对应,所以多路音频与多个声学模型对应。
获得多路音频,即各个声码器输出的所述文本对应的音频后,可以采用音频评测工具获取所述多路音频中各路音频的音频指标,比如杂音数量。
之后,可以选择杂音数量最小的音频对应的声学模型作为当前声学模型,若当前声学模型对应的音频的杂音数量小于预设阈值,即最小的杂音数量小于预设阈值,则将当前声学模型和该固定的声码器作为最终选择的声码器和声学模型。
若当前声学模型对应的音频的杂音数量大于或等于预设阈值,则可以将该当前声学模型作为下一轮处理的固定的声学模型,将多个声码器中的各个声码器作为下一轮处理的待采用声码器。在采用多个声码器进行处理后又会获得多个声码器对应的多路音频。
通过上述处理,可以在固定声码器的基础上,选择出合适的声学模型和声码器,或者更新下一轮待采用的声学模型和声码器。
不断重复上述过程,直至选择出最终的声学模型和声码器。
可以理解的是,上述实施例的语音合成模型的确定方法可以应用在语音合成模型的训练过程中或者训练过程结束后,比如,基于预测
图7是根据本公开第七实施例的示意图,本实施例提供一种语音合成模型的确定装置。如图7所示,该装置700包括:处理模块701、更新模块702和确定模块703。
处理模块701用于基于待采用语音合成模型,对文本进行处理,以获得所述文本对应的音频;更新模块702用于若所述音频的音频指标不符合预设标准,更新所述待采用语音合成模型,直至所述音频指标符合所述预设标准;确定模块703用于基于所述音频指标符合所述预设标准时的待采用语音合成模型,确定最终语音合成模型。
一些实施例中,所述待采用语音合成模型包括待采用声学模型和待采用声码器,所述处理为至少一轮处理,所述至少一轮处理包括当前轮处理,所述处理模块701具体用于:采用所述当前轮处理的待采用声学模型,对所述文本进行处理,以获得所述文本对应的声学特征;采用所述当前轮处理的待采用声码器,对所述声学特征进行处理,以获得所述文本对应的音频。
一些实施例中,所述当前轮处理的待采用声学模型为固定的声学模型,所述固定的声学模型为预设的多个声学模型中的一个声学模型,所述当前轮处理的待采用声码器为预设的多个声码器中的各个声码器,所述处理模块701进一步具体用于:采用所述多个声码器中的各个声码器,分别对所述固定的声学模型输出的声学特征进行处理,以获得多路音频,所述多路音频分别为所述各个声码器输出的所述文本对应的音频。
一些实施例中,所述更新模块702具体用于:若所述多路音频的音频指标均不符合所述预设标准,在所述多路音频中选择音频指标最接近所述预设标准的音频,将所述选择的音频对应的声码器作为所述当前轮处理的下一轮处理的待采用声码器;将所述多个声学模型中的各个声学模型作为所述当前轮处理的下一轮处理的待采用声学模型。
一些实施例中,所述确定模块703具体用于:若所述多路音频中的至少一路音频的音频指标符合所述预设标准,将符合所述预设标准的音频对应的声码器,作为当前声码器;将所述固定的声学模型和所述当前声码器,作为所述最终语音合成模型。
一些实施例中,所述当前轮处理的待采用声学模型为预设的多个声学模型中的各个声学模型,所述当前轮处理的待采用声码器为固定的声码器,所述固定的声码器为预设的多个声码器中的一个声码器;所述处理模块701具体用于:采用所述多个声学模型中的各个声学模型,分别对所述文本进行处理,以获得多路声学模型,所述多路声学模型为所述各个声学模型输出的所述文本对应的声学特征;采用所述固定的声码器,分别对所述多路声学特征进行处理,以获得多路音频,所述多路音频分别对应所述多路声学特征。
一些实施例中,所述更新模块702具体用于:若所述多路音频的音频指标均不符合所述预设标准,在所述多路音频中选择音频指标最接近所述预设标准的音频,将所述选择的音频对应的声学模型作为所述当前轮处理的下一轮处理的待采用声学模型;将所述多个声码器中的各个声码器作为所述当前轮处理的下一轮处理的待采用声码器。
一些实施例中,所述确定模块703具体用于:若所述多路音频中的至少一路音频的音频指标符合所述预设标准,将符合所述预设标准的音频对应的声学模型,作为当前声学模型;将所述当前声学模型和所述固定的声码器,作为所述最终语音合成模型。
通过基于音频的音频指标确定语音合成模型,相对于基于损失函数训练模型的方式,可以提高语音合成模型的确定速度。
可以理解的是,本公开实施例中,不同实施例中的相同或相似内容可以相互参考。
可以理解的是,本公开实施例中的“第一”、“第二”等只是用于区分,不表示重要程度高低、时序先后等。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图8示出了可以用来实施本公开的实施例的示例电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字助理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图8所示,电子设备800包括计算单元801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序,来执行各种适当的动作和处理。在RAM 803中,还可存储电子设备800操作所需的各种程序和数据。计算单元801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
电子设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许电子设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如语音合成模型的确定方法。例如,在一些实施例中,语音合成模型的确定方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到电子设备800上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的语音合成模型的确定方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行语音合成模型的确定方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (19)
1.一种语音合成模型的确定方法,包括:
基于待采用语音合成模型,对文本进行处理,以获得所述文本对应的音频;
若所述音频的音频指标不符合预设标准,更新所述待采用语音合成模型,直至所述音频指标符合所述预设标准;
基于所述音频指标符合所述预设标准时的待采用语音合成模型,确定最终语音合成模型。
2.根据权利要求1所述的方法,其中,所述待采用语音合成模型包括待采用声学模型和待采用声码器,所述处理为至少一轮处理,所述至少一轮处理包括当前轮处理,所述基于待采用语音合成模型,对文本进行处理,以获得所述文本对应的音频,包括:
采用所述当前轮处理的待采用声学模型,对所述文本进行处理,以获得所述文本对应的声学特征;
采用所述当前轮处理的待采用声码器,对所述声学特征进行处理,以获得所述文本对应的音频。
3.根据权利要求2所述的方法,其中,所述当前轮处理的待采用声学模型为固定的声学模型,所述固定的声学模型为预设的多个声学模型中的一个声学模型,所述当前轮处理的待采用声码器为预设的多个声码器中的各个声码器,所述采用所述当前轮处理的待采用声码器,对所述声学特征进行处理,以获得所述文本对应的音频,包括:
采用所述多个声码器中的各个声码器,分别对所述固定的声学模型输出的声学特征进行处理,以获得多路音频,所述多路音频分别为所述各个声码器输出的所述文本对应的音频。
4.根据权利要求3所述的方法,其中,所述若所述音频的音频指标不符合预设标准,更新所述待采用语音合成模型,包括:
若所述多路音频的音频指标均不符合所述预设标准,在所述多路音频中选择音频指标最接近所述预设标准的音频,将所述选择的音频对应的声码器作为所述当前轮处理的下一轮处理的待采用声码器;
将所述多个声学模型中的各个声学模型作为所述当前轮处理的下一轮处理的待采用声学模型。
5.根据权利要求3所述的方法,其中,所述基于所述音频指标符合所述预设标准时的待采用语音合成模型,确定最终语音合成模型,包括:
若所述多路音频中的至少一路音频的音频指标符合所述预设标准,将符合所述预设标准的音频对应的声码器,作为当前声码器;
将所述固定的声学模型和所述当前声码器,作为所述最终语音合成模型。
6.根据权利要求2所述的方法,其中,所述当前轮处理的待采用声学模型为预设的多个声学模型中的各个声学模型,所述当前轮处理的待采用声码器为固定的声码器,所述固定的声码器为预设的多个声码器中的一个声码器;
所述采用所述当前轮处理的待采用声学模型,对所述文本进行处理,以获得所述文本对应的声学特征,包括:采用所述多个声学模型中的各个声学模型,分别对所述文本进行处理,以获得多路声学模型,所述多路声学模型为所述各个声学模型输出的所述文本对应的声学特征;
所述采用所述当前轮处理的待采用声码器,对所述声学特征进行处理,以获得所述文本对应的音频,包括:采用所述固定的声码器,分别对所述多路声学特征进行处理,以获得多路音频,所述多路音频分别对应所述多路声学特征。
7.根据权利要求6所述的方法,其中,所述若所述音频的音频指标不符合预设标准,更新所述待采用语音合成模型,包括:
若所述多路音频的音频指标均不符合所述预设标准,在所述多路音频中选择音频指标最接近所述预设标准的音频,将所述选择的音频对应的声学模型作为所述当前轮处理的下一轮处理的待采用声学模型;
将所述多个声码器中的各个声码器作为所述当前轮处理的下一轮处理的待采用声码器。
8.根据权利要求6所述的方法,其中,所述基于所述音频指标符合所述预设标准时的待采用语音合成模型,确定最终语音合成模型,包括:
若所述多路音频中的至少一路音频的音频指标符合所述预设标准,将符合所述预设标准的音频对应的声学模型,作为当前声学模型;
将所述当前声学模型和所述固定的声码器,作为所述最终语音合成模型。
9.一种语音合成模型的确定装置,包括:
处理模块,用于基于待采用语音合成模型,对文本进行处理,以获得所述文本对应的音频;
更新模块,用于若所述音频的音频指标不符合预设标准,更新所述待采用语音合成模型,直至所述音频指标符合所述预设标准;
确定模块,用于基于所述音频指标符合所述预设标准时的待采用语音合成模型,确定最终语音合成模型。
10.根据权利要求9所述的装置,其中,所述待采用语音合成模型包括待采用声学模型和待采用声码器,所述处理为至少一轮处理,所述至少一轮处理包括当前轮处理,所述处理模块具体用于:
采用所述当前轮处理的待采用声学模型,对所述文本进行处理,以获得所述文本对应的声学特征;
采用所述当前轮处理的待采用声码器,对所述声学特征进行处理,以获得所述文本对应的音频。
11.根据权利要求10所述的装置,其中,所述当前轮处理的待采用声学模型为固定的声学模型,所述固定的声学模型为预设的多个声学模型中的一个声学模型,所述当前轮处理的待采用声码器为预设的多个声码器中的各个声码器,所述处理模块进一步具体用于:
采用所述多个声码器中的各个声码器,分别对所述固定的声学模型输出的声学特征进行处理,以获得多路音频,所述多路音频分别为所述各个声码器输出的所述文本对应的音频。
12.根据权利要求11所述的装置,其中,所述更新模块具体用于:
若所述多路音频的音频指标均不符合所述预设标准,在所述多路音频中选择音频指标最接近所述预设标准的音频,将所述选择的音频对应的声码器作为所述当前轮处理的下一轮处理的待采用声码器;
将所述多个声学模型中的各个声学模型作为所述当前轮处理的下一轮处理的待采用声学模型。
13.根据权利要求11所述的装置,其中,所述确定模块具体用于:
若所述多路音频中的至少一路音频的音频指标符合所述预设标准,将符合所述预设标准的音频对应的声码器,作为当前声码器;
将所述固定的声学模型和所述当前声码器,作为所述最终语音合成模型。
14.根据权利要求10所述的装置,其中,所述当前轮处理的待采用声学模型为预设的多个声学模型中的各个声学模型,所述当前轮处理的待采用声码器为固定的声码器,所述固定的声码器为预设的多个声码器中的一个声码器;所述处理模块具体用于:
采用所述多个声学模型中的各个声学模型,分别对所述文本进行处理,以获得多路声学模型,所述多路声学模型为所述各个声学模型输出的所述文本对应的声学特征;
采用所述固定的声码器,分别对所述多路声学特征进行处理,以获得多路音频,所述多路音频分别对应所述多路声学特征。
15.根据权利要求14所述的装置,其中,所述更新模块具体用于:
若所述多路音频的音频指标均不符合所述预设标准,在所述多路音频中选择音频指标最接近所述预设标准的音频,将所述选择的音频对应的声学模型作为所述当前轮处理的下一轮处理的待采用声学模型;
将所述多个声码器中的各个声码器作为所述当前轮处理的下一轮处理的待采用声码器。
16.根据权利要求14所述的装置,其中,所述确定模块具体用于:
若所述多路音频中的至少一路音频的音频指标符合所述预设标准,将符合所述预设标准的音频对应的声学模型,作为当前声学模型;
将所述当前声学模型和所述固定的声码器,作为所述最终语音合成模型。
17.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-8中任一项所述的方法。
19.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110831297.6A CN113689844B (zh) | 2021-07-22 | 2021-07-22 | 语音合成模型的确定方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110831297.6A CN113689844B (zh) | 2021-07-22 | 2021-07-22 | 语音合成模型的确定方法、装置、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113689844A true CN113689844A (zh) | 2021-11-23 |
CN113689844B CN113689844B (zh) | 2022-05-27 |
Family
ID=78577678
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110831297.6A Active CN113689844B (zh) | 2021-07-22 | 2021-07-22 | 语音合成模型的确定方法、装置、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113689844B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111133506A (zh) * | 2019-12-23 | 2020-05-08 | 深圳市优必选科技股份有限公司 | 语音合成模型的训练方法、装置、计算机设备及存储介质 |
CN112365876A (zh) * | 2020-11-27 | 2021-02-12 | 北京百度网讯科技有限公司 | 语音合成模型的训练方法、装置、设备以及存储介质 |
CN112786001A (zh) * | 2019-11-11 | 2021-05-11 | 北京地平线机器人技术研发有限公司 | 语音合成模型训练方法、语音合成方法和装置 |
CN112786007A (zh) * | 2021-01-20 | 2021-05-11 | 北京有竹居网络技术有限公司 | 语音合成方法、装置、可读介质及电子设备 |
-
2021
- 2021-07-22 CN CN202110831297.6A patent/CN113689844B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112786001A (zh) * | 2019-11-11 | 2021-05-11 | 北京地平线机器人技术研发有限公司 | 语音合成模型训练方法、语音合成方法和装置 |
CN111133506A (zh) * | 2019-12-23 | 2020-05-08 | 深圳市优必选科技股份有限公司 | 语音合成模型的训练方法、装置、计算机设备及存储介质 |
CN112365876A (zh) * | 2020-11-27 | 2021-02-12 | 北京百度网讯科技有限公司 | 语音合成模型的训练方法、装置、设备以及存储介质 |
CN112786007A (zh) * | 2021-01-20 | 2021-05-11 | 北京有竹居网络技术有限公司 | 语音合成方法、装置、可读介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113689844B (zh) | 2022-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111862984B (zh) | 一种信号输入方法、装置、电子设备和可读存储介质 | |
CN109545193B (zh) | 用于生成模型的方法和装置 | |
JP6306528B2 (ja) | 音響モデル学習支援装置、音響モデル学習支援方法 | |
CN112466288A (zh) | 语音识别方法、装置、电子设备及存储介质 | |
KR20220132414A (ko) | 음성 인식 모델의 트레이닝 방법, 장치, 기기 및 기록 매체 | |
CN114360557B (zh) | 语音音色转换方法、模型训练方法、装置、设备和介质 | |
CN112259089A (zh) | 语音识别方法及装置 | |
CN114282670A (zh) | 神经网络模型的压缩方法、设备和存储介质 | |
CN115132209B (zh) | 语音识别方法、装置、设备和介质 | |
CN111508478B (zh) | 语音识别方法和装置 | |
CN114203154A (zh) | 语音风格迁移模型的训练、语音风格迁移方法及装置 | |
CN113850386A (zh) | 模型预训练方法、装置、设备、存储介质以及程序产品 | |
CN114492426B (zh) | 子词切分方法、模型训练方法、装置和电子设备 | |
CN114495977A (zh) | 语音翻译和模型训练方法、装置、电子设备以及存储介质 | |
CN113658586A (zh) | 语音识别模型的训练方法、语音交互方法及装置 | |
CN113641829A (zh) | 图神经网络的训练与知识图谱的补全方法、装置 | |
CN113327576A (zh) | 语音合成方法、装置、设备及存储介质 | |
CN113689844B (zh) | 语音合成模型的确定方法、装置、设备和存储介质 | |
CN114783409B (zh) | 语音合成模型的训练方法、语音合成方法及装置 | |
CN114220415A (zh) | 一种音频合成方法、装置、电子设备及存储介质 | |
CN115292467A (zh) | 信息处理与模型训练方法、装置、设备、介质及程序产品 | |
CN113689866A (zh) | 一种语音转换模型的训练方法、装置、电子设备及介质 | |
CN113838450B (zh) | 音频合成及相应的模型训练方法、装置、设备及存储介质 | |
CN113658581B (zh) | 声学模型的训练、语音处理方法、装置、设备及存储介质 | |
CN113223500B (zh) | 语音识别方法、训练语音识别模型的方法及对应装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |