CN112382269A - 音频合成方法、装置、设备以及存储介质 - Google Patents
音频合成方法、装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN112382269A CN112382269A CN202011270755.5A CN202011270755A CN112382269A CN 112382269 A CN112382269 A CN 112382269A CN 202011270755 A CN202011270755 A CN 202011270755A CN 112382269 A CN112382269 A CN 112382269A
- Authority
- CN
- China
- Prior art keywords
- audio
- synthesized
- features
- linguistic
- acoustic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001308 synthesis method Methods 0.000 title claims abstract description 25
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 45
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 45
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 35
- 238000000034 method Methods 0.000 claims abstract description 28
- 238000012549 training Methods 0.000 claims description 62
- 238000006243 chemical reaction Methods 0.000 claims description 39
- 238000003062 neural network model Methods 0.000 claims description 31
- 230000015654 memory Effects 0.000 claims description 20
- 239000000126 substance Substances 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/086—Detection of language
Abstract
本申请公开了一种音频合成方法、装置、设备以及存储介质,涉及语音合成领域。具体实现方案为:获取待合成音频;基于待合成音频,确定对应的语言学特征;基于待合成音频、语言学特征,确定声学特征;基于声学特征,合成目标音频,并输出。本实现方式通过将得到的待合成音频中的声学特征作为音频合成的基础,基于该声学特征合成具有预设音色的音频,简化具有预设音色音频的合成流程,提高对预设音色的音频合成的准确度。
Description
技术领域
本申请涉及语音合成领域,具体为自然语言处理、计算机技术、人工智能、深度学习技术领域,尤其涉及音频合成方法、装置、设备以及存储介质。
背景技术
近年来,由于在线教育和在线学习的迅猛发展,音频合成技术得到了广泛的研究与关注,音频合成旨在于将某一用户的音频合成为不同口音或不同音色或既不同口音又不同音色等的音频。音频合成技术在娱乐方面也有很大的应用前景。利用现有的音频合成技术进行音频合成速度慢而且音频合成的结果往往不准确。
发明内容
本公开提供了一种音频合成方法、装置、设备以及存储介质。
根据本公开的一方面,提供了一种音频合成方法,包括:获取待合成音频;基于待合成音频,确定对应的语言学特征;基于待合成音频、语言学特征,确定声学特征;基于声学特征,合成目标音频,并输出。
根据本公开的另一方面,提供了一种音频合成装置,包括:获取单元,被配置成获取待合成音频;语言学特征确定单元,被配置成基于待合成音频,确定对应的语言学特征;声学特征确定单元,被配置成基于待合成音频、语言学特征,确定声学特征;合成单元,被配置成基于声学特征,合成目标音频,并输出。
根据本公开的再一方面,提供了一种音频合成电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如上述的音频合成方法。
根据本公开的又一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,上述计算机指令用于使计算机执行如上述的音频合成方法。
根据本申请的技术解决了无法准确、快速地进行音频合成的问题,通过将得到的待合成音频中的声学特征作为音频合成的基础,基于该声学特征合成具有预设音色的音频,简化具有预设音色的音频的合成流程,提高对预设音色的音频合成的准确度。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的音频合成方法的一个实施例的流程图;
图3是根据本申请的音频合成方法的一个应用场景的示意图;
图4是根据本申请的音频合成方法的另一个实施例的流程图;
图5是根据本申请的音频合成装置的一个实施例的结构示意图;
图6是用来实现本申请实施例的音频合成方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的音频合成方法或音频合成装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如语音合成类应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种电子设备,包括但不限于智能手机、平板电脑、车载电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103采集的待合成音频进行处理的后台服务器。后台服务器可以获取待合成音频,并基于待合成音频,确定对应的语言学特征;基于待合成音频、语言学特征,确定声学特征;基于声学特征,合成目标音频,并输出。
需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本申请实施例所提供的音频合成方法一般由服务器105执行。相应地,音频合成装置一般设置于服务器105中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的音频合成方法的一个实施例的流程200。本实施例的音频合成方法,包括以下步骤:
步骤201,获取待合成音频。
本实施例中,音频合成方法的执行主体(例如图1中的服务器105)可以从本地获取待合成音频,也可以通过有线连接或无线连接的方式获取终端设备通过音频录制的方式采集的待合成音频。具体地,待合成音频可以是用户任意说的一句话或唱的一首歌,本申请对待合成音频的内容不做具体限定。该待合成音频可以是MP3形式,也可以是MP4形式,本申请对目待合成音频的存储形式不做限定。待合成音频可以是语言陈述音频,也可以是音乐音频/歌唱音频。
步骤202,基于待合成音频,确定对应的语言学特征。
执行主体在获取待合成音频后,可以基于待合成音频,确定对应的语言学特征。具体地,语言学特征可以包括韵律特征、句法、语篇结构、信息结构等。其中,韵律特征又可以是超音质特征或超音段特征,是语言的一种音系结构。韵律特征可以分为三个主要方面:语调、时域分布和重音,通过超音段特征实现。超音段特征包括音高、强度以及时间特性,由音位或音位群负载。韵律是人类自然语言的一个典型特征,具有许多跨语言的共同特点,比如:音高下倾、重读、停顿等都普遍存在于不同的语言之中。韵律特征是语言和情绪表达的重要形式之一。具体地,执行主体可以获取历史合成音频,以及历史合成音频对应的语言学特征。执行主体可以将待合成音频与历史合成音频进行比较,将与待合成音频的相似度大于预设值的历史合成音频对应的语言学特征,确定为待合成音频对应的语言学特征。在计算待合成音频与历史合成音频的相似度时,执行主体可以将待合成音频与每一个历史合成音频中的各音素进行比较,响应于确定二者相同音素的概率大于某一预设值,即确定二者的相似度大于预设值,可以将参与相似度比较的该历史合成音频对应的语言学特征确定为待合成音频的语言学特征。
步骤203,基于待合成音频、语言学特征,确定声学特征。
执行主体在得到语言学特征后,可以基于待合成音频、语言学特征,确定声学特征。具体地,执行主体可以将待合成音频、语言学特征输入预训练的转换模型,输出待合成音频对应的声学特征。其中,预训练的转换模型用于表征音频、语言学特征与声学特征的对应关系。
步骤204,基于声学特征,合成目标音频,并输出。
执行主体在得到声学特征后,可以基于声学特征,合成目标音频,并输出。具体地,执行主体可以根据声学特征并结合对应的待合成音频以及预设的声学特征、待合成音频与具有预设音色的音频的对应关系,合成目标音频,并通过音频播放设备输出。
继续参考图3,其示出了根据本申请的音频合成方法的一个应用场景的示意图。在图3的应用场景中,服务器303通过网络302获取待合成音频301。服务器303基于待合成音频301,确定对应的语言学特征304。服务器303基于待合成音频301、语言学特征304,确定声学特征305。服务器303基于声学特征305,合成目标音频306,并输出。
本实施例通过将得到的待合成音频中的声学特征作为音频合成的基础,基于该声学特征合成具有预设音色的音频,简化对预设音色的音频的合成流程,提高对预设音色的音频合成的准确度。
继续参考图4,其示出了根据本申请的音频合成方法的另一个实施例的流程400。如图4所示,本实施例的音频合成方法,可以包括以下步骤:
步骤401,获取待合成音频。
步骤402,基于待合成音频,确定对应的语言学特征。
步骤401~步骤402的原理与步骤201~步骤202的原理类似,此处不再赘述。
具体地,步骤402可以通过步骤4021实现:
步骤4021,根据待合成音频和预训练的识别模型,确定待合成音频对应的语言学特征。
本实施例中,预训练的识别模型用于表征音频与语言学特征之间的对应关系。执行主体在得到待合成音频后,可以根据待合成音频和预训练的识别模型,确定待合成音频对应的语言学特征。具体地,执行主体可以将待合成音频输入预训练的识别模型,输出该待合成音频对应的语言学特征。语言学特征可以包括韵律特征、句法、语篇结构、信息结构等。其中,韵律特征又可以是超音质特征或超音段特征,是语言的一种音系结构。韵律特征可以分为三个主要方面:语调、时域分布和重音,通过超音段特征实现。超音段特征包括音高、强度以及时间特性,由音位或音位群负载。韵律是人类自然语言的一个典型特征,具有许多跨语言的共同特点,比如:音高下倾、重读、停顿等都普遍存在于不同的语言之中。韵律特征是语言和情绪表达的重要形式之一。对于识别模型的训练,具体地,可以是首先获取初始神经网络模型;获取训练样本集合,其中,该训练样本集合中的训练样本包括各种音频和标注的各音频对应的语言学特征;将训练样本集合中的训练样本的音频作为初始神经网络模型的输入,将与输入的音频对应的语言学特征作为期望输出,对初始神经网络模型进行训练;将训练后的初始神经网络模型确定为上述识别模型。
本实施例通过根据待合成音频和预训练的识别模型,可以准确得到与待合成音频对应的语言学特征,从而可以提高合成预设音色的音频的质量。
在本实施例的一些可选的实现方式中,执行主体还可以根据待合成音频和预训练的识别模型,确定待合成音频中的各音素对应的类别标识,其中,本实现方式中的预训练的识别模型用于表征音频中的各音素和类别标识的对应关系。得到的类别标识可以是用于表征待合成音频中各音素的类别的标识,例如,待合成音频中的各音素可以是语调音素、时域分布音素、重音音素、音高音素、重读音素、停顿音素,例如可以分别用标识1、2、3、4、5、6、7来表示。然后,然后执行主体可以根据待识别特征中与得到的各标识对应的各音素以及预设的标识、音素与声学特征之间的对应关系,确定用于合成具有预设音色的音频的声学特征。该声学特征可以是用于生成预设音色所需的各音素对应的梅尔频谱。执行主体可以基于该声学特征,确定与待合成音频对应的具有预设音色的音频,并输出该音频。本实现方式可以丰富用于合成预设音色的音频所需的梅尔频谱,并提高合成预设音色的音频的准确性。
步骤403,基于待合成音频、语言学特征,确定声学特征。
步骤403的原理与步骤203的原理类似,此处不再赘述。
具体地,步骤403可以通过步骤4031~步骤4032实现:
步骤4031,根据待合成音频和预训练的识别模型,确定待合成音频对应的文本。
本实施例中,预训练的识别模型还可以用于表征音频与文本之间的对应关系。执行主体在得到语言学特征后,可以根据待合成音频和预训练的识别模型,确定待合成音频对应的文本。具体地,执行主体可以将待合成音频输入预训练的识别模型中,输出待合成音频对应的文本。对于识别模型的训练还可以通过以下步骤进行:获取初始神经网络模型;获取训练样本集合,其中,训练样本集合中的训练样本包括音频和标注的音频对应的文本;将音频作为初始神经网络模型的输入,将与输入的音频对应的文本作为期望输出,对初始神经网络模型进行训练;将训练后的初始神经网络模型确定为识别模型。
步骤4032,根据文本、语言学特征和预训练的转换模型,确定声学特征。
其中,预训练的转换模型用于表征文本、语言学特征与声学特征之间的对应关系。执行主体在得到待合成音频对应的文本后,可以根据文本、语言学特征和预训练的转换模型,确定待合成视音频对应的声学特征。具体地,执行主体可以将文本、语言学特征输入至预训练的转换模型中,得到合成目标音频所需的声学特征。具体地,声学特征可以是是用于合成预设音色的音频所需的各音素对应的梅尔频谱。
本实施例通过根据文本、语言学特征和预训练的转换模型,得到合成目标音频所需的声学特征,完善了用于生成预设音色的音频的所需的梅尔频谱特征,提高生成具有预设音色的音频的准确性。
步骤404,基于声学特征,合成目标音频,并输出。
步骤404的原理与步骤204的原理类似,此处不再赘述。
具体地,步骤404可以通过步骤4041实现:
步骤4041,根据声学特征和预设的声学特征与音频的对应关系,合成目标音频。
执行主体在得到声学特征后,可以根据声学特征和预设的声学特征与音频的对应关系,合成目标音频。具体地,执行主体可以将声学特征输入到声码器,声码器中可以设置有声学特征与音频合成的对应关系。声学特征经过声码器的转换得到具有预设音色的目标音频。声码器在其发送端对接收的声学特征进行编码和加密,以取得和信道的匹配,经信息通道传递到声码器的接受端,在频域中对接收到的特征进行分析,鉴别清浊音,测定浊音基频,进而选取清-浊判断、浊音基频和频谱包络作为特征参量加以传送。当然,该分析也可以在时域中进行,利用其周期性提取一些声学特征进行线性预测,生成与声学特征对应的具有预设音色的音频。具体地,上述声码器可以包括通道式声码器、共振峰声码器、图案声码器、线性预测声码器、相关声码器和正交函数声码器,本申请对声码器的类型不做具体限定。
本实施例通过根据声学特征以及预设的声学特征与音频的对应关系合成目标音频,可以提升音频合成的准确性,可以合成用户需要的音色的音频,提升音频合成的趣味性,提升用户体验。
在本实施例的一些可选的实现方式中,音频合成方法还包括图4中未示出的以下模型训练步骤:获取初始神经网络模型;获取训练样本集合,其中,训练样本集合中的训练样本包括文本、语言学特征、预设音色以及标注的与文本、语言学特征以及预设音色对应的声学特征;将训练样本集合中的训练样本的文本、语言学特征以及预设音色作为初始神经网络模型的输入,将与输入的文本、语言学特征以及预设音色对应的声学特征作为期望输出,对初始神经网络模型进行训练;将训练后的初始神经网络模型确定为转换模型。
本实施例中,执行主体可以通过有线连接方式或者无线连接方式获取初始神经网络模型。上述初始神经网络模型可以包括各种包含隐藏层的人工神经网络(ArtificialNeural Network,ANN)。在本实施例中,上述执行主体还可以从本地获取预先存储的初始模型,也可以从通信连接的电子设备获取上述初始模型,在此不作限定。
本实施例中,执行主体可以通过各种方式获取训练样本集合。具体地,训练样本集合中的训练样本可以包括文本、语言学特征以及标注的与文本、语言学特征对应的声学特征。其中,训练样本中标注的与文本、语言学特征对应的声学特征可以是通过有线或无线连接的方式从本地或通信连接的电子设备上获取的、也可以是人工实时标注的、也可以是先通过自动标注后,又人工补充修改纠正标注错误后得到的,本申请对此不做具体限定。训练样本中的文本可以是从本地或通信连接的电子设备上获取的。训练样本中的语言学特征可以是实时提取的,也可以是通过有线或无线连接的方式从本地或通信连接的电子设备上获取的。
本申请实际上可以是任意音频(或称任意歌唱音频)到预设音色(或称特定音色)的音频(或称歌唱音频)的转换。该预设音色在训练转换模型的训练集中已经设定,基于该预训练的转换模型确定的声学特征是对应于预设音色的声学特征,在之后的目标音频合成时也只能合成具有该预设音色的音频(或称歌唱音频)。
本实施例通过包含有预设音色的训练样本集对初始神经网络模型进行训练,可以得到能够根据文本、语言学特征以及预设音色生成对应预设音色的声学特征的能力的转换模型,利用该训练后的转换模型,可以实现任意的歌唱音频到具有预设音色的歌唱音频的转换,并提高合成的具有预设音色的音频(或称歌唱音频)的质量,提升音频(或称歌唱音频)合成的趣味性,提升用户体验。
在本实施例的一些可选的实现方式中,待合成音频包括歌唱音频,目标音频包括对应于歌唱音频的具有预设音色的歌唱音频。
具体地,基于本实现方式可以实现歌唱的转换。执行主体在进行具有预设音色的歌唱的转换时,首先获取的待合成音频可以是歌唱音频,例如,可以是任意人唱的一段歌曲:“五十六个民族,五十六只花,五十六个兄弟姐妹是一家”。然后,执行主体基于该歌唱音频,确定对应的语言学特征;基于该歌唱音频、语言学特征和预设音色,确定声学特征;最后,基于所确定的具有预设音色的声学特征合成的目标音频可以是对应于该歌唱音频(“五十六个民族,五十六只花,五十六个兄弟姐妹是一家”)的具有预设音色的歌唱音频。该预设音色可以是预先设定的用于训练转换模型的音色,以使基于训练完成的转换模型可以实现将任意的歌唱音频转换成具有该预设音色的歌唱音频。本申请对预设音色不作具体限定。
本实现方式实现了从任意说话人的歌唱到特定的预设音色的歌唱的转换,丰富了音频合成的形式,趣味性增强,提升用户体验。
在本实施例的一些可选的实现方式中,待合成音频包括第一语言的歌唱音频,目标音频包括对应于第一语言的歌唱音频的具有预设音色的第二语言的歌唱音频,其中,第二语言包括第一语言。
具体地,基于本实现方式可以实现任意说话人歌唱具有预设音色的多种语言。执行主体在进行语言和预设音色的歌唱转换时,首先获取的待合成音频可以是第一语言的歌唱音频,该第一语言可以是任意语言中的一种,例如,可以是中文,可以是英文,可以是法文等等。假设第一语言是中文,则第一语言的歌唱音频可以是任意人唱的一段中文歌曲:“五十六个民族,五十六只花,五十六个兄弟姐妹是一家”,假设第二语言是英文。执行主体可以基于该第一语言的歌唱音频和预先安装的翻译软件,确定对应的第二语言的歌唱音频;执行主体可以根据第二语言的歌唱音频,确定对应的语言学特征;基于该第二语言的歌唱音频、语言学特征和预设音色,确定声学特征;最后,基于所确定的对应预设音色的声学特征合成的目标音频可以是对应于该中文(第一语言)歌唱音频(“五十六个民族,五十六只花,五十六个兄弟姐妹是一家”)的具有预设音色的英文(第二语言)的歌唱音频。本申请中,该预设音色可以是任意明星或任意动物的音色。该预设音色可以是预先设定的用于训练转换模型的音色,以使基于训练完成的转换模型可以实现将任意的歌唱音频转换成具有该预设音色的歌唱音频。本申请对预设音色不作具体限定。该第二语言可以是不同于第一语言的用户指定的语言,也可以是与第一语言相同的语言。例如,第一语言是中文时,第二语言可以是中文,也可以是英文或法文等,本申请对第一语言和第二语言的种类不作具体限定。
当然,可以理解的是,本实现方式中也可以在基于第一语言的歌唱音频、语言学特征和预设音色,确定声学特征之后,对该对应预设音色的声学特征进行对应的第二语言的翻译,基于对应第二语言并对应预设音色的声学特征合成具有预设音色的第二语言的歌唱音频。本申请对于从第一语言到第二语言的转换的时机不作具体限定。
本实现方式实现了从任意说话人的第一语言的歌唱到特定的预设音色的第二语言的歌唱的转换,实现了任意说话人歌唱具有预设音色(该预设音色在转换模型的训练集中)的多种语言,丰富了音频合成的形式,趣味性增强,提升用户体验。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种音频合成装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的音频合成装置500包括:获取单元501、语言学特征确定单元502、声学特征确定单元503和合成单元504。
获取单元501,被配置成获取待合成音频。
语言学特征确定单元502,被配置成基于待合成音频,确定对应的语言学特征。
声学特征确定单元503,被配置成基于待合成音频、语言学特征,确定声学特征。
合成单元504,被配置成基于声学特征,合成目标音频,并输出。
在本实施例的一些可选的实现方式中,语言学特征确定单元502进一步被配置成:根据待合成音频和预训练的识别模型,确定待合成音频对应的语言学特征,其中,预训练的识别模型用于表征音频与语言学特征之间的对应关系。
在本实施例的一些可选的实现方式中,声学特征确定单元503进一步被配置成:根据待合成音频和预训练的识别模型,确定待合成音频对应的文本,其中,预训练的识别模型用于表征音频与文本之间的对应关系;根据文本、语言学特征和预训练的转换模型,确定声学特征,其中,预训练的转换模型用于表征文本、语言学特征与声学特征之间的对应关系。
在本实施例的一些可选的实现方式中,合成单元504进一步被配置成:根据声学特征和预设的声学特征与音频的对应关系,合成目标音频。
在本实施例的一些可选的实现方式中,音频合成装置还包括图5中未示出的训练单元,被配置成:获取初始神经网络模型;获取训练样本集合,其中,训练样本集合中的训练样本包括文本、语言学特征、预设音色以及标注的与文本、语言学特征以及预设音色对应的声学特征;将训练样本集合中的训练样本的文本、语言学特征以及预设音色作为初始神经网络模型的输入,将与输入的文本、语言学特征以及预设音色对应的声学特征作为期望输出,对初始神经网络模型进行训练;将训练后的初始神经网络模型确定为转换模型。
在本实施例的一些可选的实现方式中,待合成音频包括歌唱音频,目标音频包括对应于歌唱音频的具有预设音色的歌唱音频。
在本实施例的一些可选的实现方式中,待合成音频包括第一语言的歌唱音频,目标音频包括对应于第一语言的歌唱音频的具有预设音色的第二语言的歌唱音频,其中,第二语言包括第一语言。
应当理解,音频合成装置500中记载的单元501至单元504分别与参考图2中描述的方法中的各个步骤相对应。由此,上文针对音频合成方法描述的操作和特征同样适用于装置500及其中包含的单元,在此不再赘述。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的音频合成方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线605互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线605与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的音频合成方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的音频合成方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及单元,如本申请实施例中的音频合成方法对应的程序指令/单元(例如,附图5所示的获取单元501、语言学特征确定单元502、声学特征确定单元503和合成单元504)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的音频合成方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据音频合成电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至音频合成电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
音频合成电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线605或者其他方式连接,图6中以通过总线605连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与音频合成电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,通过将得到的待合成音频中的声学特征作为音频合成的基础,基于该声学特征合成具有预设音色的音频,简化音频合成流程,提高对具有预设音色的音频合成的准确度。
根据本公开的一个或多个实施例,本公开提供了一种音频合成方法,包括:获取待合成音频;基于待合成音频,确定对应的语言学特征;基于待合成音频、语言学特征,确定声学特征;基于声学特征,合成目标音频,并输出。
根据本公开的一个或多个实施例,基于待合成音频,确定对应的语言学特征,包括:根据待合成音频和预训练的识别模型,确定待合成音频对应的语言学特征,其中,预训练的识别模型用于表征音频与语言学特征之间的对应关系。
根据本公开的一个或多个实施例,基于待合成音频、语言学特征,确定声学特征,包括:根据待合成音频和预训练的识别模型,确定待合成音频对应的文本,其中,预训练的识别模型用于表征音频与文本之间的对应关系;根据文本、语言学特征和预训练的转换模型,确定声学特征,其中,预训练的转换模型用于表征文本、语言学特征与声学特征之间的对应关系。
根据本公开的一个或多个实施例,基于声学特征,合成目标音频,包括:根据声学特征和预设的声学特征与音频的对应关系,合成目标音频。
根据本公开的一个或多个实施例,音频合成方法还包括:获取初始神经网络模型;获取训练样本集合,其中,训练样本集合中的训练样本包括文本、语言学特征、预设音色以及标注的与文本、语言学特征以及预设音色对应的声学特征;将训练样本集合中的训练样本的文本、语言学特征以及预设音色作为初始神经网络模型的输入,将与输入的文本、语言学特征以及预设音色对应的声学特征作为期望输出,对初始神经网络模型进行训练;将训练后的初始神经网络模型确定为转换模型。
根据本公开的一个或多个实施例,待合成音频包括歌唱音频,目标音频包括对应于歌唱音频的具有预设音色的歌唱音频。
根据本公开的一个或多个实施例,待合成音频包括第一语言的歌唱音频,目标音频包括对应于第一语言的歌唱音频的具有预设音色的第二语言的歌唱音频,其中,第二语言包括第一语言。
根据本公开的一个或多个实施例,本公开提供了一种音频合成装置,包括:获取单元,被配置成获取待合成音频;语言学特征确定单元,被配置成基于待合成音频,确定对应的语言学特征;声学特征确定单元,被配置成基于待合成音频、语言学特征,确定声学特征;合成单元,被配置成基于声学特征,合成目标音频,并输出。
根据本公开的一个或多个实施例,语言学特征确定单元进一步被配置成:根据待合成音频和预训练的识别模型,确定待合成音频对应的语言学特征,其中,预训练的识别模型用于表征音频与语言学特征之间的对应关系。
根据本公开的一个或多个实施例,声学特征确定单元进一步被配置成:根据待合成音频和预训练的识别模型,确定待合成音频对应的文本,其中,预训练的识别模型用于表征音频与文本之间的对应关系;根据文本、语言学特征和预训练的转换模型,确定声学特征,其中,预训练的转换模型用于表征文本、语言学特征与声学特征之间的对应关系。
根据本公开的一个或多个实施例,合成单元进一步被配置成:根据声学特征和预设的声学特征与音频的对应关系,合成目标音频。
根据本公开的一个或多个实施例,音频合成装置还包括图5中未示出的训练单元,被配置成:获取初始神经网络模型;获取训练样本集合,其中,训练样本集合中的训练样本包括文本、语言学特征预设音色以及标注的与文本、语言学特征以及预设音色对应的声学特征;将训练样本集合中的训练样本的文本、语言学特征以及预设音色作为初始神经网络模型的输入,将与输入的文本、语言学特征以及预设音色对应的声学特征作为期望输出,对初始神经网络模型进行训练;将训练后的初始神经网络模型确定为转换模型。
根据本公开的一个或多个实施例,待合成音频包括歌唱音频,目标音频包括对应于歌唱音频的具有预设音色的歌唱音频。
根据本公开的一个或多个实施例,待合成音频包括第一语言的歌唱音频,目标音频包括对应于第一语言的歌唱音频的具有预设音色的第二语言的歌唱音频,其中,第二语言包括第一语言。
应该理解,以上实施例仅是示例性实施例,但不限于此,还包括本领域已知的其他可以实现音频合成方法。可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (10)
1.一种音频合成方法,包括:
获取待合成音频;
基于所述待合成音频,确定对应的语言学特征;
基于所述待合成音频、所述语言学特征,确定声学特征;
基于所述声学特征,合成目标音频,并输出。
2.根据权利要求1所述的方法,其中,所述基于所述待合成音频,确定对应的语言学特征,包括:
根据所述待合成音频和预训练的识别模型,确定所述待合成音频对应的语言学特征,其中,所述预训练的识别模型用于表征音频与语言学特征之间的对应关系。
3.根据权利要求1所述的方法,其中,所述基于所述待合成音频、所述语言学特征,确定声学特征,包括:
根据所述待合成音频和预训练的识别模型,确定所述待合成音频对应的文本,其中,所述预训练的识别模型用于表征音频与文本之间的对应关系;
根据所述文本、所述语言学特征和预训练的转换模型,确定声学特征,其中,所述预训练的转换模型用于表征文本、语言学特征与声学特征之间的对应关系。
4.根据权利要求1所述的方法,其中,所述基于所述声学特征,合成目标音频,包括:
根据所述声学特征和预设的声学特征与音频的对应关系,合成目标音频。
5.根据权利要求3所述的方法,其中,所述方法还包括:
获取初始神经网络模型;
获取训练样本集合,其中,所述训练样本集合中的训练样本包括文本、语言学特征、预设音色以及标注的与所述文本、所述语言学特征以及所述预设音色对应的声学特征;
将所述训练样本集合中的训练样本的文本、语言学特征以及预设音色作为所述初始神经网络模型的输入,将与输入的文本、语言学特征以及预设音色对应的声学特征作为期望输出,对所述初始神经网络模型进行训练;
将训练后的所述初始神经网络模型确定为所述转换模型。
6.根据权利要求1~5任一项所述的方法,其中,所述待合成音频包括歌唱音频,所述目标音频包括对应于所述歌唱音频的具有预设音色的歌唱音频。
7.根据权利要求1~5任一项所述的方法,其中,所述待合成音频包括第一语言的歌唱音频,所述目标音频包括对应于所述第一语言的歌唱音频的具有预设音色的第二语言的歌唱音频,其中,所述第二语言包括所述第一语言。
8.一种音频合成装置,包括:
获取单元,被配置成获取待合成音频;
语言学特征确定单元,被配置成基于所述待合成音频,确定对应的语言学特征;
声学特征确定单元,被配置成基于所述待合成音频、所述语言学特征,确定声学特征;
合成单元,被配置成基于所述声学特征,合成目标音频,并输出。
9.一种音频合成电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011270755.5A CN112382269A (zh) | 2020-11-13 | 2020-11-13 | 音频合成方法、装置、设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011270755.5A CN112382269A (zh) | 2020-11-13 | 2020-11-13 | 音频合成方法、装置、设备以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112382269A true CN112382269A (zh) | 2021-02-19 |
Family
ID=74582561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011270755.5A Pending CN112382269A (zh) | 2020-11-13 | 2020-11-13 | 音频合成方法、装置、设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112382269A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113327578A (zh) * | 2021-06-10 | 2021-08-31 | 平安科技(深圳)有限公司 | 一种声学模型训练方法、装置、终端设备及存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2120784A1 (en) * | 1993-05-03 | 1994-11-04 | Donald Edgar Blahut | System for composing multimedia signals for interactive television services |
KR20020049061A (ko) * | 2000-12-19 | 2002-06-26 | 전영권 | 음성 변환 방법 |
CA2518663A1 (en) * | 2004-10-01 | 2006-04-01 | At&T Corp. | Method and apparatus for preventing speech comprehension by interactive voice response systems |
CA2527066A1 (en) * | 2004-11-24 | 2006-05-24 | Research In Motion Limited | A method and system for filtering wavetable information for wireless devices |
CN102024453A (zh) * | 2009-09-09 | 2011-04-20 | 财团法人资讯工业策进会 | 歌声合成系统、方法以及装置 |
US20160343366A1 (en) * | 2015-05-19 | 2016-11-24 | Google Inc. | Speech synthesis model selection |
CN107978325A (zh) * | 2012-03-23 | 2018-05-01 | 杜比实验室特许公司 | 语音通信方法和设备、操作抖动缓冲器的方法和设备 |
CN107992485A (zh) * | 2017-11-27 | 2018-05-04 | 北京搜狗科技发展有限公司 | 一种同声传译方法及装置 |
CN109285535A (zh) * | 2018-10-11 | 2019-01-29 | 四川长虹电器股份有限公司 | 基于前端设计的语音合成方法 |
CN111161695A (zh) * | 2019-12-26 | 2020-05-15 | 北京百度网讯科技有限公司 | 歌曲生成方法和装置 |
CN111798821A (zh) * | 2020-06-29 | 2020-10-20 | 北京字节跳动网络技术有限公司 | 声音转换方法、装置、可读存储介质及电子设备 |
KR102168529B1 (ko) * | 2020-05-29 | 2020-10-22 | 주식회사 수퍼톤 | 인공신경망을 이용한 가창음성 합성 방법 및 장치 |
-
2020
- 2020-11-13 CN CN202011270755.5A patent/CN112382269A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2120784A1 (en) * | 1993-05-03 | 1994-11-04 | Donald Edgar Blahut | System for composing multimedia signals for interactive television services |
KR20020049061A (ko) * | 2000-12-19 | 2002-06-26 | 전영권 | 음성 변환 방법 |
CA2518663A1 (en) * | 2004-10-01 | 2006-04-01 | At&T Corp. | Method and apparatus for preventing speech comprehension by interactive voice response systems |
CA2527066A1 (en) * | 2004-11-24 | 2006-05-24 | Research In Motion Limited | A method and system for filtering wavetable information for wireless devices |
CN102024453A (zh) * | 2009-09-09 | 2011-04-20 | 财团法人资讯工业策进会 | 歌声合成系统、方法以及装置 |
CN107978325A (zh) * | 2012-03-23 | 2018-05-01 | 杜比实验室特许公司 | 语音通信方法和设备、操作抖动缓冲器的方法和设备 |
US20160343366A1 (en) * | 2015-05-19 | 2016-11-24 | Google Inc. | Speech synthesis model selection |
CN107992485A (zh) * | 2017-11-27 | 2018-05-04 | 北京搜狗科技发展有限公司 | 一种同声传译方法及装置 |
CN109285535A (zh) * | 2018-10-11 | 2019-01-29 | 四川长虹电器股份有限公司 | 基于前端设计的语音合成方法 |
CN111161695A (zh) * | 2019-12-26 | 2020-05-15 | 北京百度网讯科技有限公司 | 歌曲生成方法和装置 |
KR102168529B1 (ko) * | 2020-05-29 | 2020-10-22 | 주식회사 수퍼톤 | 인공신경망을 이용한 가창음성 합성 방법 및 장치 |
CN111798821A (zh) * | 2020-06-29 | 2020-10-20 | 北京字节跳动网络技术有限公司 | 声音转换方法、装置、可读存储介质及电子设备 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113327578A (zh) * | 2021-06-10 | 2021-08-31 | 平安科技(深圳)有限公司 | 一种声学模型训练方法、装置、终端设备及存储介质 |
CN113327578B (zh) * | 2021-06-10 | 2024-02-02 | 平安科技(深圳)有限公司 | 一种声学模型训练方法、装置、终端设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102581346B1 (ko) | 다국어 음성 합성 및 언어간 음성 복제 | |
US11514888B2 (en) | Two-level speech prosody transfer | |
US11881210B2 (en) | Speech synthesis prosody using a BERT model | |
CN111369967B (zh) | 基于虚拟人物的语音合成方法、装置、介质及设备 | |
CN112382267A (zh) | 用于转换口音的方法、装置、设备以及存储介质 | |
CN112382270A (zh) | 语音合成方法、装置、设备以及存储介质 | |
KR102594081B1 (ko) | 운율적 특징들로부터 파라메트릭 보코더 파라미터들을 예측하기 | |
Astrinaki et al. | Reactive and continuous control of HMM-based speech synthesis | |
CN112509552A (zh) | 语音合成方法、装置、电子设备和存储介质 | |
CN112365879A (zh) | 语音合成方法、装置、电子设备和存储介质 | |
JP2022133392A (ja) | 音声合成方法、装置、電子機器及び記憶媒体 | |
CN112102811A (zh) | 一种合成语音的优化方法、装置及电子设备 | |
JP2024505076A (ja) | 多様で自然なテキスト読み上げサンプルを生成する | |
CN113963679A (zh) | 一种语音风格迁移方法、装置、电子设备及存储介质 | |
CN112382269A (zh) | 音频合成方法、装置、设备以及存储介质 | |
CN112289305A (zh) | 韵律预测方法、装置、设备以及存储介质 | |
CN112382274A (zh) | 音频合成方法、装置、设备以及存储介质 | |
CN112242134A (zh) | 语音合成方法及装置 | |
Stan et al. | Generating the Voice of the Interactive Virtual Assistant | |
US11335321B2 (en) | Building a text-to-speech system from a small amount of speech data | |
WO2023197206A1 (en) | Personalized and dynamic text to speech voice cloning using incompletely trained text to speech models | |
US20230018384A1 (en) | Two-Level Text-To-Speech Systems Using Synthetic Training Data | |
Liu | Comparative Analysis of Transfer Learning in Deep Learning Text-to-Speech Models on a Few-Shot, Low-Resource, Customized Dataset | |
Gontumukkala et al. | AI Enabled Avionics Domain Specific TTS System | |
Mishra et al. | Emotion Detection From Speech |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |