CN110600034B - 歌声生成方法、装置、设备及存储介质 - Google Patents
歌声生成方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN110600034B CN110600034B CN201910864720.5A CN201910864720A CN110600034B CN 110600034 B CN110600034 B CN 110600034B CN 201910864720 A CN201910864720 A CN 201910864720A CN 110600034 B CN110600034 B CN 110600034B
- Authority
- CN
- China
- Prior art keywords
- singing voice
- voice
- user
- audio
- characters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000012545 processing Methods 0.000 claims abstract description 56
- 230000015654 memory Effects 0.000 claims description 19
- 230000017105 transposition Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 8
- 238000001228 spectrum Methods 0.000 claims description 7
- 239000011295 pitch Substances 0.000 description 73
- 230000008859 change Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- OSXPVFSMSBQPBU-UHFFFAOYSA-N 2-(2-carboxyethoxycarbonyl)benzoic acid Chemical compound OC(=O)CCOC(=O)C1=CC=CC=C1C(O)=O OSXPVFSMSBQPBU-UHFFFAOYSA-N 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/315—Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
- G10H2250/455—Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
本申请公开了一种歌声生成方法、装置、设备及存储介质,属于音频处理技术领域。所述方法包括:当获取到用户语音时,对所述用户语音进行识别;当识别出的文字与第一参考歌声中的文字非完全相同时,获取所述用户语音的第一音频特征和第二参考歌声的第二音频特征,所述第二参考歌声为所述第一参考歌声或对所述第一参考歌声进行变调处理得到的参考歌声;根据所述第一音频特征和所述第二音频特征,确定所述用户语音中的文字;根据所述第一参考歌声中的文字,对确定的所述用户语音中的文字进行变速处理和变调处理,生成用户歌声。本申请可以解决文字识别错误或遗漏时导致文字无法对齐,因而无法生成用户歌声的问题。
Description
技术领域
本申请涉及音频处理技术领域,尤其涉及一种歌声生成方法、装置、设备及存储介质。
背景技术
随着音频处理技术的发展,音频处理技术逐渐应用于人们的日常生活中,例如,有些用户唱歌五音不全,希望可以念出歌词,然后生成自己的歌声。
相关技术一般是对用户说话的语音进行识别,然后将识别出的文字与参考歌声的文字进行对齐、变速和变调,从而生成用户歌声。
在实际使用场景中,由于噪声、混响等环境因素,很容易造成文字识别错误或遗漏,导致识别出的文字与参考歌声中的文字非完全相同,这样使得文字无法对齐,因而无法生成用户歌声。
发明内容
本申请实施例提供了一种歌声生成方法、装置、设备及存储介质,可以解决相关技术中文字识别错误或遗漏时无法生成用户歌声的问题。所述技术方案如下:
第一方面,提供一种歌声生成方法,包括:
当获取到用户语音时,对所述用户语音进行识别;
当识别出的文字与第一参考歌声中的文字非完全相同时,获取所述用户语音的第一音频特征和第二参考歌声的第二音频特征,所述第二参考歌声为所述第一参考歌声或对所述第一参考歌声进行变调处理得到的参考歌声;
根据所述第一音频特征和所述第二音频特征,确定所述用户语音中的文字;
根据所述第一参考歌声中的文字,对确定的所述用户语音中的文字进行变速处理和变调处理,生成用户歌声。
在一种可能实现方式中,所述根据所述第一音频特征和所述第二音频特征,确定所述用户语音中的文字,包括:
获取所述第一音频特征和所述第二音频特征的帧对齐路径,所述帧对齐路径用于指示所述第一音频特征中的每一帧对应于所述第二音频特征中的帧;
根据所述帧对齐路径和所述第二音频特征的每一帧对应的文字,确定所述第一音频特征的每一帧对应的文字,所述第一音频特征和所述第二音频特征中相对应帧对应的文字相同。
在一种可能实现方式中,所述根据所述第一参考歌声中的文字,对确定的所述用户语音中的文字进行变速处理和变调处理,生成用户歌声,包括:
根据所述第一参考歌声中的文字的时长和音高,对所述第一音频特征的每一帧对应的文字的时长和音高进行调整,生成所述用户歌声。
在一种可能实现方式中,所述根据所述第一参考歌声中的文字的时长和音高,对所述第一音频特征的每一帧对应的文字的时长和音高进行调整,生成所述用户歌声,包括:
将所述第一音频特征的每一帧对应的文字的时长和音高分别调整至所述第一参考歌声中对应文字的时长和音高,生成所述用户歌声。
在一种可能实现方式中,所述第二参考歌声的第二音频特征的获取过程包括:
根据所述用户语音的平均音高,从多个参考歌声的音频特征中,选取所述第二参考歌声的第二音频特征,所述第二参考歌声的平均音高与所述用户语音的平均音高之间的差值最小;
其中,所述多个参考歌声包括所述第一参考歌声和对所述第一参考歌声进行变调处理得到的参考歌声。
在一种可能实现方式中,所述第一音频特征和所述第二音频特征为梅尔频率倒谱系数MFCC、梅尔倒谱系数MCEP、线性预测系数PLC或者频谱中的任一种音频特征。
第二方面,提供一种歌声生成装置,包括:
识别模块,用于当获取到用户语音时,对所述用户语音进行识别;
获取模块,用于当识别出的文字与第一参考歌声中的文字非完全相同时,获取所述用户语音的第一音频特征和第二参考歌声的第二音频特征,所述第二参考歌声为所述第一参考歌声或对所述第一参考歌声进行变调处理得到的参考歌声;
确定模块,用于根据所述第一音频特征和所述第二音频特征,确定所述用户语音中的文字;
生成模块,用于根据所述第一参考歌声中的文字,对确定的所述用户语音中的文字进行变速处理和变调处理,生成用户歌声。
在一种可能实现方式中,所述确定模块用于:
获取所述第一音频特征和所述第二音频特征的帧对齐路径,所述帧对齐路径用于指示所述第一音频特征中的每一帧对应于所述第二音频特征中的帧;
根据所述帧对齐路径和所述第二音频特征的每一帧对应的文字,确定所述第一音频特征的每一帧对应的文字,所述第一音频特征和所述第二音频特征中相对应帧对应的文字相同。
在一种可能实现方式中,所述生成模块用于:
根据所述第一参考歌声中的文字的时长和音高,对所述第一音频特征的每一帧对应的文字的时长和音高进行调整,生成所述用户歌声。
在一种可能实现方式中,所述生成模块用于:
将所述第一音频特征的每一帧对应的文字的时长和音高分别调整至所述第一参考歌声中对应文字的时长和音高,生成所述用户歌声。
在一种可能实现方式中,所述获取模块用于:
根据所述用户语音的平均音高,从多个参考歌声的音频特征中,选取所述第二参考歌声的第二音频特征,所述第二参考歌声的平均音高与所述用户语音的平均音高之间的差值最小;
其中,所述多个参考歌声包括所述第一参考歌声和对所述第一参考歌声进行变调处理得到的参考歌声。
在一种可能实现方式中,所述第一音频特征和所述第二音频特征为梅尔频率倒谱系数MFCC、梅尔倒谱系数MCEP、线性预测系数PLC或者频谱中的任一种音频特征。
第三方面,提供了一种电子设备,包括一个或多个处理器和一个或多个存储器;所述一个或多个存储器,用于存放计算机程序;所述一个或多个处理器,用于执行所述一个或多个存储器上所存放的计算机程序,实现第一方面任一种实现方式所述的方法步骤。
第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现第一方面任一种实现方式所述的方法步骤。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过先对用户语音进行识别,当识别出的文字与参考歌声中的文字非完全相同时,根据用户语音的音频特征和参考歌声的音频特征,重新确定用户语音中的文字,进而根据参考歌声中的文字,对用户语音中的文字进行变速和变调,从而生成用户歌声,可以解决文字识别错误或遗漏时导致文字无法对齐,因而无法生成用户歌声的问题。由于音频特征不易受到噪声、混响等环境因素的影响,这种基于音频特征的文字对齐方案,可以达到更好的用户语音转歌声的效果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种歌声生成方法的流程图;
图2是本申请实施例提供的一种歌声生成方法的流程图;
图3是本申请实施例提供的一种参考歌声的分字处理示意图;
图4是本申请实施例提供的一种文字对应关系的示意图;
图5是本申请实施例提供的一种帧对齐路径的示意图;
图6是本申请实施例提供的一种歌声生成装置的结构示意图;
图7是本申请实施例提供的一种电子设备700的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
本申请实施例提供了一种歌声生成方法的应用场景,具体如下:该方法可以应用于电子设备中,也即是,该方法可以由电子设备实现。其中,电子设备可以为手机、平板电脑等等。在电子设备中安装有可以用于歌声生成的应用程序(以下简称为歌声生成应用程序)。在歌声生成应用程序中可以显示用户所选择的歌曲的歌词,用户根据显示的歌词来录制用户语音,电子设备获取到用户语音后,可以通过该歌声生成应用程序对用户语音进行识别,如果识别出的文字与参考歌声中的文字完全相同,则电子设备可以根据文字对应关系,将识别出的文字与参考歌声的文字进行对齐、变速和变调,从而生成用户歌声;如果识别出的文字与参考歌声中的文字非完全相同,则电子设备可以根据用户语音的音频特征和参考歌声的音频特征确定用户语音中的文字,然后根据参考歌声中的文字对应的音频帧的时长和音高,对用户语音中各文字对应的音频帧的时长和音高进行调整,生成用户歌声。
图1是本申请实施例提供的一种歌声生成方法的流程图。参见图1,该方法包括:
101、当获取到用户语音时,对该用户语音进行识别。
102、当识别出的文字与第一参考歌声中的文字非完全相同时,获取该用户语音的第一音频特征和第二参考歌声的第二音频特征,该第二参考歌声为该第一参考歌声或对该第一参考歌声进行变调处理得到的参考歌声。
103、根据该第一音频特征和该第二音频特征,确定该用户语音中的文字。
104、根据该第一参考歌声中的文字,对确定的该用户语音中的文字进行变速处理和变调处理,生成用户歌声。
本申请实施例提供的方法,通过先对用户语音进行识别,当识别出的文字与参考歌声中的文字非完全相同时,根据用户语音的音频特征和参考歌声的音频特征,重新确定用户语音中的文字,进而根据参考歌声中的文字,对用户语音中的文字进行变速和变调,从而生成用户歌声,可以解决文字识别错误或遗漏时导致文字无法对齐,因而无法生成用户歌声的问题。由于音频特征不易受到噪声、混响等环境因素的影响,这种基于音频特征的文字对齐方案,可以达到更好的用户语音转歌声的效果。
在一种可能实现方式中,该根据该第一音频特征和该第二音频特征,确定该用户语音中的文字,包括:
获取该第一音频特征和该第二音频特征的帧对齐路径,该帧对齐路径用于指示该第一音频特征中的每一帧对应于该第二音频特征中的帧;
根据该帧对齐路径和该第二音频特征的每一帧对应的文字,确定该第一音频特征的每一帧对应的文字,该第一音频特征和该第二音频特征中相对应帧对应的文字相同。
在一种可能实现方式中,该根据该第一参考歌声中的文字,对确定的该用户语音中的文字进行变速处理和变调处理,生成用户歌声,包括:
根据该第一参考歌声中的文字的时长和音高,对该第一音频特征的每一帧对应的文字的时长和音高进行调整,生成该用户歌声。
在一种可能实现方式中,该根据该第一参考歌声中的文字的时长和音高,对该第一音频特征的每一帧对应的文字的时长和音高进行调整,生成该用户歌声,包括:
将该第一音频特征的每一帧对应的文字的时长和音高分别调整至该第一参考歌声中对应文字的时长和音高,生成该用户歌声。
在一种可能实现方式中,该第二参考歌声的第二音频特征的获取过程包括:
根据该用户语音的平均音高,从多个参考歌声的音频特征中,选取该第二参考歌声的第二音频特征,该第二参考歌声的平均音高与该用户语音的平均音高之间的差值最小;
其中,该多个参考歌声包括该第一参考歌声和对该第一参考歌声进行变调处理得到的参考歌声。
在一种可能实现方式中,该第一音频特征和该第二音频特征为梅尔频率倒谱系数MFCC、梅尔倒谱系数MCEP、线性预测系数PLC或者频谱中的任一种音频特征。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
图2是本申请实施例提供的一种歌声生成方法的流程图。该方法由电子设备执行,参见图2,该方法包括:
201、获取第一参考歌声。
电子设备可以预先录制第一参考歌声,并对录制的第一参考歌声进行分字处理,得到第一参考歌声中的每个文字以及对应的时间位置,该时间位置包括时间起点和时间终点,根据每个文字的时间位置,可以确定每个文字的时长。电子设备还可以提取每个文字的音高。其中,第一参考歌声可以是专业人员在无伴奏情况下演唱某首歌曲的歌声。
参见图3,提供了一种参考歌声的分字处理示意图,图3示出了第一参考歌声的一句歌词“假如你不曾保护我”,通过分字处理可以得到以下多个文字:假、如、你、不、曾、保、护、我。其中,分字处理可以采用人工制作的方式,也可以采用语音识别和人工辅助的方式来实现,本申请实施例对此不做限定。
需要说明的是,步骤201为可选步骤,该步骤是将用户语音生成用户歌声之前需要执行的步骤,并不是每次生成用户歌声均需执行该步骤,保证在需要生成用户歌声时,已经获取到了该第一参考歌声即可。
202、当获取到用户语音时,对该用户语音进行识别。
用户可以向电子设备输入用户语音,例如,电子设备上可以安装有歌声生成应用程序。当用户想要生成自己的歌声时,可以通过相应操作触发电子设备显示该歌声生成应用程序的语音输入界面,在显示该语音输入界面的过程中,用户可以对着电子设备说话,如朗读某首歌曲的歌词,使得电子设备可以获取到用户语音。用户语音与第一参考歌声可以对应同一首歌曲。
电子设备在获取到用户语音后,可以采用语音识别技术,对该用户语音进行识别,以识别出该用户语音中的文字以及每个文字的时间位置(包括时间起点和时间终点)。如果识别出的文字与第一参考歌声中的文字完全相同,则电子设备可以根据文字对应关系,将识别出的文字与第一参考歌声的文字进行对齐、变速和变调,从而生成用户歌声。参见图4,提供了一种文字对应关系的示意图,如图4所示,电子设备识别出的用户语音中的文字与第一参考歌声中的文字存在一一对应关系。
但由于噪声、混响等环境因素,可能会出现文字识别错误、遗漏等情况,导致电子设备从用户语音中识别出的文字与参考歌声中的文字非完全相同,这种情况下,上述基于语音识别的文字对齐方案不再适用,本申请实施例针对这种情况,采用基于音频特征的文字对齐方案,来生成用户歌声,具体参见后续步骤203至步骤207。
其中,该识别出的文字与参考歌声中的文字非完全相同可以包括下述任一项:识别出的文字的数量与该第一参考歌声中文字的数量相同且存在不同的文字;识别出的文字的数量小于该第一参考歌声中文字的数量。
203、当识别出的文字与第一参考歌声中的文字非完全相同时,获取该用户语音的第一音频特征。
在一种可能实现方式中,音频特征为MFCC(Mel Frequency CepstralCoefficients,梅尔频率倒谱系数)、MCEP(Mel Cepstral Coefficients,梅尔倒谱系数)、PLC(Line Prediction Coefficients,线性预测系数)或者频谱中的任一种音频特征。音频特征的纬度可以为N*B,其中,N和B为正整数,N为时间帧的个数,B为频段的个数,一般B的范围为几十,每一帧为几十毫秒。
本步骤中,电子设备可以采用特征提取算法,提取用户语音的音频特征,也即第一音频特征,第一音频特征可以表示为Feature_user。
204、根据该用户语音的平均音高,从多个参考歌声的音频特征中,选取第二参考歌声的第二音频特征,该第二参考歌声的平均音高与该用户语音的平均音高之间的差值最小,该多个参考歌声包括第一参考歌声和对该第一参考歌声进行变调处理得到的参考歌声。
由于音频特征易受人声的音高影响,用户用不同的音高说话(如升高几个半音或降低几个半音),会得到不同的音频对齐结果。当用户以最接近参考歌声的音高说话时,才能获得更好的音频对齐结果。因此,电子设备可以提前对第一参考歌声进行变调处理,也即是,对第一参考歌声的音高进行调整。为了能够找到与用户语音的音高最接近的参考歌声,电子设备可以对第一参考歌声的音高进行不同幅度的调整,该调整可以是升调(提高音高)或降调(降低音高),然后对音高调整得到的各个参考歌声提取音频特征,得到一组音频特征,可以表示为Feature_ref_f0i,f0i为第一参考歌声变调后的参考歌声的平均音高,即音高均值(取整)。为了获得更好的音频对齐效果,考虑到用户说话的频率范围,可以控制f0i的范围为[60Hz,300Hz],步进20Hz,即f0i=60+m*20,m为整数,m的取值范围可以为[0,12]。
除了提前获取第一参考歌声的音频特征和第一参考歌声变调后的多个参考歌声的音频特征以外,电子设备还可以提前获取第一参考歌声的平均音高和该多个参考歌声的平均音高。本步骤204中,电子设备可以计算用户语音的平均音高f0,然后从第一参考歌声和第一参考歌声变调后的多个参考歌声中,选取平均音高f0i与f0最接近的参考歌声作为第二参考歌声,该第二参考歌声为该第一参考歌声或对该第一参考歌声进行变调处理得到的参考歌声,电子设备可以将第二参考歌声的音频特征作为第二音频特征,第二音频特征可以表示为Feature_ref。
步骤204是获取第二参考歌声的第二音频特征的一种可能实现方式。通过提前对第一参考歌声进行变调处理和提取音频特征,由于是提前离线处理,可以减少实际使用场景下的计算量,不影响实时性。
本申请实施例是以获取用户语音的第一音频特征为步骤203,选取第二参考歌声的第二音频特征为步骤204为例,可以理解的是,步骤203和步骤204并不代表具体的先后顺序,例如,电子设备也可以先选取第二参考歌声的第二音频特征,再获取用户语音的第一音频特征。
本申请实施例是以电子设备针对第一参考歌声进行变调处理为例进行说明,可选地,电子设备也可以针对用户语音进行变调处理,相应地,步骤203的替换步骤可以为:当识别出的文字与第一参考歌声中的文字非完全相同时,对用户语音进行变调处理,得到多个用户语音;获取多个用户语音的音频特征。步骤204的替换步骤可以为:根据第一参考歌声的平均音高,从多个用户语音的音频特征中,选取第一音频特征,该第一音频特征的平均音高与第一参考歌声的平均音高之间的差值最小。相应地,后续步骤205中的第二音频特征则为第一参考歌声的第二音频特征。
205、获取该第一音频特征和该第二音频特征的帧对齐路径,该帧对齐路径用于指示该第一音频特征中的每一帧对应于该第二音频特征中的帧。
电子设备可以利用DTW(Dynamic Time Warping,动态时间规整)算法,计算第一音频特征和第二音频特征的帧对齐路径,通过这个帧对齐路径,可以确定第二音频特征Feature_ref的第i帧对应于第一音频特征Feature_user的第m帧。其中,i和m为正整数。
DTW算法属于动态规划的算法中的一种,电子设备也可以采用其他动态规划的算法,例如编辑距离算法,来计算第一音频特征和第二音频特征的帧对齐路径。
206、根据该帧对齐路径和该第二音频特征的每一帧对应的文字,确定该第一音频特征的每一帧对应的文字,该第一音频特征和该第二音频特征中相对应帧对应的文字相同。
由于第二音频特征为第一参考歌声的音频特征或第一参考歌声变调处理后的参考歌声的音频特征,而变调处理改变的仅是音高,因此,第二音频特征的每一帧对应的文字与第一参考歌声的每一帧对应的文字相同,电子设备可以提前获取到第一参考歌声的每一帧对应的文字,如采用步骤201中对第一参考歌声进行分字处理的方式,确定第一参考歌声的每一帧对应的文字,这样就可以得知第二音频特征的每一帧对应的文字。
由于第二音频特征Feature_ref的每一帧对应的文字已知,电子设备可以根据第一音频特征和第二音频特征的帧对齐路径,估计出第一音频特征Feature_user的每一帧对应的文字。
参见图5,提供了一种帧对齐路径的示意图,如图5所示,假如第二音频特征Feature_ref的第i帧到第j帧的文字为“假”,根据DTW算法计算的“帧对齐路径”,第二音频特征Feature_ref的第i帧到第j帧对应于第一音频特征Feature_user的第m帧到第n帧,则第一音频特征的第m帧到第n帧的文字即为“假”;然后依次类推,得到第一音频特征的每一帧对应的文字,也即是,用户语音的每一帧对应的文字。
步骤205和步骤206是根据该第一音频特征和该第二音频特征,确定该用户语音中的文字的一种可能实现方式。通过基于用户语音的音频特征和参考歌声的音频特征,确定用户语音中的文字,由于音频特征不易受噪声、混响等环境因素的影响,因而可以准确地确定用户语音中的文字及每个文字的时间位置。
207、根据该第一参考歌声中的文字的时长和音高,对该第一音频特征的每一帧对应的文字的时长和音高进行调整,生成用户歌声。
电子设备可以根据帧对齐路径得到的用户语音的文字信息,对用户语音中的文字进行变速处理和变调处理。其中,变速处理是指对文字对应的音频帧的时长进行调整,变调处理是指对文字对应的音频帧的音高进行调整。在一种可能实现方式中,该步骤207可以包括:将该第一音频特征的每一帧对应的文字的时长和音高分别调整至该第一参考歌声中对应文字的时长和音高,生成该用户歌声。
对于用户语音中的每个字,可以将该字的时长调整至第一参考歌声中对应字的时长,将该字的音高调整至第一参考歌声中对应字的音高,使得用户语音中每个字的时长与第一参考歌声中对应字的时长和音高均相同。其中,对于用户语音中的每个字,第一参考歌声中的对应字与该字为同一字。电子设备调整用户语音中字的时长和音高后,即得到了用户歌声。
步骤207是根据该第一参考歌声中的文字,对确定的该用户语音中的文字进行变速处理和变调处理,生成用户歌声的一种可能实现方式。通过根据参考歌声中文字的时长和音高,将用户语音中的文字调整到相应的时长和音高,可以达到将用户说话的声音变成歌声的效果。
可选地,电子设备也可以根据第二参考歌声中文字的时长和音高,对第一音频特征的每一帧对应的文字的时长和音高进行调整,得到生成的用户歌声。例如,根据第二音频特征的每一帧对应的文字的时长和音高,对第一音频特征的每一帧对应的文字的时长和音高进行调整,得到生成的用户歌声。
本申请实施例提供的基于语音识别和音频特征的联合对齐方案,可以实现说话转歌声,不易受噪声、混响等环境因素的影响,基于多级变调的音频特征的文字对齐方案,不易受音调变化的影响。
本申请实施例提供的方法,通过先对用户语音进行识别,当识别出的文字与参考歌声中的文字非完全相同时,根据用户语音的音频特征和参考歌声的音频特征,重新确定用户语音中的文字,进而根据参考歌声中的文字,对用户语音中的文字进行变速和变调,从而生成用户歌声,可以解决文字识别错误或遗漏时导致文字无法对齐,因而无法生成用户歌声的问题。由于音频特征不易受到噪声、混响等环境因素的影响,这种基于音频特征的文字对齐方案,可以达到更好的用户语音转歌声的效果。
图6是本申请实施例提供的一种歌声生成装置的结构示意图。参照图6,该装置包括:
识别模块601,用于当获取到用户语音时,对该用户语音进行识别;
获取模块602,用于当识别出的文字与第一参考歌声中的文字非完全相同时,获取该用户语音的第一音频特征和第二参考歌声的第二音频特征,该第二参考歌声为该第一参考歌声或对该第一参考歌声进行变调处理得到的参考歌声;
确定模块603,用于根据该第一音频特征和该第二音频特征,确定该用户语音中的文字;
生成模块604,用于根据该第一参考歌声中的文字,对确定的该用户语音中的文字进行变速处理和变调处理,生成用户歌声。
在一种可能实现方式中,该确定模块603用于:
获取该第一音频特征和该第二音频特征的帧对齐路径,该帧对齐路径用于指示该第一音频特征中的每一帧对应于该第二音频特征中的帧;
根据该帧对齐路径和该第二音频特征的每一帧对应的文字,确定该第一音频特征的每一帧对应的文字,该第一音频特征和该第二音频特征中相对应帧对应的文字相同。
在一种可能实现方式中,该生成模块604用于:
根据该第一参考歌声中的文字的时长和音高,对该第一音频特征的每一帧对应的文字的时长和音高进行调整,生成该用户歌声。
在一种可能实现方式中,该生成模块604用于:
将该第一音频特征的每一帧对应的文字的时长和音高分别调整至该第一参考歌声中对应文字的时长和音高,生成该用户歌声。
在一种可能实现方式中,该获取模块602用于:
根据该用户语音的平均音高,从多个参考歌声的音频特征中,选取该第二参考歌声的第二音频特征,该第二参考歌声的平均音高与该用户语音的平均音高之间的差值最小;
其中,该多个参考歌声包括该第一参考歌声和对该第一参考歌声进行变调处理得到的参考歌声。
在一种可能实现方式中,该第一音频特征和该第二音频特征为梅尔频率倒谱系数MFCC、梅尔倒谱系数MCEP、线性预测系数PLC或者频谱中的任一种音频特征。
需要说明的是:上述实施例提供的歌声生成装置在生成歌声时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的歌声生成装置与歌声生成方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图7是本申请实施例提供的一种电子设备700的结构示意图。该电子设备700可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio LayerIV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。电子设备700还可能被称为用户设备、便携式电子设备、膝上型电子设备、台式电子设备等其他名称。
通常,电子设备700包括有:处理器701和存储器702。
处理器701可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器701可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器701也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器701可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器701还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器702可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器702还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器702中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器701所执行以实现本申请中方法实施例提供的歌声生成方法。
在一些实施例中,电子设备700还可选包括有:外围设备接口703和至少一个外围设备。处理器701、存储器702和外围设备接口703之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口703相连。具体地,外围设备包括:射频电路704、显示屏705、摄像头组件706、音频电路707、定位组件708和电源709中的至少一种。
外围设备接口703可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器701和存储器702。在一些实施例中,处理器701、存储器702和外围设备接口703被集成在同一芯片或电路板上;在一些其他实施例中,处理器701、存储器702和外围设备接口703中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路704用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路704通过电磁信号与通信网络以及其他通信设备进行通信。射频电路704将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路704包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路704可以通过至少一种无线通信协议来与其它电子设备进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路704还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏705用于显示UI(UserInterface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏705是触摸显示屏时,显示屏705还具有采集在显示屏705的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器701进行处理。此时,显示屏705还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏705可以为一个,设置电子设备700的前面板;在另一些实施例中,显示屏705可以为至少两个,分别设置在电子设备700的不同表面或呈折叠设计;在再一些实施例中,显示屏705可以是柔性显示屏,设置在电子设备700的弯曲表面上或折叠面上。甚至,显示屏705还可以设置成非矩形的不规则图形,也即异形屏。显示屏705可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件706用于采集图像或视频。可选地,摄像头组件706包括前置摄像头和后置摄像头。通常,前置摄像头设置在电子设备的前面板,后置摄像头设置在电子设备的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件706还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路707可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器701进行处理,或者输入至射频电路704以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在电子设备700的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器701或射频电路704的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路707还可以包括耳机插孔。
定位组件708用于定位电子设备700的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件708可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源709用于为电子设备700中的各个组件进行供电。电源709可以是交流电、直流电、一次性电池或可充电电池。当电源709包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,电子设备700还包括有一个或多个传感器710。该一个或多个传感器710包括但不限于:加速度传感器711、陀螺仪传感器712、压力传感器713、指纹传感器714、光学传感器715以及接近传感器716。
加速度传感器711可以检测以电子设备700建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器711可以用于检测重力加速度在三个坐标轴上的分量。处理器701可以根据加速度传感器711采集的重力加速度信号,控制显示屏705以横向视图或纵向视图进行用户界面的显示。加速度传感器711还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器712可以检测电子设备700的机体方向及转动角度,陀螺仪传感器712可以与加速度传感器711协同采集用户对电子设备700的3D动作。处理器701根据陀螺仪传感器712采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器713可以设置在电子设备700的侧边框和/或显示屏705的下层。当压力传感器713设置在电子设备700的侧边框时,可以检测用户对电子设备700的握持信号,由处理器701根据压力传感器713采集的握持信号进行左右手识别或快捷操作。当压力传感器713设置在显示屏705的下层时,由处理器701根据用户对显示屏705的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器714用于采集用户的指纹,由处理器701根据指纹传感器714采集到的指纹识别用户的身份,或者,由指纹传感器714根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器701授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器714可以被设置电子设备700的正面、背面或侧面。当电子设备700上设置有物理按键或厂商Logo时,指纹传感器714可以与物理按键或厂商Logo集成在一起。
光学传感器715用于采集环境光强度。在一个实施例中,处理器701可以根据光学传感器715采集的环境光强度,控制显示屏705的显示亮度。具体地,当环境光强度较高时,调高显示屏705的显示亮度;当环境光强度较低时,调低显示屏705的显示亮度。在另一个实施例中,处理器701还可以根据光学传感器715采集的环境光强度,动态调整摄像头组件706的拍摄参数。
接近传感器716,也称距离传感器,通常设置在电子设备700的前面板。接近传感器716用于采集用户与电子设备700的正面之间的距离。在一个实施例中,当接近传感器716检测到用户与电子设备700的正面之间的距离逐渐变小时,由处理器701控制显示屏705从亮屏状态切换为息屏状态;当接近传感器716检测到用户与电子设备700的正面之间的距离逐渐变大时,由处理器701控制显示屏705从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图7中示出的结构并不构成对电子设备700的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种存储有计算机程序的计算机可读存储介质,例如存储有计算机程序的存储器,上述计算机程序被处理器执行时实现上述实施例中的歌声生成方法。例如,该计算机可读存储介质可以是只读内存(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)、磁带、软盘和光数据存储设备等。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,该的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上该仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (12)
1.一种歌声生成方法,其特征在于,所述方法包括:
当获取到用户语音时,对所述用户语音进行识别;
当识别出的文字与第一参考歌声中的文字非完全相同时,获取所述用户语音的第一音频特征和第二参考歌声的第二音频特征,所述第二参考歌声为所述第一参考歌声或对所述第一参考歌声进行变调处理得到的参考歌声;
获取所述第一音频特征和所述第二音频特征的帧对齐路径,所述帧对齐路径用于指示所述第一音频特征中的每一帧对应于所述第二音频特征中的帧;
根据所述帧对齐路径和所述第二音频特征的每一帧对应的文字,确定所述第一音频特征的每一帧对应的文字,所述第一音频特征和所述第二音频特征中相对应帧对应的文字相同;
根据所述第一参考歌声中的文字,对确定的所述用户语音中的文字进行变速处理和变调处理,生成用户歌声。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一参考歌声中的文字,对确定的所述用户语音中的文字进行变速处理和变调处理,生成用户歌声,包括:
根据所述第一参考歌声中的文字的时长和音高,对所述第一音频特征的每一帧对应的文字的时长和音高进行调整,生成所述用户歌声。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一参考歌声中的文字的时长和音高,对所述第一音频特征的每一帧对应的文字的时长和音高进行调整,生成所述用户歌声,包括:
将所述第一音频特征的每一帧对应的文字的时长和音高分别调整至所述第一参考歌声中对应文字的时长和音高,生成所述用户歌声。
4.根据权利要求1所述的方法,其特征在于,所述第二参考歌声的第二音频特征的获取过程包括:
根据所述用户语音的平均音高,从多个参考歌声的音频特征中,选取所述第二参考歌声的第二音频特征,所述第二参考歌声的平均音高与所述用户语音的平均音高之间的差值最小;
其中,所述多个参考歌声包括所述第一参考歌声和对所述第一参考歌声进行变调处理得到的参考歌声。
5.根据权利要求1所述的方法,其特征在于,所述第一音频特征和所述第二音频特征为梅尔频率倒谱系数MFCC、梅尔倒谱系数MCEP、线性预测系数PLC或者频谱中的任一种音频特征。
6.一种歌声生成装置,其特征在于,所述装置包括:
识别模块,用于当获取到用户语音时,对所述用户语音进行识别;
获取模块,用于当识别出的文字与第一参考歌声中的文字非完全相同时,获取所述用户语音的第一音频特征和第二参考歌声的第二音频特征,所述第二参考歌声为所述第一参考歌声或对所述第一参考歌声进行变调处理得到的参考歌声;
确定模块,用于获取所述第一音频特征和所述第二音频特征的帧对齐路径,所述帧对齐路径用于指示所述第一音频特征中的每一帧对应于所述第二音频特征中的帧;根据所述帧对齐路径和所述第二音频特征的每一帧对应的文字,确定所述第一音频特征的每一帧对应的文字,所述第一音频特征和所述第二音频特征中相对应帧对应的文字相同;
生成模块,用于根据所述第一参考歌声中的文字,对确定的所述用户语音中的文字进行变速处理和变调处理,生成用户歌声。
7.根据权利要求6所述的装置,其特征在于,所述生成模块用于:
根据所述第一参考歌声中的文字的时长和音高,对所述第一音频特征的每一帧对应的文字的时长和音高进行调整,生成所述用户歌声。
8.根据权利要求7所述的装置,其特征在于,所述生成模块用于:
将所述第一音频特征的每一帧对应的文字的时长和音高分别调整至所述第一参考歌声中对应文字的时长和音高,生成所述用户歌声。
9.根据权利要求6所述的装置,其特征在于,所述获取模块用于:
根据所述用户语音的平均音高,从多个参考歌声的音频特征中,选取所述第二参考歌声的第二音频特征,所述第二参考歌声的平均音高与所述用户语音的平均音高之间的差值最小;
其中,所述多个参考歌声包括所述第一参考歌声和对所述第一参考歌声进行变调处理得到的参考歌声。
10.根据权利要求6所述的装置,其特征在于,所述第一音频特征和所述第二音频特征为梅尔频率倒谱系数MFCC、梅尔倒谱系数MCEP、线性预测系数PLC或者频谱中的任一种音频特征。
11.一种电子设备,其特征在于,包括一个或多个处理器和一个或多个存储器;所述一个或多个存储器,用于存放计算机程序;所述一个或多个处理器,用于执行所述一个或多个存储器上所存放的计算机程序,实现权利要求1-5任一项所述的方法步骤。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-5任一项所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910864720.5A CN110600034B (zh) | 2019-09-12 | 2019-09-12 | 歌声生成方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910864720.5A CN110600034B (zh) | 2019-09-12 | 2019-09-12 | 歌声生成方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110600034A CN110600034A (zh) | 2019-12-20 |
CN110600034B true CN110600034B (zh) | 2021-12-03 |
Family
ID=68859346
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910864720.5A Active CN110600034B (zh) | 2019-09-12 | 2019-09-12 | 歌声生成方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110600034B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111145723B (zh) * | 2019-12-31 | 2023-11-17 | 广州酷狗计算机科技有限公司 | 转换音频的方法、装置、设备以及存储介质 |
US11302301B2 (en) * | 2020-03-03 | 2022-04-12 | Tencent America LLC | Learnable speed control for speech synthesis |
CN113204673A (zh) * | 2021-04-28 | 2021-08-03 | 北京达佳互联信息技术有限公司 | 音频处理方法、装置、终端及计算机可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108053814A (zh) * | 2017-11-06 | 2018-05-18 | 芋头科技(杭州)有限公司 | 一种模拟用户歌声的语音合成系统及方法 |
WO2018217790A1 (en) * | 2017-05-22 | 2018-11-29 | Zya, Inc. | System and method for automatically generating musical output |
WO2019005625A1 (en) * | 2017-06-26 | 2019-01-03 | Zya, Inc. | SYSTEM AND METHOD FOR AUTOMATICALLY GENERATING MEDIA |
CN109147757A (zh) * | 2018-09-11 | 2019-01-04 | 广州酷狗计算机科技有限公司 | 歌声合成方法及装置 |
CN109949783A (zh) * | 2019-01-18 | 2019-06-28 | 苏州思必驰信息科技有限公司 | 歌曲合成方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6836761B1 (en) * | 1999-10-21 | 2004-12-28 | Yamaha Corporation | Voice converter for assimilation by frame synthesis with temporal alignment |
-
2019
- 2019-09-12 CN CN201910864720.5A patent/CN110600034B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018217790A1 (en) * | 2017-05-22 | 2018-11-29 | Zya, Inc. | System and method for automatically generating musical output |
WO2019005625A1 (en) * | 2017-06-26 | 2019-01-03 | Zya, Inc. | SYSTEM AND METHOD FOR AUTOMATICALLY GENERATING MEDIA |
CN108053814A (zh) * | 2017-11-06 | 2018-05-18 | 芋头科技(杭州)有限公司 | 一种模拟用户歌声的语音合成系统及方法 |
CN109147757A (zh) * | 2018-09-11 | 2019-01-04 | 广州酷狗计算机科技有限公司 | 歌声合成方法及装置 |
CN109949783A (zh) * | 2019-01-18 | 2019-06-28 | 苏州思必驰信息科技有限公司 | 歌曲合成方法及系统 |
Non-Patent Citations (2)
Title |
---|
Speech Recognition Only with Supra-segmental Features — Hearing Speech as Music;Nobuaki MINEMATSU et al;《Speech Prosody 2006》;20060505;全文 * |
基于音高的歌声美化系统的研究;沙文;《中国优秀硕士学位论文全文数据库 信息科技辑》;20161015;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110600034A (zh) | 2019-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108615526B (zh) | 语音信号中关键词的检测方法、装置、终端及存储介质 | |
CN110933330A (zh) | 视频配音方法、装置、计算机设备及计算机可读存储介质 | |
CN109147757B (zh) | 歌声合成方法及装置 | |
CN108538302B (zh) | 合成音频的方法和装置 | |
CN109994127B (zh) | 音频检测方法、装置、电子设备及存储介质 | |
CN110688082B (zh) | 确定音量的调节比例信息的方法、装置、设备及存储介质 | |
CN109192218B (zh) | 音频处理的方法和装置 | |
CN109003621B (zh) | 一种音频处理方法、装置及存储介质 | |
CN110600034B (zh) | 歌声生成方法、装置、设备及存储介质 | |
CN109192223B (zh) | 音频对齐的方法和装置 | |
CN109065068B (zh) | 音频处理方法、装置及存储介质 | |
CN109243479B (zh) | 音频信号处理方法、装置、电子设备及存储介质 | |
CN110956971A (zh) | 音频处理方法、装置、终端及存储介质 | |
CN110931048A (zh) | 语音端点检测方法、装置、计算机设备及存储介质 | |
CN111370025A (zh) | 音频识别方法、装置及计算机存储介质 | |
CN110992927A (zh) | 音频生成方法、装置、计算机可读存储介质及计算设备 | |
CN111613213B (zh) | 音频分类的方法、装置、设备以及存储介质 | |
CN111081277B (zh) | 音频测评的方法、装置、设备及存储介质 | |
CN111276122A (zh) | 音频生成方法及装置、存储介质 | |
CN111223475B (zh) | 语音数据生成方法、装置、电子设备及存储介质 | |
CN110867194B (zh) | 音频的评分方法、装置、设备及存储介质 | |
CN111984222A (zh) | 调节音量的方法、装置、电子设备及可读存储介质 | |
CN111048109A (zh) | 声学特征的确定方法、装置、计算机设备及存储介质 | |
CN113963707A (zh) | 音频处理方法、装置、设备和存储介质 | |
CN109036463B (zh) | 获取歌曲的难度信息的方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |