CN109785820B - 一种处理方法、装置及设备 - Google Patents

一种处理方法、装置及设备 Download PDF

Info

Publication number
CN109785820B
CN109785820B CN201910158854.5A CN201910158854A CN109785820B CN 109785820 B CN109785820 B CN 109785820B CN 201910158854 A CN201910158854 A CN 201910158854A CN 109785820 B CN109785820 B CN 109785820B
Authority
CN
China
Prior art keywords
sound
sound effect
dry
song
dry sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910158854.5A
Other languages
English (en)
Other versions
CN109785820A (zh
Inventor
刘承诚
徐东
张玫颖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Music Entertainment Technology Shenzhen Co Ltd
Original Assignee
Tencent Music Entertainment Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Music Entertainment Technology Shenzhen Co Ltd filed Critical Tencent Music Entertainment Technology Shenzhen Co Ltd
Priority to CN201910158854.5A priority Critical patent/CN109785820B/zh
Priority to PCT/CN2019/083454 priority patent/WO2020177190A1/zh
Publication of CN109785820A publication Critical patent/CN109785820A/zh
Application granted granted Critical
Publication of CN109785820B publication Critical patent/CN109785820B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

本申请公开了一种处理方法、装置及设备,方法包括:获取干声;干声包括用户演唱歌曲的基频数据;获取干声的音色数据,所述音色数据是通过预设训练模型获取的;根据获取到的干声的音色数据、干声关联的歌曲的演唱速度以及基频数据确定出至少一个音效方案;音效方案用于对干声和干声关联的歌曲的伴奏进行音效处理,以生成音效处理后的音频;输出所述至少一个音效方案;根据所获取的目标音效方案,生成目标音频;所述目标音效方案为所述至少一个音效方案中的一个音效方案。采用本申请,可使得生成的音效处理后的音频更加的动听。

Description

一种处理方法、装置及设备
技术领域
本申请涉及智能语音技术领域,尤其涉及一种处理方法、装置及设备。
背景技术
美国国家标准化研究所对音色做了如下定义,“音色是指声音在听觉上产生的某种属性,听音者能够据此判断两个以同样方式呈现、具有相同音高和响度的声音的不同”。由此,演唱时的人声音色是指当不同的演唱者演唱同一首歌曲时,人们用来判别出具体是哪个演唱者的声音特征。
在实现本发明过程中,发明人发现歌曲后期处理的现有技术主要为:线上固定模版方式的音色处理及线下人工音色处理。其中线上固定模板存在着“千人一面”的问题,只能达到某种固定的处理效果;线下调音师处理存在着效率低、价格高等问题。
发明内容
本申请提供一种处理方法、装置及设备,可使得生成的音效处理后的音频更加的动听。
第一方面,本申请提供了一种处理方法,该方法包括:
获取干声,所述干声包括用户演唱歌曲的基频数据;
获取所述干声的音色数据,所述音色数据是通过预设训练模型获取的;
根据获取到的所述干声的音色数据、所述干声关联的歌曲的演唱速度以及所述基频数据,确定出至少一个音效方案,所述音效方案用于对所述干声和所述干声关联的歌曲的伴奏进行音效处理,以生成音效处理后的音频;
输出所述至少一个音效方案;
根据所获取的目标音效方案,生成目标音频;所述目标音效方案为所述至少一个音效方案中的一个音效方案。
结合第一方面,在一些可能的实施例中,
所述至少一个目标音效方案,包括:一个音效方案或多个音效方案;
所述输出所述至少一个音效方案之后,根据所获取的目标音效方案,生成目标音频之前,还包括:
接收目标指令;所述目标指令用于指示所述目标音效方案;
响应于接收到的所述目标指令,获取所述目标音效方案。
结合第一方面,在一些可能的实施例中,
所述获得所述干声的音色数据之前,还包括:
对获取到的干声进行预处理,获得第一预处理数据;
将所述第一预处理数据进行特征提取,以提取出第一特征向量,将所述第一特征向量输入到预设训练模型中,通过所述预设训练模型将所述第一特征向量中泛音的分布和强度与所述获取到的干声的参考结果进比对,以获得所述干声的音色数据;所述预设训练模型为训练好的训练模型。
结合第一方面,在一些可能的实施例中,
所述将所述第一预处理数据进行特征提取,以提取出第一特征向量,将所述第一特征向量输入到预设训练模型中,通过所述预设训练模型将所述第一特征向量中泛音的分布和强度与所述获取到的干声的参考结果进比对,以获得所述干声的音色数据之前,还包括:
将多个被标注的干声的样本分别进行特征提取,以提取出第二特征向量,将所述第二特征向量分别输入到待训练的训练模型中,以获得预设训练模型;所述第二特征向量用于对所述待训练的训练模型进行训练。
结合第一方面,在一些可能的实施例中,
所述根据获取到的所述干声的音色数据、所述干声关联的歌曲的演唱速度以及所述基频数据确定出至少一个音效方案之前,还包括:
通过所述干声关联的歌曲的伴奏,确定出所述伴奏的伴奏标识号码;
通过所述伴奏标识号码从包括多首歌曲的第一数据库中确定出所述干声关联的歌曲;
根据确定出的歌曲,确定出所述歌曲的歌唱速度,其中,所述歌曲的伴奏标识号码与所述歌曲关联。
结合第一方面,在一些可能的实施例中,
所述干声关联的歌曲的演唱速度,具体为:
所述获取到的所述干声关联的歌曲的每分钟节拍数;
或者,
所述获取到的所述干声关联的歌曲的每分钟音节数。
结合第一方面,在一些可能的实施例中,
所述根据所获取的目标音效方案,生成目标音频,包括:
通过所述所获取到的目标音效方案中的均衡参数值、压缩参数值以及混响参数值,联合对所述干声和所述干声关联的歌曲的伴奏进行音效处理,生成目标音频。
结合第一方面,在一些可能的实施例中,
所述通过所述所获取到的目标音效方案中的均衡参数值、压缩参数值以及混响参数值,联合对所述干声和所述干声关联的歌曲的伴奏进行音效处理,生成目标音频,包括:
通过所述目标音效方案中的均衡参数值对干声和所述干声关联的歌曲的伴奏的音质的改善程度进行调整、所述目标音效方案中的压缩参数值对干声和所述干声关联的歌曲的伴奏的动态修补程度进行调整以及所述目标音效方案中的混响参数值对干声和所述干声关联的歌曲的伴奏的音质的改善、空间制造层次的营造、细节掩盖程度分别进行调整,生成目标音频。
结合第一方面,在一些可能的实施例中,
所述对获取到的干声进行预处理,包括:
对获取到的干声进行降噪和/或修音。
第二方面,本申请提供了一种处理装置,该装置包括:
第一获取单元,用于获取干声;所述干声包括用户演唱歌曲的基频数据;
第二获取单元,用于获取所述干声的音色数据;
确定单元,用于根据获取到的所述干声的音色数据、所述干声关联的歌曲的演唱速度以及从所述基频数据,确定出至少一个音效方案;所述音效方案用于对所述干声和所述干声关联的歌曲的伴奏进行音效处理,以生成音效处理后的音频;
输出单元,用于输出所述至少一个音效方案;
生成单元,用于根据所获取的目标音效方案,生成目标音频;所述目标音效方案为所述至少一个音效方案中的一个音效方案。
结合第二方面,在一些可能的实施例中,
还包括:预处理单元。
用于:对获取到的干声进行预处理,以获得第一预处理数据。
具体的,对获取到的干声进行降噪和/或修音,以获得第一预处理数据。
结合第二方面,在一些可能的实施例中,
还包括:训练单元。
用于:将多个被标注的干声的样本分别进行特征提取,以提取出第二特征向量,将第二特征向量分别输入到待训练的训练模型中,以获得预设训练模型;第二特征向量用于对待训练的训练模型进行训练。
结合第二方面,在一些可能的实施例中,
确定单元还用于:在根据获取到的干声的音色数据、干声关联的歌曲的演唱速度以及基频数据,确定出至少一个音效方案之前,
通过干声关联的歌曲的伴奏,确定出伴奏的伴奏标识号码。
通过伴奏标识号码从包括多首歌曲的第一数据库中确定出干声关联的歌曲。
根据确定出的歌曲,确定出歌曲的歌唱速度,其中,歌曲的伴奏标识号码与歌曲关联。
第三方面,本申请提供了一种处理设备,包括输入设备、输出设备、处理器和存储器,所述处理器、输入设备、输出设备和存储器相互连接,其中,所述存储器用于存储支持设备执行上述处理方法的应用程序代码,所述处理器被配置用于执行上述第一方面提供的处理方法。
第四方面,本申请提供了一种计算机可读的存储介质,用于存储一个或多个计算机程序,上述一个或多个计算机程序包括指令,当上述计算机程序在计算机上运行时,上述指令用于执行上述第一方面的处理方法。
第五方面,本申请提供了一种计算机程序,该计算机程序包括处理指令,当该计算机程序在计算机上执行时,上述利用处理指令用于执行上述第一方面提供的处理方法。
本申请提供了一种处理方法、装置及设备。首先,获取干声,干声包括用户演唱歌曲的基频数据。进而,获取干声的音色数据,音色数据是通过预设训练模型获取的。然后,根据获取到的干声的音色数据、干声关联的歌曲的演唱速度以及基频数据,确定出至少一个音效方案,音效方案用于对干声和干声关联的歌曲的伴奏进行音效处理,以生成音效处理后的音频。接着,输出至少一个音效方案。最后,根据所获取的目标音效方案,生成目标音频;目标音效方案为该至少一个音效方案中的一个音效方案。采用本申请,通过获取到的目标音效方案对干声和干声关联的歌曲的伴奏进行音效处理,可使得生成的音效处理后的音频更加的动听。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请提供的一种处理系统的架构示意图;
图2是本申请提供的一种干声的获取的示意流程图;
图3是本申请提供的一种音效方案的示意图;
图4是本申请提供的另一种音效方案的示意图;
图5是本申请提供的一种处理方法的示意流程图;
图6是本申请提供的一种装置的示意性框图;
图7是本申请提供的一种设备的示意性框图。
具体实施方式
下面将结合本申请中的附图,对本申请中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
具体实现中,本申请中描述的设备包括但不限于诸如具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的移动电话、膝上型计算机或平板计算机之类的其它便携式设备。还应当理解的是,在某些实施例中,所述设备并非便携式通信设备,而是具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的台式计算机。
在接下来的讨论中,描述了包括显示器和触摸敏感表面的设备。然而,应当理解的是,设备可以包括诸如物理键盘、鼠标和/或控制杆的一个或多个其它物理用户接口设备。
设备支持各种应用程序,例如以下中的一个或多个:绘图应用程序、演示应用程序、文字处理应用程序、网站创建应用程序、盘刻录应用程序、电子表格应用程序、游戏应用程序、电话应用程序、视频会议应用程序、电子邮件应用程序、即时消息收发应用程序、锻炼支持应用程序、照片管理应用程序、数码相机应用程序、数字摄影机应用程序、web浏览应用程序、数字音频播放器应用程序和/或数字视频播放器应用程序。
可以在设备上执行的各种应用程序可以使用诸如触摸敏感表面的至少一个公共物理用户接口设备。可以在应用程序之间和/或相应应用程序内调整和/或改变触摸敏感表面的一个或多个功能以及设备上显示的相应信息。这样,设备的公共物理架构(例如,触摸敏感表面)可以支持具有对用户而言直观且透明的用户界面的各种应用程序。
为了更好的理解本申请,下面对本申请适用的处理系统的架构进行描述。请参阅图1,图1是本申请提供的一种处理系统的架构示意图。如图1所示,系统可包括但不限于:识别部分以及音效处理部分。
其中,识别部分可包括但不限于以下工作步骤:
步骤一:获取干声,且从获取到的用户的干声中,识别出干声的基频数据。
具体的,可通过录音软件对用户演唱歌曲的干声进行录制,以实现对干声的获取。
用户的干声可为用户演唱的无伴奏的纯人声,换句话说,干声可指录音以后的未经过后期处理(如动态、压缩或混响等)和加工的纯人声。
应当说明的,基频数据为基音的频率数据,基音为发音体整体振动产生的最低的音(换句话说,基音为每个乐音中频率最低的纯音)。
图2示例性示出了一种干声的获取的示意图。
如图2所示,录音软件正在对用户演唱的歌曲(如光年之外)的干声进行录制。
具体的,可通过Praat语音学软件从用户的干声中识别出干声的基频数据。应当说明的,还可通过自相关算法、平行处理法、倒谱法和简化逆滤波器法从用户的干声中识别出干声的基频数据。
应当说明的,基频数据可包括基频上限、基频下限以及基频数据主调等部分。
步骤二:对获取到的干声进行预处理,获得第一预处理数据。
具体的,对获取到的噪声进行降噪及修音处理,获得降噪及修音后的第一预处理数据。
步骤三:将第一预处理数据进行特征提取,以提取出第一特征向量,将所述第一特征向量输入到预设训练模型中,通过预设训练模型将所述第一特征向量中泛音的分布和强度与获取到的干声的参考结果进比对,以获得干声的音色数据(音色得分);该预设训练模型为训练好的训练模型。
应当说明的,将第一预处理数据进行特征提取,将提取出的第一特征向量输入到预设训练模型中,以获得干声的音色数据之前,还包括以下步骤:
将多个被标注的干声的样本分别进行特征提取,以提取出第二特征向量,将第二特征向量分别输入到待训练的训练模型中,以获得预设训练模型;第二特征向量用于对待训练的训练模型进行训练。
将第一预处理数据进行特征提取,将提取出的第一特征向量输入到预设训练模型中,以获得干声的音色数据,具体可包括下述工作过程:
工作过程11:将第一预处理数据进行特征提取,以提取出第一特征向量,将提取出的第一特征向量输入到预设训练模型中。
工作过程12:通过预设训练模型将提取出的第一特征向量中泛音的分布和强度与干声的参考结果进行比较,以获得干声的音色数据。应当说明的,干声的参考结果可为明星的干声对应的特征向量中泛音的分布和强度。
应当说明的,以基音为标准,发音体的各部分(二分之一或三分之一)也在振动,可为本申请实施例中的泛音,其中,泛音的组合可决定特定的音色,并能使人明确地感到基音的响度。
步骤四:获取干声关联的歌曲的歌唱速度。
具体的,获取到的干声关联的歌曲的演唱速度,具体可为:
获取到的干声关联的歌曲的每分钟节拍数(BPM);
或者,
获取到的干声关联的歌曲的每分钟音节数(SPM)。
应当说明的,获取干声关联的歌曲的歌唱速度,具体可包括以下工作过程:
工作过程21:通过干声关联的歌曲的伴奏,确定出伴奏的伴奏标识号码(ID)。
工作过程22:通过伴奏标识号码从包括多首歌曲的第二数据库中确定出干声关联的歌曲。
其中,第二数据库可为包括有多首歌曲的曲库。
工作过程23:根据确定出的歌曲,确定出歌曲的歌唱速度,其中,歌曲的伴奏标识号码与歌曲关联。
应当说明的,一首歌曲可关联一个或多个伴奏。
如果一首歌曲关联多个伴奏,其中,每一个伴奏可拥有唯一的伴奏标识号码。
举例来说,针对于歌曲《爱你一万年》,与歌曲《爱你一万年》相关联的伴奏可包括:男声伴奏、女生伴奏以及DJ伴奏等,其中,男声伴奏的伴奏标识号码可为11、女声伴奏的伴奏标识号码可为22以及DJ伴奏的伴奏标识号码可为33。
音效处理部分可包括但不限于以下工作过程:
根据获取到的干声的音色数据、干声关联的歌曲的演唱速度以及基频数据确定出至少一个音效方案;音效方案用于对干声和干声关联的歌曲的伴奏进行音效处理,以生成音效处理后的音频。
具体的,根据所获取的目标音效方案,生成目标音频,包括:
通过所获取到的目标音效方案中的均衡参数值、压缩参数值以及混响参数值,联合对干声和干声关联的歌曲的伴奏进行音效处理,生成目标音频。
更具体的,可通过目标音效方案中的均衡参数值对干声和干声关联的歌曲的伴奏的音质的改善程度进行调整、目标音效方案中的压缩参数值对干声和干声关联的歌曲的伴奏的动态修补程度进行调整以及目标音效方案中的混响参数值对干声和干声关联的歌曲的伴奏的音质的改善、空间制造层次的营造、细节掩盖程度分别进行调整。
输出至少一个音效方案。
具体的,输出至少一个音效方案,具体可包括但不限于以下形式:
将显示至少一个音效方案,或者语音播放该至少一个音效方案。
应当说明的,至少一个音效方案可包括但不限于以下两种情形:
情形1:至少一个音效方案,包括:一个音效方案;该音效方案用于对干声和干声关联的歌曲的伴奏进行音效处理,以生成音效处理后的音频。
情形2:至少一个音效方案,包括:多个音效方案;多个音效方案中每一个音效方案分别用于对干声和干声关联的歌曲的伴奏进行音效处理,以分别生成多个音效处理后的音频。
图3示例性示出了一种音效方案。
如图3所示,音效方案可包括四个可分别用于对干声和干声关联的歌曲的伴奏进行音效处理的音效方案。
具体的,该音效方案可包括:用户的干声的音色与理想的干声的音色的匹配度为90%的音效方案、用户的干声的音色与理想的干声的音色的匹配度为80%的音效方案、用户的干声的音色与理想的干声的音色的匹配度为70%的音效方案以及用户的干声的音色与理想的干声的音色的匹配度60%的音效方案,应当说明的,用户的干声的音色与理想的干声的音色的匹配度为90%的音效方案为推荐的(建议用户优先选择的)可用于对所述干声和所述干声关联的歌曲的伴奏进行音效处理的音效方案,其他的三个方案为(建议用户次优先选择的)可供用户自行选择的以对干声和干声关联的歌曲的伴奏进行音效处理的音效方案。
图4示例性示出了另一种音效方案。
如图4所示,音效方案可包括多个可分别用于对干声和干声关联的歌曲的伴奏进行音效处理的音效方案。
具体的,该音效方案可包括但不限于:用户的干声的音色与理想的干声的音色的匹配度为90%的音效方案、KTV音效的音效方案、磁性音效的音效方案、歌声音效的音效方案以及悠远意境音效的音效方案等等。
应当说明的,用户的干声的音色与理想的干声的音色的匹配度为90%的音效方案可为推荐给用户的可用于对干声和干声关联的歌曲的伴奏进行音效处理的优选的音效方案。其他的方案可为推荐给用户的次优选的可用于对干声和干声关联的歌曲的伴奏进行音效处理的音效方案。
综上所述,本申请实施例提供了一种处理系统。该处理系统包括:识别部分以及音效处理部分。该处理系统通过识别部分获取干声,干声包括用户演唱歌曲的基频数据。进而,该处理系统通过识别部分获取干声的音色数据,音色数据是通过预设训练模型获取的。然后,该处理系统通过音效处理部分根据获取到的干声的音色数据、干声关联的歌曲的演唱速度以及基频数据,确定出至少一个音效方案,音效方案用于对干声和干声关联的歌曲的伴奏进行音效处理,以生成音效处理后的音频。接着,该处理系统通过音效处理部分输出至少一个音效方案。最后,该处理系统通过音效处理部分根据所获取的目标音效方案,生成目标音频;目标音效方案为所述至少一个音效方案中的一个音效方案。采用本申请实施例,通过从包括多个音效方案的第一数据库中确定出目标音效方案对干声和干声关联的歌曲的伴奏进行音效处理,可使得生成的音效处理后的音频更加的动听。
可理解的,图2~图4仅仅用于解释本申请实施例,不应对本申请做出限制。
参见图5,是本申请提供的一种处理方法的示意流程图。如图5所示,该方法可以至少包括以下几个步骤:
S501、获取干声。
本申请实施例中,干声包括用户演唱歌曲的基频数据。
应当说明的,干声中的基频数据可通过Praat语音学软件从用户的干声中识别出,还可通过自相关算法、平行处理法、倒谱法和简化逆滤波器法从用户的干声中识别出。
应当说明的,歌曲可为由歌词和曲谱结合的一种艺术形式。
干声可为用户演唱的无伴奏的纯人声,换句话说,干声可指录音以后的未经过后期处理(如动态、压缩或混响等)或加工的纯人声。
应当说明的,基频数据为基音的频率数据,基音为发音体整体振动产生的最低的音(换句话说,基音为每个乐音中频率最低的纯音)。
S502、获取干声的音色数据。
本申请实施例中,得所述干声的音色数据之前,还包括以下工作步骤:
工作步骤1:对获取到的干声进行预处理,获得第一预处理数据。
具体的,对获取到的干声进行预处理,具体可包括以下工作过程:
对获取到的干声进行降噪和/或修音,以获得降噪及修音后的第一预处理数据。
工作步骤2:将第一预处理数据进行特征提取,以提取出第一特征向量,将第一特征向量输入到预设训练模型中,通过预设训练模型将第一特征向量中泛音的分布和强度与获取到的干声的参考结果进比对,以获得干声的音色数据;其中,预设训练模型为训练好的训练模型。
其中,干声的参考结果可为明星的干声对应的特征向量中泛音的分别和强度。如果第一特征中泛音的分布和强度与干声的参考结果越接近,则用户的干声的得分越高。
应当说明的,以基音为标准,发音体的各部分(二分之一或三分之一)也在振动,可为本申请实施例中的泛音,其中,泛音的组合可决定特定的音色,并能使人明确地感到基音的响度。
应当说明的,将第一预处理数据进行特征提取,将提取出的第一特征向量输入到预设训练模型中,以获得干声的音色数据之前,还包括以下步骤:
将多个被标注的干声的样本分别进行特征提取,以提取出第二特征向量,将第二特征向量分别输入到待训练的训练模型中,以获得预设训练模型;第二特征向量用于对待训练的训练模型进行训练。
S503、根据获取到的干声的音色数据、干声关联的歌曲的演唱速度以及基频数据确定出至少一个音效方案。
本申请实施例中,音效方案用于对干声和干声关联的歌曲的伴奏进行音效处理,以生成音效处理后的音频。
应当说明的,输出至少一个音效方案之后,根据所获取的目标音效方案,生成目标音频之前,还包括下述步骤:
步骤1:接收目标指令;该目标指令用于指示目标音效方案(也即是说,指示出获取与目标指令相关联的目标音效方案)。
步骤2:响应于接收到的目标指令,获取目标音效方案。
应当说明的,根据获取到的干声的音色数据、干声关联的歌曲的演唱速度以及基频数据确定出至少一个音效方案之前,还包括以下工作过程:
工作过程1:通过干声关联的歌曲的伴奏,确定出伴奏的伴奏标识号码。
工作过程2:通过伴奏标识号码从包括多首歌曲的第一数据库中确定出干声关联的歌曲。
工作过程3:根据确定出的歌曲,确定出歌曲的歌唱速度,其中,歌曲的伴奏标识号码与歌曲关联。
应当说明的,干声关联的歌曲的演唱速度,具体可为:
获取到的干声关联的歌曲的每分钟节拍数。
或者,
获取到的干声关联的歌曲的每分钟音节数。
应当说明的,至少一个音效方案可包括但不限于以下两种情形;
情形1:至少一个音效方案,可包括:一个音效方案;该方案用于对干声和干声关联的歌曲的伴奏进行音效处理,以生成音效处理后的音频。
情形2:至少一个音效方案,可包括:多个音效方案;多个音效方案中每一个音效方案分别用于对干声和干声关联的歌曲的伴奏进行音效处理,以分别生成多个音效处理后的音频。
S504、输出至少一个音效方案。
具体的,将目标音效方案进行输出,具体可包括但不限于以下形式:
将显示至少一个音效方案进行显示,或者语音播放至少一个音效方案。
S505、根据所获取的目标音效方案,生成目标音频。
本申请实施例中,根据所获取的目标音效方案,生成目标音频,具体可包括下述过程:
通过所获取到的目标音效方案中的均衡参数值、压缩参数值以及混响参数值,联合对干声和干声关联的歌曲的伴奏进行音效处理,生成目标音频。
更具体的,通过目标音效方案中的均衡参数值对干声和干声关联的歌曲的伴奏的音质的改善程度进行调整、目标音效方案中的压缩参数值对干声和干声关联的歌曲的伴奏的动态修补程度进行调整以及目标音效方案中的混响参数值对干声和干声关联的歌曲的伴奏的音质的改善、空间制造层次的营造、细节掩盖程度分别进行调整。
综上所述,本申请实施例提供了一种处理方法。首先,获取干声,干声包括用户演唱歌曲的基频数据。进而,获取干声的音色数据,音色数据是通过预设训练模型获取的。然后,根据获取到的干声的音色数据、干声关联的歌曲的演唱速度以及基频数据,确定出至少一个音效方案,音效方案用于对干声和干声关联的歌曲的伴奏进行音效处理,以生成音效处理后的音频。接着,输出至少一个音效方案。最后,根据所获取的目标音效方案,生成目标音频;目标音效方案为所述至少一个音效方案中的一个音效方案。采用本申请实施例,可通过获取到的目标音效方案对干声和干声关联的歌曲的伴奏进行音效处理,可使得生成的音效处理后的音频更加美妙、更加动听。
可理解的,图5方法实施例中未提供的相关定义和说明可参考图1的实施例,此处不再赘述。
参见图6,是本申请提供的一种处理装置。如图6所示,处理装置60包括:第一获取单元601、第二获取单元602、确定单元603、输出单元604及生成单元605。其中:
第一获取单元601,用于获取干声;干声包括用户演唱歌曲的基频数据。
第二获取单元602,用于获取干声的音色数据。
确定单元603,用于根据获取到的干声的音色数据、干声关联的歌曲的演唱速度以及从干声中识别出的基频数据从包括多个音效方案的第一数据库中确定出目标音效方案;目标音效方案用于对干声和干声关联的歌曲的伴奏进行音效处理,以生成音效处理后的音频。
输出单元604,用于输出至少一个音效方案。
应当说明的,至少一个音效方案可包括但不限于以下两种情形;
情形1:至少一个音效方案,可包括:一个音效方案;该方案用于对干声和干声关联的歌曲的伴奏进行音效处理,以生成音效处理后的音频。
情形2:至少一个音效方案,可包括:多个音效方案;多个音效方案中每一个音效方案分别用于对干声和干声关联的歌曲的伴奏进行音效处理,以分别生成多个音效处理后的音频。
生成单元605,用于根据所获取的目标音效方案,生成目标音频;目标音效方案为至少一个音效方案中的一个音效方案。
生成单元605,具体可用于:通过目标音效方案中的均衡参数值对干声和干声关联的歌曲的伴奏的音质的改善程度进行调整、目标音效方案中的压缩参数值对干声和干声关联的歌曲的伴奏的动态修补程度进行调整以及目标音效方案中的混响参数值对干声和干声关联的歌曲的伴奏的音质的改善、空间制造层次的营造、细节掩盖程度分别进行调整,生成目标音频。
处理装置60包括:第一获取单元601、第二获取单元602、确定单元603、输出单元604及生成单元605之外,还包括:预处理单元。
用于:对获取到的干声进行预处理,以获得第一预处理数据。
具体的,对获取到的干声进行降噪和/或修音,以获得第一预处理数据。
处理装置60包括:第一获取单元601、第二获取单元602、确定单元603、输出单元604及生成单元605之外,还包括:训练单元。
用于:将多个被标注的干声的样本分别进行特征提取,以提取出第二特征向量,将第二特征向量分别输入到待训练的训练模型中,以获得预设训练模型;第二特征向量用于对待训练的训练模型进行训练。
应当说明的,确定单元还用于:在根据获取到的干声的音色数据、干声关联的歌曲的演唱速度以及基频数据,确定出至少一个音效方案之前,
通过干声关联的歌曲的伴奏,确定出伴奏的伴奏标识号码。
通过伴奏标识号码从包括多首歌曲的第一数据库中确定出干声关联的歌曲。
根据确定出的歌曲,确定出歌曲的歌唱速度,其中,歌曲的伴奏标识号码与歌曲关联。
综上所述,本申请实施例中,装置60可通过第一获取单元601获取干声;干声包括用户演唱歌曲的基频数据;进而,装置60通过第二获取单元602对获取干声的音色数据;然后,装置60通过确定单元604根据获取到的干声的音色数据、干声关联的歌曲的演唱速度以及基频数据确定出至少一个音效方案;音效方案用于对干声和干声关联的歌曲的伴奏进行音效处理,以生成音效处理后的音频;接着,装置60通过输出单元604将目标音效方案进行输出;最后,装置60通过生成单元605根据所获取的目标音效方案,生成目标音频;目标音效方案为至少一个音效方案中的一个音效方案。采用本申请实施例,可通过获取到的目标音效方案对干声和干声关联的歌曲的伴奏进行音效处理,可使得生成的音效处理后的音频更加的动听。
应当理解,装置60仅为本申请实施例提供的一个例子,并且,装置60可具有比示出的部件更多或更少的部件,可以组合两个或更多个部件,或者可具有部件的不同配置实现。
可理解的,关于图6的装置60包括的功能块的具体实现方式,可参考前述图1、图5所述的实施例,这里不再赘述。
图7是本申请提供的一种处理设备的结构示意图。本申请实施例中,设备可以包括移动手机、平板电脑、个人数字助理(Personal Digital Assistant,PDA)、移动互联网设备(Mobile Internet Device,MID)、智能穿戴设备(如智能手表、智能手环)等各种设备,本申请实施例不作限定。如图7所示,设备70可包括:基带芯片701、存储器702(一个或多个计算机可读存储介质)、外围系统703。这些部件可在一个或多个通信总线704上通信。
基带芯片701可包括:一个或多个处理器(CPU)705。
处理器705,具体可用于:
获取干声;干声包括用户演唱歌曲的基频数据。
获得干声的音色数据。
根据获取到的干声的音色数据、干声关联的歌曲的演唱速度以及基频数据确定出至少一个音效方案;音效方案用于对干声和干声关联的歌曲的伴奏进行音效处理,以生成音效处理后的音频。
用于根据所获取的目标音效方案,生成目标音频;目标音效方案为至少一个音效方案中的一个音效方案。
存储器702与处理器705耦合,可用于存储各种软件程序和/或多组指令。具体实现中,存储器702可包括高速随机存取的存储器,并且也可包括非易失性存储器,例如一个或多个磁盘存储设备、闪存设备或其他非易失性固态存储设备。存储器702可以存储操作系统(下述简称系统),例如ANDROID,IOS,WINDOWS,或者LINUX等嵌入式操作系统。存储器702还可以存储网络通信程序,该网络通信程序可用于与一个或多个附加设备,一个或多个设备设备,一个或多个网络设备进行通信。存储器702还可以存储用户接口程序,该用户接口程序可以通过图形化的操作界面将应用程序的内容形象逼真的显示出来,并通过菜单、对话框以及按键等输入控件接收用户对应用程序的控制操作。
可理解的,存储器702可用于存储实现处理方法的实现代码。
存储器702还可以存储一个或多个应用程序。这些应用程序可包括:K歌程序、社交应用程序(例如Facebook),图像管理应用程序(例如相册),地图类应用程序(例如谷歌地图),浏览器(例如Safari,Google Chrome)等等。
外围系统703主要用于实现设备70用户/外部环境之间的交互功能,主要包括设备70的输入输出装置。具体实现中,外围系统703可包括:显示屏控制器707、摄像头控制器708以及音频控制器709。其中,各个控制器可与各自对应的外围设备(如显示屏710、摄像头711以及音频电路712)耦合。在一些实施例中,显示屏可以配置有自电容式的悬浮触控面板的显示屏1,也可以是配置有红外线式的悬浮触控面板的显示屏。在一些实施例中,摄像头711可以是3D摄像头。需要说明的,外围系统703还可以包括其他I/O外设。
综上所述,本申请实施例中,设备70可通过处理器705获取干声;干声包括用户演唱歌曲的基频数据;进而,设备70可通过处理器705获取干声的音色数据;然后,设备70可通过处理器705根据获取到的干声的音色数据、干声关联的歌曲的演唱速度以及基频数据确定出至少一个音效方案;音效方案用于对干声和干声关联的歌曲的伴奏进行音效处理,以生成音效处理后的音频;接着,设备70可通过外围系统703将目标音效方案进行输出;最后,设备70可通过处理器705根据所获取的目标音效方案,生成目标音频;目标音效方案为至少一个音效方案中的一个音效方案。采用本申请实施例,可通过获取到的目标音效方案对干声和干声关联的歌曲的伴奏进行音效处理,可使得生成的音效处理后的音频更加的动听。
应当理解,设备70仅为本申请实施例提供的一个例子,并且,设备70可具有比示出的部件更多或更少的部件,可以组合两个或更多个部件,或者可具有部件的不同配置实现。
可理解的,关于图7的设备70包括的功能模块的具体实现方式,可参考图1、图5的实施例,此处不再赘述。
本申请提供一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现。
该计算机可读存储介质可以是前述任一实施例所述的设备的内部存储单元,例如设备的硬盘或内存。该计算机可读存储介质也可以是设备的外部存储设备,例如设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步的,该计算机可读存储介质还可以既包括设备的内部存储单元也包括外部存储设备。该计算机可读存储介质用于存储计算机程序以及设备所需的其他程序和数据。该计算机可读存储介质还可以用于暂时地存储已经输出或者将要输出的数据。
本申请还提供一种计算机程序产品,该计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,该计算机程序可操作来使计算机执行如上述方法实施例中记载的任一方法的部分或全部步骤。该计算机程序产品可以为一个软件安装包,该计算机包括电子装置。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的设备和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。例如,以描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
上述描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、设备或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本申请实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (12)

1.一种处理方法,其特征在于,包括:
获取干声,所述干声包括用户演唱歌曲的基频数据;
获取所述干声的音色数据,所述音色数据是通过预设训练模型获取的;
根据获取到的所述干声的音色数据、所述干声相关联的歌曲的演唱速度以及所述基频数据,确定出至少一个音效方案,所述音效方案用于对所述干声和所述干声关联的歌曲的伴奏进行音效处理;
输出所述至少一个音效方案;
根据所获取的目标音效方案,生成目标音频,所述目标音效方案为所述至少一个音效方案中的一个音效方案。
2.如权利要求1所述的方法,其特征在于,
所述至少一个音效方案,包括:一个音效方案或多个音效方案;
所述输出所述至少一个音效方案之后,根据所获取的目标音效方案,生成目标音频之前,还包括:
接收目标指令,所述目标指令用于指示所述目标音效方案;
响应于接收到的所述目标指令,获取所述目标音效方案。
3.如权利要求1所述的方法,其特征在于,所述获取所述干声的音色数据之前,还包括:
对获取到的干声进行预处理,获得第一预处理数据;
将所述第一预处理数据进行特征提取,以提取出第一特征向量,将所述第一特征向量输入到预设训练模型中,通过所述预设训练模型将所述第一特征向量中泛音的分布和强度与所述获取到的干声的参考结果进比对,以获得所述干声的音色数据;所述预设训练模型为训练好的训练模型。
4.如权利要求3所述的方法,其特征在于,所述将所述第一预处理数据进行特征提取,以提取出第一特征向量,将所述第一特征向量输入到预设训练模型中,通过所述预设训练模型将所述第一特征向量中泛音的分布和强度与所述获取到的干声的参考结果进比对,以获得所述干声的音色数据之前,还包括:
将多个被标注的干声的样本分别进行特征提取,以提取出第二特征向量,将所述第二特征向量分别输入到待训练的训练模型中,以获得预设训练模型;所述第二特征向量用于对所述待训练的训练模型进行训练。
5.如权利要求1所述的方法,其特征在于,所述根据获取到的所述干声的音色数据、所述干声关联的歌曲的演唱速度以及所述基频数据确定出至少一个音效方案之前,还包括:
通过所述干声关联的歌曲的伴奏,确定出所述伴奏的伴奏标识号码;
通过所述伴奏标识号码从包括多首歌曲的第一数据库中确定出所述干声关联的歌曲;
根据确定出的歌曲,确定出所述歌曲的歌唱速度,其中,所述歌曲的伴奏标识号码与所述歌曲关联。
6.如权利要求1所述的方法,其特征在于,所述干声关联的歌曲的演唱速度,具体为:
所述获取到的所述干声关联的歌曲的每分钟节拍数;
或者,
所述获取到的所述干声关联的歌曲的每分钟音节数。
7.如权利要求1所述的方法,其特征在于,所述根据所获取的目标音效方案,生成目标音频,包括:
通过所述所获取到的目标音效方案中的均衡参数值、压缩参数值以及混响参数值,联合对所述干声和所述干声关联的歌曲的伴奏进行音效处理,生成目标音频。
8.如权利要求7所述的方法,其特征在于,所述通过所述所获取到的目标音效方案中的均衡参数值、压缩参数值以及混响参数值,联合对所述干声和所述干声关联的歌曲的伴奏进行音效处理,生成目标音频,包括:
通过所述目标音效方案中的均衡参数值对干声和所述干声关联的歌曲的伴奏的音质的改善程度进行调整、所述目标音效方案中的压缩参数值对干声和所述干声关联的歌曲的伴奏的动态修补程度进行调整以及所述目标音效方案中的混响参数值对干声和所述干声关联的歌曲的伴奏的音质的改善、空间制造层次的营造、细节掩盖程度分别进行调整,生成目标音频。
9.如权利要求3所述的方法,其特征在于,所述对获取到的干声进行预处理,包括:
对获取到的干声进行降噪和/或修音。
10.一种处理装置,其特征在于,包括:
第一获取单元,用于获取干声;所述干声包括用户演唱歌曲的基频数据;
第二获取单元,用于获取所述干声的音色数据;
确定单元,用于根据获取到的所述干声的音色数据、所述干声关联的歌曲的演唱速度以及所述基频数据,确定出至少一个音效方案;所述音效方案用于对所述干声和所述干声关联的歌曲的伴奏进行音效处理,以生成音效处理后的音频;
输出单元,用于输出所述至少一个音效方案;
生成单元,用于根据所获取的目标音效方案,生成目标音频;所述目标音效方案为所述至少一个音效方案中的一个音效方案。
11.一种处理设备,其特征在于,包括:输入设备、输出设备、存储器以及耦合于所述存储器的处理器,所述输入设备、输出设备、处理器和存储器相互连接,其中,所述存储器用于存储应用程序代码,所述处理器被配置用于调用所述程序代码,执行如权利要求1-9任一项所述的处理方法。
12.一种计算机可读存储介质,其特征在于,所述计算机存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时使所述处理器执行如权利要求1-9任一项所述的处理方法。
CN201910158854.5A 2019-03-01 2019-03-01 一种处理方法、装置及设备 Active CN109785820B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910158854.5A CN109785820B (zh) 2019-03-01 2019-03-01 一种处理方法、装置及设备
PCT/CN2019/083454 WO2020177190A1 (zh) 2019-03-01 2019-04-19 一种处理方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910158854.5A CN109785820B (zh) 2019-03-01 2019-03-01 一种处理方法、装置及设备

Publications (2)

Publication Number Publication Date
CN109785820A CN109785820A (zh) 2019-05-21
CN109785820B true CN109785820B (zh) 2022-12-27

Family

ID=66486097

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910158854.5A Active CN109785820B (zh) 2019-03-01 2019-03-01 一种处理方法、装置及设备

Country Status (2)

Country Link
CN (1) CN109785820B (zh)
WO (1) WO2020177190A1 (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110706679B (zh) * 2019-09-30 2022-03-29 维沃移动通信有限公司 一种音频处理方法及电子设备
CN111061909B (zh) * 2019-11-22 2023-11-28 腾讯音乐娱乐科技(深圳)有限公司 一种伴奏分类方法和装置
CN111326132B (zh) * 2020-01-22 2021-10-22 北京达佳互联信息技术有限公司 音频处理方法、装置、存储介质及电子设备
CN112164387A (zh) * 2020-09-22 2021-01-01 腾讯音乐娱乐科技(深圳)有限公司 音频合成方法、装置及电子设备和计算机可读存储介质
CN112331222A (zh) * 2020-09-23 2021-02-05 北京捷通华声科技股份有限公司 一种转换歌曲音色的方法、系统、设备及存储介质
CN112289300B (zh) * 2020-10-28 2024-01-09 腾讯音乐娱乐科技(深圳)有限公司 音频处理方法、装置及电子设备和计算机可读存储介质
CN112365868B (zh) * 2020-11-17 2024-05-28 北京达佳互联信息技术有限公司 声音处理方法、装置、电子设备及存储介质
CN112420015A (zh) * 2020-11-18 2021-02-26 腾讯音乐娱乐科技(深圳)有限公司 一种音频合成方法、装置、设备及计算机可读存储介质
CN113192486B (zh) * 2021-04-27 2024-01-09 腾讯音乐娱乐科技(深圳)有限公司 一种合唱音频的处理方法、设备及存储介质
CN113112998B (zh) * 2021-05-11 2024-03-15 腾讯音乐娱乐科技(深圳)有限公司 模型训练方法、混响效果复现方法、设备及可读存储介质
CN113707113B (zh) * 2021-08-24 2024-02-23 北京达佳互联信息技术有限公司 用户歌声的修音方法、装置及电子设备
CN113744708B (zh) * 2021-09-07 2024-05-14 腾讯音乐娱乐科技(深圳)有限公司 模型训练方法、音频评价方法、设备及可读存储介质
CN113744721B (zh) * 2021-09-07 2024-05-14 腾讯音乐娱乐科技(深圳)有限公司 模型训练方法、音频处理方法、设备及可读存储介质
CN114666706B (zh) * 2021-11-30 2024-05-14 北京达佳互联信息技术有限公司 音效增强方法、装置及系统
CN114566191A (zh) * 2022-02-25 2022-05-31 腾讯音乐娱乐科技(深圳)有限公司 录音的修音方法及相关装置
CN115240709B (zh) * 2022-07-25 2023-09-19 镁佳(北京)科技有限公司 一种音频文件的声场分析方法及装置
CN117809686A (zh) * 2022-09-26 2024-04-02 抖音视界有限公司 音频处理方法、装置及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014025819A1 (en) * 2012-08-07 2014-02-13 Smule, Inc. Social music system and method with continuous, real-time pitch correction of vocal performance and dry vocal capture for subsequent re-rendering based on selectively applicable vocal effect(s) schedule(s)
WO2017157142A1 (zh) * 2016-03-18 2017-09-21 腾讯科技(深圳)有限公司 歌曲旋律信息处理方法、服务器和存储介质
WO2018001039A1 (zh) * 2016-07-01 2018-01-04 腾讯科技(深圳)有限公司 一种音频数据的处理方法及装置
US10062367B1 (en) * 2017-07-14 2018-08-28 Music Tribe Global Brands Ltd. Vocal effects control system
CN108922506A (zh) * 2018-06-29 2018-11-30 广州酷狗计算机科技有限公司 歌曲音频生成方法、装置和计算机可读存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8847056B2 (en) * 2012-10-19 2014-09-30 Sing Trix Llc Vocal processing with accompaniment music input
CN105208189B (zh) * 2014-12-10 2019-07-26 维沃移动通信有限公司 音频处理方法及移动终端
CN108305603B (zh) * 2017-10-20 2021-07-27 腾讯科技(深圳)有限公司 音效处理方法及其设备、存储介质、服务器、音响终端
CN107978321B (zh) * 2017-11-29 2021-04-27 广州酷狗计算机科技有限公司 音频处理方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014025819A1 (en) * 2012-08-07 2014-02-13 Smule, Inc. Social music system and method with continuous, real-time pitch correction of vocal performance and dry vocal capture for subsequent re-rendering based on selectively applicable vocal effect(s) schedule(s)
WO2017157142A1 (zh) * 2016-03-18 2017-09-21 腾讯科技(深圳)有限公司 歌曲旋律信息处理方法、服务器和存储介质
WO2018001039A1 (zh) * 2016-07-01 2018-01-04 腾讯科技(深圳)有限公司 一种音频数据的处理方法及装置
US10062367B1 (en) * 2017-07-14 2018-08-28 Music Tribe Global Brands Ltd. Vocal effects control system
CN108922506A (zh) * 2018-06-29 2018-11-30 广州酷狗计算机科技有限公司 歌曲音频生成方法、装置和计算机可读存储介质

Also Published As

Publication number Publication date
CN109785820A (zh) 2019-05-21
WO2020177190A1 (zh) 2020-09-10

Similar Documents

Publication Publication Date Title
CN109785820B (zh) 一种处理方法、装置及设备
CN108806655B (zh) 歌曲的自动生成
WO2019196306A1 (zh) 基于语音的口型动画合成装置、方法及可读存储介质
WO2017190674A1 (zh) 一种音频数据的处理方法、装置及计算机存储介质
US20200035209A1 (en) Automatic song generation
CN110555126A (zh) 旋律的自动生成
CN112309365B (zh) 语音合成模型的训练方法、装置、存储介质以及电子设备
CN108305604B (zh) 音乐可视化方法、装置及计算机可读存储介质
CN111653265B (zh) 语音合成方法、装置、存储介质和电子设备
CN111402842A (zh) 用于生成音频的方法、装置、设备和介质
CN108764114B (zh) 一种信号识别方法及其设备、存储介质、终端
CN111916054B (zh) 基于唇形的语音生成方法、装置和系统及存储介质
KR101325722B1 (ko) 사용자 입력 노래에 대응한 악보 생성 장치와 그 방법
WO2022089097A1 (zh) 音频处理方法、装置及电子设备和计算机可读存储介质
CN112735429A (zh) 确定歌词时间戳信息的方法和声学模型的训练方法
CN108986841A (zh) 音频信息处理方法、装置及存储介质
CN112735371A (zh) 一种基于文本信息生成说话人视频的方法及装置
CN109410972B (zh) 生成音效参数的方法、装置及存储介质
US9445210B1 (en) Waveform display control of visual characteristics
US20220335974A1 (en) Multimedia music creation using visual input
CN114363531B (zh) 基于h5的文案解说视频生成方法、装置、设备以及介质
CN109147819A (zh) 音频信息处理方法、装置及存储介质
CN114999441A (zh) 虚拟形象生成方法、装置、设备、存储介质以及程序产品
CN112786025A (zh) 确定歌词时间戳信息的方法和声学模型的训练方法
CN106649643B (zh) 一种音频数据处理方法及其装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant