CN111554267A - 音频合成方法、装置、电子设备和计算机可读介质 - Google Patents

音频合成方法、装置、电子设备和计算机可读介质 Download PDF

Info

Publication number
CN111554267A
CN111554267A CN202010328586.XA CN202010328586A CN111554267A CN 111554267 A CN111554267 A CN 111554267A CN 202010328586 A CN202010328586 A CN 202010328586A CN 111554267 A CN111554267 A CN 111554267A
Authority
CN
China
Prior art keywords
lyrics
melody
generating
client
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010328586.XA
Other languages
English (en)
Inventor
顾宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN202010328586.XA priority Critical patent/CN111554267A/zh
Publication of CN111554267A publication Critical patent/CN111554267A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

本公开的实施例公开了音频合成方法、装置、电子设备和计算机可读介质。该方法的一具体实施方式包括:基于客户端发送的第一歌词,生成第二歌词;基于上述第二歌词和上述客户端发送的主题,生成旋律;基于上述旋律和上述第二歌词,生成歌谱;基于上述歌谱和上述旋律,生成背景音乐和干声;基于上述干声和上述背景音乐,生成音频。该实施方式实现了高效的合成歌曲,而且客户端的用户可以参与歌唱合成过程,增加了用户参与的趣味性,从而提升了用户体验。

Description

音频合成方法、装置、电子设备和计算机可读介质
技术领域
本公开的实施例涉及计算机技术领域,具体涉及音频合成方法、装置、电子设备和计算机可读介质。
背景技术
歌曲合成一般需要歌词和歌词所对应的曲调。但是,作词或作曲往往需要相应的领域专家耗费时间进行创作,创作效率较低且普通用户难于参与。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了用于音频合成方法、装置、设备和计算机可读介质,来解决以上背景技术部分提到的技术问题。
第一方面,本公开的一些实施例提供了一种音频合成方法,该方法包括:基于客户端发送的第一歌词,生成第二歌词;基于上述第二歌词和上述客户端发送的主题,生成旋律;基于上述旋律和上述第二歌词,生成歌谱;基于上述歌谱和上述旋律,生成背景音乐和干声;基于上述干声和上述背景音乐,生成音频。
第二方面,本公开的一些实施例提供了一种音频合成装置,装置包括:第一生成单元,被配置成基于客户端发送的第一歌词,生成第二歌词;第二生成单元,被配置成基于上述第二歌词和上述客户端发送的主题,生成旋律;第三生成单元,被配置成基于上述旋律和上述第二歌词,生成歌谱;第四生成单元,被配置成基于上述歌谱和上述旋律,生成背景音乐和干声;第五生成单元,被配置成基于上述干声和上述背景音乐,生成音频。
第三方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如第一方面中任一的方法。
本公开的上述各个实施例中的至少一个实施例具有如下有益效果:首先,根据客户端发送的第一歌词,可以对其进行扩展,从而生成第二歌词。这里,第一歌词可以是简单的一句话。接着,根据上述第二歌词和上述客户端发送的主题,可以生成与客户端发送的主题相关联的旋律。这两步中,通过增加用户参与歌词、旋律的生成过程,增加了用户参与的趣味性。然后,基于上述旋律和上述第二歌词,还可以生成对应的歌谱。根据上述歌谱和上述旋律,可以生成背景音乐和干声。最后,根据上述干声和上述背景音乐,生成最终的音频。本公开的实施例可以提高歌曲的创作效率,同时,用户也可以参与到创作过程,从而提升了用户体验。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1是根据本公开的一些实施例的音频合成方法的一个应用场景的示意图;
图2是根据本公开的音频合成方法的一些实施例的流程图;
图3是根据本公开的音频合成方法的另一些实施例的流程图;
图4是根据本公开的音频合成装置的一些实施例的结构示意图;
图5是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
图1是根据本公开一些实施例的音频合成方法的一个应用场景的示意图100。
如图1所示,首先,客户端的用户可以根据自己的喜好来编写第一歌词。需要强调的是,上述第一歌词可以是一句简短的文字。例如,“今天天气好”,如附图标记102所示。同时用户还可以自定义歌曲的主题。例如,“古典”,如附图标记103所示。收到客户端发送的第一歌词和主题后,服务器101可以根据客户端所发送的第一歌词,即“今天天气好”为基础进行扩展,从而生成第二歌词,例如“今天天气好,阳光明媚,心情很美丽”,如附图标记104所示。接着,根据上一步得到的第二歌词104和用户自定义的主题103,可以生成旋律105。接着,基于上述旋律105和上述第二歌词104,可以生成歌谱106。紧接着,基于上述歌谱106和上述旋律105,还可以生成背景音乐108和干声107。最后,根据上述干声107和上述背景音乐108,最终生成音频109。
可以理解的是,用于音频合成方法可以是由上述服务器101来执行。其中,服务器101可以是硬件,也可以是软件。当服务器101为硬件时,可以是具有信息处理能力的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机、台式计算机、服务器等等。当服务器101为软件时,可以安装在上述所列举的电子设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的服务器数目仅仅是示意性的。根据实现需要,可以具有任意数目的服务器。
继续参考图2,示出了根据本公开的音频合成方法的一些实施例的流程200。该音频合成方法,包括以下步骤:
步骤201,基于客户端发送的第一歌词,生成第二歌词。
在一些实施例中,音频合成方法的执行主体(例如图1所示的服务器101)根据客户端所提供的第一歌词,可以对第一歌词进行扩展,从而得到上述第二歌词。这里,上述第一歌词可以是一句简短的句子。例如,“今天天气好”。上述第二歌词是以上述第一歌词为基础,扩展而来的多句歌词。例如,“今天天气好,阳光明媚,心情很美丽”。这里,需要强调的是,上述扩展的方法可以是通过深度学习网络进行扩展。作为示例,将第一歌词输入预先训练的循环神经网络,最终得到第二歌词。
在一些实施例的一些可选的实现方式中,上述执行主体基于客户端发送的第一歌词,生成第二歌词可以包括如下步骤:
第一步,上述执行主体可以将客户端所提供的第一歌词进行预处理,例如,将第一歌词转化为向量。然后,将预处理结果输入预先训练的第一深度学习网络,得到输出作为待处理歌词。这里,上述第一深度学习网络可以采用Transformer模型。这里,上述待处理歌词的长度是有限制的。
第二步,将待处理歌词发送至客户端,客户端的用户可以对上述待处理歌词内容进行修改,进而生成处理后歌词。这里,处理后歌词内容是需要符合法律规定的。而且,处理后歌词的长度也可以有一定限制。例如,不超过200字。
第三步,接收上述客户端处理后歌词作为上述第二歌词,其中,上述处理后歌词是上述客户端对上述待处理歌词处理后的歌词。
步骤202,基于上述第二歌词和上述客户端发送的主题,生成旋律。
在一些实施例中,上述执行主体根据上述第二歌词和客户端发送的主题,可以通过各种方式生成一段与之对应的旋律。其中,上述客户端发送的主题可以是以下之一:古典,乡村,摇滚,爵士乐,流行音乐,重金属和R&B。这里,上述旋律是由一系列相同或不同音高的音,以特定的高低关系和节奏关系联系起来的一种音的序列。
需要强调的是,上述旋律不一定是日常生活中一首歌对应的旋律。上述旋律可以是不完整的,需要后续对其调整才能作为一首歌对应的旋律。这里,旋律可以用一段曲谱(例如简谱、五线谱)来表示。
在一些实施例的一些可选的实现方式中,上述执行主体可以对上述第二歌词的韵脚进行调整,生成韵脚调整后的第二歌词。韵脚调整后的第二歌词类似如下歌词:“枯藤老书昏鸦(ya),小桥流水人家(jia),古道西风瘦马(ma)”,可以看到,每句歌词的最后一个字包含了a的韵母。
然后,可以将上述韵脚调整后的第二歌词和上述主题进行预处理。例如,将第二歌词和上述主题转化为向量。然后,将预处理后的结果输入变分自编码器(VAE,VariationalAuto-Encoder)的编码器中。然后,对编码器的输出结果进行采样,最终生成旋律。其中,编码器内部可以使用第二深度学习网络,例如,LSTM(长短期记忆网络,Long Short-TermMemory Network)。
步骤203,基于上述旋律和上述第二歌词,生成歌谱。
在一些实施例中,上述执行主体可以对根据上述旋律和上述第二歌词,生成歌谱。这里,可以根据旋律的特性对旋律进行调整,组合成一段新的旋律。然后,将第二歌词填入新的旋律对应的位置。这样,就生成了歌谱。这里,歌谱是指曲谱与歌词的组合,其中,歌词可以填写在相应音符的下方。上述新的旋律可以用一段曲谱(例如简谱、五线谱)来表示。
在一些实施例的一些可选的实现方式中,上述执行主体还可以根据步骤202所得到的旋律,对旋律所包括的各个旋律片段进行分别处理,从而生成目标旋律。作为示例,可以将步骤202所得到的旋律按照旋律音高分为旋律片段A、旋律片段B和旋律片段C。作为示例,旋律片段A的音高大于旋律片段B,旋律片段B的音高大于旋律片段C的音高。这里,可以将旋律片段A作为主歌旋律以及将旋律片段B作为副歌旋律,把旋律片段C作为中间过门的旋律。最后,将副歌旋律、主歌旋律和中间过门的旋律组合起来,生成上述目标旋律。例如,还可以将主歌旋律或者副歌旋律或者中间过门的旋律重复多次,再在组合起来,生成上述目标旋律。其中,上述目标旋律也可以用一段曲谱(例如简谱、五线谱)来表示。
然后,可以将第二歌词填入上述目标旋律中,进而生成待处理歌谱。
接着,将上述待处理歌谱发送至客户端。客户端的用户可以对上述待处理歌谱中不满意的地方进行调整。例如,用户觉得某一个旋律片段所对应的歌词不满意,可以将其换为用户想要的歌词,或者直接将上述旋律片段和所对应的歌词删除。
最后,接收上述客户端处理后歌谱作为上述歌谱,其中,上述处理后歌谱是上述客户端对上述待处理歌谱处理后的歌谱。
这一实现方式所带来的的好处是,在歌谱的创作过程中,增加了用户参与的步骤,使得最终生成的歌谱更符合用户的需求。
步骤204,基于上述歌谱和上述旋律,生成背景音乐和干声。
在一些实施例中,上述执行主体根据上述歌谱和上述旋律可以通过各种方式生成一段背景音乐和干声。例如,参照歌谱以及旋律生成一段由吉他伴奏的背景音乐。此外,干声的生成方式也有许多。例如,可以使用歌唱合成方法,按照给定的歌谱生成对应的干声。
在一些实施例的一些可选的实现方式中,上述执行主体可以将上述歌谱进行一定的预处理,例如,将歌谱中的音符转化为相对应的向量。然后,将预处理结果输入预先训练的双向长短时记忆神经网络,同时参考上述旋律,最终生成上述背景音乐。
步骤205,基于上述干声和上述背景音乐,生成音频。
在一些实施例中,上述执行主体根据步骤204得到的背景音乐和干声。可以将上述背景音乐和上述干声进行混合,生成音频。这里,混合的方法包括多种。例如,使用音频编辑工具将背景音乐和上述干声进行混合。上述音频编辑工具例如Audition,一种多音轨编辑工具。
本公开的上述各个实施例中的一个实施例具有如下有益效果:首先,根据客户端发送的第一歌词,可以对其进行扩展,从而生成第二歌词。这里,第一歌词可以是简单的一句话。接着,根据上述第二歌词和上述客户端发送的主题,可以生成与客户端发送的主题相关联的旋律。这两步中,通过增加用户参与歌词、旋律的生成过程,增加了用户参与的趣味性。然后,基于上述旋律和上述第二歌词,还可以生成对应的歌谱。根据上述歌谱和上述旋律,可以生成背景音乐和干声。最后,根据上述干声和上述背景音乐,生成最终的音频。这一实施例可以提高歌曲的创作效率,同时,用户也可以参与到创作过程,从而提升了用户体验。
进一步参考图3,其示出了音频合成方法的另一些实施例的流程300。该音频合成方法的流程300,包括以下步骤:
步骤301,基于客户端发送的第一歌词,生成第二歌词。
步骤302,基于上述第二歌词和上述客户端发送的主题,生成旋律。
步骤303,基于上述旋律和上述第二歌词,生成歌谱。
步骤304,基于上述歌谱和上述旋律,生成背景音乐和干声。
在这里,步骤301-304的具体实现及所带来的技术效果可以参考图2对应的那些实施例中的步骤201-204,在此不再赘述。
步骤305,按照上述歌谱对上述干声进行调整,得到上述调整后的干声。
在一些实施例中,上述执行主体可以对步骤304得到的干声进行调整。需要强调的是,经步骤304所得到的干声通常往往不完整的。例如,干声中的某些片段的音高不符合上述歌谱,干声的节奏太快或者太慢。这里的调整可以是对干声的节奏和音高进行调整。具体的,可以参照歌谱上所表征的节奏和音高进行调整。
步骤306,将上述调整后的干声与上述背景音乐混合,生成上述音频。
在一些实施例中,上述执行主体根据步骤305所得到的干声,可以按照歌谱对上述干声进行调整。然后,再将调整后的干声与上述背景音乐混合,最终生成上述音频。这里,混合的方式可以具体参照步骤205中的混合方式。
在一些实施例的一些可选的实现方式中,上述执行主体按照上述歌谱对上述干声进行调整,得到上述调整后的干声,可以包括如下步骤:
第一步,响应于确定上述干声中存在音高小于上述歌谱中对应的音高的片段,可以调高上述片段的音高。例如,调高一个8度。
第二步,响应于确定上述干声中存在音高高于上述歌谱中对应的音高的片段,可以调低上述片段的音高。例如,调低一个8度。
第三步,响应于确定上述干声中存在音高缺失的片段,选择歌谱中对应的音高作为上述片段的音高。
从图3中可以看出,与图2对应的一些实施例的描述相比,图3对应的一些实施例中的音频合成方法的流程300体现了对干声进行调整步骤。由此,这些实施例描述的方案通过将干声调整后再和背景音乐混合,使得最终生成的音频更加符合人们的审美,从而提升了用户体验。
进一步参考图4,作为对上述各图所示方法的实现,本公开提供了一种音频合成装置的一些实施例,这些装置实施例与图2所示的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,一些实施例的音频合成方法装置400包括:第一生成单元401、第二生成单元402、第三生成单元403、第四生成单元404和第五生成单元405。其中,第一生成单元401,被配置成基于客户端发送的第一歌词,生成第二歌词。第二生成单元402,被配置成基于上述第二歌词和上述客户端发送的主题,生成旋律。第三生成单元403,被配置成基于上述旋律和上述第二歌词,生成歌谱。第四生成单元404,被配置成基于上述歌谱和上述旋律,生成背景音乐和干声。第五生成单元405,被配置成基于上述干声和上述背景音乐,生成音频。
在一些实施例的一些可选的实现方式中,第一生成单元401可以进一步被配置成:将上述客户端发送的第一歌词输入至预先训练的第一深度学习网络,得到待处理歌词;向上述客户端发送上述待处理歌词;接收上述客户端处理后歌词作为上述第二歌词,其中,上述处理后歌词是上述客户端对上述待处理歌词处理后的歌词。
在一些实施例的一些可选的实现方式中,第二生成单元402可以进一步被配置成:对上述第二歌词的韵脚进行调整,生成韵脚调整后的第二歌词;基于预先训练的第二深度学习网络、变分自编码器、上述韵脚调整后的第二歌词和上述主题,生成上述旋律。
在一些实施例的一些可选的实现方式中,第三生成单元403可以进一步被配置成:基于对上述旋律包括的各个旋律片段的分别处理,生成目标旋律;将上述第二歌词填入上述目标旋律中,生成待处理歌谱;将上述待处理歌谱发送至上述客户端;接收上述客户端处理后歌谱作为上述歌谱,其中,上述处理后歌谱是上述客户端对上述待处理歌谱处理后的歌谱。
在一些实施例的一些可选的实现方式中,第四生成单元404可以进一步被配置成:基于上述旋律、上述歌谱和双向长短时记忆神经网络,生成上述背景音乐;上述歌谱转化为干声。
在一些实施例的一些可选的实现方式中,第五生成单元405还可以包括调整单元和混合单元。其中,调整单元被配置成:按照上述歌谱对上述干声进行调整,得到上述调整后的干声。混合单元被配置成:将上述调整后的干声与上述背景音乐混合,生成上述音频。
在一些实施例的一些可选的实现方式中,上述调整单元可以进一步被配置成:响应于确定上述干声中存在音高小于上述歌谱中对应的音高的片段,调高上述片段的音高;响应于确定上述干声中存在音高高于上述歌谱中对应的音高的片段,调低上述片段的音高;响应于确定上述干声中存在音高缺失的片段,选择上述歌谱中对应的音高作为上述片段的音高。
可以理解的是,该装置400中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置400及其中包含的单元,在此不再赘述。
下面参考图5,其示出了适于用来实现本公开的一些实施例的电子设备(例如图1中的服务器)500的结构示意图。图5示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图5所示,电子设备500可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储装置508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有电子设备500操作所需的各种程序和数据。处理装置501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
通常,以下装置可以连接至I/O接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置507;包括例如磁带、硬盘等的存储装置508;以及通信装置509。通信装置509可以允许电子设备500与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图5中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从ROM 502被安装。在该计算机程序被处理装置501执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述装置中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:基于客户端发送的第一歌词,生成第二歌词;基于上述第二歌词和上述客户端发送的主题,生成旋律;基于上述旋律和上述第二歌词,生成歌谱;基于上述歌谱和上述旋律,生成背景音乐和干声;基于上述干声和上述背景音乐,生成音频。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一生成单元、第二生成单元、第三生成单元、第四生成单元和第五生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一生成单元还可以被描述为“基于客户端发送的第一歌词,生成第二歌词的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
根据本公开的一个或多个实施例,提供了一种音频合成方法,包括:基于客户端发送的第一歌词,生成第二歌词;基于上述第二歌词和上述客户端发送的主题,生成旋律;基于上述旋律和上述第二歌词,生成歌谱;基于上述歌谱和上述旋律,生成背景音乐和干声;基于上述干声和上述背景音乐,生成音频。
根据本公开的一个或多个实施例,上述基于客户端发送的第一歌词,生成第二歌词,包括:将上述客户端发送的第一歌词输入至预先训练的第一深度学习网络,得到待处理歌词;向上述客户端发送上述待处理歌词;接收上述客户端处理后歌词作为上述第二歌词,其中,上述处理后歌词是上述客户端对上述待处理歌词处理后的歌词。
根据本公开的一个或多个实施例,上述基于上述第二歌词和客户端发送的主题,生成旋律,包括:对上述第二歌词的韵脚进行调整,生成韵脚调整后的第二歌词;基于预先训练的第二深度学习网络、变分自编码器、上述韵脚调整后的第二歌词和上述主题,生成上述旋律。
根据本公开的一个或多个实施例,上述基于上述旋律和上述第二歌词,生成歌谱,包括:基于对上述旋律包括的各个旋律片段的分别处理,生成目标旋律;将上述第二歌词填入上述目标旋律中,生成待处理歌谱;将上述待处理歌谱发送至上述客户端;接收上述客户端处理后歌谱作为上述歌谱,其中,上述处理后歌谱是上述客户端对上述待处理歌谱处理后的歌谱。
根据本公开的一个或多个实施例,上述基于上述歌谱和上述旋律,生成背景音乐以及干声,包括:基于上述旋律、上述歌谱和双向长短时记忆神经网络,生成上述背景音乐;将上述歌谱转化为干声。
根据本公开的一个或多个实施例,上述基于上述干声和上述背景音乐,生成音频,包括:按照上述歌谱对上述干声进行调整,得到上述调整后的干声;将上述调整后的干声与上述背景音乐混合,生成上述音频。
根据本公开的一个或多个实施例,上述按照歌谱对上述干声进行调整,得到上述调整后的干声,包括:响应于确定上述干声中存在音高小于上述歌谱中对应的音高的片段,调高上述片段的音高;响应于确定上述干声中存在音高高于上述歌谱中对应的音高的片段,调低上述片段的音高;响应于确定上述干声中存在音高缺失的片段,选择上述歌谱中对应的音高作为上述片段的音高。
根据本公开的一个或多个实施例,提供了一种音频合成装置,包括:第一生成单元,被配置成基于客户端发送的第一歌词,生成第二歌词;第二生成单元,被配置成基于上述第二歌词和上述客户端发送的主题,生成旋律;第三生成单元,被配置成基于上述旋律和上述第二歌词,生成歌谱;第四生成单元,被配置成基于上述歌谱和上述旋律,生成背景音乐和干声;第五生成单元,被配置成基于上述干声和上述背景音乐,生成音频。
根据本公开的一个或多个实施例,第一生成单元401可以进一步被配置成:将上述客户端发送的第一歌词输入至预先训练的第一深度学习网络,得到待处理歌词;向上述客户端发送上述待处理歌词;接收上述客户端处理后歌词作为上述第二歌词,其中,上述处理后歌词是上述客户端对上述待处理歌词处理后的歌词。
根据本公开的一个或多个实施例,第二生成单元402可以进一步被配置成:对上述第二歌词的韵脚进行调整,生成韵脚调整后的第二歌词;基于预先训练的第二深度学习网络、变分自编码器、上述韵脚调整后的第二歌词和上述主题,生成上述旋律。
根据本公开的一个或多个实施例,第三生成单元403可以进一步被配置成:基于对上述旋律包括的各个旋律片段的分别处理,生成目标旋律;将上述第二歌词填入上述目标旋律中,生成待处理歌谱;将上述待处理歌谱发送至上述客户端;接收上述客户端处理后歌谱作为上述歌谱,其中,上述处理后歌谱是上述客户端对上述待处理歌谱处理后的歌谱。
根据本公开的一个或多个实施例,第四生成单元404可以进一步被配置成:基于上述旋律、上述歌谱和双向长短时记忆神经网络,生成上述背景音乐;上述歌谱转化为干声。
根据本公开的一个或多个实施例,第五生成单元405还可以包括调整单元和混合单元。其中,调整单元被配置成:按照上述歌谱对上述干声进行调整,得到上述调整后的干声。混合单元被配置成:将上述调整后的干声与上述背景音乐混合,生成上述音频。
根据本公开的一个或多个实施例,上述调整单元可以进一步被配置成:响应于确定上述干声中存在音高小于上述歌谱中对应的音高的片段,调高上述片段的音高;响应于确定上述干声中存在音高高于上述歌谱中对应的音高的片段,调低上述片段的音高;响应于确定上述干声中存在音高缺失的片段,选择上述歌谱中对应的音高作为上述片段的音高。
根据本公开的一个或多个实施例,提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上述任一实施例描述的方法。
根据本公开的一个或多个实施例,提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如上述任一实施例描述的方法。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种音频合成方法,包括:
基于客户端发送的第一歌词,生成第二歌词;
基于所述第二歌词和所述客户端发送的主题,生成旋律;
基于所述旋律和所述第二歌词,生成歌谱;
基于所述歌谱和所述旋律,生成背景音乐和干声;
基于所述干声和所述背景音乐,生成音频。
2.根据权利要求1所述的方法,其中,所述基于客户端发送的第一歌词,生成第二歌词,包括:
将所述客户端发送的第一歌词输入至预先训练的第一深度学习网络,得到待处理歌词;
向所述客户端发送所述待处理歌词;
接收所述客户端处理后歌词作为所述第二歌词,其中,所述处理后歌词是所述客户端对所述待处理歌词处理后的歌词。
3.根据权利要求1所述的方法,其中,所述基于所述第二歌词和客户端发送的主题,生成旋律,包括:
对所述第二歌词的韵脚进行调整,生成韵脚调整后的第二歌词;
基于预先训练的第二深度学习网络、变分自编码器、所述韵脚调整后的第二歌词和所述主题,生成所述旋律。
4.根据权利要求1所述的方法,其中,所述基于所述旋律和所述第二歌词,生成歌谱,包括:
基于对所述旋律包括的各个旋律片段的分别处理,生成目标旋律;
将所述第二歌词填入所述目标旋律中,生成待处理歌谱;
将所述待处理歌谱发送至所述客户端;
接收所述客户端处理后歌谱作为所述歌谱,其中,所述处理后歌谱是所述客户端对所述待处理歌谱处理后的歌谱。
5.根据权利要求1所述的方法,其中,所述基于所述歌谱和所述旋律,生成背景音乐以及干声,包括:
基于所述旋律、所述歌谱和双向长短时记忆神经网络,生成所述背景音乐;
将所述歌谱转化为干声。
6.根据权利要求1-5之一所述的方法,其中,所述基于所述干声和所述背景音乐,生成音频,包括:
按照所述歌谱对所述干声进行调整,得到所述调整后的干声;
将所述调整后的干声与所述背景音乐混合,生成所述音频。
7.根据权利要求6所述的方法,其中,所述按照歌谱对所述干声进行调整,得到所述调整后的干声,包括:
响应于确定所述干声中存在音高小于所述歌谱中对应的音高的片段,调高所述片段的音高;
响应于确定所述干声中存在音高高于所述歌谱中对应的音高的片段,调低所述片段的音高;
响应于确定所述干声中存在音高缺失的片段,选择歌谱中对应的音高作为所述片段的音高。
8.一种音频合成方法,包括:
第一生成单元,被配置成基于客户端发送的第一歌词,生成第二歌词;
第二生成单元,被配置成基于所述第二歌词和所述客户端发送的主题,生成旋律;
第三生成单元,被配置成基于所述旋律和所述第二歌词,生成歌谱;
第四生成单元,被配置成基于所述歌谱和所述旋律,生成背景音乐和干声;
第五生成单元,被配置成基于所述干声和所述背景音乐,生成音频。
9.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-7中任一所述的方法。
CN202010328586.XA 2020-04-23 2020-04-23 音频合成方法、装置、电子设备和计算机可读介质 Pending CN111554267A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010328586.XA CN111554267A (zh) 2020-04-23 2020-04-23 音频合成方法、装置、电子设备和计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010328586.XA CN111554267A (zh) 2020-04-23 2020-04-23 音频合成方法、装置、电子设备和计算机可读介质

Publications (1)

Publication Number Publication Date
CN111554267A true CN111554267A (zh) 2020-08-18

Family

ID=72000133

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010328586.XA Pending CN111554267A (zh) 2020-04-23 2020-04-23 音频合成方法、装置、电子设备和计算机可读介质

Country Status (1)

Country Link
CN (1) CN111554267A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112035699A (zh) * 2020-08-27 2020-12-04 北京字节跳动网络技术有限公司 音乐合成方法、装置、设备和计算机可读介质
CN112309353A (zh) * 2020-10-30 2021-02-02 北京有竹居网络技术有限公司 一种作曲方法、装置、电子设备及存储介质
CN112489606A (zh) * 2020-11-26 2021-03-12 北京有竹居网络技术有限公司 旋律生成方法、装置、可读介质及电子设备
CN112837664A (zh) * 2020-12-30 2021-05-25 北京达佳互联信息技术有限公司 歌曲旋律的生成方法、装置、电子设备
WO2023109278A1 (zh) * 2021-12-14 2023-06-22 腾讯音乐娱乐科技(深圳)有限公司 一种伴奏的生成方法、设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105070283A (zh) * 2015-08-27 2015-11-18 百度在线网络技术(北京)有限公司 为歌声语音配乐的方法和装置
CN106652984A (zh) * 2016-10-11 2017-05-10 张文铂 一种使用计算机自动创作歌曲的方法
US20170140743A1 (en) * 2015-11-18 2017-05-18 Pandora Media, Inc. Procedurally Generating Background Music for Sponsored Audio
US20180190249A1 (en) * 2016-12-30 2018-07-05 Google Inc. Machine Learning to Generate Music from Text
CN108806656A (zh) * 2017-04-26 2018-11-13 微软技术许可有限责任公司 歌曲的自动生成
CN109949783A (zh) * 2019-01-18 2019-06-28 苏州思必驰信息科技有限公司 歌曲合成方法及系统
CN110858924A (zh) * 2018-08-22 2020-03-03 北京优酷科技有限公司 视频背景音乐的生成方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105070283A (zh) * 2015-08-27 2015-11-18 百度在线网络技术(北京)有限公司 为歌声语音配乐的方法和装置
US20170140743A1 (en) * 2015-11-18 2017-05-18 Pandora Media, Inc. Procedurally Generating Background Music for Sponsored Audio
CN106652984A (zh) * 2016-10-11 2017-05-10 张文铂 一种使用计算机自动创作歌曲的方法
US20180190249A1 (en) * 2016-12-30 2018-07-05 Google Inc. Machine Learning to Generate Music from Text
CN108806656A (zh) * 2017-04-26 2018-11-13 微软技术许可有限责任公司 歌曲的自动生成
US20200035209A1 (en) * 2017-04-26 2020-01-30 Microsoft Technology Licensing Llc Automatic song generation
CN110858924A (zh) * 2018-08-22 2020-03-03 北京优酷科技有限公司 视频背景音乐的生成方法及装置
CN109949783A (zh) * 2019-01-18 2019-06-28 苏州思必驰信息科技有限公司 歌曲合成方法及系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112035699A (zh) * 2020-08-27 2020-12-04 北京字节跳动网络技术有限公司 音乐合成方法、装置、设备和计算机可读介质
CN112309353A (zh) * 2020-10-30 2021-02-02 北京有竹居网络技术有限公司 一种作曲方法、装置、电子设备及存储介质
CN112489606A (zh) * 2020-11-26 2021-03-12 北京有竹居网络技术有限公司 旋律生成方法、装置、可读介质及电子设备
WO2022111242A1 (zh) * 2020-11-26 2022-06-02 北京有竹居网络技术有限公司 旋律生成方法、装置、可读介质及电子设备
CN112489606B (zh) * 2020-11-26 2022-09-27 北京有竹居网络技术有限公司 旋律生成方法、装置、可读介质及电子设备
CN112837664A (zh) * 2020-12-30 2021-05-25 北京达佳互联信息技术有限公司 歌曲旋律的生成方法、装置、电子设备
CN112837664B (zh) * 2020-12-30 2023-07-25 北京达佳互联信息技术有限公司 歌曲旋律的生成方法、装置、电子设备
WO2023109278A1 (zh) * 2021-12-14 2023-06-22 腾讯音乐娱乐科技(深圳)有限公司 一种伴奏的生成方法、设备及存储介质

Similar Documents

Publication Publication Date Title
CN111554267A (zh) 音频合成方法、装置、电子设备和计算机可读介质
US12039959B2 (en) Automated music composition and generation system employing virtual musical instrument libraries for producing notes contained in the digital pieces of automatically composed music
CN111899720B (zh) 用于生成音频的方法、装置、设备和介质
CN111402842B (zh) 用于生成音频的方法、装置、设备和介质
CN111445892B (zh) 歌曲生成方法、装置、可读介质及电子设备
CN111402843B (zh) 说唱音乐生成方法、装置、可读介质及电子设备
CN111445897B (zh) 歌曲生成方法、装置、可读介质及电子设备
US20140046667A1 (en) System for creating musical content using a client terminal
CN112489606B (zh) 旋律生成方法、装置、可读介质及电子设备
CN111782576B (zh) 背景音乐的生成方法、装置、可读介质、电子设备
CN111798821B (zh) 声音转换方法、装置、可读存储介质及电子设备
US11200881B2 (en) Automatic translation using deep learning
CN111161695B (zh) 歌曲生成方法和装置
CN112802446B (zh) 音频合成方法及装置、电子设备和计算机可读存储介质
CN105957515A (zh) 声音合成方法、声音合成装置和存储声音合成程序的介质
CN110600004A (zh) 一种语音合成播放方法、装置和存储介质
US20160133241A1 (en) Composition engine
JP7497523B2 (ja) カスタム音色歌声の合成方法、装置、電子機器及び記憶媒体
WO2022042418A1 (zh) 音乐合成方法、装置、设备和计算机可读介质
JP2020003535A (ja) プログラム、情報処理方法、電子機器、及び学習済みモデル
CN112365868A (zh) 声音处理方法、装置、电子设备及存储介质
CN111667803A (zh) 一种音频处理方法及相关产品
US9755764B2 (en) Communicating data with audible harmonies
Garani et al. An algorithmic approach to South Indian classical music
CN113838443A (zh) 音频合成方法、装置、计算机可读存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant after: Douyin Vision Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant before: Tiktok vision (Beijing) Co.,Ltd.

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant after: Tiktok vision (Beijing) Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant before: BEIJING BYTEDANCE NETWORK TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information