CN109979497A - 歌曲的生成方法、装置和系统及数据处理和歌曲播放方法 - Google Patents

歌曲的生成方法、装置和系统及数据处理和歌曲播放方法 Download PDF

Info

Publication number
CN109979497A
CN109979497A CN201711458094.7A CN201711458094A CN109979497A CN 109979497 A CN109979497 A CN 109979497A CN 201711458094 A CN201711458094 A CN 201711458094A CN 109979497 A CN109979497 A CN 109979497A
Authority
CN
China
Prior art keywords
lyrics
song
label
data
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711458094.7A
Other languages
English (en)
Other versions
CN109979497B (zh
Inventor
曹良博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Alibaba Music Technology Co Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201711458094.7A priority Critical patent/CN109979497B/zh
Publication of CN109979497A publication Critical patent/CN109979497A/zh
Application granted granted Critical
Publication of CN109979497B publication Critical patent/CN109979497B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/686Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

本发明公开了一种歌曲的生成方法、装置和系统及数据处理和歌曲播放方法。其中,该方法包括:接收录入的歌词和歌词对应的分段信息,其中,分段信息用于表征歌词在待生成歌曲中的位置;获取歌词对应的标签,其中,标签用于表征待生成歌曲的属性信息;根据歌词的分段信息和歌词对应的标签,生成歌曲。本发明解决了使用现有技术中歌曲生成方法生成的歌曲与用户的期望不匹配的技术问题。

Description

歌曲的生成方法、装置和系统及数据处理和歌曲播放方法
技术领域
本发明涉及信息处理领域,具体而言,涉及一种歌曲的生成方法、装置和系统及数据处理和歌曲播放方法。
背景技术
由于音乐制作的经济成本较高,且对专业技能要求也较高,因此对于很多喜爱音乐的非专业用户来说,创作歌曲是非常困难的事情。
为了解决非专业人群写歌困难的问题,现有技术中存在用于用户创作歌曲的应用程序,例如“我要写歌”,在用户使用该应用程序进行创作时,输入歌词的界面提示用户输入歌名、输入第一句歌词、输入第二句歌词、输入第三句歌词等信息。用户根据提示内容在对应的区域输入歌词后,系统根据用户输入的歌词生成对应的歌曲。
但其存在的缺陷是,生成的歌曲只是根据用户输入的歌词的顺序进行创作的,生成的歌曲没有类似于正常歌曲的结构,也无法确定哪一句歌词会落在歌曲的主歌部分、副歌部分等,分布比较随机,从而影响歌曲生成的效果,且与用户预期的效果相差较大,难以让用户满意。
针对使用现有技术中歌曲生成方法生成的歌曲与用户的期望不匹配的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种歌曲的生成方法、装置和系统及数据处理和歌曲播放方法,以至少解决使用现有技术中歌曲生成方法生成的歌曲与用户的期望不匹配的技术问题。
根据本发明实施例的一个方面,提供了一种歌曲的生成方法,包括:接收录入的歌词和歌词对应的分段信息,其中,分段信息用于表征歌词在待生成歌曲中的位置;获取歌词对应的标签,其中,标签用于表征待生成歌曲的属性信息;根据歌词的分段信息和歌词对应的标签,生成歌曲。
根据本发明实施例的另一方面,还提供了一种歌曲的生成装置,包括:接收模块,用于接收录入的歌词和歌词对应的分段信息,其中,分段信息用于表征歌词在待生成歌曲中的位置;调用模块,获取歌词对应的标签,其中,标签用于表征待生成歌曲的属性信息;生成模块,用于根据歌词的分段信息和歌词对应的标签,生成歌曲。
根据本发明实施例的另一方面,还提供了一种存储介质,存储介质包括存储的程序,其中,在程序运行时控制存储介质所在设备执行上述的歌曲的生成方法。
根据本发明实施例的另一方面,还提供了一种处理器,其特征在于,处理器用于运行程序,其中,程序运行时执行上述的歌曲的生成方法。
根据本发明实施例的另一方面,还提供了一种歌曲的生成系统,包括:处理器;以及存储器,与处理器连接,用于为处理器提供处理以下处理步骤的指令:接收录入的歌词和歌词对应的分段信息,其中,分段信息用于表征歌词在待生成歌曲中的位置;获取歌词对应的标签,其中,标签用于表征待生成歌曲的属性信息;根据歌词的分段信息和歌词对应的标签,生成歌曲。
根据本发明实施例的另一方面,还提供了一种歌曲的生成方法,包括:接收录入的歌词;对歌词进行语义分析,得到歌词对应的标签,其中,标签用于表征待生成歌曲的属性信息;根据歌词和歌词对应的标签,生成歌曲。
根据本发明实施例的另一方面,还提供了一种歌曲播放方法,包括:根据接收到的歌词生成歌曲;根据歌曲的主旋律的时间线,为歌词中的每个字匹配对应的时间值,得到逐字歌词;在播放歌曲的过程中,根据歌词中每个字对应的时间值,显示逐字歌词。
根据本发明实施例的另一方面,还提供了一种数据处理方法,包括:接收文本数据;计算文本数据对应的分类数据;获取与分类数据对应的音频数据;生成歌曲数据,其中,歌曲数据的歌词包括文本数据,歌曲数据的曲谱包括音频数据。
根据本发明实施例的另一方面,还提供了一种数据处理方法,包括:接收文本数据;根据文本数据,生成歌曲数据的歌词;计算文本数据或歌词对应的分类数据;获取与分类数据对应的音频数据,其中,歌曲数据的曲谱包括音频数据。
根据本发明实施例的另一方面,还提供了一种数据处理方法,包括:接收音频数据;计算音频数据的分类数据;获取与分类数据对应的文本数据;生成歌曲数据,其中,歌曲数据的歌词包括文本数据,歌曲数据的曲谱包括音频数据。
在本发明实施例中,通过接收录入的歌词和歌词对应的分段信息,其中,分段信息用于表征歌词在待生成歌曲中的位置,获取歌词对应的标签,其中,标签用于表征待生成歌曲的属性信息,根据歌词的分段信息和歌词对应的标签,生成所述歌曲,使得在最终生成歌曲中,歌词出现的位置与用户的预期相符。
通过本申请上述实施例所提供的方案,达到了用户输入的歌词出现在歌曲的指定位置的目的,从而提高了最终生成的歌曲与用户创作期望的匹配程度,进而解决了使用现有技术中歌曲生成方法生成的歌曲与用户的期望不匹配的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本申请实施例1的一种用于实现歌曲的生成方法的计算机终端(或移动设备)的硬件结构框图;
图2是根据本发明实施例1的一种歌曲的生成方法的流程图;
图3是根据本申请实施例1的一种用于用户填词的界面示意图;
图4是根据本申请实施例1的一种可选的歌曲的生成方法的流程图;
图5是根据本申请实施例1的一种服务器的功能结构示意图;
图6是根据本申请实施例1的一种用户选择标签的界面示意图;
图7是根据本发明实施例2的一种歌曲的生成装置的示意图;
图8是根据本申请实施例3的一种歌曲的生成方法的流程图;
图9是根据本申请实施例4的一种歌曲播放方法的流程图;
图10是根据本申请实施例5的一种歌曲的生成装置的示意图;
图11是根据本申请实施例6的一种歌曲播放装置的示意图;以及
图12是根据本申请实施例7的一种数据处理方法的流程图;
图13是根据本申请实施例8的一种数据处理方法的流程图;
图14是根据本申请实施例9的一种数据处理方法的流程图;
图15是根据本申请实施例10的一种数据处理装置的示意图;
图16是根据本申请实施例11的一种数据处理装置的示意图;
图17是根据本申请实施例12的一种数据处理装置的示意图;
图18是根据本发明实施例13的一种计算机终端的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
首先,在对本申请实施例进行描述的过程中出现的部分名词或术语适用于如下解释:
歌曲:包括歌词和曲谱相结合的艺术形式。歌曲的创作一般有三种方式:一是先有文辞后据以谱写乐章,一曲专为一词而作,只为一词所用;二是先曲后词,依声填词,三是通过已有曲或词重新谱写词曲,属于另类的翻唱。
主歌:主歌是一般歌曲中高潮(副歌)之前的部分,这一部分不像副歌那样拥有可以代表整首歌曲的高潮,而主歌的作用是将旋律慢慢推上高潮的同时,将歌曲所表达的故事背景表述清楚。
副歌:歌曲的高潮部分。
桥接:主歌和副歌的衔接部分。
实施例1
根据本发明实施例,还提供了一种歌曲的生成方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本申请实施例一所提供的方法实施例可以在移动终端、计算机终端或者类似的运算装置中执行。图1示出了一种用于实现歌曲的生成方法的计算机终端(或移动设备)的硬件结构框图。如图1所示,计算机终端10(或移动设备10)可以包括一个或多个(图中采用102a、102b,……,102n来示出)处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的存储器104、以及用于通信功能的传输模块106。除此以外,还可以包括:显示器、输入/输出接口(I/O接口)、通用串行总线(USB)端口(可以作为I/O接口的端口中的一个端口被包括)、网络接口、电源和/或相机。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,计算机终端10还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
应当注意到的是上述一个或多个处理器102和/或其他数据处理电路在本文中通常可以被称为“数据处理电路”。该数据处理电路可以全部或部分的体现为软件、硬件、固件或其他任意组合。此外,数据处理电路可为单个独立的处理模块,或全部或部分的结合到计算机终端10(或移动设备)中的其他元件中的任意一个内。如本申请实施例中所涉及到的,该数据处理电路作为一种处理器控制(例如与接口连接的可变电阻终端路径的选择)。
存储器104可用于存储应用软件的软件程序以及模块,如本发明实施例中的歌曲的生成方法对应的程序指令/数据存储装置,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的应用程序的漏洞检测方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端10的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
显示器可以例如触摸屏式的液晶显示器(LCD),该液晶显示器可使得用户能够与计算机终端10(或移动设备)的用户界面进行交互。
此处需要说明的是,在一些可选实施例中,上述图1所示的计算机设备(或移动设备)可以包括硬件元件(包括电路)、软件元件(包括存储在计算机可读介质上的计算机代码)、或硬件元件和软件元件两者的结合。应当指出的是,图1仅为特定具体实例的一个实例,并且旨在示出可存在于上述计算机设备(或移动设备)中的部件的类型。
在上述运行环境下,本申请提供了如图2所示的歌曲的生成方法。图2是根据本发明实施例1的一种歌曲的生成方法的流程图。
步骤S21,接收录入的歌词和歌词对应的分段信息,其中,分段信息用于表征歌词在待生成歌曲中的位置。
具体的,上述录入的歌词和歌词对应的分段信息可以由用户输入。在一种可选的实施例中,歌词在待生成歌曲中的位置可以包括:主歌、副歌和桥接部分。用户可以根据对歌曲的构思,为歌词赋予不同的分段信息。
上述步骤可以通过运行于移动终端中的应用程序来实现。图3是根据本申请实施例1的一种用于用户填词的界面示意图,在一种可选的实施例中,结合图3所示,用户启动该应用程序,并进入填词的界面。该界面可以包括三个输入框,每个输入框都包括对应的提示信息。第一个输入框中显示提示信息:请输入主歌部分的歌词;第二个输入框中显示提示信息:请输入副歌部分的歌词;第三个输入框中显示提示信息:请输入桥接部分的歌词。用户根据每个输入框中的提示信息,输入对应的歌词并点击右上角的保存按键,服务器即可接收到歌词,以及歌词对应的分段信息。
在上述步骤S21中,录入歌词的方式可以是如上述实施例所示出的用户在输入框中输入歌词的方式,也可以是用户通过语音的方式录入,还可以是通过扫描包含文字的图像的方式录入。
可选的,在接收歌词和歌词对应的分段信息之前,还可以接收用户输入的结构信息,其中,结构信息用于确定待生成歌曲结构的组成。在一种可选的实施例中,以待生成歌曲包括主歌A(Verse,)、副歌B(Chorus)和桥接E(Instrumental and Ending)为例,用户可以将上述几个部分进行组合,如:AEAEB、AEBAEB等。
步骤S23,获取所述歌词对应的标签,其中,所述标签用于表征待生成歌曲的属性信息。
具体的,待生成歌曲的属性信息用于表征待生成歌曲所体现的特征,例如:待生成歌曲的风格、待生成歌曲的速度等。相同的歌词在标签不同的情况下也能够生成不同的歌曲。
在上述步骤S23中,服务器获取歌词对应的标签,即为获取用户对待生成歌曲的期望信息,用户提供的歌词对应的标签,即为用户所期望的待生成歌曲的编曲走向。
在一种可选的实施例中,终端向用户展示允许选择的标签,用户根据对待生成歌曲的期望选择对应的标签,服务器接收到用户的选择信息后,生成歌词对应的标签。
步骤S25,根据所述歌词的分段信息和所述歌词对应的标签,生成歌曲。
在上述步骤S25中,服务器能够根据歌词的分段信息,确定歌词在待生成歌曲中的分布,并能够根据歌词对应的标签,确定待生成歌曲的属性。因此根据歌词的分段信息和歌词对应的标签生成的歌曲能够更加符合用户的预期。
在一种可选的实施例中,服务器获取预定的乐理数据,例如:和旋、歌曲结构、编曲走向等,通过机器学习的方式生成歌曲。
可选的,为了到达更好的创作效果,还可以对用户输入的歌词进行如下任意一种或多种变化:在接收到的歌词中添加语气词、删除接收到的歌词中的语气词以及更改接收到的歌词中句子出现在歌曲中的顺序。
基于上述实施例所限定的方案可以获知,通过接收录入的歌词和歌词对应的分段信息,其中,分段信息用于表征歌词在待生成歌曲中的位置,获取歌词对应的标签,其中,标签用于表征待生成歌曲的属性信息,根据歌词的分段信息和歌词对应的标签,生成歌曲,使得在最终生成歌曲中,歌词出现的位置与用户的预期相符。
通过本申请上述实施例所提供的方案,达到了用户输入的歌词出现在歌曲的指定位置的目的,从而提高了最终生成的歌曲与用户创作期望的匹配程度,进而解决了使用现有技术中歌曲生成方法生成的歌曲与用户的期望不匹配的技术问题。
图4是根据本申请实施例1的一种可选的歌曲的生成方法的流程图,为了实现该方法中的功能,服务器中可以设置如图5所示的多种功能结构,包括:旋律生成引擎、语音合成引起、逐字歌词合成引擎、伴奏处理引擎、歌词解析引擎以及参考歌词标签关系池,下面结合图4和图5所示,对本申请提出的歌曲的生成方法进行详细说明。
步骤S41,分段填词。
在上述步骤S41中,用户根据期望歌词出现在待生成歌曲中的位置,将歌词填写至具有对应分段信息的区域,服务器从不同的输入区域获取歌词,从而能够确定歌词的分段信息。
步骤S42,设置歌曲标签。
具体的,上述歌曲标签包括:歌曲风格、歌曲速度以及歌曲心情,其中,歌曲风格可以包括:摇滚、古典、爵士、R&B等风格,歌曲速度可以为具体的速度数据,歌曲心情可以包括:开心、悲伤、愤怒等。
在上述步骤中,设置歌曲标签的方式包括如下步骤S33和S34两种,可以选择其中任意一种。
步骤S43,自定义标签。
在上述步骤S43中,歌词对应的标签是用户自定义的,即用户通过终端向服务器提供选择的标签。
步骤S44,参考指定歌曲的标签。
在上述步骤S44中,歌曲对应的标签是参考指定歌曲的。在该实施例中,由用户从曲库中选择已被打签的模板歌曲作为指定歌曲,服务器根据用户指定的歌曲,从参考歌曲标签关系池中获取指定歌曲对应的标签,然后确定指定歌曲对应的标签为歌词对应的标签。
此处需要说明的是,上述步骤中的曲库中存储的歌曲可以用于服务器在编曲时进行参考,为了在参考指定歌曲时能够获取指定歌曲的标签,还需要对曲库进行维护,即为加入曲库的模板歌曲设置对应的标签。
采用步骤S44所示的步骤确定歌曲的标签,生成的歌曲与指定的歌曲在风格上具有一定的相似度。因此其应用场景可以是,用户希望生成与指定歌曲相似的歌曲。
步骤S45,提取歌词语义特征。
上述步骤可以通过歌词解析引擎执行,具体的,歌词解析引擎执行可以通过语义识别的方式提取歌词的语义特征,并通过语义特征构成情感词,例如:失恋、鼓励、抱怨、激进等。
步骤S46,生成歌曲和逐字歌词。
上述步骤可以通过旋律生成引擎和逐字歌词合成引擎执行。具体的,旋律生成引擎可以通过机器学习的方式,基于预存的乐理数据,根据歌词、歌词的分段信息以及歌词的标签,生成歌曲的主旋律;逐字歌词合成引擎执行根据主旋律时间线,为歌词中的每个字分配对应的时间值,从而得到逐字歌词。
在生成歌曲时所使用的标签可以为自定义标签或参考指定歌曲的标签中的任意一个,也可以为自定义标签和参考指定歌曲的标签中的任意一个与歌词语义特征的组合。
步骤S47,生成伴奏。
上述步骤可以由伴奏处理引擎执行。具体的,在生成主旋律的同时或之后,伴奏处理引擎采用机器学习的方式,基于歌词对应的标签,为主旋律匹配对应风格、对应速度、对应心情和/或对应情感的伴奏。
步骤S48,语音合成。
上述步骤可以由语音合成引擎执行。具体的,根据生成的主旋律和逐字歌词进行语音合成,得到主旋律音频,其中,主旋律音频可以是通过语音合成的声音示范演唱的音频。
步骤S49,试听。
在生成歌曲之后具有试听功能,该试听的歌曲音频可以是由系统歌手示范的歌曲音频。
步骤S410,录制人声。
录制人声可以是使用录制的人声来代替生成歌曲时的歌手示范演唱音频,从而实现用户自己创作歌曲并且自己演唱的目的。
在录制人声之前,还可以根据歌曲主旋律的时间线,确定歌词中每个字的时间值,在录制人声的过程中,可以同步在终端上显示歌词,并显示歌词中每个字对应的时间值,从而达到了提示演唱者的目的。
步骤S411,发布。
在上述步骤S411中,用户可以通过终端将录制好的歌曲发布到网络。
本申请提供的一种可选实施例中,所述标签包括以下至少之一:用于表征歌词对应的风格的第一标签、用于表征所述歌词对应的心情的第二标签和用于表征所述歌词对应的速度的第三标签,获取所述歌词对应的标签,包括:接收输入的所述歌词对应的标签;或者接收选择的模板歌曲,获取所述模板歌曲的标签,并确定所述模板歌曲的标签为所述歌词对应标签。
在上述方案中,歌词对应的风格可以包括:抒情、摇滚、爵士等,歌曲对应的速度可以为歌曲的速度值,歌曲对应的心情可以包括:开心、悲伤、沮丧等。上述标签可以是用户手动选择或输入的标签,也可以是用户选择的模板歌曲的标签。
图6是根据本申请实施例1的一种用户选择标签的界面示意图,在一种可选的实施例中,在用户输入完歌词之后,在生成歌曲之前,终端提示用户选择歌词对应的标签,包括风格、速度以及心情,在风格和心情选项中提供用户可选的种类,在速度选项中提供0至140的滚动条,用户根据需求拖动箭头至需要的速度。服务器根据用户的选择结果确定歌词对应的标签。
在另一种可选的实施例中,用户还可以选择参考曲库中模板歌曲的标签,仍结合图6所示,如果用户选择“参考其他歌曲”,则服务器会向用户提供曲库中的模板歌曲供用户选择。例如,以用户选择模板歌曲“白玫瑰”为例,该歌曲的第一标签(即风格标签)为爵士风格,第二标签(即速度标签)为74,第三标签(及心情标签)为平静。服务器在获取用户选择的模板歌曲后,从参考歌词标签关系池中获取模板歌曲的三个标签,并将模板歌曲的三个标签作为歌词对应的标签。
此处需要说明的是,在上述方案中,由于根据歌词的标签来生成歌曲,从而使得生成的歌曲与用户的期望更加贴近,更加满足用户的需求。
本申请提供的一种可选实施例中,所述标签还包括:用于表征所述歌词对应的情感的第四标签,获取所述歌词对应的标签的方法还包括:对所述歌词进行语义特征提取,确定所述歌词对应的情感词,其中,所述情感词用于表征所述歌词对应的情感;根据所述情感词确定所述第四标签。
具体的,情感词可以为用于表征歌词情景或情感的关键词,例如:失恋、鼓励、正能量、亲情、寂寞等。语义分析用于通过机器学习方法,挖掘与学习文本、图片等的深层次概念。在上述方案中,通过语义分析的方式,挖掘歌词对应的情感信息,即情感词。
目前的歌曲创作类软件支持用户指定歌曲对应的心情,包括高兴和悲伤。但这两种心情无法涵盖较多的情感,为用户提供的选择较少。对于用户来说,除了心情之外,还可以包括很多其他更加细致的情感,例如:失恋、感动、抱怨、鼓励等,因此,现有技术所提供的这种方式为用户提供的选择较少,且智能化程度较低,从而使得创作的歌曲难于满足用户的期望。
而本申请上述实施例通过语义分析的方式从歌词中提取更细粒度的情感词,并将情感词作为生成歌曲的第四标签,从而使得生成的歌曲与用户对歌曲的预期更加贴近,且生成的歌曲也具有较好的表现力。
在一种可选的实施例中,结合图6所示,在这一界面中还包括选项“分析歌词情感”,如果用户选择这一选项,则可以基于歌词进行语义分析,得到第四标签。
本申请提供的一种可选实施例中,歌曲包括:主旋律音频和伴奏音频;其中,根据歌词的分段信息和歌词对应的标签,生成歌曲,包括:获取预设的乐理数据;基于乐理数据,对歌词对应的分段信息和歌词对应的标签进行机器学习,分别生成歌曲的主旋律音频和伴奏音频。
具体的,上述乐理数据可以包括:常用的和弦、节奏、节拍,和声搭配、歌曲结构等。主旋律音频可以是通过语音合成的声音示范演唱主旋律的音频信息,伴奏音频为伴随衬托演唱的器乐演奏,即歌曲音频中除主旋律音频之外的部分。
在一种可选的实施例中,服务器中的旋律生成引擎根据歌词对应的标签,通过机器学习的方式得到歌词对应的主旋律,再通过语音合成的方式生成主旋律音频,然后同样通过机器学习的方式,为主旋律匹配对应的伴奏,得到伴奏音频。再对上述实施例中生成的主旋律音频和伴奏音频进行合并,得到生成的歌曲的音频。
在生成歌曲之前,还可以由系统歌手对歌曲进行示范,再将系统歌手示范的主旋律音频与伴奏音频进行合成,生成由歌手示范的歌曲的音频。
本申请提供的一种可选实施例中,基于乐理数据,对歌词对应的分段信息和歌词对应的标签进行机器学习,生成歌曲的主旋律音频,包括:根据乐理数据,对歌词对应的分段信息和歌词对应的标签进行机器学习,生成歌曲的主旋律;根据主旋律的时间线,为歌词中的每个字匹配对应的时间值,得到逐字歌词;基于主旋律和逐字歌词进行语音合成,生成主旋律音频。
具体的,上述主旋律可以为歌曲的主要曲调,即为需要人为演唱的部分;主旋律音频可以是通过语音合成的声音示范演唱主旋律的音频信息。主旋律具有自身的时间线,该时间线从主旋律开始计时,直至主旋律结束,歌词需要根据主旋律来演唱,因此歌词中的每个字都具有对应的起始时间和结束时间,即在演唱时每个字应该演唱的时间长度。在上述方案中,通过获取到的主旋律和逐字歌词,即能够确定歌词中每个字的音调和演唱的起始时间,从而能够通过语音合成的方式,生成主旋律音频。
在一种可选的实施例中,以歌词“时间片刻变陈旧”中的“时间”两个字为例,如果“时”在主旋律的时间线中的时间值为[00:15:23],“间”在主旋律的时间线中的时间值为[00:15:59],则“时”字在主旋律开始后的15.23秒后来开始演唱,且演唱的时间为0.36毫秒。
通过上述方案,能够确定歌词中每个字在主旋律中出现的位置。
本申请提供的一种可选实施例中,在根据所述歌词的分段信息和所述歌词对应的标签,生成歌曲之后,上述方法还包括:根据歌曲的伴奏音频录制歌曲,包括:在播放伴奏音频的过程中,显示歌词,其中,根据歌词中每个字对应的时间值逐字滚动。
在根据歌曲的伴奏音频录制歌曲时,伴奏由设备播放,主旋律由演唱者演唱,拾音设备对演唱者的声音进行拾音,从而录制出演唱者演唱的歌曲。
需要注意的是,在上述实施例中生成的歌曲对用户来说,并非耳熟能详的歌曲,甚至是陌生的歌曲,如果使用现有技术中的录歌应用程序的方式来录歌,用户可能难以找准演唱的节奏,因此为了减小用户演唱创作歌曲的难度,上述方案在播放歌曲音频的过程中,按照歌词中每个字的时间值逐字展示歌词,从而帮助演唱者找准歌词中每个字的起始时间和终止时间,更好的适应歌曲的节奏。
在一种可选的实施例中,仍以歌词“时间片刻变陈旧”为例,当进行歌曲的录制时,当主旋律的时间达到[00:13:23]时,在屏幕以及一定透明度显示“时间片刻变陈旧”,以提示演唱者快要演唱该句歌词,当主旋律的时间到达[00:15:23]时,去除“时”字的透明度,以提示演唱者应该演唱“时”,当主旋律的时间到达[00:15:59]时,去除“间”字的透明度,以提示用户“时”字结束,此时应该演唱“间”字。
本申请提供的一种可选实施例中,在接收录入的歌词和歌词对应的分段信息之前,上述方法还包括:获取预设的用于存储模板歌曲的曲库;按照预设周期确定曲库中的模板歌曲对应的任意一个或多个标签。
在上述方案中,将模板歌曲存储至创作曲库之后,还需要确定模板歌曲的标签,以在用户创作歌曲时调用。上述方案用于对曲库进行维护。
在一种可选的实施例中,可以人为确定模板歌曲的标签,并为模板歌曲打签,也可以对模板歌曲进行分析,得到模板歌曲对应的风格、速度以及情感,然后根据分析结果对创作模板进行打签。
本申请提供的一种可选实施例中,接收歌词对应的分段信息,包括:在歌词的预定位置查找歌词的分段标识,并根据分段标识确定歌词的分段信息,其中,分段标识在歌词的预定位置;或获取输入框的类型,根据输入框的类型确定输入至输入框的歌词的分段信息,其中,输入框用于接收输入的歌词,输入框的类型用于表征输入框中的歌词对应的分段信息。
下面,对上述两种获取歌词对应的分段信息的方式分别进行说明。
在一种可选的实施例中,上述预定位置为歌词的起始位置。用户在通过终端的应用程序输入歌词时,在不同分段的起始位置加入字符串“/x/”,服务器接收歌词后,当检测到字符串“/x/”时,确认该字符串为分段类型识别字符串,并根据该字符串解析该段歌词对应的分段信息。具体的,可以设置起始字符串为“/A/”的歌词的分段信息为主歌部分,可以设置起始字符串为“/B/”的歌词的分段信息为副歌部分,可以设置起始字符串为“/E/”的歌词的分段信息为桥接部分。
在另一种可选的实施例中,应用程序为不同分段信息的歌词提供不同的输入框,用户根据想要歌词在歌曲中出现的位置,在不同的输入框中输入歌词,服务器根据歌词填写的输入框即可确定歌词的分段信息。
本申请提供的一种可选实施例中,分段包括:副歌部分、主歌部分和桥接部分,其中,桥接部分用于衔接副歌部分和主歌部分。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
实施例2
根据本发明实施例,还提供了一种用于实施上述歌曲的生成方法的歌曲的生成装置,图7是根据本发明实施例2的一种歌曲的生成装置的示意图,如图7所示,该装置700包括:
接收模块70,用于接收录入的歌词和所述歌词对应的分段信息,其中,所述分段信息用于表征所述歌词在待生成歌曲中的位置。
获取模块72,获取所述歌词对应的标签,其中,所述标签用于表征待生成歌曲的属性信息。
生成模块74,用于根据所述歌词的分段信息和所述歌词对应的标签,生成所述歌曲。
此处需要说明的是,上述接收模块70、调用模块72和生成模块74对应于实施例1中的步骤S21至步骤S25,三个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例一所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例一提供的计算机终端10中。
本申请提供的一种可选实施例中,标签包括以下至少之一:用于表征歌词对应的风格的第一标签、用于表征歌词对应的心情的第二标签和用于表征歌词对应的速度的第三标签,获取模块包括:第一接收子模块,用于接收输入的歌词对应的标签;或第二接收子模块,用于接收选择的模板歌曲,获取模板歌曲的标签,并确定模板歌曲的标签为歌词对应标签。
本申请提供的一种可选实施例中,标签还包括:用于表征歌词对应的情感的第四标签,获取模块还包括:提取子模块,用于对歌词进行语义特征提取,确定歌词对应的情感词,其中,情感词用于表征歌词对应的情感;确定模块,用于根据情感词确定第四标签。
本申请提供的一种可选实施例中,歌曲包括:主旋律音频和伴奏音频;生成模块包括:获取子模块,用于获取预设的乐理数据;生成子模块,用于基于乐理数据,对歌词对应的分段信息和歌词对应的标签进行机器学习,分别生成歌曲的主旋律音频和伴奏音频。
本申请提供的一种可选实施例中,生成子模块包括:机器学习单元,用于根据乐理数据,对歌词对应的分段信息和歌词对应的标签进行机器学习,生成歌曲的主旋律;匹配单元,用于根据主旋律的时间线,为歌词中的每个字匹配对应的时间值,得到逐字歌词;生成单元,用于基于主旋律和逐字歌词进行语音合成,生成主旋律音频。
本申请提供的一种可选实施例中,上述装置还包括:录制模块,用于在根据歌词的分段信息和歌词对应的标签,生成歌曲之后,根据歌曲的伴奏音频录制歌曲,录制模块包括:显示子模块,用于在播放伴奏音频的过程中,显示歌词,其中,根据歌词中每个字对应的时间值逐字滚动。
本申请提供的一种可选实施例中,上述装置还包括:获取曲库模块,用于在接收录入的歌词和歌词对应的分段信息之前,获取预设的用于存储模板歌曲的曲库;确定标签模块,用于按照预设周期确定曲库中的模板歌曲对应的任意一个或多个标签。
本申请提供的一种可选实施例中,接收模块包括:第一确定子模块,用于在歌词的预定位置查找歌词的分段标识,并根据分段标识确定歌词的分段信息,其中,分段标识在歌词的预定位置;或第二确定子模块,用于获取输入框的类型,根据输入框的类型确定输入至输入框的歌词的分段信息,其中,输入框用于接收输入的歌词,输入框的类型用于表征输入框中的歌词对应的分段信息。
本申请提供的一种可选实施例中,分段包括:副歌部分、主歌部分和桥接部分,其中,桥接部分用于衔接副歌部分和主歌部分。
实施例3
本发明的实施例可以提供一种歌曲的生成方法的实施例,图8是根据本申请实施例3的一种歌曲的生成方法的流程图,结合图8所示,该方法包括如下步骤:
步骤S81,接收录入的歌词。
具体的,上述录入的歌词可以由用户输入。
在一种可选的实施例中,可以通过终端提供填词界面,来接收用户录入的歌词,填词界面可以如图3所示的一种根据歌词分段进行填词的界面,也可以是其他填词的界面。
步骤S83,对歌词进行语义分析,得到歌词对应的标签,其中,标签用于表征待生成歌曲的属性信息。
具体的,上述标签包括歌曲风格、歌曲速度、歌曲心情和/或歌曲情感标签。歌曲风格可以包括:摇滚、古典、爵士、R&B等风格;歌曲速度可以为具体的速度数据;歌曲心情可以包括:开心、悲伤、愤怒等;歌曲情感标签可以为用于表征歌词情景或情感的关键词,例如:失恋、鼓励、正能量、亲情、寂寞等。语义分析用于通过机器学习方法,挖掘与学习文本、图片等的深层次概念。在上述方案中,通过语义分析的方式,挖掘歌词对应的歌曲风格、歌曲速度、歌曲心情和/或歌曲情感标签。
步骤S85,根据歌词和歌词对应的标签,生成歌曲。
在一种可选的实施例中,通过语义分析得到的是歌词对应的情感标签,在用于生成歌曲的服务器对歌词进行语义分析之前,还接收了用户输入的速度、心情以及风格标签,服务器基于预存的乐理数据,根据歌词对应的速度、心情以及风格表标签,和语义分析得到的情感器进行机器学习,从而生成歌词对应的待生成歌曲。
此处需要说明的是,目前歌曲创作类软件需要用户手动选择标签,但为用户提供的选择较少,且智能化程度较低,尤其在用户的乐理知识不足的情况下,也难以确定歌词应该对应哪种标签,从而使得生成歌曲的难度仍然较高,且生成的歌曲难以满足用户的期望。
而本申请上述实施例通过语义分析的方式从歌词中提取待生成歌曲的属性信息,无需用户手动输入歌曲标签,并根据歌词和歌词的属性信息生成歌曲,从而提高了生成歌曲的智能化程度,并使得生成的歌曲与用户对歌曲的预期更加贴近。
实施例4
本发明的实施例可以提供一种歌曲播放方法的实施例,图9是根据本申请实施例4的一种歌曲播放方法的流程图,结合图9所示,该方法包括如下步骤:
步骤S91,根据接收到的歌词生成歌曲。
具体的,上述步骤S91可以是实施例1或实施例3中任意一种生成歌曲的方法。
步骤S93,根据歌曲的主旋律的时间线,为歌词中的每个字匹配对应的时间值,得到逐字歌词。
具体的,上述主旋律可以为歌曲中的主要曲调,即为需要人为演唱的部分。主旋律具有自身的时间线,该时间线从主旋律开始计时,直至主旋律结束,歌词需要根据主旋律来演唱,因此歌词中的每个字都具有对应的起始时间和结束时间,即上述时间。在上述方案中,通过获取到的主旋律和逐字歌词,即能够确定歌词中每个字的音调和演唱的起始时间,从而能够通过语音合成的方式,生成主旋律音频。
在一种可选的实施例中,以歌词“时间片刻变陈旧”中的“时间”两个字为例,如果“时”在主旋律的时间线中的时间值为[00:15:23],“间”在主旋律的时间线中的时间值为[00:15:59],则“时”字在主旋律开始后的15.23秒后来开始演唱,且演唱的时间为0.36毫秒。
步骤S95,在播放歌曲的过程中,根据歌词中每个字对应的时间值,显示逐字歌词。
上述方法可以应用在播放歌曲的场景。在播放歌曲的过程中,歌词可以随着歌曲的播放,根据歌词中每个字对应的时间值,依次显示,或显示歌词后,歌词根据歌曲的播放依次变色、依次消失等。采用显示逐字歌词的方式,能够更加直接和明显的将歌词中每个字在歌曲中的节奏以及曲调体现出来,从而使用户根据掌握歌词中每个字对应的曲调和节奏。
上述方案还可以应用于录制歌曲的场景。在根据歌曲的音频录制歌曲时,播放歌曲的伴奏音频,拾音设备对演唱者演唱的主旋律进行拾音,从而录制出演唱者演唱的歌曲。在一种可选的实施例中,仍以歌词“时间片刻变陈旧”为例,当进行歌曲的录制时,当主旋律的时间达到[00:13:23]时,在屏幕以及一定透明度显示“时间片刻变陈旧”,以提示演唱者快要演唱该句歌词,当主旋律的时间到达[00:15:23]时,去除“时”字的透明度,以提示演唱者应该演唱“时”,当主旋律的时间到达[00:15:59]时,去除“间”字的透明度,以提示用户“时”字结束,此时应该演唱“间”字。
需要注意的是,如果使用现有技术中的录歌应用程序的方式来录歌,演唱者可能难以找准演唱的节奏,因此为了减小演唱者演唱创作歌曲的难度,上述方案在播放歌曲的过程中,按照歌词中每个字的时间值逐字展示歌词,从而帮助演唱者找准歌词中每个字的起始时间和终止时间,更好的适应歌曲的节奏。
实施例5
本发明的实施例可以提供一种歌曲的生成装置的实施例,图10是根据本申请实施例5的一种歌曲的生成装置的示意图,结合图10所示,该装置100包括:
接收模块102,用于接收录入的歌词。
分析模块104,用于对歌词进行语义分析,得到歌词对应的标签,其中,标签用于表征待生成歌曲的属性信息。
生成模块106,用于根据歌词和歌词对应的标签,生成歌曲。
此处需要说明的是,上述接收模块102、分析模块104和生成模块106对应于实施例3中的步骤S81至步骤S55,三个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例3所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
实施例6
本发明的实施例可以提供一种歌曲播放装置的实施例,图11是根据本申请实施例6的一种歌曲播放装置的示意图,结合图11所示,该装置110包括:
接收模块112,用于根据接收到的歌词生成歌曲。
获取模块114,用于根据所述歌曲的主旋律的时间线,为所述歌词中的每个字匹配对应的时间值,得到所述逐字歌词。
显示模块116,用于在播放所述歌曲的过程中,根据所述歌词中每个字对应的时间值,显示所述逐字歌词。
此处需要说明的是,上述接收模块112、获取模块114和显示模块116对应于实施例4中的步骤S91至步骤S95,三个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例4所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
实施例7
本发明的实施例可以提供一种数据处理方法,图12是根据本申请实施例7的一种歌曲的生成方法的流程图,结合图12所示,该方法包括如下步骤:
步骤S1201,接收文本数据。
具体的,上述文本数据可以为用户按照预定格式输入的文本数据。
步骤S1203,计算文本数据对应的分类数据。
上述分类数据可以用于表征待生成歌曲的属性信息,例如:风格、速度和心情等。
步骤S1205,获取与分类数据对应的音频数据。
具体的,上述音频数据可以包括主旋律音频和伴奏音频。
在一种可选的实施例中,可以通过机器学习的方式,以预存的乐理数据为基础,并按照文本数据和文本数据对应的分类数据,生成主旋律音频,再为生成的主旋律音频匹配对应的伴奏音频。
步骤S1207,生成歌曲数据,其中,歌曲数据的歌词包括文本数据,歌曲数据的曲谱包括音频数据。
在上述步骤S1207中,上述歌曲数据可以为歌曲的乐谱信息,用于展示歌曲的歌词、曲谱以及歌词和曲谱的对应关系。进一步地,还可以根据用户的需求,将音频对应的曲谱显示为简谱、五线谱或六线谱等。
本申请提供的一种可选实施例中,计算文本数据对应的分类数据包括:确定文本数据对应的情感词,其中,情感词用于表征文本数据对应的情感;根据情感词,确定文本数据对应的分类数据。
在一种可选的实施例中,可以通过对文本数据进行语义分析,来确定文本数据对应的情感词。
实施例8
本发明的实施例可以提供一种数据处理方法,图13是根据本申请实施例8的一种数据处理方法的流程图,结合图13所示,该方法包括如下步骤:
步骤S1301,接收文本数据。
具体的,上述文本数据可以为用户按照预定格式输入的文本数据。
步骤S1303,根据文本数据,生成歌曲数据的歌词。
具体的,上述歌曲数据可以为歌曲的乐谱信息。
在一种可选的实施例中,可以对文本数据中的文本进行重新断句,并确定文本数据中文本的分段信息,从而确定文本数据对应的多句歌词,以及文本在歌曲中的位置。
步骤S1305,计算文本数据或歌词对应的分类数据。
上述分类数据可以用于表征待生成歌曲的属性信息,例如:风格、速度和心情等。
步骤S1307,获取与分类数据对应的音频数据,其中,歌曲数据的曲谱包括音频数据。
具体的,上述音频数据可以包括主旋律音频和伴奏音频。
在一种可选的实施例中,可以通过机器学习的方式,以预存的乐理数据为基础,并按照文本数据和文本数据对应的分类数据,生成主旋律音频,再为生成的主旋律音频匹配对应的伴奏音频。
实施例9
本发明的实施例可以提供一种数据处理方法,图14是根据本申请实施例9的一种数据处理方法的流程图,结合图14所示,该方法包括如下步骤:
步骤S1401,接收音频数据。
具体的,上述音频数据可以是乐器演奏的音频数据,也可以是人为哼唱的音频数据。接收到的音频数据可以仅为主旋律音频,也可以是主旋律音频和伴奏音频的组合。接收音频数据的方式可以包括通过终端的拾音设备直接拾取的音频,也可以是通过文件传输的方式接收已录制完成的音频。
步骤S1403,计算音频数据的分类数据。
具体的,上述音频数据对应的分类数据可以用于表征待生成歌曲的属性信息,例如:风格、速度和心情等。可以通过对音频数据进行分析得到分类数据。
步骤S1405,获取与分类数据对应的文本数据。
获取与分类数据对应的文本数据方式可以包括如下两种:
第一种,接收输入的文本数据。具体的,可以是用户通过移动终端输入的文本数据。
第二种,根据音频数据的分类数据生成文本数据。具体的,可以通过机器学习的方式,基于预存的文本库,生成与分类数据对应的文本数据。
步骤S1407,生成歌曲数据,其中,歌曲数据的歌词包括文本数据,歌曲数据的曲谱包括音频数据。
在上述步骤S1407中,上述歌曲数据可以为歌曲的乐谱信息,用于展示歌曲的歌词、曲谱以及歌词和曲谱的对应关系。进一步地,还可以根据用户的需求,将音频对应的曲谱显示为简谱、五线谱或六线谱等。
实施例10
本发明的实施例可以提供一种数据处理装置的实施例,图15是根据本申请实施例10的一种数据处理装置的示意图,结合图15所示,该装置1500包括:
接收模块1502,用于接收文本数据。
计算模块1504,用于计算文本数据对应的分类数据。
获取模块1506,用于获取与分类数据对应的音频数据。
生成模块1508,用于生成歌曲数据,其中,歌曲数据的歌词包括文本数据,歌曲数据的曲谱包括音频数据。
此处需要说明的是,上述接收模块1502、计算模块1504、获取模块1506和生成模块1508对应于实施例7中的步骤S1201至步骤S1207,四个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例7所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
实施例11
本发明的实施例可以提供一种数据处理装置的实施例,图16是根据本申请实施例11的一种数据处理装置的示意图,结合图16所示,该装置1600包括:
接收模块1602,用于接收文本数据。
生成模块1604,用于根据文本数据,生成歌曲数据的歌词。
计算模块1606,用于计算文本数据或歌词对应的分类数据。
获取模块1608,用于获取与分类数据对应的音频数据,其中,歌曲数据的曲谱包括音频数据。
此处需要说明的是,上述接收模块1602、生成模块1604、计算模块1606和获取模块1608对应于实施例8中的步骤S1301至步骤S1307,四个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例8所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
实施例12
本发明的实施例可以提供一种数据处理装置的实施例,图17是根据本申请实施例12的一种数据处理装置的示意图,结合图17所示,该装置1700包括:
接收模块1702,用于接收音频数据。
计算模块1704,用于计算音频数据的分类数据。
获取模块1706,用于获取与分类数据对应的文本数据。
生成模块1708,用于生成歌曲数据,其中,歌曲数据的歌词包括文本数据,歌曲数据的曲谱包括音频数据。
此处需要说明的是,上述接收模块1702、计算模块1704、获取模块1706和生成模块1708对应于实施例9中的步骤S1401至步骤S1407,四个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例9所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
实施例13
本发明的实施例可以提供一种计算机终端,该计算机终端可以是计算机终端群中的任意一个计算机终端设备。可选地,在本实施例中,上述计算机终端也可以替换为移动终端等终端设备。
可选地,在本实施例中,上述计算机终端可以位于计算机网络的多个网络设备中的至少一个网络设备。
在本实施例中,上述计算机终端可以执行应用程序的漏洞检测方法中以下步骤的程序代码:接收录入的歌词和歌词对应的分段信息,其中,分段信息用于表征歌词在待生成歌曲中的位置;获取歌词对应的标签,其中,标签用于表征待生成歌曲的属性信息;根据歌词的分段信息和歌词对应的标签,生成歌曲。
可选地,图12是根据本发明实施例13的一种计算机终端的结构框图。如图18示,该计算机终端A可以包括:一个或多个(图中仅示出一个)处理器1802、存储器1804、以及外设接口1806。
其中,存储器可用于存储软件程序以及模块,如本发明实施例中的安全漏洞检测方法和装置对应的程序指令/模块,处理器通过运行存储在存储器内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的系统漏洞攻击的检测方法。存储器可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至终端A。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:接收录入的歌词和歌词对应的分段信息,其中,分段信息用于表征歌词在待生成歌曲中的位置;获取歌词对应的标签,其中,标签用于表征待生成歌曲的属性信息;根据歌词的分段信息和歌词对应的标签,生成歌曲。
可选的,上述处理器还可以执行如下步骤的程序代码:标签还包括:用于表征歌词对应的情感的第四标签,获取歌词对应的标签的方法还包括:对歌词进行语义特征提取,确定歌词对应的情感词,其中,情感词用于表征歌词对应的情感;根据情感词确定第四标签。
可选的,上述处理器还可以执行如下步骤的程序代码:歌曲包括:主旋律音频和伴奏音频;其中,根据歌词的分段信息和歌词对应的标签,生成歌曲,包括:获取预设的乐理数据;基于乐理数据,对歌词对应的分段信息和歌词对应的标签进行机器学习,分别生成歌曲的主旋律音频和伴奏音频。
可选的,上述处理器还可以执行如下步骤的程序代码:根据乐理数据,对歌词对应的分段信息和歌词对应的标签进行机器学习,生成歌曲的主旋律;根据主旋律的时间线,为歌词中的每个字匹配对应的时间值,得到逐字歌词;基于主旋律和逐字歌词进行语音合成,生成主旋律音频。
可选的,上述处理器还可以执行如下步骤的程序代码:根据歌曲的伴奏音频录制歌曲,在播放伴奏音频的过程中,显示歌词,其中,根据歌词中每个字对应的时间值逐字滚动。
可选的,上述处理器还可以执行如下步骤的程序代码:获取预设的用于存储模板歌曲的曲库;按照预设周期确定曲库中的模板歌曲对应的任意一个或多个标签。
可选的,上述处理器还可以执行如下步骤的程序代码:在歌词的预定位置查找歌词的分段标识,并根据分段标识确定歌词的分段信息,其中,分段标识在歌词的预定位置;或获取输入框的类型,根据输入框的类型确定输入至输入框的歌词的分段信息,其中,输入框用于接收输入的歌词,输入框的类型用于表征输入框中的歌词对应的分段信息。
可选的,上述处理器还可以执行如下步骤的程序代码:副歌部分、主歌部分和桥接部分,其中,桥接部分用于衔接副歌部分和主歌部分。
采用本发明实施例,通过接收录入的歌词和歌词对应的分段信息,其中,分段信息用于表征歌词在待生成歌曲中的位置,获取所述歌词对应的标签,其中,所述标签用于表征待生成歌曲的属性信息,根据所述歌词的分段信息和所述歌词对应的标签,生成所述歌曲,使得在最终生成歌曲中,歌词出现的位置与用户的预期相符。
通过本申请上述实施例所提供的方案,达到了用户输入的歌词出现在歌曲的指定位置的目的,从而提高了最终生成的歌曲与用户创作期望的匹配程度,进而解决了使用现有技术中歌曲生成方法生成的歌曲与用户的期望不匹配的技术问题。
本领域普通技术人员可以理解,图18所示的结构仅为示意,计算机终端也可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌声电脑以及移动互联网设备(MobileInternet Devices,MID)、PAD等终端设备。图18其并不对上述电子装置的结构造成限定。例如,计算机终端A还可包括比图18中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图18所示不同的配置。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(RandomAccess Memory,RAM)、磁盘或光盘等。
实施例14
本发明的实施例还提供了一种存储介质。可选地,在本实施例中,上述存储介质可以用于保存上述实施例一所提供的歌曲的生成方法所执行的程序代码。
可选地,在本实施例中,上述存储介质可以位于计算机网络中计算机终端群中的任意一个计算机终端中,或者位于移动终端群中的任意一个移动终端中。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:接收录入的歌词和歌词对应的分段信息,其中,分段信息用于表征歌词在待生成歌曲中的位置;获取歌词对应的标签,其中,标签用于表征待生成歌曲的属性信息;根据歌词的分段信息和歌词对应的标签,生成歌曲。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (19)

1.一种歌曲的生成方法,其特征在于,包括:
接收录入的歌词和所述歌词对应的分段信息,其中,所述分段信息用于表征所述歌词在待生成歌曲中的位置;
获取所述歌词对应的标签,其中,所述标签用于表征所述待生成歌曲的属性信息;
根据所述歌词的分段信息和所述歌词对应的标签,生成所述歌曲。
2.根据权利要求1所述的方法,其特征在于,所述标签包括以下至少之一:用于表征所述歌词对应的风格的第一标签、用于表征所述歌词对应的心情的第二标签和用于表征所述歌词对应的速度的第三标签,获取所述歌词对应的标签,包括:
接收输入的所述歌词对应的标签;或
接收选择的模板歌曲,获取所述模板歌曲的标签,并确定所述模板歌曲的标签为所述歌词对应标签。
3.根据权利要求2所述的方法,其特征在于,所述标签还包括:用于表征所述歌词对应的情感的第四标签,获取所述歌词对应的标签的方法还包括:
对所述歌词进行语义特征提取,确定所述歌词对应的情感词,其中,所述情感词用于表征所述歌词对应的情感;
根据所述情感词确定所述第四标签。
4.根据权利要求1至3中任意一项所述的方法,其特征在于,所述歌曲包括:主旋律音频和伴奏音频;其中,根据所述歌词的分段信息和所述歌词对应的标签,生成所述歌曲,包括:
获取预设的乐理数据;
基于所述乐理数据,对所述歌词对应的分段信息和所述歌词对应的标签进行机器学习,分别生成所述歌曲的主旋律音频和伴奏音频。
5.根据权利要求4所述的方法,其特征在于,基于所述乐理数据,对所述歌词对应的分段信息和所述歌词对应的标签进行机器学习,生成所述歌曲的主旋律音频,包括:
根据所述乐理数据,对所述歌词对应的分段信息和所述歌词对应的标签进行机器学习,生成所述歌曲的主旋律;
根据所述主旋律的时间线,为所述歌词中的每个字匹配对应的时间值,得到逐字歌词;
基于所述主旋律和所述逐字歌词进行语音合成,生成所述主旋律音频。
6.根据权利要求5所述的方法,其特征在于,在根据所述歌词的分段信息和所述歌词对应的标签,生成所述歌曲之后,所述方法还包括:根据所述歌曲的所述伴奏音频录制所述歌曲,包括:
在播放所述伴奏音频的过程中,显示所述歌词,其中,根据所述歌词中每个字对应的时间值逐字滚动。
7.根据权利要求2所述的方法,其特征在于,在接收录入的歌词和所述歌词对应的分段信息之前,所述方法还包括:
获取预设的用于存储模板歌曲的曲库;
按照预设周期确定所述曲库中的模板歌曲对应的任意一个或多个标签。
8.根据权利要求1所述的方法,其特征在于,接收所述歌词对应的分段信息,包括:
在所述歌词的预定位置查找所述歌词的分段标识,并根据所述分段标识确定所述歌词的分段信息,其中,所述分段标识在所述歌词的预定位置;或
获取输入框的类型,根据所述输入框的类型确定输入至所述输入框的歌词的分段信息,其中,所述输入框用于接收输入的所述歌词,所述输入框的类型用于表征所述输入框中的歌词对应的分段信息。
9.根据权利要求1所述的方法,其特征在于,所述分段包括:副歌部分、主歌部分和桥接部分,其中,所述桥接部分用于衔接所述副歌部分和所述主歌部分。
10.一种歌曲的生成装置,其特征在于,包括:
接收模块,用于接收录入的歌词和所述歌词对应的分段信息,其中,所述分段信息用于表征所述歌词在待生成歌曲中的位置;
获取模块,获取所述歌词对应的标签,其中,所述标签用于表征生成所述待生成歌曲的属性信息;
生成模块,用于根据所述歌词的分段信息和所述歌词对应的标签,生成所述歌曲。
11.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行权利要求1至9中任意一项所述的歌曲的生成方法。
12.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1至9中任意一项所述的歌曲的生成方法。
13.一种歌曲的生成系统,其特征在于,包括:
处理器;以及
存储器,与所述处理器连接,用于为所述处理器提供处理以下处理步骤的指令:
接收录入的歌词和所述歌词对应的分段信息,其中,所述分段信息用于表征所述歌词在待生成歌曲中的位置;
获取所述歌词对应的标签,其中,所述标签用于表征待生成歌曲的属性信息;根据所述歌词的分段信息和所述歌词对应的标签,生成所述歌曲。
14.一种歌曲的生成方法,其特征在于,
接收录入的歌词;
对所述歌词进行语义分析,得到所述歌词对应的标签,其中,所述标签用于表征待生成歌曲的属性信息;
根据所述歌词和所述歌词对应的标签,生成所述歌曲。
15.一种歌曲播放方法,其特征在于,
根据接收到的歌词生成歌曲;
根据所述歌曲的主旋律的时间线,为所述歌词中的每个字匹配对应的时间值,得到逐字歌词;
在播放所述歌曲的过程中,根据所述歌词中每个字对应的时间值,显示所述逐字歌词。
16.一种数据处理方法,其特征在于,包括:
接收文本数据;
计算所述文本数据对应的分类数据;
获取与所述分类数据对应的音频数据;
生成歌曲数据,其中,所述歌曲数据的歌词包括所述文本数据,所述歌曲数据的曲谱包括所述音频数据。
17.根据权利要求16所述的数据处理方法,其特征在于,计算所述文本数据对应的分类数据包括:
确定所述文本数据对应的情感词,其中,所述情感词用于表征所述文本数据对应的情感;
根据所述情感词,确定所述文本数据对应的分类数据。
18.一种数据处理方法,其特征在于,包括:
接收文本数据;
根据所述文本数据,生成歌曲数据的歌词;
计算所述文本数据或所述歌词对应的分类数据;
获取与所述分类数据对应的音频数据,其中,所述歌曲数据的曲谱包括所述音频数据。
19.一种数据处理方法,其特征在于,包括:
接收音频数据;
计算所述音频数据的分类数据;
获取与所述分类数据对应的文本数据;
生成歌曲数据,其中,所述歌曲数据的歌词包括所述文本数据,所述歌曲数据的曲谱包括所述音频数据。
CN201711458094.7A 2017-12-28 2017-12-28 歌曲的生成方法、装置和系统及数据处理和歌曲播放方法 Active CN109979497B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711458094.7A CN109979497B (zh) 2017-12-28 2017-12-28 歌曲的生成方法、装置和系统及数据处理和歌曲播放方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711458094.7A CN109979497B (zh) 2017-12-28 2017-12-28 歌曲的生成方法、装置和系统及数据处理和歌曲播放方法

Publications (2)

Publication Number Publication Date
CN109979497A true CN109979497A (zh) 2019-07-05
CN109979497B CN109979497B (zh) 2021-02-26

Family

ID=67074559

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711458094.7A Active CN109979497B (zh) 2017-12-28 2017-12-28 歌曲的生成方法、装置和系统及数据处理和歌曲播放方法

Country Status (1)

Country Link
CN (1) CN109979497B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110516103A (zh) * 2019-08-02 2019-11-29 平安科技(深圳)有限公司 基于分类器的歌曲节奏生成方法、设备、存储介质及装置
CN110516110A (zh) * 2019-07-22 2019-11-29 平安科技(深圳)有限公司 歌曲生成方法、装置、计算机设备及存储介质
CN111081272A (zh) * 2019-12-16 2020-04-28 腾讯科技(深圳)有限公司 歌曲高潮片段识别方法及装置
CN111326131A (zh) * 2020-03-03 2020-06-23 北京香侬慧语科技有限责任公司 一种歌曲转换方法、装置、设备以及介质
CN111507254A (zh) * 2020-04-16 2020-08-07 北京雷石天地电子技术有限公司 制作逐字歌词的方法、装置、终端和非临时性计算机可读存储介质
CN112309353A (zh) * 2020-10-30 2021-02-02 北京有竹居网络技术有限公司 一种作曲方法、装置、电子设备及存储介质
CN112669811A (zh) * 2020-12-23 2021-04-16 腾讯音乐娱乐科技(深圳)有限公司 一种歌曲处理方法、装置、电子设备及可读存储介质
CN112785993A (zh) * 2021-01-15 2021-05-11 杭州网易云音乐科技有限公司 一种乐曲生成方法、装置、介质和计算设备
CN113010730A (zh) * 2021-03-22 2021-06-22 平安科技(深圳)有限公司 音乐文件生成方法、装置、设备及存储介质
CN113436601A (zh) * 2021-05-27 2021-09-24 北京达佳互联信息技术有限公司 音频合成方法、装置、电子设备及存储介质
CN113486643A (zh) * 2021-07-27 2021-10-08 咪咕音乐有限公司 歌词合成方法、终端设备及可读存储介质
CN113611267A (zh) * 2021-08-17 2021-11-05 网易(杭州)网络有限公司 词曲处理方法、装置、计算机可读存储介质及计算机设备

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102737683A (zh) * 2011-04-01 2012-10-17 腾讯科技(深圳)有限公司 音乐播放器歌词显示的方法和装置
CN103035235A (zh) * 2011-09-30 2013-04-10 西门子公司 一种将语音转换为旋律的方法和装置
JP2014170146A (ja) * 2013-03-05 2014-09-18 Univ Of Tokyo 日本語歌詞からの多重唱の自動作曲方法及び装置
CN104252872A (zh) * 2014-09-23 2014-12-31 深圳市中兴移动通信有限公司 歌词生成方法和智能终端
CN104391980A (zh) * 2014-12-08 2015-03-04 百度在线网络技术(北京)有限公司 生成歌曲的方法和装置
CN105070283A (zh) * 2015-08-27 2015-11-18 百度在线网络技术(北京)有限公司 为歌声语音配乐的方法和装置
CN105513607A (zh) * 2015-11-25 2016-04-20 网易传媒科技(北京)有限公司 一种谱曲作词的方法和装置
CN105740394A (zh) * 2016-01-27 2016-07-06 广州酷狗计算机科技有限公司 歌曲生成方法、终端及服务器
CN106547789A (zh) * 2015-09-22 2017-03-29 阿里巴巴集团控股有限公司 一种歌词生成方法及装置
CN106652984A (zh) * 2016-10-11 2017-05-10 张文铂 一种使用计算机自动创作歌曲的方法
CN106898340A (zh) * 2017-03-30 2017-06-27 腾讯音乐娱乐(深圳)有限公司 一种歌曲的合成方法及终端

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102737683A (zh) * 2011-04-01 2012-10-17 腾讯科技(深圳)有限公司 音乐播放器歌词显示的方法和装置
CN103035235A (zh) * 2011-09-30 2013-04-10 西门子公司 一种将语音转换为旋律的方法和装置
JP2014170146A (ja) * 2013-03-05 2014-09-18 Univ Of Tokyo 日本語歌詞からの多重唱の自動作曲方法及び装置
CN104252872A (zh) * 2014-09-23 2014-12-31 深圳市中兴移动通信有限公司 歌词生成方法和智能终端
CN104391980A (zh) * 2014-12-08 2015-03-04 百度在线网络技术(北京)有限公司 生成歌曲的方法和装置
CN105070283A (zh) * 2015-08-27 2015-11-18 百度在线网络技术(北京)有限公司 为歌声语音配乐的方法和装置
CN106547789A (zh) * 2015-09-22 2017-03-29 阿里巴巴集团控股有限公司 一种歌词生成方法及装置
CN105513607A (zh) * 2015-11-25 2016-04-20 网易传媒科技(北京)有限公司 一种谱曲作词的方法和装置
CN105740394A (zh) * 2016-01-27 2016-07-06 广州酷狗计算机科技有限公司 歌曲生成方法、终端及服务器
CN106652984A (zh) * 2016-10-11 2017-05-10 张文铂 一种使用计算机自动创作歌曲的方法
CN106898340A (zh) * 2017-03-30 2017-06-27 腾讯音乐娱乐(深圳)有限公司 一种歌曲的合成方法及终端

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110516110A (zh) * 2019-07-22 2019-11-29 平安科技(深圳)有限公司 歌曲生成方法、装置、计算机设备及存储介质
WO2021012503A1 (zh) * 2019-07-22 2021-01-28 平安科技(深圳)有限公司 歌曲生成方法、装置、计算机设备及存储介质
CN110516103A (zh) * 2019-08-02 2019-11-29 平安科技(深圳)有限公司 基于分类器的歌曲节奏生成方法、设备、存储介质及装置
CN110516103B (zh) * 2019-08-02 2022-10-14 平安科技(深圳)有限公司 基于分类器的歌曲节奏生成方法、设备、存储介质及装置
CN111081272B (zh) * 2019-12-16 2024-04-05 腾讯科技(深圳)有限公司 歌曲高潮片段识别方法及装置
CN111081272A (zh) * 2019-12-16 2020-04-28 腾讯科技(深圳)有限公司 歌曲高潮片段识别方法及装置
CN111326131A (zh) * 2020-03-03 2020-06-23 北京香侬慧语科技有限责任公司 一种歌曲转换方法、装置、设备以及介质
CN111326131B (zh) * 2020-03-03 2023-06-02 北京香侬慧语科技有限责任公司 一种歌曲转换方法、装置、设备以及介质
CN111507254A (zh) * 2020-04-16 2020-08-07 北京雷石天地电子技术有限公司 制作逐字歌词的方法、装置、终端和非临时性计算机可读存储介质
CN111507254B (zh) * 2020-04-16 2023-10-24 北京雷石天地电子技术有限公司 制作逐字歌词的方法、装置、终端和非临时性计算机可读存储介质
CN112309353A (zh) * 2020-10-30 2021-02-02 北京有竹居网络技术有限公司 一种作曲方法、装置、电子设备及存储介质
CN112669811B (zh) * 2020-12-23 2024-02-23 腾讯音乐娱乐科技(深圳)有限公司 一种歌曲处理方法、装置、电子设备及可读存储介质
CN112669811A (zh) * 2020-12-23 2021-04-16 腾讯音乐娱乐科技(深圳)有限公司 一种歌曲处理方法、装置、电子设备及可读存储介质
CN112785993B (zh) * 2021-01-15 2024-04-12 杭州网易云音乐科技有限公司 一种乐曲生成方法、装置、介质和计算设备
CN112785993A (zh) * 2021-01-15 2021-05-11 杭州网易云音乐科技有限公司 一种乐曲生成方法、装置、介质和计算设备
CN113010730B (zh) * 2021-03-22 2023-07-21 平安科技(深圳)有限公司 音乐文件生成方法、装置、设备及存储介质
CN113010730A (zh) * 2021-03-22 2021-06-22 平安科技(深圳)有限公司 音乐文件生成方法、装置、设备及存储介质
CN113436601A (zh) * 2021-05-27 2021-09-24 北京达佳互联信息技术有限公司 音频合成方法、装置、电子设备及存储介质
CN113486643A (zh) * 2021-07-27 2021-10-08 咪咕音乐有限公司 歌词合成方法、终端设备及可读存储介质
CN113611267A (zh) * 2021-08-17 2021-11-05 网易(杭州)网络有限公司 词曲处理方法、装置、计算机可读存储介质及计算机设备

Also Published As

Publication number Publication date
CN109979497B (zh) 2021-02-26

Similar Documents

Publication Publication Date Title
CN109979497A (zh) 歌曲的生成方法、装置和系统及数据处理和歌曲播放方法
CN108806655B (zh) 歌曲的自动生成
CN108806656B (zh) 歌曲的自动生成
US10998005B2 (en) Method and apparatus for presenting media information, storage medium, and electronic apparatus
JP5068802B2 (ja) メディアのカスタマイズを促進するシステムおよび方法
US11264002B2 (en) Method and system for interactive song generation
US9659572B2 (en) Apparatus, process, and program for combining speech and audio data
CN105513607B (zh) 一种谱曲作词的方法和装置
CN107103915A (zh) 一种音频数据处理方法以及装置
CN108744521A (zh) 游戏语音生成的方法及装置、电子设备、存储介质
CN107122493A (zh) 歌曲播放方法和装置
Roels Comparing the main compositional activities in a study of eight composers
CN111666445A (zh) 一种情景歌词的显示方法、装置及音箱设备
Capetola “Gimme a Beat!” Janet Jackson, Hyperaurality, and Affective Feminism
Macchiusi " Knowing is Seeing:" The Digital Audio Workstation and the Visualization of Sound
CN104036252B (zh) 图像处理方法、图像处理装置和电子设备
CN109327731A (zh) 一种基于卡拉ok的diy视频实时合成方法及系统
KR101124798B1 (ko) 전자 그림책 편집 장치 및 방법
Bayley et al. Creative layers and continuities: A case study of Nicole Lizée and the Kronos Quartet
CN112699269A (zh) 歌词显示方法、装置、电子设备、计算机可读存储介质
Tomé “Music in the Blood”: Performance and Discourse of Musicality in Cuban Ballet Aesthetics
May et al. Biography breaks in the music classroom
CN113535289A (zh) 页面呈现、移动端交互及音频编辑的方法与装置
Halick What can you teach with electronic dance music? A music teacher’s guide to EDM
CN109800323A (zh) 一种声音数据管理方法、系统及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40010738

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20211105

Address after: Room 801, 8th floor, building 9, zone 4, Wangjing Dongyuan, Chaoyang District, Beijing

Patentee after: Beijing Alibaba Music Technology Co.,Ltd.

Address before: A four-storey 847 mailbox in Grand Cayman Capital Building, British Cayman Islands

Patentee before: ALIBABA GROUP HOLDING Ltd.