CN109166564B - 为歌词文本生成乐曲的方法、装置及计算机可读存储介质 - Google Patents
为歌词文本生成乐曲的方法、装置及计算机可读存储介质 Download PDFInfo
- Publication number
- CN109166564B CN109166564B CN201810798036.7A CN201810798036A CN109166564B CN 109166564 B CN109166564 B CN 109166564B CN 201810798036 A CN201810798036 A CN 201810798036A CN 109166564 B CN109166564 B CN 109166564B
- Authority
- CN
- China
- Prior art keywords
- features
- lyric
- text
- melody
- rhythm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/40—Rhythm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/111—Automatic composing, i.e. using predefined musical rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/341—Rhythm pattern selection, synthesis or composition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
- G10H2240/141—Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
本公开揭示了一种为歌词文本生成乐曲的方法、装置及计算机可读存储介质,其中包括:获取歌词文本,所述歌词文本是若干词所顺序构成的序列;对所述歌词文本进行特征提取获得所述序列映射的文本特征;进行所述文本特征与语料库中歌词特征之间的特征匹配,获得所述文本特征对应的歌词特征;通过所训练的随机森林分类器对获得的所述歌词特征进行所述序列中词所对应旋律和节奏的预测,生成适配于所述歌词文本的乐曲数据。通过本公开实现根据歌词文本自动生成该歌词文本对应的乐曲数据,用户无需掌握专业的音乐知识即可实现根据歌词文本进行乐曲创作,从而普通大众可以利用本发明根据歌词文本进行乐曲的自动生成。
Description
技术领域
本公开涉及互联网技术领域,特别涉及一种为歌词文本生成乐曲的方法、装置及计算机可读存储介质。
背景技术
根据歌词进行乐曲创作对专业要求度很高,一般需要运用大量相关的音乐知识比如基本乐理、和声学、复调、配器法、曲式结构等来进行创作。所以通常乐曲的创作都是由具有丰富音乐相关理论知识的人士完成。而对于缺乏音乐理论知识的普通大众来说,根据歌词进行乐曲的创作基本是不可能的。
因此需要一种可以实现根据歌词自动进行乐曲创作的方法,从而可以让普通大众也可以参与到乐曲创作中。
发明内容
本发明的目的在于提供一种可以实现根据歌词自动进行乐曲创作的方法,为了实现该发明目的,本公开提供了一种为歌词文本生成乐曲的方法、装置及计算机可读存储介质。
一种为歌词文本生成乐曲的方法,所述方法包括:
获取歌词文本,所述歌词文本是若干词所顺序构成的序列;
对所述歌词文本进行特征提取获得所述序列映射的文本特征;
进行所述文本特征与语料库中歌词特征之间的特征匹配,获得所述文本特征对应的歌词特征;
通过所训练的随机森林分类器对获得的所述歌词特征进行所述序列中词所对应旋律和节奏的预测,生成适配于所述歌词文本的乐曲数据。
在一示例性实施例中,所述获取歌词文本之前,所述方法还包括:
从样本数据中的歌词样本文本提取歌词特征,从所述样本数据中对应于所述歌词样本文本的乐曲数据提取节奏特征和旋律特征;
由所述歌词特征、节奏特征和旋律特征构建所述语料库;
通过所述歌词特征、节奏特征和旋律特征进行所述随机森林分类器的迭代训练,直至所训练得到的随机森林分类器对已知歌曲文本的旋律和节奏的预测达到指定精度,则停止所述随机森林分类器的迭代训练。
在一示例性实施例中,所述随机森林分类器包括节奏分类器和旋律分类器,所述通过所训练的随机森林分类器对获得的所述歌词特征进行所述序列中词所对应旋律和节奏的预测,生成适配于所述歌词文本的乐曲数据,包括:
通过所述节奏分类器预测得到所述歌词特征对应的节奏特征;
将所述歌词特征和所述节奏特征输入到所述旋律分类器预测得到所述歌词特征对应的旋律特征;
组合所得到的所述节奏特征和所述旋律特征,生成适配于所述歌词文本的乐曲数据。
在一示例性实施例中,所述组合所得到的所述节奏特征和所述旋律特征,生成适配于所述歌词文本的乐曲数据,包括:
通过所得到的所述节奏特征和所述旋律特征,生成所述序列中词对应的音符信息;
组合所述序列中词对应的音符信息,生成所述歌词文本的乐曲数据。
在一示例性实施例中,所述组合所述序列中词对应的音符信息,生成所述歌词文本的乐曲数据,包括:
按照所述序列中词的顺序组合所述序列中词对应的音符信息,生成所述歌词文本对应的音符序列;
根据设定的音符阈值过滤所述音符序列;
通过过滤后的所述音符序列生成所述歌词文本的乐曲数据。
一种为歌词文本生成乐曲的装置,所述装置包括:
获取模块,被配置为执行:获取歌词文本,所述歌词文本是若干词所顺序构成的序列;
文本特征提取模块,被配置为执行:对所述歌词文本进行特征提取获得所述序列映射的文本特征;
特征匹配模块,被配置为执行:进行所述文本特征与语料库中歌词特征之间的特征匹配,获得所述文本特征对应的歌词特征;
乐曲数据生成模块,被配置为执行:通过所训练的随机森林分类器对获得的所述歌词特征进行所述序列中词所对应旋律和节奏的预测,生成适配于所述歌词文本的乐曲数据。
在一示例性实施例中,所述装置还包括:
特征提取模块,被配置为执行:从样本数据中的歌词样本文本提取歌词特征,从所述样本数据中对应于所述歌词样本文本的乐曲数据提取节奏特征和旋律特征;
语料库构建模块,被配置为执行:由所述歌词特征、节奏特征和旋律特征构建所述语料库;
训练模块,被配置为执行:通过所述歌词特征、节奏特征和旋律特征进行所述随机森林分类器的迭代训练,直至所训练得到的随机森林分类器对已知歌曲文本的旋律和节奏的预测达到指定精度,则停止所述随机森林分类器的迭代训练。
在一示例性实施例中,所述随机森林分类器包括节奏分类器和旋律分类器,所述乐曲数据生成模块包括:
节奏特征获得单元,被配置为执行:通过所述节奏分类器预测得到所述歌词特征对应的节奏特征;
旋律特征获得单元,被配置为执行:将所述歌词特征和所述节奏特征输入到所述旋律分类器预测得到所述歌词特征对应的旋律特征;
乐曲数据生成单元,被配置为执行:组合所得到的所述节奏特征和所述旋律特征,生成适配于所述歌词文本的乐曲数据。
在一示例性实施例中,所述乐曲数据生成单元包括:
音符信息生成单元,被配置为执行:通过所得到的所述节奏特征和所述旋律特征,生成所述序列中词对应的音符信息;
音符信息组合单元,被配置为执行:组合所述序列中词对应的音符信息,生成所述歌词文本的乐曲数据。
在一示例性实施例中,所述音符信息组合单元包括:
音符序列生成单元,被配置为执行:按照所述序列中词的顺序组合所述序列中词对应的音符信息,生成所述歌词文本对应的音符序列;
过滤单元,被配置为执行:根据设定的音符阈值过滤所述音符序列;
乐曲数据生成单元,被配置为执行:通过过滤后的所述音符序列生成所述歌词文本的乐曲数据。
一种为歌词文本生成乐曲的装置,所述装置包括:
处理器;以及
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行以上任一项所述的为歌词文本生成乐曲的方法。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以上任一项所述的为歌词文本生成乐曲的方法。
本公开的实施例提供的技术方案可以包括以下有益效果:通过对歌词文本进行特征提取、特征匹配、节奏和旋律预测,实现根据所获取的歌词文本自动生成该歌词文本对应的乐曲数据,用户无需掌握专业的音乐知识即可实现根据歌词文本进行乐曲创作,从而普通大众可以利用本发明根据歌词文本进行乐曲的自动生成。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并于说明书一起用于解释本发明的原理。
图1是根据一示例性实施例示出的本发明所涉及的实施环境示意图
图2是根据一示例性实施例示出的服务器200的框图;
图3是根据一示例性实施例示出的一种为歌词文本生成乐曲的方法的流程图;
图4是图3所示实施例步骤S110之前的步骤在一示例性实施例中的流程图;
图5是图3所示实施例的步骤S170在一示例性实施例中的流程图;
图6是图5所示实施例的步骤S175在一示例性实施例中的流程图;
图7是图6所示实施例的步骤S303在一示例性实施例中的流程图;
图8是根据一示例性实施例示出的一种为歌词文本生成乐曲的装置框图;
图9是根据另一示例性实施例示出的一种为歌词文本生成乐曲的装置框图;
图10是图8所示实施例的乐曲数据生成模块170在一示例性实施例中的框图;
图11是图10所示实施例的乐曲数据生成单元175在一示例性实施例中的框图;
图12是图11所示实施例的音符信息组合单元303在一示例性实施例中的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
图1是根据一示例性实施例示出的本发明所涉及的实施环境示意图。该实施环境为建立网络通信连接的终端100和服务器200,其中服务器200作为本发明为歌词文本生成乐曲的后端实现。
其中终端100可以是台式电脑、笔记本电脑、平板电脑、智能手机或者其他可供为歌词文本生成乐曲的客户端运行以及具备网络连接功能的通信设备,在此不进行限定。
终端100可以发起生成乐曲数据的请求,并提供歌词文本,从而服务器200接收终端100发起的请求,并根据终端100所提供的歌词文本实现为该歌词文本生成乐曲数据,然后将生成乐曲数据输出到终端100,在一种示例性实施例中,服务器200可以是网页服务器,还可以是APP服务器。
图2是根据一示例性实施例示出的一种服务器200的硬件结构框图。具有此硬件结构的服务器可用于为歌词文本生成乐曲数据而部署在图1所示的实施环境中。
需要说明的是,该服务器200只是一个适配于本发明的示例,不能认为是提供了对本发明的使用范围的任何限制。该服务器200也不能解释为需要依赖于或者必须具有图2中示出的示例性的服务器200中的一个或者多个组件。
该服务器的硬件结构可因配置或者性能的不同而产生较大的差异,如图2所示,服务器200包括:电源210、接口230、至少一存储器250、以及至少一处理器(CPU, CentralProcessing Units)270。
其中,电源210用于为服务器200上的各硬件设备提供工作电压。
接口230包括至少一有线或无线网络接口231、至少一串并转换接口233、至少一输入输出接口235以及至少一USB接口237等,用于与外部设备通信。在一示例性实施例中,可以通过无线网络接口与图1实施环境中的终端100通信。
存储器250作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源包括操作系统251、应用程序253及数据255等,存储方式可以是短暂存储或者永久存储。其中,操作系统251用于管理与控制服务器200上的各硬件设备以及应用程序253,以实现处理器270对海量数据255的计算与处理,其可以是Windows ServerTM、Mac OS XTM、UnixTM、LinuxTM、FreeBSDTM等。应用程序253是基于操作系统251之上完成至少一项特定工作的计算机程序,其可以包括至少一模块(图2中未示出),每个模块都可以分别包含有对服务器200的一系列计算机可读指令。数据255可以是存储于磁盘中的照片、图片等。
处理器270可以包括一个或多个以上的处理器,并设置为通过总线与存储器250通信,用于运算与处理存储器250中的海量数据255。
如上面所详细描述的,适用本发明的服务器200将通过处理器270读取存储器250中存储的一系列计算机可读指令的形式来完成为歌词文本生成乐曲。
此外,通过硬件电路或者硬件电路结合软件也能同样实现本发明,因此,实现本发明并不限于任何特定硬件电路、软件以及两者的组合。
图3是根据一示例性实施例示出的为歌词文本生成乐曲的方法的流程图,如图3所示,该实施例的方法包括:
步骤S110,获取歌词文本,歌词文本是若干词所顺序构成的序列。
词是歌词文本中的最小单位,例如“还没好好的感受, 雪花绽放的气候”这一句歌词文本中,歌词文本中的每个字即为该歌词文本的词。当然歌词文本的语言不限,对于中文文本其中的字即为该歌词文本的词,对于英文文本,其中的单词即为该歌词文本的词,在此不进行限定。
在一实施例中,所获取的歌词文本可以是用户在交互界面中输入的文本,从而作为生成乐曲的歌词文本。其中,歌词文本的长度不限,可以是一句文本,也可以是一段文本。在另一实施例中,交互界面还可以展示服务器推荐的歌词文本,用户可以在交互界面上对所推荐的歌词文本进行选择操作,服务器根据用户的选择操作将所选择的歌词文本输入到服务器中。在另一实施例中,服务器还提供歌词文本字数调整选项,从而用户可以在输入文本的基础上,进行文本的字数调整,然后将调整后的文本作为生成乐曲的歌词文本。
步骤S130,对歌词文本进行特征提取获得序列映射的文本特征。
对歌词文本进行特征提取即从歌词文本中获取该歌词文本对应的音节信息,即用文本特征来反映歌词文本的音节信息,其中,歌词文本中每个词对应一个音节。
其中反映歌词文本音节信息的文本特征包括但不仅限于:歌词文本中各词的音节类型、音节数、字频率、字罕见度。其中,音节类型是指歌词中该词对应音节的分类,可以是:单音节、起始音节、中央音节、结束音节等。音节数是指音节的数量,字频率是指在该歌词文本中某字出现的频率;字罕见度是在字频率的函数,其中:
歌词文本唯一对应文本特征,即所提取的文本特征为序列映射的文本特征,从而可以通过该文本特征所反映的音节信息来描述该歌词文本。
在一示例性实施例中,可以通过python编程的方式进行文本特征的提取,在预先编写的程序中设定提取歌词文本中各词的音节类型、字频率、以及字罕见度等文本特征的方法。例如,提取字频率的方法包括:先统计所获取的歌词文本的总字数,然后统计每个字在该歌词文本中出现的次数,某字出现的字频率为某字出现的次数/歌词文本的总字数。比如“你”字在一总字数为N的歌词文本中出现的次数为n1,然后根据公式:“你”在该歌词文本中出现的字频率=n1/N;然后将计算得到的字频率输出,从而可以得到该字的字频率。当然,本示例仅仅是一种字频率提取的示例性实施例,并不能认为是对本发明的使用的限制。在其他实施例中,其他可以进行文本特征提取的技术和方法仍然适用于本发明,例如深度神经网络进行文本特征提取,在此不进行限制。
步骤S150,进行文本特征与语料库中歌词特征之间的特征匹配,获得文本特征对应的歌词特征。
语料库由若干首歌曲的音乐文件组成,其中音乐文件中包括了针对每首歌曲所提取的歌词特征、节奏特征和旋律特征。在一种实施例中,音乐文件在语料库以XML格式存在。值得说明的是,在进行文本特征匹配前,已经构建了该语料库。具体语料库的构建详见下文描述。
通过将文本特征与语料库中的歌词特征进行匹配,从而可以从语料库中匹配到与该文本特征相似的歌词特征,即文本特征对应的歌词特征。从而在后续的步骤,根据所匹配到的歌词特征进行节奏和旋律的预测。
以所提取的文本特征为音节类型、音节数、字频率、字罕见度为例,则所进行的文本特征与语料库中的歌词特征的匹配包括音节类型的匹配、音节数的匹配、字频率的匹配、以及字罕见度的匹配,从而通过匹配,可以从语料库中获得与该歌词文本的音节类型、音节数、字频率、字罕见度这些特征相似的歌词特征。
步骤S170,通过所训练的随机森林分类器对获得的歌词特征进行序列中词所对应旋律和节奏的预测,生成适配于歌词文本的乐曲数据。
根据上文提到的,由于语料库中存储了若干歌曲对应乐曲的节奏特征和旋律特征、以及歌曲对应歌词的歌词特征。
乐曲中音符的时长组合成了该乐曲的节奏。节奏特征用于反映音符的时长信息,比如音的起始、时值等。其中节奏特征可以包括:拍子记号、偏移量、测量偏移量、时值等。拍子记号是指歌词所对应乐曲中音符的拍子记号;偏移量是指音乐开始之前的节拍数量;测量偏移量是指开始测量音乐之前的节拍数量;时值是指乐曲中某字对应音符的时长。
乐曲中各个音符的音级组合成了该乐曲的旋律。旋律特征用于反映音符的音级信息。其中旋律特征可以包括:音调符号、音级、临时记号、弱拍等。其中音调符号是指歌词中某词对应音符的音调符号;音级是指歌词中某词对应音符的音级,临时记号是指直接放在音符前的变音记号;弱拍是指不带强音的单位拍。
歌词特征可以包括:歌词文本中各词的音节类型、音节数、字频率、字罕见度。
值得说明的是,以上所列举的节奏特征、旋律特征仅仅是适配于本发明的举例,不能认为是对本发明的使用的限制。在其他实施例中,节奏特征、旋律特征还可以包括除以上列举的特征外的特征,或者以上列举的某些特征与其他未列举特征的组合。
对应于每首歌曲,由于歌曲的歌词和乐曲是相对应的,从而语料库中的歌词特征是与节奏特征、旋律特征相对应的。从而可以在对歌词文本的文本特征与语料库中的歌词特征进行匹配的基础上,根据所获得文本特征对应的歌词特征进行对应旋律和节奏的预测。
其中,进行节奏和旋律的预测,即通过文本特征对应的歌词特征进行节奏特征和旋律特征的预测,然后根据所预测得到的节奏特征和旋律特征生成节奏和旋律,进而生成乐曲数据。
随机森林分类器是通过特征所构建的多个决策树组合而成,其中各个特征构成了决策树的节点。从而随机森林分类器可以非线性地把各个特征结合起来,而且不需要大量的样本数据来训练随机森林分类器,从而可以在保证所生成乐曲质量的基础上不需要大量的样本数据训练随机森林分类器。
在进行旋律和节奏的预测时,是根据随机森林分类器的各个节点处的特征来进行预测。以通过歌词特征进行节奏的预测为例,即随机森林分类器的输入是歌词特征,输出为节奏特征,那么在构建和训练随机森林分类器时,根据语料库中的歌词特征构建了该预测节奏的随机森林分类器,即语料库中的歌词特征确定了该随机森林分类器的各个节点出的特征以及判断条件,例如,把音节数、音节类型、字频率、字罕见度从上至下设置在随机森林分类器决策树的节点上然后根据各个节点上的判断条件,例如在音节数的这一节点上判断条件:如果音节数≤3,输出对应的时值;如果音节数>3,根据音节类型判断输出的某一时值。同理,音节类型、字频率、子罕见度上也有相应的判断条件和基于不同条件对应的输出,从而可以基于歌词特征输出时值,当然,其他的节奏特征可以通过类似的决策树预测得到。从而可以通过文本特征对应的歌词特征和随机森林分类器预测得到该歌词特征对应的节奏特征,进而得到该歌词文本对应的节奏。
当然,可以通过类似的方法通过文本特征对应的歌词特征预测得到该歌词特征对应的旋律特征,实现旋律的预测。
然后根据预测得到的节奏特征、旋律特征形成歌词文本对应的节奏和旋律,进而生成歌词文本对应的乐曲数据。在一示例性实施例中,所生成的乐曲数据可以是XML格式的,还可以是MIDI格式的文件。
通过对歌词文本进行特征提取、特征匹配、节奏和旋律预测,实现根据所获取的歌词文本自动生成该歌词文本对应的乐曲数据,无需用户掌握专业的音乐知识即可实现根据歌词文本进行乐曲创作,从而普通大众也可以根据本发明进行乐曲创作。
图4是图3所示实施例步骤S110之前的步骤在一示例性实施例中的流程图,如图4所示,在步骤S110之前,该实施例的方法还包括:
步骤S210,从样本数据中的歌词样本文本提取歌词特征,从样本数据中对应于歌词样本文本的乐曲数据提取节奏特征和旋律特征。
样本数据是为了训练随机森林分类器所收集的若干首歌曲,其中所收集的每首歌曲均包括歌词和乐曲。歌词样本文本即为样本数据中歌曲的歌词。
其中歌词特征用于描述该样本数据的歌词,节奏特征和旋律特征分别用于描述该样本数据的节奏和旋律。或者说,歌词特征体现了歌词样本文本中每个词的音节信息,节奏特征体现了乐曲中音符的时值信息,旋律特征体现了乐曲中音符的音级信息,在每首歌曲中,音节是与音符相对应的,即歌词中的每个词对应一个音符。
为了保证随机森林分类器的预测效果,在一示例性实施例中,所使用的样本数据是单音轨、单乐器的歌曲,从而该样本数据中,歌词的每个词唯一对应一个音符。
在一示例性实施例中,所提取的歌词特征可以包括:音节类型、音节数、字频率、子罕见度等。所提取的节奏特征可以包括:拍子记号、偏移量、测量偏移量、时值等特征。所提取的旋律特征可以包括:音调符号、音级、临时记号、弱拍等。
需要说明的是,以上所示出的歌词特征、节奏特征、旋律特征的具体类别只是一个适配于本发明的示例,不能认为是提供了对本发明的使用范围的任何限制。也不能解释为需要都提取或者只能提取以上示例中具体的歌词特征、节奏特征、旋律特征才能实现本发明。在其他实施例中,可以提取比以上列举的具体类别的歌词特征、节奏特征以及旋律特征更多或者更少的特征来实施本发明。
当然,所提取的歌词特征、节奏特征、旋律特征能够越充分地描述该歌曲歌词以及对应的乐曲,可以更好地提高随机森林分类器的精度,使在根据歌词文本自动生成该歌词文本对应的乐曲数据时的精度更高。
在一示例性实施例中,提取歌词特征、节奏特征、旋律特征的方式可以是通过深度神经网络,通过深度神经网络提取各个特征(歌词特征、节奏特征以及旋律特征)。在另一示例性实施例中,可以通过python编程的方法提取各个具体的歌词特征、节奏特征以及旋律特征。在此不对提取特征的方式进行限定。
步骤S230,由歌词特征、节奏特征和旋律特征构建语料库。
所提取的各种歌词特征、节奏特征以及旋律特征作为随机森林分类器的语料库,从而根据该语料库进行随机森林分类器的训练以及训练完成后进行歌词文本对应的节奏和旋律的预测。当然语料库还可以包括样本数据的歌词样本文本和对应的乐曲数据,在一示例性实施例中,语料库中的各个样本数据可以以XML文件形式存在。
在一示例性实施例中,通过提取24首单音轨、单乐器的流行音乐的歌词特征、节奏特征、旋律特征来构建语料库,该语料库中包括59个特征,并有12358个观测值。其中观测值是指某一具体特征对应的取值,例如,音节类型这一特征,针对该特征的观测值可以是单音节、起始音节、中央音节以及结束音节。
步骤S250,通过歌词特征、节奏特征和旋律特征进行随机森林分类器的迭代训练,直至所训练得到的随机森林分类器对已知歌曲文本的旋律和节奏的预测达到指定精度,则停止随机森林分类器的迭代训练。
在一实施例中,通过将歌词特征输入到随机森林分类器中,根据随机森林分类器中预测得到的针对该歌词特征输出的节奏特征和旋律特征,将输出的节奏特征、旋律特征分别与该歌词特征实际对应的节奏特征、旋律特征进行对比,如果不相同,则调整随机森林分类器的参数,然后将该歌词特征重新输入到参数调整后的随机森林分类器中,判断根据预测结果输出的节奏特征和旋律特征是否与该歌词特征实际对应的节奏特征和旋律特征相同,如果不同,重复上述步骤;如果相同,则利用语料库中的下一组歌词特征进行随机森林分类器的训练。该过程即为随机森林分类器的迭代训练。
训练一段时间后,进行该随机森林分类器的评估,即评估该随机森林分类器的精度。
用若干样本数据的歌词特征、节奏特征、旋律特征训练随机森林分类器后,进行随机森林分类器的评估。评估的过程为:输入一首已有乐曲的歌曲对应的歌词特征,随机森林分类经预测输出对应的节奏特征、旋律特征,将经过随机森林获得的节奏特征、旋律特征与该歌词实际对应乐曲的节奏特征、旋律特征进行对比,从而计算得到随机森林分类器的精度。
在一实施例中,如果是用多首歌曲的歌词特征、节奏特征、旋律特征进行随机森林分类器的评估,将每首歌曲对应计算得到的随机森林分类器的精度求平均值,从而得到该随机森林分类器的精度。
如果计算所得精度达到指定精度,则完成随机森林分类器的训练;如果计算的预测精度未达到指定精度,则继续通过样本数据歌词特征、节奏特征、旋律特征训练随机森林分类器。
值得说明的是,进行随机森林分类器评估所使用的样本数据不同与训练时所使用的样本数据。举例来说,即如果训练随机森林分类器使用了样本数据中的“匆匆那年”这首歌曲对应的歌词特征、节奏特征和旋律特征,那么进行随机森林分类器评估时,就不能使用该首歌曲对应的歌词特征、节奏特征和旋律特征进行该随机森林分类器的评估。
在一示例性实施例中,随机森林分类器包括节奏分类器和旋律分类器,则随机森林分类器的评估可以分别评估节奏分类器和旋律分类器,从而评估后可以分别得到节奏分类器和旋律分类器的精度。
在一示例性实施例中,利用如上所述的24首流行音乐训练随机森林分类器后,旋律分类器的精度能达到72.28%,节奏分类器可以达到86.79%。
图5是图3所示实施例步骤S170在一示例性实施例中的流程图,在该实施例中,随机森林分类器包括节奏分类器和旋律分类器,如图5所示,步骤S170包括:
步骤S171,通过节奏分类器预测得到歌词特征对应的节奏特征。
节奏分类器是通过若干个决策树组合而成的预测节奏特征的模型,在本实施例中,通过歌词特征进行节奏特征的预测,对应的,节奏分类器的决策树各个节点由样本数据的歌词特征构建。
由于在随机森林分类器的语料库中,歌词特征有对应的节奏特征,通过节奏分类器可以预测得到该歌词特征对应的节奏特征,所得到的节奏特征可以是该歌词特征对应的拍子记号、偏移量、测量偏移量、时值等特征及其组合。
步骤S173,将歌词特征和节奏特征输入到旋律分类器预测得到歌词特征对应的旋律特征。
旋律分类器是通过若干个决策树组合而成的预测旋律特征的模型。在本实施例中,通过歌词特征和节奏特征来进行旋律特征的预测,相应的,旋律分类器的决策树各个节点由样本数据的歌词特征和节奏特征构建。
将节奏特征、歌词特征输入到旋律分类器中进行预测得到歌词特征对应的旋律特征,比如音级、弱拍、临时记号等特征或者其组合。
步骤S175,组合所得到的节奏特征和旋律特征,生成适配于歌词文本的乐曲数据。
通过组合所得到的节奏特征和旋律特征,得到了歌词文本中每个词的音节信息所对应的时值以及音高,从而每个词都会对应一个音符,按照歌词文本中词的顺序组合每个词所对应的音符,从而得到所获取的歌词文本的乐曲数据。
在一示例性实施例中,所生成的乐曲数据可以XML格式,还可以以MIDI格式。
需要说明的是,在本实施例中,先通过节奏分类器获得节奏特征,然后再通过旋律分类器获得旋律特征,最后组合节奏特征和旋律特征生成所获取的歌词文本的乐曲数据。该种生成乐曲数据的方式仅仅是步骤S170的一示例性实施例。
在其他实施例中,还可以通过将歌词特征输入到旋律分类器中获得旋律特征,然后将歌词特征和旋律特征输入到节奏分类器中获得节奏特征。相应的,该实施例中的旋律分类器的决策树各个节点由样本数据的歌词特征构建,节奏分类器的决策树各个节点由样本数据的歌词特征和旋律特征构建。最后组合所获得的旋律特征和节奏特征生成所获取的歌词文本对应的乐曲数据。
对于是先获得节奏特征还是旋律特征,在一示例性实施例中,可以根据步骤S250中所得到的随机森林分类器(包括节奏分类器和旋律分类器)的精度来确定,即如果经过训练后,节奏分类器的精度高于旋律分类器,可以先通过节奏分类器预测得到节奏特征然后再通过旋律分类器预测得到旋律特征;如果训练后,节奏分类器的精度低于旋律分类器,那么可以按照先旋律特征后节奏特征的方式生成乐曲数据。从而根据精度较高的分类器预测得到对应的特征可以提高整体预测结果的精度。在其他实施例中,还可以从其他角度决定是先获得节奏特征还是旋律特征。
图6是图5所示实施例的步骤S175在一示例性实施例中的流程图,如图6所示,步骤S175包括:
步骤S301,通过所得到的节奏特征和旋律特征,生成序列中词对应的音符信息。
组合所得到的节奏特征和旋律特征,从而得到歌词文本中的词对应的时值信息和音级信息,从而每个词会得到一个音符,即生成序列中词对应的音符信息。
在一示例性实施例中,在生成序列中词对应的音符信息时,结合已经生成的音符的特征生成后续的音符信息,例如,在生成一个音符信息时,结合前5个音符的特征(比如时值、音高等),从而可以保证每个序列中每个词均生成对应的音符信息。
步骤S303,组合序列中词对应的音符信息,生成歌词文本的乐曲数据。
将歌词文本中词对应的音符信息进行组合,从而得到该歌词文本的乐曲数据。
图7图6所示实施例的步骤S303在一示例性实施例中的流程图,如图7所示,步骤S303包括:
步骤S3031,按照序列中词的顺序组合序列中词对应的音符信息,生成歌词文本对应的音符序列。
歌词文本中的词是顺序构成的序列,在根据节奏特征和旋律特征生成歌词文本中词所对应的音符信息后,将该音符信息按照歌词文本中词的顺序进行组合,得到歌词文本对应的音符序列。
步骤S3033,根据设定的音符阈值过滤音符序列。
其中过滤音符序列是指除去音符序列中的某些音符,其中所设定的音符阈值可以是某一具体的音符,也可以是某一范围内的音符。例如,如果想忽略较短的音符(比如1/16音符),可以将1/16音符设定为阈值,即保留除1/16的音符外的其它音符,从而可以将原音符序列中的1/16音符去掉,保留其他的音符,得到新的音符序列。例如如果想忽略低于1/16音符的音符,从而可以根据设定的音符阈值除去音符序列中低于1/16音符的音符,比如1/32、1/64音符。
在一示例性实施例中,音符阈值可以根据实际需要进行调整,针对不同的歌词文本所设定的音符阈值可以不同,例如在某一段歌词文本中可以将音符阈值设定为1/64音符,从而除去音符序列中的1/64音符,而在另一段歌词文本中通过设定音符阈值过滤掉音符序列中的1/32音符。
步骤S3035,通过过滤后的音符序列生成歌词文本的乐曲数据。
下述为本公开装置实施例,可以用于执行本公开上述服务器200执行的为歌词文本生成乐曲方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开为歌词文本生成乐曲方法实施例。
图8是根据一示例性实施例示出的一种为歌词文本生成乐曲的装置的框图。该为歌词文本生成乐曲的装置可以用于图2所示服务器200中,上文方法实施例示出的为歌词文本生成乐曲的方法的全部或者部分步骤。如图8所示,该装置包括但不限于:获取模块110、文本特征提取模块130、特征匹配模块150以及乐曲数据生成模块170,其中:
获取模块110,被配置为执行:获取歌词文本,歌词文本是若干词所顺序构成的序列。
文本特征提取模块130,该模块与获取模块110连接,被配置为执行:对歌词文本进行特征提取获得序列映射的文本特征。
特征匹配模块150,该模块与文本特征提取模块130连接,被配置为执行:进行文本特征与语料库中歌词特征之间的特征匹配,获得文本特征对应的歌词特征。
乐曲数据生成模块170,该模块与特征匹配模块150连接,被配置为执行:通过所训练的随机森林分类器对获得的歌词特征进行序列中词所对应旋律和节奏的预测,生成适配于歌词文本的乐曲数据。
上述装置中各个模块的功能和作用的实现过程具体详见上述为歌词文本生成乐曲的方法中对应步骤的实现过程,在此不再赘述。
图9是根据另一示例性实施例示出的一种为歌词文本生成乐曲装置的框图。如图9所示,该实施例中的装置除了包括图8所示实施例中的获取模块110、文本特征提取模块130、特征匹配模块150、乐曲数据生成模块170外,还包括:
特征提取模块310,被配置为执行:从样本数据中的歌词样本文本提取歌词特征,从所述样本数据中对应于所述歌词样本文本的乐曲数据提取节奏特征和旋律特征。
语料库构建模块330,该模块与特征提取模块310连接,被配置为执行:由所述歌词特征、节奏特征和旋律特征构建所述语料库。
训练模块350,该模块与语料库构建模块330连接,被配置为执行:通过歌词特征、节奏特征和旋律特征进行随机森林分类器的迭代训练,直至所训练得到的随机森林分类器对已知歌曲文本的旋律和节奏的预测达到指定精度,则停止所述随机森林分类器的迭代训练。
上述装置中各个模块的功能和作用的实现过程具体详见上述为歌词文本生成乐曲的方法中对应步骤的实现过程,在此不再赘述。
图10是图8所示实施例的乐曲数据生成模块170在一示例性实施例中的框图。在该实施例中,随机森林分类器包括节奏分类器和旋律分类器,如图10所示,乐曲数据生成模块170包括:
节奏特征获得单元171,被配置为执行:通过节奏分类器预测得到歌词特征对应的节奏特征。
旋律特征获得单元173,该单元与节奏特征获得单元171连接,被配置为执行:将歌词特征和节奏特征输入到旋律分类器预测得到歌词特征对应的旋律特征。
乐曲数据生成单元175,该单元与旋律特征获得单元连接173连接,被配置为执行:组合所得到的节奏特征和旋律特征,生成适配于歌词文本的乐曲数据。
上述装置中各个模块的功能和作用的实现过程具体详见上述为歌词文本生成乐曲的方法中对应步骤的实现过程,在此不再赘述。
图11是图10所示实施例的乐曲数据生成单元175在一示例性实施例中的框图,在该实施例中,如图11所示,乐曲数据生成单元175包括:
音符信息生成单元301,被配置为执行:通过所得到的节奏特征和旋律特征,生成序列中词对应的音符信息。
音符信息组合单元303,该单元与音符信息生成单元301连接,被配置为执行:组合序列中词对应的音符信息,生成歌词文本的乐曲数据。
上述装置中各个模块的功能和作用的实现过程具体详见上述为歌词文本生成乐曲的方法中对应步骤的实现过程,在此不再赘述。
图12是图11所示实施例的音符信息组合单元303在一示例性实施例中的框图,在该实施例中,如图12所示,音符信息组合单元303包括:
音符序列生成单元3031,被配置为执行:按照序列中词的顺序组合序列中词对应的音符信息,生成歌词文本对应的音符序列。
过滤单元3033,该单元与音符序列生成单元3031连接,被配置为执行:根据设定的音符阈值过滤音符序列。
乐曲数据生成单元3035,该单元与过滤单元3033连接,被配置为执行:通过过滤后的音符序列生成歌词文本的乐曲数据。
上述装置中各个模块的功能和作用的实现过程具体详见上述为歌词文本生成乐曲的方法中对应步骤的实现过程,在此不再赘述。
图8至图12所示实施例中的各模块或单元也可以是功能模块,用于执行上述为歌词文本生成乐曲的方法中的对应步骤。可以理解,这些模块或单元可以通过硬件、软件、或二者结合来实现。当以硬件方式实现时,这些模块或单元可以实施为一个或多个硬件模块,例如一个或多个专用集成电路。当以软件方式实现时,这些模块或单元可以实施为在一个或多个处理器上执行的一个或多个计算机程序,例如图2的处理器270所执行的存储在存储器250中的程序。
可选的,本公开还提供一种为歌词文本生成乐曲的装置,该装置可以用于图2所述的服务器200,该装置包括:
处理器;以及
用于存储处理器可执行指令的存储器。
其中,处理器被配置为执行图3至图7任一所示实施例的为歌词文本生成乐曲的方法。
该实施例中的装置的处理器执行操作的具体方式已经在有关该为歌词文本生成乐曲的方法的实施例中执行了详细描述,此处将不做详细阐述说明。
在示例性实施例中,本公开还提供了一种计算机可读存储介质,例如可以为包括指令的临时性和非临时性计算机可读存储介质。该计算机可读存储介质可以是存储有计算机程序的存储器250,该计算机程序可由服务器200的处理器270执行以完成上述为歌词文本生成乐曲的方法。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围执行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
Claims (8)
1.一种为歌词文本生成乐曲的方法,其特征在于,所述方法包括:
从样本数据中的歌词样本文本提取歌词特征,从所述样本数据中对应于所述歌词样本文本的乐曲数据提取节奏特征和旋律特征,所述歌词特征体现了所述歌词样本文本中每个词的音节信息,所述节奏特征体现乐曲中音符的时值信息,所述旋律特征体现所述乐曲中音符的音级信息;
由所述歌词特征、节奏特征和旋律特征构建语料库;
通过所述歌词特征、节奏特征和旋律特征进行随机森林分类器的迭代训练,直至所训练得到的随机森林分类器对已知歌曲文本的旋律和节奏的预测达到指定精度;
获取歌词文本,所述歌词文本是若干词所顺序构成的序列;
对所述歌词文本进行特征提取获得所述序列映射的文本特征,所述文本特征反映所述歌词文本的音节信息;
进行所述文本特征与语料库中歌词特征之间的特征匹配,获得所述文本特征对应的歌词特征;
通过所述所训练得到的随机森林分类器对获得的所述歌词特征进行所述序列中词所对应旋律和节奏的预测,生成适配于所述歌词文本的乐曲数据。
2.根据权利要求1所述的方法,其特征在于,所述随机森林分类器包括节奏分类器和旋律分类器,所述通过所训练的随机森林分类器对获得的所述歌词特征进行所述序列中词所对应旋律和节奏的预测,生成适配于所述歌词文本的乐曲数据,包括:
通过所述节奏分类器预测得到所述歌词特征对应的节奏特征;
将所述歌词特征和所述节奏特征输入到所述旋律分类器预测得到所述歌词特征对应的旋律特征;
组合所得到的所述节奏特征和所述旋律特征,生成适配于所述歌词文本的乐曲数据。
3.根据权利要求2所述的方法,其特征在于,所述组合所得到的所述节奏特征和所述旋律特征,生成适配于所述歌词文本的乐曲数据,包括:
通过所得到的所述节奏特征和所述旋律特征,生成所述序列中词对应的音符信息;
组合所述序列中词对应的音符信息,生成所述歌词文本的乐曲数据。
4.根据权利要求3所述的方法,其特征在于,所述组合所述序列中词对应的音符信息,生成所述歌词文本的乐曲数据,包括:
按照所述序列中词的顺序组合所述序列中词对应的音符信息,生成所述歌词文本对应的音符序列;
根据设定的音符阈值过滤所述音符序列;
通过过滤后的所述音符序列生成所述歌词文本的乐曲数据。
5.一种为歌词文本生成乐曲的装置,其特征在于,所述装置包括:
特征提取模块,被配置为执行:从样本数据中的歌词样本文本提取歌词特征,从所述样本数据中对应于所述歌词样本文本的乐曲数据提取节奏特征和旋律特征,所述歌词特征体现了所述歌词样本文本中每个词的音节信息,所述节奏特征体现乐曲中音符的时值信息,所述旋律特征体现所述乐曲中音符的音级信息;
语料库构建模块,被配置为执行:由所述歌词特征、节奏特征和旋律特征构建语料库;
训练模块,被配置为执行:通过所述歌词特征、节奏特征和旋律特征进行随机森林分类器的迭代训练,直至所训练得到的随机森林分类器对已知歌曲文本的旋律和节奏的预测达到指定精度;
获取模块,被配置为执行:获取歌词文本,所述歌词文本是若干词所顺序构成的序列;
文本特征提取模块,被配置为执行:对所述歌词文本进行特征提取获得所述序列映射的文本特征,所述文本特征反映所述歌词文本的音节信息;
特征匹配模块,被配置为执行:进行所述文本特征与语料库中歌词特征之间的特征匹配,获得所述文本特征对应的歌词特征;
乐曲数据生成模块,被配置为执行:通过所述所训练得到的随机森林分类器对获得的所述歌词特征进行所述序列中词所对应旋律和节奏的预测,生成适配于所述歌词文本的乐曲数据。
6.根据权利要求5所述的装置,其特征在于,所述随机森林分类器包括节奏分类器和旋律分类器,所述乐曲数据生成模块包括:
节奏特征获得单元,被配置为执行:通过所述节奏分类器预测得到所述歌词特征对应的节奏特征;
旋律特征获得单元,被配置为执行:将所述歌词特征和所述节奏特征输入到所述旋律分类器预测得到所述歌词特征对应的旋律特征;
乐曲数据生成单元,被配置为执行:组合所得到的所述节奏特征和所述旋律特征,生成适配于所述歌词文本的乐曲数据。
7.一种为歌词文本生成乐曲的装置,其特征在于,所述装置包括:
处理器;以及
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行权利要求1至4中任一项所述的为歌词文本生成乐曲的方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至4中任一项所述的为歌词文本生成乐曲的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810798036.7A CN109166564B (zh) | 2018-07-19 | 2018-07-19 | 为歌词文本生成乐曲的方法、装置及计算机可读存储介质 |
PCT/CN2018/106267 WO2020015153A1 (zh) | 2018-07-19 | 2018-09-18 | 为歌词文本生成乐曲的方法、装置及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810798036.7A CN109166564B (zh) | 2018-07-19 | 2018-07-19 | 为歌词文本生成乐曲的方法、装置及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109166564A CN109166564A (zh) | 2019-01-08 |
CN109166564B true CN109166564B (zh) | 2023-06-06 |
Family
ID=64897874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810798036.7A Active CN109166564B (zh) | 2018-07-19 | 2018-07-19 | 为歌词文本生成乐曲的方法、装置及计算机可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109166564B (zh) |
WO (1) | WO2020015153A1 (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109815493B (zh) * | 2019-01-09 | 2020-10-27 | 厦门大学 | 一种智能嘻哈音乐歌词生成的建模方法 |
CN109584905B (zh) * | 2019-01-22 | 2021-09-28 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种衡量音乐速度的方法、终端及计算机可读介质 |
CN109920397B (zh) * | 2019-01-31 | 2021-06-01 | 李奕君 | 一种物理学中音频函数制作系统及制作方法 |
CN110148115A (zh) * | 2019-04-04 | 2019-08-20 | 中国科学院深圳先进技术研究院 | 一种癌转移预测影像特征的筛选方法、装置和存储介质 |
CN110222226B (zh) * | 2019-04-17 | 2024-03-12 | 平安科技(深圳)有限公司 | 基于神经网络的以词生成节奏的方法、装置及存储介质 |
CN110516110B (zh) * | 2019-07-22 | 2023-06-23 | 平安科技(深圳)有限公司 | 歌曲生成方法、装置、计算机设备及存储介质 |
CN110517656B (zh) * | 2019-08-02 | 2024-04-26 | 平安科技(深圳)有限公司 | 歌词节奏生成方法、设备、存储介质及装置 |
CN110516103B (zh) * | 2019-08-02 | 2022-10-14 | 平安科技(深圳)有限公司 | 基于分类器的歌曲节奏生成方法、设备、存储介质及装置 |
CN111339350B (zh) * | 2020-03-27 | 2023-11-28 | 腾讯音乐娱乐科技(深圳)有限公司 | 数据处理方法、装置、存储介质及电子设备 |
CN111754962B (zh) * | 2020-05-06 | 2023-08-22 | 华南理工大学 | 基于升降采样的民歌智能辅助作曲系统及方法 |
CN112309435A (zh) * | 2020-10-30 | 2021-02-02 | 北京有竹居网络技术有限公司 | 一种主旋律的生成方法、装置、电子设备及存储介质 |
CN112309353A (zh) * | 2020-10-30 | 2021-02-02 | 北京有竹居网络技术有限公司 | 一种作曲方法、装置、电子设备及存储介质 |
CN112489606B (zh) * | 2020-11-26 | 2022-09-27 | 北京有竹居网络技术有限公司 | 旋律生成方法、装置、可读介质及电子设备 |
CN113066456B (zh) * | 2021-03-17 | 2023-09-29 | 平安科技(深圳)有限公司 | 基于柏林噪声的旋律生成方法、装置、设备及存储介质 |
CN113035161A (zh) * | 2021-03-17 | 2021-06-25 | 平安科技(深圳)有限公司 | 基于和弦的歌曲旋律生成方法、装置、设备及存储介质 |
CN112951187B (zh) * | 2021-03-24 | 2023-11-03 | 平安科技(深圳)有限公司 | 梵呗音乐生成方法、装置、设备及存储介质 |
CN113920968A (zh) * | 2021-10-09 | 2022-01-11 | 北京灵动音科技有限公司 | 信息处理方法、装置、电子设备及存储介质 |
CN116645957B (zh) * | 2023-07-27 | 2023-10-03 | 腾讯科技(深圳)有限公司 | 乐曲生成方法、装置、终端、存储介质及程序产品 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3309766B2 (ja) * | 1996-05-27 | 2002-07-29 | ヤマハ株式会社 | 自動メロディ生成装置および記録媒体 |
JP3932258B2 (ja) * | 2002-01-09 | 2007-06-20 | 株式会社ナカムラ | 緊急脱出用梯子 |
US9620092B2 (en) * | 2012-12-21 | 2017-04-11 | The Hong Kong University Of Science And Technology | Composition using correlation between melody and lyrics |
JP2017532608A (ja) * | 2014-08-22 | 2017-11-02 | ザイア インクZya,Inc. | テキストメッセージを音楽組成物に自動的に変換するシステム及び方法 |
CN104391980B (zh) * | 2014-12-08 | 2019-03-08 | 百度在线网络技术(北京)有限公司 | 生成歌曲的方法和装置 |
CN105513607B (zh) * | 2015-11-25 | 2019-05-17 | 网易传媒科技(北京)有限公司 | 一种谱曲作词的方法和装置 |
CN106652984B (zh) * | 2016-10-11 | 2020-06-02 | 张文铂 | 一种使用计算机自动创作歌曲的方法 |
CN106652997B (zh) * | 2016-12-29 | 2020-07-28 | 腾讯音乐娱乐(深圳)有限公司 | 一种音频合成的方法及终端 |
CN108268530B (zh) * | 2016-12-30 | 2022-04-29 | 阿里巴巴集团控股有限公司 | 一种歌词的配乐生成方法和相关装置 |
CN106991993A (zh) * | 2017-05-27 | 2017-07-28 | 佳木斯大学 | 一种具有作曲功能的移动通信终端及其作曲方法 |
-
2018
- 2018-07-19 CN CN201810798036.7A patent/CN109166564B/zh active Active
- 2018-09-18 WO PCT/CN2018/106267 patent/WO2020015153A1/zh active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2020015153A1 (zh) | 2020-01-23 |
CN109166564A (zh) | 2019-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109166564B (zh) | 为歌词文本生成乐曲的方法、装置及计算机可读存储介质 | |
Hadjeres et al. | Deepbach: a steerable model for bach chorales generation | |
CN107123415B (zh) | 一种自动编曲方法及系统 | |
CN106157979B (zh) | 一种获取人声音高数据的方法和装置 | |
Koduri et al. | Rāga recognition based on pitch distribution methods | |
Gulati et al. | Automatic tonic identification in Indian art music: approaches and evaluation | |
CN109920449B (zh) | 节拍分析方法、音频处理方法及装置、设备、介质 | |
CN111081272A (zh) | 歌曲高潮片段识别方法及装置 | |
Tsunoo et al. | Beyond timbral statistics: Improving music classification using percussive patterns and bass lines | |
EP3929921A1 (en) | Melody detection method for audio signal, device, and electronic apparatus | |
CN109346045B (zh) | 基于长短时神经网络的多声部音乐生成方法及装置 | |
US20230402026A1 (en) | Audio processing method and apparatus, and device and medium | |
Schulze et al. | Music generation with Markov models | |
CN109346043B (zh) | 一种基于生成对抗网络的音乐生成方法及装置 | |
CN110164460A (zh) | 歌唱合成方法和装置 | |
Volk et al. | Towards modelling variation in music as foundation for similarity | |
Su et al. | Sparse modeling of magnitude and phase-derived spectra for playing technique classification | |
WO2023040332A1 (zh) | 一种曲谱生成方法、电子设备及可读存储介质 | |
Colombo et al. | Bachprop: Learning to compose music in multiple styles | |
Mathias et al. | Context and meter enhance long-range planning in music performance | |
CN109841202B (zh) | 基于语音合成的节奏生成方法、装置及终端设备 | |
Yang | Computational modelling and analysis of vibrato and portamento in expressive music performance | |
CN113096689A (zh) | 一种歌曲演唱的评价方法、设备及介质 | |
Chordia | Automatic raag classification of pitch-tracked performances using pitch-class and pitch-class dyad distributions | |
CN110111813B (zh) | 节奏检测的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |