CN109448684B - 一种智能编曲方法和系统 - Google Patents

一种智能编曲方法和系统 Download PDF

Info

Publication number
CN109448684B
CN109448684B CN201811340737.2A CN201811340737A CN109448684B CN 109448684 B CN109448684 B CN 109448684B CN 201811340737 A CN201811340737 A CN 201811340737A CN 109448684 B CN109448684 B CN 109448684B
Authority
CN
China
Prior art keywords
music
determining
information
musical composition
basic information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811340737.2A
Other languages
English (en)
Other versions
CN109448684A (zh
Inventor
李甫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Kelast Network Technology Co ltd
Original Assignee
Hefei Kelast Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei Kelast Network Technology Co ltd filed Critical Hefei Kelast Network Technology Co ltd
Priority to CN201811340737.2A priority Critical patent/CN109448684B/zh
Publication of CN109448684A publication Critical patent/CN109448684A/zh
Application granted granted Critical
Publication of CN109448684B publication Critical patent/CN109448684B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/125Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

本发明实施例公开了一种智能编曲方法的系统,其中,所述方法包括:解析当前用户提供的进行编曲的基础信息,其中,基础信息至少包括用于确定待编写乐曲的旋律的第一基础信息、用于确定待编写乐曲的起始音节的第二基础信息和用于确定为待编写乐曲填曲所需长度范围的第三基础信息中的一项或多项;根据基础信息,通过预设的训练模型进行曲段编写,生成相应的两个或两个以上的曲段,并对两个或两个以上的曲段进行组合以生成相应的组合曲段;根据组合曲段,通过预设的训练模型进行乐曲编写,生成符合待编写乐曲填曲所需长度范围的乐曲。本发明的方案,简化了现有专业且繁琐的编曲过程,提高了用户体验度。

Description

一种智能编曲方法和系统
技术领域
本发明涉及计算机技术领域,具体涉及一种智能编曲方法和系统。
背景技术
随着经济的发展,人们的生活水平越来越好,也可以有更多的消费资金,以用于欣赏高雅音乐,或者是流行音乐。但是,编曲的过程还是小众且学音乐出身的专业人士才能够进行创作的。
这样,人们对欣赏音乐有更多的需求,但是能够进行编曲创作的人群是小众人群,且这些音乐创作人还会有灵感枯竭的时候,例如,年轻的时候,灵感比较好,创作的歌曲比较多,随着年纪的增长,创作灵感逐渐枯竭,有些音乐创作人很有可能三到五年都没有什么新歌,脍炙人口,且流传于市面的乐曲可能就是那么几首歌曲,人们反复传唱。
此外,有些音乐创作人会引用别人已有的部分乐曲,这样,会引起有一些乐曲很相似,不同乐曲的旋律和曲调往往是相似的,或者是一样的,用户体验度会降低。
此外,不同音乐创作人会有自己熟悉风格的音乐,例如,一些音乐创作人擅长创作抒情怀旧乐曲,而一些音乐创作人擅长创作摇滚乐曲;这样,不同音乐创作人受限于各自不同的成长经历,以及不同的音乐教育背景,创作的歌曲的领域往往是不同的,这也就造成了各个不同风格的音乐领域,往往高产的音乐创作人就那么几个,由他们创作的乐曲也是有限的,且他们创作乐曲的过程是极其繁琐的过程,需要不断地调音,试音,往往创作出一首近乎完美的歌曲需要耗费大量的人力、物力和时间。
因此,如何简化现有专业且繁琐的编曲过程,是待解决的技术问题。
发明内容
本发明实施例的目的在于提供一种智能编曲方法和系统,用以解决现有编曲过程中存在的过于专业且繁琐的问题。
为实现上述目的,本发明实施例提供一种智能编曲方法,所述方法包括:解析当前用户提供的进行编曲的基础信息,其中,所述基础信息至少包括用于确定待编写乐曲的旋律的第一基础信息、用于确定所述待编写乐曲的起始音节的第二基础信息和用于确定为所述待编写乐曲填曲所需长度范围的第三基础信息中的一项或多项;根据所述基础信息,通过预设的训练模型进行曲段编写,生成相应的两个或两个以上的曲段,并对两个或两个以上的曲段进行组合以生成相应的组合曲段;根据所述组合曲段,通过所述预设的训练模型进行乐曲编写,生成符合所述待编写乐曲填曲所需长度范围的乐曲。
可选地,所述预设的训练模型包括至少一项用于确定所述乐曲的各项所述基础信息的基础结构层。
可选地,所述基础结构层至少包括以下一项:用于确定所述乐曲的曲调信息的第一基础结构层、用于确定所述乐曲的渐弱信息和/渐强信息的第二基础结构层、用于确定所述乐曲的第一和弦信息的第三基础结构层、用于确定所述乐曲的鼓点和/鼓声信息的第四基础结构层、用于确定所述乐曲的旋律信息的第五基础结构层。
可选地,所述预设的训练模型还包括至少一项用于确定所述乐曲的附加信息的附加结构层。
可选地,所述附加结构层至少包括以下一项:用于确定所述乐曲的长度规模信息的第一附加结构层、用于确定所述乐曲的第二和弦信息的第二附加结构层、用于确定所述乐曲的节奏信息的第三附加结构层。
可选地,所述方法还包括:根据深度学习的LSTM模型构建所述预设的训练模型。
与上述方法相匹配,本发明另一方面提供一种智能编曲系统,所述系统包括:解析单元,解析当前用户提供的进行编曲的基础信息,其中,所述基础信息至少包括用于确定待编写乐曲的旋律的第一基础信息、用于确定所述待编写乐曲的起始音节的第二基础信息和用于确定为所述待编写乐曲填曲所需长度范围的第三基础信息中的一项或多项;第一编曲单元,根据所述解析单元解析出的所述基础信息,通过预设的训练模型进行曲段编写,生成相应的两个或两个以上的曲段,并对两个或两个以上的曲段进行组合以生成相应的组合曲段;第二编曲单元,根据所述第一编写单元生成的所述组合曲段,通过所述预设的训练模型进行乐曲编写,生成符合所述待编写乐曲填曲所需长度范围的乐曲。
可选地,所述预设的训练模型包括至少一项用于确定所述乐曲的各项所述基础信息的基础结构层。
可选地,所述基础结构层至少包括以下一项:用于确定所述乐曲的曲调信息的第一基础结构层、用于确定所述乐曲的渐弱信息和/渐强信息的第二基础结构层、用于确定所述乐曲的第一和弦信息的第三基础结构层、用于确定所述乐曲的鼓点和/鼓声信息的第四基础结构层、用于确定所述乐曲的旋律信息的第五基础结构层。
可选地,所述预设的训练模型还包括至少一项用于确定所述乐曲的附加信息的附加结构层。
本发明实施例具有如下优点:本发明实施例提供的一种智能编曲方法和系统,解析当前用户提供的进行编曲的基础信息,根据基础信息,通过预设的训练模型进行曲段编写,生成相应的两个或两个以上的曲段,并对两个或两个以上的曲段进行组合以生成相应的组合曲段;根据组合曲段,通过预设的训练模型进行乐曲编写,生成符合待编写乐曲填曲所需长度范围的乐曲;这样,相对于现有的越大多数脍炙人口的优秀音乐创作乐曲,往往只能由专业音乐创作人完成,且需要耗费大量的时间,本发明实施例提供的技术方案,能够简化现有专业且繁琐的编曲过程,提高了用户体验度。
附图说明
图1为本发明实施例1提供的一种智能编曲方法的流程示意图;
图2为本发明实施例2提供的一种智能编曲系统的结构示意图。
图中:201-解析单元;202-第一编曲单元;203-第二编曲单元。
具体实施方式
以下由特定的具体实施例说明本发明的实施方式,熟悉此技术的人士可由本说明书所揭露的内容轻易地了解本发明的其他优点及功效。
实施例1
根据本发明的实施例1,提供了一种智能编曲方法,如图1所示,为本发明实施例1提供的一种智能编曲方法的流程示意图。该方法至少包括以下步骤:
S101,解析当前用户提供的进行编曲的基础信息,其中,基础信息至少包括用于确定待编写乐曲的旋律的第一基础信息、用于确定待编写乐曲的起始音节的第二基础信息和用于确定为待编写乐曲填曲所需长度范围的第三基础信息中的一项或多项;
S102,根据基础信息,通过预设的训练模型进行曲段编写,生成相应的两个或两个以上的曲段,并对两个或两个以上的曲段进行组合以生成相应的组合曲段;
S103,根据组合曲段,通过预设的训练模型进行乐曲编写,生成符合待编写乐曲填曲所需长度范围的乐曲;这样,通过本发明实施例1提供的智能编曲方法,相对于现有的越大多数脍炙人口的优秀音乐创作乐曲,往往只能由专业音乐创作人完成,且需要耗费大量的时间,本发明实施例提供的技术方案,能够简化现有专业且繁琐的编曲过程,提高了用户体验度。
在实际应用中,在本发明实施例1提供的智能编曲方法的方案中,根据基础信息,通过预设的训练模型进行曲段编写,生成相应的两个或两个以上的曲段,并对两个或两个以上的曲段进行组合以生成相应的组合曲段;例如,根据基础信息中的起始音节,结合待编写乐曲的旋律,通过预设的训练模型进行曲段编写,生成相应的两个或两个以上的曲段,并对两个或两个以上的曲段进行组合,以生成相应的组合曲段。
进一步地,根据生成的组合曲段,将组合曲段中的最后一个音节作为起始音节,结合待编写乐曲的旋律,通过预设的训练模型进行完整乐曲的编写过程,形成乐曲中的下一个组合曲段,持续上述组合曲段的编写过程,直至最终生成完整的一首乐曲,且生成的乐曲符合待编写乐曲填曲所需长度范围。
在生成乐曲之后,根据预设的监测规则自动检测生成的乐曲是否符合常规的乐理基础知识,预设的规则均是常规的且易错的乐理知识,预设的规则可以根据用户的不同需求进行修改,例如,如果当前用户仅仅使用该智能编曲方法进行简单的智能编曲,且最终生成的乐曲仅仅用于自娱自乐,这样,系统预设的规则对应的音乐品质水平等级可以设置的低些,以便于当前用户有更多可能的选择。
反之,若当前用户可能通过该智能编曲方法先得到一个最初的音乐小样,当前用户是音乐创作者,这样,基于该得到的音乐小样,再进一步修改,以出唱片,这样,系统预设的规则对应的音乐品质水平等级可以设置的高些,以便于当前用户最终得到品质更佳的乐曲,避免重复无效的乐曲重复生成过程,最终提高了乐曲的生成效率。
这样,通过系统的自动检测机制,当前用户可以设置自动检测的音乐品质水平等级,以及对应的检测次数,最终,得到符合当前用户需求的乐曲。
最终将生成的乐曲输出播放,并自动保存在当前用户预设的保存目录中。后续,当前用户可以通过不断地重复播放生成的乐曲,还可以有针对性地进行人工微小调整,并将调整好的最终乐曲重新覆盖保存。
在实际应用中,本发明实施例1提供的智能编曲方法的方案,通过用户的不同需求,例如,用户提供的不同旋律需求,创作的乐曲是抒情怀旧乐曲,创作的乐曲还是摇滚乐曲;可以根据不同客户的需求,根据现有的歌曲数据库中的各种分类主题的乐曲进行随机创作。
此外,除了考虑乐曲旋律之外,还可以考虑不同的起始音节,或者是待编写乐曲填曲所需长度范围的需求,这样,最终,根据不同客户的需求,最终,创作出的乐曲往往是不同的,且差别很大,以满足不同用户的需求,做到了多元化,丰富了现有的歌曲库中的乐曲,不仅乐曲风格不同,而且上述过程是智能完成,只需要用户具有最基本的乐理知识,简谱知识,或者五线谱知识,均能够独立制作出乐曲品质还不错的乐曲,降低了音乐创作的门槛,提高了用户的体验度。
需要说明的是,上述预设的训练模型是根据深度学习的LSTM(HierarchicalRecurrent Network,递阶递归网络)模型构建的,该LSTM模型是一种特殊的RNN循环神经网络模型,是为了解决RNN模型梯度弥散的问题而提出的;在传统的RNN中,训练算法使用的是BPTT(Back Propagation Trough Time,基于时间的反向传播)算法,当时间比较长时,需要回传的残差会指数下降,导致网络权重更新缓慢,无法体现出RNN的长期记忆的效果,因此需要一个存储单元来存储记忆,因此LSTM模型被提出。其中,BPTT算法,将RNN展开之后,前向传播(Forward Propagation)就是依次按照时间的顺序计算一次就好了,反向传播(BackPropagation)就是从最后一个时间将累积的残差传递回来即可,这与普通的神经网络训练本质上是相似的。基于LSTM模型是常规的模型,BPTT算法也是常规的算法,创建预设的训练模型是采用的上述常规模型,以及常规算法,具体细节烦请参看相关资料,在此不再赘述。
在一个可选的例子中,预设的训练模型包括至少一项用于确定乐曲的各项基础信息的基础结构层。
在一个可选的例子中,基础结构层至少包括以下一项:用于确定乐曲的曲调信息的第一基础结构层、用于确定乐曲的渐弱信息和/渐强信息的第二基础结构层、用于确定乐曲的第一和弦信息的第三基础结构层、用于确定乐曲的鼓点和/鼓声信息的第四基础结构层、用于确定乐曲的旋律信息的第五基础结构层;这样,通过基础结构层就能够确定出能够满足当前用户需求的乐曲的大致乐曲架构。
在一个可选的例子中,预设的训练模型还包括至少一项用于确定乐曲的附加信息的附加结构层。
在一个可选的例子中,附加结构层至少包括以下一项:用于确定乐曲的长度规模信息的第一附加结构层、用于确定乐曲的第二和弦信息的第二附加结构层、用于确定乐曲的节奏信息的第三附加结构层;这样,通过附加结构层就能够对确定出的乐曲架构进行进一步地细化,以便于最终得到具有高品质的乐曲。
需要说明的是,第一和弦信息和第二和旋信息没有本质的区别,只不过第二和旋信息用于表征的第二和旋是在第一和旋信息表征的第一和旋的基础上,进一步加大和旋的部分,以优化并完善最初得到的乐曲。
在实际应用中,针对本发明实施例1提供的一种智能编曲方法的方案,下面提供一个具体的实例:
利用深度学习的LSTM(Hierarchical Recurrent Network,递阶递归网络)模型,利用100个小时的流行歌曲的mini格式的标签进行训练。在这个模型里面整合了一些音乐相关的总的基础知识,在RNN循环神经网络这个模型中有用于确定乐曲的曲调信息的第一基础结构层、用于确定乐曲的渐弱信息和/渐强信息的第二基础结构层、用于确定乐曲的第一和弦信息的第三基础结构层、用于确定乐曲的鼓点和/鼓声信息的第四基础结构层、用于确定乐曲的旋律信息的第五基础结构层,在模型设计和合成的过程中也考虑了其他因素,例如,乐曲的长度规模,或者,进一步的乐曲的第二和旋,在第一和旋的基础上进一步加强和旋的效果。
综上所述,本发明实施例1提供的一种智能编曲方法,具有以下有益效果:简化了现有专业且繁琐的编曲过程,提高了用户体验度。
实施例2
根据本发明的实施例2,还提供了一种智能编曲系统,如图2所示,为为本发明实施例2提供的一种智能编曲系统的结构示意图。本发明实施例2提供的一种智能编曲系统包括解析单元201、第一编曲单元202和第二编曲单元203。
具体而言,解析单元201,解析当前用户提供的进行编曲的基础信息,其中,基础信息至少包括用于确定待编写乐曲的旋律的第一基础信息、用于确定待编写乐曲的起始音节的第二基础信息和用于确定为待编写乐曲填曲所需长度范围的第三基础信息中的一项或多项;
第一编曲单元202,根据解析单元201解析出的基础信息,通过预设的训练模型进行曲段编写,生成相应的两个或两个以上的曲段,并对两个或两个以上的曲段进行组合以生成相应的组合曲段;
第二编曲单元203,根据第一编写单元生成的组合曲段,通过预设的训练模型进行乐曲编写,生成符合待编写乐曲填曲所需长度范围的乐曲;这样,本发明实施例2提供的智能编曲系统,能够做到:简化了现有专业且繁琐的编曲过程,提高了用户体验度。
需要说明的是,上述预设的训练模型是根据深度学习的LSTM(HierarchicalRecurrent Network,递阶递归网络)模型构建的,该LSTM模型是一种特殊的RNN循环神经网络模型,是为了解决RNN模型梯度弥散的问题而提出的;在传统的RNN中,训练算法使用的是BPTT(Back Propagation Trough Time,基于时间的反向传播)算法,当时间比较长时,需要回传的残差会指数下降,导致网络权重更新缓慢,无法体现出RNN的长期记忆的效果,因此需要一个存储单元来存储记忆,因此LSTM模型被提出。其中,BPTT算法,将RNN展开之后,前向传播(Forward Propagation)就是依次按照时间的顺序计算一次就好了,反向传播(BackPropagation)就是从最后一个时间将累积的残差传递回来即可,这与普通的神经网络训练本质上是相似的。基于LSTM模型是常规的模型,BPTT算法也是常规的算法,创建预设的训练模型是采用的上述常规模型,以及常规算法,具体细节烦请参看相关资料,在此不再赘述。
在一个可选的例子中,预设的训练模型包括至少一项用于确定乐曲的各项基础信息的基础结构层。
在一个可选的例子中,基础结构层至少包括以下一项:用于确定乐曲的曲调信息的第一基础结构层、用于确定乐曲的渐弱信息和/渐强信息的第二基础结构层、用于确定乐曲的第一和弦信息的第三基础结构层、用于确定乐曲的鼓点和/鼓声信息的第四基础结构层、用于确定乐曲的旋律信息的第五基础结构层;这样,通过基础结构层就能够确定出能够满足当前用户需求的乐曲的大致乐曲架构。
在一个可选的例子中,预设的训练模型还包括至少一项用于确定乐曲的附加信息的附加结构层;其中,附加结构层至少包括以下一项:用于确定乐曲的长度规模信息的第一附加结构层、用于确定乐曲的第二和弦信息的第二附加结构层、用于确定乐曲的节奏信息的第三附加结构层;这样,通过附加结构层就能够对确定出的乐曲架构进行进一步地细化,以便于最终得到具有高品质的乐曲。
本发明实施例2提供的方案中的部分内容与本发明实施例1提供的方案中的部分内容相同或相似的部分,烦请参见针对本发明实施例1的相应部分的描述,在此不再赘述。
综上所述,本发明实施例2提供的一种智能编曲系统,具有以下有益效果:简化了现有专业且繁琐的编曲过程,提高了用户体验度。
虽然,上文中已经用一般性说明及具体实施例对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。

Claims (3)

1.一种智能编曲方法,其特征在于,包括:
解析当前用户提供的进行编曲的基础信息,其中,所述基础信息至少包括用于确定待编写乐曲的旋律的第一基础信息、用于确定所述待编写乐曲的起始音节的第二基础信息和用于确定为所述待编写乐曲填曲所需长度范围的第三基础信息中的一项或多项;
根据所述基础信息,通过预设的训练模型进行曲段编写,生成相应的两个或两个以上的曲段,并对两个或两个以上的曲段进行组合以生成相应的组合曲段;
根据所述组合曲段,通过所述预设的训练模型进行乐曲编写,生成符合所述待编写乐曲填曲所需长度范围的乐曲;
所述预设的训练模型还包括至少一项用于确定所述乐曲的附加信息的附加结构层;
所述附加结构层至少包括以下一项:
用于确定所述乐曲的长度规模信息的第一附加结构层、用于确定所述乐曲的第二和弦信息的第二附加结构层、用于确定所述乐曲的节奏信息的第三附加结构层;
所述预设的训练模型包括至少一项用于确定所述乐曲的各项所述基础信息的基础结构层;
所述基础结构层至少包括以下一项:
用于确定所述乐曲的曲调信息的第一基础结构层、用于确定所述乐曲的渐弱信息和/渐强信息的第二基础结构层、用于确定所述乐曲的第一和弦信息的第三基础结构层、用于确定所述乐曲的鼓点和/鼓声信息的第四基础结构层、用于确定所述乐曲的旋律信息的第五基础结构层。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据深度学习的LSTM模型构建所述预设的训练模型。
3.一种智能编曲系统,其特征在于,包括:
解析单元,解析当前用户提供的进行编曲的基础信息,其中,所述基础信息至少包括用于确定待编写乐曲的旋律的第一基础信息、用于确定所述待编写乐曲的起始音节的第二基础信息和用于确定为所述待编写乐曲填曲所需长度范围的第三基础信息中的一项或多项;
第一编曲单元,根据所述解析单元解析出的所述基础信息,通过预设的训练模型进行曲段编写,生成相应的两个或两个以上的曲段,并对两个或两个以上的曲段进行组合以生成相应的组合曲段;
第二编曲单元,根据所述第一编曲单元生成的所述组合曲段,通过所述预设的训练模型进行乐曲编写,生成符合所述待编写乐曲填曲所需长度范围的乐曲;
所述预设的训练模型还包括至少一项用于确定所述乐曲的附加信息的附加结构层;
所述附加结构层至少包括以下一项:
用于确定所述乐曲的长度规模信息的第一附加结构层、用于确定所述乐曲的第二和弦信息的第二附加结构层、用于确定所述乐曲的节奏信息的第三附加结构层;
所述预设的训练模型包括至少一项用于确定所述乐曲的各项所述基础信息的基础结构层;
所述基础结构层至少包括以下一项:
用于确定所述乐曲的曲调信息的第一基础结构层、用于确定所述乐曲的渐弱信息和/渐强信息的第二基础结构层、用于确定所述乐曲的第一和弦信息的第三基础结构层、用于确定所述乐曲的鼓点和/鼓声信息的第四基础结构层、用于确定所述乐曲的旋律信息的第五基础结构层。
CN201811340737.2A 2018-11-12 2018-11-12 一种智能编曲方法和系统 Active CN109448684B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811340737.2A CN109448684B (zh) 2018-11-12 2018-11-12 一种智能编曲方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811340737.2A CN109448684B (zh) 2018-11-12 2018-11-12 一种智能编曲方法和系统

Publications (2)

Publication Number Publication Date
CN109448684A CN109448684A (zh) 2019-03-08
CN109448684B true CN109448684B (zh) 2023-11-17

Family

ID=65551040

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811340737.2A Active CN109448684B (zh) 2018-11-12 2018-11-12 一种智能编曲方法和系统

Country Status (1)

Country Link
CN (1) CN109448684B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112435642B (zh) * 2020-11-12 2022-08-26 浙江大学 一种基于深度神经网络的旋律midi伴奏生成方法
CN112785993B (zh) * 2021-01-15 2024-04-12 杭州网易云音乐科技有限公司 一种乐曲生成方法、装置、介质和计算设备

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1564243A (zh) * 2004-04-07 2005-01-12 杭州斯达康通讯有限公司 一种合成和弦手机铃声的方法
CN1717716A (zh) * 2002-11-29 2006-01-04 先锋株式会社 用于生成音乐数据的设备和方法
CN101044484A (zh) * 2005-06-16 2007-09-26 索尼株式会社 信息处理装置、方法以及程序
CN101310327A (zh) * 2005-12-27 2008-11-19 三菱电机株式会社 乐曲区间检测方法及其装置、及数据记录方法及其装置
JP2011175006A (ja) * 2010-02-23 2011-09-08 Sony Corp 情報処理装置、自動作曲方法、学習装置、学習方法、及びプログラム
CN104485101A (zh) * 2014-11-19 2015-04-01 成都云创新科技有限公司 一种基于模板自动生成音乐旋律的方法
CN105308676A (zh) * 2013-03-05 2016-02-03 耐克创新有限合伙公司 自适应音乐播放系统
CN105893460A (zh) * 2016-03-22 2016-08-24 上海班砖网络科技有限公司 一种基于人工智能技术的音乐自动创作方法及装置
CN106652984A (zh) * 2016-10-11 2017-05-10 张文铂 一种使用计算机自动创作歌曲的方法
CN107123415A (zh) * 2017-05-04 2017-09-01 吴振国 一种自动编曲方法及系统
CN107301857A (zh) * 2016-04-15 2017-10-27 青岛海青科创科技发展有限公司 一种给旋律自动配伴奏的方法及系统
CN107644630A (zh) * 2017-09-28 2018-01-30 清华大学 基于神经网络的旋律生成方法及装置
CN107993636A (zh) * 2017-11-01 2018-05-04 天津大学 基于递归神经网络的乐谱建模与生成方法
US10068557B1 (en) * 2017-08-23 2018-09-04 Google Llc Generating music with deep neural networks
CN108597535A (zh) * 2018-03-29 2018-09-28 华南理工大学 一种融合伴奏的midi钢琴曲风格分类方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10068556B2 (en) * 2015-11-18 2018-09-04 Pandora Media, Inc. Procedurally generating background music for sponsored audio
US20180276540A1 (en) * 2017-03-22 2018-09-27 NextEv USA, Inc. Modeling of the latent embedding of music using deep neural network

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1717716A (zh) * 2002-11-29 2006-01-04 先锋株式会社 用于生成音乐数据的设备和方法
CN1564243A (zh) * 2004-04-07 2005-01-12 杭州斯达康通讯有限公司 一种合成和弦手机铃声的方法
CN101044484A (zh) * 2005-06-16 2007-09-26 索尼株式会社 信息处理装置、方法以及程序
CN101310327A (zh) * 2005-12-27 2008-11-19 三菱电机株式会社 乐曲区间检测方法及其装置、及数据记录方法及其装置
JP2011175006A (ja) * 2010-02-23 2011-09-08 Sony Corp 情報処理装置、自動作曲方法、学習装置、学習方法、及びプログラム
CN105308676A (zh) * 2013-03-05 2016-02-03 耐克创新有限合伙公司 自适应音乐播放系统
CN104485101A (zh) * 2014-11-19 2015-04-01 成都云创新科技有限公司 一种基于模板自动生成音乐旋律的方法
CN105893460A (zh) * 2016-03-22 2016-08-24 上海班砖网络科技有限公司 一种基于人工智能技术的音乐自动创作方法及装置
CN107301857A (zh) * 2016-04-15 2017-10-27 青岛海青科创科技发展有限公司 一种给旋律自动配伴奏的方法及系统
CN106652984A (zh) * 2016-10-11 2017-05-10 张文铂 一种使用计算机自动创作歌曲的方法
CN107123415A (zh) * 2017-05-04 2017-09-01 吴振国 一种自动编曲方法及系统
US10068557B1 (en) * 2017-08-23 2018-09-04 Google Llc Generating music with deep neural networks
CN107644630A (zh) * 2017-09-28 2018-01-30 清华大学 基于神经网络的旋律生成方法及装置
CN107993636A (zh) * 2017-11-01 2018-05-04 天津大学 基于递归神经网络的乐谱建模与生成方法
CN108597535A (zh) * 2018-03-29 2018-09-28 华南理工大学 一种融合伴奏的midi钢琴曲风格分类方法

Also Published As

Publication number Publication date
CN109448684A (zh) 2019-03-08

Similar Documents

Publication Publication Date Title
Simon et al. Learning a latent space of multitrack measures
CN107123415B (zh) 一种自动编曲方法及系统
CN108369799A (zh) 采用基于语言学和/或基于图形图标的音乐体验描述符的自动音乐合成和生成的机器、系统和过程
CN111554255B (zh) 基于循环神经网络的midi演奏风格自动转换系统
Eigenfeldt et al. Evolving structures for electronic dance music
CN101796587A (zh) 声音旋律的自动伴奏
CN109448684B (zh) 一种智能编曲方法和系统
Meade et al. Exploring conditioning for generative music systems with human-interpretable controls
US20230197041A1 (en) Form atom heuristics and generative composition
Ben-Tal et al. How music AI is useful: engagements with composers, performers and audiences
WO2009107137A1 (en) Interactive music composition method and apparatus
Sajad et al. Music generation for novices using Recurrent Neural Network (RNN)
CN113178182A (zh) 信息处理方法、装置、电子设备及存储介质
Lin et al. Content-based controls for music large language modeling
Collins A funny thing happened on the way to the formula: Algorithmic composition for musical theater
Unemi et al. A tool for composing short music pieces by means of breeding
Hadjeres Interactive deep generative models for symbolic music
Samson Chopin, past and present
CN112528631B (zh) 一种基于深度学习算法的智能伴奏系统
Kitahara et al. An interactive music composition system based on autonomous maintenance of musical consistency
Köküer et al. Curating and annotating a collection of traditional Irish flute recordings to facilitate stylistic analysis
Mira et al. Automated composition of Galician Xota—tuning RNN-based composers for specific musical styles using deep Q-learning
US20240038205A1 (en) Systems, apparatuses, and/or methods for real-time adaptive music generation
Asesh Markov chain sequence modeling
Colton et al. Neuro-Symbolic Composition of Music with Talking Points

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20230511

Address after: 230071 Comprehensive Building 3-2985, No. 55 Science Avenue, High tech Zone, Shushan District, Hefei City, Anhui Province

Applicant after: Hefei Kelast Network Technology Co.,Ltd.

Address before: 100021 6235, 6th floor, jinyayuan crossing building, YunhuiLi, Haidian District, Beijing

Applicant before: QUANTUM CLOUD FUTURE (BEIJING) INFORMATION TECHNOLOGY CO.,LTD.

GR01 Patent grant
GR01 Patent grant