CN110164412A - 一种基于lstm的音乐自动合成方法及系统 - Google Patents
一种基于lstm的音乐自动合成方法及系统 Download PDFInfo
- Publication number
- CN110164412A CN110164412A CN201910346123.3A CN201910346123A CN110164412A CN 110164412 A CN110164412 A CN 110164412A CN 201910346123 A CN201910346123 A CN 201910346123A CN 110164412 A CN110164412 A CN 110164412A
- Authority
- CN
- China
- Prior art keywords
- lstm
- music
- prediction
- synthesis method
- lyrics
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001308 synthesis method Methods 0.000 title claims abstract description 19
- 239000013598 vector Substances 0.000 claims abstract description 34
- 230000011218 segmentation Effects 0.000 claims abstract description 10
- 238000013528 artificial neural network Methods 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims abstract description 8
- 230000000306 recurrent effect Effects 0.000 claims abstract description 8
- 238000000034 method Methods 0.000 claims description 19
- 238000002360 preparation method Methods 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 230000001419 dependent effect Effects 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 241001269238 Data Species 0.000 claims 1
- 230000002401 inhibitory effect Effects 0.000 claims 1
- 230000008901 benefit Effects 0.000 abstract description 2
- 238000012938 design process Methods 0.000 abstract 1
- 230000008569 process Effects 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000035800 maturation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G3/00—Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
本发明的技术方案包括一种基于LSTM的音乐自动合成方法及系统,用于实现:准备多种不同类型的音乐数据,解析音乐数据获取对应的乐谱及时间节点,以及,将MIDI音符创建对应的第一向量;将对应歌曲的歌词进行分词处理,并以歌词为基准创建对应具有相关性的第二向量;使用时间循环神经网络将第一向量作为输入,以及,将第二向量作为输出,使用优化器学习预测处理;在时间索引的每个预测中输出每个状态的概率;将生成的结果重新编码为MIDI文件。本发明的有益效果为:使用的LSTM网络旨在从文本数据中学习,方便分析;直接使用文本数据最小化了编码‑解码方案和网络的整体设计过程,提高了效率;使得使用者更好的发现艺术的规律。
Description
技术领域
本发明涉及一种基于LSTM的音乐自动合成方法及系统,属于计算机音乐合成领域。
背景技术
音乐作品是具有创造性的,直观的,是人类特有的。然而,Hiller和Isaacson提出使用马尔可夫链进行自动合成,因此自动合成相关的数学方法具有悠久的历史。自动合成领域包括各种各样的任务,例如旋律合成,和弦合成,节奏合成,甚至歌词合成,包揽了音乐的每个典型组成部分,并且已经进行了大量的研究。自动合成也有很多其他应用,例如,自动背景音乐生成,AI辅助合成系统等。
隐马尔可夫模型(HMM)是模型和预测序列的最流行的方法之一。实际上,鉴于数据,计算能力和可行的优化策略,HMM最适合于时间序列建模。然而,HMM的一个缺点是隐藏状态的1-K方案的效率低。当存在N个隐藏状态时,HMM的存储器被限制为log2N比特,这需要学习转移矩阵的N2参数。
递归神经网络(RNN)允许在模型中结合长期依赖性。但是RNN缺乏的一个能力是学习全部结构,这使得训练RNN的困难。从理论上讲,它可以记住有限长序列,但是在实践中它受到消失梯度问题的限制。
LSTM(长短期记忆)单元解决了这种消失的梯度问题。LSTM允许梯度由单独的路径流动,而不是乘法而是加法运算。LSTM被采用来学习和弦进行和旋律。网络直接分析鼓轨的音频内容并使用LSTM学习特征。
发明内容
本发明提供了一种基于LSTM的音乐自动合成方法及系统,用于解决现有技术的不足。
本发明的技术方案包括一种基于LSTM的音乐自动合成方法,其特征在于,该方法包括:S10,准备多种不同类型的音乐数据,解析音乐数据获取对应的乐谱及时间节点,以及,将MIDI音符创建对应的第一向量;S20,将对应歌曲的歌词进行分词处理,并以歌词为基准创建对应具有相关性的第二向量;S30,使用时间循环神经网络将第一向量作为输入,以及,将第二向量作为输出,使用优化器学习预测处理;S40,在时间索引的每个预测中输出每个状态的概率;S50,将生成的结果重新编码为MIDI文件。
根据所述的基于LSTM的音乐自动合成方法,其中步骤S10具体包括:从多种类型流行曲的MIDI中提解析相关的乐谱及时间节点,并用使用onehot编码将对应的127个不同的音符编码成一个长度为127维的onehot向量。
根据所述的基于LSTM的音乐自动合成方法,其中步骤S20具体包括:基于现有的分词库将歌词分词,并使用DF-IF算法将各个词汇编码成对应唯一的有相关性的向量。
根据所述的基于LSTM的音乐自动合成方法,其中步骤S30具体包括:使用第一LSTM层及第二LSTM层将音符编码进行作为输入,词汇编码进行输出,使用用优化器进行预测学习。
根据所述的基于LSTM的音乐自动合成方法,其中第一LSTM层及第二LSTM层后添加带有滑动模块的Attention机制层,并且使用分类交叉熵作为损失函数,第一LSTM层及第二LSTM层包括512个隐藏单元。
根据所述的基于LSTM的音乐自动合成方法,其中优化器为ADAM优化器。
根据所述的基于LSTM的音乐自动合成方法,其中步骤S40具体包括:S41,在预测阶段添加多样性参数α,所述α用于通过加权概率抑制或鼓励预测多样性,其中α的第i个状态pi的概率被重新加权为S42,根据重新加权概率对状态进行采样来选择状态之一,其中第一LSTM层及第二LSTM层始终保持相同成熟。
本发明的技术方案还包括一种用于执行上述任意所述方法的基于LSTM的音乐自动合成系统,其特征在于,该系统包括:准备模块,用于准备多种不同类型的音乐数据,解析音乐数据获取对应的乐谱及时间节点,以及,将MIDI音符创建对应的第一向量;分词模块,用于将对应歌曲的歌词进行分词处理,并以歌词为基准创建对应具有相关性的第二向量;训练模块,用于使用时间循环神经网络将第一向量作为输入,以及,将第二向量作为输出,使用优化器学习预测处理;预测模块,用于在时间索引的每个预测中输出每个状态的概率;输出模块,用于将生成的结果重新编码为MIDI文件。
本发明的有益效果为:使用的LSTM网络旨在从文本数据中学习,而不是学习音乐符号或数值的表示,方便分析;直接使用文本数据最小化了编码-解码方案和网络的整体设计过程,提高了效率;其次,LSTM网络使用大型数据集进行训练,这使得自己能够在大型集合中学习更复杂的和弦之间的关系,使得使用者更好的发现艺术的规律。
附图说明
图1所示为根据本发明实施方式的总体流程图;
图2所示为根据本发明实施方式的系统框图。
具体实施方式
以下将结合实施例和附图对本发明的构思、具体结构及产生的技术效果进行清楚、完整的描述,以充分地理解本发明的目的、方案和效果。
需要说明的是,如无特殊说明,当某一特征被称为“固定”、“连接”在另一个特征,它可以直接固定、连接在另一个特征上,也可以间接地固定、连接在另一个特征上。此外,本公开中所使用的上、下、左、右等描述仅仅是相对于附图中本公开各组成部分的相互位置关系来说的。在本公开中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。此外,除非另有定义,本文所使用的所有的技术和科学术语与本技术领域的技术人员通常理解的含义相同。本文说明书中所使用的术语只是为了描述具体的实施例,而不是为了限制本发明。本文所使用的术语“和/或”包括一个或多个相关的所列项目的任意的组合。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种元件,但这些元件不应限于这些术语。这些术语仅用来将同一类型的元件彼此区分开。例如,在不脱离本公开范围的情况下,第一元件也可以被称为第二元件,类似地,第二元件也可以被称为第一元件。本文所提供的任何以及所有实例或示例性语言(“例如”、“如”等)的使用仅意图更好地说明本发明的实施例,并且除非另外要求,否则不会对本发明的范围施加限制。
图1所示为根据本发明实施方式的总体流程图。该方法流程包括:S10,准备多种不同类型的音乐数据,解析音乐数据获取对应的乐谱及时间节点,以及,将MIDI音符创建对应的第一向量;S20,将对应歌曲的歌词进行分词处理,并以歌词为基准创建对应具有相关性的第二向量;S30,使用时间循环神经网络将第一向量作为输入,以及,将第二向量作为输出,使用优化器学习预测处理;S40,在时间索引的每个预测中输出每个状态的概率;S50,将生成的结果重新编码为MIDI文件。
基于图1的流程,本发明进一步提供了以下技术方案:
第一步:进行数据准备,搜集各种类型流行曲并从midi中提解析相关的乐谱和对应时刻,并用使用onehot编码把对应的127个音符编码成一个长度为127维的向量。
第二步:歌词采用现有的现有的分词库将歌词分词,并用DF-IF算法将各个词汇编码成对应唯一的有相关性的向量。
第三步:在tensorflow深度学习框架使用两个LSTM层,每个层由512个隐藏单元组成,在每个LSTM层之后添加带有滑动模块的Attention机制层,并且使用分类交叉熵作为损失函数,并且将音符编码作为输入,词汇编码作为输出使用ADAM优化器进行学习。该优化器显示了具有随机梯度下降的等效最终性能,并且收敛速度更快。
第四步:在时间索引的每个预测中输出每个状态的概率。为了使系统可调,在预测阶段使用多样性参数α,它通过重新加权概率来抑制(α<1)或鼓励(α>1)预测多样性,第i个状态pi的概率被重新加权为
然后,通过根据重新加权概率对状态进行采样来选择状态之一。两个网络始终保持相同的层数,尽管它们会产生不同的有效长度。
图2所示为根据本发明实施方式的系统框图。该系统包括:准备模块,用于准备多种不同类型的音乐数据,解析音乐数据获取对应的乐谱及时间节点,以及,将MIDI音符创建对应的第一向量;分词模块,用于将对应歌曲的歌词进行分词处理,并以歌词为基准创建对应具有相关性的第二向量;训练模块,用于使用时间循环神经网络将第一向量作为输入,以及,将第二向量作为输出,使用优化器学习预测处理;预测模块,用于在时间索引的每个预测中输出每个状态的概率;输出模块,用于将生成的结果重新编码为MIDI文件。
应当认识到,本发明的实施例可以由计算机硬件、硬件和软件的组合、或者通过存储在非暂时性计算机可读存储器中的计算机指令来实现或实施。所述方法可以使用标准编程技术-包括配置有计算机程序的非暂时性计算机可读存储介质在计算机程序中实现,其中如此配置的存储介质使得计算机以特定和预定义的方式操作——根据在具体实施例中描述的方法和附图。每个程序可以以高级过程或面向对象的编程语言来实现以与计算机系统通信。然而,若需要,该程序可以以汇编或机器语言实现。在任何情况下,该语言可以是编译或解释的语言。此外,为此目的该程序能够在编程的专用集成电路上运行。
此外,可按任何合适的顺序来执行本文描述的过程的操作,除非本文另外指示或以其他方式明显地与上下文矛盾。本文描述的过程(或变型和/或其组合)可在配置有可执行指令的一个或多个计算机系统的控制下执行,并且可作为共同地在一个或多个处理器上执行的代码(例如,可执行指令、一个或多个计算机程序或一个或多个应用)、由硬件或其组合来实现。所述计算机程序包括可由一个或多个处理器执行的多个指令。
进一步,所述方法可以在可操作地连接至合适的任何类型的计算平台中实现,包括但不限于个人电脑、迷你计算机、主框架、工作站、网络或分布式计算环境、单独的或集成的计算机平台、或者与带电粒子工具或其它成像装置通信等等。本发明的各方面可以以存储在非暂时性存储介质或设备上的机器可读代码来实现,无论是可移动的还是集成至计算平台,如硬盘、光学读取和/或写入存储介质、RAM、ROM等,使得其可由可编程计算机读取,当存储介质或设备由计算机读取时可用于配置和操作计算机以执行在此所描述的过程。此外,机器可读代码,或其部分可以通过有线或无线网络传输。当此类媒体包括结合微处理器或其他数据处理器实现上文所述步骤的指令或程序时,本文所述的发明包括这些和其他不同类型的非暂时性计算机可读存储介质。当根据本发明所述的方法和技术编程时,本发明还包括计算机本身。
计算机程序能够应用于输入数据以执行本文所述的功能,从而转换输入数据以生成存储至非易失性存储器的输出数据。输出信息还可以应用于一个或多个输出设备如显示器。在本发明优选的实施例中,转换的数据表示物理和有形的对象,包括显示器上产生的物理和有形对象的特定视觉描绘。
以上所述,只是本发明的较佳实施例而已,本发明并不局限于上述实施方式,只要其以相同的手段达到本发明的技术效果,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。在本发明的保护范围内其技术方案和/或实施方式可以有各种不同的修改和变化。
Claims (8)
1.一种基于LSTM的音乐自动合成方法,其特征在于,该方法包括:
S10,准备多种不同类型的MIDI音乐数据,解析音乐数据获取对应的乐谱及时间节点,并将读取结果创建对应的第一向量;
S20,将对应歌曲的歌词进行分词处理,并以歌词为基准创建对应具有相关性的第二向量;
S30,使用时间循环神经网络将第一向量作为输入,第二向量作为输出,使用优化器学习预测处理;
S40,在时间索引的每个预测中输出每个状态的概率;
S50,将生成的结果重新编码为MIDI文件。
2.根据权利要求1所述的基于LSTM的音乐自动合成方法,其特征在于,所述步骤S10具体包括:
从多种类型流行曲的MIDI中提解析相关的乐谱及时间节点,并用使用onehot编码将对应的127个不同的音符编码成一个长度为127维的onehot向量。
3.根据权利要求1所述的基于LSTM的音乐自动合成方法,其特征在于,所述步骤S20具体包括:
基于现有的分词库将歌词分词,并使用DF-IF算法将各个词汇编码成对应唯一的有相关性的向量。
4.根据权利要求1所述的基于LSTM的音乐自动合成方法,其特征在于,所述步骤S30具体包括:
使用第一LSTM层及第二LSTM层将音符编码进行作为输入,词汇编码进行输出,使用优化器进行预测学习。
5.根据权利要求4所述的基于LSTM的音乐自动合成方法,其特征在于,所述第一LSTM层及第二LSTM层后添加带有滑动模块的Attention机制层,并且使用分类交叉熵作为损失函数,第一LSTM层及第二LSTM层包括512个隐藏单元。
6.根据权利要求4所述的基于LSTM的音乐自动合成方法,其特征在于,所述优化器为ADAM优化器。
7.根据权利要求1所述的基于LSTM的音乐自动合成方法,其特征在于,所述步骤S40具体包括:
S41,在预测阶段添加多样性参数α,所述α用于通过加权概率抑制或鼓励预测多样性,其中α的第i个状态pi的概率被重新加权为
S42,根据重新加权概率对状态进行采样来选择状态之一,其中第一LSTM层及第二LSTM层始终保持相同层数。
8.一种用于执行权利要求1-7任意所述方法的基于LSTM的音乐自动合成系统,其特征在于,该系统包括:
准备模块,用于准备多种不同类型的音乐数据,解析音乐数据获取对应的乐谱及时间节点,以及,将MIDI音符创建对应的第一向量;
分词模块,用于将对应歌曲的歌词进行分词处理,并以歌词为基准创建对应具有相关性的第二向量;
训练模块,用于使用时间循环神经网络将第一向量作为输入,以及,将第二向量作为输出,使用优化器学习预测处理;
预测模块,用于在时间索引的每个预测中输出每个状态的概率;
输出模块,用于将生成的结果重新编码为MIDI文件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910346123.3A CN110164412A (zh) | 2019-04-26 | 2019-04-26 | 一种基于lstm的音乐自动合成方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910346123.3A CN110164412A (zh) | 2019-04-26 | 2019-04-26 | 一种基于lstm的音乐自动合成方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110164412A true CN110164412A (zh) | 2019-08-23 |
Family
ID=67640156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910346123.3A Pending CN110164412A (zh) | 2019-04-26 | 2019-04-26 | 一种基于lstm的音乐自动合成方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110164412A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110377785A (zh) * | 2019-06-21 | 2019-10-25 | 江苏师范大学 | 一种基于深度学习的徐州梆子作曲方法 |
CN112017621A (zh) * | 2020-08-04 | 2020-12-01 | 河海大学常州校区 | 基于对位和声关系的lstm多轨音乐生成方法 |
CN112037745A (zh) * | 2020-09-10 | 2020-12-04 | 电子科技大学 | 一种基于神经网络模型的音乐创作系统 |
CN112802446A (zh) * | 2019-11-14 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 音频合成方法及装置、电子设备和计算机可读存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160180838A1 (en) * | 2014-12-22 | 2016-06-23 | Google Inc. | User specified keyword spotting using long short term memory neural network feature extractor |
CN106528858A (zh) * | 2016-11-29 | 2017-03-22 | 北京百度网讯科技有限公司 | 歌词生成方法及装置 |
CN106971703A (zh) * | 2017-03-17 | 2017-07-21 | 西北师范大学 | 一种基于hmm的歌曲合成方法及装置 |
CN107993636A (zh) * | 2017-11-01 | 2018-05-04 | 天津大学 | 基于递归神经网络的乐谱建模与生成方法 |
CN108806655A (zh) * | 2017-04-26 | 2018-11-13 | 微软技术许可有限责任公司 | 歌曲的自动生成 |
CN109218629A (zh) * | 2018-09-14 | 2019-01-15 | 三星电子(中国)研发中心 | 视频生成方法、存储介质和装置 |
-
2019
- 2019-04-26 CN CN201910346123.3A patent/CN110164412A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160180838A1 (en) * | 2014-12-22 | 2016-06-23 | Google Inc. | User specified keyword spotting using long short term memory neural network feature extractor |
CN106528858A (zh) * | 2016-11-29 | 2017-03-22 | 北京百度网讯科技有限公司 | 歌词生成方法及装置 |
CN106971703A (zh) * | 2017-03-17 | 2017-07-21 | 西北师范大学 | 一种基于hmm的歌曲合成方法及装置 |
CN108806655A (zh) * | 2017-04-26 | 2018-11-13 | 微软技术许可有限责任公司 | 歌曲的自动生成 |
CN107993636A (zh) * | 2017-11-01 | 2018-05-04 | 天津大学 | 基于递归神经网络的乐谱建模与生成方法 |
CN109218629A (zh) * | 2018-09-14 | 2019-01-15 | 三星电子(中国)研发中心 | 视频生成方法、存储介质和装置 |
Non-Patent Citations (2)
Title |
---|
蓝雯飞等: "基于LSTM-Attention的中文新闻文本分类", 《中南民族大学学报(自然科学版)》 * |
高志强等: "《深度学习从入门到实战》", 30 June 2018, 中国铁道出版社 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110377785A (zh) * | 2019-06-21 | 2019-10-25 | 江苏师范大学 | 一种基于深度学习的徐州梆子作曲方法 |
CN110377785B (zh) * | 2019-06-21 | 2023-10-03 | 江苏师范大学 | 一种基于深度学习的徐州梆子作曲方法 |
CN112802446A (zh) * | 2019-11-14 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 音频合成方法及装置、电子设备和计算机可读存储介质 |
CN112802446B (zh) * | 2019-11-14 | 2024-05-07 | 腾讯科技(深圳)有限公司 | 音频合成方法及装置、电子设备和计算机可读存储介质 |
CN112017621A (zh) * | 2020-08-04 | 2020-12-01 | 河海大学常州校区 | 基于对位和声关系的lstm多轨音乐生成方法 |
CN112017621B (zh) * | 2020-08-04 | 2024-05-28 | 河海大学常州校区 | 基于对位和声关系的lstm多轨音乐生成方法 |
CN112037745A (zh) * | 2020-09-10 | 2020-12-04 | 电子科技大学 | 一种基于神经网络模型的音乐创作系统 |
CN112037745B (zh) * | 2020-09-10 | 2022-06-03 | 电子科技大学 | 一种基于神经网络模型的音乐创作系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110164412A (zh) | 一种基于lstm的音乐自动合成方法及系统 | |
Chen et al. | Functional Harmony Recognition of Symbolic Music Data with Multi-task Recurrent Neural Networks. | |
CN109727590A (zh) | 基于循环神经网络的音乐生成方法及装置 | |
Chen et al. | Harmony Transformer: Incorporating chord segmentation into harmony recognition | |
CN107943847A (zh) | 企业关系提取方法、装置及存储介质 | |
CN108073677A (zh) | 一种基于人工智能的多级文本多标签分类方法及系统 | |
CN110532355A (zh) | 一种基于多任务学习的意图与槽位联合识别方法 | |
Battenberg et al. | Analyzing Drum Patterns Using Conditional Deep Belief Networks. | |
CN110853604A (zh) | 基于变分自编码器的具有特定地域风格的中国民歌自动生成方法 | |
CN110349597A (zh) | 一种语音检测方法及装置 | |
CN109063164A (zh) | 一种基于深度学习的智能问答方法 | |
CN113571124B (zh) | 一种配体-蛋白质相互作用的预测方法及装置 | |
Xia et al. | Construction of music teaching evaluation model based on weighted naïve bayes | |
CN110263979A (zh) | 基于强化学习模型预测样本标签的方法及装置 | |
CN109214407A (zh) | 事件检测模型、方法、装置、计算设备及存储介质 | |
CN113505225B (zh) | 一种基于多层注意力机制的小样本医疗关系分类方法 | |
CN103150383A (zh) | 一种短文本数据的事件演化分析方法 | |
CN113128206A (zh) | 基于单词重要性加权的问题生成方法 | |
CN108280180A (zh) | 一种基于主题模型的半监督哈希算法 | |
Deibel et al. | Style Change Detection on Real-World Data using an LSTM-powered Attribution Algorithm. | |
CN112784013A (zh) | 一种基于上下文语义的多粒度文本推荐方法 | |
CN112990196A (zh) | 基于超参数搜索和二阶段训练的场景文字识别方法及系统 | |
CN114528835A (zh) | 基于区间判别的半监督专业术语抽取方法、介质及设备 | |
Chen et al. | Surprisenet: Melody harmonization conditioning on user-controlled surprise contours | |
McLeod et al. | A modular system for the harmonic analysis of musical scores using a large vocabulary |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190823 |