CN109785818A - 一种基于深度学习的音乐编曲方法和系统 - Google Patents
一种基于深度学习的音乐编曲方法和系统 Download PDFInfo
- Publication number
- CN109785818A CN109785818A CN201811554945.2A CN201811554945A CN109785818A CN 109785818 A CN109785818 A CN 109785818A CN 201811554945 A CN201811554945 A CN 201811554945A CN 109785818 A CN109785818 A CN 109785818A
- Authority
- CN
- China
- Prior art keywords
- music
- melody
- data library
- audio file
- style
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Auxiliary Devices For Music (AREA)
Abstract
一种基于深度学习的音乐编曲方法,包括以下步骤:加载深度学习运行环境,创建机器学习库;导入本地乐曲数据库或网络乐曲数据库,训练编曲预测模型;识别所需的曲风类型,根据识别的曲风类型从编曲数据库提取相应的乐曲元素;基于所述编曲预测模型合成音频文件。本申请还提出一种与上述方法相应的基于深度学习的音乐编曲系统。
Description
技术领域
本发明涉及深度学习领域,尤其涉及一种基于深度学习的音乐编曲方法和系统。
背景技术
在游戏制作或广告制作过程中,往往需要请求专门编曲的公司或团队进行编曲,属于门槛很高的艺术创作领域,需由专业的作曲家才能完成。
在编曲样本出来之后,往往需要进行改进或重新制作,大部分的作曲家需要耗费相当长的时间周期才能完成一首乐曲作品的创作,现有的乐曲创作效率较低,并且创作成本非常高,使得很难满足民众或游戏制作公司对音乐种类和数量的日益增大的需求。
因此,需要一种方法根据需要的音乐类型生成一种歌曲,以大大降低制作成本和时间。
发明内容
本申请的目的是解决现有技术的不足,提供一种基于深度学习的音乐编曲方法和系统,能够获得降低乐曲制作成本和缩短乐曲制作周期的效果。
为了实现上述目的,本申请采用以下的技术方案。
首先,本申请提出一种基于深度学习的音乐编曲方法,包括以下步骤:
S100)加载深度学习运行环境,创建机器学习库;
S200)导入本地乐曲数据库或网络乐曲数据库,训练编曲预测模型;
S300)识别所需的曲风类型,根据识别的曲风类型从编曲数据库提取相应的乐曲元素;
S400)基于所述编曲预测模型合成音频文件。
进一步地,在本申请的上述方法中,所述步骤S100还包括以下子步骤:
S101)加载CUDA运算构架;
S102)导入TENSORFLOW机器学习库;
S103)导入数据分析包Pandas,利用Python学习生成机器学习库。
进一步地,在本申请的上述方法中,所述步骤S200还包括以下子步骤:
S201)将本地乐曲数据库或网络乐曲数据库中的乐曲音频文件进行分类,分成主旋律乐曲数据库以及伴奏数据库;
S202)从主旋律乐曲数据库以及伴奏数据库中对不同曲风类型的乐曲音频文件进行标记;
S203)从不同类型的乐曲音频文件中提取第一元素样本,并根据分割模型将所述乐曲元素分割得到每个元素样本对应的音频剪辑;
S204)根据所述音频剪辑获取每个元素样本对应的持续时间和基频,以构建训练样本集合;
S205)根据所述训练样本集合训练编曲预测模型。
进一步地,在本申请的上述方法中,所述步骤S300还包括以下子步骤:
S301)根据曲风类型信息搜索相应的乐曲数据库;
S302)在相应的主旋律数据库和伴奏数据库中各自随机选择一个乐曲音频文件,提取所述乐曲音频文件中第一乐曲元素,将所述第一乐曲元素作为目标音频文件的第一乐曲元素,所述第一乐曲元素包括主旋律乐曲元素和伴奏乐曲元素。
进一步地,在本申请的上述方法中,所述步骤S400还包括以下子步骤:
S401)根据目标音频文件的第一乐曲元素利用编曲预测模型预测并生成剩下的乐曲元素;
S402)将生成的乐曲元素合成目标音频文件。
进一步地,在本申请的上述方法中,每个元素样本的音频剪辑至少包括在所述音频文件样本中的起始时间。
进一步地,在本申请的上述方法中,还包括利用PYTHON工具从网络中提取乐曲音频数据并生成网络乐曲数据库。
进一步地,在本申请的上述方法中,利用梯度下降方法对所述编曲预测模型进行更新处理。
其次,本申请还公开了一种基于深度学习的音乐编曲系统,包括以下模块:加载模块,用于加载深度学习运行环境,创建机器学习库;模型训练模块,用于导入本地乐曲数据库或网络乐曲数据库,训练编曲预测模型;处理模块,用于识别所需的曲风类型,根据识别的曲风类型从编曲数据库提取相应的乐曲元素;生成模块,用于基于所述编曲预测模型合成音频文件。
进一步地,在本申请的上述系统中,模型训练模块还包括以下子模块:分类模块,用于将本地乐曲数据库或网络乐曲数据库中的乐曲音频文件进行分类,分成主旋律乐曲数据库以及伴奏数据库;标记模块,用于从主旋律乐曲数据库以及伴奏数据库中对不同曲风类型的乐曲音频文件进行标记;提取模块,用于从不同类型的乐曲音频文件中提取第一元素样本,并根据分割模型将所述乐曲元素分割得到每个元素样本对应的音频剪辑;构建模块,用于根据所述音频剪辑获取每个元素样本对应的持续时间和基频,以构建训练样本集合。
进一步地,在本申请的上述系统中,处理模块还包括以下子模块:搜索模块,用于根据曲风类型信息搜索相应的乐曲数据库;预处理模块,用于在相应的主旋律数据库和伴奏数据库中各自随机选择一个乐曲音频文件,提取所述乐曲音频文件中第一乐曲元素,将所述第一乐曲元素作为目标音频文件的第一乐曲元素,所述第一乐曲元素包括主旋律乐曲元素和伴奏乐曲元素。
进一步地,在本申请的上述系统中,生成模块还包括以下子模块:编曲模块,用于根据目标音频文件的第一乐曲元素利用编曲预测模型预测并生成剩下的乐曲元素;合成模块,用于将生成的乐曲元素合成目标音频文件。
最后,本申请还提出一种计算机可读存储介质,其上存储有计算机指令。上述指令被处理器执行时,执行如下步骤:
S100)加载深度学习运行环境,创建机器学习库;
S200)导入本地乐曲数据库或网络乐曲数据库,训练编曲预测模型;
S300)识别所需的曲风类型,根据识别的曲风类型从编曲数据库提取相应的乐曲元素;
S400)基于所述编曲预测模型合成音频文件。
进一步地,在处理器执行上述指令时,所述步骤S100还包括以下子步骤:
S101)加载CUDA运算构架;
S102)导入TENSORFLOW机器学习库;
S103)导入数据分析包Pandas,利用Python学习生成机器学习库。
进一步地,在处理器执行上述指令时,所述步骤S200还包括以下子步骤:
S201)将本地乐曲数据库或网络乐曲数据库中的乐曲音频文件进行分类,分成主旋律乐曲数据库以及伴奏数据库;
S202)从主旋律乐曲数据库以及伴奏数据库中对不同曲风类型的乐曲音频文件进行标记;
S203)从不同类型的乐曲音频文件中提取第一元素样本,并根据分割模型将所述乐曲元素分割得到每个元素样本对应的音频剪辑;
S204)根据所述音频剪辑获取每个元素样本对应的持续时间和基频,以构建训练样本集合;
S205)根据所述训练样本集合训练编曲预测模型。
进一步地,在处理器执行上述指令时,所述步骤S300还包括以下子步骤:
S301)根据曲风类型信息搜索相应的乐曲数据库;
S302)在相应的主旋律数据库和伴奏数据库中各自随机选择一个乐曲音频文件,提取所述乐曲音频文件中第一乐曲元素,将所述第一乐曲元素作为目标音频文件的第一乐曲元素,所述第一乐曲元素包括主旋律乐曲元素和伴奏乐曲元素。
进一步地,在处理器执行上述指令时,所述步骤S400还包括以下子步骤:
S401)根据目标音频文件的第一乐曲元素利用编曲预测模型预测并生成剩下的乐曲元素;
S402)将生成的乐曲元素合成目标音频文件。
进一步地,在处理器执行上述指令时,每个元素样本的音频剪辑至少包括在所述音频文件样本中的起始时间。
进一步地,在处理器执行上述指令时,还包括利用PYTHON工具从网络中提取乐曲音频数据并生成网络乐曲数据库。
进一步地,在本申请的上述方法中,利用梯度下降方法对所述编曲预测模型进行更新处理。
本申请的有益效果为:解决了过去制作音乐,需要作曲家作曲以及反复修改的弊端,降低花费和时间成本。
附图说明
图1所示为本申请所公开的基于深度学习的音乐编曲方法的流程图;
图2所示为在本申请的一个方法实施例中的子方法的流程图;
图3所示为在本申请的一个方法实施例中的子方法的流程图;
图4所示为在本申请的一个方法实施例中的子方法的流程图;
图5所示为本申请所公开的基于深度学习的音乐编曲系统的结构图。
具体实施方式
以下将结合实施例和附图对本申请的构思、具体结构及产生的技术效果进行清楚、完整的描述,以充分地理解本申请的目的、方案和效果。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
需要说明的是,如无特殊说明,当某一特征被称为“固定”、“连接”在另一个特征,它可以直接固定、连接在另一个特征上,也可以间接地固定、连接在另一个特征上。此外,本申请中所使用的上、下、左、右等描述仅仅是相对于附图中本申请各组成部分的相互位置关系来说的。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
此外,除非另有定义,本文所使用的所有的技术和科学术语与本技术领域的技术人员通常理解的含义相同。本文说明书中所使用的术语只是为了描述具体的实施例,而不是为了限制本申请。本文所使用的术语“和/或”包括一个或多个相关的所列项目的任意的组合。
应当理解,尽管在本申请中可能采用术语第一、第二、第三等来描述各种元件,但这些元件不应限于这些术语。这些术语仅用来将同一类型的元件彼此区分开。例如,在不脱离本申请范围的情况下,第一元件也可以被称为第二元件,类似地,第二元件也可以被称为第一元件。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”。
参照图1所示的方法流程图,在本申请的一个或多个实施例中,本申请提出一种基于神经网络的歌曲生成方法,适用于根据歌词自动生成歌曲。该方法包括以下步骤:
S100)加载深度学习运行环境,创建机器学习库;
S200)导入本地乐曲数据库或网络乐曲数据库,训练编曲预测模型;
S300)识别所需的曲风类型,根据识别的曲风类型从编曲数据库提取相应的乐曲元素;
S400)基于所述编曲预测模型合成音频文件。
在本申请的一个或多个实施例中,上述步骤S100)可以通过以下子步骤实现:
S101)加载CUDA运算构架;
S102)导入TENSORFLOW机器学习库;
S103)导入数据分析包Pandas,利用Python学习生成机器学习库。
具体地,CUDA运算架构是硬件和软件架构,用于将GPU上作为数据并行计算设备在GPU上进行计算的发放和管理,而无需将其映射到图像API。操作系统的多任务机制负责管理多个并发运行的CUDA和图像应用程序对GPU的访问。
参照图2所示的子方法流程图,在本申请的一个或多个实施例中,上述步骤S200)可以通过以下子步骤实现:
S201)将本地乐曲数据库或网络乐曲数据库中的乐曲音频文件进行分类,分成主旋律乐曲数据库以及伴奏数据库;
S202)从主旋律乐曲数据库以及伴奏数据库中对不同曲风类型的乐曲音频文件进行标记;
S203)从不同类型的乐曲音频文件中提取第一元素样本,并根据分割模型将所述乐曲元素分割得到每个元素样本对应的音频剪辑;
S204)根据所述音频剪辑获取每个元素样本对应的持续时间和基频,以构建训练样本集合;
S205)根据所述训练样本集合训练编曲预测模型。
具体地,在生成编曲预测模型过程中,本地乐曲数据库或网络乐曲数据库中的乐曲音频文件中包含多个音频样本,而且不同音频样本所对应的曲风可以相同,也可以不相同,例如可以利用曲风为流行、蓝调、古典、爵士等多种不同曲风的音频样本来进行模型训练。此外,任一个训练样本对应的时间维度特征信息是指该音频样本在时间轴上的时刻信息。其中对于不同的曲风音频文件分别训练编曲预测模型,并将不同编曲预测模型分开存储。
参照图3所示的子方法流程图,在本申请的一个或多个实施例中,上述步骤S300)可以通过以下子步骤实现:
S301)根据曲风类型信息搜索相应的乐曲数据库;
S302)在相应的主旋律数据库和伴奏数据库中各自随机选择一个乐曲音频文件,提取所述乐曲音频文件中第一乐曲元素,将所述第一乐曲元素作为目标音频文件的第一乐曲元素,所述第一乐曲元素包括主旋律乐曲元素和伴奏乐曲元素。
参照图4所示的子方法流程图,在本申请的一个或多个实施例中,上述步骤S400)可以通过以下子步骤实现:
S401)根据目标音频文件的第一乐曲元素利用编曲预测模型预测并生成剩下的乐曲元素;
S402)将生成的乐曲元素合成目标音频文件。
具体地,用户输入想要的曲风类型,系统搜寻该曲风类型的音频文件并随机选择一个,将其中的第一乐曲元素提取出来作为目标文件的第一乐曲元素,加载对应曲风类型的编曲预测模型,编曲预测模型根据第一乐曲元素的相应音符数值,通过深度学习预测接下来第二个乐曲元素的音符数值,接着根据第二个乐曲元素预测下一个,直到到达用户预设的视频时长停止预测。
进一步地,在本申请的上述方法的一个或多个实施例中,每个元素样本的音频剪辑至少包括在所述音频文件样本中的起始时间;还包括利用PYTHON工具从网络中提取乐曲音频数据并生成网络乐曲数据库;利用梯度下降方法对所述编曲预测模型进行更新处理。
参照图5所示的模块结构图,在本申请的一个或多个实施例中,本申请还公开了一种基于深度学习的音乐编曲系统,包括以下模块:加载模块,用于加载深度学习运行环境,创建机器学习库;模型训练模块,用于导入本地乐曲数据库或网络乐曲数据库,训练编曲预测模型;处理模块,用于识别所需的曲风类型,根据识别的曲风类型从编曲数据库提取相应的乐曲元素;生成模块,用于基于所述编曲预测模型合成音频文件。
进一步地,在本申请的上述系统中,模型训练模块还包括以下子模块:分类模块,用于将本地乐曲数据库或网络乐曲数据库中的乐曲音频文件进行分类,分成主旋律乐曲数据库以及伴奏数据库;标记模块,用于从主旋律乐曲数据库以及伴奏数据库中对不同曲风类型的乐曲音频文件进行标记;提取模块,用于从不同类型的乐曲音频文件中提取第一元素样本,并根据分割模型将所述乐曲元素分割得到每个元素样本对应的音频剪辑;构建模块,用于根据所述音频剪辑获取每个元素样本对应的持续时间和基频,以构建训练样本集合。
具体地,在生成编曲预测模型过程中,本地乐曲数据库或网络乐曲数据库中的乐曲音频文件中包含多个音频样本,而且不同音频样本所对应的曲风可以相同,也可以不相同,例如可以利用曲风为流行、蓝调、古典、爵士等多种不同曲风的音频样本来进行模型训练。此外,任一个训练样本对应的时间维度特征信息是指该音频样本在时间轴上的时刻信息。其中对于不同的曲风音频文件分别训练编曲预测模型,并将不同编曲预测模型分开存储。
进一步地,在本申请的上述系统中,处理模块还包括以下子模块:搜索模块,用于根据曲风类型信息搜索相应的乐曲数据库;预处理模块,用于在相应的主旋律数据库和伴奏数据库中各自随机选择一个乐曲音频文件,提取所述乐曲音频文件中第一乐曲元素,将所述第一乐曲元素作为目标音频文件的第一乐曲元素,所述第一乐曲元素包括主旋律乐曲元素和伴奏乐曲元素。
进一步地,在本申请的上述系统中,生成模块还包括以下子模块:编曲模块,用于根据目标音频文件的第一乐曲元素利用编曲预测模型预测并生成剩下的乐曲元素;合成模块,用于将生成的乐曲元素合成目标音频文件。
具体地,用户输入想要的曲风类型,系统搜寻该曲风类型的音频文件并随机选择一个,将其中的第一乐曲元素提取出来作为目标文件的第一乐曲元素,加载对应曲风类型的编曲预测模型,编曲预测模型根据第一乐曲元素的相应音符数值,通过深度学习预测接下来第二个乐曲元素的音符数值,接着根据第二个乐曲元素预测下一个,直到到达用户预设的视频时长停止预测。
在本申请的一个或多个实施例中,编曲预测模型是基于Tensorflow和Kerass学习框架建立。具体地,通过神经网络Tensorflow的机器学习和深度学习计算,结合Keras Api的卷积神经网络和相信函数,在音频文件样本集合中进行机器训练,从而实现预测音素对应的持续时间和基频的深度学习。当然本申请中提及的分割模型和乐曲合成模型也可以是基于Tensorflow和Kerass学习框架建立。本领域技术人员可以根据采用现有的神经网络训练方式建立并训练相应的分类器,本申请对此不予具体限定。
应当认识到,本申请的实施例可以由计算机硬件、硬件和软件的组合、或者通过存储在非暂时性计算机可读存储器中的计算机指令来实现或实施。该方法可以使用标准编程技术-包括配置有计算机程序的非暂时性计算机可读存储介质在计算机程序中实现,其中如此配置的存储介质使得计算机以特定和预定义的方式操作——根据在具体实施例中描述的方法和附图。每个程序可以以高级过程或面向对象的编程语言来实现以与计算机系统通信。然而,若需要,该程序可以以汇编或机器语言实现。在任何情况下,该语言可以是编译或解释的语言。此外,为此目的该程序能够在编程的专用集成电路上运行。
进一步地,该方法可以在可操作地连接至合适的任何类型的计算平台中实现,包括但不限于个人电脑、迷你计算机、主框架、工作站、网络或分布式计算环境、单独的或集成的计算机平台、或者与带电粒子工具或其它成像装置通信等等。本申请的各方面可以以存储在非暂时性存储介质或设备上的机器可读代码来实现,无论是可移动的还是集成至计算平台,如硬盘、光学读取和/或写入存储介质、RAM、ROM等,使得其可由可编程计算机读取,当存储介质或设备由计算机读取时可用于配置和操作计算机以执行在此所描述的过程。此外,机器可读代码,或其部分可以通过有线或无线网络传输。当此类媒体包括结合微处理器或其他数据处理器实现上文该步骤的指令或程序时,本文所述的申请包括这些和其他不同类型的非暂时性计算机可读存储介质。当根据本申请所述的方法和技术编程时,本申请还包括计算机本身。
计算机程序能够应用于输入数据以执行本文所述的功能,从而转换输入数据以生成存储至非易失性存储器的输出数据。输出信息还可以应用于一个或多个输出设备如显示器。在本申请优选的实施例中,转换的数据表示物理和有形的对象,包括显示器上产生的物理和有形对象的特定视觉描绘。
因此,应以说明性意义而不是限制性意义来理解本说明书和附图。然而,将明显的是:在不脱离如权利要求书中阐述的本申请的更宽广精神和范围的情况下,可以对本申请做出各种修改和改变。
其他变型在本申请的精神内。因此,尽管所公开的技术可容许各种修改和替代构造,但在附图中已示出并且在上文中详细描述所示的其某些实施例。然而,应当理解,并不意图将本申请局限于所公开的一种或多种具体形式;相反,其意图涵盖如所附权利要求书中所限定落在本申请的精神和范围内的所有修改、替代构造和等效物。
Claims (10)
1.一种基于深度学习的音乐编曲方法,其特征在于,包括以下步骤:
S100)加载深度学习运行环境,创建机器学习库;
S200)导入本地乐曲数据库或网络乐曲数据库,训练编曲预测模型;
S300)识别所需的曲风类型,根据识别的曲风类型从编曲数据库提取相应的乐曲元素;
S400)基于所述编曲预测模型合成音频文件。
2.根据权利要求1所述的方法,其特征在于,所述步骤S100还包括以下子步骤:
S101)加载CUDA运算构架;
S102)导入TENSORFLOW机器学习库;
S103)导入数据分析包Pandas,利用Python学习生成机器学习库。
3.根据权利要求1所述的方法,其特征在于,所述步骤S200还包括以下子步骤:
S201)将本地乐曲数据库或网络乐曲数据库中的乐曲音频文件进行分类,分成主旋律乐曲数据库以及伴奏数据库;
S202)从主旋律乐曲数据库以及伴奏数据库中对不同曲风类型的乐曲音频文件进行标记;
S203)从不同类型的乐曲音频文件中提取第一元素样本,并根据分割模型将所述乐曲元素分割得到每个元素样本对应的音频剪辑;
S204)根据所述音频剪辑获取每个元素样本对应的持续时间和基频,以构建训练样本集合;
S205)根据所述训练样本集合训练编曲预测模型。
4.根据权利要求3所述的方法,其特征在于,所述步骤S300还包括以下子步骤:
S301)根据曲风类型信息搜索相应的乐曲数据库;
S302)在相应的主旋律数据库和伴奏数据库中各自随机选择一个乐曲音频文件,提取所述乐曲音频文件中第一乐曲元素,将所述第一乐曲元素作为目标音频文件的第一乐曲元素,所述第一乐曲元素包括主旋律乐曲元素和伴奏乐曲元素。
5.根据权利要求4所述的方法,其特征在于,所述步骤S400还包括以下子步骤:
S401)根据目标音频文件的第一乐曲元素利用编曲预测模型预测并生成剩下的乐曲元素;
S402)将生成的乐曲元素合成目标音频文件。
6.根据权利要求3所述的方法,其特征在于,每个元素样本的音频剪辑至少包括在所述音频文件样本中的起始时间。
7.根据权利要求1至6中任意一项所述的方法,其特征在于,还包括利用PYTHON工具从网络中提取乐曲音频数据并生成网络乐曲数据库。
8.根据权利要求1所述的方法,其特征在于,利用梯度下降方法对所述编曲预测模型进行更新处理。
9.一种基于深度学习的音乐编曲系统,其特征在于,包括以下模块:
加载模块,用于加载深度学习运行环境,创建机器学习库;
模型训练模块,用于导入本地乐曲数据库或网络乐曲数据库,训练编曲预测模型;
处理模块,用于识别所需的曲风类型,根据识别的曲风类型从编曲数据库提取相应的乐曲元素;
合成模块,用于基于所述编曲预测模型合成音频文件。
10.一种计算机可读存储介质,其上存储有计算机指令,其特征在于该指令被处理器执行时实现如权利要求1至8中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811554945.2A CN109785818A (zh) | 2018-12-18 | 2018-12-18 | 一种基于深度学习的音乐编曲方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811554945.2A CN109785818A (zh) | 2018-12-18 | 2018-12-18 | 一种基于深度学习的音乐编曲方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109785818A true CN109785818A (zh) | 2019-05-21 |
Family
ID=66497391
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811554945.2A Pending CN109785818A (zh) | 2018-12-18 | 2018-12-18 | 一种基于深度学习的音乐编曲方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109785818A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112102801A (zh) * | 2020-09-04 | 2020-12-18 | 北京有竹居网络技术有限公司 | 一种主旋律的生成方法、装置、电子设备及存储介质 |
CN113178182A (zh) * | 2021-04-25 | 2021-07-27 | 北京灵动音科技有限公司 | 信息处理方法、装置、电子设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05181409A (ja) * | 1991-12-30 | 1993-07-23 | Casio Comput Co Ltd | 自動作曲機 |
CN101796587A (zh) * | 2007-09-07 | 2010-08-04 | 微软公司 | 声音旋律的自动伴奏 |
CN101800046A (zh) * | 2010-01-11 | 2010-08-11 | 北京中星微电子有限公司 | 一种根据音符生成midi音乐的方法和装置 |
KR20160076775A (ko) * | 2014-12-23 | 2016-07-01 | 김성현 | 입력 곡 정보에 기반한 자동 작곡 프로그램 및 시스템 |
CN105893460A (zh) * | 2016-03-22 | 2016-08-24 | 上海班砖网络科技有限公司 | 一种基于人工智能技术的音乐自动创作方法及装置 |
CN107123415A (zh) * | 2017-05-04 | 2017-09-01 | 吴振国 | 一种自动编曲方法及系统 |
-
2018
- 2018-12-18 CN CN201811554945.2A patent/CN109785818A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05181409A (ja) * | 1991-12-30 | 1993-07-23 | Casio Comput Co Ltd | 自動作曲機 |
CN101796587A (zh) * | 2007-09-07 | 2010-08-04 | 微软公司 | 声音旋律的自动伴奏 |
CN101800046A (zh) * | 2010-01-11 | 2010-08-11 | 北京中星微电子有限公司 | 一种根据音符生成midi音乐的方法和装置 |
KR20160076775A (ko) * | 2014-12-23 | 2016-07-01 | 김성현 | 입력 곡 정보에 기반한 자동 작곡 프로그램 및 시스템 |
CN105893460A (zh) * | 2016-03-22 | 2016-08-24 | 上海班砖网络科技有限公司 | 一种基于人工智能技术的音乐自动创作方法及装置 |
CN107123415A (zh) * | 2017-05-04 | 2017-09-01 | 吴振国 | 一种自动编曲方法及系统 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112102801A (zh) * | 2020-09-04 | 2020-12-18 | 北京有竹居网络技术有限公司 | 一种主旋律的生成方法、装置、电子设备及存储介质 |
CN112102801B (zh) * | 2020-09-04 | 2022-04-05 | 北京有竹居网络技术有限公司 | 一种主旋律的生成方法、装置、电子设备及存储介质 |
CN113178182A (zh) * | 2021-04-25 | 2021-07-27 | 北京灵动音科技有限公司 | 信息处理方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109344382A (zh) | 审核合同的方法、装置、电子设备及计算机可读存储介质 | |
CN110795913B (zh) | 一种文本编码方法、装置、存储介质及终端 | |
Ray et al. | Benchmarking for performance evaluation | |
CN107644286A (zh) | 工作流处理方法及装置 | |
CN106649825A (zh) | 语音交互系统及其创建方法和装置 | |
CN110473526A (zh) | 对语音识别模型进行个性化的装置和方法及电子装置 | |
CN108052979A (zh) | 对模型预测值进行融合的方法、装置和设备 | |
CN109801349A (zh) | 一种声音驱动的三维动画角色实时表情生成方法和系统 | |
Keshavarz et al. | Minimizing total completion time in the flexible flowshop sequence-dependent group scheduling problem | |
CN109829482A (zh) | 歌曲训练数据处理方法、装置及计算机可读存储介质 | |
CN109783624A (zh) | 基于知识库的答案生成方法、装置和智能会话系统 | |
CN109800879A (zh) | 知识库构建方法和装置 | |
CN105989067A (zh) | 从图片生成文本摘要的方法、用户设备及训练服务器 | |
CN110008397A (zh) | 一种推荐模型训练方法及装置 | |
CN107886231A (zh) | 客服的服务质量评价方法与系统 | |
CN107833059A (zh) | 客服的服务质量评价方法与系统 | |
CN109214407A (zh) | 事件检测模型、方法、装置、计算设备及存储介质 | |
CN110136689A (zh) | 基于迁移学习的歌声合成方法、装置及存储介质 | |
CN110490761A (zh) | 一种电网配网设备台账数据模型建模方法 | |
CN116245670B (zh) | 基于双标签模型处理财税数据的方法、装置、介质和设备 | |
CN109615504A (zh) | 产品推荐方法、装置、电子设备和计算机可读存储介质 | |
CN107562925A (zh) | 用于推荐文章的方法、设备和电子设备 | |
CN110164412A (zh) | 一种基于lstm的音乐自动合成方法及系统 | |
CN109785818A (zh) | 一种基于深度学习的音乐编曲方法和系统 | |
CN109815448A (zh) | 幻灯片生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190521 |