CN113470601B - 一种自动作曲方法及系统 - Google Patents

一种自动作曲方法及系统 Download PDF

Info

Publication number
CN113470601B
CN113470601B CN202110767484.2A CN202110767484A CN113470601B CN 113470601 B CN113470601 B CN 113470601B CN 202110767484 A CN202110767484 A CN 202110767484A CN 113470601 B CN113470601 B CN 113470601B
Authority
CN
China
Prior art keywords
music data
music
data
training set
evaluation result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110767484.2A
Other languages
English (en)
Other versions
CN113470601A (zh
Inventor
陈昊
罗刚
黎明
王铭勋
黄敏
徐一晨
张聪炫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanchang Hangkong University
Original Assignee
Nanchang Hangkong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanchang Hangkong University filed Critical Nanchang Hangkong University
Priority to CN202110767484.2A priority Critical patent/CN113470601B/zh
Publication of CN113470601A publication Critical patent/CN113470601A/zh
Application granted granted Critical
Publication of CN113470601B publication Critical patent/CN113470601B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Genetics & Genomics (AREA)
  • Physiology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

本发明涉及了一种自动作曲方法及系统,所述方法包括如下步骤:构建音乐数据训练集;以所述音乐数据训练集中的音乐数据作为LSTM网络模型的输入,以所述音乐数据的质量数据作为LSTM网络模型的输出,利用所述音乐数据训练集训练LSTM网络模型,获得训练后的LSTM网络模型;以训练后的LSTM网络模型的输出的最大化为优化目标,采用优化算法,进行音乐生成。本发明结合LSTM网络模型和优化算法实现对生成音乐的自动评价和优化,实现了自动对生成音乐进行优化,自动生成优化后的音乐。

Description

一种自动作曲方法及系统
技术领域
本发明涉及自动作曲技术领域,特别是涉及一种自动作曲方法及系统。
背景技术
音乐是一门丰富人们生活的艺术,如今已成为社会生活不可或缺的一部分。而自动作曲技术,是一种利用计算机,以算法、规则或结构模型等主要技术手段为基础的作曲系统。自动作曲技术已成为人工智能技术研究的热点之一。
现有的基于进化算法等的作曲方法,生成的音乐参差不齐,需要人工的去对生成音乐进行评判和选择,无法自动对生成音乐进行优化,自动生成优化后的音乐。
发明内容
本发明的目的是提供一种自动作曲方法及系统,以自动对生成音乐进行优化,自动生成优化后的音乐。
为实现上述目的,本发明提供了如下方案:
本发明提供一种自动作曲方法,所述方法包括如下步骤:
构建音乐数据训练集;
以所述音乐数据训练集中的音乐数据作为LSTM网络模型的输入,以所述音乐数据的质量数据作为LSTM网络模型的输出,利用所述音乐数据训练集训练LSTM网络模型,获得训练后的LSTM网络模型;
以训练后的LSTM网络模型的输出的最大化为优化目标,采用优化算法,进行音乐生成。
可选的,所述构建音乐数据训练集,具体包括:
获取原始音乐数据集;
采用遗传算法对所述原始音乐数据集进行处理,获得生成音乐数据集;
将所述原始音乐数据集和所述生成音乐数据集合并到音乐数据训练集中;
采用音乐质量评价算法对音乐数据训练集中的每个音乐数据进行评价,获得每个音乐数据的质量数据。
可选的,所述遗传算法中按照所述原始音乐数据集中每个音高的统计概率生成初始的父代种群中的随机音乐。
可选的,所述遗传算法中的适应度函数为M=SR-2-gram+SR-3-gram-Srule-N;其中,SR-2-gram为随机音乐中连续相邻2个音高数据在原始音乐数据集中出现的次数、SR-3-gram为随机音乐中连续相邻3个音高数据在原始音乐数据集中出现的次数及,Srule-N为随机音乐中为音乐规则中不和谐音乐的音调出现的次数。
可选的,所述采用音乐质量评价算法对音乐数据训练集中的每个音乐数据进行评价,获得每个音乐数据的质量数据,具体包括:
采用n-gram相似度评价方法,利用公式f1=S2-gram+S3-gram,对音乐数据训练集中的每个音乐数据进行评价,获得音乐数据训练集中的每个音乐数据的第一评价结果;
其中,f1表示音乐数据训练集中的音乐数据的第一评价结果,S2-gram表示音乐数据训练集中的音乐数据的相邻两个音高数据在原始音乐数据集中出现的次数,S3-gram表示音乐数据训练集中的音乐数据的相邻三个音高数据在原始音乐数据集中出现的次数;
采用音乐规则评价方法,利用公式f2=∑Srule,对音乐数据训练集中的每个音乐数据进行评价,获得音乐数据训练集中的每个音乐数据的第二评价结果;其中,f2表示音乐数据训练集中的音乐数据的第二评价结果,Srule表示音乐数据符合的音乐规则中的规则的得分;
以所述第一评价结果和所述第二评价结果的和为依据,对所述音乐数据训练集中的音乐数据进行分层;
分别从每层的音乐数据中获取小样本数据进行听觉感知评分,获得每层的音乐数据中的每个小样本数据的第三评价结果;
采用小样本学习技术,分别根据每层的音乐数据中的每个小样本数据的第三评价结果,对每层中的每个音乐数据进行评价,获得每层中的每个音乐数据的第三评价结果;
对音乐数据训练集中每个音乐数据的第一评价结果、第二评价结果和第三评价结果进行加权求和,得到音乐数据训练集中每个音乐数据的质量数据。
一种自动作曲系统,所述系统包括:
音乐数据训练集构建模块,用于构建音乐数据训练集;
LSTM网络模型训练模块,用于以所述音乐数据训练集中的音乐数据作为LSTM网络模型的输入,以所述音乐数据的质量数据作为LSTM网络模型的输出,利用所述音乐数据训练集训练LSTM网络模型,获得训练后的LSTM网络模型;
音乐生成模块,用于以训练后的LSTM网络模型的输出的最大化为优化目标,采用优化算法,进行音乐生成。
可选的,所述音乐数据训练集构建模块,具体包括:
原始音乐数据集获取子模块,用于获取原始音乐数据集;
音乐数据生成子模块,用于采用遗传算法对所述原始音乐数据集进行处理,获得生成音乐数据集;
数据集合并子模块,用于将所述原始音乐数据集和所述生成音乐数据集合并到音乐数据训练集中;
质量数据获取子模块,用于采用音乐质量评价算法对音乐数据训练集中的每个音乐数据进行评价,获得每个音乐数据的质量数据。
可选的,所述遗传算法中按照所述原始音乐数据集中每个音高的统计概率生成初始的父代种群中的随机音乐。
可选的,所述遗传算法中的适应度函数为M=SR-2-gram+SR-3-gram-Srule-N
其中,SR-2-gram为随机音乐中连续相邻2个音高数据在原始音乐数据集中出现的次数、SR-3-gram为随机音乐中连续相邻3个音高数据在原始音乐数据集中出现的次数及,Srule-N为随机音乐中为音乐规则中不和谐音乐的音调出现的次数。
可选的,所述质量数据获取子模块,具体包括:
第一评价单元,用于采用n-gram相似度评价方法,利用公式f1=S2-gram+S3-gram,对音乐数据训练集中的每个音乐数据进行评价,获得音乐数据训练集中的每个音乐数据的第一评价结果;
其中,f1表示音乐数据训练集中的音乐数据的第一评价结果,S2-gram表示音乐数据训练集中的音乐数据的相邻两个音高数据在原始音乐数据集中出现的次数,S3-gram表示音乐数据训练集中的音乐数据的相邻三个音高数据在原始音乐数据集中出现的次数;
第二评价单元,用于采用音乐规则评价方法,利用公式f2=∑Srule,对音乐数据训练集中的每个音乐数据进行评价,获得音乐数据训练集中的每个音乐数据的第二评价结果;其中,f2表示音乐数据训练集中的音乐数据的第二评价结果,Srule表示音乐数据符合的音乐规则中的规则的得分;
分层单元,用于以所述第一评价结果和所述第二评价结果的和为依据,对所述音乐数据训练集中的音乐数据进行分层;
听觉感知评分单元,用于分别从每层的音乐数据中获取小样本数据进行听觉感知评分,获得每层的音乐数据中的每个小样本数据的第三评价结果;
第三评价单元,用于采用小样本学习技术,分别根据每层的音乐数据中的每个小样本数据的第三评价结果,对每层中的每个音乐数据进行评价,获得每层中的每个音乐数据的第三评价结果;
加权求和单元,用于对音乐数据训练集中每个音乐数据的第一评价结果、第二评价结果和第三评价结果进行加权求和,得到音乐数据训练集中每个音乐数据的质量数据。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明公开了一种自动作曲方法,所述方法包括如下步骤:构建音乐数据训练集;以所述音乐数据训练集中的音乐数据作为LSTM网络模型的输入,以所述音乐数据的质量数据作为LSTM网络模型的输出,利用所述音乐数据训练集训练LSTM网络模型,获得训练后的LSTM网络模型;以训练后的LSTM网络模型的输出的最大化为优化目标,采用优化算法,进行音乐生成。本发明结合LSTM网络模型和优化算法实现对生成音乐的自动评价和优化,实现了自动对生成音乐进行优化,自动生成优化后的音乐。
本发明通过n-gram相似度评价模型和音乐规则评价模型从音乐数据训练集中选取不同层次的音乐,然后要求不同的观众对所选音乐进行评分。然后,利用小样本学习技术生成与音乐训练数据集相同规模的人为评分。然后,分别对n-gram评分、规则评分和人的评分三种评价权重,得到最终的综合评分,克服了现有的音乐生成方法中由于评价的原因,在音乐生成方面会存在一定的局限性的技术问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的一种自动作曲方法的总体流程图;
图2为本发明提供的一种自动作曲方法的具体流程图;
图3为本发明提供的一种自动作曲方法的原理图;
图4为本发明提供的一种自动作曲系统的结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种自动作曲方法及系统,以自动对生成音乐进行优化,自动生成优化后的音乐。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例1
如图1、2和3所示,本发明提供一种自动作曲方法,所述方法包括如下步骤:
步骤101,构建音乐数据训练集。
步骤101所述构建音乐数据训练集,具体包括:
S1获取原始音乐数据集。
S2采用遗传算法对所述原始音乐数据集进行处理,获得生成音乐数据集。
S21:统计原始音乐数据集中每个音高出现的概率;
S22:统计原始数据集相邻连续2个音高数据、相邻连续3个音高数据出现的次数;
S23:利用遗传算法根据所述每个音高出现的概率生成随机音乐,并以所述随机音乐中连续相邻2个音高数据、连续相邻3个音高数据在原始音乐数据集中出现的次数和,再与所述随机音乐符合音乐规则中不和谐音乐的次数的差,作为适应度函数,保留每一代生成音乐数据,并且之后剔除相同的音乐数据,获得生成音乐数据集。
S3将所述原始音乐数据集和所述生成音乐数据集合并到音乐数据训练集中。
S4采用音乐质量评价算法对音乐数据训练集中的每个音乐数据进行评价,获得每个音乐数据的质量数据。
由于评价的原因,在音乐生成方面会存在一定的局限性。对于基于音乐语法规则的自动作曲技术,进化算法在搜索目标的过程中存在随机性,未与原始音乐数据集进行比较就可以获得最终的音乐数据。而对于相似度评价的自动作曲技术,由于受限于无法评估音乐的听觉感知,从而未能生成好的音乐作品。基于此,本发明提供了多准则评价算法。
S4所述采用音乐质量评价算法对音乐数据训练集中的每个音乐数据进行评价,获得每个音乐数据的质量数据,具体包括:
采用n-gram相似度评价方法,利用公式f1=S2-gram+S3-gram,对音乐数据训练集中的每个音乐数据进行评价,获得音乐数据训练集中的每个音乐数据的第一评价结果;
其中,f1表示音乐数据训练集中的音乐数据的第一评价结果,S2-gram表示音乐数据训练集中的音乐数据的相邻两个音高数据在原始音乐数据集中出现的次数,S3-gram表示音乐数据训练集中的音乐数据的相邻三个音高数据在原始音乐数据集中出现的次数;
采用音乐规则评价方法,利用公式f2=∑Srule,对音乐数据训练集中的每个音乐数据进行评价,获得音乐数据训练集中的每个音乐数据的第二评价结果;其中,f2表示音乐数据训练集中的音乐数据的第二评价结果,Srule表示音乐数据符合的音乐规则中的规则的得分;
以所述第一评价结果和所述第二评价结果的和为依据,对所述音乐数据训练集中的音乐数据进行分层;
分别从每层的音乐数据中获取小样本数据进行听觉感知评分,获得每层的音乐数据中的每个小样本数据的第三评价结果;
采用小样本学习技术,分别根据每层的音乐数据中的每个小样本数据的第三评价结果,对每层中的每个音乐数据进行评价,获得每层中的每个音乐数据的第三评价结果;
对音乐数据训练集中每个音乐数据的第一评价结果、第二评价结果和第三评价结果进行加权求和,得到音乐数据训练集中每个音乐数据的质量数据。
S4具体包括如下步骤:
S41对音乐数据训练集进行相似度和音乐规则评价,选出代表性音乐进行人为评价,该步骤具体包括:
S411:统计音乐数据训练集在原始音乐数据集中2-gram、3-gram的出现的次数,作为评价1得分;
S22:统计音乐数据训练集中符合音乐规则的次数,作为评价2得分,所述音乐规则如下表1所述:
表1提出的音乐规则
Figure BDA0003152395910000071
Figure BDA0003152395910000081
所述小二度指的是连续两个音高数据的差的绝对值为1;小七度指的是连续两个音高数据的差的绝对值为10;超过一个八度指的是连续两个音高数据的差的绝对值大于12;非小二度、非小三度、非大三度指的连续两个音高数据的差的绝对值不为2、3、4。
S42:扩充人为评价结果规模,对三种评价归一化和加权处理,得到唯一评价,该步骤具体包括:
S421:根据每个听众打的分数,对所述选出的代表性音乐的每个分数进行概率统计;
S422:利用小样本学习技术,对每个层次的音乐数据训练集依据所述每个分数的概率进行随机生成分数;即,对每个层次的音乐数据按照每种分数的概率进行分数生成。
S423:分别对n-gram得到评价分数、音乐规则得到的评价分数、人为评价得到的分数按照公式
Figure BDA0003152395910000082
进行归一化处理,可以得到每首音乐归一化后的n-gram评价分数、音乐规则评价分数、人为评价分数;
S424:给予所述三种评价的归一化分数不同权重w1、w2、w3,并根据公式f″=w1*f'1+w2*f'2+w3*f'3获得每首音乐的唯一评价。
步骤102,以所述音乐数据训练集中的音乐数据作为LSTM网络模型的输入,以所述音乐数据的质量数据作为LSTM网络模型的输出,利用所述音乐数据训练集训练LSTM网络模型,获得训练后的LSTM网络模型;
步骤103,以训练后的LSTM网络模型的输出的最大化为优化目标,采用优化算法,进行音乐生成。所述优化算法可以但不限于粒子群算法、遗传算法等。
实施例2
自动作曲的过程具体如下:
S2-1、首先利用音乐数据生成模块进行音乐数据的生成,包括原始音乐数据集的处理和利用遗传算法生成音乐数据集,并使两者合并得到最终的音乐数据训练集,其中原始音乐数据集包括24首唢呐音乐数据。
S2-2、通过音乐评价模块对音乐数据训练集中每首音乐进行评价,包括根据n-gram评价与规则评价的综合得分,选出具有代表性的音乐进行人为打分。
S2-3、利用数据扩充模块对人为评价的分数进行扩充,使之规模与音乐数据训练集的规模一样。
S2-4、利用数据融合模块,将三种评价的归一化后的评价分数进行加权计算,在本实施例中,分别以0.7、0.2、0.1对应给予f1、f2、f3权重。
S2-5、网络训练模块,分别以音乐数据Xk作为LSTM的输入,f″作为LSTM网络的输出,进行网络训练,设置训练次数为4200次,得到一个训练好的网络模型。
S2-6、音乐优化模块。以遗传算法随机生成的初始音乐作为输入,所述训练好的网络模型的输出作为目标函数,利用原子搜索优化方法进行音乐的优化,得到目标函数中数值最高的音乐,即最好的音乐。
S2-7、对所述最好的音乐进行人为评价。
本具体实施方式选用30名听众中,其中接受过专业音乐学习的听众和未接受过专业音乐学习的听众分别有15名。听众的平均年龄24.33±1.34岁,听众的年龄差异无统计学意义。
采用本发明的方法,首先通过S2-1、S2-2、S2-3、S2-4得到每首音乐以及对应的唯一评价分数,接着通过S2-5、S2-6得到最好的音乐,最后通过S2-7得到最好的音乐的人为评价分数,打分的分值区间为1至10,最后评价分数的平均分为8.233。说明使用基于多评价准则的自动作曲方法能够生成较好的唢呐音乐。
实施例3
如图4所示,本发明还提供一种自动作曲系统,所述系统包括:
音乐数据训练集构建模块401,用于构建音乐数据训练集;
所述音乐数据训练集构建模块,具体包括:
原始音乐数据集获取子模块,用于获取原始音乐数据集;
音乐数据生成子模块,用于采用遗传算法对所述原始音乐数据集进行处理,获得生成音乐数据集;所述遗传算法中按照所述原始音乐数据集中每个音高的统计概率生成初始的父代种群中的随机音乐。所述遗传算法中的适应度函数为M=SR-2-gram+SR-3-gram-Srule-N;其中,SR-2-gram为随机音乐中连续相邻2个音高数据在原始音乐数据集中出现的次数、SR-3-gram为随机音乐中连续相邻3个音高数据在原始音乐数据集中出现的次数及,Srule-N为随机音乐中为音乐规则中不和谐音乐的音调出现的次数。
数据集合并子模块,用于将所述原始音乐数据集和所述生成音乐数据集合并到音乐数据训练集中。
质量数据获取子模块,用于采用音乐质量评价算法对音乐数据训练集中的每个音乐数据进行评价,获得每个音乐数据的质量数据。
所述质量数据获取子模块,具体包括:
第一评价单元,用于采用n-gram相似度评价方法,利用公式f1=S2-gram+S3-gram,对音乐数据训练集中的每个音乐数据进行评价,获得音乐数据训练集中的每个音乐数据的第一评价结果;
其中,f1表示音乐数据训练集中的音乐数据的第一评价结果,S2-gram表示音乐数据训练集中的音乐数据的相邻两个音高数据在原始音乐数据集中出现的次数,S3-gram表示音乐数据训练集中的音乐数据的相邻三个音高数据在原始音乐数据集中出现的次数;
第二评价单元,用于采用音乐规则评价方法,利用公式f2=∑Srule,对音乐数据训练集中的每个音乐数据进行评价,获得音乐数据训练集中的每个音乐数据的第二评价结果;其中,f2表示音乐数据训练集中的音乐数据的第二评价结果,Srule表示音乐数据符合的音乐规则中的规则的得分;
分层单元,用于以所述第一评价结果和所述第二评价结果的和为依据,对所述音乐数据训练集中的音乐数据进行分层;
听觉感知评分单元,用于分别从每层的音乐数据中获取小样本数据进行听觉感知评分,获得每层的音乐数据中的每个小样本数据的第三评价结果;
第三评价单元,用于采用小样本学习技术,分别根据每层的音乐数据中的每个小样本数据的第三评价结果,对每层中的每个音乐数据进行评价,获得每层中的每个音乐数据的第三评价结果;
加权求和单元,用于对音乐数据训练集中每个音乐数据的第一评价结果、第二评价结果和第三评价结果进行加权求和,得到音乐数据训练集中每个音乐数据的质量数据。
LSTM网络模型训练模块402,用于以所述音乐数据训练集中的音乐数据作为LSTM网络模型的输入,以所述音乐数据的质量数据作为LSTM网络模型的输出,利用所述音乐数据训练集训练LSTM网络模型,获得训练后的LSTM网络模型;
音乐生成模块403,用于以训练后的LSTM网络模型的输出的最大化为优化目标,采用优化算法,进行音乐生成。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (4)

1.一种自动作曲方法,其特征在于,所述方法包括如下步骤:
构建音乐数据训练集;
所述构建音乐数据训练集,具体包括:
获取原始音乐数据集;
采用遗传算法对所述原始音乐数据集进行处理,获得生成音乐数据集;所述遗传算法中的适应度函数为M=SR-2-gram+SR-3-gram-Srule-N
其中,SR-2-gram为随机音乐中连续相邻2个音高数据在原始音乐数据集中出现的次数、SR-3-gram为随机音乐中连续相邻3个音高数据在原始音乐数据集中出现的次数及,Srule-N为随机音乐中为音乐规则中不和谐音乐的音调出现的次数,M表示适应度函数值;
将所述原始音乐数据集和所述生成音乐数据集合并到音乐数据训练集中;
采用音乐质量评价算法对音乐数据训练集中的每个音乐数据进行评价,获得每个音乐数据的质量数据;
所述采用音乐质量评价算法对音乐数据训练集中的每个音乐数据进行评价,获得每个音乐数据的质量数据,具体包括:
采用n-gram相似度评价方法,利用公式f1=S2-gram+S3-gram,对音乐数据训练集中的每个音乐数据进行评价,获得音乐数据训练集中的每个音乐数据的第一评价结果;
其中,f1表示音乐数据训练集中的音乐数据的第一评价结果,S2-gram表示音乐数据训练集中的音乐数据的相邻两个音高数据在原始音乐数据集中出现的次数,S3-gram表示音乐数据训练集中的音乐数据的相邻三个音高数据在原始音乐数据集中出现的次数;
采用音乐规则评价方法,利用公式f2=∑Srule,对音乐数据训练集中的每个音乐数据进行评价,获得音乐数据训练集中的每个音乐数据的第二评价结果;其中,f2表示音乐数据训练集中的音乐数据的第二评价结果,Srule表示音乐数据符合的音乐规则中的规则的得分;
以所述第一评价结果和所述第二评价结果的和为依据,对所述音乐数据训练集中的音乐数据进行分层;
分别从每层的音乐数据中获取小样本数据进行听觉感知评分,获得每层的音乐数据中的每个小样本数据的第三评价结果;
采用小样本学习技术,分别根据每层的音乐数据中的每个小样本数据的第三评价结果,对每层中的每个音乐数据进行评价,获得每层中的每个音乐数据的第三评价结果,具体包括:根据每个听众打的分数,对选出的每个小样本数据的第三评价结果进行概率统计;利用小样本学习技术,对每层的音乐数据依据所述层的每种第三评价结果的概率进行随机生成分数,即,对每层的音乐数据按照所述层的每种第三评价结果的概率进行分数生成;
对音乐数据训练集中每个音乐数据的第一评价结果、第二评价结果和第三评价结果进行加权求和,得到音乐数据训练集中每个音乐数据的质量数据;
以所述音乐数据训练集中的音乐数据作为LSTM网络模型的输入,以所述音乐数据的质量数据作为LSTM网络模型的输出,利用所述音乐数据训练集训练LSTM网络模型,获得训练后的LSTM网络模型;
以训练后的LSTM网络模型的输出的最大化为优化目标,采用优化算法,进行音乐生成。
2.根据权利要求1所述的自动作曲方法,其特征在于,所述遗传算法中按照所述原始音乐数据集中每个音高的统计概率生成初始的父代种群中的随机音乐。
3.一种自动作曲系统,其特征在于,所述系统包括:
音乐数据训练集构建模块,用于构建音乐数据训练集;
所述音乐数据训练集构建模块,具体包括:
原始音乐数据集获取子模块,用于获取原始音乐数据集;
音乐数据生成子模块,用于采用遗传算法对所述原始音乐数据集进行处理,获得生成音乐数据集;所述遗传算法中的适应度函数为M=SR-2-gram+SR-3-gram-Srule-N
其中,SR-2-gram为随机音乐中连续相邻2个音高数据在原始音乐数据集中出现的次数、SR-3-gram为随机音乐中连续相邻3个音高数据在原始音乐数据集中出现的次数及,Srule-N为随机音乐中为音乐规则中不和谐音乐的音调出现的次数,M表示适应度函数值;
数据集合并子模块,用于将所述原始音乐数据集和所述生成音乐数据集合并到音乐数据训练集中;
质量数据获取子模块,用于采用音乐质量评价算法对音乐数据训练集中的每个音乐数据进行评价,获得每个音乐数据的质量数据;
所述质量数据获取子模块,具体包括:
第一评价单元,用于采用n-gram相似度评价方法,利用公式f1=S2-gram+S3-gram,对音乐数据训练集中的每个音乐数据进行评价,获得音乐数据训练集中的每个音乐数据的第一评价结果;
其中,f1表示音乐数据训练集中的音乐数据的第一评价结果,S2-gram表示音乐数据训练集中的音乐数据的相邻两个音高数据在原始音乐数据集中出现的次数,S3-gram表示音乐数据训练集中的音乐数据的相邻三个音高数据在原始音乐数据集中出现的次数;
第二评价单元,用于采用音乐规则评价方法,利用公式f2=∑Srule,对音乐数据训练集中的每个音乐数据进行评价,获得音乐数据训练集中的每个音乐数据的第二评价结果;其中,f2表示音乐数据训练集中的音乐数据的第二评价结果,Srule表示音乐数据符合的音乐规则中的规则的得分;
分层单元,用于以所述第一评价结果和所述第二评价结果的和为依据,对所述音乐数据训练集中的音乐数据进行分层;
听觉感知评分单元,用于分别从每层的音乐数据中获取小样本数据进行听觉感知评分,获得每层的音乐数据中的每个小样本数据的第三评价结果;
第三评价单元,用于采用小样本学习技术,分别根据每层的音乐数据中的每个小样本数据的第三评价结果,对每层中的每个音乐数据进行评价,获得每层中的每个音乐数据的第三评价结果,具体包括:根据每个听众打的分数,对选出的每个小样本数据的第三评价结果进行概率统计;利用小样本学习技术,对每层的音乐数据依据所述层的每种第三评价结果的概率进行随机生成分数,即,对每层的音乐数据按照所述层的每种第三评价结果的概率进行分数生成;
加权求和单元,用于对音乐数据训练集中每个音乐数据的第一评价结果、第二评价结果和第三评价结果进行加权求和,得到音乐数据训练集中每个音乐数据的质量数据;
LSTM网络模型训练模块,用于以所述音乐数据训练集中的音乐数据作为LSTM网络模型的输入,以所述音乐数据的质量数据作为LSTM网络模型的输出,利用所述音乐数据训练集训练LSTM网络模型,获得训练后的LSTM网络模型;
音乐生成模块,用于以训练后的LSTM网络模型的输出的最大化为优化目标,采用优化算法,进行音乐生成。
4.根据权利要求3所述的自动作曲系统,其特征在于,所述遗传算法中按照所述原始音乐数据集中每个音高的统计概率生成初始的父代种群中的随机音乐。
CN202110767484.2A 2021-07-07 2021-07-07 一种自动作曲方法及系统 Active CN113470601B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110767484.2A CN113470601B (zh) 2021-07-07 2021-07-07 一种自动作曲方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110767484.2A CN113470601B (zh) 2021-07-07 2021-07-07 一种自动作曲方法及系统

Publications (2)

Publication Number Publication Date
CN113470601A CN113470601A (zh) 2021-10-01
CN113470601B true CN113470601B (zh) 2023-04-07

Family

ID=77879076

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110767484.2A Active CN113470601B (zh) 2021-07-07 2021-07-07 一种自动作曲方法及系统

Country Status (1)

Country Link
CN (1) CN113470601B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116959393B (zh) * 2023-09-18 2023-12-22 腾讯科技(深圳)有限公司 音乐生成模型的训练数据生成方法、装置、设备及介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101151903A (zh) * 2006-05-09 2008-03-26 日本电信电话株式会社 视频品质评估设备、方法和程序

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4306754B2 (ja) * 2007-03-27 2009-08-05 ヤマハ株式会社 楽曲データ自動生成装置及び音楽再生制御装置
CN104021671B (zh) * 2014-05-16 2016-06-08 浙江银江研究院有限公司 一种svm与模糊判断相结合的道路实时路况的判断方法
US9721551B2 (en) * 2015-09-29 2017-08-01 Amper Music, Inc. Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions
CN108090499B (zh) * 2017-11-13 2020-08-11 中国科学院自动化研究所 基于最大信息三元组筛选网络的数据主动标注方法和系统
JP6722165B2 (ja) * 2017-12-18 2020-07-15 大黒 達也 音楽情報の特徴解析方法及びその装置
CN108804524B (zh) * 2018-04-27 2020-03-27 成都信息工程大学 基于层次化分类体系的情感判别和重要性划分方法
CN109241997B (zh) * 2018-08-03 2022-03-22 硕橙(厦门)科技有限公司 一种生成训练集的方法及装置
WO2020154422A2 (en) * 2019-01-22 2020-07-30 Amper Music, Inc. Methods of and systems for automated music composition and generation
CN113035163B (zh) * 2021-05-11 2021-08-10 杭州网易云音乐科技有限公司 音乐作品的自动生成方法及装置、存储介质、电子设备

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101151903A (zh) * 2006-05-09 2008-03-26 日本电信电话株式会社 视频品质评估设备、方法和程序

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
计算机自动作曲综述:一种通用框架;井音吉;《复旦学报(自然科学版)》;20201215;639-657 *

Also Published As

Publication number Publication date
CN113470601A (zh) 2021-10-01

Similar Documents

Publication Publication Date Title
Lionello et al. A systematic review of prediction models for the experience of urban soundscapes
Jeon et al. Classification of urban park soundscapes through perceptions of the acoustical environments
Sadjadi et al. The 2019 NIST Speaker Recognition Evaluation CTS Challenge.
CN113470601B (zh) 一种自动作曲方法及系统
CN108711336A (zh) 一种钢琴演奏评分系统及其方法
CN110008397A (zh) 一种推荐模型训练方法及装置
Choisel et al. Extraction of auditory features and elicitation of attributes for the assessment of multichannel reproduced sound
Gokulkumari et al. Analyze the political preference of a common man by using data mining and machine learning
Chou et al. Using interactive evolutionary computation (IEC) with validated surrogate fitness functions for redistricting
Defraene et al. Real-time perception-based clipping of audio signals using convex optimization
Bjerre et al. On-site and laboratory evaluations of soundscape quality in recreational urban spaces
Cunningham et al. Audio emotion recognition using machine learning to support sound design
Luo et al. Toward piano teaching evaluation based on neural network
CN115206270A (zh) 基于循环特征提取的音乐生成模型的训练方法、训练装置
Zwan et al. System for automatic singing voice recognition
Vozalis et al. Enhancing collaborative filtering with demographic data: The case of item-based filtering
Beerends et al. Quantifying sound quality in loudspeaker reproduction
Singh et al. Debunking fake news by leveraging speaker credibility and BERT based model
Meng et al. Prediction of subjective loudness in underground shopping streets using artificial neural networks
CN113742596A (zh) 一种基于注意力机制的神经协同过滤推荐方法
Ajoodha et al. Using statistical models and evolutionary algorithms in algorithmic music composition
Mogale et al. Optimizing recommendation algorithms using self-similarity matrices for music streaming services
Yang Extended QUALIFLEX method for electronic music acoustic quality evaluation based on the picture fuzzy multiple attribute group decision making
Wan et al. ABC-KD: Attention-Based-Compression Knowledge Distillation for Deep Learning-Based Noise Suppression
CN116340619B (zh) 一种面向在线社区网络欺凌的角色挖掘分析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant