CN110085263B - 一种音乐情感分类和机器作曲方法 - Google Patents

一种音乐情感分类和机器作曲方法 Download PDF

Info

Publication number
CN110085263B
CN110085263B CN201910349104.6A CN201910349104A CN110085263B CN 110085263 B CN110085263 B CN 110085263B CN 201910349104 A CN201910349104 A CN 201910349104A CN 110085263 B CN110085263 B CN 110085263B
Authority
CN
China
Prior art keywords
music
emotion
data
training
gan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910349104.6A
Other languages
English (en)
Other versions
CN110085263A (zh
Inventor
徐亦捷
周武能
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Donghua University
Original Assignee
Donghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Donghua University filed Critical Donghua University
Priority to CN201910349104.6A priority Critical patent/CN110085263B/zh
Publication of CN110085263A publication Critical patent/CN110085263A/zh
Application granted granted Critical
Publication of CN110085263B publication Critical patent/CN110085263B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor

Abstract

本发明公开了一种基于adaBoost算法和生成对抗网络的音乐情感分类和机器作曲方法,包括:利用adaBoost算法进行音乐情感分类;加入自注意力机制的生成对抗网络的建立;根据需求生成特定情感的乐段。本发明的创新点在于能够有效地对不同曲风的音乐进行分类并辅助作曲家直接针对特定曲风要求进行作曲。与传统的RNN算法等音乐生成方法相比,也有着更优质的生成质量,并且可以帮助解决多音轨样本生成的难题。

Description

一种音乐情感分类和机器作曲方法
技术领域
本发明涉及一种根据特定情感生成音乐的方法,特别涉及一种基于adaBoost算法和生成对抗网络的音乐情感分类和机器作曲的方法。
背景技术
人工智能已经在诸多领域带来变革,而在艺术创作方面也具有很大的潜力。在AI生成艺术的范畴中,与生成图像、文字不同的是,生成音乐更具挑战性,因为首先音乐是一种关于时间的艺术,其次音乐通常由多个音轨/乐器并行演奏而成,随着时间推移互相联系地展开。
基于特定情感的算法作曲可以为广告、游戏等视频的配乐节约大量时间和金钱成本,这一研究并不会取代人类作曲家,相反它会辅助人类作曲,给予人类作曲家新的灵感;同时也可以用于辅助心理治疗以及音乐播放软件的娱乐功能上。
音乐是表达情绪的艺术,它通过某种精确的组合,来传递某种特定的情绪,这种情绪可能因人而异,但是大多感受到的情绪比较相似。adaBoost算法是一种典型的Boosting算法,以弱分类器作为基础分类器,基于分类器的错误率分配不同的权重参数,最后累加加权的预测结果作为输出,非常适合音乐的情感分类。
生成对抗网络是一种深度学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。模型框架中往往有两个模块:生成模型和判别模型,生成模型主要用来学习真实数据分布从而让自身生成的图像更加真实,以骗过判别模型。判别模型则需要对生成的数据进行真假判别。通过这一互相博弈学习的过程,可以生成能以假乱真的数据。
发明内容
本发明的目的是提供一种基于adaBoost算法和生成对抗网络的音乐情感分类和机器作曲的方法。
为了达到上述目的,本发明的技术方案是提供了一种音乐情感分类和机器作曲方法,其特征在于,包括如下步骤:
(1)获取用于情感分类的音频数据训练集,采用人工标注,将音频数据训练集中的数据分为不同情绪类别,所有情绪类别充分反映音乐情感分析研究中常用的两个指标:正负面和强烈程度;
(2)提取音频数据训练集中数据的频谱和节拍特征,提取出音色、节奏两个特征来反映音乐的情绪,其中,节奏特征通过分析40-150Hz频带的调制谱子带能量得到;音色特征由子带特征、谱质心Ct,带宽Bt及短时能量Et刻画
(3)采用adaBoost算法进行情感分类的训练获得音乐情感分类模型,每一次循环生成一个弱分类器,最终的结果又构成了一个强分类器,针对步骤(1)中的每个情绪类别都训练一个adaBoost分类器;
(4)用训练好的音乐情感分类模型对一个比步骤(1)中的音频数据训练集更庞大的音乐数据集进行分类,分为不同情绪类别的训练数据集;
(5)对训练数据集中的音频数据做预处理,转化为包含音符事件与时间步的二维矩阵;
(6)建立带有自注意力机制的生成对抗网络GAN,每个生成对抗网络GAN由一个生成器和一个判别器构成,样本由两段音轨组成,一段音轨生成和弦,另一轨音轨生成旋律,每一段音轨都建立一个仅使用轨道内损失训练的生成对抗网络GAN,由两个生成对抗网络GAN去分别负责创作和弦与旋律;再建立一个使用轨道间损失训练的生成对抗网络GAN去学习和弦与旋律两个轨道的关系;GAN的判别器与生成器均是采用卷积神经网络;
(7)用分好的不同类别的训练集同时训练对应的生成对抗网络GAN,训练完成后针对不同类别的情感就都有了一个生成模型,用户需要哪种类型情绪的音乐时就可以调用对应的生成对抗网络GAN去生成。
优选地,步骤(1)中,所述情绪类别包括“平静”、“悲伤”、“激动”、“愉悦”。
优选地,步骤(2)中,所述谱质心Ct的计算公式为:
Figure BDA0002043339000000021
式中,St(n)是第t帧短时傅里叶变换的幅度值;N表示序列中观测数据的个数;
所述带宽Bt的计算公式为:
Figure BDA0002043339000000022
所述短时能量Et的计算公式为:
Figure BDA0002043339000000031
优选地,步骤(3)中,所述adaBoost分类器定义为F(x),则有:
Figure BDA0002043339000000032
式中,Gm(x)表示弱分类器;αm为弱分类器在强分类器中所占的比重,强分类器为adaBoost分类器。
优选地,步骤(6)中生成对抗网络GAN的算法公式如下:
Figure BDA0002043339000000033
式中,V(D,G)表示生成对抗网络优化问题的目标函数;Pdata代表真实数据的分布;Pz代表噪声信号的分布;x表示输入的真实样本,当x~Pdata,D(x)=1,
Figure BDA0002043339000000034
最大,D(x)表示x为真实数据的概率,
Figure BDA0002043339000000035
表示真实数据的数学期望;z表示随机噪声,当z~Pz,D(G(z))=0,
Figure BDA0002043339000000036
最大,G(z)表示生成模型的输出,
Figure BDA0002043339000000037
表示随机噪声的数学期望。判别器使V(D,G)最大,生成器使V(D,G)最小。
本发明能够有效地对不同曲风的音乐进行分类并辅助作曲家直接针对特定曲风要求进行作曲。与传统的RNN算法等音乐生成方法相比,也有着更优质的生成质量,并且可以帮助解决多音轨样本生成的难题。。
附图说明
图1为本发明实施的流程算法;
图2为本方法中用于作曲的生成对抗网络模型图。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
本发明提供了一种音乐情感分类和机器作曲方法,包括以下步骤:
(1)获取用于情感分类的音频数据训练集,采用人工标注,将其分为四类:“平静”、“悲伤”、“激动”、“愉悦”。这四种情绪可以充分反映音乐情感分析研究中常用的两个指标:正负面和强烈程度。
(2)进行音频数据训练集的频谱和节拍特征提取,提取出音色、节奏两个特征来反映音乐的情绪。其中,节奏特征可以通过分析40-150Hz频带的调制谱子带能量得到。而音色特征可以由多个角度刻画,例如子带特征、谱质心Ct,带宽Bt,短时能量Et等等。
Figure BDA0002043339000000041
Figure BDA0002043339000000042
Figure BDA0002043339000000043
式中,St(n)是第t帧短时傅里叶变换的幅度值;N表示序列中观测数据的个数。除此之外还有很多种分析音色的特征,特征越多分类越准确,但也耗时越长。
(3)采用adaBoost算法进行情感分类的训练,每一次循环都会生成一个弱分类器,最终的结果又构成了一个“强分类器”。由于人工标注将音乐情绪分为了四类,所以针对每一种情绪都训练一个adaBoost分类器F(x)。
Figure BDA0002043339000000044
式中,Gm(x)为弱分类器,αm为弱分类器在强分类器中所占的比重。
(4)用训练好的音乐情感分类模型对一个更庞大的音乐数据集进行分类,分为四种情绪的训练数据集。
(5)对音频数据做预处理,转化为包含音符事件与时间步的二维矩阵。
(6)建立带有自注意力机制(self-attention)的生成对抗网络(GAN),每个生成对抗网络由一个生成器和一个判别器构成。本方法生成的样本由两段音轨组成,一轨生成和弦,一轨生成旋律。每一段音轨都建立一个仅使用轨道内损失训练的GAN,相当于有两个“作曲家”去分别负责创作和弦与旋律;为了不至于两轨音乐听感上的脱节,再建立一个使用轨道间损失训练的GAN去学习和弦与旋律两个轨道的关系,相当于作曲的“指挥”。
生成对抗网络GAN的算法公式如下:
Figure BDA0002043339000000051
式中,V(D,G)表示生成对抗网络优化问题的目标函数;Pdata代表真实数据的分布;Pz代表噪声信号的分布;x表示输入的真实样本,当x~Pdata,D(x)=1,
Figure BDA0002043339000000052
最大,D(x)表示x为真实数据的概率,
Figure BDA0002043339000000053
表示真实数据的数学期望;z表示随机噪声,当z~Pz,D(G(z))=0,
Figure BDA0002043339000000054
最大,G(z)表示生成模型的输出,
Figure BDA0002043339000000055
表示随机噪声的数学期望。最好的判别器是使V(D,G)最大,而最好的生成器是使V(D,G)最小。GAN的本质是学习数据分布,最终得到两个一样的数据分布的零和博弈问题。
本发明中的GAN的判别器与生成器均是采用卷积神经网络,针对二维矩阵有更快的训练速度且易于并行化。
自注意力机制的引入对于音乐生成这类全局相关度很高的任务有显著帮助,即用带有自注意力的特征图去代替传统的卷积特征图。
Figure BDA0002043339000000056
式中,Bi,j表示在合成第j个区域时,模型注意到第i个位置的程度;Sij是由卷积层输出的特征图f(x)转置与g(x)的乘积。
(7)用分好的四类训练集同时训练对应的GAN,训练完成后针对四种情感就都有了一个生成模型,用户需要哪种类型情绪的音乐时就可以调用对应的GAN去生成。
图2为本方法中用于作曲的生成对抗网络模型图,两条轨道的生成器G1、G2分别生成和弦与旋律,此外建立一对生成器G与判别器D学习两条音轨间的关系。

Claims (5)

1.一种音乐情感分类和机器作曲方法,其特征在于,包括如下步骤:
(1)获取用于情感分类的音频数据训练集,采用人工标注,将音频数据训练集中的数据分为不同情感类别,所有情绪类别充分反映音乐情感分析研究中常用的两个指标:正负面和强烈程度;
(2)提取音频数据训练集中数据的频谱和节拍特征,提取出音色、节奏两个特征来反映音乐的情绪,其中,节奏特征通过分析40-150Hz频带的调制谱子带能量得到;音色特征由子带特征、谱质心Ct、带宽Bt及短时能量Et刻画
(3)采用adaBoost算法进行情感分类的训练获得音乐情感分类模型,每一次循环生成一个弱分类器,最终的结果又构成了一个强分类器,针对步骤(1)中的每个情绪类别都训练一个adaBoost分类器;
(4)用训练好的音乐情感分类模型对一个比步骤(1)中的音频数据训练集更庞大的音乐数据集进行分类,分为不同情感类别的训练数据集;
(5)对步骤(4)所述训练数据集中的音频数据做预处理,转化为包含音符事件与时间步的二维矩阵;
(6)建立带有自注意力机制的生成对抗网络GAN,每个生成对抗网络GAN由一个生成器和一个判别器构成,样本由两段音轨组成,一段音轨生成和弦,另一段轨音轨生成旋律,每一段音轨都建立一个仅使用轨道内损失训练的生成对抗网络GAN,由两个生成对抗网络GAN去分别负责创作和弦与旋律;再建立一个使用轨道间损失训练的生成对抗网络GAN去学习和弦与旋律两个轨道的关系;GAN的判别器与生成器均是采用卷积神经网络;
(7)用分好的不同情感类别的步骤(4)所述训练数据集同时训练对应的生成对抗网络GAN,训练完成后针对不同类别的情感就都有了一个生成模型,用户需要哪种类型情感的音乐时就可以调用对应的生成对抗网络GAN去生成。
2.如权利要求1所述的一种音乐情感分类和机器作曲方法,其特征在于,步骤(1)中,所述情感类别包括“平静”、“悲伤”、“激动”、“愉悦”。
3.如权利要求1所述的一种音乐情感分类和机器作曲方法,其特征在于,步骤(2)中,所述谱质心Ct的计算公式为:
Figure FDA0003015360060000021
式中,St(n)是第t帧短时傅里叶变换的幅度值;N表示序列中观测数据的个数;
所述带宽Bt的计算公式为:
Figure FDA0003015360060000022
所述短时能量Et的计算公式为:
Figure FDA0003015360060000023
4.如权利要求1所述的一种音乐情感分类和机器作曲方法,其特征在于,步骤(3)中,所述adaBoost分类器定义为F(x),则有:
Figure FDA0003015360060000024
式中,Gm(x)表示弱分类器;αm为弱分类器在强分类器中所占的比重,强分类器为adaBoost分类器。
5.如权利要求1所述的一种音乐情感分类和机器作曲方法,其特征在于,步骤(6)中生成对抗网络GAN的算法公式如下:
Figure FDA0003015360060000025
式中,V(D,G)表示生成对抗网络优化问题的目标函数;Pdata代表真实数据的分布;Pz代表噪声信号的分布;x表示输入的真实样本,当x~Pdata,D(x)=1,
Figure FDA0003015360060000026
最大,D(x)表示x为真实数据的概率,
Figure FDA0003015360060000027
表示真实数据的数学期望;z表示随机噪声,当z~Pz,D(G(z))=0,
Figure FDA0003015360060000028
最大,G(z)表示生成模型的输出,
Figure FDA0003015360060000029
表示随机噪声的数学期望;判别器使V(D,G)最大,生成器使V(D,G)最小。
CN201910349104.6A 2019-04-28 2019-04-28 一种音乐情感分类和机器作曲方法 Active CN110085263B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910349104.6A CN110085263B (zh) 2019-04-28 2019-04-28 一种音乐情感分类和机器作曲方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910349104.6A CN110085263B (zh) 2019-04-28 2019-04-28 一种音乐情感分类和机器作曲方法

Publications (2)

Publication Number Publication Date
CN110085263A CN110085263A (zh) 2019-08-02
CN110085263B true CN110085263B (zh) 2021-08-06

Family

ID=67417276

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910349104.6A Active CN110085263B (zh) 2019-04-28 2019-04-28 一种音乐情感分类和机器作曲方法

Country Status (1)

Country Link
CN (1) CN110085263B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110364186B (zh) * 2019-08-08 2021-06-25 清华大学深圳研究生院 一种基于对抗学习的端到端的跨语言语音情感识别方法
CN110742603A (zh) * 2019-10-31 2020-02-04 华南理工大学 一种脑电波可听化精神状态检测方法及实现该方法的系统
CN111243569B (zh) * 2020-02-24 2022-03-08 浙江工业大学 基于生成式对抗网络的情感语音自动生成方法及装置
CN111476200B (zh) * 2020-04-27 2022-04-19 华东师范大学 基于生成对抗网络的人脸去识别化生成方法
CN112466314A (zh) * 2020-11-27 2021-03-09 平安科技(深圳)有限公司 情感语音数据转换方法、装置、计算机设备及存储介质
CN113299255A (zh) * 2021-05-13 2021-08-24 中国科学院声学研究所 基于深度神经网络和音乐元素驱动的情感音乐生成方法
CN113923517A (zh) * 2021-09-30 2022-01-11 北京搜狗科技发展有限公司 一种背景音乐生成方法、装置及电子设备

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3913443A (en) * 1971-06-30 1975-10-21 Aaron R Jewett Musical recording and method and apparatus therefor
JPH10161654A (ja) * 1996-11-27 1998-06-19 Sanyo Electric Co Ltd 音楽ジャンル判定装置
CN1489411A (zh) * 2003-08-11 2004-04-14 用于无线手持式设备的音乐格式转换方法
CN101203904A (zh) * 2005-04-18 2008-06-18 Lg电子株式会社 音乐谱写设备的操作方法
CN101800046A (zh) * 2010-01-11 2010-08-11 北京中星微电子有限公司 一种根据音符生成midi音乐的方法和装置
CN106652984A (zh) * 2016-10-11 2017-05-10 张文铂 一种使用计算机自动创作歌曲的方法
CN107068166A (zh) * 2017-04-14 2017-08-18 四川大学 一种基于和弦与混沌序列生成耳鸣康复音的方法
CN107644630A (zh) * 2017-09-28 2018-01-30 清华大学 基于神经网络的旋律生成方法及装置
CN108369799A (zh) * 2015-09-29 2018-08-03 安泊音乐有限公司 采用基于语言学和/或基于图形图标的音乐体验描述符的自动音乐合成和生成的机器、系统和过程
CN109036355A (zh) * 2018-06-29 2018-12-18 平安科技(深圳)有限公司 自动作曲方法、装置、计算机设备和存储介质
CN109147826A (zh) * 2018-08-22 2019-01-04 平安科技(深圳)有限公司 音乐情感识别方法、装置、计算机设备及计算机存储介质
CN109299312A (zh) * 2018-10-18 2019-02-01 湖南城市学院 基于大数据的音乐节奏分析方法
CN109448683A (zh) * 2018-11-12 2019-03-08 平安科技(深圳)有限公司 基于神经网络的音乐生成方法及装置
CN109584846A (zh) * 2018-12-21 2019-04-05 成都嗨翻屋科技有限公司 一种基于生成对抗网络的旋律生成方法
CN109616090A (zh) * 2018-12-24 2019-04-12 北京达佳互联信息技术有限公司 多音轨序列生成方法、装置、设备及存储介质
CN109671416A (zh) * 2018-12-24 2019-04-23 成都嗨翻屋科技有限公司 基于增强学习的音乐旋律生成方法、装置及用户终端

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7838755B2 (en) * 2007-02-14 2010-11-23 Museami, Inc. Music-based search engine
US20130201316A1 (en) * 2012-01-09 2013-08-08 May Patents Ltd. System and method for server based control
US10152957B2 (en) * 2016-01-29 2018-12-11 Steven Lenhert Methods and devices for modulating the tempo of music in real time based on physiological rhythms
CN107464572B (zh) * 2017-08-16 2020-10-16 重庆科技学院 多模式交互音乐感知系统及其控制方法
CN107507629B (zh) * 2017-08-16 2020-08-25 重庆科技学院 热触觉音乐感知系统及其控制方法

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3913443A (en) * 1971-06-30 1975-10-21 Aaron R Jewett Musical recording and method and apparatus therefor
JPH10161654A (ja) * 1996-11-27 1998-06-19 Sanyo Electric Co Ltd 音楽ジャンル判定装置
CN1489411A (zh) * 2003-08-11 2004-04-14 用于无线手持式设备的音乐格式转换方法
CN101203904A (zh) * 2005-04-18 2008-06-18 Lg电子株式会社 音乐谱写设备的操作方法
CN101800046A (zh) * 2010-01-11 2010-08-11 北京中星微电子有限公司 一种根据音符生成midi音乐的方法和装置
CN108369799A (zh) * 2015-09-29 2018-08-03 安泊音乐有限公司 采用基于语言学和/或基于图形图标的音乐体验描述符的自动音乐合成和生成的机器、系统和过程
CN106652984A (zh) * 2016-10-11 2017-05-10 张文铂 一种使用计算机自动创作歌曲的方法
CN107068166A (zh) * 2017-04-14 2017-08-18 四川大学 一种基于和弦与混沌序列生成耳鸣康复音的方法
CN107644630A (zh) * 2017-09-28 2018-01-30 清华大学 基于神经网络的旋律生成方法及装置
CN109036355A (zh) * 2018-06-29 2018-12-18 平安科技(深圳)有限公司 自动作曲方法、装置、计算机设备和存储介质
CN109147826A (zh) * 2018-08-22 2019-01-04 平安科技(深圳)有限公司 音乐情感识别方法、装置、计算机设备及计算机存储介质
CN109299312A (zh) * 2018-10-18 2019-02-01 湖南城市学院 基于大数据的音乐节奏分析方法
CN109448683A (zh) * 2018-11-12 2019-03-08 平安科技(深圳)有限公司 基于神经网络的音乐生成方法及装置
CN109584846A (zh) * 2018-12-21 2019-04-05 成都嗨翻屋科技有限公司 一种基于生成对抗网络的旋律生成方法
CN109616090A (zh) * 2018-12-24 2019-04-12 北京达佳互联信息技术有限公司 多音轨序列生成方法、装置、设备及存储介质
CN109671416A (zh) * 2018-12-24 2019-04-23 成都嗨翻屋科技有限公司 基于增强学习的音乐旋律生成方法、装置及用户终端

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Lead Sheet Generation and Arrangement by Conditional Generative Adversarial Network;Hao-Min Liu et al;《2018 17th IEEE International Conference on Machine Learning and Applications》;20190117;全文 *
MuseGAN: Symbolic-domain Music Generation and Accompaniment with Multi-track Sequential Generative Adversarial Networks;Hao-Wen Dong et al;《ARXIV.ORG》;20170919;全文 *

Also Published As

Publication number Publication date
CN110085263A (zh) 2019-08-02

Similar Documents

Publication Publication Date Title
CN110085263B (zh) 一种音乐情感分类和机器作曲方法
Mao et al. DeepJ: Style-specific music generation
Chen et al. Speech emotion recognition: Features and classification models
Fan et al. SVSGAN: singing voice separation via generative adversarial network
Zhao et al. An emotional symbolic music generation system based on LSTM networks
US20100094634A1 (en) Method and apparatus for creating face character based on voice
CN109176541A (zh) 一种实现机器人跳舞的方法、设备和储存介质
CN110111797A (zh) 基于高斯超矢量和深度神经网络的说话人识别方法
CN105575393A (zh) 一种基于人声音色的个性化点唱歌曲推荐方法
Liu et al. Unconditional audio generation with generative adversarial networks and cycle regularization
CN111601433A (zh) 舞台灯光效果控制策略的预测方法及装置
Baird et al. The ICML 2022 expressive vocalizations workshop and competition: Recognizing, generating, and personalizing vocal bursts
Airaksinen et al. Data augmentation strategies for neural network F0 estimation
Chen et al. Generating music algorithm with deep convolutional generative adversarial networks
Dadman et al. Toward interactive music generation: A position paper
CN113593588B (zh) 一种基于生成对抗网络的多唱歌人歌声合成方法和系统
Shah et al. Nonparallel emotional voice conversion for unseen speaker-emotion pairs using dual domain adversarial network & virtual domain pairing
Wang et al. An intelligent music generation based on Variational Autoencoder
Wang et al. Capture interspeaker information with a neural network for speaker identification
Barry et al. “Style” Transfer for Musical Audio Using Multiple Time-Frequency Representations
Shim et al. S2i-bird: Sound-to-image generation of bird species using generative adversarial networks
Kim et al. MuSE-SVS: Multi-Singer Emotional Singing Voice Synthesizer that Controls Emotional Intensity
Sahoo et al. Detection of speech-based physical load using transfer learning approach
Stoller Deep Learning for Music Information Retrieval in Limited Data Scenarios.
Delgado et al. Learning Models for Query by Vocal Percussion: A Comparative Study

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant