CN110085263B - 一种音乐情感分类和机器作曲方法 - Google Patents
一种音乐情感分类和机器作曲方法 Download PDFInfo
- Publication number
- CN110085263B CN110085263B CN201910349104.6A CN201910349104A CN110085263B CN 110085263 B CN110085263 B CN 110085263B CN 201910349104 A CN201910349104 A CN 201910349104A CN 110085263 B CN110085263 B CN 110085263B
- Authority
- CN
- China
- Prior art keywords
- music
- emotion
- data
- training
- gan
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
Abstract
本发明公开了一种基于adaBoost算法和生成对抗网络的音乐情感分类和机器作曲方法,包括:利用adaBoost算法进行音乐情感分类;加入自注意力机制的生成对抗网络的建立;根据需求生成特定情感的乐段。本发明的创新点在于能够有效地对不同曲风的音乐进行分类并辅助作曲家直接针对特定曲风要求进行作曲。与传统的RNN算法等音乐生成方法相比,也有着更优质的生成质量,并且可以帮助解决多音轨样本生成的难题。
Description
技术领域
本发明涉及一种根据特定情感生成音乐的方法,特别涉及一种基于adaBoost算法和生成对抗网络的音乐情感分类和机器作曲的方法。
背景技术
人工智能已经在诸多领域带来变革,而在艺术创作方面也具有很大的潜力。在AI生成艺术的范畴中,与生成图像、文字不同的是,生成音乐更具挑战性,因为首先音乐是一种关于时间的艺术,其次音乐通常由多个音轨/乐器并行演奏而成,随着时间推移互相联系地展开。
基于特定情感的算法作曲可以为广告、游戏等视频的配乐节约大量时间和金钱成本,这一研究并不会取代人类作曲家,相反它会辅助人类作曲,给予人类作曲家新的灵感;同时也可以用于辅助心理治疗以及音乐播放软件的娱乐功能上。
音乐是表达情绪的艺术,它通过某种精确的组合,来传递某种特定的情绪,这种情绪可能因人而异,但是大多感受到的情绪比较相似。adaBoost算法是一种典型的Boosting算法,以弱分类器作为基础分类器,基于分类器的错误率分配不同的权重参数,最后累加加权的预测结果作为输出,非常适合音乐的情感分类。
生成对抗网络是一种深度学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。模型框架中往往有两个模块:生成模型和判别模型,生成模型主要用来学习真实数据分布从而让自身生成的图像更加真实,以骗过判别模型。判别模型则需要对生成的数据进行真假判别。通过这一互相博弈学习的过程,可以生成能以假乱真的数据。
发明内容
本发明的目的是提供一种基于adaBoost算法和生成对抗网络的音乐情感分类和机器作曲的方法。
为了达到上述目的,本发明的技术方案是提供了一种音乐情感分类和机器作曲方法,其特征在于,包括如下步骤:
(1)获取用于情感分类的音频数据训练集,采用人工标注,将音频数据训练集中的数据分为不同情绪类别,所有情绪类别充分反映音乐情感分析研究中常用的两个指标:正负面和强烈程度;
(2)提取音频数据训练集中数据的频谱和节拍特征,提取出音色、节奏两个特征来反映音乐的情绪,其中,节奏特征通过分析40-150Hz频带的调制谱子带能量得到;音色特征由子带特征、谱质心Ct,带宽Bt及短时能量Et刻画
(3)采用adaBoost算法进行情感分类的训练获得音乐情感分类模型,每一次循环生成一个弱分类器,最终的结果又构成了一个强分类器,针对步骤(1)中的每个情绪类别都训练一个adaBoost分类器;
(4)用训练好的音乐情感分类模型对一个比步骤(1)中的音频数据训练集更庞大的音乐数据集进行分类,分为不同情绪类别的训练数据集;
(5)对训练数据集中的音频数据做预处理,转化为包含音符事件与时间步的二维矩阵;
(6)建立带有自注意力机制的生成对抗网络GAN,每个生成对抗网络GAN由一个生成器和一个判别器构成,样本由两段音轨组成,一段音轨生成和弦,另一轨音轨生成旋律,每一段音轨都建立一个仅使用轨道内损失训练的生成对抗网络GAN,由两个生成对抗网络GAN去分别负责创作和弦与旋律;再建立一个使用轨道间损失训练的生成对抗网络GAN去学习和弦与旋律两个轨道的关系;GAN的判别器与生成器均是采用卷积神经网络;
(7)用分好的不同类别的训练集同时训练对应的生成对抗网络GAN,训练完成后针对不同类别的情感就都有了一个生成模型,用户需要哪种类型情绪的音乐时就可以调用对应的生成对抗网络GAN去生成。
优选地,步骤(1)中,所述情绪类别包括“平静”、“悲伤”、“激动”、“愉悦”。
优选地,步骤(2)中,所述谱质心Ct的计算公式为:
所述带宽Bt的计算公式为:
所述短时能量Et的计算公式为:
优选地,步骤(3)中,所述adaBoost分类器定义为F(x),则有:
优选地,步骤(6)中生成对抗网络GAN的算法公式如下:
式中,V(D,G)表示生成对抗网络优化问题的目标函数;Pdata代表真实数据的分布;Pz代表噪声信号的分布;x表示输入的真实样本,当x~Pdata,D(x)=1,最大,D(x)表示x为真实数据的概率,表示真实数据的数学期望;z表示随机噪声,当z~Pz,D(G(z))=0,最大,G(z)表示生成模型的输出,表示随机噪声的数学期望。判别器使V(D,G)最大,生成器使V(D,G)最小。
本发明能够有效地对不同曲风的音乐进行分类并辅助作曲家直接针对特定曲风要求进行作曲。与传统的RNN算法等音乐生成方法相比,也有着更优质的生成质量,并且可以帮助解决多音轨样本生成的难题。。
附图说明
图1为本发明实施的流程算法;
图2为本方法中用于作曲的生成对抗网络模型图。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
本发明提供了一种音乐情感分类和机器作曲方法,包括以下步骤:
(1)获取用于情感分类的音频数据训练集,采用人工标注,将其分为四类:“平静”、“悲伤”、“激动”、“愉悦”。这四种情绪可以充分反映音乐情感分析研究中常用的两个指标:正负面和强烈程度。
(2)进行音频数据训练集的频谱和节拍特征提取,提取出音色、节奏两个特征来反映音乐的情绪。其中,节奏特征可以通过分析40-150Hz频带的调制谱子带能量得到。而音色特征可以由多个角度刻画,例如子带特征、谱质心Ct,带宽Bt,短时能量Et等等。
式中,St(n)是第t帧短时傅里叶变换的幅度值;N表示序列中观测数据的个数。除此之外还有很多种分析音色的特征,特征越多分类越准确,但也耗时越长。
(3)采用adaBoost算法进行情感分类的训练,每一次循环都会生成一个弱分类器,最终的结果又构成了一个“强分类器”。由于人工标注将音乐情绪分为了四类,所以针对每一种情绪都训练一个adaBoost分类器F(x)。
式中,Gm(x)为弱分类器,αm为弱分类器在强分类器中所占的比重。
(4)用训练好的音乐情感分类模型对一个更庞大的音乐数据集进行分类,分为四种情绪的训练数据集。
(5)对音频数据做预处理,转化为包含音符事件与时间步的二维矩阵。
(6)建立带有自注意力机制(self-attention)的生成对抗网络(GAN),每个生成对抗网络由一个生成器和一个判别器构成。本方法生成的样本由两段音轨组成,一轨生成和弦,一轨生成旋律。每一段音轨都建立一个仅使用轨道内损失训练的GAN,相当于有两个“作曲家”去分别负责创作和弦与旋律;为了不至于两轨音乐听感上的脱节,再建立一个使用轨道间损失训练的GAN去学习和弦与旋律两个轨道的关系,相当于作曲的“指挥”。
生成对抗网络GAN的算法公式如下:
式中,V(D,G)表示生成对抗网络优化问题的目标函数;Pdata代表真实数据的分布;Pz代表噪声信号的分布;x表示输入的真实样本,当x~Pdata,D(x)=1,最大,D(x)表示x为真实数据的概率,表示真实数据的数学期望;z表示随机噪声,当z~Pz,D(G(z))=0,最大,G(z)表示生成模型的输出,表示随机噪声的数学期望。最好的判别器是使V(D,G)最大,而最好的生成器是使V(D,G)最小。GAN的本质是学习数据分布,最终得到两个一样的数据分布的零和博弈问题。
本发明中的GAN的判别器与生成器均是采用卷积神经网络,针对二维矩阵有更快的训练速度且易于并行化。
自注意力机制的引入对于音乐生成这类全局相关度很高的任务有显著帮助,即用带有自注意力的特征图去代替传统的卷积特征图。
式中,Bi,j表示在合成第j个区域时,模型注意到第i个位置的程度;Sij是由卷积层输出的特征图f(x)转置与g(x)的乘积。
(7)用分好的四类训练集同时训练对应的GAN,训练完成后针对四种情感就都有了一个生成模型,用户需要哪种类型情绪的音乐时就可以调用对应的GAN去生成。
图2为本方法中用于作曲的生成对抗网络模型图,两条轨道的生成器G1、G2分别生成和弦与旋律,此外建立一对生成器G与判别器D学习两条音轨间的关系。
Claims (5)
1.一种音乐情感分类和机器作曲方法,其特征在于,包括如下步骤:
(1)获取用于情感分类的音频数据训练集,采用人工标注,将音频数据训练集中的数据分为不同情感类别,所有情绪类别充分反映音乐情感分析研究中常用的两个指标:正负面和强烈程度;
(2)提取音频数据训练集中数据的频谱和节拍特征,提取出音色、节奏两个特征来反映音乐的情绪,其中,节奏特征通过分析40-150Hz频带的调制谱子带能量得到;音色特征由子带特征、谱质心Ct、带宽Bt及短时能量Et刻画
(3)采用adaBoost算法进行情感分类的训练获得音乐情感分类模型,每一次循环生成一个弱分类器,最终的结果又构成了一个强分类器,针对步骤(1)中的每个情绪类别都训练一个adaBoost分类器;
(4)用训练好的音乐情感分类模型对一个比步骤(1)中的音频数据训练集更庞大的音乐数据集进行分类,分为不同情感类别的训练数据集;
(5)对步骤(4)所述训练数据集中的音频数据做预处理,转化为包含音符事件与时间步的二维矩阵;
(6)建立带有自注意力机制的生成对抗网络GAN,每个生成对抗网络GAN由一个生成器和一个判别器构成,样本由两段音轨组成,一段音轨生成和弦,另一段轨音轨生成旋律,每一段音轨都建立一个仅使用轨道内损失训练的生成对抗网络GAN,由两个生成对抗网络GAN去分别负责创作和弦与旋律;再建立一个使用轨道间损失训练的生成对抗网络GAN去学习和弦与旋律两个轨道的关系;GAN的判别器与生成器均是采用卷积神经网络;
(7)用分好的不同情感类别的步骤(4)所述训练数据集同时训练对应的生成对抗网络GAN,训练完成后针对不同类别的情感就都有了一个生成模型,用户需要哪种类型情感的音乐时就可以调用对应的生成对抗网络GAN去生成。
2.如权利要求1所述的一种音乐情感分类和机器作曲方法,其特征在于,步骤(1)中,所述情感类别包括“平静”、“悲伤”、“激动”、“愉悦”。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910349104.6A CN110085263B (zh) | 2019-04-28 | 2019-04-28 | 一种音乐情感分类和机器作曲方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910349104.6A CN110085263B (zh) | 2019-04-28 | 2019-04-28 | 一种音乐情感分类和机器作曲方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110085263A CN110085263A (zh) | 2019-08-02 |
CN110085263B true CN110085263B (zh) | 2021-08-06 |
Family
ID=67417276
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910349104.6A Active CN110085263B (zh) | 2019-04-28 | 2019-04-28 | 一种音乐情感分类和机器作曲方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110085263B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110364186B (zh) * | 2019-08-08 | 2021-06-25 | 清华大学深圳研究生院 | 一种基于对抗学习的端到端的跨语言语音情感识别方法 |
CN110742603A (zh) * | 2019-10-31 | 2020-02-04 | 华南理工大学 | 一种脑电波可听化精神状态检测方法及实现该方法的系统 |
CN111243569B (zh) * | 2020-02-24 | 2022-03-08 | 浙江工业大学 | 基于生成式对抗网络的情感语音自动生成方法及装置 |
CN111476200B (zh) * | 2020-04-27 | 2022-04-19 | 华东师范大学 | 基于生成对抗网络的人脸去识别化生成方法 |
CN112466314A (zh) * | 2020-11-27 | 2021-03-09 | 平安科技(深圳)有限公司 | 情感语音数据转换方法、装置、计算机设备及存储介质 |
CN113299255A (zh) * | 2021-05-13 | 2021-08-24 | 中国科学院声学研究所 | 基于深度神经网络和音乐元素驱动的情感音乐生成方法 |
CN113923517A (zh) * | 2021-09-30 | 2022-01-11 | 北京搜狗科技发展有限公司 | 一种背景音乐生成方法、装置及电子设备 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3913443A (en) * | 1971-06-30 | 1975-10-21 | Aaron R Jewett | Musical recording and method and apparatus therefor |
JPH10161654A (ja) * | 1996-11-27 | 1998-06-19 | Sanyo Electric Co Ltd | 音楽ジャンル判定装置 |
CN1489411A (zh) * | 2003-08-11 | 2004-04-14 | 用于无线手持式设备的音乐格式转换方法 | |
CN101203904A (zh) * | 2005-04-18 | 2008-06-18 | Lg电子株式会社 | 音乐谱写设备的操作方法 |
CN101800046A (zh) * | 2010-01-11 | 2010-08-11 | 北京中星微电子有限公司 | 一种根据音符生成midi音乐的方法和装置 |
CN106652984A (zh) * | 2016-10-11 | 2017-05-10 | 张文铂 | 一种使用计算机自动创作歌曲的方法 |
CN107068166A (zh) * | 2017-04-14 | 2017-08-18 | 四川大学 | 一种基于和弦与混沌序列生成耳鸣康复音的方法 |
CN107644630A (zh) * | 2017-09-28 | 2018-01-30 | 清华大学 | 基于神经网络的旋律生成方法及装置 |
CN108369799A (zh) * | 2015-09-29 | 2018-08-03 | 安泊音乐有限公司 | 采用基于语言学和/或基于图形图标的音乐体验描述符的自动音乐合成和生成的机器、系统和过程 |
CN109036355A (zh) * | 2018-06-29 | 2018-12-18 | 平安科技(深圳)有限公司 | 自动作曲方法、装置、计算机设备和存储介质 |
CN109147826A (zh) * | 2018-08-22 | 2019-01-04 | 平安科技(深圳)有限公司 | 音乐情感识别方法、装置、计算机设备及计算机存储介质 |
CN109299312A (zh) * | 2018-10-18 | 2019-02-01 | 湖南城市学院 | 基于大数据的音乐节奏分析方法 |
CN109448683A (zh) * | 2018-11-12 | 2019-03-08 | 平安科技(深圳)有限公司 | 基于神经网络的音乐生成方法及装置 |
CN109584846A (zh) * | 2018-12-21 | 2019-04-05 | 成都嗨翻屋科技有限公司 | 一种基于生成对抗网络的旋律生成方法 |
CN109616090A (zh) * | 2018-12-24 | 2019-04-12 | 北京达佳互联信息技术有限公司 | 多音轨序列生成方法、装置、设备及存储介质 |
CN109671416A (zh) * | 2018-12-24 | 2019-04-23 | 成都嗨翻屋科技有限公司 | 基于增强学习的音乐旋律生成方法、装置及用户终端 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7838755B2 (en) * | 2007-02-14 | 2010-11-23 | Museami, Inc. | Music-based search engine |
US20130201316A1 (en) * | 2012-01-09 | 2013-08-08 | May Patents Ltd. | System and method for server based control |
US10152957B2 (en) * | 2016-01-29 | 2018-12-11 | Steven Lenhert | Methods and devices for modulating the tempo of music in real time based on physiological rhythms |
CN107464572B (zh) * | 2017-08-16 | 2020-10-16 | 重庆科技学院 | 多模式交互音乐感知系统及其控制方法 |
CN107507629B (zh) * | 2017-08-16 | 2020-08-25 | 重庆科技学院 | 热触觉音乐感知系统及其控制方法 |
-
2019
- 2019-04-28 CN CN201910349104.6A patent/CN110085263B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3913443A (en) * | 1971-06-30 | 1975-10-21 | Aaron R Jewett | Musical recording and method and apparatus therefor |
JPH10161654A (ja) * | 1996-11-27 | 1998-06-19 | Sanyo Electric Co Ltd | 音楽ジャンル判定装置 |
CN1489411A (zh) * | 2003-08-11 | 2004-04-14 | 用于无线手持式设备的音乐格式转换方法 | |
CN101203904A (zh) * | 2005-04-18 | 2008-06-18 | Lg电子株式会社 | 音乐谱写设备的操作方法 |
CN101800046A (zh) * | 2010-01-11 | 2010-08-11 | 北京中星微电子有限公司 | 一种根据音符生成midi音乐的方法和装置 |
CN108369799A (zh) * | 2015-09-29 | 2018-08-03 | 安泊音乐有限公司 | 采用基于语言学和/或基于图形图标的音乐体验描述符的自动音乐合成和生成的机器、系统和过程 |
CN106652984A (zh) * | 2016-10-11 | 2017-05-10 | 张文铂 | 一种使用计算机自动创作歌曲的方法 |
CN107068166A (zh) * | 2017-04-14 | 2017-08-18 | 四川大学 | 一种基于和弦与混沌序列生成耳鸣康复音的方法 |
CN107644630A (zh) * | 2017-09-28 | 2018-01-30 | 清华大学 | 基于神经网络的旋律生成方法及装置 |
CN109036355A (zh) * | 2018-06-29 | 2018-12-18 | 平安科技(深圳)有限公司 | 自动作曲方法、装置、计算机设备和存储介质 |
CN109147826A (zh) * | 2018-08-22 | 2019-01-04 | 平安科技(深圳)有限公司 | 音乐情感识别方法、装置、计算机设备及计算机存储介质 |
CN109299312A (zh) * | 2018-10-18 | 2019-02-01 | 湖南城市学院 | 基于大数据的音乐节奏分析方法 |
CN109448683A (zh) * | 2018-11-12 | 2019-03-08 | 平安科技(深圳)有限公司 | 基于神经网络的音乐生成方法及装置 |
CN109584846A (zh) * | 2018-12-21 | 2019-04-05 | 成都嗨翻屋科技有限公司 | 一种基于生成对抗网络的旋律生成方法 |
CN109616090A (zh) * | 2018-12-24 | 2019-04-12 | 北京达佳互联信息技术有限公司 | 多音轨序列生成方法、装置、设备及存储介质 |
CN109671416A (zh) * | 2018-12-24 | 2019-04-23 | 成都嗨翻屋科技有限公司 | 基于增强学习的音乐旋律生成方法、装置及用户终端 |
Non-Patent Citations (2)
Title |
---|
Lead Sheet Generation and Arrangement by Conditional Generative Adversarial Network;Hao-Min Liu et al;《2018 17th IEEE International Conference on Machine Learning and Applications》;20190117;全文 * |
MuseGAN: Symbolic-domain Music Generation and Accompaniment with Multi-track Sequential Generative Adversarial Networks;Hao-Wen Dong et al;《ARXIV.ORG》;20170919;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110085263A (zh) | 2019-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110085263B (zh) | 一种音乐情感分类和机器作曲方法 | |
Mao et al. | DeepJ: Style-specific music generation | |
Chen et al. | Speech emotion recognition: Features and classification models | |
Fan et al. | SVSGAN: singing voice separation via generative adversarial network | |
Zhao et al. | An emotional symbolic music generation system based on LSTM networks | |
US20100094634A1 (en) | Method and apparatus for creating face character based on voice | |
CN109176541A (zh) | 一种实现机器人跳舞的方法、设备和储存介质 | |
CN110111797A (zh) | 基于高斯超矢量和深度神经网络的说话人识别方法 | |
CN105575393A (zh) | 一种基于人声音色的个性化点唱歌曲推荐方法 | |
Liu et al. | Unconditional audio generation with generative adversarial networks and cycle regularization | |
CN111601433A (zh) | 舞台灯光效果控制策略的预测方法及装置 | |
Baird et al. | The ICML 2022 expressive vocalizations workshop and competition: Recognizing, generating, and personalizing vocal bursts | |
Airaksinen et al. | Data augmentation strategies for neural network F0 estimation | |
Chen et al. | Generating music algorithm with deep convolutional generative adversarial networks | |
Dadman et al. | Toward interactive music generation: A position paper | |
CN113593588B (zh) | 一种基于生成对抗网络的多唱歌人歌声合成方法和系统 | |
Shah et al. | Nonparallel emotional voice conversion for unseen speaker-emotion pairs using dual domain adversarial network & virtual domain pairing | |
Wang et al. | An intelligent music generation based on Variational Autoencoder | |
Wang et al. | Capture interspeaker information with a neural network for speaker identification | |
Barry et al. | “Style” Transfer for Musical Audio Using Multiple Time-Frequency Representations | |
Shim et al. | S2i-bird: Sound-to-image generation of bird species using generative adversarial networks | |
Kim et al. | MuSE-SVS: Multi-Singer Emotional Singing Voice Synthesizer that Controls Emotional Intensity | |
Sahoo et al. | Detection of speech-based physical load using transfer learning approach | |
Stoller | Deep Learning for Music Information Retrieval in Limited Data Scenarios. | |
Delgado et al. | Learning Models for Query by Vocal Percussion: A Comparative Study |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |