CN109584846A - 一种基于生成对抗网络的旋律生成方法 - Google Patents
一种基于生成对抗网络的旋律生成方法 Download PDFInfo
- Publication number
- CN109584846A CN109584846A CN201811572229.7A CN201811572229A CN109584846A CN 109584846 A CN109584846 A CN 109584846A CN 201811572229 A CN201811572229 A CN 201811572229A CN 109584846 A CN109584846 A CN 109584846A
- Authority
- CN
- China
- Prior art keywords
- melody
- arbiter
- gan
- confrontation network
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0091—Means for obtaining special acoustic effects
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/005—Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
本发明公开了一种基于生成对抗网络的旋律生成方法,包括:数据预处理,从原始MIDI文件中提取出旋律轨道的事件序列;生成器训练,应用生成对抗网络对事件序列进行训练得到GAN生成器模型;音乐生成,利用GAN生成器模型生成音乐。采用对抗生成网络生成旋律,通过生成对抗模型的显著特征,即不断的在生成和判别之间进行博弈优化的特点,得到优质的旋律,帮助作曲家生成原始的旋律,有助于艺术创作。在判别器前增加增强判别器,增加领域知识的判断,更有利于训练过程中判别器快速收敛迭代,缩短训练时间。
Description
技术领域
本发明属于自动创作音乐旋律技术领域,具体地说,涉及一种基于生成对抗网络的旋律生成方法。
背景技术
旋律是音乐的基础,不论是中国古代诗歌的开端《诗经》还是现在的流行乐,在演绎时都离不开旋律,一首好的乐曲,离不开歌词的表达,也离不开旋律对情感的传达。旋律作为乐曲的一个重要组成部分,旋律的创作也关系到乐曲的质量。传统作曲都需要作曲家具有一定的乐理知识,并结合灵感和创作经验,才能创作出完整的音乐旋律。
随着计算机技术的发展,基于计算机的辅助创作工具也越来越多。公开号为CN104485101B的发明专利公开了一种基于模板自动生成音乐旋律的方法,其特征在于,包括以下步骤:(1)从旋律模板库中选取旋律模板,旋律模板包含音符音高、音符节奏、乐句属性、节拍、速度;(2)利用音乐上倒影、逆行、上行二度、下行二度、维持不变的手法,并分别定义这五种手法采用的概率,根据概率随机采用其中一种手法,分别改变模板原来旋律中每个乐句的旋律走向,根据改变后的旋律走向趋势,保持和原旋律模板重复音属性、乐句结尾稳定音属性、节奏信息、调式信息不变,重新随机生成新的乐句音符信息;(3)根据模板的乐句信息,对重复乐句作重复处理,对变奏乐句作变奏处理。该专利提出选择旋律模版作为模板,模版风格、样式固定,来源固定,不能针对多样化的歌曲进行提取旋律;且利用这种参照原曲模版的方式进行生成的音乐,在堆积一定量之后,在概率上会产生相似度较高的音乐,没有多样化。且不能保证每次生成出来的音乐品质要求。
公开号为CN104978329A的发明专利公开了一种以线条绘画的形式生成音乐旋律的方法,其特征在于,包括如下步骤:对绘画的线条进行特征数据的提取,获取该段线条的方向、速度和位移以及轮廓特征;根据预置算法规则、预置音乐旋律风格、预置声源库类型等参数设定以及所述的线条特征数据构建与各个基本音乐效果的相对应的关系;根据各个基本音乐效果的相对应关系将其加载到音乐播放器中,进行实时播放,并且合成音乐文件,输出到用户的本地磁盘上。利用这种线条绘画的方式进行生成的音乐,在堆积一定量之后,在概率上会产生相似度较高的音乐,没有多样化。且不能保证每次生成出来的音乐品质要求。
发明内容
针对现有技术中上述的不足,本发明提供一种基于生成对抗网络的旋律生成方法,采用对抗生成网络生成旋律,通过生成对抗模型的显著特征,即不断的在生成和判别之间进行博弈优化的特点,得到优质的旋律,帮助作曲家生成原始的旋律,有助于艺术创作。
为了达到上述目的,本发明采用的解决方案是:一种基于生成对抗网络的旋律生成方法,包括如下步骤:
S1:数据预处理,从原始MIDI文件中提取出旋律轨道的事件序列;
S2:生成器训练,应用生成对抗网络对事件序列进行训练得到GAN生成器模型;
S3:音乐生成,利用GAN生成器模型生成音乐。
进一步地,所述的数据预处理包括如下步骤:
S101:以音符音高为纵坐标,以时间为横坐标建立坐标系;
S102:将MIDI文件的其中一个旋律轨道在坐标系中表示出来;
S103:设定时间步,将坐标系中的旋律轨道划分为多个时间步,以每个时间步为一个事件;
S104:设置事件编号;
S105:统计该旋律轨道的所有事件编号,得到事件序列<event-1,event-2,event-3,…,event-n>。
进一步地,所述的编号为音符的音高,用1-127表示,且用编号0表示持续按下前一个音符,用编号128表示没有任何音符。
进一步地,所述的生成器训练包括如下步骤:
S201:将数据预处理得到的事件序列作为真实数据r1输入生成对抗网络;
S202:固定GAN生成器模型,GAN生成器模型生成第一批样本数据x1;
S203:将真实数据r1和样本数据x1共同传输到判别器判别,训练判别器,直到判别器能够区分出真实数据r1和生成数据x1;
S204:固定判别器,调节训练GAN生成器模型,使得判别器不能区分GAN生成器模型生成的样本数据x1与真实数据r1,GAN生成器模型训练完成。
进一步地,所述的真实数据r1和样本数据x1首先传输到增强判别器,再传输到判别器,增强判别器根据设置的领域知识对样本数据进行判别并剔除不符合领域知识的样本数据,再将余下的样本数据和真实数据传输到判别器训练。
进一步地,所述的领域知识包括相邻两个音符间的音程关系以及音符音高与旋律调式的关系。
进一步地,所述的音乐生成包括如下步骤:
S301:选择符合需求的节奏型;
S302:将节奏型输入到训练出的GAN生成器模型,GAN生成器模型生成音乐。
进一步地,所述的节奏型包括音符时值。
进一步地,所述的生成对抗网络包括深度卷积生成对抗网络DCGAN和WassersteinGANWGAN。
本发明的有益效果是:
(1)采用对抗生成网络生成旋律,通过生成对抗模型的显著特征,即不断的在生成和判别之间进行博弈优化的特点,得到优质的旋律,帮助作曲家生成原始的旋律,有助于艺术创作。
(2)在判别器前增加增强判别器,增加领域知识的判断,更有利于训练过程中判别器快速收敛迭代,缩短训练时间。
(3)在判别器前增加增强判别器,增加领域知识的判断,根据领域知识的个性化差异,得到更优质,更人性化的旋律。
附图说明
图1为本发明方法流程图;
图2为本发明数据预处理流程图;
图3为本发明的生成器训练流程图;
图4为本发明生成器训练示意图;
图5为本发明判别器训练示意图;
图6为本发明带增强判别器的生成器训练示意图;
图7为本发明带增强判别器的判别器训练示意图。
具体实施方式
以下结合附图对本发明作进一步描述:
如图1所示,一种基于生成对抗网络的旋律生成方法,包括如下步骤:
S1:数据预处理,从原始MIDI文件中提取出旋律轨道的事件序列;
S2:生成器训练,应用生成对抗网络对事件序列进行训练得到GAN生成器模型;
S3:音乐生成,利用GAN生成器模型生成音乐。
如图2所示,所述的数据预处理包括如下步骤:
S101:以音符音高为纵坐标,以时间为横坐标建立坐标系;
S102:将MIDI文件的其中一个旋律轨道在坐标系中表示出来;
S103:设定时间步,将坐标系中的旋律轨道划分为多个时间步,以每个时间步为一个事件;
S104:设置事件编号;
S105:统计该旋律轨道的所有事件编号,得到事件序列<event-1,event-2,event-3,…,event-n>。
进一步地,所述的编号为音符的音高,用1-127表示,且用编号0表示持续按下前一个音符,用编号128表示没有任何音符。
如图3和图6所示,所述的生成器训练包括如下步骤:
S201:将数据预处理得到的事件序列作为真实数据r1输入生成对抗网络;
S202:固定GAN生成器模型,GAN生成器模型生成第一批样本数据x1;
S203:将真实数据r1和样本数据x1共同传输到判别器判别,训练判别器,直到判别器能够区分出真实数据r1和生成数据x1;
S204:固定判别器,调节训练GAN生成器模型,使得判别器不能区分GAN生成器模型生成的样本数据x1与真实数据r1,GAN生成器模型训练完成。
如图6和图7所示,所述的真实数据r1和样本数据x1首先传输到增强判别器,再传输到判别器,增强判别器根据设置的领域知识对样本数据进行判别并剔除不符合领域知识的样本数据,再将余下的样本数据和真实数据传输到判别器训练。
进一步地,所述的领域知识包括相邻两个音符间的音程关系以及音符音高与旋律调式的关系。
进一步地,所述的音乐生成包括如下步骤:
S301:选择符合需求的节奏型;
S302:将节奏型输入到训练出的GAN生成器模型,GAN生成器模型生成音乐。
进一步地,所述的节奏型包括音符时值。
实施例一
在本发明的一个实施例中,采用深度卷积生成对抗网络(DCGAN)训练生成旋律,首选选取一个风格的MIDI文件,风格可以是流行乐、古典乐、摇滚乐等,然后以音符音高为纵坐标,以时间为横坐标建立坐标系,将MIDI文件的其中一个旋律轨道在坐标系中表示出来;设定时间步,假设以64分音符为一个时间步,则64分音符的时间步为1,32分音符的时间步为2,16分音符的时间步为4,依次类推。将坐标系中的旋律轨道划分为多个时间步,以每个时间步为一个事件;根据音符的音高设置事件编号;统计该旋律轨道的所有事件编号,得到事件序列<event-1,event-2,event-3,…,event-n>。
将事件序列作为DCGAN的真实数据r1,生成器的生成数据x1,对于判别器而言,其标签认定,对于r1的输出正常应该为“1”,x1的输出正常应该为“0”。在不增加增强判别器的情况下,首先固定GAN生成器模型,GAN生成器模型生成第一批样本数据x1;r1和x1共同传输到判别器判别,训练判别器,直到判别器能够区分出r1和x1;即r1的输出为“1”,x1的输出为“0”。然后固定判别器,调节训练GAN生成器模型,使得判别器不能区分GAN生成器模型生成的样本数据x1与真实数据r1,即r1的输出为“1”,x1的输出也为“1”,GAN生成器模型训练完成。然后用户选择符合需求的节奏型,GAN生成器模型接收节奏型后对此节奏型进行音高和力度的生成。
在增加增强判别器的情况下,r1和x1先传输到增强判别器,增强判别器根据用户设置的领域知识对r1和x1进行判断和剔除,例如增强判别器设置有音高最大阈值,音高最小阈值,则在增强判别器中将音高大于最大阈值或者音高小于最小阈值的样本数据剔除,然后再将余下的样本数据和真实数据传输到判别器训练,直到使得判别器不能区分GAN生成器模型生成的样本数据x1与真实数据r1。
实施例二
在本发明的第二个实施例中,采用WassersteinGAN(WGAN)训练生成旋律,首选选取一个风格的MIDI文件,然后以音符音高为纵坐标,以时间为横坐标建立坐标系,将MIDI文件的其中一个旋律轨道在坐标系中表示出来;设定时间步,假设以64分音符为一个时间步,则64分音符的时间步为1,32分音符的时间步为2,16分音符的时间步为4,依次类推。将坐标系中的旋律轨道划分为多个时间步,以每个时间步为一个事件;根据音符的音高设置事件编号;统计该旋律轨道的所有事件编号,得到事件序列<event-1,event-2,event-3,…,event-n>。
将事件序列作为WGAN的真实数据r1,生成器的生成数据x1,对于判别器而言,其标签认定,对于r1的输出正常应该为“1”,x1的输出正常应该为“0”。在不增加增强判别器的情况下,首先固定GAN生成器模型,GAN生成器模型生成第一批样本数据x1;r1和x1共同传输到判别器判别,训练判别器,直到判别器能够区分出r1和x1;即r1的输出为“1”,x1的输出为“0”。然后固定判别器,调节训练GAN生成器模型,使得判别器不能区分GAN生成器模型生成的样本数据x1与真实数据r1,即r1的输出为“1”,x1的输出也为“1”,GAN生成器模型训练完成。然后用户选择符合需求的节奏型,GAN生成器模型接收节奏型后对此节奏型进行音高和力度的生成。
在增加增强判别器的情况下,r1和x1先传输到增强判别器,增强判别器根据用户设置的领域知识对r1和x1进行判断和剔除,例如增强判别器设置有音高最大阈值,音高最小阈值,则在增强判别器中将音高大于最大阈值或者音高小于最小阈值的样本数据剔除,然后再将余下的样本数据和真实数据传输到判别器训练,直到使得判别器不能区分GAN生成器模型生成的样本数据x1与真实数据r1。
以上所述实施例仅表达了本发明的具体实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
Claims (9)
1.一种基于生成对抗网络的旋律生成方法,其特征在于:包括如下步骤:
S1:数据预处理,从原始MIDI文件中提取出旋律轨道的事件序列;
S2:生成器训练,应用生成对抗网络对事件序列进行训练得到GAN生成器模型;
S3:音乐生成,利用GAN生成器模型生成音乐。
2.根据权利要求1所述的一种基于生成对抗网络的旋律生成方法,其特征在于:所述的数据预处理包括如下步骤:
S101:以音符音高为纵坐标,以时间为横坐标建立坐标系;
S102:将MIDI文件的其中一个旋律轨道在坐标系中表示出来;
S103:设定时间步,将坐标系中的旋律轨道划分为多个时间步,以每个时间步为一个事件;
S104:设置事件编号;
S105:统计该旋律轨道的所有事件编号,得到事件序列<event-1,event-2,event-3,…,event-n>。
3.根据权利要求2所述的一种基于生成对抗网络的旋律生成方法,其特征在于:所述的编号为音符的音高,用1-127表示,且用编号0表示持续按下前一个音符,用编号128表示没有任何音符。
4.根据权利要求1所述的一种基于生成对抗网络的旋律生成方法,其特征在于:所述的生成器训练包括如下步骤:
S201:将数据预处理得到的事件序列作为真实数据r1输入生成对抗网络;
S202:固定GAN生成器模型,GAN生成器模型生成第一批样本数据x1;
S203:将真实数据r1和样本数据x1共同传输到判别器判别,训练判别器,直到判别器能够区分出真实数据r1和生成数据x1;
S204:固定判别器,调节训练GAN生成器模型,使得判别器不能区分GAN生成器模型生成的样本数据x1与真实数据r1,GAN生成器模型训练完成。
5.根据权利要求4所述的一种基于生成对抗网络的旋律生成方法,其特征在于:所述的真实数据r1和样本数据x1首先传输到增强判别器,再传输到判别器,增强判别器根据设置的领域知识对样本数据进行判别并剔除不符合领域知识的样本数据,再将余下的样本数据和真实数据传输到判别器训练。
6.根据权利要求5所述的一种基于生成对抗网络的旋律生成方法,其特征在于:所述的领域知识包括相邻两个音符间的音程关系以及音符音高与旋律调式的关系。
7.根据权利要求1所述的一种基于生成对抗网络的旋律生成方法,其特征在于:所述的音乐生成包括如下步骤:
S301:选择符合需求的节奏型;
S302:将节奏型输入到训练出的GAN生成器模型,GAN生成器模型生成音乐。
8.根据权利要求7所述的一种基于生成对抗网络的旋律生成方法,其特征在于:所述的节奏型包括音符时值。
9.根据权利要求1所述的一种基于生成对抗网络的旋律生成方法,其特征在于:所述的生成对抗网络包括深度卷积生成对抗网络DCGAN和WassersteinGAN WGAN。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811572229.7A CN109584846B (zh) | 2018-12-21 | 2018-12-21 | 一种基于生成对抗网络的旋律生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811572229.7A CN109584846B (zh) | 2018-12-21 | 2018-12-21 | 一种基于生成对抗网络的旋律生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109584846A true CN109584846A (zh) | 2019-04-05 |
CN109584846B CN109584846B (zh) | 2023-04-14 |
Family
ID=65931249
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811572229.7A Active CN109584846B (zh) | 2018-12-21 | 2018-12-21 | 一种基于生成对抗网络的旋律生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109584846B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110085263A (zh) * | 2019-04-28 | 2019-08-02 | 东华大学 | 一种音乐情感分类和机器作曲方法 |
CN110136678A (zh) * | 2019-04-26 | 2019-08-16 | 北京奇艺世纪科技有限公司 | 一种编曲方法、装置及电子设备 |
CN110162659A (zh) * | 2019-05-27 | 2019-08-23 | 湖南工程学院 | 一种基于音高网络的定节奏新曲生成方法 |
CN110288965A (zh) * | 2019-05-21 | 2019-09-27 | 北京达佳互联信息技术有限公司 | 一种音乐合成方法、装置、电子设备及存储介质 |
CN110517655A (zh) * | 2019-08-28 | 2019-11-29 | 广州艾颂智能科技有限公司 | 一种旋律生成方法及系统 |
CN110853604A (zh) * | 2019-10-30 | 2020-02-28 | 西安交通大学 | 基于变分自编码器的具有特定地域风格的中国民歌自动生成方法 |
CN113192472A (zh) * | 2021-04-29 | 2021-07-30 | 北京灵动音科技有限公司 | 信息处理方法、装置、电子设备及存储介质 |
CN113689835A (zh) * | 2020-05-18 | 2021-11-23 | 微软技术许可有限责任公司 | 自动音乐生成 |
CN113851098A (zh) * | 2021-08-31 | 2021-12-28 | 广东智媒云图科技股份有限公司 | 一种旋律的风格转换方法、装置、终端设备及存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6297439B1 (en) * | 1998-08-26 | 2001-10-02 | Canon Kabushiki Kaisha | System and method for automatic music generation using a neural network architecture |
JP2007219139A (ja) * | 2006-02-16 | 2007-08-30 | Hiroshima Industrial Promotion Organization | 旋律生成方式 |
CN101800046A (zh) * | 2010-01-11 | 2010-08-11 | 北京中星微电子有限公司 | 一种根据音符生成midi音乐的方法和装置 |
CN104485101A (zh) * | 2014-11-19 | 2015-04-01 | 成都云创新科技有限公司 | 一种基于模板自动生成音乐旋律的方法 |
CN107644630A (zh) * | 2017-09-28 | 2018-01-30 | 清华大学 | 基于神经网络的旋律生成方法及装置 |
CN108597535A (zh) * | 2018-03-29 | 2018-09-28 | 华南理工大学 | 一种融合伴奏的midi钢琴曲风格分类方法 |
CN108597496A (zh) * | 2018-05-07 | 2018-09-28 | 广州势必可赢网络科技有限公司 | 一种基于生成式对抗网络的语音生成方法及装置 |
CN108766409A (zh) * | 2018-05-25 | 2018-11-06 | 中国传媒大学 | 一种戏曲合成方法、装置和计算机可读存储介质 |
CN108763857A (zh) * | 2018-05-29 | 2018-11-06 | 浙江工业大学 | 一种基于相似度生成对抗网络的过程软测量建模方法 |
US20180322854A1 (en) * | 2017-05-08 | 2018-11-08 | WaveAI Inc. | Automated Melody Generation for Songwriting |
US10152970B1 (en) * | 2018-02-08 | 2018-12-11 | Capital One Services, Llc | Adversarial learning and generation of dialogue responses |
-
2018
- 2018-12-21 CN CN201811572229.7A patent/CN109584846B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6297439B1 (en) * | 1998-08-26 | 2001-10-02 | Canon Kabushiki Kaisha | System and method for automatic music generation using a neural network architecture |
JP2007219139A (ja) * | 2006-02-16 | 2007-08-30 | Hiroshima Industrial Promotion Organization | 旋律生成方式 |
CN101800046A (zh) * | 2010-01-11 | 2010-08-11 | 北京中星微电子有限公司 | 一种根据音符生成midi音乐的方法和装置 |
CN104485101A (zh) * | 2014-11-19 | 2015-04-01 | 成都云创新科技有限公司 | 一种基于模板自动生成音乐旋律的方法 |
US20180322854A1 (en) * | 2017-05-08 | 2018-11-08 | WaveAI Inc. | Automated Melody Generation for Songwriting |
CN107644630A (zh) * | 2017-09-28 | 2018-01-30 | 清华大学 | 基于神经网络的旋律生成方法及装置 |
US10152970B1 (en) * | 2018-02-08 | 2018-12-11 | Capital One Services, Llc | Adversarial learning and generation of dialogue responses |
CN108597535A (zh) * | 2018-03-29 | 2018-09-28 | 华南理工大学 | 一种融合伴奏的midi钢琴曲风格分类方法 |
CN108597496A (zh) * | 2018-05-07 | 2018-09-28 | 广州势必可赢网络科技有限公司 | 一种基于生成式对抗网络的语音生成方法及装置 |
CN108766409A (zh) * | 2018-05-25 | 2018-11-06 | 中国传媒大学 | 一种戏曲合成方法、装置和计算机可读存储介质 |
CN108763857A (zh) * | 2018-05-29 | 2018-11-06 | 浙江工业大学 | 一种基于相似度生成对抗网络的过程软测量建模方法 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110136678A (zh) * | 2019-04-26 | 2019-08-16 | 北京奇艺世纪科技有限公司 | 一种编曲方法、装置及电子设备 |
CN110136678B (zh) * | 2019-04-26 | 2022-06-03 | 北京奇艺世纪科技有限公司 | 一种编曲方法、装置及电子设备 |
CN110085263A (zh) * | 2019-04-28 | 2019-08-02 | 东华大学 | 一种音乐情感分类和机器作曲方法 |
CN110085263B (zh) * | 2019-04-28 | 2021-08-06 | 东华大学 | 一种音乐情感分类和机器作曲方法 |
CN110288965B (zh) * | 2019-05-21 | 2021-06-18 | 北京达佳互联信息技术有限公司 | 一种音乐合成方法、装置、电子设备及存储介质 |
CN110288965A (zh) * | 2019-05-21 | 2019-09-27 | 北京达佳互联信息技术有限公司 | 一种音乐合成方法、装置、电子设备及存储介质 |
CN110162659A (zh) * | 2019-05-27 | 2019-08-23 | 湖南工程学院 | 一种基于音高网络的定节奏新曲生成方法 |
CN110517655A (zh) * | 2019-08-28 | 2019-11-29 | 广州艾颂智能科技有限公司 | 一种旋律生成方法及系统 |
CN110517655B (zh) * | 2019-08-28 | 2023-03-14 | 广州艾颂智能科技有限公司 | 一种旋律生成方法及系统 |
CN110853604A (zh) * | 2019-10-30 | 2020-02-28 | 西安交通大学 | 基于变分自编码器的具有特定地域风格的中国民歌自动生成方法 |
CN113689835A (zh) * | 2020-05-18 | 2021-11-23 | 微软技术许可有限责任公司 | 自动音乐生成 |
CN113192472A (zh) * | 2021-04-29 | 2021-07-30 | 北京灵动音科技有限公司 | 信息处理方法、装置、电子设备及存储介质 |
CN113851098A (zh) * | 2021-08-31 | 2021-12-28 | 广东智媒云图科技股份有限公司 | 一种旋律的风格转换方法、装置、终端设备及存储介质 |
CN113851098B (zh) * | 2021-08-31 | 2022-06-17 | 广东智媒云图科技股份有限公司 | 一种旋律的风格转换方法、装置、终端设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109584846B (zh) | 2023-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109584846A (zh) | 一种基于生成对抗网络的旋律生成方法 | |
Reynolds | Form and method: Composing music: The Rothschild essays | |
CN101800046B (zh) | 一种根据音符生成midi音乐的方法和装置 | |
Tenzer | Analytical studies in world music | |
Feldman | Authors and Anonyms: Recovering the Anonymous Subject in Cinquecento Vernacular Objects | |
Minors | Music and movement in dialogue: exploring gesture in soundpainting | |
Canazza et al. | Caro 2.0: an interactive system for expressive music rendering | |
Rapport | Damaged: musicality and race in early American punk | |
Ricci | The Pump‐Up in Pop Music of the 1970s and 1980s | |
CN110853457B (zh) | 可互动的音乐教学指导方法 | |
Leung | Creativity in Cantonese operatic singing: Analysis of excerpts from Hu Bu Gui by three artists as examples | |
Boutwell | ‘The Breathing of Sound Itself’: Notation and Temporality in Feldman's Music to 1970 | |
Neufeld | Living the Work: Meditations on a Lark | |
Losada | A theoretical model for the analysis of collage in music derived from selected works by Berio, Zimmerman and Rochberg | |
Schab | The Sonatas of Henry Purcell: Rhetoric and Reversal | |
CN109522442A (zh) | 辅助音乐学习机器智能分析方法 | |
Shaffer | “Neither Tonal nor Atonal”?: Harmony and Harmonic Syntax in György Ligeti's Late Triadic Works | |
Davis | Creating clarity and contrast: A dialogue with Rachel Podger on the analysis and performance of implied polyphony in Bach’s unaccompanied violin works | |
Coleman | Polycyclic Comprovisation | |
Bell et al. | Music theory for musical theatre | |
Liu et al. | Lyrics2song: an automatic song generator for lyrics input | |
Peracha et al. | GANkyoku: a Generative Adversarial Network for Shakuhachi Music | |
Pavese | Saved Souls: Locating Style in Fabrizio De André's and Ivano Fossati's Record Production | |
Bader et al. | Music, Meaning, and Emotion | |
Zuo | Optimizing Artificial Intelligence Algorithms on Data Classification and Generation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230327 Address after: Room 1210, 12 / F, unit 1, building 1, No. 722, middle section of Yizhou Avenue, high tech Zone, Chengdu, Sichuan 610000 Applicant after: Chengdu potential Artificial Intelligence Technology Co.,Ltd. Address before: 610000 Huayang Avenue Section 117 and 119, Huayang Street, Tianfu New District, Chengdu City, Sichuan Province Applicant before: CHENGDU HIFIVE TECHNOLOGY Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |