CN103116646B - 一种基于云基因表达式编程的音乐情感识别方法 - Google Patents
一种基于云基因表达式编程的音乐情感识别方法 Download PDFInfo
- Publication number
- CN103116646B CN103116646B CN201310060278.3A CN201310060278A CN103116646B CN 103116646 B CN103116646 B CN 103116646B CN 201310060278 A CN201310060278 A CN 201310060278A CN 103116646 B CN103116646 B CN 103116646B
- Authority
- CN
- China
- Prior art keywords
- music
- model
- cloud
- emotion
- sample melody
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于云基因表达式编程的音乐情感识别方法,包括以下步骤:将音乐的情感划分为若干情感语义,记录P个测试者对多个样本乐曲的每种情感语义的评分;利用云情感标注方法得到每个样本乐曲的每种情感语义的正态云模型;提取样本乐曲的声纹特征参数,将每首样本乐曲与相应样本乐曲的正态云模型对应,构建得到音乐情感数据库;利用音乐情感数据库,构建音乐声纹特征参数与情感语义的最优关系模型;依据最优关系模型和待识别音乐的声纹特征参数对音乐进行音乐情感识别。本发明基于集成学习和云基因表达式编程,构建音乐声纹特征参数与音乐情感的最优关系模型,有效识别音乐情感。
Description
技术领域
本发明涉及音乐情感识别领域,具体涉及一种基于云基因表达式编程的音乐情感识别方法。
背景技术
音乐是人类伟大智慧的产物,它不仅仅是一种声音符号,还是一种情感表达的语言,可直接导致人们产生积极或消极的情绪,进而影响人们的生活和工作。如Nature杂志报道的研究指出不同的音乐激发不同的情感,并会导致人体脑部不同的反应,影响人的决策(Blood,A.J.,Zatorre,R.J.,Bermudez,P.,and Evans,A.C.Emotional Responses to Pleasant andUnpleasant Music Correlate with Activity in Paralimbic Brain Regions.NatureNeuroscience,1999,2:p382-387);进一步的研究还指出,不同的背景音乐能显著影响到顾客对不同产地酒类的选择(Adrian C.North,David J.Hargreaves,Jennifer McKendrick.In-store Music Affects Product Choice.Nature,Vol.390,13November1997,p132-132)。因此,20世纪以来,音乐情感认知研究,即“如何获得音乐情感信息(进而有效地利用音乐情感)”,得到了越来越多的关注,也已成为神经科学家关心的一个重要科学问题。
音乐情感认知研究的重要应用是音乐情感检索和管理。网络与数字娱乐产品的普及和发展,使得音乐已经成为最重要的数字媒体内容之一,庞大的音乐数据使得传统的音乐检索和管理方法(只能通过歌手、专辑和歌名等来检索音乐,无法根据音乐的情感、曲风和流派等重要信息来检索音乐)已无法满足人们的需要。音乐行为学的研究也表明,“情感”已成为人们检索和管理音乐的重要标准,如著名音乐商业网站Last.fm的调查统计结果表明,以“情感”来检索音乐,在其所有在线用户检索行为中排第三位。而且早在2004年的一项调查表明,28.2%的人认为“情感”是他们检索和管理歌曲的最重要关键词之一,显然,根据用户情感偏好来检索和管理音乐,具有很好的应用前景。可见,音乐情感认知研究,不仅具有重要的科学研究价值,也具有广阔的市场应用前景。
2006年,Cognition的研究(E.Bigand,B.Poulin-Charronnat.Are we“experienced listeners”?A review of the Musical Capacities That Co NotDepend on Formal Musical Training.Cognition,2006,100,p100-130)指出,人类对音乐的欣赏和情感体验并不需要专业的训练,普通听众和音乐家在音乐的领悟和情感体验上具有同一性。这表明,不仅通过人类文化的视角审视音乐的魅力,还可以通过自然科学的工具和方法来研究音乐的本质。
近年来,人工智能领域的学者们开始利用机器学习方法构建智能化的音乐情感认知模型,自动提取音乐作品中的情感特征,实现音乐情感的自动识别,从而大大提高了音乐情感识别效率,促进了音乐情感认知技术的发展。
然而,目前应用于音乐情感认知模型构建的机器学习算法本身还存在诸多不足,如通过确定决策树长度来避免过拟合仍是一个难以解决的问题;贝叶斯网络则需要知道样本的概率密度;人工神经网络的设计、训练复杂且耗时,并需要足够统计量的训练样本集;支持向量机的分类性能依赖于核函数形式以及参数的选取;进化算法很难找到有效的个体适应值函数来指引进化方向。
发明内容
本发明是一种基于云基因表达式编程的音乐情感识别方法,首先将音乐情感识别问题转换为函数关系发现问题,进而基于集成学习和云基因表达式编程,构建音乐声纹特征参数与音乐情感的最优关系模型,有效识别音乐情感。
一种基于云基因表达式编程的音乐情感识别方法,包括以下步骤:
(1)将音乐的情感划分为若干情感语义,记录P个测试者对多个样本乐曲的每种情感语义的评分;
(2)利用云情感标注方法得到每个样本乐曲的每种情感语义的正态云模型,具体方法如下:
2-1、设P个测试者对某个样本乐曲的第一个情感语义的评分情况为λ1,λ2,λ3...λP,求出λ1,λ2,λ3...λP的期望Ex1、熵En1和超熵He1,得到λ1,λ2,λ3...λP的正态云模型y1={Ex1,En1,He1};求取λ1,λ2,λ3...λP的期望Ex1、熵En1和超熵He1时采用现有技术中(李德毅,史雪梅,孟海军.隶属云和隶属云发生器.计算机研究和发展,32(6):pp15-20,1995.)的正态云模型的“逆向云”算法,将求得的期望Ex1、熵En1和超熵He1的集合作为该样本乐曲的第一个情感语义的正态云模型。
2-2、重复步骤2-1若干次,求得该样本乐曲其它情感语义的正态云模型,将该首样本乐曲所有情感语义的正态云模型结合,得到该样本乐曲的正态云模型V=[y1,y2,y3...yn],其中,n为情感语义的种类数;该样本乐曲的每种情感语义的正态云模型集合,构成了样本乐曲的正态云模型,全面概括了样本乐曲所包含的情感。
现有技术中比较常用的对音乐情感标注的标注是统计所有测试者对某一音乐的情感打分,将情感打分的平均值作为情感标注值。这种方法的主观性太强,而且没有考虑个性化等因素,因为不同的人对同一首歌曲的情感理解通常并不完全相同。
为此,有的学者采用概率分布来减少测试时的主观性影响,取得了较好的音乐情感标注结果,然而,这种方法只适合二维情感空间模型,而且训练复杂、耗时。
考虑到云模型的诸多优点,以及音乐情感的模糊性、随机性和主观性,本发明将音乐的情感划分为若干情感语义(例如依据Hevner情感模型将音乐的情感划分为圣咏、悲哀、渴望、抒情、欢快、喜悦、热烈、庄严8种情感语义)。
(3)提取样本乐曲的声纹特征参数,将每首样本乐曲与步骤(2)得到的相应样本乐曲的正态云模型对应,构建得到音乐情感数据库;每首样本乐曲都具有自己声纹特征参数,例如音高、音色、节奏等的不同,声纹特征参数的提取可以采用现有技术,将每首样本乐曲与其相应的基于情感语义建立的正态云模型相对应,构建得到音乐情感数据库;
(4)利用步骤(3)得到的音乐情感数据库,构建音乐声纹特征参数与音乐情感的最优关系模型,具体步骤如下:
4-1、对步骤(3)中音乐情感数据库中的样本乐曲的声纹特征参数和其相应的正态云模型进行个体编码,建立初始化种群(初始种群及以下基因表达式编程相关的操作方法,详见现有技术Ferreira Candida.GeneExpression Programming:Mathematical Modeling by an Artificial Intelligence.Springer-Verlag,2006.);
4-2、执行进化操作,形成新种群;
4-3、计算步骤4-2中新种群的所有个体的个体适应值,如果满足终止条件,则将相应的个体加入到新种群中,转至步骤4-7,如果不满足终止条件,则继续进行步骤4-4;所述个体适应值的计算函数为
其中,xi为声纹特征参数输入,f(xi)为关系模型计算得到的样本乐曲的情感语义评分输出,ui为测试者对样本乐曲的情感语义评分,m为样本乐曲的数目;终止条件为个体适应值小于0.05;
4-4、将步骤4-3中得到的所有个体适应值由小到大进行排序,从前K个个体中随机挑选L个,利用现有技术(张克俊.基因表达式编程理论及其监督机器学习模型研究[D].浙江大学博士学位论文,2010.)求出一个当前最优模式,该当前最优模式记为模式云,将该模式云保存到临时种群中;
4-5、重复步骤4-4T次,得到T个模式云;
4-6、实例化临时种群中的每个模式云,生成T个个体,分别计算T个个体的个体适应值,从中选出个体适应值最小的S个个体加入新种群中,并从新种群中去除个体适应值最大的S个个体,转至步骤4-2;
4-7、保存所得的个体适应值最小的最优个体,即为所求的音乐声纹特征参数与音乐情感的关系模型;步骤4-1~步骤4-7的目的在于利用步骤(3)得到的音乐情感数据库,拟合建立音乐的声纹特征参数与音乐的情感语义之间模型,个体适应值最小即意味着拟合得到的声纹特征参数与音乐的情感语义之间的模型最合理,最能反映实际的声纹特征参数与音乐的情感语义的关系。
4-8、重复步骤4-1至步骤4-7k次,得到k个音乐声纹特征参数与音乐情感的关系模型,利用集成学习方法,求出所述最优关系模型;
(5)依据步骤(4)中的最优关系模型和待识别音乐的声纹特征参数对音乐进行音乐情感识别。
在云模型中直接引入基因表达式编程相当困难,因为基因表达式编程采用的是字符串编码,不是浮点数,因此,无法直接利用逆向云算法获得正态云模型的相关参数,因此,本发明利用云基因表达式编程来解决云模型与基因表达式编程算法的融合问题。
本发明方法中模式云的提取和实例化,是模糊性和随机性的统一,与云模型思想一致,模式云的提取过程类似于云模型中的“逆向云”算法,模式云的实例化过程类似于云模型中的“正向云”算法。此外,不同种群可以协同产生模式云,实现种群的进化,体现现代进化理论思想。
作为优选,所述的步骤4-8中集成学习的具体步骤如下:
4-8-1、将步骤(4)中样本乐曲的声纹特征参数与该样本乐曲的第一种情感语义的关系模型分别记为f11(x),f12(x),f13(x)...f1k(x),其中,k为关系模型的个数;
4-8-2、令f(x)为集成学习得到的样本乐曲的声纹特征参数与该样本乐曲的第一种情感语义的最优关系模型,其中,i为关系模型的编号,wi为每种关系模型在该最优关系模型中的权重;wi需满足 其中,fi为第i个关系模型的最小个体适应值;
4-8-3、重复步骤4-8-1和步骤4-8-2,得到样本乐曲的声纹特征参数与该样本乐曲的每种情感语义的最优关系模型,进而得到样本乐曲的声纹参数特征与该样本乐曲的音乐情感的最优关系模型。
采用线性集成学习算法,得到音乐的声纹特征参数和音乐情感之间的最优关系模型,由于考虑了多个关系模型,使得到的最优关系模型可以更好地反应声纹特征参数与音乐情感之间的关系,关系模型的个数越多,则得到的声纹特征参数和音乐情感之间的最优关系模型越具有普适性。
本发明是一种基于云基因表达式编程(本发明所述的云基因表达式编程是指同时使用云模型和基因表达式编程)的音乐情感识别方法,利用基因表式编程在解决函数关系发现问题上的优越性,将音乐情感认知问题转化为函数关系发现问题,并将基因表达式编程和云模型引入音乐情感认知领域。利用云情感标注和音乐声纹特征参数,构建音乐情感数据库;基于提出的云基因表达式编程,构建音乐声纹特征参数与音乐情感的最优关系模型,有效识别音乐情感。
附图说明
图1为本发明基于云基因表达式编程的音乐情感识别方法的技术路线图;
图2为本发明基于云基因表达式编程的音乐情感识别方法的流程图。
具体实施方式
下面结合附图,对本发明一种基于云基因表达式编程的音乐情感识别方法做详细描述。
音乐情感识别主要分为训练和预测两个过程,在训练时,提取音乐数据库中各乐曲的声纹特征参数(例如音色、音高以及节奏的数据),基于云基因表达式编程和集成学习算法构建声纹特征参数与音乐情感之间的关系模型——音乐情感识别模型。在预测时,则直接依据所建立的音乐情感认知模型和待识别音乐的声纹特征参数进行音乐情感识别。
例如音乐《高山流水》在音乐情感数据库中的声纹特征参数设为T,音乐情感标签为云模型V,则利用本发明提供的方法将建立T与V的关系模型(即音乐情感识别模型),在预测时,则依据对应关系模型和音乐的声纹特征参数,实现情感识别或标注。
一种基于云基因表达式编程的音乐情感识别方法,包括以下步骤:包括以下步骤:
(1)将音乐的情感划分为若干情感语义(如果依据Hevner情感模型将音乐的情感划分为圣咏、悲哀、渴望、抒情、欢快、喜悦、热烈、庄严,,每个测试者对每个乐曲都有8种情感语义的评分),记录P个测试者对多个样本乐曲的每种情感语义的评分;
(2)利用云情感标注方法得到每个样本乐曲的每种情感语义的正态云模型,具体方法如下:
2-1、设P个测试者对某个样本乐曲的第一个情感语义的评分情况为λ1,λ2,λ3..λP,求出λ1,λ2,λ3...λP的期望Ex1、熵En1和超熵He1,得到λ1,λ2,λ3...λP的正态云模型y1={Ex1,En1,He1};
2-2、重复步骤2-1若干次,求得该样本乐曲其它情感语义的正态云模型,将该首样本乐曲所有情感语义的正态云模型结合,得到该样本乐曲的正态云模型V=[y1,y2,y3...yn],其中,n为情感语义的种类数;
(3)提取样本乐曲的声纹特征参数,将每首样本乐曲与步骤(2)得到的相应样本乐曲的正态云模型对应,构建得到音乐情感数据库;
(4)利用步骤(3)得到的音乐情感数据库,构建音乐声纹特征参数与音乐情感的最优关系模型,具体步骤如下:
4-1、对步骤(3)中音乐情感数据库中的样本乐曲的声纹特征参数和其相应的正态云模型进行个体编码,建立初始化种群,种群个体数量为N;
4-2、执行进化操作,形成新种群;
4-3、计算步骤4-2中新种群的所有个体的个体适应值,如果满足终止条件,则将相应的个体加入到新种群中,转至步骤4-7,如果不满足终止条件,则继续进行步骤4-4;个体适应值的计算函数为其中,xi为声纹特征参数输入,f(xi)为关系模型计算得到的样本乐曲的情感语义评分输出,ui为测试者对样本乐曲的情感语义评分,m为样本乐曲的数目,终止条件为个体适应值小于0.05;
4-4、将步骤4-3中得到的所有个体适应值由小到大进行排序,从前K个个体中随机挑选L个,求出一个当前最优模式,该当前最优模式记为模式云,将该模式云保存到临时种群中(L<K<N);L、K和N的取值可以依据需要进行选择;
4-5、重复步骤4-4T次,得到T个模式云;T的取值可以依据需要进行选择;
4-6、实例化临时种群中的每个模式云,生成T个个体,分别计算T个个体的个体适应值,从中选出个体适应值最小的S个个体加入新种群中,并从新种群中去除个体适应值最大的S个个体,转至步骤4-2;S的取值可以依据需要进行选择;实例化利用现有技术进行(参见张克俊.基因表达式编程理论及其监督及其学习模型研究[D].浙江大学博士学位论文,2010.)。
4-7、保存所得的个体适应值最小的最优个体,即为所求的音乐声纹特征参数与音乐情感的关系模型;
4-8、重复步骤4-1至步骤4-7k次,得到k个音乐声纹特征参数与音乐情感的关系模型,利用集成学习方法,求出最优关系模型;
集成学习的具体步骤如下:
4-8-1、将步骤(4)中样本乐曲的声纹特征参数与该样本乐曲的第一种情感语义的关系模型分别记为f11(x),f12(x),f13(x)...f1k(x),其中,k为关系模型的个数;
4-8-2、令f(x)为集成学习得到的样本乐曲的声纹特征参数与该样本乐曲的第一种情感语义的最优关系模型,其中,i为关系模型的编号,wi为每种关系模型在该最优关系模型中的权重;
4-8-3、重复步骤4-8-1和步骤4-8-2,得到样本乐曲的声纹特征参数与该样本乐曲的每种情感语义的最优关系模型,进而得到样本乐曲的声纹参数特征与该样本乐曲的音乐情感的最优关系模型。
具体计算时,每种情感语义的正态云模型中包含期望Ex、熵En和超熵He,因此,需要分别针对期望Ex、熵En和超熵He进行集成学习,例如,对于期望Ex来说,步骤(4)中音乐声纹特征参数与第一个音乐情感语义标签的关系模型分别记为其中,k为关系模型的个数;针对集成学习,得到针对期望的最优关系模型fEx(x)。
(5)依据步骤(4)中的最优关系模型和待识别音乐的声纹特征参数对音乐进行音乐情感识别。
本发明构建的基于云基因表达汗式编程的每种情感语义的正态云模型(音乐情感认知模型),可以实现音乐情感的自动识别,用于代替后期的人工标注,自动更新、完善音乐情感数据库,从而实现音乐情感化检索以及个性化歌曲推荐等。
本发明利用正态云模型来标注音乐情感,充分考虑了模糊性和随机性,可以更完善、客观地表达音乐情感,而基于云基因表达式编程构建的音乐情感认知模型,可以快速、准确地识别音乐情感。
本发明中所描述的具体实施例仅仅是对本发明精神作的举例说明,本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越权利要求书定义的范围。
Claims (1)
1.一种基于云基因表达式编程的音乐情感识别方法,其特征在于,包括以下步骤:
(1)将音乐的情感划分为若干情感语义,记录P个测试者对多个样本乐曲的每种情感语义的评分;
(2)利用云情感标注方法得到每个样本乐曲的每种情感语义的正态云模型,具体方法如下:
2-1、设P个测试者对某个样本乐曲的第一个情感语义的评分情况为λ1,λ2,λ3...λP,求出λ1,λ2,λ3...λP的期望Ex1、熵En1和超熵He1,得到λ1,λ2,λ3...λP的正态云模型y1={Ex1,En1,He1};
2-2、重复步骤2-1若干次,求得该样本乐曲其它情感语义的正态云模型,将该首样本乐曲所有情感语义的正态云模型结合,得到该样本乐曲的正态云模型V=[y1,y2,y3...yn],其中,n为情感语义的种类数;
(3)提取样本乐曲的声纹特征参数,将每首样本乐曲与步骤(2)得到的相应样本乐曲的正态云模型对应,构建得到音乐情感数据库;
(4)利用步骤(3)得到的音乐情感数据库,构建音乐声纹特征参数与音乐情感的最优关系模型,具体步骤如下:
4-1、对步骤(3)中音乐情感数据库中的样本乐曲的声纹特征参数和其相应的正态云模型进行个体编码,建立初始化种群;
4-2、执行进化操作,形成新种群;
4-3、计算步骤4-2中新种群的所有个体的个体适应值,如果满足终止条件,则将相应的个体加入到新种群中,转至步骤4-7,如果不满足终止条件,则继续进行步骤4-4;终止条件为个体适应值小于0.05;
所述个体适应值的计算函数为其中,xi为声纹特征参数输入,f(xi)为关系模型计算得到的样本乐曲的情感语义评分输出,ui为测试者对样本乐曲的情感语义评分,m为样本乐曲的数目;
4-4、将步骤4-3中得到的所有个体适应值由小到大进行排序,从前K个个体中随机挑选L个,求出一个当前最优模式,该当前最优模式记为模式云,将该模式云保存到临时种群中;
4-5、重复步骤4-4T次,得到T个模式云;
4-6、实例化临时种群中的每个模式云,生成T个个体,分别计算T个个体的个体适应值,从中选出个体适应值最小的S个个体加入新种群中,并从新种群中去除个体适应值最大的S个个体,转至步骤4-2;
4-7、保存所得的个体适应值最小的最优个体,即为所求的音乐声纹特征参数与音乐情感的关系模型;
4-8、重复步骤4-1至步骤4-7k次,得到k个音乐声纹特征参数与音乐情感的关系模型,利用集成学习方法,求出所述最优关系模型;
集成学习的具体步骤如下:
4-8-1、将步骤(4)中样本乐曲的声纹特征参数与该样本乐曲的第一种情感语义的关系模型分别记为f11(x),f12(x),f13(x)...f1k(x),其中,k为关系模型的个数;
4-8-2、令f(x)为集成学习得到的样本乐曲的声纹特征参数与该样本乐曲的第一种情感语义的最优关系模型,其中,i为关系模型的编号,wi为每种关系模型在该最优关系模型中的权重;
4-8-3、重复步骤4-8-1和步骤4-8-2,得到样本乐曲的声纹特征参数与该样本乐曲的每种情感语义的最优关系模型,进而得到样本乐曲的声纹参数特征与该样本乐曲的音乐情感的最优关系模型;
(5)依据步骤(4)中的最优关系模型和待识别音乐的声纹特征参数对音乐进行音乐情感识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310060278.3A CN103116646B (zh) | 2013-02-26 | 2013-02-26 | 一种基于云基因表达式编程的音乐情感识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310060278.3A CN103116646B (zh) | 2013-02-26 | 2013-02-26 | 一种基于云基因表达式编程的音乐情感识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103116646A CN103116646A (zh) | 2013-05-22 |
CN103116646B true CN103116646B (zh) | 2015-10-28 |
Family
ID=48415019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310060278.3A Expired - Fee Related CN103116646B (zh) | 2013-02-26 | 2013-02-26 | 一种基于云基因表达式编程的音乐情感识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103116646B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109346155B (zh) * | 2018-10-31 | 2022-03-11 | 河南牧业经济学院 | 一种基于云模型的情感刺激树生成方法与情感抚慰系统 |
CN109273025B (zh) * | 2018-11-02 | 2021-11-05 | 中国地质大学(武汉) | 一种中国民族五声调式情感识别方法及系统 |
CN111785296B (zh) * | 2020-05-26 | 2022-06-10 | 浙江大学 | 基于重复旋律的音乐分段边界识别方法 |
CN112949713B (zh) * | 2021-03-01 | 2023-11-21 | 武汉工程大学 | 一种基于复杂网络的集成学习的文本情感分类方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101599271A (zh) * | 2009-07-07 | 2009-12-09 | 华中科技大学 | 一种数字音乐情感的识别方法 |
CN101697278A (zh) * | 2009-10-16 | 2010-04-21 | 深圳市北科瑞声科技有限公司 | 音乐情感距离的度量方法 |
CN102930865A (zh) * | 2012-09-21 | 2013-02-13 | 重庆大学 | 一种波形音乐粗情感软切割分类方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101609703A (zh) * | 2008-06-20 | 2009-12-23 | 索尼爱立信移动通讯有限公司 | 音乐浏览器装置和音乐浏览方法 |
US8489606B2 (en) * | 2010-08-31 | 2013-07-16 | Electronics And Telecommunications Research Institute | Music search apparatus and method using emotion model |
CN102479291A (zh) * | 2010-11-30 | 2012-05-30 | 国际商业机器公司 | 情感描述生成与体验方法和设备以及情感交互系统 |
-
2013
- 2013-02-26 CN CN201310060278.3A patent/CN103116646B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101599271A (zh) * | 2009-07-07 | 2009-12-09 | 华中科技大学 | 一种数字音乐情感的识别方法 |
CN101697278A (zh) * | 2009-10-16 | 2010-04-21 | 深圳市北科瑞声科技有限公司 | 音乐情感距离的度量方法 |
CN102930865A (zh) * | 2012-09-21 | 2013-02-13 | 重庆大学 | 一种波形音乐粗情感软切割分类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103116646A (zh) | 2013-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | The AMG1608 dataset for music emotion recognition | |
CN103116646B (zh) | 一种基于云基因表达式编程的音乐情感识别方法 | |
CN105718532A (zh) | 一种基于多深度网络结构的跨媒体排序方法 | |
Hu et al. | The mood of Chinese Pop music: Representation and recognition | |
Liebman et al. | A phylogenetic approach to music performance analysis | |
Juhász et al. | A Comparative Analysis of Eurasian Folksong Corpora, using Self Organising Maps. | |
CN114911949A (zh) | 一种课程知识图谱构建方法及系统 | |
Widmer | In search of the horowitz factor: Interim report on a musical discovery project | |
CN110909785A (zh) | 基于语义层级的多任务Triplet损失函数学习方法 | |
Das et al. | Music mood Taxonomy Generation and classification of Christian Kokborok song: An audio-based approach | |
Nagavi et al. | Overview of automatic Indian music information recognition, classification and retrieval systems | |
Gao et al. | A novel music emotion recognition model for scratch-generated music | |
Tong | Multimodal music emotion recognition method based on the combination of knowledge distillation and transfer learning | |
Zhang | [Retracted] Research on Music Classification Technology Based on Deep Learning | |
CN110059179A (zh) | 一种基于深度学习的歌曲文本命名实体识别方法 | |
Henri et al. | A deep transfer learning model for the identification of bird songs: A case study for Mauritius | |
Yang et al. | Music emotion feature recognition based on Internet of things and computer-aided technology | |
CN110727695B (zh) | 面向新型供电城轨列车数据运维的自然语言查询解析方法 | |
CN109102006A (zh) | 一种基于音频特征诱导信息增强的音乐自动标记方法 | |
Li | [Retracted] Transformation of Nonmultiple Cluster Music Cyclic Shift Topology to Music Performance Style | |
He | A Music Genre Classification Method Based on Deep Learning | |
Cai et al. | Feature selection approaches for optimising music emotion recognition methods | |
Hu et al. | A statistical model for melody reduction | |
Wohlfahrt-Laymanna et al. | Content aware music analysis with multi-dimensional similarity measure | |
Kurniawati et al. | Deep Learning for Multi-Structured Javanese Gamelan Note Generator. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20151028 Termination date: 20180226 |
|
CF01 | Termination of patent right due to non-payment of annual fee |