CN117079622A - 基于大数据的音乐节奏分析方法 - Google Patents
基于大数据的音乐节奏分析方法 Download PDFInfo
- Publication number
- CN117079622A CN117079622A CN202210972683.1A CN202210972683A CN117079622A CN 117079622 A CN117079622 A CN 117079622A CN 202210972683 A CN202210972683 A CN 202210972683A CN 117079622 A CN117079622 A CN 117079622A
- Authority
- CN
- China
- Prior art keywords
- feature
- music
- classification
- data
- factors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033764 rhythmic process Effects 0.000 title claims abstract description 42
- 238000004458 analytical method Methods 0.000 title claims abstract description 34
- 230000004927 fusion Effects 0.000 claims abstract description 28
- 230000008451 emotion Effects 0.000 claims abstract description 24
- 238000013528 artificial neural network Methods 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims abstract description 9
- 230000008676 import Effects 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 18
- 238000012360 testing method Methods 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 10
- 239000013598 vector Substances 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 8
- 230000002457 bidirectional effect Effects 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 238000009432 framing Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 230000008447 perception Effects 0.000 abstract description 5
- 238000013145 classification model Methods 0.000 abstract description 3
- 239000010410 layer Substances 0.000 description 22
- 210000002569 neuron Anatomy 0.000 description 11
- 238000001514 detection method Methods 0.000 description 6
- 238000007635 classification algorithm Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/65—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/071—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
本发明提供了基于大数据的音乐节奏分析方法,音乐节奏分析方法的具体步骤如下:步骤一:音乐节奏特征采集模块对电子音乐特征进行采集;步骤二:对数据评论文本进行分类处理;步骤三:多特征识别模块将电子音乐的特征因子进行导入;本发明采用基于多特征融合和神经网络的电子音乐分类模型,应用多特征融合的方式创建特征识别模块,对电子音乐进行自适应特征融合,通过神经网络承接融合后的特征因子,导入分布结构进行多层感知分类,实现电子音乐分类,同时还通过对音乐评论数据文本进行情感处理,获取情感分类结构,将其作为一个特征因子,进行多特征融合,使得多特征融合分类更加准确。
Description
技术领域
本发明属于音乐分析技术领域,涉及基于大数据的音乐节奏分析方法。
背景技术
公告号为CN107610716A的中国专利提供了一种音乐分析方法,包括:对音频数据进行切分,获取多组音频数据;对多组音频数据中的每组音频数据进行快速傅里叶变换,获得频谱数据;对频谱数据分别进行峰值检测、节奏点检测、响度检测、能量分析以及音色分析,获得音频分析结果数据。
上述音乐分类方法,进行节奏分析时,都是分别对峰值检测、节奏点检测、响度检测、能量分析以及音色进行单一分析,其准确性较差,需要进行多特征融合分析,且在音乐具体分析时,音乐评论包含有音乐的情感倾向性,也需要进行融合分析。
发明内容
本发明的目的在于提供基于大数据的音乐节奏分析方法,以解决上述背景技术中提出的问题。
本发明的目的可通过下列技术方案来实现:
基于大数据的音乐节奏分析方法,所述音乐节奏分析方法的具体步骤如下:
步骤一:获取待分析的音乐节奏片段数据,以及获取该音乐片段节奏下的数据评论文本,通过音乐节奏特征采集模块对电子音乐特征进行采集,并对电子音乐进行特征处理;
步骤二:对数据评论文本进行分类处理,输出分类结构,将分类结构作为其中一个音乐特征,通过音乐节奏特征采集模块进行采集;
步骤三:多特征识别模块将电子音乐的特征因子进行导入,将关键特征因子进行标记,在降低参杂因子的同时对特征进行融合;
步骤四:特征融合分类模块能够将提取的特征因子进行承接,将每种特征因子以不同的分类特征量进行导入,采用神经网络多层感知器对双向特征分类结果进行分离,以此来辨别双向分类过程。
在上述的基于大数据的音乐节奏分析方法中,所述步骤一种,在对电子音乐进行特征处理时,具体包括:
过滤掉音乐节奏片段数据的非特征因子及参杂因子,并对电子音乐进行除分帧以外的特征采集处理工作。
在上述的基于大数据的音乐节奏分析方法中,所述步骤一中,采集的音乐特征包括高音、低音、节奏点、音色。
在上述的基于大数据的音乐节奏分析方法中,步骤二中,对数据评论文本进行分类处理的具体步骤如下:
S1:使用分词器对数据文本进行分词,并表示出数据的特征词;
S2:进行特征项的选取,选择数据文本中有明显情感特征的词汇,将形容词、名词和动词作为特征项;
S3:进行词频统计,统计所选特征项在情感分类中出现的次数,将所有的训练数据文本都转为特征向量;
S4:通过KNN算法对各数据文本进行分类,并输出分类结果,作为特征因子参与多特征融合。
在上述的基于大数据的音乐节奏分析方法中,所述KNN算法的具体计算方法如下:
算距离,给定测试对象,计算它与训练集中的每个对象的距离;
找邻近,圈定距离最近的K个训练对象,作为测试对象的邻近;
做分类,根据这K个邻近归属的主要类别,来对测试对象分类。
与现有技术相比,本发明基于大数据的音乐节奏分析方法的优点为:
本发明采用基于多特征融合和神经网络的电子音乐分类模型,应用多特征融合的方式创建特征识别模块,对电子音乐进行自适应特征融合,使用自适应机制进行调整便于高效特征融合,通过神经网络承接融合后的特征因子,导入分布结构进行多层感知分类,利用电子音乐特频效应实现电子音乐分类,同时还通过对音乐评论数据文本进行情感处理,获取情感分类结构,将其作为一个特征因子,进行多特征融合,使得多特征融合分类更加准确。
附图说明
图1是本发明基于大数据的音乐节奏分析方法的流程示意图。
图2是本发明基于大数据的音乐节奏分析方法的结构示意图。
图3是本发明基于大数据的音乐节奏分析方法的多层感知特征分类结构示意图。
具体实施方式
以下是本发明的具体实施例并结合附图,对本发明的技术方案作进一步的描述,但本发明并不限于这些实施例。
基于大数据的音乐节奏分析方法,所述音乐节奏分析方法的具体步骤如下:
步骤一:获取待分析的音乐节奏片段数据,以及获取该音乐片段节奏下的数据评论文本,通过音乐节奏特征采集模块对电子音乐特征进行采集,并对电子音乐进行特征处理;
具体的,获取该音乐片段节奏下的数据评论文本时,主要通过大数据进行筛选,筛选出其中较为热门的评论数据文本,可选择评论数据文本的训练量为100,即选取一百个该音乐节奏下的评论数据文本。
步骤二:对数据评论文本进行分类处理,输出分类结构,将分类结构作为其中一个音乐特征,通过音乐节奏特征采集模块进行采集;
步骤三:多特征识别模块将电子音乐的特征因子进行导入,将关键特征因子进行标记,在降低参杂因子的同时对特征进行融合;
步骤四:特征融合分类模块能够将提取的特征因子进行承接,将每种特征因子以不同的分类特征量进行导入,采用神经网络多层感知器对双向特征分类结果进行分离,以此来辨别双向分类过程。
具体的,多层感知特征分类过程中,应用神经网络多层感知器将分类过程分为三个层面:导入层、分类层及输出层,神经网络的网络分类框架中包含神经元,能够承接特征融合因子,能够解决单层感知分类中不能解决的线性分类问题,其既能够以多特征的形式进行分类,又能够体现多种分类路径。
导入层神经元接收到的特征融合因子后,分类层和输出层的每一个神经元之间相邻的属相是相同的,并且是互动式连接,但是所在同一层的全部神经元是相互独立的,并且每个特征因子都有特定的连接权值,分类层中的特定因子在分类层中进行多项分类,按照不同的特征特点分配到不同的神经元中,假设每个神经元中只能承接一个特征因子,在输出层的调用过程中调用的是神经元的权值,但是输出的却是神经元承载的特征因子,神经网络多层感知器用于同特征因子的分类,其导入神经元个数与输出神经元的层数相同时,输出特征因子个数将会通过神经网络多层感知器进行多层分离,分类层中的每一项神经元都是独立个体,但是连接路径是不同的,其能够有效地摒弃双向特征因子的分类过程。
如图1、图2、图3所示,本发明基于大数据的音乐节奏分析方法,所述步骤一种,在对电子音乐进行特征处理时,具体包括:
过滤掉音乐节奏片段数据的非特征因子及参杂因子,并对电子音乐进行除分帧以外的特征采集处理工作。
如图1、图2、图3所示,本发明基于大数据的音乐节奏分析方法,所述步骤一中,采集的音乐特征包括高音、低音、节奏点、音色。
如图1、图2、图3所示,本发明基于大数据的音乐节奏分析方法,步骤二中,对数据评论文本进行分类处理的具体步骤如下:
S1:使用分词器对数据文本进行分词,并表示出数据的特征词;
S2:进行特征项的选取,选择数据文本中有明显情感特征的词汇,将形容词、名词和动词作为特征项;
具体的,具体的,当得到一首歌词评论数据文本后,首先要使用特殊工具对其进行分词,将完整的数据文本变为一个个单词,随后通过手动操作从中选取名词、形容词等富含情感因素的词语,将这些词语和情感类别词汇进行对比,统计任意一个音乐评论数据文本,对于每一个情感小类中的词语出现的次数,最终得到每首音乐评论数据文本所对应的特征向量。
S3:进行词频统计,统计所选特征项在情感分类中出现的次数,将所有的训练数据文本都转为特征向量;
具体的,计算机无法直接处理文字、语言,必须通过一定的方法将文本形式的评论数据文本转化为可以被计算机处理的形式化特征向量,利用向量空间模型,文本的数据就转换成了计算机可以处理的结构化数据,将歌词的文档以表示情感的特征词用空间向量的形式表达出来特征向量表示为D=(L,t2,…",t.),将情感细分为12小类,因此此处n的取值为12,即每个特征向量是12维的,另外,每一维表示某一文本中出现第i个小类中的形容词的次数,例如,某首歌词中出现了3次“笑容”,1次“甜蜜”,1 次“温馨”,对照图1,可以发现这几个词语都被归纳在第六个小类“快乐”这一情感中,因此对于这首歌词的特征元素t6的计数值就为6。
S4:通过KNN算法对各数据文本进行分类,并输出分类结果,作为特征因子参与多特征融合。
如图1、图2、图3所示,本发明基于大数据的音乐节奏分析方法,所述KNN算法的具体计算方法如下:
算距离,给定测试对象,计算它与训练集中的每个对象的距离;
找邻近,圈定距离最近的K个训练对象,作为测试对象的邻近;
做分类,根据这K个邻近归属的主要类别,来对测试对象分类。
具体的,音乐评论数据文本包含丰富的听者对音乐节奏的感情,对于情感的分类而言,最常见也是最直接简单的情感分类方式便是好和坏,积极与消极,上述将电子音乐中的情感分类两大类,体现积极情绪的一类和表现消极情感的一类,并评估各类占的具体值,作为其中一个音乐特征因子导入多特征融合中。
K最近邻分类算法是数据挖掘分类技术中最简单的方法之一,KNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性,该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别,KNN方法在类别决策时,只与极少量的相邻样本有关,由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合,而对于音乐评论文本来说,其重叠和交叉的区域较多,因此,选取K最近邻分类算法进行分类较为合适。
本发明基于大数据的音乐节奏分析方法,采用基于多特征融合和神经网络的电子音乐分类模型,应用多特征融合的方式创建特征识别模块,对电子音乐进行自适应特征融合,使用自适应机制进行调整便于高效特征融合,通过神经网络承接融合后的特征因子,导入分布结构进行多层感知分类,利用电子音乐特频效应实现电子音乐分类,同时还通过对音乐评论数据文本进行情感处理,获取情感分类结构,将其作为一个特征因子,进行多特征融合,使得多特征融合分类更加准确。
本说明书中未作详细描述的内容属于本领域专业技术人员公知的现有技术。本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (5)
1.基于大数据的音乐节奏分析方法,其特征在于,所述音乐节奏分析方法的具体步骤如下:
步骤一:获取待分析的音乐节奏片段数据,以及获取该音乐片段节奏下的数据评论文本,通过音乐节奏特征采集模块对电子音乐特征进行采集,并对电子音乐进行特征处理;
步骤二:对数据评论文本进行分类处理,输出分类结构,将分类结构作为其中一个音乐特征,通过音乐节奏特征采集模块进行采集;
步骤三:多特征识别模块将电子音乐的特征因子进行导入,将关键特征因子进行标记,在降低参杂因子的同时对特征进行融合;
步骤四:特征融合分类模块能够将提取的特征因子进行承接,将每种特征因子以不同的分类特征量进行导入,采用神经网络多层感知器对双向特征分类结果进行分离,以此来辨别双向分类过程。
2.根据权利要求1所述的基于大数据的音乐节奏分析方法,其特征在于,所述步骤一种,在对电子音乐进行特征处理时,具体包括:
过滤掉音乐节奏片段数据的非特征因子及参杂因子,并对电子音乐进行除分帧以外的特征采集处理工作。
3.根据权利要求1所述的基于大数据的音乐节奏分析方法,其特征在于,所述步骤一中,采集的音乐特征包括高音、低音、节奏点、音色。
4.根据权利要求1所述的基于大数据的音乐节奏分析方法,其特征在于,步骤二中,对数据评论文本进行分类处理的具体步骤如下:
S1:使用分词器对数据文本进行分词,并表示出数据的特征词;
S2:进行特征项的选取,选择数据文本中有明显情感特征的词汇,将形容词、名词和动词作为特征项;
S3:进行词频统计,统计所选特征项在情感分类中出现的次数,将所有的训练数据文本都转为特征向量;
S4:通过KNN算法对各数据文本进行分类,并输出分类结果,作为特征因子参与多特征融合。
5.根据权利要求4所述的基于大数据的音乐节奏分析方法,其特征在于,所述KNN算法的具体计算方法如下:
算距离,给定测试对象,计算它与训练集中的每个对象的距离;
找邻近,圈定距离最近的K个训练对象,作为测试对象的邻近;
做分类,根据这K个邻近归属的主要类别,来对测试对象分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210972683.1A CN117079622A (zh) | 2022-08-15 | 2022-08-15 | 基于大数据的音乐节奏分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210972683.1A CN117079622A (zh) | 2022-08-15 | 2022-08-15 | 基于大数据的音乐节奏分析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117079622A true CN117079622A (zh) | 2023-11-17 |
Family
ID=88710269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210972683.1A Pending CN117079622A (zh) | 2022-08-15 | 2022-08-15 | 基于大数据的音乐节奏分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117079622A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117828537A (zh) * | 2024-03-04 | 2024-04-05 | 北京建筑大学 | 一种基于cba模型的音乐情感识别方法和装置 |
-
2022
- 2022-08-15 CN CN202210972683.1A patent/CN117079622A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117828537A (zh) * | 2024-03-04 | 2024-04-05 | 北京建筑大学 | 一种基于cba模型的音乐情感识别方法和装置 |
CN117828537B (zh) * | 2024-03-04 | 2024-05-17 | 北京建筑大学 | 一种基于cba模型的音乐情感识别方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100397387C (zh) | 数字声音数据的摘要制作方法和设备 | |
Hasib et al. | Bmnet-5: A novel approach of neural network to classify the genre of bengali music based on audio features | |
CN109271550B (zh) | 一种基于深度学习的音乐个性化分类推荐方法 | |
Murauer et al. | Detecting music genre using extreme gradient boosting | |
CN111611431A (zh) | 一种基于深度学习的音乐分类方法 | |
Yang et al. | Music Genre Classification Using Duplicated Convolutional Layers in Neural Networks. | |
Agarwal et al. | An efficient supervised framework for music mood recognition using autoencoder‐based optimised support vector regression model | |
Mokhsin et al. | Automatic music emotion classification using artificial neural network based on vocal and instrumental sound timbres | |
Cai et al. | Music genre classification based on auditory image, spectral and acoustic features | |
Farajzadeh et al. | PMG-Net: Persian music genre classification using deep neural networks | |
Ge et al. | Optimization of computer aided design system for music automatic classification based on feature analysis | |
CN117079622A (zh) | 基于大数据的音乐节奏分析方法 | |
Hennequin et al. | Audio based disambiguation of music genre tags | |
Riad et al. | Learning spectro-temporal representations of complex sounds with parameterized neural networks | |
Das et al. | RETRACTED ARTICLE: Building a computational model for mood classification of music by integrating an asymptotic approach with the machine learning techniques | |
Sarkar et al. | Raga identification from Hindustani classical music signal using compositional properties | |
Bozkurt et al. | Usul and makam driven automatic melodic segmentation for Turkish music | |
CN109492664A (zh) | 一种基于特征加权模糊支持向量机的音乐流派分类方法及系统 | |
Szeliga et al. | Musical instrument recognition with a convolutional neural network and staged training | |
Rao et al. | Automatic music genre classification based on linguistic frequencies using machine learning | |
Li et al. | Audio recognition of Chinese traditional instruments based on machine learning | |
Pandeya et al. | Multi-modal, multi-task and multi-label for music genre classification and emotion regression | |
Li | [Retracted] Transformation of Nonmultiple Cluster Music Cyclic Shift Topology to Music Performance Style | |
Sharma et al. | Audio songs classification based on music patterns | |
CN111930947A (zh) | 一种现代汉语文字作品作者鉴别系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |