CN117079622A - 基于大数据的音乐节奏分析方法 - Google Patents

基于大数据的音乐节奏分析方法 Download PDF

Info

Publication number
CN117079622A
CN117079622A CN202210972683.1A CN202210972683A CN117079622A CN 117079622 A CN117079622 A CN 117079622A CN 202210972683 A CN202210972683 A CN 202210972683A CN 117079622 A CN117079622 A CN 117079622A
Authority
CN
China
Prior art keywords
feature
music
classification
data
factors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210972683.1A
Other languages
English (en)
Inventor
喻𬍛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanchang Institute of Technology
Original Assignee
Nanchang Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanchang Institute of Technology filed Critical Nanchang Institute of Technology
Priority to CN202210972683.1A priority Critical patent/CN117079622A/zh
Publication of CN117079622A publication Critical patent/CN117079622A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/65Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/071Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

本发明提供了基于大数据的音乐节奏分析方法,音乐节奏分析方法的具体步骤如下:步骤一:音乐节奏特征采集模块对电子音乐特征进行采集;步骤二:对数据评论文本进行分类处理;步骤三:多特征识别模块将电子音乐的特征因子进行导入;本发明采用基于多特征融合和神经网络的电子音乐分类模型,应用多特征融合的方式创建特征识别模块,对电子音乐进行自适应特征融合,通过神经网络承接融合后的特征因子,导入分布结构进行多层感知分类,实现电子音乐分类,同时还通过对音乐评论数据文本进行情感处理,获取情感分类结构,将其作为一个特征因子,进行多特征融合,使得多特征融合分类更加准确。

Description

基于大数据的音乐节奏分析方法
技术领域
本发明属于音乐分析技术领域,涉及基于大数据的音乐节奏分析方法。
背景技术
公告号为CN107610716A的中国专利提供了一种音乐分析方法,包括:对音频数据进行切分,获取多组音频数据;对多组音频数据中的每组音频数据进行快速傅里叶变换,获得频谱数据;对频谱数据分别进行峰值检测、节奏点检测、响度检测、能量分析以及音色分析,获得音频分析结果数据。
上述音乐分类方法,进行节奏分析时,都是分别对峰值检测、节奏点检测、响度检测、能量分析以及音色进行单一分析,其准确性较差,需要进行多特征融合分析,且在音乐具体分析时,音乐评论包含有音乐的情感倾向性,也需要进行融合分析。
发明内容
本发明的目的在于提供基于大数据的音乐节奏分析方法,以解决上述背景技术中提出的问题。
本发明的目的可通过下列技术方案来实现:
基于大数据的音乐节奏分析方法,所述音乐节奏分析方法的具体步骤如下:
步骤一:获取待分析的音乐节奏片段数据,以及获取该音乐片段节奏下的数据评论文本,通过音乐节奏特征采集模块对电子音乐特征进行采集,并对电子音乐进行特征处理;
步骤二:对数据评论文本进行分类处理,输出分类结构,将分类结构作为其中一个音乐特征,通过音乐节奏特征采集模块进行采集;
步骤三:多特征识别模块将电子音乐的特征因子进行导入,将关键特征因子进行标记,在降低参杂因子的同时对特征进行融合;
步骤四:特征融合分类模块能够将提取的特征因子进行承接,将每种特征因子以不同的分类特征量进行导入,采用神经网络多层感知器对双向特征分类结果进行分离,以此来辨别双向分类过程。
在上述的基于大数据的音乐节奏分析方法中,所述步骤一种,在对电子音乐进行特征处理时,具体包括:
过滤掉音乐节奏片段数据的非特征因子及参杂因子,并对电子音乐进行除分帧以外的特征采集处理工作。
在上述的基于大数据的音乐节奏分析方法中,所述步骤一中,采集的音乐特征包括高音、低音、节奏点、音色。
在上述的基于大数据的音乐节奏分析方法中,步骤二中,对数据评论文本进行分类处理的具体步骤如下:
S1:使用分词器对数据文本进行分词,并表示出数据的特征词;
S2:进行特征项的选取,选择数据文本中有明显情感特征的词汇,将形容词、名词和动词作为特征项;
S3:进行词频统计,统计所选特征项在情感分类中出现的次数,将所有的训练数据文本都转为特征向量;
S4:通过KNN算法对各数据文本进行分类,并输出分类结果,作为特征因子参与多特征融合。
在上述的基于大数据的音乐节奏分析方法中,所述KNN算法的具体计算方法如下:
算距离,给定测试对象,计算它与训练集中的每个对象的距离;
找邻近,圈定距离最近的K个训练对象,作为测试对象的邻近;
做分类,根据这K个邻近归属的主要类别,来对测试对象分类。
与现有技术相比,本发明基于大数据的音乐节奏分析方法的优点为:
本发明采用基于多特征融合和神经网络的电子音乐分类模型,应用多特征融合的方式创建特征识别模块,对电子音乐进行自适应特征融合,使用自适应机制进行调整便于高效特征融合,通过神经网络承接融合后的特征因子,导入分布结构进行多层感知分类,利用电子音乐特频效应实现电子音乐分类,同时还通过对音乐评论数据文本进行情感处理,获取情感分类结构,将其作为一个特征因子,进行多特征融合,使得多特征融合分类更加准确。
附图说明
图1是本发明基于大数据的音乐节奏分析方法的流程示意图。
图2是本发明基于大数据的音乐节奏分析方法的结构示意图。
图3是本发明基于大数据的音乐节奏分析方法的多层感知特征分类结构示意图。
具体实施方式
以下是本发明的具体实施例并结合附图,对本发明的技术方案作进一步的描述,但本发明并不限于这些实施例。
基于大数据的音乐节奏分析方法,所述音乐节奏分析方法的具体步骤如下:
步骤一:获取待分析的音乐节奏片段数据,以及获取该音乐片段节奏下的数据评论文本,通过音乐节奏特征采集模块对电子音乐特征进行采集,并对电子音乐进行特征处理;
具体的,获取该音乐片段节奏下的数据评论文本时,主要通过大数据进行筛选,筛选出其中较为热门的评论数据文本,可选择评论数据文本的训练量为100,即选取一百个该音乐节奏下的评论数据文本。
步骤二:对数据评论文本进行分类处理,输出分类结构,将分类结构作为其中一个音乐特征,通过音乐节奏特征采集模块进行采集;
步骤三:多特征识别模块将电子音乐的特征因子进行导入,将关键特征因子进行标记,在降低参杂因子的同时对特征进行融合;
步骤四:特征融合分类模块能够将提取的特征因子进行承接,将每种特征因子以不同的分类特征量进行导入,采用神经网络多层感知器对双向特征分类结果进行分离,以此来辨别双向分类过程。
具体的,多层感知特征分类过程中,应用神经网络多层感知器将分类过程分为三个层面:导入层、分类层及输出层,神经网络的网络分类框架中包含神经元,能够承接特征融合因子,能够解决单层感知分类中不能解决的线性分类问题,其既能够以多特征的形式进行分类,又能够体现多种分类路径。
导入层神经元接收到的特征融合因子后,分类层和输出层的每一个神经元之间相邻的属相是相同的,并且是互动式连接,但是所在同一层的全部神经元是相互独立的,并且每个特征因子都有特定的连接权值,分类层中的特定因子在分类层中进行多项分类,按照不同的特征特点分配到不同的神经元中,假设每个神经元中只能承接一个特征因子,在输出层的调用过程中调用的是神经元的权值,但是输出的却是神经元承载的特征因子,神经网络多层感知器用于同特征因子的分类,其导入神经元个数与输出神经元的层数相同时,输出特征因子个数将会通过神经网络多层感知器进行多层分离,分类层中的每一项神经元都是独立个体,但是连接路径是不同的,其能够有效地摒弃双向特征因子的分类过程。
如图1、图2、图3所示,本发明基于大数据的音乐节奏分析方法,所述步骤一种,在对电子音乐进行特征处理时,具体包括:
过滤掉音乐节奏片段数据的非特征因子及参杂因子,并对电子音乐进行除分帧以外的特征采集处理工作。
如图1、图2、图3所示,本发明基于大数据的音乐节奏分析方法,所述步骤一中,采集的音乐特征包括高音、低音、节奏点、音色。
如图1、图2、图3所示,本发明基于大数据的音乐节奏分析方法,步骤二中,对数据评论文本进行分类处理的具体步骤如下:
S1:使用分词器对数据文本进行分词,并表示出数据的特征词;
S2:进行特征项的选取,选择数据文本中有明显情感特征的词汇,将形容词、名词和动词作为特征项;
具体的,具体的,当得到一首歌词评论数据文本后,首先要使用特殊工具对其进行分词,将完整的数据文本变为一个个单词,随后通过手动操作从中选取名词、形容词等富含情感因素的词语,将这些词语和情感类别词汇进行对比,统计任意一个音乐评论数据文本,对于每一个情感小类中的词语出现的次数,最终得到每首音乐评论数据文本所对应的特征向量。
S3:进行词频统计,统计所选特征项在情感分类中出现的次数,将所有的训练数据文本都转为特征向量;
具体的,计算机无法直接处理文字、语言,必须通过一定的方法将文本形式的评论数据文本转化为可以被计算机处理的形式化特征向量,利用向量空间模型,文本的数据就转换成了计算机可以处理的结构化数据,将歌词的文档以表示情感的特征词用空间向量的形式表达出来特征向量表示为D=(L,t2,…",t.),将情感细分为12小类,因此此处n的取值为12,即每个特征向量是12维的,另外,每一维表示某一文本中出现第i个小类中的形容词的次数,例如,某首歌词中出现了3次“笑容”,1次“甜蜜”,1 次“温馨”,对照图1,可以发现这几个词语都被归纳在第六个小类“快乐”这一情感中,因此对于这首歌词的特征元素t6的计数值就为6。
S4:通过KNN算法对各数据文本进行分类,并输出分类结果,作为特征因子参与多特征融合。
如图1、图2、图3所示,本发明基于大数据的音乐节奏分析方法,所述KNN算法的具体计算方法如下:
算距离,给定测试对象,计算它与训练集中的每个对象的距离;
找邻近,圈定距离最近的K个训练对象,作为测试对象的邻近;
做分类,根据这K个邻近归属的主要类别,来对测试对象分类。
具体的,音乐评论数据文本包含丰富的听者对音乐节奏的感情,对于情感的分类而言,最常见也是最直接简单的情感分类方式便是好和坏,积极与消极,上述将电子音乐中的情感分类两大类,体现积极情绪的一类和表现消极情感的一类,并评估各类占的具体值,作为其中一个音乐特征因子导入多特征融合中。
K最近邻分类算法是数据挖掘分类技术中最简单的方法之一,KNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性,该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别,KNN方法在类别决策时,只与极少量的相邻样本有关,由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合,而对于音乐评论文本来说,其重叠和交叉的区域较多,因此,选取K最近邻分类算法进行分类较为合适。
本发明基于大数据的音乐节奏分析方法,采用基于多特征融合和神经网络的电子音乐分类模型,应用多特征融合的方式创建特征识别模块,对电子音乐进行自适应特征融合,使用自适应机制进行调整便于高效特征融合,通过神经网络承接融合后的特征因子,导入分布结构进行多层感知分类,利用电子音乐特频效应实现电子音乐分类,同时还通过对音乐评论数据文本进行情感处理,获取情感分类结构,将其作为一个特征因子,进行多特征融合,使得多特征融合分类更加准确。
本说明书中未作详细描述的内容属于本领域专业技术人员公知的现有技术。本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (5)

1.基于大数据的音乐节奏分析方法,其特征在于,所述音乐节奏分析方法的具体步骤如下:
步骤一:获取待分析的音乐节奏片段数据,以及获取该音乐片段节奏下的数据评论文本,通过音乐节奏特征采集模块对电子音乐特征进行采集,并对电子音乐进行特征处理;
步骤二:对数据评论文本进行分类处理,输出分类结构,将分类结构作为其中一个音乐特征,通过音乐节奏特征采集模块进行采集;
步骤三:多特征识别模块将电子音乐的特征因子进行导入,将关键特征因子进行标记,在降低参杂因子的同时对特征进行融合;
步骤四:特征融合分类模块能够将提取的特征因子进行承接,将每种特征因子以不同的分类特征量进行导入,采用神经网络多层感知器对双向特征分类结果进行分离,以此来辨别双向分类过程。
2.根据权利要求1所述的基于大数据的音乐节奏分析方法,其特征在于,所述步骤一种,在对电子音乐进行特征处理时,具体包括:
过滤掉音乐节奏片段数据的非特征因子及参杂因子,并对电子音乐进行除分帧以外的特征采集处理工作。
3.根据权利要求1所述的基于大数据的音乐节奏分析方法,其特征在于,所述步骤一中,采集的音乐特征包括高音、低音、节奏点、音色。
4.根据权利要求1所述的基于大数据的音乐节奏分析方法,其特征在于,步骤二中,对数据评论文本进行分类处理的具体步骤如下:
S1:使用分词器对数据文本进行分词,并表示出数据的特征词;
S2:进行特征项的选取,选择数据文本中有明显情感特征的词汇,将形容词、名词和动词作为特征项;
S3:进行词频统计,统计所选特征项在情感分类中出现的次数,将所有的训练数据文本都转为特征向量;
S4:通过KNN算法对各数据文本进行分类,并输出分类结果,作为特征因子参与多特征融合。
5.根据权利要求4所述的基于大数据的音乐节奏分析方法,其特征在于,所述KNN算法的具体计算方法如下:
算距离,给定测试对象,计算它与训练集中的每个对象的距离;
找邻近,圈定距离最近的K个训练对象,作为测试对象的邻近;
做分类,根据这K个邻近归属的主要类别,来对测试对象分类。
CN202210972683.1A 2022-08-15 2022-08-15 基于大数据的音乐节奏分析方法 Pending CN117079622A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210972683.1A CN117079622A (zh) 2022-08-15 2022-08-15 基于大数据的音乐节奏分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210972683.1A CN117079622A (zh) 2022-08-15 2022-08-15 基于大数据的音乐节奏分析方法

Publications (1)

Publication Number Publication Date
CN117079622A true CN117079622A (zh) 2023-11-17

Family

ID=88710269

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210972683.1A Pending CN117079622A (zh) 2022-08-15 2022-08-15 基于大数据的音乐节奏分析方法

Country Status (1)

Country Link
CN (1) CN117079622A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117828537A (zh) * 2024-03-04 2024-04-05 北京建筑大学 一种基于cba模型的音乐情感识别方法和装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117828537A (zh) * 2024-03-04 2024-04-05 北京建筑大学 一种基于cba模型的音乐情感识别方法和装置
CN117828537B (zh) * 2024-03-04 2024-05-17 北京建筑大学 一种基于cba模型的音乐情感识别方法和装置

Similar Documents

Publication Publication Date Title
CN100397387C (zh) 数字声音数据的摘要制作方法和设备
Hasib et al. Bmnet-5: A novel approach of neural network to classify the genre of bengali music based on audio features
CN109271550B (zh) 一种基于深度学习的音乐个性化分类推荐方法
Murauer et al. Detecting music genre using extreme gradient boosting
CN111611431A (zh) 一种基于深度学习的音乐分类方法
Yang et al. Music Genre Classification Using Duplicated Convolutional Layers in Neural Networks.
Agarwal et al. An efficient supervised framework for music mood recognition using autoencoder‐based optimised support vector regression model
Mokhsin et al. Automatic music emotion classification using artificial neural network based on vocal and instrumental sound timbres
Cai et al. Music genre classification based on auditory image, spectral and acoustic features
Farajzadeh et al. PMG-Net: Persian music genre classification using deep neural networks
Ge et al. Optimization of computer aided design system for music automatic classification based on feature analysis
CN117079622A (zh) 基于大数据的音乐节奏分析方法
Hennequin et al. Audio based disambiguation of music genre tags
Riad et al. Learning spectro-temporal representations of complex sounds with parameterized neural networks
Das et al. RETRACTED ARTICLE: Building a computational model for mood classification of music by integrating an asymptotic approach with the machine learning techniques
Sarkar et al. Raga identification from Hindustani classical music signal using compositional properties
Bozkurt et al. Usul and makam driven automatic melodic segmentation for Turkish music
CN109492664A (zh) 一种基于特征加权模糊支持向量机的音乐流派分类方法及系统
Szeliga et al. Musical instrument recognition with a convolutional neural network and staged training
Rao et al. Automatic music genre classification based on linguistic frequencies using machine learning
Li et al. Audio recognition of Chinese traditional instruments based on machine learning
Pandeya et al. Multi-modal, multi-task and multi-label for music genre classification and emotion regression
Li [Retracted] Transformation of Nonmultiple Cluster Music Cyclic Shift Topology to Music Performance Style
Sharma et al. Audio songs classification based on music patterns
CN111930947A (zh) 一种现代汉语文字作品作者鉴别系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination