CN109299312A - 基于大数据的音乐节奏分析方法 - Google Patents

基于大数据的音乐节奏分析方法 Download PDF

Info

Publication number
CN109299312A
CN109299312A CN201811212687.XA CN201811212687A CN109299312A CN 109299312 A CN109299312 A CN 109299312A CN 201811212687 A CN201811212687 A CN 201811212687A CN 109299312 A CN109299312 A CN 109299312A
Authority
CN
China
Prior art keywords
music
data
rhythm
emotional
referring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811212687.XA
Other languages
English (en)
Other versions
CN109299312B (zh
Inventor
郭冰涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan City University
Original Assignee
Hunan City University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan City University filed Critical Hunan City University
Priority to CN201811212687.XA priority Critical patent/CN109299312B/zh
Publication of CN109299312A publication Critical patent/CN109299312A/zh
Application granted granted Critical
Publication of CN109299312B publication Critical patent/CN109299312B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了基于大数据的音乐节奏分析方法,涉及计算机技术领域,其技术方案要点是:包括以下步骤:获取待分析音乐数据;提取音乐分段中的节奏特征;根据节奏特征调取具有相应节奏特征的参照音乐数据;对参照音乐数据进行情感表达分析;根据情感数据对所有的参照音乐数据进行情感分类处理;根据情感类别中参照音乐数据的数量对所有的情感类别进行排序;根据预设范围值在所有排序后的情感类别中截取相应的情感类别;计算截取后的情感类别的情感应用频率以及相应情感类别中的节奏应用频率;整理成图表后输出,具有减少音乐创作或音乐搭配失误的情况发生,提高音乐创作或音乐搭配的工作效率,增强音乐效果的作用。

Description

基于大数据的音乐节奏分析方法
技术领域
本发明涉及计算机技术领域,更具体地说,它涉及基于大数据的音乐节奏分析方法。
背景技术
音乐是反映人类现实生活情感的一种艺术,音乐让人赏心悦目,并为大家带来听觉的享受。音乐能提高人的审美能力,净化人们的心灵,树立崇高的理想。我们通过音乐来抒发我们的情感,使我们的很多情绪得到释放。
现检索到公告号为CN107610716A,公告日2018年1月19日的中国专利,该方案提供了一种音乐分析方法,包括:对音频数据进行切分,获取多组音频数据;对多组音频数据中的每组音频数据进行快速傅里叶变换,获得频谱数据;对频谱数据分别进行峰值检测、节奏点检测、响度检测、能量分析以及音色分析,获得音频分析结果数据。
上述引用文件中的音乐分析方法,通过对音乐数据进行峰值检测、节奏点检测、响度检测分析,并将分析结果与现有音乐结合实现自行调节灯光。但是,在音乐创作或音乐搭配的过程中,一般通过人主观的对音乐数据进行判断,易出现音乐创作或音乐搭配失误,导致音乐创作或音乐搭配的工作效率较低,音乐效果不理想。
发明内容
本发明的目的是提供基于大数据的音乐节奏分析方法,具有减少音乐创作或音乐搭配失误的情况发生,提高音乐创作或音乐搭配的工作效率,增强音乐效果的作用。
本发明的上述技术目的是通过以下技术方案得以实现的:基于大数据的音乐节奏分析方法,包括以下步骤:
S1:获取待分析音乐数据,并根据预设长度值将所述待分析音乐数据划分成多个音乐分段;
S2:提取所述音乐分段中的节奏特征;
S3:根据所述节奏特征调取具有相应所述节奏特征的参照音乐数据;
S4:对所述参照音乐数据进行情感表达分析,并获得与所述参照音乐数据相对应的情感数据;
S5:根据所述情感数据对所有的所述参照音乐数据进行情感分类处理,将具有相同所述情感数据的所述参照音乐数据划分至相同的情感类别中;
S6:根据所述情感类别中所述参照音乐数据的数量对所有的所述情感类别进行排序;
S7:根据预设范围值在所有排序后的情感类别中截取相应的所述情感类别;
S8:计算截取后的情感类别的情感应用频率以及相应所述情感类别中的节奏应用频率;
S9:统计截取后的情感类别中的所述节奏特征、所述情感数据、所述情感应用频率和所述节奏应用频率,并整理成图表后输出。
通过采用上述技术方案,将待分析音乐数据与已公开的音乐数据进行分析对比,减少音乐创作或音乐搭配失误的情况发生,提高了音乐创作或音乐搭配的工作效率,增强了音乐的应用效果。
本发明进一步设置为:所述节奏特征包括音频特征和节奏点特征。
通过采用上述技术方案,利用音频特征和节奏点特征,便于快速准确的调取参照音乐数据,提高了音乐节奏分析的效率。
本发明进一步设置为:所述节奏特征的调取具体包括:通过4G/3G/2G网络从已公开的音乐库中获取或从预先存储有参照音乐数据的音乐库中获取。
通过采用上述技术方案,使得参照音乐数据的调取更加全面,扩大了音乐节奏分析的范围。
本发明进一步设置为:所述情感应用频率具体为:相应所述情感类别中所述参照音乐数据的数量与所有所述参照音乐数据的数量的比值;
所述节奏应用频率具体为:所述参照音乐数据中应用所述节奏特征的数量与相应所述参照音乐数据中特征总数量的比值。
通过采用上述技术方案,使得情感应用频率和节奏应用频率的计算操作简单。
本发明进一步设置为:在S3中,还包括获取所述参照音乐数据的播放数据;所述播放数据包括播放对象数据、播放次数数据和播放时段数据。
通过采用上述技术方案,便于对待分析音乐数据的音乐效果进行分析。
综上所述,本发明具有以下有益效果:将待分析音乐数据与已公开的音乐数据进行分析对比,减少音乐创作或音乐搭配失误的情况发生,提高了音乐创作或音乐搭配的工作效率,增强了音乐的应用效果;利用音频特征和节奏点特征,便于快速准确的调取参照音乐数据,提高了音乐节奏分析的效率;使得参照音乐数据的调取更加全面,扩大了音乐节奏分析的范围;便于对待分析音乐数据的音乐效果进行分析。
附图说明
图1是本发明实施例中的流程图。
具体实施方式
以下结合附图对本发明作进一步详细说明。
实施例:基于大数据的音乐节奏分析方法,如图1所示,包括以下步骤:
步骤一,获取待分析音乐数据,并根据预设长度值将待分析音乐数据划分成多个音乐分段。
步骤二,提取音乐分段中的节奏特征。
步骤三,根据节奏特征调取具有相应节奏特征的参照音乐数据。
步骤四,对参照音乐数据进行情感表达分析,并获得与参照音乐数据相对应的情感数据。
步骤五,根据情感数据对所有的参照音乐数据进行情感分类处理,将具有相同情感数据的参照音乐数据划分至相同的情感类别中。
步骤六,根据情感类别中参照音乐数据的数量对所有的情感类别进行排序。
步骤七,根据预设范围值在所有排序后的情感类别中截取相应的情感类别。
步骤八,计算截取后的情感类别的情感应用频率以及相应情感类别中的节奏应用频率。
步骤九,统计截取后的情感类别中的节奏特征、情感数据、情感应用频率和节奏应用频率,并整理成图表后输出。
将待分析音乐数据与已公开的音乐数据进行分析对比,减少音乐创作或音乐搭配失误的情况发生,提高了音乐创作或音乐搭配的工作效率,增强了音乐的应用效果。
如图1所示,节奏特征包括音频特征和节奏点特征。利用音频特征和节奏点特征,便于快速准确的调取参照音乐数据,提高了音乐节奏分析的效率。
如图1所示,节奏特征的调取具体包括:通过4G/3G/2G网络从已公开的音乐库中获取或从预先存储有参照音乐数据的音乐库中获取。使得参照音乐数据的调取更加全面,扩大了音乐节奏分析的范围。
如图1所示,情感应用频率具体为:相应情感类别中参照音乐数据的数量与所有参照音乐数据的数量的比值。节奏应用频率具体为:参照音乐数据中应用节奏特征的数量与相应参照音乐数据中特征总数量的比值。使得情感应用频率和节奏应用频率的计算操作简单。
如图1所示,在步骤三中,还包括获取参照音乐数据的播放数据;播放数据包括播放对象数据、播放次数数据和播放时段数据。便于对待分析音乐数据的音乐效果进行分析。
工作原理:将待分析音乐数据与已公开的音乐数据进行分析对比,减少音乐创作或音乐搭配失误的情况发生,提高了音乐创作或音乐搭配的工作效率,增强了音乐的应用效果。
本具体实施例仅仅是对本发明的解释,其并不是对本发明的限制,本领域技术人员在阅读完本说明书后可以根据需要对本实施例做出没有创造性贡献的修改,但只要在本发明的权利要求范围内都受到专利法的保护。

Claims (5)

1.基于大数据的音乐节奏分析方法,其特征在于,包括以下步骤:
S1:获取待分析音乐数据,并根据预设长度值将所述待分析音乐数据划分成多个音乐分段;
S2:提取所述音乐分段中的节奏特征;
S3:根据所述节奏特征调取具有相应所述节奏特征的参照音乐数据;
S4:对所述参照音乐数据进行情感表达分析,并获得与所述参照音乐数据相对应的情感数据;
S5:根据所述情感数据对所有的所述参照音乐数据进行情感分类处理,将具有相同所述情感数据的所述参照音乐数据划分至相同的情感类别中;
S6:根据所述情感类别中所述参照音乐数据的数量对所有的所述情感类别进行排序;
S7:根据预设范围值在所有排序后的情感类别中截取相应的所述情感类别;
S8:计算截取后的情感类别的情感应用频率以及相应所述情感类别中的节奏应用频率;
S9:统计截取后的情感类别中的所述节奏特征、所述情感数据、所述情感应用频率和所述节奏应用频率,并整理成图表后输出。
2.根据权利要求1所述的基于大数据的音乐节奏分析方法,其特征是:所述节奏特征包括音频特征和节奏点特征。
3.根据权利要求1所述的基于大数据的音乐节奏分析方法,其特征是:所述节奏特征的调取具体包括:通过4G/3G/2G网络从已公开的音乐库中获取或从预先存储有参照音乐数据的音乐库中获取。
4.根据权利要求1所述的基于大数据的音乐节奏分析方法,其特征是:所述情感应用频率具体为:相应所述情感类别中所述参照音乐数据的数量与所有所述参照音乐数据的数量的比值;
所述节奏应用频率具体为:所述参照音乐数据中应用所述节奏特征的数量与相应所述参照音乐数据中特征总数量的比值。
5.根据权利要求1-4任意一项所述的基于大数据的音乐节奏分析方法,其特征是:在S3中,还包括获取所述参照音乐数据的播放数据;所述播放数据包括播放对象数据、播放次数数据和播放时段数据。
CN201811212687.XA 2018-10-18 2018-10-18 基于大数据的音乐节奏分析方法 Active CN109299312B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811212687.XA CN109299312B (zh) 2018-10-18 2018-10-18 基于大数据的音乐节奏分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811212687.XA CN109299312B (zh) 2018-10-18 2018-10-18 基于大数据的音乐节奏分析方法

Publications (2)

Publication Number Publication Date
CN109299312A true CN109299312A (zh) 2019-02-01
CN109299312B CN109299312B (zh) 2021-11-30

Family

ID=65157284

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811212687.XA Active CN109299312B (zh) 2018-10-18 2018-10-18 基于大数据的音乐节奏分析方法

Country Status (1)

Country Link
CN (1) CN109299312B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110085263A (zh) * 2019-04-28 2019-08-02 东华大学 一种音乐情感分类和机器作曲方法
CN114446323A (zh) * 2022-01-25 2022-05-06 电子科技大学 一种动态多维度的音乐情感分析方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090083281A1 (en) * 2007-08-22 2009-03-26 Amnon Sarig System and method for real time local music playback and remote server lyric timing synchronization utilizing social networks and wiki technology
CN101697278A (zh) * 2009-10-16 2010-04-21 深圳市北科瑞声科技有限公司 音乐情感距离的度量方法
CN106991168A (zh) * 2017-03-31 2017-07-28 北京小米移动软件有限公司 音乐播放的控制方法及设备
CN107610716A (zh) * 2017-09-22 2018-01-19 上海韵焰智能科技有限公司 音乐分析方法及装置
CN108648767A (zh) * 2018-04-08 2018-10-12 中国传媒大学 一种流行歌曲情感综合与分类方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090083281A1 (en) * 2007-08-22 2009-03-26 Amnon Sarig System and method for real time local music playback and remote server lyric timing synchronization utilizing social networks and wiki technology
CN101697278A (zh) * 2009-10-16 2010-04-21 深圳市北科瑞声科技有限公司 音乐情感距离的度量方法
CN106991168A (zh) * 2017-03-31 2017-07-28 北京小米移动软件有限公司 音乐播放的控制方法及设备
CN107610716A (zh) * 2017-09-22 2018-01-19 上海韵焰智能科技有限公司 音乐分析方法及装置
CN108648767A (zh) * 2018-04-08 2018-10-12 中国传媒大学 一种流行歌曲情感综合与分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
胡冰洁: "基于特征向量的音乐情感分析的研究", 《西安电子科技大学学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110085263A (zh) * 2019-04-28 2019-08-02 东华大学 一种音乐情感分类和机器作曲方法
CN110085263B (zh) * 2019-04-28 2021-08-06 东华大学 一种音乐情感分类和机器作曲方法
CN114446323A (zh) * 2022-01-25 2022-05-06 电子科技大学 一种动态多维度的音乐情感分析方法及系统

Also Published As

Publication number Publication date
CN109299312B (zh) 2021-11-30

Similar Documents

Publication Publication Date Title
CN101477798B (zh) 一种分析和提取设定场景的音频数据的方法
Giannoulis et al. A database and challenge for acoustic scene classification and event detection
Cano et al. Robust sound modeling for song detection in broadcast audio
CN103971689B (zh) 一种音频识别方法及装置
EP3754961A1 (en) Post-teleconference playback using non-destructive audio transport
Williams Tracking timbral changes in metal productions from 1990 to 2013
CN1662956A (zh) 大量说话人识别(id)系统及其相应方法
CN106991163A (zh) 一种基于演唱者声音特质的歌曲推荐方法
KR20030059085A (ko) 오디오 데이터베이스에서의 검색 방법
CN109299312A (zh) 基于大数据的音乐节奏分析方法
Dall et al. Analysis of speaker clustering strategies for HMM-based speech synthesis
CN104866604B (zh) 一种信息处理方法及服务器
CN113194332B (zh) 基于多策略的新广告发现方法、电子设备和可读存储介质
Patel et al. Musical notes identification using digital signal processing
CN110913242B (zh) 一种广播音频标签自动化生成方法
CN107886941A (zh) 一种音频标注方法及装置
WO2022161291A1 (zh) 一种音频搜索方法、装置、计算机设备和存储介质
CN110782917B (zh) 一种诗词吟诵风格的分类方法与系统
Chen et al. Segmentation of singing, speech and instruments in Kunqu audio based on zero-crossing rate
KR20100064423A (ko) 동영상 오디오 정보에 따른 온라인 광고 제공 방법 및 그 시스템
Fano Yela et al. Does k matter? k-nn hubness analysis for kernel additive modelling vocal separation
Bellur et al. A cepstrum based approach for identifying tonic pitch in Indian classical music
Xu et al. Research on Music Genre Classification Based on Residual Network
US11899713B2 (en) Music streaming, playlist creation and streaming architecture
CN115881067A (zh) 基于Resnet101的音乐流派分类方法、系统、介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant