CN111081272B - 歌曲高潮片段识别方法及装置 - Google Patents
歌曲高潮片段识别方法及装置 Download PDFInfo
- Publication number
- CN111081272B CN111081272B CN201911295062.9A CN201911295062A CN111081272B CN 111081272 B CN111081272 B CN 111081272B CN 201911295062 A CN201911295062 A CN 201911295062A CN 111081272 B CN111081272 B CN 111081272B
- Authority
- CN
- China
- Prior art keywords
- song
- climax
- sum
- audio
- paragraph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000005070 sampling Methods 0.000 claims abstract description 162
- 230000033764 rhythmic process Effects 0.000 claims abstract description 32
- 238000001228 spectrum Methods 0.000 claims description 26
- 239000012634 fragment Substances 0.000 claims description 24
- 238000013145 classification model Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 5
- 230000001131 transforming effect Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 description 38
- 238000012545 processing Methods 0.000 description 25
- 238000012549 training Methods 0.000 description 15
- 230000007774 longterm Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000002372 labelling Methods 0.000 description 7
- 238000003062 neural network model Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 3
- 238000012216 screening Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000035772 mutation Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例公开了一种歌曲高潮片段识别方法及装置,该方法首先对歌曲的音频文件进行采样,然后根据歌曲的音符时值和节奏型,将歌曲的采样数据划分为多个音频段落的采样数据,之后根据音频段落的采样数据,获取音频段落对应的和旋,根据歌曲的和旋走向以及音频段落对应的和旋,确定高潮片段所包括的和旋周期,并根据歌曲的歌词数据,对高潮片段所包括的和旋周期进行修正,得到修正后的高潮片段所包括的和旋周期,最后将歌曲对应修正后的高潮片段所包括的和旋周期的部分,识别为歌曲的高潮片段;即本申请是基于歌曲的本质因素,例如音符时值、节奏型以及和旋走向等因素对歌曲进行高潮片段的识别,提高了歌曲高潮片段的识别准确率。
Description
技术领域
本申请涉及歌曲处理领域,具体涉及一种歌曲高潮片段识别方法及装置。
背景技术
歌曲的高潮片段能让用户迅速预览歌曲、形成对歌曲的第一印象,因此许多音乐播放器提供歌曲高潮片段的试听功能,以求更快的吸引用户。
当前在识别歌曲的高潮片段时,通过分析歌曲的歌词、时间序列特性、频谱特性等等,用一套标准算法流程提取片段,尤其是高潮片段,但是这些方法只是从歌曲对外的表现形式,比如歌词、音高、频谱等去间接提取高潮片段,并没有从根本上去理解歌曲,因此会存在歌曲高潮片段提取错误等现象的出现,导致歌曲高潮片段的识别准确率较小。
发明内容
本申请实施例提供一种歌曲高潮片段识别方法及装置,以提高歌曲高潮片段的识别准确率。
为解决上述技术问题,本申请实施例提供以下技术方案:
一方面,本申请实施例提供了一种歌曲高潮片段识别方法,其包括:
对歌曲的音频文件进行采样,得到歌曲的采样数据,采样数据包括采样时间和信号强度;
根据歌曲的音符时值和节奏型,将歌曲的采样数据划分为多个音频段落的采样数据;
根据音频段落的采样数据,获取音频段落对应的和旋;
根据歌曲的和旋走向以及音频段落对应的和旋,确定高潮片段所包括的和旋周期;
根据歌曲的歌词数据,对高潮片段所包括的和旋周期进行修正,得到修正后的高潮片段所包括的和旋周期;
将歌曲对应修正后的高潮片段所包括的和旋周期的部分,识别为歌曲的高潮片段。
一方面,本申请实施例提供了一种歌曲高潮片段识别装置,其包括:
采样模块,用于对歌曲的音频文件进行采样,得到歌曲的采样数据,采样数据包括采样时间和信号强度;
划分模块,用于根据歌曲的音符时值和节奏型,将歌曲的采样数据划分为多个音频段落的采样数据;
获取模块,用于根据音频段落的采样数据,获取音频段落对应的和旋;
确定模块,用于根据歌曲的和旋走向以及音频段落对应的和旋,确定高潮片段所包括的和旋周期;
修正模块,用于根据歌曲的歌词数据,对高潮片段所包括的和旋周期进行修正,得到修正后的高潮片段所包括的和旋周期;
识别模块,用于将歌曲对应修正后的高潮片段所包括的和旋周期的部分,识别为歌曲的高潮片段。
在一实施例中,划分模块用于根据歌曲的音符时值和节奏型,确定段落时长;根据段落时长以及采样频率,确定单个段落所包含的采样数据数量;根据单个段落所包含的采样数据数量,将歌曲的采样数据划分为多个音频段落的采样数据。
在一实施例中,划分模块用于根据单个段落所包含的采样数据数量,确定歌曲的采样数据中的段落起始点;根据段落起始点、以及单个段落所包含的采样数据数量,对歌曲的采样数据进行划分,得到多个音频段落的采样数据。
在一实施例中,划分模块用于根据单个段落所包含的采样数据数量,选择数量匹配且连续的候选起始点;根据单个段落所包含的采样数据数量,确定各候选起始点对应的段落起始点集合对应的信号强度之和;根据各候选起始点对应的信号强度之和,从候选起始点确定段落起始点。
在一实施例中,获取模块用于对音频段落的采样数据进行变换,得到音频段落频率域的频谱图;对频谱图进行采样,得到音频段落对应的频谱序列;根据音频段落对应的频谱序列、以及训练后的分类模型,确定音频段落对应的和旋。
在一实施例中,确定模块用于根据和旋走向以及音频段落对应的和旋,将属于同一和旋周期的音频段落进行组合,得到多个和旋周期;获取和旋周期对应的能量;根据和旋周期对应的能量,确定高潮片段所包括的起始和旋周期和结束和旋周期;将起始和旋周期、结束和旋周期以及位于起始和旋周期和结束和旋周期之间的和旋周期,确定为高潮片段所包括的和旋周期。
在一实施例中,确定模块用于根据和旋周期对应的能量,得到相邻和旋周期的能量差值;根据相邻和旋周期的能量差值,确定起始和旋周期和结束和旋周期。
在一实施例中,修正模块用于获取歌词数据所包含的分句;获取分句与和旋周期的对齐关系;根据对齐关系,以和旋周期为单位、分句为边界,对高潮片段所包括的和旋周期进行外延处理,直至高潮片段所包括的和旋周期与分句对齐,以得到修正后的高潮片段所包括的和旋周期。
在一实施例中,采样模块用于根据歌曲的歌词数据,确定歌曲的高潮片段候选部分;对高潮片段候选部分对应的音频文件进行采样,得到歌曲的采样数据。
一方面,本申请实施例提供了一种计算机设备,其包括存储器,处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,处理器执行程序时实现如上述方法的步骤。
一方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,其中,计算机程序被处理器执行时实现上述方法中的步骤。
本申请实施例提供了一种歌曲高潮片段识别方法及装置,该方法首先对歌曲的音频文件进行采样,得到歌曲的采样数据,然后根据歌曲的音符时值和节奏型,将歌曲的采样数据划分为多个音频段落的采样数据,之后根据音频段落的采样数据,获取音频段落对应的和旋,根据歌曲的和旋走向以及音频段落对应的和旋,确定高潮片段所包括的和旋周期,并根据歌曲的歌词数据,对高潮片段所包括的和旋周期进行修正,得到修正后的高潮片段所包括的和旋周期,最后将歌曲对应修正后的高潮片段所包括的和旋周期的部分,识别为歌曲的高潮片段;即本申请是基于歌曲的本质因素,例如音符时值、节奏型以及和旋走向等因素对歌曲进行高潮片段的识别,实现了从根本上对理解歌曲,这样所提取得到的歌曲高潮片段是准确且完整的,提高了歌曲高潮片段的识别准确率,进而可以提升用户的使用体验,增强了用户粘度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的歌曲处理系统的组网示意图。
图2是本申请实施例提供的歌曲高潮片段识别方法的第一种流程示意图。
图3是本申请实施例提供的歌曲高潮片段识别方法的第二种流程示意图。
图4是本申请实施例提供的歌曲高潮片段识别方法的第三种流程示意图。
图5是本申请实施例提供的歌曲高潮片段识别装置的结构示意图。
图6是本申请实施例提供的计算机设备的结构示意图。
图7a和图7b是本申请实施例提供的模型示意图。
图8a至图8g是本申请实施例提供的数据处理示意图。
图9a至图9b是本申请实施例提供的数据示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供一种歌曲高潮片段识别方法及装置、计算机设备和计算机可读存储介质。其中,该歌曲高潮片段识别装置可以集成在计算机设备中,该计算机设备可以是服务器,也可以是终端等设备,下文以该计算机设备为服务器为例进行说明。
在本申请实施例中,音符用来记录不同长短的音的进行符号,例如常见的全音符、二分音符、四分音符、八分音符、十六分音符等;音符时值也称为音符值或音值,在乐谱中用来表达各音符之间的相对持续时间,一个全音符的时长等于两个二分音符、四个四分音符、八个八分音符、十六个十六分音符的时长,这只是音符时值的比例,例如下文以每个四分音符的音符时值为1秒为例;段落指歌曲的最小完整单元,由音符组成,类似文本里的一句话,节奏型是歌曲所采用的节拍类型,比如4/4、3/8拍,一个段落的时长是由节奏型和音符时长共同决定的;和弦走向指的是歌曲的和弦编排方式,比如C-G-Em-F等各种和弦编排方式,和弦编排方式中的每个字母代表一个和弦,每个和弦对应一个段落,例如代表歌曲的段落按C-G-Em-F的和弦编排方式的顺序进行编排,然后整首歌曲全部或者大部分内容都是这四个和弦的循环重复;歌词数据是指歌曲的歌词。
在本申请实施例中,歌曲的创作过程包括:选择合适的节奏型和音符时值,选择某个固定的和弦走向,如C-G-Em-F等,根据节奏型、和弦走向,为每个段落填充音符,也就是主旋律,可选的根据节奏型、和弦走向、主旋律,为主旋律加上伴奏(伴奏包括但不限于鼓点、弦乐、键盘等),然后根据旋律填写歌词,歌手演唱歌曲,最后将主旋律、歌手的声音(也就是人声)、伴奏(如果有的话)合成得到歌曲。由此可知,歌手的声音以及伴奏等都是和歌曲的主旋律匹配的,在识别得到歌曲主旋律的高潮片段之后,就可以较为准确的定位整个歌曲的高潮片段,在某些场景下歌词可能比旋律的高潮先出现或晚出现,那么基于歌曲的歌词数据对主旋律的高潮片段进行修正之后,就可以准确的识别出歌曲的高潮片段。
请参阅图1,图1为本申请实施例所提供的歌曲处理系统的场景示意图,该系统可以包括终端以及服务器,终端之间、服务器之间、以及终端与服务器之间通过各种网关组成的互联网等方式连接通信,不再赘述,其中,终端包括用户终端11等,服务器包括处理服务器12以及推荐服务器13等;其中:
用户终端11包括但不局限于平板电脑、笔记本电脑、个人计算(PC,PersonalComputer)、微型处理盒子、或者其他设备等;在本申请实施例中,主要包括上传歌曲的歌曲上传终端以及使用歌曲服务的客户端等;
服务器包括本地服务器和/或远程服务器等;处理服务器12用于为歌曲打各种标签,例如歌曲的语言、演唱者、作词、时长等,以及识别歌曲的高潮片段等各种功能;推荐服务器13用于根据歌曲的各种特征、用户的各种特征、用户的历史歌曲播放序列、当前的环境信息等,为用户推荐歌曲。
需要说明的是,图1所示的系统场景示意图仅仅是一个示例,本申请实施例描述的服务器以及场景是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域普通技术人员可知,随着系统的演变和新业务场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。以下分别进行详细说明。需说明的是,以下实施例的描述顺序不作为对实施例优选顺序的限定。
图2是本申请实施例提供的歌曲高潮片段识别方法的第一种流程示意图,请参阅图2,该歌曲高潮片段识别方法包括以下步骤:
201:对歌曲的音频文件进行采样,得到歌曲的采样数据。
在本申请中,如图8a所示,歌曲的声音信号在时间上是连续的,但是计算机只能存储离散的信号,所以需要先对声音信号采样,以得到离散的信号数据,即对歌曲的音频文件进行采样,得到如图8b所示的歌曲的采样数据,采样数据包括采样时间和信号强度。采样时所采用的频率越密集越精确,具体的采样频率可以根据实际应用场景和需求设置,下文以采样频率为100hz为例进行说明。
如图8b所示,在对歌曲的音频文件进行采样之后,一首歌曲便成了一个离散的时间序列T(1)~T(n),时间序列里每个值T(i)代表了歌曲在该采样时刻i时的信号强弱。
202:根据歌曲的音符时值和节奏型,将歌曲的采样数据划分为多个音频段落的采样数据。
歌曲的音符时值和节奏型可以由歌曲上传者提供,或者根据歌曲的名称以及内容,从服务器上获取等方式得到。
在一种实施例中,本步骤包括:根据歌曲的音符时值和节奏型,确定段落时长;根据段落时长以及采样频率,确定单个段落所包含的采样数据数量;根据单个段落所包含的采样数据数量,将歌曲的采样数据划分为多个音频段落的采样数据。
在一种实施例中,根据单个段落所包含的采样数据数量,将歌曲的采样数据划分为多个音频段落的采样数据的步骤包括:根据单个段落所包含的采样数据数量,确定歌曲的采样数据中的段落起始点;根据段落起始点、以及单个段落所包含的采样数据数量,对歌曲的采样数据进行划分,得到多个音频段落的采样数据。
在一种实施例中,根据单个段落所包含的采样数据数量,确定歌曲的采样数据中的段落起始点的步骤,包括:根据单个段落所包含的采样数据数量,选择数量匹配且连续的候选起始点;根据单个段落所包含的采样数据数量,确定各候选起始点对应的段落起始点集合对应的信号强度之和;根据各候选起始点对应的信号强度之和,从候选起始点确定段落起始点。
具体的,本申请可以使用段落时长和段落模式来描述一个段落。针对段落时长,歌曲的音符时值和节奏型都是给定的(由歌曲上传者提供),那么就可以算出歌曲一个段落的时长,比如节奏型是4/4拍,每个4分音符是1s,那么这个歌曲的每个段落有4s,如果采样频率是100hz,那么每个段落将包含4*100=400个时间序列。针对段落模式,歌曲每个段落都遵循特定节奏型的强弱模式,比如节奏型是4/4拍,那么一个段落的拍子模式是“强、弱、次强、弱”,这种强弱模式也会反映在伴奏和人声的响度上,比如作为段落起始音,鼓点会比较重,人声也会有明显的加强,也就是说声音信号的振幅会比较大。
由于歌曲存在前奏、过渡、尾音等不规范元素,并不能从第一个音符开始就默认为进入到歌曲的第一个段落,而是需要检测出真实段落的位置,本申请提出时间序列差分法来识别出段落模式,进而确定歌曲的段落起始点,从而检测出一个段落的开头结尾。具体的,将时间序列T(1)~T(n)每个值跟前一时刻做差,即dT(i)=T(i)–T(i-1),得到差分序列后,按照一个段落所包含的时间序列数,去检测突变位置,即dT(i)比较大的位置,比如一个段落包含400个时间序列,现在一个起始时间序列k(属于1~n中的一个,可以根据经验设置,例如设置为k=500),每隔400个采样点收集序列信号,算出以k,k+400,k+800,....为段落起始点的序列信号的幅值集和∑dT(k),然后令k=k+1~k+399,得到399个∑dT(k),然后取k_max=argmax(∑dT(k)),对应的k_max便是第一个段落起始点,其中,函数argmax(…)为用于寻找具有最大评分的参量的函数,最后例如图8c所示,从而按照每隔400个时间序列进行切分,将歌曲切成不同的段落。
203:根据音频段落的采样数据,获取音频段落对应的和旋。
在一种实施例中,本步骤包括:对音频段落的采样数据进行变换,得到音频段落频率域的频谱图;对频谱图进行采样,得到音频段落对应的频谱序列;根据音频段落对应的频谱序列、以及训练后的分类模型,确定音频段落对应的和旋。
在本申请中,在切分出段落后,需要根据段落里的音符(段落的旋律片段)来识别出该段落的主和弦,可以将段落对应的特征输入分类器,得到段落对应的类别,类别就是和弦的种类,比如C、Cm、Cmaj等。
具体的,对每个段落的400个时间序列,做快速傅里叶变换(FFT)等处理,得到每个段落对应的频率域的频谱图,频谱图中的横坐标代表频率,纵坐标代表每个频率的幅度,对频谱图按一定采样频率(如10hz等)进行采样,就得到如图8d所示的离散的频谱序列F1~Fm。因为和弦是由几个主要音符组成,每个音符都有自己独特的频率,这样就能通过挖掘频谱序列F1~Fm的模式,来识别段落里面的主要和弦。
将段落表示成频谱序列F1~Fm之后,每个频谱Fi都对应一个固定的频率fi,然后输入训练好的分类器(即上文中的分类模型)y=g(F1,...,Fm),就可以得到段落对应的和弦种类,其中g(…)为分类器所对应的函数,而分类器的输入y就是段落对应的和弦种类。
在一种实施例中,通过有监督学习的方法,先用人工标识出一系列段落的和弦,然后用一个分类器y=g(x),学习出分类器y=g(F1,...,Fm)。
204:根据歌曲的和旋走向以及音频段落对应的和旋,确定高潮片段所包括的和旋周期。
在一种实施例中,本步骤包括:根据和旋走向以及音频段落对应的和旋,将属于同一和旋周期的音频段落进行组合,得到多个和旋周期;获取和旋周期对应的能量;根据和旋周期对应的能量,确定高潮片段所包括的起始和旋周期和结束和旋周期;将起始和旋周期、结束和旋周期以及位于起始和旋周期和结束和旋周期之间的和旋周期,确定为高潮片段所包括的和旋周期。
在一种实施例中,根据和旋周期对应的能量,确定高潮片段所包括的起始和旋周期和结束和旋周期的步骤,包括:根据和旋周期对应的能量,得到相邻和旋周期的能量差值;根据相邻和旋周期的能量差值,确定起始和旋周期和结束和旋周期。
具体的,高潮片段一般都是包含多个完整的和弦周期,一个和弦周期包括多个段落,比如前面提到的和旋走向C-G-Em-F,一个和弦周期包括4个段落,那么在识别出段落的和弦后,可以将同一个和弦周期内的段落合成在一起,作为一个和旋周期,并在此基础上识别出高潮片段对应的多个连续的和弦周期。
在一种实施例中,本步骤包括:取每个和弦周期对应的段落,比如C-G-Em-F包含4个段落,将这些段落的时间训练通过FFT变换后得到频谱序列F1~Fq,然后调用能量函数E=∑(mag(Fi)*fi),其中fi是频谱Fi对应的频率,函数mag(…)为用于矢量求模的函数,mag(fi)是Fi的幅值,基于能量函数可知,高频信号能量高,低频信号能量低。
根据能量函数,可以算出歌曲的每个和弦周期的能量E,然后采用前述的差分法,只不过这里的差分对象是E,定义dE(i)=E(i)–E(i-1),找出dE(i)比较大的位置,此处代表了歌曲的高潮片段的开始,将E(i)对应的和旋周期作为高潮片段的起始和旋周期,dE(i)较小,此处代表了歌曲的高潮片段的结尾,将E(i)对应的和旋周期作为高潮片段的结束和旋周期;这是因为高潮片段开始时,E(i)突变很大,所以dE(i)很大,而当高潮片段结束时,E(i)突然很小,dE(i)是较小的负数,如图8e所示,得到歌曲的高潮片段。
205:根据歌曲的歌词数据,对高潮片段所包括的和旋周期进行修正,得到修正后的高潮片段所包括的和旋周期。
针对存在歌词的歌曲,歌曲的歌词数据可以由歌曲上传者提供,或者根据歌曲的名称以及内容,从服务器上获取;针对不存在歌词的歌曲(即仅包括主旋律和/或伴奏的歌曲),可以不执行本步骤205,而直接得到歌曲高潮片段。
在一种实施例中,本步骤包括:获取歌词数据所包含的分句;获取分句与和旋周期的对齐关系;根据对齐关系,以和旋周期为单位、分句为边界,对高潮片段所包括的和旋周期进行外延处理,直至高潮片段所包括的和旋周期与分句对齐,以得到修正后的高潮片段所包括的和旋周期。
具体的,步骤204从旋律角度提取了歌曲的高潮片段,在理论上,旋律变得很饱满、情绪很充分的地方,就是高潮部分的开始;但仅有旋律分析是不够准确的,因为歌曲很重要的是歌手的歌唱,而歌唱是以歌词的语句为最小单元的,有时候歌词可能比旋律的高潮先出现或晚出现。
如图8f所示,比如“我们一起学*叫,一起***”这句歌词,“我们”比旋律的高潮先出现,“一起学”才是旋律高潮的开始位置。那么,本申请结合歌词对旋律高潮进行修饰,对歌词进行句子划分,可以按标点符号切分,如果没有标点符号的话,也可以用自然语言处理里序列标注的方法去识别出句子的起始位置,在划分出歌词的句子之后,可以跟旋律的高潮片段进行对齐,然后以和旋周期为单位扩展高潮的外延,将句子超出的部分纳入到最终的高潮片段中。
206:将歌曲对应修正后的高潮片段所包括的和旋周期的部分,识别为歌曲的高潮片段。
如图8g所示,本步骤基于修正后的高潮片段所包括的和旋周期的部分所对应的时间值,将歌曲中对应的部分,识别为歌曲的高潮片段。
在一种实施例中,为了降低处理服务器的数据处理量,可以先对歌曲的不规范元素,例如前奏、过渡、尾音等进行去除,此时,图2所示方法在对歌曲的音频文件进行采样的步骤之前,还包括:根据歌曲的歌词数据,确定歌曲的高潮片段候选部分;此时,对歌曲的音频文件进行采样,得到歌曲的采样数据包括:对高潮片段候选部分对应的音频文件进行采样,得到歌曲的采样数据。例如仅将歌曲中与歌词数据对应的片段作为高潮片段候选部分,这是歌曲的高潮片段往往包括人声,而人声则与歌词对应,这样就可以降低处理服务器的数据处理量,提高歌曲高潮片段的识别效率。
本实施例提供了一种歌曲高潮片段识别方法,该方法基于歌曲的本质因素,例如音符时值、节奏型以及和旋走向等因素对歌曲进行高潮片段的识别,实现了从根本上对理解歌曲,这样所提取得到的歌曲高潮片段是准确且完整的,提高了歌曲高潮片段的识别准确率,进而可以提升用户的使用体验,增强了用户粘度。
图3是本申请实施例提供的歌曲高潮片段识别方法的第二种流程示意图,本实施例针对如何应用识别得到的歌曲高潮片段进行详细描述;请参阅图3,该歌曲高潮片段识别方法包括以下步骤:
301:处理服务器进行分类器训练。
本步骤通过有监督学习的方法,先用人工标识出一系列段落的和弦,然后用一个分类器y=g(x),学习出分类器y=g(F1,...,Fm),其中g(...)为分类器所对应的函数,而分类器的输入y就是段落对应的和弦种类,F1~Fm为段落对应的频谱序列。
302:歌曲上传者上传歌曲到处理服务器。
歌曲上传者在上传歌曲的同时,上传歌曲的音符时值、节奏型、和旋走向以及歌词数据。
303:处理服务器处理歌曲。
处理服务器为歌曲打各种标签,例如歌曲的语言、演唱者、作词、时长等作为歌曲的歌曲特征信息,以及识别歌曲的高潮片段等各种功能。
针对如何识别歌曲的高潮片段,本步骤包括:
对歌曲的音频文件进行采样,得到歌曲的采样数据。
如图8a所示,歌曲的声音信号在时间上是连续的,需要先对声音信号采样,以得到离散的信号数据,即对歌曲的音频文件进行采样,得到如图8b所示的歌曲的采样数据,如图8b所示,在对歌曲的音频文件进行采样之后,一首歌曲便成了一个离散的时间序列T(1)~T(n),时间序列里每个值T(i)代表了歌曲在该采样时刻i时的信号强弱。
根据歌曲的音符时值和节奏型,确定段落时长;根据段落时长以及采样频率,确定单个段落所包含的采样数据数量;根据单个段落所包含的采样数据数量,选择数量匹配且连续的候选起始点;根据单个段落所包含的采样数据数量,确定各候选起始点对应的段落起始点集合对应的信号强度之和;根据各候选起始点对应的信号强度之和,从候选起始点确定段落起始点;根据段落起始点、以及单个段落所包含的采样数据数量,对歌曲的采样数据进行划分,得到多个音频段落的采样数据。
具体的,将时间序列T(1)~T(n)每个值跟前一时刻做差,即dT(i)=T(i)–T(i-1),得到差分序列后,按照一个段落所包含的时间序列数,去检测突变位置,即dT(i)比较大的位置,比如一个段落包含400个时间序列,现在一个起始时间序列k(属于1~n中的一个,可以根据经验设置,例如设置为k=500),每隔400个采样点收集序列信号,算出以k,k+400,k+800,....为段落起始点的序列信号的幅值和∑dT(k),然后令k=k+1~k+399,得到399个∑dT(k),然后取k_max=argmax(∑dT(k)),对应的k_max便是第一个段落起始点,其中,函数argmax(…)为用于寻找具有最大评分的参量的函数,最后例如图8c所示,从而按照每隔400个时间序列进行切分,将歌曲切成不同的段落。
对音频段落的采样数据进行变换,得到音频段落频率域的频谱图;对频谱图进行采样,得到音频段落对应的频谱序列;根据音频段落对应的频谱序列、以及训练后的分类模型,确定音频段落对应的和旋。
具体的,对每个段落的400个时间序列,做快速傅里叶变换(FFT)等处理,得到每个段落对应的频率域的频谱图,频谱图中的横坐标代表频率,纵坐标代表每个频率的幅度,对频谱图按一定采样频率(如10hz等)进行采样,就得到如图8d所示的离散的频谱序列F1~Fm。将段落表示成频谱序列F1~Fm之后,每个频谱Fi都对应一个固定的频率fi,然后输入训练好的分类器(即上文中的分类模型)y=g(F1,...,Fm),就可以得到段落对应的和弦种类,其中g(...)为分类器所对应的函数,而分类器的输入y就是段落对应的和弦种类。
根据和旋走向以及音频段落对应的和旋,将属于同一和旋周期的音频段落进行组合,得到多个和旋周期;获取和旋周期对应的能量;根据和旋周期对应的能量,得到相邻和旋周期的能量差值;根据相邻和旋周期的能量差值,确定起始和旋周期和结束和旋周期;将起始和旋周期、结束和旋周期以及位于起始和旋周期和结束和旋周期之间的和旋周期,确定为高潮片段所包括的和旋周期。
具体的,取每个和弦周期对应的段落,比如C-G-Em-F包含4个段落,将这些段落的时间训练通过FFT变换后得到频谱序列F1~Fq,然后调用能量函数E=∑(mag(Fi)*fi),根据能量函数,可以算出歌曲的每个和弦周期的能量E,然后定义dE(i)=E(i)–E(i-1),找出dE(i)比较大的位置,此处代表了歌曲的高潮片段的开始,将E(i)对应的和旋周期作为高潮片段的起始和旋周期,dE(i)较小,此处代表了歌曲的高潮片段的结尾,将E(i)对应的和旋周期作为高潮片段的结束和旋周期,如图8e所示,得到歌曲的高潮片段。
获取歌词数据所包含的分句;获取分句与和旋周期的对齐关系;根据对齐关系,以和旋周期为单位、分句为边界,对高潮片段所包括的和旋周期进行外延处理,直至高潮片段所包括的和旋周期与分句对齐,以得到修正后的高潮片段所包括的和旋周期。
具体的,如图8f所示,比如“我们一起学*叫,一起***”这句歌词,“我们”比旋律的高潮先出现,“一起学”才是旋律高潮的开始位置。那么,本申请结合歌词对旋律高潮进行修饰,对歌词进行句子划分,可以按标点符号切分,如果没有标点符号的话,也可以用自然语言处理里序列标注的方法去识别出句子的起始位置,在划分出歌词的句子之后,可以跟旋律的高潮片段进行对齐,然后以和旋周期为单位扩展高潮的外延,将句子超出的部分纳入到最终的高潮片段中。
如图8g所示,基于修正后的高潮片段所包括的和旋周期的部分所对应的时间值,将歌曲中对应的部分识别为歌曲的高潮片段。
304:用户向推荐服务器请求歌曲。
在本步骤中,歌曲服务用户向推荐服务器请求歌曲,例如某个具体的歌曲,或者让推荐服务器进行歌曲推荐等,下文以需要推荐服务器进行歌曲推荐为例进行描述,直接请求歌曲的方式参照现有方式即可。
305:推荐服务器生成推荐结果。
在本步骤中,推荐服务器可以仅根据歌曲的歌曲特征信息进行歌曲推荐得到推荐结果,也可以同时根据歌曲的歌曲特征信息、用户的特征信息进行歌曲推荐得到推荐结果,还可以同时根据歌曲的歌曲特征信息、用户的特征信息、用户的历史歌曲播放序列以及当前的环境信息等进行歌曲推荐得到推荐结果。
推荐结果包括一个或多个歌曲的链接地址,以及各歌曲的语言、演唱者、作词、时长以及歌曲的高潮片段等信息。
306:推荐服务器发送推荐结果到用户终端。
在本步骤中,推荐服务器发送推荐结果到用户终端。
307:终端展示推荐结果。
在本步骤中,终端展示推荐结果,用户可以基于歌曲的语言、演唱者、作词、时长以及歌曲的高潮片段等信息选择所需要收听的歌曲,基于歌曲的高潮片段进行歌曲预览或者精彩片段抢唱等服务。
本实施例给出了一种歌曲高潮片段的应用场景,可以提高歌曲应用的吸引力。
图4是本申请实施例提供的歌曲高潮片段识别方法的第三种流程示意图,本实施例针对如何应用识别得到的歌曲高潮片段以及进行歌曲推荐进行详细描述;请参阅图4,该歌曲高潮片段识别方法包括以下步骤:
401:推荐服务器进行模型训练。
在本步骤中,推荐服务器针对短时歌曲,构建如图7a所示的第一序列标注模型Bi-LSTM-CRF,其中Bi-LSTM层为数据输入层,所输入的数据包括短时歌曲x1的歌曲特征信息(图7a中分别以t1~tk分别表示短时歌曲x1的歌曲特征信息)以及用户的特征信息(图7a中以u表示用户的特征信息),将u拼接到这个用户所有的短时歌曲t1~tk的表示上,构成整个模型的输入,然后输入Bi-LSTM层进行双向交互,得到进一步的特征表示,然后输入CRF进行短时歌曲x1被当前时刻播放的概率y1。
在进行第一序列标注模型训练时,根据前文描述,构建第一训练数据x1={x1,…,xk},y1={1,…,0},x1和y1的维度相同(即数量相同),y1里的元素与x1里的元素一一对应,y1里的某个元素yi为1表示用户当下(记载预设时间t内)重复收听了歌曲xi,y1里的某个元素yi为0则表示用户当下没有重复收听歌曲xi。本申请取一小段时间来提取y1,所以y1里面可以有多个1,也就是说用户在这个小时间窗口里重复听了多首短时歌曲,基于此,构建一个序列标注模型来学习f(x)=y。如图7a所示,输入的t1~tk小方块代表歌曲ti的特征表示(即歌曲的歌曲特征信息),比如歌手、歌曲类型、歌曲时长等直接特征,以及一些间接特征,拼接在一起作为歌曲的表示,小方块u代表用户向量(即用户的特征信息),比如直接特征,以及一些间接特征,将u拼接到这个用户所有的短时歌曲t1~tk的表示上,构成整个模型的输入,然后输入Bi-LSTM层进行双向交互,得到进一步的特征表示,然后输入到CRF并输出进行模型训练。
针对长时歌曲,构建如图7b所示的第二序列标注模型Bi-LSTM-CRF,其中Bi-LSTM层为数据输入层,所输入的数据包括长时歌曲x2的歌曲特征信息(图7b中分别以tk~tn分别表示长时歌曲xm的歌曲特征信息)、用户的特征信息(图7b中以u表示用户的特征信息)以及环境信息(图7b中以c表示当前的环境信息),将u以及c拼接到这个用户所有的短时歌曲t1~tk的表示上,构成整个模型的输入,然后输入Bi-LSTM层进行双向交互,得到进一步的特征表示,然后输入CRF进行长时歌曲x2被当前时刻播放的概率y2。
在进行第二序列标注模型训练时,根据前文描述,构建第二训练数据x2={x1,…,xk},y2={1,…,0},x2和y2的维度相同(即数量相同),y2里的元素与x2里的元素一一对应,y2里的某个元素yi为1表示用户当下(记载预设时间t内)重复收听了歌曲xi,y2里的某个元素yi为0则表示用户当下没有重复收听歌曲xi。本申请取一小段时间来提取y2,所以y2里面可以有多个1,也就是说用户在这个小时间窗口里重复听了多首长时歌曲,基于此,构建一个序列标注模型来学习f(x)=y。如图7b所示,输入的t1~tk小方块代表歌曲ti的特征表示(即歌曲的歌曲特征信息),比如歌手、歌曲类型、歌曲时长等直接特征以及一些间接特征,拼接在一起作为歌曲的表示,小方块u代表用户向量(即用户的特征信息),比如直接特征以及一些间接特征,小方块c代表环境向量(即当前的环境信息),将u拼和c接到这个用户所有的短时歌曲t1~tk的表示上,构成整个模型的输入,然后输入Bi-LSTM层进行双向交互,得到进一步的特征表示,然后输入到CRF层并输出进行模型训练。
402:处理服务器进行分类器训练。
本步骤参考步骤301。
403:歌曲上传者上传歌曲到处理服务器。
歌曲上传者在上传歌曲的同时,上传歌曲的音符时值、节奏型、和旋走向以及歌词数据。
404:处理服务器根据歌曲的音符时值和节奏型等处理歌曲。
处理服务器为歌曲打各种标签,例如歌曲的语言、演唱者、作词、时长等作为歌曲的歌曲特征信息,以及识别歌曲的高潮片段等各种功能。
本步骤参考步骤303。
405:用户向推荐服务器请求歌曲。
在本步骤中,歌曲服务用户向推荐服务器请求歌曲,例如某个具体的歌曲,或者让推荐服务器进行歌曲推荐等,下文以需要推荐服务器进行歌曲推荐为例进行描述,直接请求歌曲的方式参照现有方式即可。
406:推荐服务器根据历史歌曲播放序列生成推荐结果。
推荐结果包括一个或多个歌曲的链接地址,以及各歌曲的语言、演唱者、作词、时长以及歌曲的高潮片段等信息。
在本步骤中,推荐服务器可以仅根据歌曲的歌曲特征信息进行歌曲推荐得到推荐结果,也可以同时根据歌曲的歌曲特征信息、用户的特征信息进行歌曲推荐得到推荐结果,还可以同时根据歌曲的歌曲特征信息、用户的特征信息、用户的历史歌曲播放序列以及当前的环境信息等进行歌曲推荐得到推荐结果。
基于上述描述,本步骤包括:
推荐服务器获取目标用户在至少一个歌曲应用平台上的历史歌曲播放序列。例如基于用户授权登录用户所使用过的歌曲应用平台获取该用户的播放列表,然后根据播放时间将这些播放列表的歌曲按照时间顺序组合为历史歌曲播放序列;或者接收用户上传的播放列表,然后根据播放时间将这些播放列表的歌曲按照时间顺序组合为历史歌曲播放序列等方式,得到如图9a所示的目标用户的历史歌曲播放序列。
根据歌曲在历史歌曲播放序列中的位置信息确定歌曲到当前时刻的位置属性或者时间属性,将满足预设位置属性或者预设时间属性的歌曲标识为短时歌曲;获取历史歌曲播放序列中的未满足预设位置信息的歌曲的播放信息;播放信息包括播放时长以及歌曲高潮播放状态中的至少一种;根据预设播放信息以及歌曲的播放信息,对历史歌曲播放序列中的未满足预设位置信息的歌曲,进行筛选得到长时歌曲。
例如预设位置属性为距离当前时刻最近的50个歌曲作为短时歌曲,那么,将历史歌曲播放序列中距离当前时刻最近的50个歌曲作为短时歌曲;又如,预设时间属性为距离当前时刻24小时内的歌曲作为短时歌曲,那么,将历史歌曲播放序列中歌曲的播放时间距离当前时刻24小时内的歌曲作为短时歌曲。例如预设播放信息为播放时长大于3分钟,或者整个歌曲时长的60%等,只要歌曲tk~歌曲tn中某个歌曲的播放时长满足播放时长大于3分钟,或者整个歌曲时长的60%,就可以将这个歌曲作为长时歌曲x2;又如预设播放信息为歌曲高潮片段播放完毕,那么只要歌曲tk~歌曲tn中某个歌曲的歌曲高潮片段被播放完毕,则将这个歌曲作为长时歌曲x2。
针对短时歌曲,获取目标用户的特征信息、以及短时歌曲的歌曲特征信息;使用训练后的第一神经网络模型,根据用户的特征信息以及短时歌曲的歌曲特征信息,得到目标用户对短时歌曲的播放概率;根据目标用户对短时歌曲的播放概率,对短时歌曲进行筛选得到第一歌曲序列。
使用如图7a所示的训练完后的Bi-LSTM-CRF,就可以用来预测用户对短时歌曲t1~tk的偏好得分并进行排序,划分阈值后输出记为y1_short,y1_short=(0,1,……0)等,表示x1={x1,…,xk}中每个歌曲会被用户重复收听的标注类型,y1=f(x1)=f(ti)=1,表示短时歌曲ti会被用户重复收听,而y1=f(x1)=f(ti)=0,表示短时歌曲ti不会被用户重复收听,将y1=1所对应的短时歌曲都作为第一歌曲序列内的歌曲即可。
针对长时歌曲,获取目标用户的特征信息、当前的环境信息、以及长时歌曲的歌曲特征信息;使用训练后的第二神经网络模型,根据用户的特征信息、当前的环境信息以及长时歌曲的歌曲特征信息,得到目标用户对长时歌曲的播放概率;根据目标用户对长时歌曲的播放概率,对长时歌曲进行筛选得到第二歌曲序列。
使用如图7b所示的训练完后的Bi-LSTM-CRF,就可以用来预测用户对长时歌曲tk~tn的偏好得分并进行排序,划分阈值后输出记为y2_long,y2_long=(0,1,……0)等,表示x2={x1,…,xk}中每个歌曲会被用户重复收听的标注类型,y2=f(x2)=f(tm)=1,表示长时歌曲tm在当前环境下会被用户重复收听,而y2=f(x2)=f(tn)=0,表示长时歌曲tm在当前环境下不会被用户重复收听,将y2=1所对应的长时歌曲都作为第二歌曲序列内的歌曲即可。
最后,将第一歌曲序列和第二歌曲序列中的歌曲,作为用户可能会重复收听的歌曲进行推荐。例如将y1_short和y2_long作为用户可能播放的历史序列里的歌曲,可以合并起来,也可以分别输出,作为用户歌单,然后既可以直接作为用户歌单呈现给用户,也可以用来丰富推荐系统召回的结果,也可以参与排序,融入到最终给用户推荐的歌曲列表中作为推荐结果。
407:推荐服务器发送推荐结果到用户终端。
在本步骤中,推荐服务器发送推荐结果到用户终端。
408:终端展示推荐结果。
在本步骤中,终端展示推荐结果,用户可以基于歌曲的语言、演唱者、作词、时长以及歌曲的高潮片段等信息选择所需要收听的歌曲,基于歌曲的高潮片段进行歌曲预览或者精彩片段抢唱等服务。
在图4所示实施例中,神经网络模型可以是各种具备预测功能的模型,只要模型具备对输入数据进行处理后得到该歌曲被用户重复收听的概率的功能,即可作为本申请的神经网络模型,例如序列标注模型、循环神经网络、残差神经网络等,下文以神经网络模型为图7a或者图7b所示的Bi-LSTM-CRF等序列标注模型为例进行说明。
在图4所示实施例中,历史歌曲播放序列是指用户所播放歌曲的序列,如图9a所示,歌曲t1离当前时刻最近,歌曲tn离当前时刻最远,但是因为计算机的存储容量和模型能力的限制,只能针对历史歌曲播放序列中离当前时刻较近的预定数量的歌曲(即下文中的短时歌曲),例如歌曲t1~歌曲tk分别进行重复播放概率的预测,而离当前时刻较远的歌曲,例如歌曲tk~歌曲tn只能选择部分歌曲(即下文中的长时歌曲)进行重复播放概率的预测。
在图4所示实施例中,神经网络模型涉及的训练数据如图9b所示,获取指定数量的用户u1~用户un的历史歌曲播放序列,确定一个预设时间t(例如09月01日12:00到09月01日12:59这一个小时等),针对每个用户ui的历史歌曲播放序列,确定短时歌曲x1(属于歌曲t1~歌曲tk)、长时歌曲x2(属于歌曲tk~歌曲tn中满足预设播放信息的歌曲),短时歌曲x1在预设时间t内是否被播放的播放信息y1,若短时歌曲x1被播放则对应的播放信息y1为1,若短时歌曲x1没有被播放则对应的播放信息y1为0,长时歌曲x2在预设时间t内是否被播放的播放信息y2,若长时歌曲x2被播放则对应的播放信息y2为1,若长时歌曲x2没有被播放则对应的播放信息y2为0;并获取预设时间t内的环境信息,例如当前时间、播放设备、用户在其他场景下的行为、用户网络环境等等,获取每个用户ui的特征信息,如直接特征,以及一些嵌入特征等间接特征,获取每个歌曲(包括短时歌曲x1和长时歌曲x2)的歌曲特征信息,如歌手、歌曲类型、歌曲时长等直接特征,以及一些嵌入特征等间接特征,以进行模型训练。由于预设时间t是一个时间段,那么可能出现多个短时歌曲x1的播放信息y1为1,以及多个长时歌曲x2的播放信息y2为1。
本实施例给出了一种歌曲高潮片段的应用场景,可以提高歌曲应用的吸引力。
相应的,图5是本申请实施例提供的歌曲高潮片段识别装置的结构示意图,请参阅图5,该歌曲高潮片段识别装置包括以下模块:
采样模块501,用于对歌曲的音频文件进行采样,得到歌曲的采样数据,采样数据包括采样时间和信号强度;
划分模块502,用于根据歌曲的音符时值和节奏型,将歌曲的采样数据划分为多个音频段落的采样数据;
获取模块503,用于根据音频段落的采样数据,获取音频段落对应的和旋;
确定模块504,用于根据歌曲的和旋走向以及音频段落对应的和旋,确定高潮片段所包括的和旋周期;
修正模块505,用于根据歌曲的歌词数据,对高潮片段所包括的和旋周期进行修正,得到修正后的高潮片段所包括的和旋周期;
识别模块506,用于将歌曲对应修正后的高潮片段所包括的和旋周期的部分,识别为歌曲的高潮片段。
在一实施例中,划分模块502用于根据歌曲的音符时值和节奏型,确定段落时长;根据段落时长以及采样频率,确定单个段落所包含的采样数据数量;根据单个段落所包含的采样数据数量,将歌曲的采样数据划分为多个音频段落的采样数据。
在一实施例中,划分模块502用于根据单个段落所包含的采样数据数量,确定歌曲的采样数据中的段落起始点;根据段落起始点、以及单个段落所包含的采样数据数量,对歌曲的采样数据进行划分,得到多个音频段落的采样数据。
在一实施例中,划分模块502用于根据单个段落所包含的采样数据数量,选择数量匹配且连续的候选起始点;根据单个段落所包含的采样数据数量,确定各候选起始点对应的段落起始点集合对应的信号强度之和;根据各候选起始点对应的信号强度之和,从候选起始点确定段落起始点。
在一实施例中,获取模块503用于对音频段落的采样数据进行变换,得到音频段落频率域的频谱图;对频谱图进行采样,得到音频段落对应的频谱序列;根据音频段落对应的频谱序列、以及训练后的分类模型,确定音频段落对应的和旋。
在一实施例中,确定模块504用于根据和旋走向以及音频段落对应的和旋,将属于同一和旋周期的音频段落进行组合,得到多个和旋周期;获取和旋周期对应的能量;根据和旋周期对应的能量,确定高潮片段所包括的起始和旋周期和结束和旋周期;将起始和旋周期、结束和旋周期以及位于起始和旋周期和结束和旋周期之间的和旋周期,确定为高潮片段所包括的和旋周期。
在一实施例中,确定模块504用于根据和旋周期对应的能量,得到相邻和旋周期的能量差值;根据相邻和旋周期的能量差值,确定起始和旋周期和结束和旋周期。
在一实施例中,修正模块505用于获取歌词数据所包含的分句;获取分句与和旋周期的对齐关系;根据对齐关系,以和旋周期为单位、分句为边界,对高潮片段所包括的和旋周期进行外延处理,直至高潮片段所包括的和旋周期与分句对齐,以得到修正后的高潮片段所包括的和旋周期。
在一实施例中,采样模块501用于根据歌曲的歌词数据,确定歌曲的高潮片段候选部分;对高潮片段候选部分对应的音频文件进行采样,得到歌曲的采样数据。
相应的,本申请实施例还提供一种计算机设备,如图6所示,其示出了本申请实施例所涉及的计算机设备的结构示意图,具体来讲:
该计算机设备可以包括一个或者一个以上处理核心的处理器601、一个或一个以上计算机可读存储介质的存储器602、电源603和输入单元604等部件。本领域技术人员可以理解,图6中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器601是该计算机设备的控制中心,利用各种接口和线路连接整个计算机设备的各个部分,通过运行或执行存储在存储器602内的软件程序和/或模块,以及调用存储在存储器602内的数据,执行计算机设备的各种功能和处理数据,从而对计算机设备进行整体检测。可选的,处理器601可包括一个或多个处理核心;优选的,处理器601可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器601中。
存储器602可用于存储软件程序以及模块,处理器601通过运行存储在存储器602的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器602可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器602还可以包括存储器控制器,以提供处理器601对存储器602的访问。
计算机设备还包括给各个部件供电的电源603,优选的,电源603可以通过电源管理系统与处理器601逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源603还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该计算机设备还可包括输入单元604,该输入单元604可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
尽管未示出,计算机设备还可以包括显示单元等,在此不再赘述。具体在本实施例中,计算机设备中的处理器601会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器602中,并由处理器601来运行存储在存储器602中的应用程序,从而实现各种功能,如下:
对歌曲的音频文件进行采样,得到歌曲的采样数据,采样数据包括采样时间和信号强度;
根据歌曲的音符时值和节奏型,将歌曲的采样数据划分为多个音频段落的采样数据;
根据音频段落的采样数据,获取音频段落对应的和旋;
根据歌曲的和旋走向以及音频段落对应的和旋,确定高潮片段所包括的和旋周期;
根据歌曲的歌词数据,对高潮片段所包括的和旋周期进行修正,得到修正后的高潮片段所包括的和旋周期;
将歌曲对应修正后的高潮片段所包括的和旋周期的部分,识别为歌曲的高潮片段。
在一种实施例中,实现功能:
根据歌曲的音符时值和节奏型,确定段落时长;
根据段落时长以及采样频率,确定单个段落所包含的采样数据数量;
根据单个段落所包含的采样数据数量,将歌曲的采样数据划分为多个音频段落的采样数据。
在一种实施例中,实现功能:
根据单个段落所包含的采样数据数量,确定歌曲的采样数据中的段落起始点;
根据段落起始点、以及单个段落所包含的采样数据数量,对歌曲的采样数据进行划分,得到多个音频段落的采样数据。
在一种实施例中,实现功能:
根据单个段落所包含的采样数据数量,选择数量匹配且连续的候选起始点;
根据单个段落所包含的采样数据数量,确定各候选起始点对应的段落起始点集合对应的信号强度之和;
根据各候选起始点对应的信号强度之和,从候选起始点确定段落起始点。
在一种实施例中,实现功能:
对音频段落的采样数据进行变换,得到音频段落频率域的频谱图;
对频谱图进行采样,得到音频段落对应的频谱序列;
根据音频段落对应的频谱序列、以及训练后的分类模型,确定音频段落对应的和旋。
在一种实施例中,实现功能:
根据和旋走向以及音频段落对应的和旋,将属于同一和旋周期的音频段落进行组合,得到多个和旋周期;
获取和旋周期对应的能量;
根据和旋周期对应的能量,确定高潮片段所包括的起始和旋周期和结束和旋周期;
将起始和旋周期、结束和旋周期以及位于起始和旋周期和结束和旋周期之间的和旋周期,确定为高潮片段所包括的和旋周期。
在一种实施例中,实现功能:
根据和旋周期对应的能量,得到相邻和旋周期的能量差值;
根据相邻和旋周期的能量差值,确定起始和旋周期和结束和旋周期。
在一种实施例中,实现功能:
获取歌词数据所包含的分句;
获取分句与和旋周期的对齐关系;
根据对齐关系,以和旋周期为单位、分句为边界,对高潮片段所包括的和旋周期进行外延处理,直至高潮片段所包括的和旋周期与分句对齐,以得到修正后的高潮片段所包括的和旋周期。
在一种实施例中,实现功能:
根据歌曲的歌词数据,确定歌曲的高潮片段候选部分;
对高潮片段候选部分对应的音频文件进行采样,得到歌曲的采样数据。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见上文针对歌曲高潮片段识别方法的详细描述,此处不再赘述。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种计算机可读存储介质,其中存储有多条指令,该指令能够被处理器进行加载,以执行本申请实施例所提供的任一种方法中的步骤。例如,该指令可以执行如下步骤:
对歌曲的音频文件进行采样,得到歌曲的采样数据,采样数据包括采样时间和信号强度;
根据歌曲的音符时值和节奏型,将歌曲的采样数据划分为多个音频段落的采样数据;
根据音频段落的采样数据,获取音频段落对应的和旋;
根据歌曲的和旋走向以及音频段落对应的和旋,确定高潮片段所包括的和旋周期;
根据歌曲的歌词数据,对高潮片段所包括的和旋周期进行修正,得到修正后的高潮片段所包括的和旋周期;
将歌曲对应修正后的高潮片段所包括的和旋周期的部分,识别为歌曲的高潮片段。
在一种实施例中,实现功能:
根据歌曲的音符时值和节奏型,确定段落时长;
根据段落时长以及采样频率,确定单个段落所包含的采样数据数量;
根据单个段落所包含的采样数据数量,将歌曲的采样数据划分为多个音频段落的采样数据。
在一种实施例中,实现功能:
根据单个段落所包含的采样数据数量,确定歌曲的采样数据中的段落起始点;
根据段落起始点、以及单个段落所包含的采样数据数量,对歌曲的采样数据进行划分,得到多个音频段落的采样数据。
在一种实施例中,实现功能:
根据单个段落所包含的采样数据数量,选择数量匹配且连续的候选起始点;
根据单个段落所包含的采样数据数量,确定各候选起始点对应的段落起始点集合对应的信号强度之和;
根据各候选起始点对应的信号强度之和,从候选起始点确定段落起始点。
在一种实施例中,实现功能:
对音频段落的采样数据进行变换,得到音频段落频率域的频谱图;
对频谱图进行采样,得到音频段落对应的频谱序列;
根据音频段落对应的频谱序列、以及训练后的分类模型,确定音频段落对应的和旋。
在一种实施例中,实现功能:
根据和旋走向以及音频段落对应的和旋,将属于同一和旋周期的音频段落进行组合,得到多个和旋周期;
获取和旋周期对应的能量;
根据和旋周期对应的能量,确定高潮片段所包括的起始和旋周期和结束和旋周期;
将起始和旋周期、结束和旋周期以及位于起始和旋周期和结束和旋周期之间的和旋周期,确定为高潮片段所包括的和旋周期。
在一种实施例中,实现功能:
根据和旋周期对应的能量,得到相邻和旋周期的能量差值;
根据相邻和旋周期的能量差值,确定起始和旋周期和结束和旋周期。
在一种实施例中,实现功能:
获取歌词数据所包含的分句;
获取分句与和旋周期的对齐关系;
根据对齐关系,以和旋周期为单位、分句为边界,对高潮片段所包括的和旋周期进行外延处理,直至高潮片段所包括的和旋周期与分句对齐,以得到修正后的高潮片段所包括的和旋周期。
在一种实施例中,实现功能:
根据歌曲的歌词数据,确定歌曲的高潮片段候选部分;
对高潮片段候选部分对应的音频文件进行采样,得到歌曲的采样数据。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该存储介质中所存储的指令,可以执行本申请实施例所提供的任一种方法中的步骤,因此,可以实现本申请实施例所提供的任一种方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本申请实施例所提供的一种歌曲高潮片段识别方法及装置、计算机设备及计算机可读存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本申请的限制。
Claims (12)
1.一种歌曲高潮片段识别方法,其特征在于,包括:
对歌曲的音频文件进行采样,得到所述歌曲的采样数据,所述采样数据包括采样时间和信号强度;
根据所述歌曲的音符时值和节奏型,将所述歌曲的采样数据划分为多个音频段落的采样数据;
根据音频段落的采样数据,获取音频段落对应的和旋;
根据所述歌曲的和旋走向以及所述音频段落对应的和旋,确定高潮片段所包括的和旋周期;
根据所述歌曲的歌词数据所包含的分句与所述和旋周期的对齐关系,对所述高潮片段所包括的和旋周期进行修正,得到修正后的高潮片段所包括的和旋周期;
将所述歌曲对应所述修正后的高潮片段所包括的和旋周期的部分,识别为所述歌曲的高潮片段。
2.根据权利要求1所述的歌曲高潮片段识别方法,其特征在于,所述根据所述歌曲的音符时值和节奏型,将所述歌曲的采样数据划分为多个音频段落的采样数据的步骤,包括:
根据所述歌曲的音符时值和节奏型,确定段落时长;
根据所述段落时长以及采样频率,确定单个段落所包含的采样数据数量;
根据所述单个段落所包含的采样数据数量,将所述歌曲的采样数据划分为多个音频段落的采样数据。
3.根据权利要求2所述的歌曲高潮片段识别方法,其特征在于,所述根据所述单个段落所包含的采样数据数量,将所述歌曲的采样数据划分为多个音频段落的采样数据的步骤,包括:
根据所述单个段落所包含的采样数据数量,确定所述歌曲的采样数据中的段落起始点;
根据所述段落起始点、以及所述单个段落所包含的采样数据数量,对所述歌曲的采样数据进行划分,得到多个音频段落的采样数据。
4.根据权利要求3所述的歌曲高潮片段识别方法,其特征在于,所述根据所述单个段落所包含的采样数据数量,确定所述歌曲的采样数据中的段落起始点的步骤,包括:
根据所述单个段落所包含的采样数据数量,选择数量匹配且连续的候选起始点;
根据所述单个段落所包含的采样数据数量,确定各候选起始点对应的段落起始点集合对应的信号强度之和;
根据各候选起始点对应的信号强度之和,从所述候选起始点确定所述段落起始点。
5.根据权利要求1所述的歌曲高潮片段识别方法,其特征在于,所述根据音频段落的采样数据,获取音频段落对应的和旋的步骤,包括:
对音频段落的采样数据进行变换,得到音频段落频率域的频谱图;
对所述频谱图进行采样,得到音频段落对应的频谱序列;
根据音频段落对应的频谱序列、以及训练后的分类模型,确定音频段落对应的和旋。
6.根据权利要求1所述的歌曲高潮片段识别方法,其特征在于,所述根据所述歌曲的和旋走向以及所述音频段落对应的和旋,确定高潮片段所包括的和旋周期的步骤,包括:
根据所述和旋走向以及音频段落对应的和旋,将属于同一和旋周期的音频段落进行组合,得到多个和旋周期;
获取和旋周期对应的能量;
根据所述和旋周期对应的能量,确定所述高潮片段所包括的起始和旋周期和结束和旋周期;
将所述起始和旋周期、所述结束和旋周期以及位于所述起始和旋周期和结束和旋周期之间的和旋周期,确定为所述高潮片段所包括的和旋周期。
7.根据权利要求6所述的歌曲高潮片段识别方法,其特征在于,所述根据所述和旋周期对应的能量,确定所述高潮片段所包括的起始和旋周期和结束和旋周期的步骤,包括:
根据和旋周期对应的能量,得到相邻和旋周期的能量差值;
根据所述相邻和旋周期的能量差值,确定所述起始和旋周期和所述结束和旋周期。
8.根据权利要求1所述的歌曲高潮片段识别方法,其特征在于,所述根据所述歌曲的歌词数据所包含的分句与所述和旋周期的对齐关系,对所述高潮片段所包括的和旋周期进行修正,得到修正后的高潮片段所包括的和旋周期的步骤,包括:
获取所述歌词数据所包含的分句;
获取分句与和旋周期的对齐关系;
根据所述对齐关系,以和旋周期为单位、分句为边界,对所述高潮片段所包括的和旋周期进行外延处理,直至所述高潮片段所包括的和旋周期与分句对齐,以得到所述修正后的高潮片段所包括的和旋周期。
9.根据权利要求1至8任一项所述的歌曲高潮片段识别方法,其特征在于,在所述对歌曲的音频文件进行采样的步骤之前,还包括:
根据所述歌曲的歌词数据,确定所述歌曲的高潮片段候选部分;
所述对歌曲的音频文件进行采样,得到所述歌曲的采样数据包括:对所述高潮片段候选部分对应的音频文件进行采样,得到所述歌曲的采样数据。
10.一种歌曲高潮片段识别装置,其特征在于,包括:
采样模块,用于对歌曲的音频文件进行采样,得到所述歌曲的采样数据,所述采样数据包括采样时间和信号强度;
划分模块,用于根据所述歌曲的音符时值和节奏型,将所述歌曲的采样数据划分为多个音频段落的采样数据;
获取模块,用于根据音频段落的采样数据,获取音频段落对应的和旋;
确定模块,用于根据所述歌曲的和旋走向以及所述音频段落对应的和旋,确定高潮片段所包括的和旋周期;
修正模块,用于根据所述歌曲的歌词数据所包含的分句与所述和旋周期的对齐关系,对所述高潮片段所包括的和旋周期进行修正,得到修正后的高潮片段所包括的和旋周期;
识别模块,用于将所述歌曲对应所述修正后的高潮片段所包括的和旋周期的部分,识别为所述歌曲的高潮片段。
11.一种计算机设备,其特征在于,其包括存储器,处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,处理器执行程序时实现如权利要求1~9任一项所述方法的步骤。
12.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,其中,计算机程序被处理器执行时实现如权利要求1~9任一项所述方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911295062.9A CN111081272B (zh) | 2019-12-16 | 2019-12-16 | 歌曲高潮片段识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911295062.9A CN111081272B (zh) | 2019-12-16 | 2019-12-16 | 歌曲高潮片段识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111081272A CN111081272A (zh) | 2020-04-28 |
CN111081272B true CN111081272B (zh) | 2024-04-05 |
Family
ID=70314964
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911295062.9A Active CN111081272B (zh) | 2019-12-16 | 2019-12-16 | 歌曲高潮片段识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111081272B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111459370B (zh) * | 2020-05-09 | 2021-09-10 | Oppo广东移动通信有限公司 | 一种歌曲播放控制方法、装置及计算机可读存储介质 |
CN111785262B (zh) * | 2020-06-23 | 2022-08-05 | 电子科技大学 | 一种基于残差网络及融合特征的说话人年龄性别分类方法 |
CN111782863A (zh) * | 2020-06-30 | 2020-10-16 | 腾讯音乐娱乐科技(深圳)有限公司 | 音频分段方法、装置、存储介质及电子设备 |
CN111863030A (zh) * | 2020-07-30 | 2020-10-30 | 广州酷狗计算机科技有限公司 | 音频检测方法及装置 |
CN112037764A (zh) * | 2020-08-06 | 2020-12-04 | 杭州网易云音乐科技有限公司 | 一种音乐结构的确定方法、装置、设备及介质 |
US11593059B2 (en) * | 2020-08-26 | 2023-02-28 | Spotify Ab | Systems and methods for generating recommendations in a digital audio workstation |
CN112118481B (zh) * | 2020-09-18 | 2021-11-23 | 珠海格力电器股份有限公司 | 一种音频片段生成方法、装置、播放器及存储介质 |
CN113539296B (zh) * | 2021-06-30 | 2023-12-29 | 深圳万兴软件有限公司 | 一种基于声音强度的音频高潮检测算法、存储介质及装置 |
CN113343022A (zh) * | 2021-07-06 | 2021-09-03 | 广州酷狗计算机科技有限公司 | 歌曲教学方法、装置、终端和存储介质 |
CN114422824A (zh) * | 2021-12-29 | 2022-04-29 | 阿里巴巴(中国)有限公司 | 数据处理方法、视频处理方法、显示方法及设备 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3506410B2 (ja) * | 1997-04-23 | 2004-03-15 | 日本電信電話株式会社 | 劇的映像制作支援方法および装置 |
JP2004333611A (ja) * | 2003-05-01 | 2004-11-25 | Yamaha Corp | 自動伴奏生成装置及びプログラム |
CN102467939A (zh) * | 2010-11-04 | 2012-05-23 | 北京彩云在线技术开发有限公司 | 一种歌曲音频切割装置及方法 |
KR101266972B1 (ko) * | 2012-01-30 | 2013-05-30 | 주식회사 금영 | 곡 특징의 분류를 이용한 곡 검색 방법 및 곡 검색 장치 |
CN105280196A (zh) * | 2015-11-19 | 2016-01-27 | 科大讯飞股份有限公司 | 副歌检测方法及系统 |
CN107799119A (zh) * | 2016-09-07 | 2018-03-13 | 中兴通讯股份有限公司 | 音频制作方法、装置及系统 |
CN108090140A (zh) * | 2017-12-04 | 2018-05-29 | 维沃移动通信有限公司 | 一种歌曲播放方法及移动终端 |
CN108304494A (zh) * | 2018-01-10 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 文件分类处理方法、装置及终端、服务器、存储介质 |
CN109346044A (zh) * | 2018-11-23 | 2019-02-15 | 广州酷狗计算机科技有限公司 | 音频处理方法、装置及存储介质 |
CN109979497A (zh) * | 2017-12-28 | 2019-07-05 | 阿里巴巴集团控股有限公司 | 歌曲的生成方法、装置和系统及数据处理和歌曲播放方法 |
-
2019
- 2019-12-16 CN CN201911295062.9A patent/CN111081272B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3506410B2 (ja) * | 1997-04-23 | 2004-03-15 | 日本電信電話株式会社 | 劇的映像制作支援方法および装置 |
JP2004333611A (ja) * | 2003-05-01 | 2004-11-25 | Yamaha Corp | 自動伴奏生成装置及びプログラム |
CN102467939A (zh) * | 2010-11-04 | 2012-05-23 | 北京彩云在线技术开发有限公司 | 一种歌曲音频切割装置及方法 |
KR101266972B1 (ko) * | 2012-01-30 | 2013-05-30 | 주식회사 금영 | 곡 특징의 분류를 이용한 곡 검색 방법 및 곡 검색 장치 |
CN105280196A (zh) * | 2015-11-19 | 2016-01-27 | 科大讯飞股份有限公司 | 副歌检测方法及系统 |
CN107799119A (zh) * | 2016-09-07 | 2018-03-13 | 中兴通讯股份有限公司 | 音频制作方法、装置及系统 |
CN108090140A (zh) * | 2017-12-04 | 2018-05-29 | 维沃移动通信有限公司 | 一种歌曲播放方法及移动终端 |
CN109979497A (zh) * | 2017-12-28 | 2019-07-05 | 阿里巴巴集团控股有限公司 | 歌曲的生成方法、装置和系统及数据处理和歌曲播放方法 |
CN108304494A (zh) * | 2018-01-10 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 文件分类处理方法、装置及终端、服务器、存储介质 |
CN109346044A (zh) * | 2018-11-23 | 2019-02-15 | 广州酷狗计算机科技有限公司 | 音频处理方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111081272A (zh) | 2020-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111081272B (zh) | 歌曲高潮片段识别方法及装置 | |
Benetos et al. | Automatic music transcription: challenges and future directions | |
CN110990621B (zh) | 歌曲推荐方法及装置 | |
Salamon et al. | Tonal representations for music retrieval: from version identification to query-by-humming | |
Rao et al. | Classification of melodic motifs in raga music with time-series matching | |
EP1840764A1 (en) | Hybrid audio-visual categorization system and method | |
Bozkurt et al. | Computational analysis of Turkish makam music: Review of state-of-the-art and challenges | |
Schulze et al. | Music generation with Markov models | |
Panda et al. | Music emotion recognition with standard and melodic audio features | |
CN108766451B (zh) | 一种音频文件处理方法、装置和存储介质 | |
CN108257588B (zh) | 一种谱曲方法及装置 | |
Volk et al. | Towards modelling variation in music as foundation for similarity | |
CN110851650A (zh) | 一种评论输出方法、装置、以及计算机存储介质 | |
Dean et al. | Generative structures in improvisation: Computational segmentation of keyboard performances | |
Koops et al. | Automatic chord label personalization through deep learning of shared harmonic interval profiles | |
Ramirez et al. | Automatic performer identification in commercial monophonic jazz performances | |
Lerch | Audio content analysis | |
Bozkurt et al. | Usul and makam driven automatic melodic segmentation for Turkish music | |
Schuller et al. | Multi-modal non-prototypical music mood analysis in continuous space: Reliability and performances | |
Hu | [Retracted] Music Emotion Research Based on Reinforcement Learning and Multimodal Information | |
Armentano et al. | Genre classification of symbolic pieces of music | |
Pikrakis et al. | Unsupervised singing voice detection using dictionary learning | |
Wang et al. | Research on intelligent recognition and classification algorithm of music emotion in complex system of music performance | |
Wang et al. | Query by multi-tags with multi-level preferences for content-based music retrieval | |
Ramirez et al. | Automatic performer identification in celtic violin audio recordings |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40022604 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |