发明内容
本发明所要解决的技术问题在于提供一种手机音频文件情绪化处理和播放方法,可以在手机上进行音频文件的情绪化播放。
为了实现上述目的,本发明提供了一种手机音频文件情绪化处理和播放方法,其特点在于,包括如下步骤:
步骤1,确定用户的现场听觉需求;
步骤2,根据用户的现场听觉需求,利用一音频处理软件对一输入音频文件进行情绪化处理,得到一处理后音频文件;
步骤3,归纳该处理后的音频文件的提取特征信息,根据该提取特征信息将该处理后的音频文件进行归类,并分类存储到手机中,同时在手机上生成一目录索引库;
步骤4,用户通过该目录索引库进行音频选择,选择相应的音频文件进行播放。
优选地,所述的手机音频文件情绪化处理和播放方法还包括步骤:重复上述步骤1~3,对多个输入音频文件进行情绪化处理和分类存储。
优选地,所述的手机音频文件情绪化处理和播放方法在步骤4中,用户在选择相应的音频文件之后,还包括步骤:利用手机内的风格化处理软件对所选择的音频文件进行风格化处理,增加相应的风格化音效后再进行播放。
优选地,所述的手机音频文件情绪化处理和播放方法在步骤2中,所述的情绪化处理包括:
步骤21,分析该输入音频文件在某时刻产生的频率点的数量、力度及频率,确定节奏复杂度和歌曲速度范围;
步骤22,按照音乐和声理论,计算整首音乐的音强差及相似音强之间的时间值,确定歌曲的速度和节奏;并按照频率对音频文件影响计算频率点的变化时间,确定歌曲的情绪;
步骤23,根据所确定的歌曲的速度和节奏、情绪,生成该处理后音频文件。
优选地,所述的手机音频文件情绪化处理和播放方法在步骤3中,进行归类的步骤包括:
步骤31,使用训练样本训练一参考模式库,该参考模式库包括各种情绪化特征的参考模式;
步骤32,对该处理后的音频文件进行分析,提取其中能区别情感的特征参数;
步骤33,将所提取的特征参数同参考模式进行匹配比较,得到分类结果。
优选地,所述的手机音频文件情绪化处理和播放方法所述步骤33进一步包括:
步骤331,根据提取的强度特征进行分类,强度弱的归属分类I,强度强的归属分类II;
步骤332,分别在分类I、II中,再根据音色和节奏进行分类。
优选地,所述的手机音频文件情绪化处理和播放方法中,所述强度特征采用信号能量在频域的分布参数;所述音色特征采用描述信号频谱形状和频谱对比度参数;所述节奏特征采用节奏强度、节奏规则度和节拍参数。
优选地,所述的手机音频文件情绪化处理和播放方法中,在生成该处理后音频文件之前还包括:步骤24,将该音频文件进行风格化处理,将情绪化处理和风格化处理后的音频文件整合成该处理后的音频文件。
根据本发明,可以将音频文件进行情绪化处理后在手机上进行情绪化播放,使播放音乐更加具有主动性,大大提高了欣赏的灵活性。
以下结合附图和具体实施例对本发明进行详细描述,但不作为对本发明的限定。
具体实施方式
如图1所示,本发明的手机音频文件情绪化处理和播放方法包括以下步骤:
步骤1,确定用户的现场听觉需求;
步骤2,根据用户的现场听觉需求,利用一音频处理软件对一输入音频文件进行情绪化处理,得到一处理后音频文件;
步骤3,归纳该处理后的音频文件的提取特征信息,根据该提取特征信息将该处理后的音频文件进行归类,并分类存储到手机中,同时在手机上生成一目录索引库;
步骤4,用户通过该目录索引库进行音频选择,选择相应的音频文件进行播放。
其中,在步骤1中,确定用户的现场听觉需求包括风格(如摇滚,抒情,布鲁斯等)、设定速度范围、节奏复杂度、频率响应范围及速度范围,及音强值的设定等。
结合图2,本发明的手机音频文件情绪化处理和播放方法在步骤4中,用户在选择相应的音频文件之后,还可以包括步骤:利用手机内的风格化处理软件对所选择的音频文件进行风格化处理,增加相应的风格化音效后再进行播放。
在本发明的一个实施例中,可以重复上述步骤1~3,对多个输入音频文件进行情绪化处理和分类存储,如此即可以在手机内产生一目录索引库,其由不同分类的文件库构成,每一类别的文件库下存储多个同类的音频文件。
在本发明的一个实施例中,在步骤2中,可以采用现有的音频处理软件,例如Cool Edit,对输入音频文件的情绪化处理,其可包括如下步骤:
步骤21,分析该输入音频文件在某时刻产生的频率点的数量、力度及频率,确定节奏复杂度和歌曲速度范围;
步骤22,按照音乐和声理论,计算整首音乐的音强差及相似音强之间的时间值,确定歌曲的速度和节奏;并按照频率对音频文件影响计算频率点的变化时间,确定歌曲的情绪;
步骤23,根据所确定的歌曲的速度和节奏、情绪,生成该处理后音频文件。
在本发明一较佳的实施例中,在分析音频文件的各频率点之间的时间差及力度、响度信息后,归类提取特征参数(建立模式库),然后利用音频处理软件给某一段频率上的力度和响度进行适当的处理,增加或者衰减,并可加上所需各种混响(大厅,演奏厅等)效果,从而来达到所期望的情绪化效果,即生成该处理后的音频文件。
优选地,本发明在步骤3中,对处理后的音频文件进行归类的步骤包括:
步骤31,使用训练样本训练一参考模式库,该参考模式库包括各种情绪化特征的参考模式;
步骤32,对该处理后的音频文件进行分析,提取其中能区别情感的特征参数;
步骤33,将所提取的特征参数同参考模式进行匹配比较,得到分类结果。
如图3所示,本发明提供一种以模式识别为基础的分类系统框架,本发明可以采用这种分类系统框架来进行归类。其中,在训练阶段使用训练样本训练参考模式库(识别模型),通常可采用HMM、GMM等统计概率模型,建立不同类别的参考模式;在特征提取阶段通过对音乐信号进行分析,提取一些能区别情感的一些特征参数;在模式匹配阶段,将待分类的特征参数同参考模式进行匹配比较,以得到分类结果。
上面过程,对一般模式识别应用,如语音识别等,都基本类似。具体到音乐的情感分类,由于情感是一个主观的概念,很难有明确的客观特征参数来描述,因此通常会选取多个特征参数,通过一种分层框架来实现。
本发明在所述步骤33中,即采用如图4所示的分层框架来进行模式识别,其包括:
步骤331,根据提取的强度(Intensity)特征进行分类,强度弱的归属分类I,强度强的归属分类II;
步骤332,分别在分类I、II中,再根据音色(timbre)和节奏(rhythm)进行分类。
例如,图4中选取四个特征参数λ1、λ2、1-λ1、1-λ2,其中λ1、1-λ1分别代表分类I中音色和节奏的权值,λ2、1-λ2分别代表分类II中音色和节奏的权值。对于分类I,音色要比节奏好区分,因此权值λ1>0.5;对于分类II,节奏要比音色好区分,因此权值λ2<0.5。
在具体音乐信号特征提取时,强度特征采用信号能量在频域的分布参数;音色特征采用描述信号频谱形状和频谱对比度参数;节奏特征采用节奏强度,节奏规则度和节拍等参数。
关于上述分类的具体实现方法,可以参考论文:Lie Lu,Dan Liu,andHong-Jiang Zhang,“Automatic Mood Detection and Tracking of Music AudioSignals”,IEEE TRANSACTIONS ON AUDIO,SPEECH,AND LANGUAGEPROCESSING,VOL.14,NO.1,JANUARY2006。(吕列、刘丹和张洪江:
“自动情绪探测和音乐音频信号跟踪”——电气和电子工程师协会会报:音频、语音和语言处理VOL.14,NO.1,JANUARY2006)
在将所有音频文件都经过情绪化处理后,可以将处理后的音频文件通过上述分类方法分类存储到手机上,同时生成一目录索引库,当用户希望进行情绪化播放时,可进入手机的音频风格选择模式,自动搜索设备中的音频文件或手动选择存放的目录进行播放,从而可以欣赏到情绪化的音频文件。
在本发明中,在选择播放的音频文件后,还可以利用手机上自带的风格化处理软件,将音频文件加入风格化音效后进行播放,例如,增加声音反射时间计算,模仿大厅等各种特效,使播放音乐更加具有主动性,大大提高的了欣赏的灵活性。当然,本发明也可以在进行情绪化处理过程中,将音频文件进行风格化处理后再进行分类存储,这些并不作为对本发明的限制。
当然,本发明还可有其他多种实施例,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员当可根据本发明作出各种相应的改变和变型,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。