CN107274888B - 一种基于倍频程信号强度和差异化特征子集的情感语音识别方法 - Google Patents

一种基于倍频程信号强度和差异化特征子集的情感语音识别方法 Download PDF

Info

Publication number
CN107274888B
CN107274888B CN201710449128.XA CN201710449128A CN107274888B CN 107274888 B CN107274888 B CN 107274888B CN 201710449128 A CN201710449128 A CN 201710449128A CN 107274888 B CN107274888 B CN 107274888B
Authority
CN
China
Prior art keywords
emotion
svm
feature
frequency
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201710449128.XA
Other languages
English (en)
Other versions
CN107274888A (zh
Inventor
王演
邱东杰
史晓非
巴海木
于丽丽
祖成玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian Maritime University
Original Assignee
Dalian Maritime University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian Maritime University filed Critical Dalian Maritime University
Priority to CN201710449128.XA priority Critical patent/CN107274888B/zh
Publication of CN107274888A publication Critical patent/CN107274888A/zh
Application granted granted Critical
Publication of CN107274888B publication Critical patent/CN107274888B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于倍频程信号强度和差异化特征子集的情感语音识别方法,步骤包括:S1对语音情感数据集X进行至少包括OBSI及OBSIR参数的特征提取;S2提取每一个情感ei的最优特征子集D(ei,other);S3使用D(ei,other)进行训练识别,得到情感区分度d(ei);S4根据d(ei)对情感集合S中的情感类型进行排列,得到有序情感集合S;S5根据S中各情感的顺序,构建SVM‑RF多级分类器;S7利用SVM‑RF多级分类器模型对测试情感语音进行分类测试,并输出分类结果。本发明基于倍频程信号强度和差异化特征子集的情感语音识别方法,以实现情感语音的准确识别。本发明以OBSI特征为基础,针对SVM和RF优点提出一种基于特征选择的SVM‑RF多级分类器构建算法,对子分类器的特征子集采取差异化策略,在保证性能的同时,减少了训练时间。

Description

一种基于倍频程信号强度和差异化特征子集的情感语音识别 方法
技术领域
本发明涉及语音识别技术领域,具体说是涉及一种基于倍频程信号强度和差异化特征子集的情感语音识别方法。
背景技术
1997年,Picard发表《情感计算》,标志着情感计算学科正式建立。在《情感计算》中,Pichard提出情感计算是与情感相关,且来源于情感或能够对情感施加影响的计算。情感计算研究包括了情感信息的采集与建模、情感的分析和识别、情感理解及情感表达等方面。情感计算自提出后受到了众多专家学者的重视,其研究涉及到统计学、机器学习、模式识别、心理学等多个学科。情感计算对于研究人类情感的各种特性及情绪变化十分重要,同时也促进了不同学科之间的共同发展。情感识别是情感计算的一个重要分支,其研究对于推动情感计算的发展有着重要意义。
语音作为使用频率最高的交流方式,对其进行情感识别的研究一直是领域内研究的重点。
情感语音识别以情感变化与人类语音之间关系为基础,使用计算机对语音信号的特征参数进行提取和分析,最终获取语音信息中所包含情感信息。传统的语音信号分析偏重分析语义,而忽略了语音信号中蕴含的丰富的情感信息。随着情感语音识别技术的发展,对语音信号进行情感识别的技术正在悄然兴起,例如服务机器人,其根据采集到的语音信号、图像信号以及生理信号,对服务对象的情感状态做出实时合理的识别,从而有针对性的提供服务,提高使用满意度。再如,对于承担克服工作的人员由于长期面对客户的电话咨询、投诉,容易产生烦躁的情绪,进而导致工作效率降低,利用语音情感识别技术即可实现对客服人员的情绪状态进行实时监控和分析,作为及时疏导的依据。再如在远程教育平台上应用语音情感识别,对学生的实时情感状态进行监控,便于授课者调整授课方式和时间,以保证授课效率和质量。可见,随着情感语音识别的深入研究,伴随着其理论和人工智能等相关技术的不断发展,情感语音识别将会给人们生产、生活带来极大地便利。因此,研究情感语音识别具有较为重要的意义。
目前语音识别领域中常用以恒定带宽的频程划分为基础,对音频信号进行研究,但这种方法并不适用于情感语音识别,而对语音特征提取不合理,导致情感语音识别准确性不高。因此,亟待寻找一种兼顾效率与可靠性的情感语音识别方法,满足日益增长的使用需求。
发明内容
鉴于已有技术存在的不足,本发明的目的是要提供一种基于倍频程信号强度和差异化特征子集的情感语音识别方法,以实现情感语音的准确识别。
为了实现上述目的,本发明技术方案如下:
一种基于倍频程信号强度和差异化特征子集的情感语音识别方法,其特征在于,步骤包括:
S1对给定语音情感数据集X进行特征提取,以得到原始情感特征集合F,所述原始情感特征集合F对应的情感集合为S,特征提取对象至少包括OBSI特征参数及OBSIR特征参数;
S2利用给定语音情感数据集X的测试集计算特征集合F中每一个特征的Fisher分数,根据Fisher分数值从小到大对特征进行排名,并使用SVM作为分类器,对测试集Fisher分数排名在特征总数前10%的特征组成的特征集合使用序列前向选择方法得到区分情感集合S中每一个情感ei与其它情感other的最优特征子集D(ei,other);
S3使用D(ei,other)在部分样本中进行训练识别,得到每种情感的区分度d(ei),所述情感区分度d(ei)表示在训练集中,使用特征子集D(ei,other)对ei和other进行识别的平均识别率;
S4根据情感区分度d(ei)对情感集合S中的情感类型按从大到小的顺序进行排列,得到有序情感集合S;
S5根据有序情感集合S中各情感的顺序,构建SVM-RF多级分类器,所述SVM-RF分类器包括级联连接且与特征子集一一对应的子分类器,并利用各特征子集实现SVM-RF多级分类器训练;
S7利用SVM-RF多级分类器模型对测试情感语音进行分类测试,并输出分类结果。
与现有技术相比,本发明的有益效果:
(1)本发明基于情感语音识别领域的OBSI特征,针对SVM和RF优点提出一种基于特征选择的SVM-RF多级分类器构建算法,根据情感的实际区分度,使用若干个一对多的二分类SVM先对较为容易区分的情感进行区分,而对于其中较难区分的情感使用RF进行识别。
(2)本发明在SVM-RF多级分类器训练时,对子分类器的特征子集采取差异化策略,最终使SVM-RF能够可以用少于RF模型的训练时间,达到与RF近乎相同的性能。通过实验验证了SVM-RF多级语音分类器构以较少的模型训练时间,获得了接近RF的识别性能。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明情感语音识别方法流程图;
图2为本发明倍频程滤波器组频率响应示意图;
图3为本发明OBSI和OBSIR特征参数计算流程图;
图4为本发明SVM-RF改进算法的原理示意图;
图5为本发明实施例SVM-RF多级分类器结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明对应的技术原理说明:在声学测量中,对信号做实际频谱分析时,无需采集测量频率范围内的每一个频率点数据,常规做法是将频率范围划分成若干频率段,这样每一个频带被称为一个频程。频程的划分方法有如下两种。一种是恒定带宽,也就是每个频程的带宽相同的;另外一种是恒定带宽比的划分方式,每个频程上下限频率之比为常数。当声压级不变而频率提高一倍时,听起来音调也提高一倍。
倍频程的频带划分方式采用恒定带宽比的形式,本文使每一个频程的上限频率fu是下限频率fl的4倍,即fu=4fl。每个频程的中心频率fc,它与fu和fl的关系如式:
Figure GDA0002423082100000041
本发明虑到情感语音信号的能量分布情况,提出针对情感语音的OBSI特征的子频带的划分策略。
下面基于上述原理并结合附图以及具体实施例进一步说明本发明的技术方案:
如图1所示为一种基于倍频程信号强度和差异化特征子集的情感语音识别方法,步骤包括:
S1对给定语音情感数据集X进行特征提取,以得到原始情感特征集合F,其情感集合为S,特征提取对象至少包括OBSI特征参数及OBSIR特征参数,还可包括韵律学特征、谱特征等特征,特征提取的步骤包括:
S11对语音信号做至少包括预加重和分帧的预处理,预处理后时域语音信号为xi(n),其中i表示帧序号。
在本发明中,与提取其它语音情感特征相同,首先需要对语音信号进行预加重、分帧做加汉明窗处理等预处理的步骤。预加重是为了对语音信号的高频部分进行加重,以去除口唇辐射的影响,提升语音信号的高频部分。分帧是由于语音是一个非平稳的随机过程,只具有短时平稳性,因此任何语音信号的分析处理都必须建立在短时的基础上。
S12对时域语音信号xi(n)做傅里叶变换可得频域语音信号:
Xi(k)=FFT[xi(n)] (1)。
本发明中对适于语音信号进行傅里叶变换以便后续对情感语音信号的频谱能量进行分析。
S13计算频域语音信号每一帧的频谱能量,计算公式为:
E(i)=|Xi(k)|2 (2)。
S14将频域语音信号通过由M个三角滤波器构成的倍频程滤波器组,得到每个滤波器的频率响应。
作为本发明中,采用各频带中心频率满足
Figure GDA0002423082100000051
的2倍频程滤波器组成倍频滤波器组。
同时,考虑到人耳可听的频率范围是20Hz到20000Hz,所以在语音信号处理时可以忽略掉可听频率范围之外的音频分量,因此,作为本发明的优选实施方案,所用倍频滤波器组根据人耳听觉频率范围对各滤波器的频率范围进行划分,相邻子频带的频率范围重叠半个频程,相邻两个频带中心频率同样满足两倍的比例关系。
本发明以人耳可听频率的起始频率20Hz作为倍频程滤波器组中第一个滤波器的起始频率,采用倍频程的划分方式,各频带的带宽是不同的,低频部分带宽小一些,而高频部分的带宽相对较大。这样的划分方式也符合人的声音在高频部分的携带信息相对较少的特点,在语音情感分析时对低频部分进行详细描述,高频部分粗略描述。本文根据相邻子频带重叠半个频程的原则,对相邻滤波器的频率范围进行划分,相邻滤波器频率范围重叠半个频程,第一滤波器下限频率为20Hz、中心频率为40Hz、上限频率为80Hz,则第m个滤波器的中心频率可根据以下公式计算:
f(m)=2m-1f(1)=40×2m-1(1≤m≤M) (3)
本发明倍频滤波器组子频带频率范围如表1所示:
表1倍频程子频带中心频率和频率范围
Figure GDA0002423082100000061
根据人耳听觉特性对人耳可听频率范围进行划分得到9个相邻重叠的子频带。对于发明改进频带划分方式以适应情感语音的OBSI频程频带信号强度(Octave Band SignalIntensities,OBSI)及其衍生特征倍频程频带信号强度比(Octave Band SignalIntensities Ratio,OBSIR)。
所述倍频滤波器组中,第m个滤波器频率响应Hm(k)根据以下公式得出:
Figure GDA0002423082100000062
如图2所示为根据上式计算处的每个滤波器的响应结果。
S15根据每个滤波器的频率响应计算语音信号的OBSI特征参数和OBSIR特征参数。计算语音信号的OBSI特征参数和OBSIR特征参数的步骤包括:
1)计算每个滤波器输出的对数能量,其中第m个滤波器输出的对数能量为S(m),计算公式如下:
Figure GDA0002423082100000063
上述各滤波器输出的对数能量即为OBSI特征参数:
OBSI(m)=S(m),1≤m≤M (6);
2)计算语音信号各滤波器频带上的能量E(m),计算公式如下:
Figure GDA0002423082100000071
其中,N为语音信号分帧的帧长;
3)计算相邻滤波器频带上的能量比Ratio(m):
Figure GDA0002423082100000072
其中E(m-1)为第m-1个子频带的能量。
上述各能量比的对数即为OBSIR特征参数,即:
OBSIR(m)=ln(Ratio(m)),1<m≤M (9)。
由前面的子频带划分情况可以得出OBSI特征有9个特征参数,而由OBSI和OBSIR的关系可得,OBSIR特征有8个特征参数。如图3所示为OBSI和OBSIR特征参数的计算流程过程。
S2利用给定语音情感数据集X的测试集计算特征集合F中每一个特征的Fisher分数,根据Fisher分数值从小到大对特征进行排名,并使用SVM作为分类器,对测试集Fisher分数排名在特征总数前10%的特征组成的特征集合使用序列前向选择方法得到区分情感集合S中每一个情感ei与其它情感other的最优特征子集D(ei,other)。
S3使用D(ei,other)在部分样本中进行训练识别,得到每种情感的区分度d(ei),所述情感区分度d(ei)表示在训练集中,使用特征子集D(ei,other)对ei和other进行识别的平均识别率;
S4根据情感区分度d(ei)对情感集合S中的情感类型按从大到小的顺序进行排列,得到有序情感集合S;
S5根据有序情感集合S中各情感的顺序,构建SVM-RF多级分类器,所述SVM-RF分类器包括级联连接且与特征子集一一对应的子分类器,并利用各特征子集实现SVM-RF多级分类器训练;
常规分类算法众多,其中比较适宜语音情感分类的算法包括支持向量机(SVM)和随机森里(RF)。从支持向量机和随机森林在常用情感数据库上识别表现来看,随机森林相对更佳,但由于其本身是一种集成学习方法,从结构上来看它由许多基分类器构成,这导致其在训练模型时,要比支持向量机耗费更长的时间。本发明给出了一种结合SVM和RF优点的SVM-RF改进多分类器构建算法,如图4所示,为本发明SVM-RF的改进算法的原理示意,其主要思路:采用若干一对多的二分类SVM,用于区分已有情感中相对较为容易区分的情感,而对于其中较难区分的情感则使用RF进行识别。在SVM-RF算法中,给出一种训练子分类器的特征子集差异化策略,其目的使SVM-RF能够可以用少于单纯RF模型的训练时间,而达到接近RF的识别性能。
本发明在构建SVM-RF多级分类器时,首先利用本发明特征选择算法,对原始特征集合进行特征选择,然后构建区分不同情感的最优特征子集,进而对情感的区分度进行评估。本发明中,情感区分度定义如下:对于两类情感ei和ej,若原始特征集合F中区分它们的最优特征子集为D(ei,ej),则定义ei和ej的情感区分度表示在训练集中,使用特征子集D(ei,ej)对ei和ej进行识别的平均识别率。作为本发明较佳的实施方式,SVM-RF多级分类器中的SVM子分类器采用一对多的方式,因此要对数据库所有情感中的每一种情感区分度进行评估,在评估每一种情感ei的区分度时,将其它所有情感视为一类,记为other,则情感ei的区分度d(ei)实际上为d(ei,other)。而不将SVM直接在训练集上对所有情感进行分类得到识别率作为每种情感的区分度的原因是,通过这种方式得到的情感区分度,会因为没有使用针对具体分类任务的最优特征子集,而导致情感区分度结果上存在差别,继而会影响到后续多级分类器中的子分类器构建顺序。
获得最优特征子集后,计算一对多形式下不同情感的具体区分度。然后对数据库情感集合中,情感按照区分度高低进行排序,得到有序情感集合S。将有序情感集合S作为SVM-RF中子分类器构建顺序的参照标准。
对于图4中所示的SVM-RF构建环节,本发明采用决策树形式对其子分类器进行构建,且采取情感可区分性先易后难的策略,首先对易于区分的情感进行分类。第一个SVM子分类器的任务是区分出情感集合中区分度最高的情感,第二个SVM子分类对区分度次高的情感进行分类,以此类推,直到情感集合中尚未进行区分的剩余情感中,最高区分度小于预先设定的阈值λ时,将剩下的所有情感识别使用随机森林完成。
阈值λ需要根据所有情感区分度进行适当选取,以保证SVM-RF的整体识别率。设置阈值λ,是因为考虑到决策树构建方式的缺点,即当决策树上某一个结点上的判断出现错误时,接下来的子分类器无论给出什么样的预测结果都是错误的。因而当树的深度很深时,会导致多类分类器的识别性能的下降。因此,在SVM-RF中SVM子分类器构建过程中,当剩余情感集合S中,具有最大区分度的情感的区分度小于一定阈值λ时,将不再使用SVM进行构建,即假设情感集合S中剩余m类情感,则使用随机森林完成对这m类情感的区分,最后通过级联SVM和RF的方式得到多级分类器。
本发明SVM-RF分类器的构建过程中,为进一步提升所构建的SVM-RF分类器的整体性能,考虑区分不同情感最优特征子集的差异性,采取子分类器对应特征子集差异化策略,即SVM-RF中不同的子分类器使用从原始特征子集F中所选取的不同特征子集进行训练,每个特征子集的选取原则是使用此特征子集能使得子分类器在特定情感分类任务上达到性能最优。对于SVM-RF中的SVM子分类器所使用的特征子集,结合具体的分类任务,使用特征选择算法,如Fisher分数值和分类器联合的Wrapper式特征选择算法,以SVM作为特征子集评价分类器,选出合适的特征子集。对于SVM-RF中的随机森林子分类器,由于随机森林是包含一定数量基分类器的集成学习方法,以它作为分类器进行Wrapper式的特征选择较为耗时,故选择Fisher分数值排名较高的部分特征作为随机森林训练时使用的特征子集。
对于子分类器对应特征子集采取差异化策略,以便区分不同情感集合的最佳特征子集存在的差异性,这也是在评估情感区分度时,利用最佳区分特征子集上得到结果的原因。例如:能够最大区分情感集合1和情感集合2之间最优特征子集,对于情感集合3和情感4来说并不一定是最优的,因此本发明提出了综合考虑特征子集差异性的SVM-RF多级分类器构建方式。将使用训练集得到的针对不同子分类器分类任务的最优特征子集用于各子分类器的训练,完成整个多级分类器的训练过程。
S7利用SVM-RF多级分类器模型对测试情感语音进行分类测试,并输出分类结果。
本发明使用训练好的多级分类器模型对测试数据进行预测时,SVM-RF多级分类器中的各个子分类器也相应地选择各自用到的特征来完成预测过程。
下面以具体的实现数据对本发明做进一步论述:本发明以Ubuntu16.04LTS为实验平台,程序语言使用Python,版本2.7.12。为验证本发明的有效性,在CASIA数据库上对6类情感进行了实验,对于分类模型,借助了基于Python的机器学习库scikit-learn 0.18。
其中针对数据集提取的特征如表2所示:
表2情感语音特征表
Figure GDA0002423082100000101
Figure GDA0002423082100000111
1、实验参数设定:本发明使用的分类器及其主要参数设置如下:
1)支持向量机:核函数选择高斯核函数,惩罚系数为1。
2)随机森林中基分类器的个数设为200个。
2、情感区分度实验与分析:为了得到不同情感的区分度,以便后续完成SVM-RF语音情感多级分类器的构建。本文在CASIA数据库上进行了实验,从CASIA数据库1200个数据中选取600个语音数据,用于评估数据库中6类情感的区分度。使用本文第三章给出的特征选择算法,选出训练SVM-RF中各子分类器所需要的特征子集。从600个语音数据中选取70%用于训练,30%用于验证。
在特征选择时,使用如Fisher分数,对Fisher分数排名前对排名前200的特征构成的特征子集进行基于策略B的子集搜索,得到每类情感区分其它另外5类情感的最佳特征子集,同时也得到数据库中高兴、生气、悲伤、惊讶、中性和害怕6类情感的区分度,结果如表3所示:
表3前200名特征进行搜索得到的CASIA数据库中6种情感的区分度
Figure GDA0002423082100000112
表3显示了从所有情感当中只区分出一种情感是比较容易的,即便是相对难区分出的害怕情感,也有92.67%的区分度,悲伤对其它5类情感的区分度为93.17%,高兴对于其它5类情感的区分度为93.92%,这三种情感的区分度相对较低,均在93%左右。中性和惊讶情感的区分度在97%以上,生气情感的区分度也较高,为95.00%。同时从表中可以看出区分不同情感的最佳特征子集在特征维数是不同的,区分生气与其它5类情感的最优特征子集维数为83,而区分悲伤与其它情感之间的最优特征子集维数为36,这也验证了区分不同情感的最优特征子集是不同的,即在最优特征子集上存在差异性。
使用特征选择算法,如Fisher分数,对Fisher分数排名前300的特征组成的特征集合中,使用SVM分类器作为评价分类器、基于策略B进行子集搜索,所选出的从6类情感中区分每1类情感的最优特征子集维数及6种情感的区分度:
表4前300名特征进行搜索得到的CASIA数据库中6种情感的区分度
Figure GDA0002423082100000121
表4显示了相比于表2中对排名前200个特征做特征选择的结果,表4.2从前300个特征选择出来的特征子集识别性能有一定的提高,如区分生气和其它情感的的最优特征子集的特征维数由83增加到125,但区分度只由95%增加到95.17%。另外如害怕情感,与之对应地最佳特征子集中特征数量由42增加到57,区分度由92.67%提高到93.08%。整体上看,部分情感的区分度虽然有所提高,但为了减少计算量,本文下面实验采用从排名前200的特征中进行特征选择,选择出最佳特征子集,完成相关实验。
3、SVM-RF算法与SVM和RF的性能对比与分析,上文提到,本实施例在使用最佳特征子集的前提下,得到的情感区分度由高到低的顺序为中性(97.08%)、惊讶(97.08%)、生气(95.00%)、高兴(93.92%)、悲伤(93.17%)和害怕(92.67%)。因此,按照本发明构建SVM-RF语音情感多级分类器所采用的先易后难原则,考虑不同情感的区分度情况,首先使用三个二分类SVM,依次对中性、惊讶和生气进行区分,对于区分度相差不多且相对较低的高兴、悲伤和害怕三种情感,则使用随机森林进行区分,随机森林使用排名前。本文采用决策树形式的构建方式,参照表2得到的情感区分度排名,因此决策树的根节点是第一个SVM分类器,它用来区分中性情感,并且使用区分中性情感的特征子集用于分类器的训练;同样地对于SVM-RF语音情感多级分类器中的第二个SVM子分类器,它用来区分情感区分度第二高的惊讶情感,且使用区分惊讶情感的最优特征子集用于第二个SVM分类器的训练;第三个分类对生气情感进行区分,并且同样使用对应的特征子集进行训练。对于RF分类器,它对剩下的害怕、悲伤和高兴三种情感进行区分,用到的特征子集同样与它的分类任务所匹配。最终,构建的SVM-RF多级分类器结构如图5所示。其中,特征子集1,特征子集2,特征子集3,特征子集4分别是区分中性、惊讶、生气的最优特征子集以及对Fisher分数排名前200的特征组成的特征子集。
4、对比分析,为了验证本发明的有效性,采用一对多SVM分类器作为对比,通过对6类情感进行特征选择得到的特征子集,与本发明构建的多级分类器进行对比。使用相同特征子集SVM分类器对应的特征维数是57个。在CASIA数据库上进行10次10折交叉验证,得到的实验结果如表5所示:
表5不同分类器的识别结果
Figure GDA0002423082100000131
由表5可知本发明SVM-RF算法在10次10折交叉实验中,取得的平均识别率为83.06%,而不考虑最佳特征子集差异性、使用相同特征子集训练的一对多SVM分类器的识别率为82.23%,本章算法平均识别率相比一对多SVM提高了0.83%。SVM-RF2中SVM子分类器使用特征子集和一对多SVM的特征子集是相同的,其平均识别率为81.01%,显然它的平均识别率比对子分类器的特征子集采取差异化策略的SVM-RF低2.05%,验证了特征子集差异化策略的合理性。相比RF,SVM-RF要低1.1%。
为了对比SVM,RF,SVM-RF,SVM-RF2四种分类算法的运行时间,在CASIA数据库上进行了十次十折交叉验证,每一次十折交叉实验的平均运行时间如表6所示:
表6运行时间比较
Figure GDA0002423082100000141
由表6可以看出SVM-RF的运行时间明显少于RF模型的训练时间,SVM-RF的一次十折交叉验证平均需要13.73s的时间,而RF一次十折交叉验证平均需要的时间是29.75s。实验验证了SVM-RF的模型训练时间确实要少于RF的模型训练时间,但因为引入了RF的原因,使得SVM-RF的模型时间要比SVM模型训练时间多许多。
从CASIA数据库中选取前900个样本数据用于训练、后300个样本用于测试,使用SVM和SVM-RF两种算法对6种情感进行识别,得到的情感混淆矩阵如表7和表8所示:
表7使用SVM识别的混淆矩阵
Figure GDA0002423082100000142
表8使用SVM-RF识别的混淆矩阵
Figure GDA0002423082100000143
Figure GDA0002423082100000151
由表7和8所示的混淆矩阵进行对比,可以看出本文构建的SVM-RF多级分类器对害怕和高兴的识别效果有所提升,对各自50个测试样本的识别数分别从34、38都提高到41;此次实验SVM的识别率为82.67%,而本文构建的SVM-RF级联的多级分类器的识别率为85.67%。实验验证了考虑最佳特征子集差异性所构建多级分类器,能够进一步提高语音情感的识别率。
本发明基于情感语音识别领域OBSI、OBSIR特征参数,针对SVM和RF的特点提出一种基于特征选择的SVM-RF多级分类器构建算法,根据情感的实际区分度,使用若干个一对多的二分类SVM先对较为容易区分的情感进行区分,而对于其中较难区分的情感使用RF进行识别。同时在SVM-RF中,对用于训练子分类器的特征子集采取差异化策略,最终使SVM-RF能够可以用少于RF模型的训练时间,达到与RF近乎相同的性能。通过实验验证了SVM-RF多级语音分类器构以较少的模型训练时间,获得了接近RF的识别性能。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (2)

1.一种基于倍频程信号强度和差异化特征子集的情感语音识别方法,其特征在于,步骤包括:
S1对给定语音情感数据集X进行特征提取,以得到原始情感特征集合F,所述原始情感特征集合F对应的情感集合为S,特征提取对象至少包括OBSI特征参数及OBSIR特征参数,其中特征提取的步骤包括:
S11对语音信号做至少包括预加重和分帧的预处理,预处理后时域语音信号为xi(n),其中i表示帧序号,
S12对时域语音信号xi(n)做傅里叶变换可得频域语音信号:
Xi(k)=FFT[xi(n)] (1),
S13计算频域语音信号每一帧的频谱能量,计算公式为:
E(i)=|Xi(k)|2 (2),
S14将频域语音信号通过由M个三角滤波器构成的倍频程滤波器组,得到每个滤波器的频率响应,其中,所述倍频程滤波器组中各滤波器的频率范围划分方式为:在人耳听觉频率范围内,采用恒定带宽比方式对相邻滤波器的频率范围进行划分,相邻滤波器频率范围重叠半个频程;
其中第一滤波器下限频率为20Hz、中心频率为40Hz、上限频率为80Hz,则第m个滤波器的中心频率可根据以下公式计算:
f(m)=2m-1f(1)=40×2m-1(1≤m≤M) (3),
第m个滤波器频率响应根据以下公式得出:
Figure FDA0002590588790000011
S15根据每个滤波器的频率响应计算语音信号的OBSI特征参数和OBSIR特征参数,包括:
1)计算每个滤波器输出的对数能量,其中第m个滤波器输出的对数能量为S(m),计算公式如下:
Figure FDA0002590588790000012
上述各滤波器输出的对数能量即为OBSI特征参数:
OBSI(m)=S(m),1≤m≤M (6),
2)计算语音信号各滤波器频带上的能量E(m),计算公式如下:
Figure FDA0002590588790000021
其中,N为语音信号分帧的帧长,
3)计算相邻滤波器频带上的能量比Ratio(m):
Figure FDA0002590588790000022
上述各能量比的对数即为OBSIR特征参数,即:
OBSIR(m)=ln(Ratio(m)),1<m≤M (9),
S2利用给定语音情感数据集X的测试集计算特征集合F中每一个特征的Fisher分数,根据Fisher分数值从小到大对特征进行排名,并使用SVM作为分类器,对测试集Fisher分数排名在特征总数前10%的特征组成的特征集合使用序列前向选择方法得到区分情感集合S中每一个情感ei与其它情感other的最优特征子集D(ei,other);
S3使用D(ei,other)在部分样本中进行训练识别,得到每种情感的区分度d(ei),所述情感区分度d(ei)表示在训练集中,使用特征子集D(ei,other)对ei和other进行识别的平均识别率;
S4根据情感区分度d(ei)对情感集合S中的情感类型按从大到小的顺序进行排列,得到有序情感集合S;
S5根据有序情感集合S中各情感的顺序,构建SVM-RF多级分类器,所述SVM-RF分类器包括级联连接且与特征子集一一对应的子分类器,并利用各特征子集实现SVM-RF多级分类器训练,所述SVM-RF多级分类器中各级子分类器对应的情感区分度数值如小于设定阈值λ则使用RF分类算法进行训练和识别,否则使用SVM分类算法;
S7利用SVM-RF多级分类器模型对测试情感语音进行分类测试,并输出分类结果。
2.根据权利要求1所述的情感语音识别方法,其特征在于,所述SVM-RF多级分类器根据有序情感集合S中的情感区分度排序依次对情感信息进行分类处理。
CN201710449128.XA 2017-06-14 2017-06-14 一种基于倍频程信号强度和差异化特征子集的情感语音识别方法 Expired - Fee Related CN107274888B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710449128.XA CN107274888B (zh) 2017-06-14 2017-06-14 一种基于倍频程信号强度和差异化特征子集的情感语音识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710449128.XA CN107274888B (zh) 2017-06-14 2017-06-14 一种基于倍频程信号强度和差异化特征子集的情感语音识别方法

Publications (2)

Publication Number Publication Date
CN107274888A CN107274888A (zh) 2017-10-20
CN107274888B true CN107274888B (zh) 2020-09-15

Family

ID=60067669

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710449128.XA Expired - Fee Related CN107274888B (zh) 2017-06-14 2017-06-14 一种基于倍频程信号强度和差异化特征子集的情感语音识别方法

Country Status (1)

Country Link
CN (1) CN107274888B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108334895B (zh) * 2017-12-29 2022-04-26 腾讯科技(深圳)有限公司 目标数据的分类方法、装置、存储介质及电子装置
CN110444193B (zh) * 2018-01-31 2021-12-14 腾讯科技(深圳)有限公司 语音关键词的识别方法和装置
CN108960501B (zh) * 2018-06-28 2021-11-19 上海透云物联网科技有限公司 一种商品防窜货方法
US11138473B1 (en) 2018-07-15 2021-10-05 University Of South Florida Systems and methods for expert-assisted classification
CN113933590A (zh) * 2020-07-14 2022-01-14 森兰信息科技(上海)有限公司 波的频谱的计算方法、系统、介质及装置
CN112729528B (zh) * 2020-12-07 2022-09-23 潍柴动力股份有限公司 一种噪声源识别方法、装置及设备
CN112634947B (zh) * 2020-12-18 2023-03-14 大连东软信息学院 一种动物声音情感特征集合排序识别方法及系统
CN114446326B (zh) * 2022-01-27 2023-07-04 四川大学华西医院 基于时频分辨率的吞咽障碍患者识别方法及设备
CN115348139B (zh) * 2022-07-18 2024-01-05 中国人民解放军国防科技大学 基于级联特征融合与多级分类的调制识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101261832A (zh) * 2008-04-21 2008-09-10 北京航空航天大学 汉语语音情感信息的提取及建模方法
CN101650944A (zh) * 2009-09-17 2010-02-17 浙江工业大学 基于保类内核Fisher判别法的说话人辨别实现方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10127927B2 (en) * 2014-07-28 2018-11-13 Sony Interactive Entertainment Inc. Emotional speech processing

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101261832A (zh) * 2008-04-21 2008-09-10 北京航空航天大学 汉语语音情感信息的提取及建模方法
CN101650944A (zh) * 2009-09-17 2010-02-17 浙江工业大学 基于保类内核Fisher判别法的说话人辨别实现方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Multi-scale Temporal Modeling for Dimensional Emotion Recognition in Video;Linlin Chao 等;《ACEC 14》;20141107 *

Also Published As

Publication number Publication date
CN107274888A (zh) 2017-10-20

Similar Documents

Publication Publication Date Title
CN107274888B (zh) 一种基于倍频程信号强度和差异化特征子集的情感语音识别方法
US8825479B2 (en) System and method for recognizing emotional state from a speech signal
CN111798874A (zh) 一种语音情绪识别方法及系统
CN103871426A (zh) 对比用户音频与原唱音频相似度的方法及其系统
CN110827857B (zh) 基于谱特征和elm的语音情感识别方法
CN102655003B (zh) 基于声道调制信号mfcc的汉语语音情感点识别方法
Besbes et al. Multi-class SVM for stressed speech recognition
Thirumuru et al. Novel feature representation using single frequency filtering and nonlinear energy operator for speech emotion recognition
Shahzadi et al. Recognition of emotion in speech using spectral patterns
Woubie et al. Voice-quality Features for Deep Neural Network Based Speaker Verification Systems
Deb et al. Classification of speech under stress using harmonic peak to energy ratio
Karjigi et al. Speech intelligibility assessment of dysarthria using Fisher vector encoding
CN111210845B (zh) 一种基于改进自相关特征的病理语音检测装置
Sahoo et al. Analyzing the vocal tract characteristics for out-of-breath speech
Fernandes et al. Voice pathologies: The most comum features and classification tools
Jin et al. Speech emotion recognition based on hyper-prosodic features
Fahmeeda et al. Voice Based Gender Recognition Using Deep Learning
Estrebou et al. Voice recognition based on probabilistic SOM
Rajesh Performance Analysis of ML Algorithms to Detect Gender Based on Voice
Jiao et al. Estimating speaking rate in spontaneous discourse
Jagtap et al. A survey on speech emotion recognition using MFCC and different classifier
Sheikh et al. Development of a Bengali Speech-based Emotion Analysis System
Raj et al. Gender based affection recognition of speech signals using spectral & prosodic feature extraction
Al-Tahri et al. Deceptive Detection based on Audio Spectrum Analysis using Deep Learning
Merzougui et al. Diagnosing Spasmodic Dysphonia with the Power of AI

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200915

Termination date: 20210614

CF01 Termination of patent right due to non-payment of annual fee