CN101620851B - 一种基于改进Fukunage-koontz变换的语音情感识别方法 - Google Patents

一种基于改进Fukunage-koontz变换的语音情感识别方法 Download PDF

Info

Publication number
CN101620851B
CN101620851B CN2008101228043A CN200810122804A CN101620851B CN 101620851 B CN101620851 B CN 101620851B CN 2008101228043 A CN2008101228043 A CN 2008101228043A CN 200810122804 A CN200810122804 A CN 200810122804A CN 101620851 B CN101620851 B CN 101620851B
Authority
CN
China
Prior art keywords
phi
formula
koontz
fukunage
statement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2008101228043A
Other languages
English (en)
Other versions
CN101620851A (zh
Inventor
邹采荣
赵力
赵艳
魏昕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN2008101228043A priority Critical patent/CN101620851B/zh
Publication of CN101620851A publication Critical patent/CN101620851A/zh
Application granted granted Critical
Publication of CN101620851B publication Critical patent/CN101620851B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种基于改进Fukunage-koontz变换(FKT)的语音情感识别方法,利用本发明变换可以有效实现特征降维,在降维过程中,考虑到语音内部流形结构,引入可以描述帧间关联性的参数τ,在计算特征协方差时进行加权,从而寻找降维后具有最大最小方差的特征,并且以方差为分类判别信息,采用k近邻识别方法实现多种语音情感识别。与已有的同类识别方法相比,本发明能有效提高识别率。

Description

一种基于改进Fukunage-koontz变换的语音情感识别方法
技术领域
本发明涉及一种语音识别方法,特别涉及一种语音情感识别方法。
背景技术
语音情感自动识别技术主要包括两个问题:一是采用语音信号中的何种特征作为情感识别,也就是情感特征提取的问题,包括特征提取和选择;一是如何将特定的语音数据进行分类,也就是模式识别的问题,包括各种模式识别算法,如最近邻、神经网络、支持向量基等。
语音情感识别中常用的情感特征参数包括:线性预测系数、线性预测倒谱系数、Mel倒谱系数、短时能量、基频、共振峰等等。其中线性预测系数可以认为是对声道全极点模型的估计,基频和共振峰等参数大多可以通过对线性预测系数进一步处理得到,可以看为是线性预测系数的替代参数,而Mel倒谱系数则侧重于人耳的听觉特性,是体现个人信息的重要参数。对语音的处理是以短时分析为基础的,以帧为单位提取特征参数,可能导致计算复杂度提升和冗余信息对识别的干扰。因此常需要特征降维。在本发明之前,主要的降维方法有主成份分析、线性判别分析和Fukunage-koontz变换。具体而言,采用主成份分析降维后,特征参数具有最小欧式距离误差,但分类信息不明显,采用线性判别分析降维后,特征参数分类信息较明显,但是不一定具有最小误差,在采样点少且特征维度较高的情况下,类内散度Sw可能为奇异阵,在解决此类问题时,线性判别分析大多以损失判别信息为代价。根据Sheng Zhang等人的论证,在两类情况下,Fukunage-koontz变换和线性判别分析是等价的,它直接采用广义特征值提供的分类信息,避免了矩阵奇异问题。目前常用的语音特征主要是以帧为单位进行提取,进而得到全局统计特征,不能有效的表征语音帧间结构特点,用主成份分析、线性判别分析降维的同时大多是基于全局考虑,不能有效体现语音内部结构。传统Fukunage-koontz变换是一种基于全局的降维方法,不能考虑局部时间内样本值间的关联特性,对样本内部的流形结构不能有效体现。
发明内容
本发明的目的就在于克服上述现有技术的缺陷,设计、研究一种基于改进Fukunage-koontz变换的语音情感识别方法。
本发明的技术方案是:
一种基于改进Fukunage-koontz变换的个人语音情感识别方法,其步骤为:
建立特征提取分析模块、改进Fukunage-koontz变换、情感识别模块。特征提取分析模块包括提取线性预测倒谱系数、Mel倒谱系数。
(1)线性预测倒谱系数
(1-1)将原始语音信号经高通滤波器预处理;
(1-2)分帧,加窗;
(1-3)按照Durbin快速算法求出p阶线性预测系数a1,a2,…,ap
(1-4)根据线性预测系数计算复倒谱
Figure GSB00000511458600021
(1-5)计算线性预测倒谱系数;
(2)Mel倒谱系数
(2-1)将实际频率尺度转换为Mel频率尺度;
(2-2)在Mel频率轴上配置L个通道的三角形滤波器组,每个三角形滤波器的中心频率在Mel频率轴上等间隔分配,第l个三角形滤波器的下限o(l)、中心c(l)和上限频率h(l)与其相邻滤波器关系如下;
c(l)=h(l-1)=o(l+1)        (式1)
(2-3)对语音信号幅度谱|Xn(k)|求出每个三角形滤波器输出;
(2-4)对所有滤波器输出做对数运算,然后余弦变换,得到Mel倒谱系数;
(3)改进Fukunage-koontz变换
(3-1)将(1)(2)中全部特征提取完毕后,组成特征矢量序列;
(3-2)构建Fukunage-koontz变换目标函数:对两种类别的零均值样本集X=(x1,x2,…xn),Y=(y1,y2,…ym),xi,yi∈RK。寻找变换矩阵Φ,使得满足:
ΦTRXΦ=Λ,ΦTRYΦ=I-Λ        (式2)
X ~ = Φ T X , Y ~ = Φ T Y (式3)
其中,RX和RY分别为X和Y的协方差阵,,Λ为对角阵。其实现可以在低维空间(
Figure GSB00000511458600024
k<K)中通过协方差阵的特征值寻找分类判别信息,等价于:
Φ = ( φ 1 , φ 2 , . . . , φ r ) = arg Φ max trace ( Φ T R X Φ ) trace ( Φ T R Y Φ ) , ΦTRYΦ=I     (式4)
(3-3)将变换后采样的协方差可看成是映射点对的距离和,并引入
Figure GSB00000511458600026
进行加权; φ l T R X φ l = 1 n φ l T XX T φ l = 1 2 n 2 Σ i , j = 1 n ( φ l T x i - φ l T x j ) 2 W ij X φ l T R Y φ l = 1 n φ l T YY T φ l = 1 2 n 2 Σ i , j = 1 n ( φ l T y i - φ l T y j ) 2 W ij Y (式5)
Figure GSB00000511458600032
Figure GSB00000511458600033
(式6)
其中τ是针对语句的段特性所设置的参数,目的是体现语句内部帧间结构。
(3-4)将(式5)(式6)代入(式4),得到改进目标函数;
Φ = ( φ 1 , φ 2 , . . . , φ r ) = arg Φ max trace ( Φ T ( D X - W X ) Φ ) trace ( Φ T ( D Y - W Y ) Φ )
= arg Φ max trace ( Φ T R → X Φ ) trace ( Φ T R → Y Φ ) (式7)
其中DP=diag(d1 P,d2 P,…,dr P),
Figure GSB00000511458600036
P={X,Y};矩阵WX第i行第j列元素为
Figure GSB00000511458600037
矩阵WY第i行第j列元素为
Figure GSB00000511458600038
(3-5)计算WX、WY、DX、DY,令
Figure GSB00000511458600039
Figure GSB000005114586000310
(3-6)对
Figure GSB000005114586000311
求特征值矩阵D和特征向量矩阵U,令
Figure GSB000005114586000312
(3-7)令
Figure GSB000005114586000314
的特征向量矩阵V;
(3-8)Φ=PV,
Figure GSB000005114586000315
Figure GSB000005114586000316
(4)情感识别
(4-1)从情感语句库中选取高兴、生气、悲伤、恐惧、惊讶五类情感各Ni条语句作为训练样本,
Figure GSB00000511458600041
(4-2)将第i类情感所有训练语句所提取特征矢量看为X,其余情感所有训练语句所提取特征矢量看为Y,按照(3-5)~(3-8)中步骤降维,得到降维后特征矢量
Figure GSB00000511458600042
(4-3)将
Figure GSB00000511458600043
前r行方差和后r行方差作为新特征矢量训练样本集,r=2;
(4-4)对待识别语句,按照(3-8)中所得Φ降维,求出降维后特征前r行方差和后r行方差构成新特征矢量,采用k近邻法找出其在(4-3)样本集中的k个近邻,选择具有最多近邻所对应情感为识别结果;
(4-5)按(4-2)~(4-4)作出5类情感的识别器。
本发明的优点和效果在于:
1.通过对情感语句的特征参数提取,不仅考虑到了发音系统中声道特性,还考虑到了人耳听觉系统特性;
2.采用改进Fukunage-koontz变换对特征参数做降维处理,充分考虑了语音信号内部流形结构,将帧间局部特性体现在特征协方差阵中;
3.降维后分类信息以特征方差形式凸现出来,直接用于分类,避免额外运算操作可能带来的识别误差;
4.算法简单,计算量较小。
本发明的其他优点和效果将在下面继续描述。
附图说明
图1——语音情感识别系统框图。
图2——情感特征提取分析模块流程图。
图3——高兴(Happy)和生气(Anger)两种情感特征参数经FKT变换后前两行后两行最大最小方差分布图。
图4——改进Fukunage-koontz变换后生气(Anger)和高兴(Happy)前两行后两行对应方差分布图。Fukunage-koontz变换英文缩写为FKT。
图5——不同τ下情感识别率。
图6——主成分分析、线性判别分析和改进Fukunage-koontz变换下语音情感识别结果。
具体实施方式
下面结合附图和实施例,对本发明所述的技术方案作进一步的阐述。
图1为本系统框图,主要分为3大块:特征提取分析模块、改进Fukunage-koontz变换、情感识别模块。
一.情感特征提取分析模块
1.线性预测倒谱系数参数提取
首先,根据图2中的特征参数提取流程将待提取特征语句进行预加重处理,包括高通滤波、语句开始端点与结束端点的检测;然后对语句分帧加窗,采用Durbin快速算法,分别求出各帧线性预测系数、根据线性预测系数计算出复倒谱和线性预测倒谱系数。
2.Mel倒谱系数提取
首先,将实际频率与Mel频率对应起来,将语音频率划分为一系列三角形的滤波器系列,即Mel滤波器组;取每个三角形滤波器频率带宽内所有信号幅度加权和作为某个带通滤波器的输出,然后对所有滤波输出作对数运算,再进一步进行余弦变换,得到Mel倒谱系数。流程如图2所示。
具体实施时,仍然需要进行预加重处理,包括高通滤波、语句开始端点与结束端点的检测和分帧加窗。
二.改进Fukunage-koontz变换
前面以帧为单位分析提取情感语句的12阶线性预测倒谱系数和12阶Mel倒谱系数构成特征矢量序列,若直接用于识别算法,可能导致庞大的计算量,并且冗余信息对识别也会造成一定影响,采用改进Fukunage-koontz变换可以实现降维,直接采用特征矢量协方差最大/最小的几个特征值所对应的特征方差作为分类依据,不仅避免了主成分分析、线性判别分析等方法中可能出现的缺陷,而且在分类过程中,可以避免出现一些不必要的中间步骤,从而减少误识别的可能性。
Fukunage-koontz变换是通过寻找两类数据集X和Y的协方差前后几个最大/最小特征值对应特征向量实现的,其中X协方差的特征值按从大到小排序。当最大化X协方差阵的前几个特征值时,Y对应特征值则最小,λxy→max;最小化X后几个特征值时,Y对应特征值则最大,λxy→min。从而使得两类数据的识别信息更明显。针对X的前r个最大特征值,Φ是如下目标函数的最优解:
Φ = ( φ 1 , φ 2 , . . . , φ r ) = arg Φ max trace ( Φ T R X Φ ) trace ( Φ T R Y Φ ) , ΦTRYΦ=I    (式8)
可以认为变换后采样的协方差可看成是映射点对的距离之和:
φ l T R X φ l = 1 n φ l T XX T φ l = 1 2 n 2 Σ i , j = 1 n ( φ l T x i - φ l T x j ) 2 φ l T R Y φ l = 1 n φ l T YY T φ l = 1 2 n 2 Σ i , j = 1 n ( φ l T y i - φ l T y j ) 2 , l = 1,2 , . . . , r (式9)
在以语音为对象的实验中,上式只考虑了变换后采样值的总体结构,没有注意到语音特有的局部特性。目前,大多数语音情感特征的提取是根据基于帧的短时分析得到的,其他衍生参数也大多是基于全局的统计量,如均值、方差、四分位数等。语音帧间的局部特性没有得到体现。因此,对(式9)进行如下加权,
φ l T R X φ l = 1 n φ l T XX T φ l = 1 2 n 2 Σ i , j = 1 n ( φ l T x i - φ l T x j ) 2 W ij X φ l T R Y φ l = 1 n φ l T YY T φ l = 1 2 n 2 Σ i , j = 1 n ( φ l T y i - φ l T y j ) 2 W ij Y (式10)
Figure GSB00000511458600062
Figure GSB00000511458600063
(式11)
其中,‖·‖是2范数,σ>0,n≥τ>0。τ是针对语句的段特性所设置的参数,目的是体现语句内部帧间结构,当τ=n,σ→∞时,(式10)简化为(式9)。令
C X = 1 2 n 2 Σ i , j = 1 n ( x i - x j ) ( x i - x j ) T W ij X = 1 n 2 X ( D X - W X ) X T C Y = 1 2 n 2 Σ i , j = 1 n ( y i - y j ) ( y i - y j ) T W ij Y = 1 n 2 Y ( D Y - W Y ) Y T (式12)
其中DX=diag(d1 X,d2 X,…,dr X),
Figure GSB00000511458600065
DY=diag(d1 Y,d2 Y,…,dr Y),
Figure GSB00000511458600066
则(式8)变为:
Φ = ( φ 1 , φ 2 , . . . , φ r ) = arg Φ max trace ( Φ T ( D X - W X ) Φ ) trace ( Φ T ( D Y - W Y ) Φ )
= arg Φ max trace ( Φ T R → X Φ ) trace ( Φ T R → Y Φ ) (式13)
计算WX、WY、DX、DY,令
Figure GSB00000511458600069
Figure GSB000005114586000610
Figure GSB000005114586000611
求特征值矩阵D和特征向量矩阵U,令
Figure GSB000005114586000612
Figure GSB000005114586000613
Figure GSB000005114586000614
的特征向量矩阵V;Φ=PV,
当最小化两类数据协方差后r个特征值,Φ是如下目标函数的最优解:
Φ = ( φ k - r , φ k - r + 1 + 1 , . . . , φ k ) = arg Φ min trace ( Φ T R X Φ ) trace ( Φ T R Y Φ ) (式14)
推导过程如(式9)~(式13)。
Figure GSB000005114586000618
具有相同的特征向量,对应特征值和为1,当
Figure GSB000005114586000620
的特征值变大时,
Figure GSB000005114586000621
的特征值相对变小。由于在计算过程中,特征值是由大到小进行排序的,所以可以选择Φ前后对应的行对,使得X类投影后在前r行方向上方差最大,在后r行方向上方差最小,Y类则相反。
三.情感识别模块
从情感语句库中选取高兴、生气、悲伤、惊讶四类情感各Ni条语句作为样本集,
Figure GSB00000511458600071
对第i类第k条情感语句,抽取其特征参数构成一个特征参数矢量,将第i类情感所有训练语句所提取特征矢量看为X,其余情感所有训练语句所提取特征矢量看为Y,计算WX、WY、DX、DY,令
Figure GSB00000511458600072
Figure GSB00000511458600073
Figure GSB00000511458600074
求特征值矩阵D和特征向量矩阵U,令
Figure GSB00000511458600075
Figure GSB00000511458600076
Figure GSB00000511458600077
的特征向量矩阵V;计算Φ=PV,
Figure GSB00000511458600079
得到降维后特征矢量
Figure GSB000005114586000710
Figure GSB000005114586000711
前r行方差和后r行方差作为新特征矢量训练样本集;以r=1为例,采用k近邻方法,对待识别语句,通过Φ降维,求出降维后特征的前r行方差和后r行方差构成新特征矢量,采用k近邻法找出其在训练样本集
Figure GSB000005114586000712
中的k个近邻,若具有最多近邻所在类别为X,则判定该语句对应第i类情感,否则,改变X、Y所对应情感特征样本集,按同样流程判别该语句是否为其他情感。
四.识别系统的评价
图3是两种情感:高兴(Happy)和生气(Anger)的特征参数经Fukunage-koontz变换后前两行后两行最大最小方差分布图,其中图(a)为第一行和最后一行对应方差;(b)为第二行和倒数第二行对应方差(横坐标为前第i行对应方差,纵坐标为后第i行对应方差);图4是采用本发明生气(Anger)和高兴(Happy)前两行后两行对应方差分布图,其中图(a)为第一行和最后一行对应方差;(b)为第二行和倒数第二行对应方差(横坐标为前第i行对应方差,纵坐标为后第i行对应方差);比较图3、图4,可以看出,改进FKT变换有效的增大了对应行对方差的比值,其中第一行对中,两类数据各自的方差分布更为集中,尤其以第二行对的变换最为明显,这是由于参数τ(图中τ表示为tao)的引入,在加权时增加了对帧间关系的考虑,可以看作是对语音内部帧间流形结构的一种度量。
图5是不同τ下各种情感识别率,图中τ表示为tao。从图中可以看出τ对识别是有一定影响的,当τ<10时,除“Happy”外,其他三种情感识别率与τ的增大基本成正比,其中“Sad”在τ>=6时达到97.5%识别率,“Happy”则是先降后升。而10<τ<40时,“Surprise”和“Anger”的识别率是先降后升,“Happy”则相反。当τ>40时,四种情感的识别率虽然不一定最高,但趋于稳定,这说明针对不同情感只要选择合适的参数,就可以获得较好的识别率。
图6是主成分分析、线性判别分析和改进Fukunage-koontz变换下语音情感识别结果,其中k=1,τ=10。结果表明,由于主成分分析降维并不能保证一定凸显分类信息,所以对于“喜”、“怒”、“悲”三种情感,Fukunage-koontz变换明显高于主成分分析算法,而改进Fukunage-koontz变换又高于Fukunage-koontz变换。对于“惊”,相对于主成分分析和Fukunage-koontz变换,改进Fukunage-koontz变换的识别率也有所改善,但不如前三种情感的识别率改善明显。这与所选特征参数及其降维后对各种情感表征能力有关,但总体而言,只要选择适当的τ,本发明方法的识别率较高,这是由于τ是描述语音帧间结构的参数。根据经验,选择τ=5~10时,效果较好。
本发明请求保护的范围并不仅仅局限于本具体实施方式的描述。

Claims (1)

1.一种基于改进Fukunage-koontz变换的语音情感识别方法,其步骤为: 
建立特征提取分析模块、改进Fukunage-koontz变换、情感识别模块;特征提取分析模块包括提取线性预测倒谱系数、Mel倒谱系数;
(1)线性预测倒谱系数 
(1-1)将原始语音信号经高通滤波器预处理; 
(1-2)分帧,加窗; 
(1-3)按照Durbin快速算法求出p阶线性预测系数a1,a2,…,ap; 
(1-4)根据计算线性预测系数复倒谱 
Figure FSB00000511458500011
(1-5)计算线性预测倒谱系数; 
(2)Mel倒谱系数 
(2-1)将实际频率尺度转换为Mel频率尺度; 
(2-2)在Mel频率轴上配置L个通道的三角形滤波器组,每个三角形滤波器的中心频率在Mel频率轴上等间隔分配,第l个三角形滤波器的下限o(l)、中心c(l)和上限频率h(l)与其相邻滤波器关系如下; 
c(l)=h(l-1)=o(l+1)    (式1) 
(2-3)对语音信号幅度谱|Xn(k)|求出每个三角形滤波器输出; 
(2-4)对所有滤波器输出做对数运算,然后余弦变换,得到Mel倒谱系数; 
(3)改进Fukunage-koontz变换 
(3-1)将(1)(2)中全部特征提取完毕后,组成特征矢量序列; 
(3-2)构建Fukunage-koontz变换目标函数:对两种类别的零均值样本集X=(x1,x2,…xn),Y=(y1,y2,…ym),xi,yi∈RK;寻找变换矩阵Φ,使得满足: 
ΦTRXΦ=Λ,ΦTRYΦ=I-Λ    (式2) 
Figure FSB00000511458500012
Figure FSB00000511458500013
(式3) 
其实现可以在低维空间( 
Figure FSB00000511458500014
k<K)中通过协方差阵的特征值寻找分类判别信息,等价于: 
Figure FSB00000511458500015
ΦTRYΦ=I    (式4) 
(3-3)将变换后采样的协方差可看成是映射点对的距离和,并引入 
Figure FSB00000511458500021
进行加权; 
Figure FSB00000511458500022
(式5) 
Figure FSB00000511458500023
(式6) 
其中τ是针对语句的段特性所设置的参数,目的是体现语句内部帧间结构;
(3-4)将(式5)(式6)代入(式4),得到改进Fukunage-koontz变换目标函数; 
Figure FSB00000511458500025
(式7) 
其中DP=diag(d1 P,d2 P,…,dr P), P={X,Y};矩阵WX第i行 第j列元素为 
Figure FSB00000511458500027
矩阵WY第i行第 j列元素为 
Figure FSB00000511458500028
;
(3-5)计算WX、WY、DX、DY,令 
Figure FSB00000511458500029
Figure FSB000005114585000210
(3-6)对 求特征值矩阵D和特征向量矩阵U,令 
Figure FSB000005114585000212
(3-7)令 
Figure FSB000005114585000213
求 
Figure FSB000005114585000214
的特征向量矩阵V; 
(3-8)Φ=PV, 
Figure FSB000005114585000215
Figure FSB000005114585000216
(4)情感识别 
(4-1)从情感语句库中选取高兴、生气、悲伤、恐惧、惊讶五类情感各Ni条 语句作为训练样本, 
Figure FSB00000511458500031
(4-2)将第i类情感所有训练语句所提取特征矢量看为X,其余情感所有训练语句所提取特征矢量看为Y,按照(3-5)~(3-8)中步骤降维,得到降维后特征矢量 
Figure FSB00000511458500032
(4-3)将 
Figure FSB00000511458500033
前r行方差和后r行方差作为新特征矢量训练样本集,r=2; 
(4-4)对待识别语句,按照(3-8)中所得Φ降维,求出降维后特征前r行方差和后r行方差构成新特征矢量,采用k近邻法找出其在(4-3)样本集中的k个近邻,选择具有最多近邻所对应情感为识别结果; 
(4-5)按(4-2)~(4-4)作出5类情感的识别器。 
CN2008101228043A 2008-07-01 2008-07-01 一种基于改进Fukunage-koontz变换的语音情感识别方法 Expired - Fee Related CN101620851B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2008101228043A CN101620851B (zh) 2008-07-01 2008-07-01 一种基于改进Fukunage-koontz变换的语音情感识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2008101228043A CN101620851B (zh) 2008-07-01 2008-07-01 一种基于改进Fukunage-koontz变换的语音情感识别方法

Publications (2)

Publication Number Publication Date
CN101620851A CN101620851A (zh) 2010-01-06
CN101620851B true CN101620851B (zh) 2011-07-27

Family

ID=41514055

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008101228043A Expired - Fee Related CN101620851B (zh) 2008-07-01 2008-07-01 一种基于改进Fukunage-koontz变换的语音情感识别方法

Country Status (1)

Country Link
CN (1) CN101620851B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107367548A (zh) * 2016-05-12 2017-11-21 北京化工大学 基于声纹特征识别的聚乙烯气相流化床生产过程结块在线监测系统及方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6274114B2 (ja) * 2013-01-10 2018-02-07 富士通株式会社 制御方法、制御プログラム、および制御装置
US9286897B2 (en) * 2013-09-27 2016-03-15 Amazon Technologies, Inc. Speech recognizer with multi-directional decoding
CN104200814B (zh) * 2014-08-15 2017-07-21 浙江大学 基于语义细胞的语音情感识别方法
CN104318931B (zh) * 2014-09-30 2017-11-21 北京音之邦文化科技有限公司 一种音频文件的情绪活跃度获取方法及分类方法、装置
CN105069406B (zh) * 2015-07-23 2018-06-01 南京信息工程大学 基于优化的核Fukunaga-Koontz变换的人脸识别方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1975856A (zh) * 2006-10-30 2007-06-06 邹采荣 一种基于支持向量机的语音情感识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1975856A (zh) * 2006-10-30 2007-06-06 邹采荣 一种基于支持向量机的语音情感识别方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Sheng Zhang et al.Discriminant Subspace Analysis: A Fukunaga-Koontz Approach.《IEEE Transactions on Pattern Analysis and Machine Intelligence》.2007,第29卷(第10期),1732-1745. *
Xiaoming Huo.A statistical analysis of Fukunaga-Koontz transform.《IEEE Signal Processing Letters》.2004,第11卷(第2期),123-126. *
zhao yan et al.A local time Fukunage-Koontz transformation for speech emotional recognition.《Proceedings of the 2008 International Conference on Advanced Infocomm Technology》.2008,1-5. *
王治平等.基于基音参数规整及统计分布模型距离的语音情感识别.《声学学报》.2006,第31卷(第1期),28-34. *
陈明义等.基于特征参数融合的语音情感识别方法.《微电子学与计算机》.2006,第23卷(第12期),168-172. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107367548A (zh) * 2016-05-12 2017-11-21 北京化工大学 基于声纹特征识别的聚乙烯气相流化床生产过程结块在线监测系统及方法

Also Published As

Publication number Publication date
CN101620851A (zh) 2010-01-06

Similar Documents

Publication Publication Date Title
CN110400579B (zh) 基于方向自注意力机制和双向长短时网络的语音情感识别
CN110853680B (zh) 一种具有多输入多融合策略的双BiLSTM的语音情感识别方法
CN105976809B (zh) 基于语音和面部表情的双模态情感融合的识别方法及系统
CN101620851B (zh) 一种基于改进Fukunage-koontz变换的语音情感识别方法
Cai et al. Analysis of length normalization in end-to-end speaker verification system
CN105261367B (zh) 一种说话人识别方法
Sadeghi et al. Optimal MFCC features extraction by differential evolution algorithm for speaker recognition
Hsu et al. Local wavelet acoustic pattern: A novel time–frequency descriptor for birdsong recognition
Jing et al. Speaker recognition based on principal component analysis of LPCC and MFCC
Soni et al. State-of-the-art analysis of deep learning-based monaural speech source separation techniques
CN113989893A (zh) 一种基于表情和语音双模态的儿童情感识别算法
Louradour et al. Feature space mahalanobis sequence kernels: Application to svm speaker verification
Fan et al. Deep attention fusion feature for speech separation with end-to-end post-filter method
CN109346104A (zh) 一种基于谱聚类的音频特征降维方法
CN112329819A (zh) 基于多网络融合的水下目标识别方法
Singh et al. Application of different filters in mel frequency cepstral coefficients feature extraction and fuzzy vector quantization approach in speaker recognition
Xu et al. Voiceprint recognition of Parkinson patients based on deep learning
Li et al. How to make embeddings suitable for PLDA
CN115064175A (zh) 一种说话人识别方法
CN111091817B (zh) 一种基于窗口输入的双向回馈神经网络的语音识别方法
CN109741733B (zh) 基于一致性路由网络的语音音素识别方法
Huang et al. Globality-locality consistent discriminant analysis for phone classification
CN106971732A (zh) 一种基于识别模型提升声纹识别准确度的方法和系统
CN106373576A (zh) 一种基于vq和svm算法的说话人确认方法及其系统
Chadha et al. A comparison of Multi-Layer Perceptron and Radial Basis Function neural network in the voice conversion framework

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20110727

Termination date: 20130701