CN112002348B - 一种患者语音愤怒情绪识别方法和系统 - Google Patents
一种患者语音愤怒情绪识别方法和系统 Download PDFInfo
- Publication number
- CN112002348B CN112002348B CN202010930478.XA CN202010930478A CN112002348B CN 112002348 B CN112002348 B CN 112002348B CN 202010930478 A CN202010930478 A CN 202010930478A CN 112002348 B CN112002348 B CN 112002348B
- Authority
- CN
- China
- Prior art keywords
- anger
- frequency
- semantic
- voice
- probability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
Abstract
本发明涉及人工智能技术领域,特别涉及一种患者语音愤怒情绪识别方法和系统。方法的步骤包括:S1、采集语音录音样本;S2、提取语音录音样本中的文本信息,并将文本信息输入预先建立的语义情绪愤怒度检测模型,输出语义愤怒概率评估参数;根据语音录音样本中的语音频谱信息,获取相应的语气愤怒概率评估参数;S3、将语义愤怒概率评估参数和语气愤怒概率评估参数通过数学判别模型进行叠加,得出语音的愤怒程度的综合评分。本发明的有益效果在于,通过本发明的方法,可以及时准确的判断出医院场景下患方的情绪,医院方可以根据输出的结果,进行及时有效的处理,避免冲突的发生。
Description
技术领域
本发明涉及人工智能的技术领域,特别涉及一种患者语音愤怒情绪识别方法和系统。
背景技术
在医院,由于患者身体不适,情绪易于激动,在与医生和护士的沟通中,患者易与医护人员发生语言或者肢体的冲突。如何预防医患冲突的发生一直是医疗系统的重要课题。
经过长期的经验积累和数据采集,科研人员发现,医患冲突产生前患者的语音中,语义信息中的词汇具有一定的情感倾向,例如“讨厌、无语、傻”,通过对语义的判断,可以识别患者的情绪,从而提前做出预警,及时避免冲突的发生。
然而,实际应用中发现,大多数情况下,患者说话都有口音或者方言,并不是标准的普通话,因此并不能通过语音准确识别语义,因此无法准确识别患者的情绪。另外,语音中的语气是表达情绪倾向的关键,在生气的状态下,有可能语音中的语义并没有情感倾向但是语气(音量和语调等)更直接表达情绪。如何充分利用语气来识别患者的情绪成为了研究的课题。
发明内容
本发明的目的在于,克服语义识别患者情绪准确性不高的情况,加入了基于语气识别患者情绪的方法,将语义识别和语气识别相结合,提出了一种患者语音愤怒情绪识别方法和系统。
为了实现上述发明目的,本发明提供了以下技术方案:
一种患者语音愤怒情绪识别方法,包括以下步骤:
S1、采集患者语音录音样本;
S2、提取语音录音样本中的文本信息,并将文本信息输入预先建立的语义情绪愤怒度检测模型,输出语义愤怒概率评估参数;根据语音录音样本中的语音频谱信息,获取相应的语气愤怒概率评估参数;语气愤怒概率评估参数是根据梅尔频率倒谱系数获得;
S3、将语义愤怒概率评估参数和语气愤怒概率评估参数通过数学判别模型进行叠加,得出语音愤怒程度综合评分,数学判别模型包括高斯混合模型、贝叶斯网络或线性判别模型。
作为本发明的优选方案,步骤S2中,获取相应的语气愤怒概率评估参数包括以下步骤:
S21,提取语音录音样本的语音音量曲线的包络信号;
S22,基于过零率检测算法将包络信号分为多个音素,并消除音素中的静音,得到预处理音素;
S23,计算预处理音素的梅尔频率倒谱系数;并根据梅尔频率倒谱系数生成语气愤怒概率评估参数。
作为本发明的优选方案,步骤S23具体包括以下步骤:
S231,将预处理音素进行时频变换,得到预处理音素的FFT频谱;
S232,对预处理音素的FFT频谱进行加窗处理;
S233,将加窗后的FFT频谱进行快速傅里叶变换后,按时间先后顺序排列,得到时间-频率-能量分布图;
S234,将时间-频率-能量分布图中的频谱转换为梅尔频谱,将梅尔频谱进行倒谱分析,获取梅尔频率倒谱系数;并根据梅尔频率倒谱系数提取特征值,组合为语气愤怒概率评估参数。
作为本发明的优选方案,步骤S234具体包括以下步骤:
A1,将时间-频率-能量分布图中的频谱转换为梅尔频谱;
A2,对梅尔频率进行取对数计算,得到梅尔频率的对数参数;
A3,将对数参数做逆变换,并取逆变换后的系数为梅尔频率倒谱系数;
A4,从梅尔频率倒谱系数中提取40个特征值;从色度矢量中提取128个特征值;从光谱对比特征值中提取19个特征值,从色调质心特征中提取了6个特征值;
A5、将步骤A4中提取的特征拼接为193维度的向量,作为语气愤怒概率评估参数。
作为本发明的优选方案,步骤S234中将时间-频率-能量分布图中的频谱转换为梅尔频谱的计算公式为:
其中,f是时间-频率-能量分布图中的频率,mel(f)是时间-频率-能量分布图中的频率相应的梅尔频率。
作为本发明的优选方案,步骤S2中获取语义愤怒概率评估参数具体包括以下步骤:
K21,提取语音录音样本中的文本信息;
K22,利用汉语分词工具将文本信息进行分词,得到文本信息的多个词组;
K23,将文本信息的多个词组输入BERT模型或者ERNIE2模型,得到对话句子向量;
K24,对对话句子向量进行词嵌入向量化,得到单词向量;
K25,将单词向量输入到语义情绪愤怒度检测模型,输出语义愤怒概率评估参数,语义情绪愤怒度检测模型是利用深度神经网络对单词向量和预先设置的语气极性判别初始化值进行训练得到的。
作为本发明的优选方案,步骤K25中,语义情绪愤怒度检测模型的训练过程包括:
将单词向量输入深度神经网络,在深度神经网络最后一层神经元输出的参数中标记情绪标记,当情绪标记与预先设置的语气极性判别初始化值不一样时,利用反向传播算法对深度神经网络的权重矩阵进行修订,情绪标记包括极愤怒、愤怒、中性、高兴、很高兴。
作为本发明的优选方案,步骤S3中的数学判别模型采用高斯混合模型,步骤S3具体包括以下步骤:
S31,将语义愤怒概率评估参数代入高斯分布概率密度函数,得到语义评估参数的高斯分布;
S32,将语气愤怒概率评估参数代入高斯分布概率密度函数,得到语气评估参数的高斯分布;
S33,根据先验概率设置语义评估参数的高斯分布的权重值以及语气评估参数的高斯分布的权重值;
S34,根据语义评估参数的高斯分布、语义评估参数的高斯分布的权重值、语气评估参数的高斯分布和语气评估参数的高斯分布的权重值,计算语音的愤怒程度的综合评分。
作为本发明的优选方案,计算语音的愤怒程度的综合评分的计算公式为:
基于相同的构思,还提出了一种患者语音愤怒情绪识别系统,包括语音获取设备,处理器和显示设备,
语音获取设备用于采集医院患者语音录音样本,并将语音录音样本输出到处理器;
处理器接收语音录音样本,并且处理器中的执行指令可以执行权利要求1-9任一项的方法,输出语音愤怒程度综合评分;
显示设备接收并显示语音愤怒程度综合评分。
与现有技术相比,本发明的有益效果:
1、本发明的方法分别通过语音语义和语音语气识别患者的情绪,并且将识别结果通过高斯混合模型进行叠加,得出语音的愤怒程度的综合评分。通过该得分,可以及时准确的获取医院场景下患方的情绪,进行及时有效的处理,避免冲突的发生。
2、本发明方法中,采用语音语气识别患者的情绪时,对语音进行了梅尔频率转换,并对梅尔频率进行倒谱分析,该方法更有利于语音语气特征的提取,准确性较高。
3、本发明中,在语气愤怒概率评估参数的获取过程中,不仅提取了40个梅尔频率倒谱系数特征值,还从色度矢量中提取128个特征值;从光谱对比特征值中提取19个特征值,色调质心特征中提取了6个特征值,将上述多种类型的特征值进行了组合,得到了组合后的语气愤怒概率评估参数,使得在评价语气时综合考虑了语气、语调、停顿和连续变化,方案更加细化,评估结果更接近于真实情况。
附图说明
图1为本发明实施例1中的一种患者语音愤怒情绪识别方法的流程图;
图2为本发明实施例1中的词嵌入向量化实例数据;
图3为本发明实施例1中的多层深度神经网络DNN结构图;
图4为本发明实施例1中原始语音震荡信号;
图5为本发明实施例1中的原始语音震荡信号相应的包络信号;
图6为本发明实施例1中的计算Mel频率倒谱系数的流程图;
图7为本发明实施例1中色度矢量计算步骤流程图;
图8为本发明实施例1中光谱对比特征值获取步骤流程图;
图9为本发明实施例1中色调质心特征的计算方法计算步骤流程图。
具体实施方式
下面结合试验例及具体实施方式对本发明作进一步的详细描述。但不应将此理解为本发明上述主题的范围仅限于以下的实施例,凡基于本发明内容所实现的技术均属于本发明的范围。
实施例1
一种患者语音愤怒情绪识别方法,流程图如图1所示,主要包括以下步骤:
S1、采集患者语音录音样本。
S2、提取语音录音样本中的文本信息,并将文本信息进行预处理后输入预先建立的语义情绪愤怒度检测模型,输出语义愤怒概率评估参数;根据语音录音样本中的语音频谱信息,获取相应的语气愤怒概率评估参数。
S3、将语义愤怒概率评估参数和语气愤怒概率评估参数通过高斯混合模型进行叠加,得出语音的愤怒程度综合评分。
步骤S1中,录音样本特征包括但不限于单人诉求,多人对话,以及包含的背景声音的门诊大厅,抢救室等封闭空间的整体音频。在医院语音录音的样本中截取500句冲突语音和500句中性语音(即采样语音),由人工和科大讯飞听见语音转化系统(https://www.iflyrec.com/)同时进行语音听写转换,如果出现转换结果不一致的情况,以人工转化的结果作为标准结果。并且对不一致的地方利用文本差异标记方法进行标记,作为中文计算机语音识别系统的弱项,留待进一步强化学习。转换一致的文本信息作为语义情绪愤怒度检测模型的训练样本或测试样本。
作为优选方案,S2中获取语义愤怒概率评估参数具体包括以下步骤:
①利用开源的jieba(结巴)或thunlp(清华自然语言处理系统)等汉语分词工具,对采集到的文本内容进行分词。
②将情感倾向分为正面,负面及中性三种类别,利用传统方法当中的基于通用性语气倾向词典对数据当中的语气极性判别进行初始化的编著。
③基于①的分词结果,利用最新的BERT或者ERNIE2等模型(由google或者baidu提供)进行语句向量化。提取语义特征形成特定对话句子向量。
④利用BERT模型当中的embedding功能,对整个句子进行词嵌入向量化。也就是说,将特定单词转化为一个由N个元素形成的向量。
词嵌入向量化的基本操作为:其具体方法为利用Google的双向编码器模型获得12层或者更多层的转化器令牌,然后将最后3-4层获得的向量化的单词相加,最后获得该单词的向量化表示。
例如:“你们为什么让我等这么久?”这样的一个单词经过上述向量化的变化之后就可以变成一个矩阵,从而进入下一步的机器学习,转换后的数据如图2所示。
⑤利用深度神经网络DNN对④获得的矩阵和②获得的训练集进行训练。训练的具体步骤如下:
首先,通过步骤④获得输入矩阵X,记X的尺寸维度为m*n,其中,m可以表示为一段话的单词数,n表示每个单词向量化之后的长度。
其次,随机生成一个权重矩阵W和残差矩阵b,我们可以把这个权重和残差矩阵看成1层神经元,单层神经元z的计算可以由公式(1)表示,
z[l]=w[l]x[l]+b[l] (1)
对于多层神经网络,神经元Z可以用线性模型表示为公式(2):
Z[l]=W[l]X[l-1]+b[l] (2)
其中,W是权重矩阵,b是残差矩阵,X单词向量矩阵,式中的[l-1]表示第1层到第l层的层数。
加上一个激活函数,可得:
X[l]=g(Z[l]X[l-1]+b[l]) (3)
其中g()为激活函数,可以是sigmoid,tanh或Relu等。公式中的[l-1]表示第1层到第l层。只要给出输入矩阵X,由公式(4)和(5)可以逐层计算出X的向量X[l],
X[l]=g(Z[l])=g(W[l]X[l-1]+b[l]) (4)
a[0]=X (5)
公式(5)中,将输入的单词向量矩阵X定义为初始层向量a[0]。最后,输出最后一层的X值,深度神经网络DNN结构图,如图3所示,输出最后一层的X值可以针对5个情绪标记,分别标记为极愤怒,愤怒,中性,高兴,很高兴5个等级。如果该等级与实际文本标记的情绪不一样,则利用反向传播算法对于权重矩阵W进行修订。
反向传播算法的基本原理是:
对于M个样本集合,可以计算交叉信息熵,交叉信息熵J(X,Y;W,b)计算公式为公式(7):
公式中,X表示样本,Y表示预测值,W,b分别是向前传播算法输入的权重矩阵和残差矩阵,m表示第m个样本,l表示第l层的参数,a[l](m)是第m个样本,在第l层的向量。如果上述计算结果Y和预测值y不一样,就可以按照某个误差权重α,对W和b进行修正,修正之后可以获得新的权重矩阵W和残差矩阵b:
根据数学推导,W和b的变化率可以由以下公式计算:
其中,是第l层的权重矩阵的变化率,是第l层的残差矩阵的变化率,m表示第m个样本,dZ[l]是第l层神经元数组的微小变化量,A[l-1]是第l-1层样本数组的微笑变化量,由公式(8)-(11)可以根据预测值和实际标记值的误差从输出层反推到第1层,得到关于参数W和b的所有偏导数,再应用梯度下降思路不停更新参数,就可以获得最佳的W和b参数。使得训练集的代价函数最小。
⑥给出基于文本语言的愤怒概率评估。
作为优选方案,步骤S2中获取语气愤怒概率评估参数主要步骤如下:
①获取语音的包络信号。包络信号是指:将任一平稳窄带高斯随机过程X(t)表示为标准正态振荡的公式:
X(t)=A(t)cos(ωt+ph(t)) (12)
其中ω是窄带随机过程的载波频率;A(t)和ph(t)是X(t)的包络和相位。包络即随机过程的振幅随着时间变化的曲线。对于音频信号来说,包络可以理解为语音音量变化的曲线。原始语音震荡信号如图4所示,相应的包络信号如图5所示。
包络信号的计算方法为:
假设有时域信号k(t),首先通过离散傅里叶变换DFT将时域信号转化为频域信号K(n):
K(n)=DFT(k(t)) (13)
其中K(n)可以拆分为两部分频域的乘积,其中h(n)为低频部分,E(n)为高频部分:
K(n)=h(n)*E(n) (14)
相应的,将公式(14)的时域公式表示为:
k(t)=H(t)*E(t) (15)
对公式(14)两边取对数,然后进行反傅里叶变换,则有:
IDFT(log(X(n)))=IDFT(log(H(n)))+IDFT(log(E(n))) (16)
此时获得的时域信号如下:
X′(n)=h′(n)+e′(n) (17)
令e′(n)=0,就获得的h′(n),h′(n)就是包络部分对应的时域信号。
②获得语音包络信号后,找出语音包络信号的起始点和结束点。其基本工作原理是消除信号开始和结束时的静音。对于该方法使用过零率(zero-crossing rate,ZCR)的检测算法程序,可以将语音分为独立的音素(phones)。ZCR之间的部分认为是静音。对汉语来讲,可以认为是两个字符之间的间隔。
③计算计算梅尔频率倒谱系数(Mel-Frequency Cepstral Coefficients,MFCC)
梅尔频率倒谱系数计算方法如下:
A:通过前述步骤②获得的音素起始点和结束点对语音进行分帧,对每一帧的信息进行时频变换,得到每一帧的FFT频谱。
B:对FFT频谱进行加窗处理。
窗函数本质上就是给定区间内为常数而在区间外为0的函数,特定帧的声波函数乘以窗函数可以过滤掉傅里叶变换主峰之外的部分。由于语音之外的振动可以认为是随机噪音,因此,我们在完成分帧之后可以采用窗函数来滤掉每一帧除开主峰之外的随机噪音,这个过程称为加窗。
研究发现,在加窗的时候采用高斯(Gaussian Windows)窗和汉明窗(Hammingwindow)的时候对于窗内噪音过滤效果较好。所以,将原FFT频谱函数乘以高斯窗函数或汉明窗函数。
高斯窗函数为:
海明窗函数为:
上面公式(18)和(19)中,n表示窗的时间序数,n的取值范围0≤n≤N-1表示一个特定周期。
C:将加窗后的各帧频谱通过快速傅里叶变换,并按照时间先后顺序排列起来,得到时间-频率-能量分布图。很直观的表现出语音信号随时间的频率中心的变化。
D:Mel频率分析(Mel-Frequency Analysis)
MFCC考虑到了人类听觉特征,先将时间-频率-能量分布图中的线性自然频谱转换为体现人类听觉特性的Mel频谱中。将普通频谱转化到Mel频谱的公式为:
其中,f是所述时间-频率-能量分布图中的频率,mel(f)是所述时间-频率-能量分布图中的频率相应的梅尔频率。
E:获取Mel频率倒谱系数(Mel-Frequency Cepstral Coefficients)
在Mel频谱上进行倒谱分析(取对数;做逆变换,逆变换通过DCT离散余弦变换实现;取DCT后的系数作为MFCC系数),采用MFCC提取40个特征值,利用类似原理,可以从Chroma vectors(色度矢量)提取128个特征值,Spectral contrast features(光谱对比特征值)提取19个特征值、Tonal centroid features(色调质心特征)提取6个特征值。将上述特征值拼接为193维度的向量,代表语音特征,将提取的语音特征作为语气愤怒概率评估参数。计算梅尔频率到谱系数的流程图如图6所示。
其中,色度矢量的获取方法的参考文献是:Peeters,Geoffroy."Musical keyestimation of audio signal based on hidden Markov modeling of chromavectors."Proceedings of the International Conference on Digital Audio Effects(DAFx).2006。如图7所示,音频信号首先进行预处理(预处理包括静音检测、正弦分析、重新合成、调谐),将预处理后的数据进行FFT变换,得到频域音高类向量,将频域音高类向量映射到新高音符,再进行随着时间推移的平滑处理,最后映射到色度,得到色度矢量。
光谱对比特征值的计算方法参考文献:Jiang,Dan-Ning,et al."Music typeclassification by spectral contrast feature."Proceedings.IEEE InternationalConference on Multimedia and Expo.Vol.1.IEEE,2002。如图8所示,光谱对比特征值获取的步骤包括:对语音进行数字采样后,对获取的采样数据进行FFT变换,采样数据从时域转换到频域,然后对频域采样数据进行八度音阶滤波,将滤波后的数据进行Log函数计算,最后通过K-L变换(Karhunen-Loeve Transform)得到光谱对比特征值。
色调质心特征的计算方法参考文献:Harte,Christopher,Mark Sandler,andMartin Gasser."Detecting harmonic change in musical audio."Proceedings of the1st ACM workshop on Audio and music computing multimedia.2006。如图9所示,色调质心特征的获取步骤包括:对音频数据进行常数-Q变换,得到Log变换后的频谱向量,然后对Log变换后的频谱向量基于12位调谐色度图进行变换,得到音高类向量,最后对音高类向量进行色调质心变换,得到6D质心向量。
步骤S3主要是将单独的文本和单独的语气判断出来的愤怒程度通过特定数学模型进行叠加得出发言人当时愤怒程度的综合评分。特定数学模型包含但不限于高斯混合模型,贝叶斯网络,各种线性判别模型等生成模型和判别模型。
作为优选方案,将单独的文本和单独的语气判断出来的愤怒程度通过高斯混合模型(Gaussian Mixture Model,GMM)进行叠加得出发言人当时愤怒程度的综合评分。具体实现步骤如下:
①将语义愤怒概率评估参数代入高斯分布概率密度函数,得到语义评估参数的高斯分布;
②将语气愤怒概率评估参数代入所述高斯分布概率密度函数,得到语气评估参数的高斯分布;
③根据先验概率设置语义评估参数的高斯分布的权重值并设置语气评估参数的高斯分布的权重值;
④根据语义评估参数的高斯分布、语义评估参数的高斯分布的权重值、语气评估参数的高斯分布和语气评估参数的高斯分布的权重值,计算语音的愤怒程度的综合评分。
采用的高斯分布概率密度函数公式如下:
其中,参数μ为均值,σ表示标准差,e为自然对数,π为圆周率。
假设有K个高斯分布,那么特定情况p(x)出现的概率为:
其中,K为高斯分布的个数,i为高斯分布的编号,μi是服从正态分布的随机变量的均值,是所述随机变量的方差,φi是语义评估参数或语音评估参数根据发生的先验概率给出的权重值。概率分布可以表示为K个概率分布的和的形式,每个分布都有自己的μ和σ,每个参数根据发生的先验概率可以给出权重φ,令我们就可以获得特定情况下特定语气和文本组合起来的愤怒概率。且可以得到愤怒+不愤怒的情况的积分为1。
例如通过文本发现愤怒概率为P(文本),通过语音发现愤怒概率为P(语音),根据医生经验或者统计特定时间范围内医院某个特定地点出现的愤怒情况统计获得此地发生愤怒现象的概率为P,那么我们可以根据贝叶斯算法获得:
P(愤怒|语音特征)=P(愤怒)*P(语音特征|愤怒)/[P(文本)*P(语音特征|文本)+P(愤怒)*P(语音特征|愤怒)]
也就是可以得到出现特定语音特征时的愤怒值。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (2)
1.一种患者语音愤怒情绪识别方法,其特征在于,包括以下步骤:
S1、采集患者语音录音样本;
S2、提取所述语音录音样本中的文本信息,并将所述文本信息输入预先建立的语义情绪愤怒度检测模型,输出语义愤怒概率评估参数;根据所述语音录音样本中的语音频谱信息,获取相应的语气愤怒概率评估参数;所述语气愤怒概率评估参数是根据梅尔频率倒谱系数获得;
S3、将所述语义愤怒概率评估参数和所述语气愤怒概率评估参数通过数学判别模型进行叠加,得出语音愤怒程度综合评分,所述数学判别模型采用高斯混合模型;步骤S2中获取所述语义愤怒概率评估参数具体包括以下步骤:
K21,提取所述语音录音样本中的文本信息;
K22,利用汉语分词工具将所述文本信息进行分词,得到所述文本信息的多个词组;
K23,将所述文本信息的多个词组输入BERT模型或者ERNIE2模型,得到对话句子向量;
K24,对所述对话句子向量进行词嵌入向量化,得到单词向量;
K25,将所述单词向量输入到所述语义情绪愤怒度检测模型,输出语义愤怒概率评估参数,所述语义情绪愤怒度检测模型是利用深度神经网络对所述单词向量和预先设置的语气极性判别初始化值进行训练得到的;
步骤K25中,所述语义情绪愤怒度检测模型的训练过程包括:
将所述单词向量输入深度神经网络,在所述深度神经网络最后一层神经元输出的参数中标记情绪标记,当所述情绪标记与所述预先设置的语气极性判别初始化值不一样时,利用反向传播算法对所述深度神经网络的权重矩阵进行修订,所述情绪标记包括极愤怒、愤怒、中性、高兴、很高兴;
步骤S2中,所述获取相应的语气愤怒概率评估参数包括以下步骤:
S21,提取所述语音录音样本的语音音量曲线的包络信号;
S22,基于过零率检测算法将所述包络信号分为多个音素,并消除所述音素中的静音,得到预处理音素;
S23,计算所述预处理音素的梅尔频率倒谱系数;并根据梅尔频率倒谱系数生成语气愤怒概率评估参数;
所述步骤S23具体包括以下步骤:
S231,将所述预处理音素进行时频变换,得到所述预处理音素的FFT频谱;
S232,对所述预处理音素的FFT频谱进行加窗处理;
S233,将加窗后的FFT频谱进行快速傅里叶变换后,按时间先后顺序排列,得到时间-频率-能量分布图;
S234,将所述时间-频率-能量分布图中的频谱转换为梅尔频谱,将所述梅尔频谱进行倒谱分析,获取所述梅尔频率倒谱系数;并根据所述梅尔频率倒谱系数提取特征值,组合为语气愤怒概率评估参数;
步骤S234具体包括以下步骤:
A1,将所述时间-频率-能量分布图中的频谱转换为梅尔频谱;
A2,对所述梅尔频率进行取对数计算,得到所述梅尔频率的对数参数;
A3,将所述对数参数做逆变换,并取逆变换后的系数为梅尔频率倒谱系数;
A4,从所述梅尔频率倒谱系数中提取40个特征值;从色度矢量中提取128个特征值;从光谱对比特征值中提取19个特征值,从色调质心特征中提取了6个特征值;
A5、将步骤A4中提取的特征拼接为193维度的向量,作为语气愤怒概率评估参数;
步骤S234中将所述时间-频率-能量分布图中的频谱转换为梅尔频谱的计算公式为:
其中,f是所述时间-频率-能量分布图中的频率,mel(f)是所述时间-频率-能量分布图中的频率相应的梅尔频率;
步骤S3中的数学判别模型采用高斯混合模型,步骤S3具体包括以下步骤:
S31,将所述语义愤怒概率评估参数代入高斯分布概率密度函数,得到语义评估参数的高斯分布;
S32,将所述语气愤怒概率评估参数代入所述高斯分布概率密度函数,得到语气评估参数的高斯分布;
S33,根据先验概率设置所述语义评估参数的高斯分布的权重值以及所述语气评估参数的高斯分布的权重值;
S34,根据所述语义评估参数的高斯分布、所述语义评估参数的高斯分布的权重值、所述语气评估参数的高斯分布和所述语气评估参数的高斯分布的权重值,计算语音的愤怒程度的综合评分;
计算语音的愤怒程度的综合评分的计算公式为:
2.一种患者语音愤怒情绪识别系统,其特征在于,包括语音获取设备,处理器和显示设备,
所述语音获取设备用于采集医院患者语音录音样本,并将所述语音录音样本输出到所述处理器;
所述处理器接收所述语音录音样本,并且所述处理器中的执行指令可以执行权利要求1所述方法,输出语音愤怒程度综合评分;
所述显示设备接收并显示所述语音愤怒程度综合评分。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010930478.XA CN112002348B (zh) | 2020-09-07 | 2020-09-07 | 一种患者语音愤怒情绪识别方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010930478.XA CN112002348B (zh) | 2020-09-07 | 2020-09-07 | 一种患者语音愤怒情绪识别方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112002348A CN112002348A (zh) | 2020-11-27 |
CN112002348B true CN112002348B (zh) | 2021-12-28 |
Family
ID=73468484
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010930478.XA Active CN112002348B (zh) | 2020-09-07 | 2020-09-07 | 一种患者语音愤怒情绪识别方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112002348B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11580955B1 (en) * | 2021-03-31 | 2023-02-14 | Amazon Technologies, Inc. | Synthetic speech processing |
CN113505665B (zh) * | 2021-06-28 | 2023-06-20 | 哈尔滨工业大学(深圳) | 基于视频的学生在校情绪判读方法以及装置 |
CN115346561B (zh) * | 2022-08-15 | 2023-11-24 | 南京医科大学附属脑科医院 | 基于语音特征的抑郁情绪评估预测方法及系统 |
CN116687410B (zh) * | 2023-08-03 | 2023-11-14 | 中日友好医院(中日友好临床医学研究所) | 一种慢性病患者的述情障碍评估方法和系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102737629A (zh) * | 2011-11-11 | 2012-10-17 | 东南大学 | 一种嵌入式语音情感识别方法及装置 |
CN103531208A (zh) * | 2013-11-01 | 2014-01-22 | 东南大学 | 一种基于短时记忆权重融合的航天应激情感识别方法 |
CN108305642A (zh) * | 2017-06-30 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 情感信息的确定方法和装置 |
CN110097894A (zh) * | 2019-05-21 | 2019-08-06 | 焦点科技股份有限公司 | 一种端到端的语音情感识别的方法和系统 |
CN110322900A (zh) * | 2019-06-25 | 2019-10-11 | 深圳市壹鸽科技有限公司 | 一种语音信号特征融合的方法 |
CN110751943A (zh) * | 2019-11-07 | 2020-02-04 | 浙江同花顺智能科技有限公司 | 一种语音情绪识别方法、装置以及相关设备 |
CN111028827A (zh) * | 2019-12-10 | 2020-04-17 | 深圳追一科技有限公司 | 基于情绪识别的交互处理方法、装置、设备和存储介质 |
CN111354377A (zh) * | 2019-06-27 | 2020-06-30 | 深圳市鸿合创新信息技术有限责任公司 | 通过声音识别情绪的方法及装置、电子设备 |
-
2020
- 2020-09-07 CN CN202010930478.XA patent/CN112002348B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102737629A (zh) * | 2011-11-11 | 2012-10-17 | 东南大学 | 一种嵌入式语音情感识别方法及装置 |
CN103531208A (zh) * | 2013-11-01 | 2014-01-22 | 东南大学 | 一种基于短时记忆权重融合的航天应激情感识别方法 |
CN108305642A (zh) * | 2017-06-30 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 情感信息的确定方法和装置 |
CN110097894A (zh) * | 2019-05-21 | 2019-08-06 | 焦点科技股份有限公司 | 一种端到端的语音情感识别的方法和系统 |
CN110322900A (zh) * | 2019-06-25 | 2019-10-11 | 深圳市壹鸽科技有限公司 | 一种语音信号特征融合的方法 |
CN111354377A (zh) * | 2019-06-27 | 2020-06-30 | 深圳市鸿合创新信息技术有限责任公司 | 通过声音识别情绪的方法及装置、电子设备 |
CN110751943A (zh) * | 2019-11-07 | 2020-02-04 | 浙江同花顺智能科技有限公司 | 一种语音情绪识别方法、装置以及相关设备 |
CN111028827A (zh) * | 2019-12-10 | 2020-04-17 | 深圳追一科技有限公司 | 基于情绪识别的交互处理方法、装置、设备和存储介质 |
Non-Patent Citations (5)
Title |
---|
Detecting harmonic change in musical audio;Harte;《Proceedings of the 1st ACM workshop on Audio and music computing multimedia》;20061231;21-26 * |
Music type classification by spectral contrast feature;Jiang,Dan-Ning;《Proceedings.IEEE International Conference on Multimedia and Expo》;20021231;113-116 * |
Musical key estimation of audio signal based on hidden Markov modeling of chroma vectors;Peeters,Geoffroy;《Proceedings of the International Conference on Digital Audio Effects (DAFx)》;20061231;127-131 * |
基于护士视角的护患关系量表开发与信效度检验;马绍壮;《护理学杂志》;20200531;55-58 * |
基于特征提取多模式结合的语音情感识别的研究;戴芮;《中国优秀硕士学位论文全文数据库信息科技辑》;20141031;I136-103 * |
Also Published As
Publication number | Publication date |
---|---|
CN112002348A (zh) | 2020-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112002348B (zh) | 一种患者语音愤怒情绪识别方法和系统 | |
Kumar et al. | Design of an automatic speaker recognition system using MFCC, vector quantization and LBG algorithm | |
Bezoui et al. | Feature extraction of some Quranic recitation using mel-frequency cepstral coeficients (MFCC) | |
Muhammad et al. | Voice content matching system for quran readers | |
Chelali et al. | Text dependant speaker recognition using MFCC, LPC and DWT | |
Waghmare et al. | Emotion recognition system from artificial marathi speech using MFCC and LDA techniques | |
Piotrowska et al. | Machine learning-based analysis of English lateral allophones | |
Pervaiz et al. | Emotion recognition from speech using prosodic and linguistic features | |
Kandali et al. | Vocal emotion recognition in five native languages of Assam using new wavelet features | |
Chuctaya et al. | Isolated automatic speech recognition of Quechua numbers using MFCC, DTW and KNN | |
CN111798846A (zh) | 语音命令词识别方法、装置、会议终端及会议终端系统 | |
Kanabur et al. | An extensive review of feature extraction techniques, challenges and trends in automatic speech recognition | |
CN108369803A (zh) | 用于形成基于声门脉冲模型的参数语音合成系统的激励信号的方法 | |
CN114842878A (zh) | 一种基于神经网络的语音情感识别方法 | |
Gaudani et al. | Comparative study of robust feature extraction techniques for ASR for limited resource Hindi language | |
Khanna et al. | Application of vector quantization in emotion recognition from human speech | |
Saksamudre et al. | Comparative study of isolated word recognition system for Hindi language | |
Hasija et al. | Recognition of Children Punjabi Speech using Tonal Non-Tonal Classifier | |
Ouhnini et al. | Towards an automatic speech-to-text transcription system: amazigh language | |
Kurian et al. | Connected digit speech recognition system for Malayalam language | |
Zbancioc et al. | Using the lyapunov exponent from cepstral coefficients for automatic emotion recognition | |
Kamarudin et al. | Analysis on Mel Frequency Cepstral Coefficients and Linear Predictive Cepstral Coefficients as Feature Extraction on Automatic Accents Identification | |
Firoze et al. | Bangla isolated word speech recognition | |
Gupta et al. | Speech analysis of Chhattisgarhi dialects using wavelet transformation and mel frequency cepstral coefficient | |
Барковська et al. | Analysis of the influence of selected audio pre-processing stages on accuracy of speaker language recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |