CN114141271A - 心理状态检测方法及系统 - Google Patents
心理状态检测方法及系统 Download PDFInfo
- Publication number
- CN114141271A CN114141271A CN202111420925.8A CN202111420925A CN114141271A CN 114141271 A CN114141271 A CN 114141271A CN 202111420925 A CN202111420925 A CN 202111420925A CN 114141271 A CN114141271 A CN 114141271A
- Authority
- CN
- China
- Prior art keywords
- psychological state
- emotion
- target
- sample
- negative
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 59
- 238000000034 method Methods 0.000 claims abstract description 72
- 230000008909 emotion recognition Effects 0.000 claims abstract description 34
- 230000008451 emotion Effects 0.000 claims abstract description 32
- 230000002996 emotional effect Effects 0.000 claims abstract description 26
- 230000000052 comparative effect Effects 0.000 claims abstract description 24
- 230000006996 mental state Effects 0.000 claims description 52
- 230000006870 function Effects 0.000 claims description 23
- 238000012549 training Methods 0.000 claims description 23
- 230000015654 memory Effects 0.000 claims description 19
- 238000005065 mining Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000012360 testing method Methods 0.000 description 9
- 230000000994 depressogenic effect Effects 0.000 description 8
- 238000000605 extraction Methods 0.000 description 6
- 230000036651 mood Effects 0.000 description 6
- 238000011161 development Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000000873 masking effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 206010012374 Depressed mood Diseases 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000001994 activation Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 101100481876 Danio rerio pbk gene Proteins 0.000 description 1
- 208000020401 Depressive disease Diseases 0.000 description 1
- 101100481878 Mus musculus Pbk gene Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011143 downstream manufacturing Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 201000003102 mental depression Diseases 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
- G10L17/14—Use of phonemic categorisation or speech recognition prior to speaker recognition or verification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明实施例提供一种心理状态检测方法。该方法包括:基于音频的情绪识别模型从会话语音数据中提取出与目标心理状态相关的情绪特征;将情绪特征作为参考,对会话语音数据进行对比学习,挖掘出对应于目标心理状态的正样本和负样本;基于正样本和负样本进行心理状态检测。本发明实施例还提供一种心理状态检测系统。本发明实施例通过情感识别模型得到的情绪参考特征,并利用对比学习,细粒度的从负样本,准确的预测出用户的心理状态。
Description
技术领域
本发明涉及智能语音领域,尤其涉及一种心理状态检测方法及系统。
背景技术
心理状态自动检测的研究受到越来越多的关注,主要包括社交媒体帖子的文本检测和会话录音的音频检测。例如,应用到智能语音中,若在与用户交互的过程中感受到用户的心理状态,基于所述心理状态进行针对性的人性化回复,可以提高用户的体验。
对于心理状态监测模型,可以参考在计算机视觉领域取得了巨大成功的对比自我监督学习进行训练,从而检测出一个人的语言对应的心理状态。
在实现本发明过程中,发明人发现相关技术中至少存在如下问题:
由于人的心理状态复杂多变与视觉领域完全不同,仅通过对比学习很难准确的检测用户的心理状态。
发明内容
为了至少解决现有技术中由于人的心理复杂,仅利用视觉领域的对比训练难以准确的检测用户的心理状态的问题。
第一方面,本发明实施例提供一种心理状态检测方法,包括:
基于音频的情绪识别模型从会话语音数据中提取出与目标心理状态相关的情绪特征;
将所述情绪特征作为参考,对所述会话语音数据进行对比学习,挖掘出对应于目标心理状态的正样本和负样本;
基于所述正样本和负样本进行心理状态检测。
第二方面,本发明实施例提供一种心理状态检测系统,包括:
情绪特征确定程序模块,用于基于音频的情绪识别模型从会话语音数据中提取出与目标心理状态相关的情绪特征;
样本挖掘程序模块,用于将所述情绪特征作为参考,对所述会话语音数据进行对比学习,挖掘出对应于目标心理状态的正样本和负样本;
状态监测程序模块,用于基于所述正样本和负样本进行心理状态检第三方面,提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例的心理状态检测方法的步骤。
第四方面,本发明实施例提供一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现本发明任一实施例的心理状态检测方法的步骤。
本发明实施例的有益效果在于:通过情感识别模型得到的情绪参考特征,并利用对比学习,细粒度的从负样本,准确的预测出用户的心理状态。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例提供的一种心理状态检测方法的流程图;
图2是本发明一实施例提供的一种心理状态检测方法的基于音频的心理状态检测简易框架示意图;
图3是本发明一实施例提供的一种心理状态检测方法的基于音频的心理状态检测总框架示意图;
图4是本发明一实施例提供的一种心理状态检测方法的不使用任何引用来分隔正样本和负样本示意图;
图5是本发明一实施例提供的一种心理状态检测方法的Daic-Woz下游检测结果数据图;
图6是本发明一实施例提供的一种心理状态检测方法的验证和测试MDD上的F1分数数据图;
图7是本发明一实施例提供的一种心理状态检测方法的对心理状态检测结果数据图;
图8是本发明一实施例提供的一种心理状态检测方法的受试者的情绪分类示意图;
图9是本发明一实施例提供的一种心理状态检测方法的情绪嵌入的可视化示意图;
图10是本发明一实施例提供的一种心理状态检测方法的验证和测试IEMOCAP上的F1得分数据图;
图11是本发明一实施例提供的一种心理状态检测系统的结构示意图;
图12为本发明一实施例提供的一种心理状态检测的电子设备的实施例的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示为本发明一实施例提供的一种心理状态检测方法的流程图,包括如下步骤:
S11:基于音频的情绪识别模型从会话语音数据中提取出与目标心理状态相关的情绪特征;
S12:将所述情绪特征作为参考,对所述会话语音数据进行对比学习,挖掘出对应于目标心理状态的正样本和负样本;
S13:基于所述正样本和负样本进行心理状态检测。
在本实施方式中,本方法的目标是预先训练一个心理状态检测侧模型,从原始声学特征中提取每个片段的单个向量。进行每个片段的提取是为了防止由于连接原始特征而导致的太长序列问题。此外,也发现了如果模型能够在训练前的过程中从原始特征中获取与心理相关的信息,该策略将会有更好的表现。简易的布局如图2所示,进一步地,细致的框架介绍如图3所示。
对于步骤S11,为了利用额外的信息作为参考进行更有效的对比训练,首先需要一个能够提取这些情绪作为参考特征的模型。正如前面提到的,本方法把情绪作为检测心理状态的一个有利视角。基于音频的情绪识别模型从用户的对话中的会话语音中提取出与目标心理状态相关的情绪特征。
作为一种实施方式,所述方法还包括:
基于语音情感识别数据集对所述情绪识别模型进行情感预训练,以使所述情绪识别模型能够提取出与目标心理状态相关的情绪特征。在本实施方式中,首先需要训练一个基于音频的情绪识别模型φe,如图3(a)所示。
这种特征提取模型可以通过标准的情感识别任务来实现,该任务通常是在包含不同情感标签的音频片段的情感数据集上进行训练。可以利用一个简单的卷积神经网络来训练情绪识别模型。φe由8个堆叠的卷积块组成,每个卷积块包含一个卷积层、一个max-pooling层、一个batch归一化层和一个激活函数(ReLU)。注意,本方法主要关注的是培训策略,而不是提出任何新的模型体系结构,因此本方法应用到各种智能语音领域中进行工作所使用的模型都相对简单。
给定一个语音情感识别数据集,其中包含话语:D=[a1,a2,...,an],标签为[y1,y2,...,yn],使用模型φe从这些话语中提取表示:vi=φe(ai),并使用线性映射进行分类:经过培训后,选择在验证集上具有最佳性能的模型φe,并使用它从会话语音中提取情感相关特征作为参考特征。
对于步骤S12,图3(b)说明了本方法的核心,即对比学习。给定一批具有N个相同大小的音频片段谱图的会话语音数据D=[a1,a2,…,aN]进行对比学习,挖掘出对应于目标心理状态的正样本和负样本;
具体的,将所述情绪特征作为参考,对所述会话语音数据进行对比学习包括:
利用所述情感特征对语音检测模型内的多个相同架构的独立编码器进行对比学习。
在本实施方式中,使用随机掩蔽方法(掩蔽为0)生成两个实例(样本)并对每个样本ai进行操作,以构造两个实例:使用两个相同架构的独立编码器φk,φq提取的嵌入,编码器φk被动量更新并且没有梯度反向传播到它:
θk←mθk+(1-m)θq
其中θ表示模型参数。模型φk,φq的结构与φe相似,只是堆叠的卷积块的数量不同,这里是6个。另外,两种模型的最后一层是非线性映射层,在提取下游任务的表示时将去掉这一层。
对于样本i,主要关注于嵌入对于φq得到梯度反向传播到它,而φk没有。本方法还维护一个容量为Q的队列Q,以包含来自最近的前一批数据的嵌入zk。然后使用φe从这些音频片段的谱图中提取参考特征:vi=φe(ai)。对于Q中的zk,也从相应的谱图中提取参考特征,表示为:[vN+1,…,vN+Q]
[s1,s2,…,sN,sN+1,…,sN+Q],sj∈[-1,1]
-与[v1,…,vN]∪[vN+1,…,vN+Q]的参考相似性得分如下:
[r1,…,rN,rN+1,…,rN+Q]
当rj∈[1,1]也是是参考特征的余弦相似性时,rj为(vi,vj)之间的余弦相似性。
积极实例(正样本)设定:
其中topK表示最高K个项目。正集合不仅包含它自己的增强视图,还包含具有最高参考相似性得分的K个实例。
消极实例(负样本)Ni包含剩余的zk。
作为一种实施方式,所述将所述情绪特征作为参考,对所述会话语音数据进行对比学习,挖掘出对应于目标心理状态的正样本和负样本包括:
基于负样本的分数确定与目标心理状态的相关性;
利用损失函数对与所述目标心理状态相关的负样本进行加权,以细粒度的检测所述心理状态。
在本实施方式中,与以往的对比学习方法主要关注积极的实例而对消极的实例一视同仁不同,给每个消极的实例赋予一定的权重以区分它们。最简单的来说,视觉领域即所见即所得。然而,人的语音所表达的意思并不是直接说出的意思。例如,孩子考了班级第一,家长说,你真棒啊。这就是字面上的意思,字面上积极的词语,对应开心的心理。然而如果,孩子打破了邻家的玻璃,家长说,你真棒啊,此时字面上积极的词语对应家长的心理的消息实例,属于带着怨气怒气的郁闷心理。又或者,过年给压岁钱时,通常孩子们开始会意思意思的说,“谢谢叔叔阿姨,我不要”。但其实,虽然孩子说着字面上“消极”的“不”。然而孩子也只是意思意思,并不是真实的心理想法,心理还是很积极想要的。对于上述情况,提出了一个新的损失函数,进一步细粒度的对负样本进行参考,重新确定相似性得分rj:
在这里证明了本方法的损失函数的有效性:Lc和L1之间的差异可以通过它们的梯度传递到Ni中负样本的sn分数来实现。通过Ni中阴性样品sn得分的梯度分别为:
可以推断:
当rn<0时(-rn>0),表示样本n具有负参考相似度得分。因此,两个损耗函数的梯度具有相同的符号,即优化目标是使sn变小。
当rn>0(-rn<0)时,表示样本n对参考信息的相似度得分为正。因此,两个损失函数的梯度具有不同的符号,即修正函数会使sn变大。
此外,考虑当sn保持不变时,|rn|将如何影响梯度范数,因为较大的|rn|意味着更显著的参考相关性。为方便起见,考虑函数f(x)=|x·es·x|,其中X=-rn∈[-1,1],s=sn∈[-1,1]。
在几乎任何情况下,都不能为0,这意味着梯度的范数随着|rn|的增加而增加。因此,在引用上与实例i关系更密切的否定实例将受到更多关注。更重要的是,在sn相近的负实例中,较大的|rn|会比较小的|rn|得到更多的更新,即改进的损失函数根据参考信息对负实例进行加权,这与传统的对比损失函数不同。因此,将区分具有相似性分数sn但参考分数rn不同的否定实例。
由于φe提取的参考特征可能包含噪声,因此最终损失函数是L1和Lc的加权和,以便更稳健:
培训过程完成后,本方法使用φq为下游任务提取特征。
如前所述,传统的对比学习不需要引用积极的实例。为了说明使用情绪参考是否可以提高性能,还设计了一种对比学习方法“NoRef”,将随机蒙面实例作为积极实例。图4解释了如何进行NoRef(无参考)对比训练。
对于样本i,损失函数为:
通过上述方式可以挖掘出对应于目标心理状态的正样本和负样本。
对于步骤S13,心理状态检测是本方法的下游任务,如图3(c)所示,使用之前通过对比学习训练的φq来提取特征和心理状态标签。数据集中的主题(受访者)在多回合对话中有多个语音片段。基于音频的心理状态的目标是预测一个二进制标签yi∈{0,1},有时是一个量表分数yr,指示用户的心理状态,例如不同程度的心理轻松健康,或者低迷郁闷。有了这些信息,就可以进一步下游处理。例如,在智能对话中,可以基于用户的心理状态调整设备的说话音调语气以及推荐内容,更加人性化。
利用预训练模型φq从每个话语的频谱图(每个话语只有一个向量)中提取响应级特征。然后,将提取的特征序列送入一个四层双向LSTM(Long Short-Term Memory,长短期记忆网络)进行凹陷检测,该LSTM在下游检测中实现了SOTA(State Of The Art,目前技术水平)性能。
通过该实施方式可以看出,通过情感识别模型得到的情绪参考特征,并利用对比学习,细粒度的从负样本,准确的预测出用户的心理状态。
对本方法进行试验说明,报告了不同方法对下游的检测结果。在2个数据集上,由F1得分和回归指标包括MAE(mean absolute error,平均绝对误差)和RMSE(root meansquared error,均方根误差)测量。
IEMOCAP语料库是一个二元会话数据集,由大约12小时的多模态数据组成,包括语音、面部表情和手部运动,以及文本记录(其中只使用语音数据)。它包含5个环节并被记录下来自10个不同的演员。选择标签为“愤怒”、“快乐”、“兴奋”、“悲伤”、“沮丧”和“中性/平稳”的话语,其中带有“兴奋”的话语被归为“快乐”类。总共用了7380句话,其中高兴的1636句,生气的1103句,伤心的1084句,沮丧的1849句,中立的1708句。将它们随机分成训练集(70%)和验证集(30%)。使用这个数据集训练φe,并在验证集上选择性能最好的模型。
MDD语料库是一个用于心理状态监测的大型会话数据集。它包括采访者和受试者之间1000小时的谈话,活泼快乐和低沉郁闷的参与者比例均衡(722名活泼快乐的人和527名低沉郁闷心理状态的人)。
在这些数据中,使用大约200小时的数据进行对比学习,并训练本方法的模型φq。将数据分割成固定长度的音频片段。然后,从这些剪辑中提取形状的特征:(96*128),每个剪辑的持续时间约为0.96秒。
还使用完整的数据集进行心理状态检测。在这里,数据集被分为一个训练集(70%)、一个开发集(15%)和一个测试集(15%)。
Daic Woz《危难分析访谈语料库-绿野仙踪》是一个常用的心理状态检测基准数据集。它包含从142名用户收集的大约50小时的数据。每个用户都有两个标签:低沉郁闷/积极阳光。培训组中有30人(28%)和发展组中有12人(34%)被归类为低沉郁闷的心理状态。数据集被完全转录,包括音频中相应的on和OFFSET。数据集中的每个用户都与采访者进行多轮对话,因此与情绪识别不同,一个用户有多个话语。虽然该数据集包含培训、开发和测试子集,但评估协议在开发子集上报告,因为测试子集标签仅适用于视听情感挑战赛的参与者。将该数据集用于本方法的下游任务,以获得与其他方法类似的结果。
由于本方法使用的数据集有不同的采样率,将所有音频剪辑重新采样到22050赫兹。对于所有音频片段,使用128维LMS(log-scale mel spectrogram,梅尔频谱)特征提取,跳跃长度为10ms,Hann窗口为40ms作为输入。
在进行对比学习时,使用1024的批大小,并设置Q的大小Q为8192。在这之后,设置动量m=0.999。使用λ=0.1作为默认的减重。使用初始学习率为1*10-4,当验证损失趋于平稳时,将其降低0.5倍。训练过程持续30个周期,如果验证性能在10个周期内没有改善,将使用早期停止策略。掩蔽方法T的作用是在随机带宽下沿时间和频率轴将LMS特征随机掩蔽为0。
对于下游凹陷检测,在BLSTM的输出上应用了第一个时间步池和线性映射。在训练时,模型被训练了100个周期。初始学习率为5*10-5,批量大小为1。
将本方法的工作与以前的对比音频结果进行比较。DepAudioNet提出了一个结合CNN(Convolutional Neural Networks,卷积神经网络)和LSTM的深层模型,对声道中与心理状态相关的特征进行编码,以提供更全面的音频表示。TCN(Temporal convolutionalnetwork,时间卷积网络)已被用于提取工作中的高级特征表示。LLD代表表现良好的低水平描述符包括:光谱特征、韵律特征和音质特征,用于预测心理状态的不同程度。将工作分为两组:有对比学习和没有对比学习。原始LMS使用输入BLSTM检测模型的基本LMS特征。情感LMS利用φe的情感特征进行心理状态检测,即用φe代替φq提取嵌入。NoRef是不使用参照物的对比学习。CoCLR(互补强化对比学习)利用引用挖掘正面实例,其中λ=0,损失函数减少为CoCLR类型的实例。Re-CLR(Reference-Enhanced Contrastive Learning,参照强化对比学习)考虑了引用相似性。
小型基准数据集Daic-Woz上的结果如图5显示了基准Daic-Woz数据集上的心理状态检测结果,该数据集包含相对较少的受试者。通常,使用对比学习方案在很大程度上提高了心理状态检测的准确性(与原始LMS相比),适用于这种数据稀疏的情况。
此外,有参考文献的对比学习方法(本方法提出的ReCLR和CoCLR)在分类和回归指标上都优于所有其他结果,表明使用与下游任务相关的参考文献来增强对比学习的预训练过程有利于提高绩效。可以看出,参考文献在对比学习中起着重要作用:有参考文献的方法优于无参考文献的方法。
最后,ReCLR优于CoCLR-style风格,这意味着通过更好地利用情绪相关特征,本方法的参考增强对比学习方法可以更好地捕捉有助于心理状态检测的信息。对于使用情绪相关特征的方法(情绪LMS,ReCLR,CoCLR),在回归度量上往往有更好的表现,这与患者的心理状态严重程度有关。结果表明,利用情绪信息有助于预测心理状态的严重程度。
进一步比较了比较大的MDD数据集上的对比学习方法,结果如图6所示。同样,对比参考学习优于NoRef。在验证集和测试集上,ReCLR都实现了最好的性能。
本方法还进行了几个实验来比较参数λ的影响。除λ外,所有实验的设置与上述相同。由于IEMOCAP数据集中的数据量较小,在其上训练的模型φe可能不够强;因此,由φe提取的参考可能包含噪声。因此,需要区分不同样本中的实例。
如图7所示了不同λ的性能,当λ=0时,损失函数类似于CoCLR类型的函数,没有权重来区分负样本。结果表明,随着λ的增加,性能先增加后下降,这表明在L1和Lc之间有一个适当的λ平衡是鲁棒性所必需的。
为了证明选择情绪相关信息作为参考的有效性,使用情绪识别训练的模型从心理状态数据集(Daic-Woz)中的每个话语中提取相应的发送分数。图8显示了Daic-Woz数据集中一些心理心情低沉郁闷和心理阳光健康快乐受试者的相应情绪类别,他们的id在垂直轴上标记。“all”表示郁闷和阳光受试者的总平均水平。可以推断,与健康的人相比,心情郁闷的人倾向于输出更消极的情绪。它展示了心情郁闷和情绪之间的关系,从情绪识别学习到的知识转移到心理状态检测任务。
为了验证ReCLR在相似类实例聚类中的有效性,采用了ReCLR模型φq进行情感嵌入提取。对于IEMOCAP数据集中的每个话语,通过φq提取单个向量(嵌入)。还提取NoRef和原始LMS特征进行比较。
随机选取标记为“快乐-悲伤”和“愤怒-中性”的话语,它们代表了情感匹配和激活。使用t-分布随机邻居嵌入(t-SNE)将这些嵌入的维数降低到二维平面,并在图9中显示它们。根据对比学习的本质,积极实例的表达将被结合在一起。具有相同标签的ReCLR提取的嵌入比其他两个嵌入更接近,表明ReCLR很好地利用了情感识别的知识。
本方法还将半监督学习应用于上述嵌入的IEMOCAP。将数据随机分成训练集(1%)、开发集(29%)和测试集(70%)。此外,还使用了线性探测策略,即训练一个简单的线性映射层来使用嵌入进行分类。通过使用非常少量的数据和简单的模型,希望减少由分类模型体系结构和IEMOCAP数据集的原始数据分布带来的额外知识。图10所示了ReCLR方法在所有方法中取得了最好的性能,表明ReCLR从情感识别数据集中学习知识。
总的来说,由于数据有限的问题,心理状态的检测是一个相当具有挑战性的任务。因此,本方法使用自我监督的方法对模型进行预训练,并对心理状态进行检测。作为其下游任务。本方法提出了一种用于心理状态检测的参考增强对比学习音频表征方法——ReCLR。还提出了一种新的参考增强损失函数,在与下游任务相关的参考信息的帮助下,以更细粒度的方式进行对比学习。选择情绪相关信息作为参考,将情绪识别数据集中的知识转移到心理状态中,并检验它们之间的关系。在两个心理状态检测数据集上,通过与以往的工作和其他对比学习策略的比较,证明了本方法具有更优的性能。
如图11所示为本发明一实施例提供的一种心理状态检测系统的结构示意图,该系统可执行上述任意实施例所述的心理状态检测方法,并配置在终端中。
本实施例提供的一种心理状态检测系统10包括:情绪特征确定程序模块11,样本挖掘程序模块12和状态监测程序模块13。
其中,情绪特征确定程序模块11用于基于音频的情绪识别模型从会话语音数据中提取出与目标心理状态相关的情绪特征;样本挖掘程序模块12用于将所述情绪特征作为参考,对所述会话语音数据进行对比学习,挖掘出对应于目标心理状态的正样本和负样本;状态监测程序模块13用于基于所述正样本和负样本进行心理状态检测。
进一步地,所述样本挖掘程序模块用于:
基于负样本的分数确定与目标心理状态的相关性;
利用损失函数对与所述目标心理状态相关的负样本进行加权,以细粒度的检测所述心理状态。
进一步地,所述样本挖掘程序模块用于:
对所述会话语音掩码,生成多个数据集;
利用所述多个数据集、所述情感特征对语音检测模型内的多个相同架构的独立编码器进行对比学习。
进一步地,所述系统还包括情感预训练程序模块,用于:
基于语音情感识别数据集对所述情绪识别模型进行情感预训练,以使所述情绪识别模型能够提取出与目标心理状态相关的情绪特征。
本发明实施例还提供了一种非易失性计算机存储介质,计算机存储介质存储有计算机可执行指令,该计算机可执行指令可执行上述任意方法实施例中的心理状态检测方法;
作为一种实施方式,本发明的非易失性计算机存储介质存储有计算机可执行指令,计算机可执行指令设置为:
基于音频的情绪识别模型从会话语音数据中提取出与目标心理状态相关的情绪特征;
将所述情绪特征作为参考,对所述会话语音数据进行对比学习,挖掘出对应于目标心理状态的正样本和负样本;
基于所述正样本和负样本进行心理状态检测。
作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本发明实施例中的方法对应的程序指令/模块。一个或者多个程序指令存储在非易失性计算机可读存储介质中,当被处理器执行时,执行上述任意方法实施例中的心理状态检测方法。
图12是本申请另一实施例提供的心理状态检测方法的电子设备的硬件结构示意图,如图12所示,该设备包括:
一个或多个处理器1210以及存储器1220,图12中以一个处理器1210为例。心理状态检测方法的设备还可以包括:输入装置1230和输出装置1240。
处理器1210、存储器1220、输入装置1230和输出装置1240可以通过总线或者其他方式连接,图12中以通过总线连接为例。
存储器1220作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的心理状态检测方法对应的程序指令/模块。处理器1210通过运行存储在存储器1220中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例心理状态检测方法。
存储器1220可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储数据等。此外,存储器1220可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器1220可选包括相对于处理器1210远程设置的存储器,这些远程存储器可以通过网络连接至移动装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置1230可接收输入的数字或字符信息。输出装置1240可包括显示屏等显示设备。
所述一个或者多个模块存储在所述存储器1220中,当被所述一个或者多个处理器1210执行时,执行上述任意方法实施例中的心理状态检测方法。
上述产品可执行本申请实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请实施例所提供的方法。
非易失性计算机可读存储介质可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据装置的使用所创建的数据等。此外,非易失性计算机可读存储介质可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,非易失性计算机可读存储介质可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本发明实施例还提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例的心理状态检测方法的步骤。
本申请实施例的电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如平板电脑。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器,掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)其他具有数据处理功能的电子装置。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”,不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种心理状态检测方法,包括:
基于音频的情绪识别模型从会话语音数据中提取出与目标心理状态相关的情绪特征;
将所述情绪特征作为参考,对所述会话语音数据进行对比学习,挖掘出对应于目标心理状态的正样本和负样本;
基于所述正样本和负样本进行心理状态检测。
2.根据权利要求1所述的方法,其中,所述将所述情绪特征作为参考,对所述会话语音数据进行对比学习,挖掘出对应于目标心理状态的正样本和负样本包括:
基于负样本的分数确定与目标心理状态的相关性;
利用损失函数对与所述目标心理状态相关的负样本进行加权,以细粒度的检测所述心理状态。
3.根据权利要求1所述的方法,其中,所述将所述情绪特征作为参考,对所述会话语音数据进行对比学习包括:
利用所述情感特征对语音检测模型内的多个相同架构的独立编码器进行对比学习。
4.根据权利要求1所述的方法,其中,在所述基于音频的情绪识别模型从会话语音数据中提取出与目标心理状态相关的情绪特征之前,所述方法还包括:
基于语音情感识别数据集对所述情绪识别模型进行情感预训练,以使所述情绪识别模型能够提取出与目标心理状态相关的情绪特征。
5.一种心理状态检测系统,包括:
情绪特征确定程序模块,用于基于音频的情绪识别模型从会话语音数据中提取出与目标心理状态相关的情绪特征;
样本挖掘程序模块,用于将所述情绪特征作为参考,对所述会话语音数据进行对比学习,挖掘出对应于目标心理状态的正样本和负样本;
状态监测程序模块,用于基于所述正样本和负样本进行心理状态检测。
6.根据权利要求5所述的系统,其中,所述样本挖掘程序模块用于:
基于负样本的分数确定与目标心理状态的相关性;
利用损失函数对与所述目标心理状态相关的负样本进行加权,以细粒度的检测所述心理状态。
7.根据权利要求5所述的系统,其中,所述样本挖掘程序模块用于:
利用所述情感特征对语音检测模型内的多个相同架构的独立编码器进行对比学习。
8.根据权利要求5所述的系统,其中,所述系统还包括情感预训练程序模块,用于:
基于语音情感识别数据集对所述情绪识别模型进行情感预训练,以使所述情绪识别模型能够提取出与目标心理状态相关的情绪特征。
9.一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述方法的步骤。
10.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-4中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111420925.8A CN114141271B (zh) | 2021-11-26 | 2021-11-26 | 心理状态检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111420925.8A CN114141271B (zh) | 2021-11-26 | 2021-11-26 | 心理状态检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114141271A true CN114141271A (zh) | 2022-03-04 |
CN114141271B CN114141271B (zh) | 2023-04-28 |
Family
ID=80388152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111420925.8A Active CN114141271B (zh) | 2021-11-26 | 2021-11-26 | 心理状态检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114141271B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117373491A (zh) * | 2023-12-07 | 2024-01-09 | 天津师范大学 | 一种动态提取语音情感特征的方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111475615A (zh) * | 2020-03-12 | 2020-07-31 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种情感增强的细粒度情感预测方法、装置、系统及存储介质 |
CN111798874A (zh) * | 2020-06-24 | 2020-10-20 | 西北师范大学 | 一种语音情绪识别方法及系统 |
CN112256866A (zh) * | 2020-09-25 | 2021-01-22 | 东北大学 | 一种基于深度学习的文本细粒度情感分析方法 |
US20210104245A1 (en) * | 2019-06-03 | 2021-04-08 | Amazon Technologies, Inc. | Multiple classifications of audio data |
-
2021
- 2021-11-26 CN CN202111420925.8A patent/CN114141271B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210104245A1 (en) * | 2019-06-03 | 2021-04-08 | Amazon Technologies, Inc. | Multiple classifications of audio data |
CN111475615A (zh) * | 2020-03-12 | 2020-07-31 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种情感增强的细粒度情感预测方法、装置、系统及存储介质 |
CN111798874A (zh) * | 2020-06-24 | 2020-10-20 | 西北师范大学 | 一种语音情绪识别方法及系统 |
CN112256866A (zh) * | 2020-09-25 | 2021-01-22 | 东北大学 | 一种基于深度学习的文本细粒度情感分析方法 |
Non-Patent Citations (2)
Title |
---|
潘玮等: "基于语音的抑郁症识别", 《科学通报》 * |
熊祖涛: "基于集成学习算法的高职生心理健康预测方法", 《软件导刊》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117373491A (zh) * | 2023-12-07 | 2024-01-09 | 天津师范大学 | 一种动态提取语音情感特征的方法及装置 |
CN117373491B (zh) * | 2023-12-07 | 2024-02-06 | 天津师范大学 | 一种动态提取语音情感特征的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114141271B (zh) | 2023-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Venkataramanan et al. | Emotion recognition from speech | |
CN109119069B (zh) | 特定人群识别方法、电子装置及计算机可读存储介质 | |
CN111192659A (zh) | 用于抑郁检测的预训练方法和抑郁检测方法及装置 | |
Yang et al. | More than just words: Modeling non-textual characteristics of podcasts | |
Elshaer et al. | Transfer learning from sound representations for anger detection in speech | |
CN110136726A (zh) | 一种语音性别的估计方法、装置、系统及存储介质 | |
Wataraka Gamage et al. | Speech-based continuous emotion prediction by learning perception responses related to salient events: A study based on vocal affect bursts and cross-cultural affect in AVEC 2018 | |
Boishakhi et al. | Multi-modal hate speech detection using machine learning | |
Noroozi et al. | Speech-based emotion recognition and next reaction prediction | |
CN114549946A (zh) | 一种基于跨模态注意力机制的多模态个性识别方法及系统 | |
CN113823323A (zh) | 一种基于卷积神经网络的音频处理方法、装置及相关设备 | |
Asghar et al. | An Urdu speech corpus for emotion recognition | |
Qadri et al. | A critical insight into multi-languages speech emotion databases | |
Foucard et al. | Multi-scale temporal fusion by boosting for music classification. | |
CN114141271B (zh) | 心理状态检测方法及系统 | |
Pandey et al. | Multi-cultural speech emotion recognition using language and speaker cues | |
CN114595692A (zh) | 一种情绪识别方法、系统及终端设备 | |
Yang | [Retracted] Design of Service Robot Based on User Emotion Recognition and Environmental Monitoring | |
Chauhan et al. | Text-independent speaker recognition system using feature-level fusion for audio databases of various sizes | |
CN113836273A (zh) | 基于复杂语境的法律咨询方法及相关设备 | |
Santos et al. | A domain-agnostic approach for opinion prediction on speech | |
Rao et al. | Deep learning structure for emotion prediction using MFCC from native languages | |
Ghorpade et al. | ITTS model: speech generation for image captioning using feature extraction for end-to-end synthesis | |
Novakovic | Speaker identification in smart environments with multilayer perceptron | |
CN116935889B (zh) | 一种音频类别的确定方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |