CN113780341A - 一种多维度情绪识别方法及系统 - Google Patents

一种多维度情绪识别方法及系统 Download PDF

Info

Publication number
CN113780341A
CN113780341A CN202110890792.4A CN202110890792A CN113780341A CN 113780341 A CN113780341 A CN 113780341A CN 202110890792 A CN202110890792 A CN 202110890792A CN 113780341 A CN113780341 A CN 113780341A
Authority
CN
China
Prior art keywords
emotion
label
emotion recognition
dimension
recognition model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110890792.4A
Other languages
English (en)
Other versions
CN113780341B (zh
Inventor
伍冬睿
徐祎璠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN202110890792.4A priority Critical patent/CN113780341B/zh
Publication of CN113780341A publication Critical patent/CN113780341A/zh
Application granted granted Critical
Publication of CN113780341B publication Critical patent/CN113780341B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning

Abstract

本发明公开了一种多维度情绪识别方法及其系统,其方法包括:基于带标签的第一样本集训练情绪识别模型和标签映射模型;将不带标签的第二样本集输入情绪识别模型,获取生理特征在各情感维度上的预测标签;将预测标签输入标签映射模型,获取对应生理特征在当前维度上的映射标签;判断预测标签和映射标签的一致性是否符合预设条件,选取一致性符合预设条件的情感维度进行自动标注,各情感维度自动标注值为对应维度预测标签和映射标签的加权平均值;根据新标注的数据继续对情绪识别模型进行训练,得到最终的情绪识别模型。利用半监督学习自训练的方法为部分样本自动添加标注并投入训练,减少人工标注,降低了训练情绪识别模型时的人工标注成本。

Description

一种多维度情绪识别方法及系统
技术领域
本发明属于情感识别领域,更具体地,涉及一种多维度情绪识别方法及系统。
背景技术
情感计算的目的是通过赋予计算机识别、理解、表达和适应人的情感的能力以实现和谐的人机交互,情绪识别是情感计算的重要组成部分之一,指通过不同形式的信号,例如语音、面部表情、生理信号等,来推测人类情感状态的技术。情绪有多种表示方式,其中常用的两种情感表示是类别型和维度型情感,相比于离散的类别型情感,维度型情感更适合于描述细粒度的、连续的情感,维度型情感的常用维度有Valence(愉悦度)、Arousal(唤醒度)和Dominance(支配度)。
通常构建性能良好的多维度情绪识别模型需要大量的带标注数据,由于情感本身的不确定性和主观性,在标注每个情感样本时标注者往往需要反复斟酌才能给出合适的标签,一般每个情感样本也需要经多人标注后通过加权平均值等方式才能得出最终的标签,由此使得多维情感数据的标注成本较高。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种多维度情绪识别方法和系统,其目的在于利用半监督学习自训练的方法为部分样本自动添加标注,节约标注成本,由此解决多维情感数据的标注成本较高的技术问题。
为实现上述目的,按照本发明的一个方面,提供了一种多维度情绪识别方法,其包括:
获取第一样本集和第二样本集,所述第一样本集包括生理特征以及各生理特征在T个不同情感维度上标签,所述第二样本集包括不带标签的生理特征;
基于第一样本集训练情绪识别模型和标签映射模型,所述情绪识别模型用于预测生理特征在各个情感维度的标签,所述标签映射模型用于根据同一生理特征在其他情感维度的标签预测当前情感维度的标签;
将第二样本集输入所述情绪识别模型,获取生理特征在各情感维度上的预测标签;
将同一生理特征的其他维度上的预测标签输入所述标签映射模型,获取对应生理特征在当前维度上的映射标签;
分析同一生理特征在同一情感维度上获得的预测标签和映射标签的一致性程度,选取一致性符合预设条件的情感维度进行自动标注,各情感维度自动标注值为对应维度预测标签和映射标签的加权平均值;
根据新标注的数据继续对情绪识别模型进行训练,得到最终的情绪识别模型。
优选地,所述方法还包括:选择一致性程度与预设条件偏差最大的部分生理特征进行人工标注,根据人工标注的数据继续对情绪识别模型进行训练。
优选地,还包括:
基于最终的情绪识别模型,对生理特征在不同情感维度上进行标注,并根据标注结果识别生理特征对应的情绪。
优选地,
基于第一样本集训练情绪识别模型,包括:基于第一样本集中的第t个情感维度的生理特征和标签训练对应第t个情感维度的情绪识别模型,获得T个情绪识别模型,1≤t≤T;
所述将第二样本集输入所述情绪识别模型,获取生理特征在各情感维度上的预测标签,包括:将第二样本集分别输入到T个情绪识别模型中,其中,第t个情绪识别模型生成生理特征在第t个情感维度上的预测标签。
优选地,基于第一样本集训练标签映射模型,包括:基于除第t个情感维度之外的其他情感维度预测标签训练对应第t个情感维度的标签映射模型,获得T个标签映射模型,1≤t≤T。
优选地,分析同一生理特征在同一情感维度上获得的预测标签和映射标签的一致性程度,包括:
计算同一生理特征在同一情感维度上的预测标签和映射标签的绝对差值;
遍历同一生理特征在T个情感维度上的T个绝对差值,判定绝对差值小于给定阈值的情感维度的预测标签和映射标签的一致性符合预设条件。
优选地,选择一致性程度与预设条件偏差最大的部分生理特征进行人工标注,包括:
计算同一生理特征在同一情感维度上的预测标签和映射标签的绝对差值;
对同一生理特征在T个情感维度上T个绝对差值求乘积,以乘积结果最大的部分生理特征进行人工标注。
优选地,根据新标注的数据继续对情绪识别模型进行训练,得到最终的情绪识别模型,包括:
根据新标注的数据继续对情绪识别模型进行训练;
判断新获得的情绪识别模型的可靠性是否符合要求;
当新获得的情绪识别模型的可靠性符合要求,结束训练,得到最终的情绪识别模型;否则,判断是否有预算进行人工标注,若有预算,则继续获取自动标注和人工标注的数据并对情绪识别模型进行迭代训练直至可靠性符合要求,若无预算,则结束对情绪识别模型的训练。
优选地,各情感维度自动标注值为对应维度预测标签和映射标签的加权平均值,其中,预测标签的加权系数为0.5,映射标签的加权系数为0.5。
按照本发明的另一方面,提供了一种一种多维度情绪识别系统,其用于执行上述任一项所述的多维度情绪识别方法。
总体而言,本发明通过训练情绪识别模型和标签映射模型,首先通过情绪识别模型预测某一生理特征在各个情感维度上的标签,又因为同一生理特征不同情感维度之间存在一定的关联,可将同一生理特征其他维度的预测标签输入标签映射模型,得到该生理特征当前维度的映射标签。在分别通过情绪识别模型和标签映射模型获得同一同理特征在同一情感维度下的预测标签和映射标签后,通过判断预测标签和映射标签的一致性程度,当一致性程度符合预设条件时,说明当前生理特征的预测结果和映射结果较好,将该生理特征筛选出来进行自动标注,并将自动标注好的数据投入训练样本继续训练情绪识别模型,提高情绪识别模型的预测精度。在本发明中,利用半监督学习自训练的方法为部分样本自动添加标注并投入训练,减少成本较高的人工标注,降低了训练情绪识别模型时的人工标注成本。
附图说明
图1是本发明一实施例中多维度情绪识别方法的步骤流程图;
图2是本发明另一实施例中多维度情绪识别方法的步骤流程图;
图3是本发明一实施例中多维度情绪识别方法的数据信息交互图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示为一实施例中多维度情绪识别方法的步骤流程图,该多维度情绪识别方法至少包括以下步骤:
步骤S100:获取第一样本集和第二样本集。
其中,所述第一样本集包括生理特征以及各生理特征在T个不同情感维度上标签,所述第二样本集包括不带标签的生理特征。其中,情感维度可以包括Valence(愉悦度)、Arousal(唤醒度)和Dominance(支配度),每个维度标注的标签值用于表示该维度情感的强度,例如Valence维度,标签数值越小,代表情绪越负面,反之则表示正面情绪。
在一实施例中,设定每个生理特征具有T个不同的情感维度,其中T≥2。第一样本集中具有NL个有标注样本,每个样本表示一个生理特征和T个情感维度的标签,第一样本集可以表示为
Figure BDA0003195965070000051
其中,i表示第i个样本,
Figure BDA0003195965070000052
表示第i个生理特征,样本的T维标签
Figure BDA0003195965070000053
分别对应第i个样本中的生理特征
Figure BDA0003195965070000054
在T个情感维度中的标签。
在一实施例中,第二样本集的样本包含NU个没有标签的样本,每个样本只包含生理特征,第二样本集可以表示为
Figure BDA0003195965070000055
i表示第i个样本,
Figure BDA0003195965070000056
表示第i个生理特征。
步骤S200:基于第一样本集训练情绪识别模型和标签映射模型。
其中,所述情绪识别模型用于预测生理特征在各个情感维度的标签,所述标签映射模型用于根据同一生理特征在其他情感维度的标签预测当前情感维度的标签。
具体的,训练情绪识别模型和训练标签映射模型是两个独立的过程,两者可以同时进行,也可以先后进行。
如图1所示,步骤S200可以拆分为
步骤S210:训练情绪识别模型。
步骤S220:训练标签映射模型。
在一实施例中,步骤S210训练情绪识别模型,具体为,基于第一样本集中的第t个情感维度的生理特征和标签训练对应第t个情感维度的情绪识别模型,获得T个情绪识别模型,1≤t≤T。具体的,针对第t个情感维度,用第一样本集中的生理特征和第t个情感维度的标签
Figure BDA0003195965070000061
训练第t个情绪识别模型ft。所述情绪识别模型用于预测生理特征在各个情感维度的标签,即,第t个情绪识别模型的输入为
Figure BDA0003195965070000062
目标输出为
Figure BDA0003195965070000063
一共得到T个情绪识别模型{f1,…,fT}。
在一实施例中,步骤S220训练标签映射模型。由于同一生理特征的不同情感维度之间是具有相互关联的,训练标签映射模型,实际是获取标签之间的映射函数。用所有的有标注数据的标签分别对每个情感维度训练对应的标签映射模型。具体地,基于除第t个情感维度之外的其他情感维度预测标签训练对应第t个情感维度的标签映射模型,获得T个标签映射模型。例如,对于第t个情感维度,标签映射模型gt的输入为
Figure BDA0003195965070000064
目标输出为
Figure BDA0003195965070000065
其中,
Figure BDA0003195965070000066
表示T个情感维度中除去第t个情感维度的标签
Figure BDA0003195965070000067
所剩的其他维度的标签。一共得到T个标签映射模型{g1,…,gT}。
步骤S300:将第二样本集输入所述情绪识别模型,获取生理特征在各情感维度上的预测标签。
当通过带标签的第一样本集训练得到标签映射模型和初始的情绪识别模型后,需将训练好的模型迁移至第二样本集以对第二样本集进行标注。
在一实施例中,在步骤S300中,将第二样本集输入所述情绪识别模型,获取生理特征在各情感维度上的预测标签,具体为:将第二样本集分别输入到T个情绪识别模型中,其中,第t个情绪识别模型生成生理特征在第t个情感维度上的预测标签。例如,针对第二样本集无标签数据XU,用{f1,…,fT}对每个样本进行预测,对于第i个生理特征
Figure BDA0003195965070000068
得到T个情感维度的对应预测标签
Figure BDA0003195965070000071
步骤S400:将同一生理特征的其他维度上的预测标签输入所述标签映射模型,获取对应生理特征在当前维度上的映射标签。
在一实施例中,对于无标签数据XU,用映射模型{g1,…,gT}对每个样本的预测标签进行映射,每个生理特征对应生成T个映射标签
Figure BDA0003195965070000072
Figure BDA0003195965070000073
其中
Figure BDA0003195965070000074
通过步骤S300和步骤S400,对于第二样本集中的同一生理特征在同一情感维度上分别生成预测标签和映射标签,继续执行:
步骤S600:分析同一生理特征在同一情感维度上获得的预测标签和映射标签的一致性程度。
通过步骤S600的分析步骤,计算预测标签和映射标签的一致性程度,便于后续筛选自动标记数据和人工标记数据。
在一实施例中,分析同一生理特征在同一情感维度上获得的预测标签和映射标签的一致性程度,具体为:
计算同一生理特征在同一情感维度上的预测标签和映射标签的绝对差值,遍历同一生理特征在T个情感维度上的T个绝对差值,判定绝对差值小于给定阈值的情感维度的预测标签和映射标签的一致性符合预设条件。
步骤S710:选取一致性符合预设条件的情感维度进行自动标注。
其中,各情感维度自动标注值为对应维度预测标签和映射标签的加权平均值。
具体的,对于符合δi,t<τ,则为样本
Figure BDA0003195965070000075
添加自动标注
Figure BDA0003195965070000076
Figure BDA0003195965070000077
并将样本-标签对
Figure BDA0003195965070000078
复制到自动标注数据子集
Figure BDA0003195965070000079
中,i=1,…,NU,其中α为用户指定参数,优选0.5,t=1,…,T。
在一实施例中,如图2所示,在步骤S600之后,还可执行
步骤S720:选择一致性程度与预设条件偏差最大的部分生理特征进行人工标注。
具体的,可对同一生理特征在T个情感维度上的T个绝对差值求乘积,以乘积结果最大的部分生理特征进行人工标注。
具体的,对于每个无标注样本计算它们在各任务上的不一致性,对于情感维度t,样本
Figure BDA0003195965070000081
的不一致性
Figure BDA0003195965070000082
通过连乘得到
Figure BDA0003195965070000083
的总不一致性
Figure BDA0003195965070000084
选择δi最大的部分样本进行人工标注。
其中,由于人工标注成本较高,可以根据标注费用预算,确定进行人工标注的数量,例如可选择k个样本进行标注,则选择总不一致性δi最大的k个样本进行人工标注,并将进行人工标注好的样本从第二样本集XU移至第一样本集XL,得到更新的第一样本集和第二样本集。
需要说明的是,步骤S710和步骤S720是两个独立的步骤,两个步骤可同时执行,也可先后执行。
步骤S800:根据新标注的数据继续训练情绪识别模型。
具体的,根据自动标注数据子集
Figure BDA0003195965070000085
继续训练情绪识别模型,得到更新后的T个情绪识别模型{f1,…,fT}用于后续的情绪识别任务。
在一实施例中,当执行了步骤S720后,在步骤S800中,训练情绪识别模型具体是根据新增人工标注的样本数据和自动标注数据子集
Figure BDA0003195965070000086
共同训练情绪识别模型,具体可以是以更新后的第一样本集和自动标注数据子集
Figure BDA0003195965070000087
共同训练情绪识别模型,得到更新后的T个情绪识别模型{f1,…,fT}用于后续的情绪识别任务。
在一实施例中,如图2所示,在结束训练之前,还会存在
步骤S510:判断当前情绪识别模型的可靠性是否符合要求。
当新获得的情绪识别模型的可靠性符合要求,结束训练,得到最终的情绪识别模型。
当新获得的情绪识别模型的可靠性不符合要求,继续获取自动标注的数据并对情绪识别模型进行迭代训练直至可靠性符合要求。进一步的,当新获得的情绪识别模型的可靠性不符合要求时,还继续执行
步骤S520:判断是否有预算进行人工标注。
当没有预算进行人工标注时,结束训练;
当有预算进行人工标注时,继续获取自动标注的数据并对情绪识别模型进行迭代训练直至可靠性符合要求。
其中,继续获取自动标注的数据并对情绪识别模型进行迭代训练直至可靠性符合要求,具体为继续执行步骤S600、步骤S710、步骤S720、步骤S800并跳转至步骤S300并重复步骤S300后续步骤。
为了便于理解本发明,以下以一具体实施例进行说明。
如图3所示,假设每一生理特征从A、B两个情感维度进行标注,准备第一样本集XL和第二样本集XU,基于第一样本集XL分别训练维度A的情绪识别模型、维度B的情绪识别模型、维度A和维度B之间的标签映射模型,将第二样本集XU分别输入维度A的情绪识别模型和维度B的情绪识别模型,生成各样本在维度A的预测标签以及各样本在维度B的预测标签。将维度A的预测标签输入标签映射模型得到维度B的映射标签,将维度B的预测标签输入标签映射模型得到维度A的映射标签。根据得到的预测标签和映射标签分析两者一致性,当绝对差小于预设值τ,则对该情感维度进行自动标注,实现半监督学习,同时,选取同一生理特征在T个情感维度上的T个绝对差值乘积结果最大的K个样本进行人工标注,实现多任务主动学习。最后通过新增标注数据继续训练情绪识别模型,获取更新后的情绪识别模型进行后续的情绪识别任务。
本发明还涉及一种多维度情绪识别系统,其特征在于,所述系统用于执行上述任一种多维度情绪识别方法,该多维度情绪识别系统的操作单元与多维度情绪识别方法的操作步骤一一对应以用于执行各个步骤。
在本发明中,本发明通过训练情绪识别模型和标签映射模型,首先通过情绪识别模型预测某一生理特征在各个情感维度上的标签,又因为同一生理特征不同情感维度之间存在一定的关联,可将同一生理特征其他维度的预测标签输入标签映射模型,得到该生理特征另一维度的映射标签。在分别通过情绪识别模型和标签映射模型获得同一同理特征在同一情感维度下的预测标签和映射标签后,通过判断预测标签和映射标签的一致性程度,当一致性程度符合预设条件时,说明当前生理特征的预测结果和映射结果较好,将该生理特征筛选出来进行自动标注,并将自动标注好的数据投入训练样本继续训练情绪识别模型,提高情绪识别模型的预测精度。在本发明中,利用半监督学习自训练的方法为部分样本自动添加标注并投入训练,减少成本较高的人工标注,降低了训练情绪识别模型时的人工标注成本。
同时,本发明还引入多任务主动学习的方法,相比单任务主动学习算法,能在多个任务上取得更均衡的性能,相比其他多任务主动学习算法,利用多个情感维度之间的内在关系,计算出无标注样本对于当前各维度情绪识别模型的信息量,并将这一指标用于指导合作学习,使得合作学习中选出的样本加上人工标注和机器标注后能最大程度提升模型性能,在给定标注预算下训练出性能更好的多维度情绪识别模型。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种多维度情绪识别方法,其特征在于,包括:
获取第一样本集和第二样本集,所述第一样本集包括生理特征以及各生理特征在T个不同情感维度上标签,所述第二样本集包括不带标签的生理特征;
基于第一样本集训练情绪识别模型和标签映射模型,所述情绪识别模型用于预测生理特征在各个情感维度的标签,所述标签映射模型用于根据同一生理特征在其他情感维度的标签预测当前情感维度的标签;
将第二样本集输入所述情绪识别模型,获取生理特征在各情感维度上的预测标签;
将同一生理特征的其他维度上的预测标签输入所述标签映射模型,获取对应生理特征在当前维度上的映射标签;
分析同一生理特征在同一情感维度上获得的预测标签和映射标签的一致性程度,选取一致性符合预设条件的情感维度进行自动标注,各情感维度自动标注值为对应维度预测标签和映射标签的加权平均值;
根据新标注的数据继续对情绪识别模型进行训练,得到最终的情绪识别模型。
2.如权利要求1所述的多维度情绪识别方法,其特征在于,所述方法还包括:选择一致性程度与预设条件偏差最大的部分生理特征进行人工标注,根据人工标注的数据继续对情绪识别模型进行训练。
3.如权利要求1所述的多维度情绪识别方法,其特征在于,还包括:
基于最终的情绪识别模型,对生理特征在不同情感维度上进行标注,并根据标注结果识别生理特征对应的情绪。
4.如权利要求1所述的多维度情绪识别方法,其特征在于,
基于第一样本集训练情绪识别模型,包括:基于第一样本集中的第t个情感维度的生理特征和标签训练对应第t个情感维度的情绪识别模型,获得T个情绪识别模型,1≤t≤T;
所述将第二样本集输入所述情绪识别模型,获取生理特征在各情感维度上的预测标签,包括:将第二样本集分别输入到T个情绪识别模型中,其中,第t个情绪识别模型生成生理特征在第t个情感维度上的预测标签。
5.如权利要求1所述的多维度情绪识别方法,其特征在于,基于第一样本集训练标签映射模型,包括:基于除第t个情感维度之外的其他情感维度预测标签训练对应第t个情感维度的标签映射模型,获得T个标签映射模型,1≤t≤T。
6.如权利要求1所述的多维度情绪识别方法,其特征在于,分析同一生理特征在同一情感维度上获得的预测标签和映射标签的一致性程度,包括:
计算同一生理特征在同一情感维度上的预测标签和映射标签的绝对差值;
遍历同一生理特征在T个情感维度上的T个绝对差值,判定绝对差值小于给定阈值的情感维度的预测标签和映射标签的一致性符合预设条件。
7.如权利要求2所述的多维度情绪识别方法,其特征在于,选择一致性程度与预设条件偏差最大的部分生理特征进行人工标注,包括:
计算同一生理特征在同一情感维度上的预测标签和映射标签的绝对差值;
对同一生理特征在T个情感维度上T个绝对差值求乘积,以乘积结果最大的部分生理特征进行人工标注。
8.如权利要求2所述的多维度情绪识别方法,其特征在于,根据新标注的数据继续对情绪识别模型进行训练,得到最终的情绪识别模型,包括:
根据新标注的数据继续对情绪识别模型进行训练;
判断新获得的情绪识别模型的可靠性是否符合要求;
当新获得的情绪识别模型的可靠性符合要求,结束训练,得到最终的情绪识别模型;否则,判断是否有预算进行人工标注,若有预算,则继续获取自动标注和人工标注的数据并对情绪识别模型进行迭代训练直至可靠性符合要求,若无预算,则结束对情绪识别模型的训练。
9.如权利要求1所述的多维度情绪识别方法,其特征在于,各情感维度自动标注值为对应维度预测标签和映射标签的加权平均值,其中,预测标签的加权系数为0.5,映射标签的加权系数为0.5。
10.一种多维度情绪识别系统,其特征在于,所述系统用于执行权利要求1至9任一项所述的多维度情绪识别方法。
CN202110890792.4A 2021-08-04 2021-08-04 一种多维度情绪识别方法及系统 Active CN113780341B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110890792.4A CN113780341B (zh) 2021-08-04 2021-08-04 一种多维度情绪识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110890792.4A CN113780341B (zh) 2021-08-04 2021-08-04 一种多维度情绪识别方法及系统

Publications (2)

Publication Number Publication Date
CN113780341A true CN113780341A (zh) 2021-12-10
CN113780341B CN113780341B (zh) 2024-02-06

Family

ID=78836814

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110890792.4A Active CN113780341B (zh) 2021-08-04 2021-08-04 一种多维度情绪识别方法及系统

Country Status (1)

Country Link
CN (1) CN113780341B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190042952A1 (en) * 2017-08-03 2019-02-07 Beijing University Of Technology Multi-task Semi-Supervised Online Sequential Extreme Learning Method for Emotion Judgment of User
WO2021068783A1 (zh) * 2019-10-12 2021-04-15 广东电网有限责任公司电力科学研究院 一种情绪识别方法、装置和设备
CN112656427A (zh) * 2020-11-26 2021-04-16 山西大学 一种基于维度模型的脑电信号情绪识别方法
CN112949708A (zh) * 2021-02-26 2021-06-11 平安科技(深圳)有限公司 情绪识别方法、装置、计算机设备和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190042952A1 (en) * 2017-08-03 2019-02-07 Beijing University Of Technology Multi-task Semi-Supervised Online Sequential Extreme Learning Method for Emotion Judgment of User
WO2021068783A1 (zh) * 2019-10-12 2021-04-15 广东电网有限责任公司电力科学研究院 一种情绪识别方法、装置和设备
CN112656427A (zh) * 2020-11-26 2021-04-16 山西大学 一种基于维度模型的脑电信号情绪识别方法
CN112949708A (zh) * 2021-02-26 2021-06-11 平安科技(深圳)有限公司 情绪识别方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN113780341B (zh) 2024-02-06

Similar Documents

Publication Publication Date Title
CN110796190B (zh) 具有深度学习特征的指数建模
KR102071582B1 (ko) 딥 뉴럴 네트워크(Deep Neural Network)를 이용하여 문장이 속하는 클래스(class)를 분류하는 방법 및 장치
CN110609891A (zh) 一种基于上下文感知图神经网络的视觉对话生成方法
CN111191791A (zh) 机器学习模型的应用方法、训练方法、装置、设备及介质
US11887215B2 (en) Image processing apparatus and method for style transformation
CN110148318A (zh) 一种数字助教系统、信息交互方法和信息处理方法
CN111695779A (zh) 一种知识追踪方法、装置及存储介质
CN110569356B (zh) 基于智能面试交互系统的面试方法、装置和计算机设备
CN113139664B (zh) 一种跨模态的迁移学习方法
CN115687610A (zh) 文本意图分类模型训练方法、识别方法、装置、电子设备及存储介质
CN110705490A (zh) 视觉情感识别方法
CN115511069A (zh) 神经网络的训练方法、数据处理方法、设备及存储介质
CN111984780A (zh) 多意图识别模型训练方法和多意图识别方法及相关装置
Somogyi The Application of Artificial Intelligence
US20210319269A1 (en) Apparatus for determining a classifier for identifying objects in an image, an apparatus for identifying objects in an image and corresponding methods
KR102559590B1 (ko) 신경망의 불확실성에 기반한 지식 증강 방법 및 장치
CN113780341A (zh) 一种多维度情绪识别方法及系统
CN113591988B (zh) 知识认知结构分析方法、系统、计算机设备、介质、终端
CN114529191A (zh) 用于风险识别的方法和装置
CN114239565A (zh) 一种基于深度学习的情绪原因识别方法及系统
CN112328774A (zh) 基于多文档的任务型人机对话任务的实现方法
Gupta et al. Fuzzy system for facial emotion recognition
CN116991982B (zh) 基于人工智能的交互式对话方法、装置、设备及存储介质
Kaur et al. Machine Learning and its Applications-A Review Study
CN112837701B (zh) 基于多分类器交互学习的语音情感识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant