CN116935480B - 一种情绪识别方法及装置 - Google Patents

一种情绪识别方法及装置 Download PDF

Info

Publication number
CN116935480B
CN116935480B CN202311197822.9A CN202311197822A CN116935480B CN 116935480 B CN116935480 B CN 116935480B CN 202311197822 A CN202311197822 A CN 202311197822A CN 116935480 B CN116935480 B CN 116935480B
Authority
CN
China
Prior art keywords
emotion recognition
recognition result
emotion
data
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311197822.9A
Other languages
English (en)
Other versions
CN116935480A (zh
Inventor
王亚楠
罗莉
包国栋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Tiandi Honghua Navigation Equipment Co ltd
Original Assignee
Sichuan Tiandi Honghua Navigation Equipment Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Tiandi Honghua Navigation Equipment Co ltd filed Critical Sichuan Tiandi Honghua Navigation Equipment Co ltd
Priority to CN202311197822.9A priority Critical patent/CN116935480B/zh
Publication of CN116935480A publication Critical patent/CN116935480A/zh
Application granted granted Critical
Publication of CN116935480B publication Critical patent/CN116935480B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Abstract

本发明提供了一种情绪识别方法及装置,属于人工智能技术领域,通过将第二情绪识别模型根据第一眼部情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的至少两者进行运算,可以融合同一时刻用户的语言表达、面部表情表达、眼神表达所蕴含的情绪信息,有助于避免用户本人自身有意无意的主观表达修饰所导致的情绪识别错误,提高情绪识别的准确度。

Description

一种情绪识别方法及装置
技术领域
本发明涉及人工智能技术领域,尤其是涉及一种情绪识别方法及装置。
背景技术
人类情感在人们的社会交往中发挥着重要作用,情感计算成为人机交互、人工智能的最重要研究领域之一。
现有的情绪健康分析方法和分析系统是多种多样的,包括基于人脸表情的情绪识别方法、基于语音的情绪识别方法、基于文字的情绪分析方法等,但这些情绪分析识别系统多数是基于其中一种或两种情绪特征而构建的情感识别模型。研究表明:人的情绪和心理压力是一种综合因素表征的结果,仅仅通过人脸识别、语音识别、文字识别中的一种或两种对人情绪和心理压力进行判定,其结果易造成误判;当前方法研究开发的情绪心理压力诊断或治疗系统,情绪心理压力准确率低,不能够提供良好的用户体验。
有鉴于此,需要对现有技术进行改进,因此提出本发明。
发明内容
针对现有技术存在的以上问题,本发明提供了一种情绪识别方法及装置,目的是为了解决以上问题中的至少一个,以提高情绪识别的精度。
第一方面,本发明提供一种情绪识别方法,包括:
根据外部指令,采集用户当前情绪数据;
根据用户当前情绪数据和预先训练的情绪识别模型,确定用户当前的情绪识别结果;
其中,采集用户当前情绪数据包括采集用户当前的语音交互数据、面部表情数据和眼动数据;
预先训练的情绪识别模型包括基于语音交互数据、面部表情数据和眼动数据进行训练的第一情绪识别模型,以及基于第一情绪识别模型输出的第一情绪识别结果进行再次训练的第二情绪识别模型;
其中,第一情绪识别模型包括基于语音交互数据进行训练的第一语言情绪识别模型、基于面部表情数据进行训练的第一面部情绪识别模型、基于眼动数据进行训练的第一眼部情绪识别模型;第一情绪识别结果包括第一语言情绪识别模型输出的第一语言情绪识别结果、第一面部情绪识别模型输出的第一面部情绪识别结果以及第一眼部情绪识别模型输出的第一眼部情绪识别结果;第二情绪识别模型根据第一眼部情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的至少两者进行训练。
进一步地,采集用户当前情绪数据,包括:采集用户当前的人机语音交互数据;采集用户当前的面部表情数据;采集用户当前的眼动数据。
进一步地,第一情绪识别模型和第二情绪识别模型均采用深度学习方法。
进一步地,第一语言情绪识别模型根据所采集的语音交互数据,进行语义分析,进而获得估计的第一语言情绪识别结果。
进一步地,第一面部情绪识别模型根据所采集的面部表情数据,进而获得估计的第一面部情绪识别结果。
进一步地,第二情绪识别模型根据第一眼部情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的至少两者进行训练,包括:
当第一语言情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的任一项情绪识别结果的准确度低于预设阈值时,则不采信该项情绪识别结果,采用剩余两项情绪识别结果作为第二情绪识别模型的输入;
当第一语言情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的两项及以上的情绪识别结果的准确度低于预设阈值时,则不采信当前的情绪数据,重新采集用户的情绪数据用于下一次确定用户当前的情绪识别结果。
第二方面,本发明还提供一种情绪识别装置,包括:
采集模块,用于根据外部指令,采集用户当前情绪数据;
估算模块,用于根据用户当前情绪数据和预先训练的情绪识别模型,确定用户当前的情绪识别结果;
其中,采集用户当前情绪数据包括采集用户当前的语音交互数据、面部表情数据和眼动数据;
预先训练的情绪识别模型包括基于语音交互数据、面部表情数据和眼动数据进行训练的第一情绪识别模型,以及基于第一情绪识别模型输出的第一情绪识别结果进行再次训练的第二情绪识别模型;
其中,第一情绪识别模型包括基于语音交互数据进行训练的第一语言情绪识别模型、基于面部表情数据进行训练的第一面部情绪识别模型、基于眼动数据进行训练的第一眼部情绪识别模型;第一情绪识别结果包括第一语言情绪识别模型输出的第一语言情绪识别结果、第一面部情绪识别模型输出的第一面部情绪识别结果以及第一眼部情绪识别模型输出的第一眼部情绪识别结果;第二情绪识别模型根据第一眼部情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的至少两者进行训练。
与现有技术相比,本发明至少具有以下有益效果:
由于情绪是受多方面因素的影响,与现有技术中单独基于语音、面部表情、或眼神等单模态信息情绪估计结果相比,本发明的技术方案融合了语言、面部表情、眼动的信息来评估用户的当前情绪,可以提供更加接近用户的真实情绪识别结果,提高了用户情绪识别的准确度。
通过将第二情绪识别模型根据第一眼部情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的至少两者进行训练,如此设置,可极大地避免上述单模态信息情绪识别结果不稳定、不可靠的问题,进而极大地提高情绪识别的准确性。
具体实施方式
下面将结合本发明实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一:
本发明提供一种情绪识别方法,包括:
根据外部指令,采集用户当前情绪数据;
根据用户当前情绪数据和预先训练的情绪识别模型,确定用户当前的情绪识别结果。
在上述步骤中,所述外部指令来自用户本人所授权的情绪识别指令。如此设置,只有在用户授权后、接收到外部指令要求的情况下启动情绪识别,开始采集用户当前情绪数据,可以消除用户对隐私数据泄露的顾虑,最大程度上保护用户隐私,提高用户体验。
进一步地,采集用户当前情绪数据包括采集用户当前的语音交互数据、面部表情数据和眼动数据。第一方面,人脸部的表情包含着非常丰富的表现人体行为的信息,是人们表达其个人情绪的一种重要表现形式,也是人类进行非语言形式交流的一种有效方式。人们可以通过对别人脸部表情的判断来理解对方的心理活动,也可以通过脸部的表情表达出自己的思想情感。据统计,人类情感的表达绝大部分直接可直接体现在面部表情上,其次是眼神,最后才是语言表达,由此可见面部表情在情感表达上所占重要的地位。第二方面,眼睛是心灵的窗户,眼神所传达的信息能真实地反映出人们当前的情绪状态,相应地,眼动信号是人对于客观刺激的直接主观表达,可以直接反映人们的情绪状态的变化。第三方面,语言可以反映人们的情绪状态,但语言也容易被修饰而隐藏人们的真实情绪,同时语言在特定语境下的语义也是相当丰富的,通过人机交互引导用户在特定语境下的对话来获取用户当前的语音交互数据可以作为面部表情数据、眼动数据的有效补充。如此设置,由于情绪是受多方面因素的影响,与现有技术中单独基于语音、面部表情、或眼神等单模态信息情绪估计结果相比,本发明的技术方案融合了语言、面部表情、眼动的信息来评估用户的当前情绪,可以提供更加接近用户的真实情绪识别结果,提高了用户情绪识别的精度。
进一步地,预先训练的情绪识别模型包括基于语音交互数据、面部表情数据和眼动数据进行训练的第一情绪识别模型,以及基于第一情绪识别模型输出的第一情绪识别结果进行再次训练的第二情绪识别模型;
其中,第一情绪识别模型包括基于语音交互数据进行训练的第一语言情绪识别模型、基于面部表情数据进行训练的第一面部情绪识别模型、基于眼动数据进行训练的第一眼部情绪识别模型;第一情绪识别结果包括第一语言情绪识别模型输出的第一语言情绪识别结果、第一面部情绪识别模型输出的第一面部情绪识别结果以及第一眼部情绪识别模型输出的第一眼部情绪识别结果;第二情绪识别模型根据第一眼部情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的至少两者进行训练。
进一步地,采集用户当前情绪数据,包括:
采集用户当前的人机语音交互数据;例如,一方面,通过移动智能设备如移动手机的扬声器来与用户进行互动,传递引导用户在特定语境下的对话;另一方面,通过移动手机的麦克风来记录用户相应的语音数据,以便用于后续的情绪识别。
采集用户当前的面部表情数据;例如,可通过移动智能设备如移动手机的摄像头实时采集用户的面部表情数据,当然,也可以通过其他可采集用户面部表情数据的设备,此处不做限制。
采集用户当前的眼动数据,例如,可通过移动智能设备如移动手机的摄像头实时采集用户的面部表情数据,当然,也可以通过其他可采集用户面部表情数据的设备,此处不做限制。
进一步地,第一情绪识别模型和第二情绪识别模型均采用深度学习方法。深度学习方法具有智能性,且通过大量用户的语言、面部表情、眼动数据训练、学习后,基于语言、面部表情、眼动的单模态情绪识别准确度已可达80%以上。在本实施例中,第二情绪识别模型可以采用多模态神经网络模型。
进一步地,第一语言情绪识别模型根据所采集的语音交互数据,进行语义分析,进而获得估计的第一语言情绪识别结果。在本实施例中,第一语言情绪识别模型可采用循环神经网络(RNN)、长短期记忆神经网络(LSTM)等,第一语言情绪识别模型的输入层数据为人机语音交互数据,包括用户的语音数据和与用户互动的机器互动数据,输出层为第一语言情绪识别结果,包括高兴、惊讶、厌恶、恐惧、愤怒、悲伤。
进一步地,第一面部情绪识别模型根据所采集的面部表情数据,进而获得估计的第一面部情绪识别结果。人脸表情包含了丰富的表达人类情感的信息,人们可以通过人脸的表情来判断一个人的状态和心理活动;在医疗领域,可以通过对病人的表情监测来判断病人是否有了疼痛,面瘫患者诊断;在计算机图形学中,利用表情参数对虚拟人物的面部表情变化进行控制;还可以将其应用于开发娱乐产品。表情识别主要分为以下几个步骤:数据输入、预处理、特征提取、特征降维、分类识别;具体而言,首先需要准备训练所需的表情数据,表情数据由摄像头等设备采集得到;例如采用移动手机对准用户面部进行视频录制;在获得表情数据之后,需先对视频数据的每一帧图片进行灰度化预处理,之后再进行特征提取,建立具有良好的可判别性的表情特征,如采用局部二值模式特征算子提取图像局部纹理特征,其计算简单且效果好;之后再进行特征降维以减少运算量,最后训练分类器,得出人脸表情识别模型。在本实施例中,可以选用主成分分析方法作为特征降维算法,可以选取残差网络、带注意力模型的卷积神经网络、或支持向量机作为情绪分类器。第一面部情绪识别模型的输入层数据为面部表情数据,输出层为第一面部情绪识别结果,包括高兴、惊讶、厌恶、恐惧、愤怒、悲伤。
进一步地,第一眼部情绪识别模型根据所采集的眼动数据,进而获得估计的第一眼部情绪识别结果。在人机交互中,眼动信号被认为是研究用户行为和认知的重要方法,研究结果表明,在情绪消极和积极的刺激下,瞳孔大小明显大于中性刺激,这说明自主神经系统对高度唤起的情绪刺激很敏感。此外,在中性刺激物引起听觉刺激的情况下,女性受试者的瞳孔反应明显大于男性。因此,系统选择的刺激会显着影响受试者的生理反应和主观体验,在情感计算中,可以使用瞳孔大小变化、注视时间、眼跳、眨眼作为计算机输入信号。在本实施例中,第一眼部情绪识别模型可采用循环神经网络(RNN)、长短期记忆神经网络(LSTM)等,第一眼部情绪识别模型的输入层数据为眼动数据,包括瞳孔大小、注视时间、眼跳次数、眨眼次数等数据,输出层为第一眼动情绪识别结果,包括高兴、惊讶、厌恶、恐惧、愤怒、悲伤。
如前所述,现有技术中,单独基于语音、面部表情、或眼神等单模态信息情绪估计结果往往由于用户本人自身有意无意的主观表达修饰以及单项较大的测试误差导致单模态信息情绪识别结果往往随机性较大,基于此,进一步地,将第二情绪识别模型根据第一眼部情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的至少两者进行训练,如此设置,可极大地避免上述单模态信息情绪识别结果不稳定、不可靠的问题,进而极大地提高情绪识别的准确性。具体来说,可基于机器大量学习结果得出语言情绪识别结果、面部情绪识别结果以及眼部情绪识别结果各自的预设阈值用于滤除主要由测试误差所带来的随机性;基于此,当第一语言情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的任一项情绪识别结果的准确度低于预设阈值时,表明该项情绪识别结果的测试误差高,则不采信该项情绪识别结果,采用剩余两项情绪识别结果作为第二情绪识别模型的输入;当第一语言情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的两项及以上的情绪识别结果的准确度低于预设阈值时,则不采信当前的情绪数据,重新采集用户的情绪数据用于下一次确定用户当前的情绪识别结果。另一方面,与输入层为语音数据、面部表情数据、眼动数据,输出层为表情识别结果的单级深度学习模型相比,两级深度学习模型由于可以极大程度上避免由于某一类型数据自身采集误差所导致的较大最终情绪识别结果偏差,同时,两级深度学习模型所需的训练样本量更少、学习时长更短,效率和精度都更高。
当将第一语言情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果作为第二情绪识别模型的输入数据时,可以根据用户个性人为设置三项情绪识别结果的初始权重,第一面部情绪识别结果、第一眼部情绪识别结果、第一语言情绪识别结果的权重分配依次下降,具体而言,第一面部情绪识别结果、第一眼部情绪识别结果、第一语言情绪识别结果的权重配比为55: 34: 11。
通过将第二情绪识别模型根据第一眼部情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的至少两者进行运算,可以融合同一时刻用户的语言表达、面部表情表达、眼神表达所蕴含的情绪信息,有助于避免用户本人自身有意无意的主观表达修饰所导致的情绪识别错误,提高情绪识别的准确度。
实施例二:
对应于上述实施例一,本发明还提供一种情绪识别装置,包括:
采集模块,用于根据外部指令,采集用户当前情绪数据;所述采集模块具体而言可以是具有麦克风、扬声器和摄像头的设备,既可以是集成上述功能的单一设备,如智能移动手机;也可以是分立的设备。
估算模块,用于根据用户当前情绪数据和预先训练的情绪识别模型,确定用户当前的情绪识别结果;
其中,采集用户当前情绪数据包括采集用户当前的语音交互数据、面部表情数据和眼动数据;
预先训练的情绪识别模型包括基于语音交互数据、面部表情数据和眼动数据进行训练的第一情绪识别模型,以及基于第一情绪识别模型输出的第一情绪识别结果进行再次训练的第二情绪识别模型;
其中,第一情绪识别模型包括基于语音交互数据进行训练的第一语言情绪识别模型、基于面部表情数据进行训练的第一面部情绪识别模型、基于眼动数据进行训练的第一眼部情绪识别模型;第一情绪识别结果包括第一语言情绪识别模型输出的第一语言情绪识别结果、第一面部情绪识别模型输出的第一面部情绪识别结果以及第一眼部情绪识别模型输出的第一眼部情绪识别结果;第二情绪识别模型根据第一眼部情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的至少两者进行训练。
最后,还需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或者操作区分开来,而不一定要求或者暗示这些实体或者操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (6)

1.一种情绪识别方法,其特征在于,包括:
根据外部指令,采集用户当前情绪数据;所述外部指令来自用户本人所授权的情绪识别指令;
根据用户当前情绪数据和预先训练的情绪识别模型,确定所述用户当前的情绪识别结果;
其中,所述采集用户当前情绪数据包括采集用户当前的语音交互数据、面部表情数据和眼动数据;
所述预先训练的情绪识别模型包括基于语音交互数据、面部表情数据和眼动数据进行训练的第一情绪识别模型,以及基于第一情绪识别模型输出的第一情绪识别结果进行运算的第二情绪识别模型;
其中,所述第一情绪识别模型包括基于语音交互数据进行训练的第一语言情绪识别模型、基于面部表情数据进行训练的第一面部情绪识别模型、基于眼动数据进行训练的第一眼部情绪识别模型;所述第一情绪识别结果包括第一语言情绪识别模型输出的第一语言情绪识别结果、第一面部情绪识别模型输出的第一面部情绪识别结果以及第一眼部情绪识别模型输出的第一眼部情绪识别结果;所述第二情绪识别模型根据第一眼部情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的至少两者进行运算;
所述第二情绪识别模型根据第一眼部情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的至少两者进行运算,包括:
当第一语言情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的任一项情绪识别结果的准确度低于预设阈值时,则不采信该项情绪识别结果,采用剩余两项情绪识别结果作为所述第二情绪识别模型的输入;
当第一语言情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的两项及以上的情绪识别结果的准确度低于预设阈值时,则不采信当前的情绪数据,重新采集用户的情绪数据用于下一次确定所述用户当前的情绪识别结果;第一面部情绪识别结果、第一眼部情绪识别结果、第一语言情绪识别结果的权重配比为55: 34: 11。
2.根据权利要求1所述的方法,其特征在于,所述采集用户当前情绪数据,包括:采集用户当前的人机语音交互数据;采集用户当前的面部表情数据;采集用户当前的眼动数据。
3.根据权利要求1所述的方法,其特征在于,所述第一情绪识别模型和第二情绪识别模型均采用深度学习方法。
4.根据权利要求1所述的方法,其特征在于,所述第一语言情绪识别模型根据所采集的语音交互数据,进行语义分析,进而获得估计的第一语言情绪识别结果。
5.根据权利要求1所述的方法,其特征在于,所述第一面部情绪识别模型根据所采集的面部表情数据,进而获得估计的第一面部情绪识别结果。
6.一种情绪识别装置,其特征在于,包括:
采集模块,用于根据外部指令,采集用户当前情绪数据;所述外部指令来自用户本人所授权的情绪识别指令;
估算模块,用于根据用户当前情绪数据和预先训练的情绪识别模型,确定所述用户当前的情绪识别结果;
其中,所述采集用户当前情绪数据包括采集用户当前的语音交互数据、面部表情数据和眼动数据;
所述预先训练的情绪识别模型包括基于语音交互数据、面部表情数据和眼动数据进行训练的第一情绪识别模型,以及基于第一情绪识别模型输出的第一情绪识别结果进行运算的第二情绪识别模型;
其中,所述第一情绪识别模型包括基于语音交互数据进行训练的第一语言情绪识别模型、基于面部表情数据进行训练的第一面部情绪识别模型、基于眼动数据进行训练的第一眼部情绪识别模型;所述第一情绪识别结果包括第一语言情绪识别模型输出的第一语言情绪识别结果、第一面部情绪识别模型输出的第一面部情绪识别结果以及第一眼部情绪识别模型输出的第一眼部情绪识别结果;所述第二情绪识别模型根据第一眼部情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的至少两者进行运算;
所述第二情绪识别模型根据第一眼部情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的至少两者进行运算,包括:
当第一语言情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的任一项情绪识别结果的准确度低于预设阈值时,则不采信该项情绪识别结果,采用剩余两项情绪识别结果作为所述第二情绪识别模型的输入;
当第一语言情绪识别结果、第一面部情绪识别结果以及第一眼部情绪识别结果中的两项及以上的情绪识别结果的准确度低于预设阈值时,则不采信当前的情绪数据,重新采集用户的情绪数据用于下一次确定所述用户当前的情绪识别结果;
第一面部情绪识别结果、第一眼部情绪识别结果、第一语言情绪识别结果的权重配比为55: 34: 11。
CN202311197822.9A 2023-09-18 2023-09-18 一种情绪识别方法及装置 Active CN116935480B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311197822.9A CN116935480B (zh) 2023-09-18 2023-09-18 一种情绪识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311197822.9A CN116935480B (zh) 2023-09-18 2023-09-18 一种情绪识别方法及装置

Publications (2)

Publication Number Publication Date
CN116935480A CN116935480A (zh) 2023-10-24
CN116935480B true CN116935480B (zh) 2023-12-29

Family

ID=88384733

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311197822.9A Active CN116935480B (zh) 2023-09-18 2023-09-18 一种情绪识别方法及装置

Country Status (1)

Country Link
CN (1) CN116935480B (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106469297A (zh) * 2016-08-31 2017-03-01 北京小米移动软件有限公司 情绪识别方法、装置和终端设备
CN106570496A (zh) * 2016-11-22 2017-04-19 上海智臻智能网络科技股份有限公司 情绪识别方法和装置以及智能交互方法和设备
CN107220591A (zh) * 2017-04-28 2017-09-29 哈尔滨工业大学深圳研究生院 多模态智能情绪感知系统
CN108805089A (zh) * 2018-06-14 2018-11-13 南京云思创智信息科技有限公司 基于多模态的情绪识别方法
CN109308466A (zh) * 2018-09-18 2019-02-05 宁波众鑫网络科技股份有限公司 一种对交互语言进行情绪识别的方法
WO2019033573A1 (zh) * 2017-08-17 2019-02-21 平安科技(深圳)有限公司 面部情绪识别方法、装置及存储介质
CN110464366A (zh) * 2019-07-01 2019-11-19 华南师范大学 一种情绪识别方法、系统及存储介质
WO2020135194A1 (zh) * 2018-12-26 2020-07-02 深圳Tcl新技术有限公司 基于情绪引擎技术的语音交互方法、智能终端及存储介质
CN111564164A (zh) * 2020-04-01 2020-08-21 中国电力科学研究院有限公司 一种多模态情感识别方法及装置
CN112256124A (zh) * 2020-09-25 2021-01-22 北京师范大学 基于情绪的操控工效分析方法、设备及系统
CN114463827A (zh) * 2022-04-12 2022-05-10 之江实验室 一种基于ds证据理论的多模态实时情绪识别方法及系统
CN114504320A (zh) * 2022-02-24 2022-05-17 深圳市必爱智能生命科技有限公司 一种基于多模态情感人工智能的认知定量检测机
CN115349860A (zh) * 2022-07-13 2022-11-18 华南理工大学 一种多模态情绪识别方法、系统、设备及介质
CN115641543A (zh) * 2022-12-26 2023-01-24 北京科技大学 一种多模态抑郁情绪识别方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11017239B2 (en) * 2018-02-12 2021-05-25 Positive Iq, Llc Emotive recognition and feedback system
KR102252195B1 (ko) * 2018-09-14 2021-05-13 엘지전자 주식회사 감성 인식기 및 이를 포함하는 로봇, 서버

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106469297A (zh) * 2016-08-31 2017-03-01 北京小米移动软件有限公司 情绪识别方法、装置和终端设备
CN106570496A (zh) * 2016-11-22 2017-04-19 上海智臻智能网络科技股份有限公司 情绪识别方法和装置以及智能交互方法和设备
CN107220591A (zh) * 2017-04-28 2017-09-29 哈尔滨工业大学深圳研究生院 多模态智能情绪感知系统
WO2019033573A1 (zh) * 2017-08-17 2019-02-21 平安科技(深圳)有限公司 面部情绪识别方法、装置及存储介质
CN108805089A (zh) * 2018-06-14 2018-11-13 南京云思创智信息科技有限公司 基于多模态的情绪识别方法
CN109308466A (zh) * 2018-09-18 2019-02-05 宁波众鑫网络科技股份有限公司 一种对交互语言进行情绪识别的方法
WO2020135194A1 (zh) * 2018-12-26 2020-07-02 深圳Tcl新技术有限公司 基于情绪引擎技术的语音交互方法、智能终端及存储介质
CN110464366A (zh) * 2019-07-01 2019-11-19 华南师范大学 一种情绪识别方法、系统及存储介质
CN111564164A (zh) * 2020-04-01 2020-08-21 中国电力科学研究院有限公司 一种多模态情感识别方法及装置
CN112256124A (zh) * 2020-09-25 2021-01-22 北京师范大学 基于情绪的操控工效分析方法、设备及系统
CN114504320A (zh) * 2022-02-24 2022-05-17 深圳市必爱智能生命科技有限公司 一种基于多模态情感人工智能的认知定量检测机
CN114463827A (zh) * 2022-04-12 2022-05-10 之江实验室 一种基于ds证据理论的多模态实时情绪识别方法及系统
CN115349860A (zh) * 2022-07-13 2022-11-18 华南理工大学 一种多模态情绪识别方法、系统、设备及介质
CN115641543A (zh) * 2022-12-26 2023-01-24 北京科技大学 一种多模态抑郁情绪识别方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
An Emotion Recognition Method Based on Eye Movement and Audiovisual Features in MOOC Learning Environment;Jindi Bao等;《IEEE Transactions on Computational Social Systems ( Early Access )》;1-13 *
人工智能语境下的情感交互设计;颜洪;刘佳慧;覃京燕;;包装工程(06);13-19 *
结合人脸图像和脑电的情绪识别技术;黄泳锐;杨健豪;廖鹏凯;潘家辉;;计算机系统应用(02);9-15 *

Also Published As

Publication number Publication date
CN116935480A (zh) 2023-10-24

Similar Documents

Publication Publication Date Title
Vinola et al. A survey on human emotion recognition approaches, databases and applications
CN109769099B (zh) 通话人物异常的检测方法和装置
US9031293B2 (en) Multi-modal sensor based emotion recognition and emotional interface
CN104871160B (zh) 用于感觉和认知剖析的系统和方法
Yang et al. Predicting Arousal and Valence from Waveforms and Spectrograms Using Deep Neural Networks.
CN112120716A (zh) 一种可穿戴式多模态情绪状态监测装置
CN107220591A (zh) 多模态智能情绪感知系统
KR100750662B1 (ko) 심전도를 이용한 생체인식 시스템 및 방법
CN113537005B (zh) 一种基于姿态估计的线上考试学生行为分析方法
CN109658923A (zh) 基于人工智能的语音质检方法、设备、存储介质及装置
JP2017156854A (ja) 感情分類によって文脈意味の理解精度を高める発話意味分析プログラム、装置及び方法
US20190074012A1 (en) Methods and Apparatus for Silent Speech Interface
Mikhail et al. Using minimal number of electrodes for emotion detection using brain signals produced from a new elicitation technique
CN111368053B (zh) 基于法律咨询机器人的情绪安抚系统
KR102152500B1 (ko) 발달장애 아동 언어치료 방법 및 장치
CN112766173A (zh) 一种基于ai深度学习的多模态情感分析方法及其系统
CN107437052A (zh) 基于微表情识别的相亲满意度计算方法和系统
CN111000556A (zh) 一种基于深度模糊森林的情绪识别方法
Petrantonakis et al. EEG-based emotion recognition using hybrid filtering and higher order crossings
CN116188642A (zh) 交互方法、装置、机器人和存储介质
CN116313087A (zh) 一种孤独症患者心理状态识别方法与装置
Savadi et al. Face based automatic human emotion recognition
CN116935480B (zh) 一种情绪识别方法及装置
Ringeval et al. On the influence of emotional feedback on emotion awareness and gaze behavior
WO2020175969A1 (ko) 감정 인식 장치 및 감정 인식 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant