CN110046580A - 一种基于情绪识别的人机交互方法及系统 - Google Patents
一种基于情绪识别的人机交互方法及系统 Download PDFInfo
- Publication number
- CN110046580A CN110046580A CN201910311948.1A CN201910311948A CN110046580A CN 110046580 A CN110046580 A CN 110046580A CN 201910311948 A CN201910311948 A CN 201910311948A CN 110046580 A CN110046580 A CN 110046580A
- Authority
- CN
- China
- Prior art keywords
- user
- information
- face
- recognition
- emotional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 47
- 230000008451 emotion Effects 0.000 title claims abstract description 37
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000002996 emotional effect Effects 0.000 claims abstract description 80
- 230000004044 response Effects 0.000 claims abstract description 55
- 238000013528 artificial neural network Methods 0.000 claims abstract description 14
- 210000001097 facial muscle Anatomy 0.000 claims description 12
- 230000036651 mood Effects 0.000 claims description 11
- 230000014509 gene expression Effects 0.000 claims description 8
- 230000002452 interceptive effect Effects 0.000 claims 7
- 206010027951 Mood swings Diseases 0.000 claims 2
- 206010016275 Fear Diseases 0.000 claims 1
- 238000003457 Shi epoxidation reaction Methods 0.000 claims 1
- 230000008909 emotion recognition Effects 0.000 abstract description 17
- 230000001815 facial effect Effects 0.000 description 10
- 230000035939 shock Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Collating Specific Patterns (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于情绪识别的人机交互方法和系统,所述方法包括:实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息;根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。本发明通过结合虹膜识别技术和人脸图像处理技术,使得机器人能够高效识别用户的情绪并针对不同情绪给予不同的响应,达到满足用户特定时刻的情感需求的目的。
Description
技术领域
本发明涉及人工智能领域,具体涉及一种基于情绪识别的人机交互方法及系统。
背景技术
情绪识别是指研究一个自动、高效、准确的系统来识别人脸表情的状态,进而通过人脸表情信息了解人的情绪状态,比如高兴、悲伤、惊讶、愤怒等。该研究在人机交互、人工智能等方面有着重要的应用价值,是当前计算机视觉、模式识别、情感计算等领域的重要研究课题。
但是,在对现有技术的研究与实践过程中,本发明的发明人发现,在需要进行人机交互的技术领域,尤其是机器人技术上,通常需要能够对人的情感进行分析,使得机器人能够针对人不同的情绪给予不同的回应,但现有的人机交互技术仅仅考虑到识别人类的人脸特征,以此判断人的不同身份,而未有进一步实现机器与人进行人机互动、情绪交流的功能,因此现有人机交互技术亟待一种能够有效识别人的情绪的技术手段。
发明内容
本发明实施例所要解决的技术问题在于,提供一种基于情绪识别的人机交互方法及系统,使得机器人能够高效识别用户的情绪并针对不同情绪给予不同的响应。
为解决上述问题,本发明的一个实施例提供一种基于情绪识别的人机交互方法,至少包括如下步骤:
实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;
将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息;
根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。
进一步地,所述基于情绪识别的人机交互方法,还包括:
在给予用户对应的响应后,再次采集用户的图像并识别用户的情绪状态,分析用户的情绪状态是否变化,记录并储存反馈数据和分析结果。
进一步地,调整对应的情绪交互模式以使机器人给予用户对应的响应,具体为:
通过机器人的语音聊天和动作给予用户相关响应,并利用显示装置显示用户当前的情绪状态、情绪波动曲线以及机器人响应用户情绪的表情。
进一步地,所述人脸识别信息包括虹膜信息、人脸皮肤信息、五官信息以及脸部肌肉信息。
进一步地,所述将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果,具体为:
通过分析所采集的虹膜信息,得到用户的身份个性特征信息;
通过分析所采集的人脸皮肤信息,得到用户的年龄信息;
通过分析所采集的五官信息和脸部肌肉信息,得到用户当前的情绪信息。
进一步地,所述情绪状态包括喜、怒、忧、思、悲、恐和惊。
本发明的另一个实施例还提供了一种基于情绪识别的人机交互系统,包括:
采集模块,用于实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;
人脸识别模块,用于将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息;
响应模块,用于根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。
进一步地,所述基于情绪识别的人机交互系统,还包括:
数据模块,用于在给予用户对应的响应后,再次采集用户的图像并识别用户的情绪状态,分析用户的情绪状态是否变化,记录并储存反馈数据和分析结果。
进一步地,所述调整对应的情绪交互模式以使机器人给予用户对应的响应,具体为:
通过机器人的语音聊天和动作给予用户相关响应,并利用显示装置显示用户当前的情绪状态、情绪波动曲线以及机器人响应用户情绪的表情。
进一步地,所述人脸识别信息包括虹膜信息、人脸皮肤信息、五官信息以及脸部肌肉信息。
实施本发明实施例,具有如下有益效果:
本发明实施例提供的一种基于情绪识别的人机交互方法和系统,所述方法包括:实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息;根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。本发明通过结合虹膜识别技术和人脸图像处理技术,使得机器人能够高效识别用户的情绪并针对不同情绪给予不同的响应,达到满足用户特定时刻的情感需求的目的。
附图说明
图1为本发明第一实施例提供的一种基于情绪识别的人机交互方法的流程示意图;
图2为本发明实施例提供的显示装置的界面图;
图3为本发明第二实施例提供的一种基于情绪识别的人机交互系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
首先介绍本发明可以提供的应用场景,如机器人高效识别用户的情绪并针对不同情绪给予不同的响应。
本发明第一实施例:
请参阅图1和图2。
如图1所示,本实施例提供的一种基于情绪识别的人机交互方法,至少包括以下步骤:
S101、实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;
具体的,目前的人脸图像处理技术、虹膜识别技术的应用,主要运用于身份识别,具体例如:手机屏幕解锁、公安预警等,本实施例通过虹膜识别技术和人脸图像处理技术的结合,利用摄像装置首先采集用户的图像信息。
S102、将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息。
具体的,对于步骤S102,通过采集的虹膜信息来分辨人的身份个性特征,以方便同一人使用时调用数据,更好地优化人机情绪交互时人的使用体验;通过采集的人脸皮肤特征,粗略估计交互者的年龄,尽可能使机器人给予的响应为交互者所需要;通过采集的人脸五官、脸部肌肉信息,分析人的情绪,让机器人下一步的响应有所依据。
S103、根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。
具体的,对于步骤S103,先根据识别的情绪定位为喜、怒、忧、思、悲、恐、惊的一种或几种,再给予相应响应。响应过程中,机器人可在显示屏上显示人此刻的情绪,以及反映人某段时间内的情绪波动变化。响应方式具体通过语音聊天、动作、emoji表情包(在显示屏上显示)来达到情绪交互目的。
在优选的实施例中,所述基于情绪识别的人机交互方法,还包括:
在给予用户对应的响应后,再次采集用户的图像并识别用户的情绪状态,分析用户的情绪状态是否变化,记录并储存反馈数据和分析结果。
具体的,为了满足人的个性需求,以及达到更好的人机情绪交互效果,响应后,再次进行采集、识别步骤,通过获得的数据分析人的心情是否有所改变或改善,记录并储存反馈数据和分析结果。
在优选的实施例中,如图2所示,调整对应的情绪交互模式以使机器人给予用户对应的响应,具体为:
通过机器人的语音聊天和动作给予用户相关响应,并利用显示装置显示用户当前的情绪状态、情绪波动曲线以及机器人响应用户情绪的表情。
在优选的实施例中,所述人脸识别信息包括虹膜信息、人脸皮肤信息、五官信息以及脸部肌肉信息。
在优选的实施例中,所述将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果,具体为:
通过分析所采集的虹膜信息,得到用户的身份个性特征信息;
通过分析所采集的人脸皮肤信息,得到用户的年龄信息;
通过分析所采集的五官信息和脸部肌肉信息,得到用户当前的情绪信息。
在优选的实施例中,所述情绪状态包括喜、怒、忧、思、悲、恐和惊。
本实施例提供的一种基于情绪识别的人机交互方法,所述方法包括:实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息;根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。本发明通过结合虹膜识别技术和人脸图像处理技术,使得机器人能够高效识别用户的情绪并针对不同情绪给予不同的响应,达到满足用户特定时刻的情感需求的目的。
本发明第二实施例:
请参阅图2和图3。
如图3所示,本实施例还提供了一种基于情绪识别的人机交互系统,包括:
采集模块100,用于实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;
人脸识别模块200,用于将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息。
具体的,对于人脸识别模块200,通过采集的虹膜信息来分辨人的身份个性特征,以方便同一人使用时调用数据,更好地优化人机情绪交互时人的使用体验;通过采集的人脸皮肤特征,粗略估计交互者的年龄,尽可能使机器人给予的响应为交互者所需要;通过采集的人脸五官、脸部肌肉信息,分析人的情绪,让机器人下一步的响应有所依据。
响应模块300,用于根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。
具体的,对于响应模块300,先根据识别的情绪定位为喜、怒、忧、思、悲、恐、惊的一种或几种,再给予相应响应。响应过程中,机器人可在显示屏上显示人此刻的情绪,以及反映人某段时间内的情绪波动变化。响应方式具体通过语音聊天、动作、emoji表情包(在显示屏上显示)来达到情绪交互目的。
在优选的实施例中,所述基于情绪识别的人机交互系统,还包括:
数据模块,用于在给予用户对应的响应后,再次采集用户的图像并识别用户的情绪状态,分析用户的情绪状态是否变化,记录并储存反馈数据和分析结果。
具体的,为了满足人的个性需求,以及达到更好的人机情绪交互效果,响应后,再次进行采集、识别步骤,通过获得的数据分析人的心情是否有所改变或改善,记录并储存反馈数据和分析结果。
在优选的实施例中,如图2所示,调整对应的情绪交互模式以使机器人给予用户对应的响应,具体为:
通过机器人的语音聊天和动作给予用户相关响应,并利用显示装置显示用户当前的情绪状态、情绪波动曲线以及机器人响应用户情绪的表情。
在优选的实施例中,所述人脸识别信息包括虹膜信息、人脸皮肤信息、五官信息以及脸部肌肉信息。
在优选的实施例中,所述将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果,具体为:
通过分析所采集的虹膜信息,得到用户的身份个性特征信息;
通过分析所采集的人脸皮肤信息,得到用户的年龄信息;
通过分析所采集的五官信息和脸部肌肉信息,得到用户当前的情绪信息。
在优选的实施例中,所述情绪状态包括喜、怒、忧、思、悲、恐和惊。
实施本发明实施例,具有如下有益效果:
本发明实施例提供的一种基于情绪识别的人机交互系统,所述系统包括:采集模块,用于实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;人脸识别模块,用于将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息;响应模块,用于根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。本发明通过结合虹膜识别技术和人脸图像处理技术,使得机器人能够高效识别用户的情绪并针对不同情绪给予不同的响应,达到满足用户特定时刻的情感需求的目的。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和变形,这些改进和变形也视为本发明的保护范围。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
Claims (10)
1.一种基于情绪识别的人机交互方法,其特征在于,至少包括如下步骤:
实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;
将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息;
根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。
2.根据权利要求1所述的基于情绪识别的人机交互方法,其特征在于,还包括:
在给予用户对应的响应后,再次采集用户的图像并识别用户的情绪状态,分析用户的情绪状态是否变化,记录并储存反馈数据和分析结果。
3.根据权利要求1所述的基于情绪识别的人机交互方法,其特征在于,调整对应的情绪交互模式以使机器人给予用户对应的响应,具体为:
通过机器人的语音聊天和动作给予用户相关响应,并利用显示装置显示用户当前的情绪状态、情绪波动曲线以及机器人响应用户情绪的表情。
4.根据权利要求1所述的基于情绪识别的人机交互方法,其特征在于,所述人脸识别信息包括虹膜信息、人脸皮肤信息、五官信息以及脸部肌肉信息。
5.根据权利要求1和4所述的基于情绪识别的人机交互方法,其特征在于,所述将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果,具体为:
通过分析所采集的虹膜信息,得到用户的身份个性特征信息;
通过分析所采集的人脸皮肤信息,得到用户的年龄信息;
通过分析所采集的五官信息和脸部肌肉信息,得到用户当前的情绪信息。
6.根据权利要求1所述的基于情绪识别的人机交互方法,其特征在于,所述情绪状态包括喜、怒、忧、思、悲、恐和惊。
7.一种基于情绪识别的人机交互系统,其特征在于,包括:
采集模块,用于实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;
人脸识别模块,用于将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息;
响应模块,用于根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。
8.根据权利要求7所述的基于情绪识别的人机交互系统,其特征在于,还包括:
数据模块,用于在给予用户对应的响应后,再次采集用户的图像并识别用户的情绪状态,分析用户的情绪状态是否变化,记录并储存反馈数据和分析结果。
9.根据权利要求7所述的基于情绪识别的人机交互系统,其特征在于,所述调整对应的情绪交互模式以使机器人给予用户对应的响应,具体为:
通过机器人的语音聊天和动作给予用户相关响应,并利用显示装置显示用户当前的情绪状态、情绪波动曲线以及机器人响应用户情绪的表情。
10.根据权利要求7所述的基于情绪识别的人机交互系统,其特征在于,所述人脸识别信息包括虹膜信息、人脸皮肤信息、五官信息以及脸部肌肉信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910311948.1A CN110046580A (zh) | 2019-04-16 | 2019-04-16 | 一种基于情绪识别的人机交互方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910311948.1A CN110046580A (zh) | 2019-04-16 | 2019-04-16 | 一种基于情绪识别的人机交互方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110046580A true CN110046580A (zh) | 2019-07-23 |
Family
ID=67277752
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910311948.1A Pending CN110046580A (zh) | 2019-04-16 | 2019-04-16 | 一种基于情绪识别的人机交互方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110046580A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111160037A (zh) * | 2019-12-02 | 2020-05-15 | 广州大学 | 一种支持跨语言迁移的细粒度情感分析方法 |
CN111413877A (zh) * | 2020-03-24 | 2020-07-14 | 珠海格力电器股份有限公司 | 控制家电设备的方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722246A (zh) * | 2012-05-30 | 2012-10-10 | 南京邮电大学 | 一种基于人脸信息识别的虚拟宠物情感表达方法 |
CN104091153A (zh) * | 2014-07-03 | 2014-10-08 | 苏州工业职业技术学院 | 应用于聊天机器人的情绪判断方法 |
CN108564007A (zh) * | 2018-03-27 | 2018-09-21 | 深圳市智能机器人研究院 | 一种基于表情识别的情绪识别方法和装置 |
-
2019
- 2019-04-16 CN CN201910311948.1A patent/CN110046580A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722246A (zh) * | 2012-05-30 | 2012-10-10 | 南京邮电大学 | 一种基于人脸信息识别的虚拟宠物情感表达方法 |
CN104091153A (zh) * | 2014-07-03 | 2014-10-08 | 苏州工业职业技术学院 | 应用于聊天机器人的情绪判断方法 |
CN108564007A (zh) * | 2018-03-27 | 2018-09-21 | 深圳市智能机器人研究院 | 一种基于表情识别的情绪识别方法和装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111160037A (zh) * | 2019-12-02 | 2020-05-15 | 广州大学 | 一种支持跨语言迁移的细粒度情感分析方法 |
CN111413877A (zh) * | 2020-03-24 | 2020-07-14 | 珠海格力电器股份有限公司 | 控制家电设备的方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9724824B1 (en) | Sensor use and analysis for dynamic update of interaction in a social robot | |
US11151385B2 (en) | System and method for detecting deception in an audio-video response of a user | |
CN109359548A (zh) | 多人脸识别监控方法及装置、电子设备及存储介质 | |
CN112016367A (zh) | 一种情绪识别系统、方法及电子设备 | |
CN107992199A (zh) | 一种用于电子设备的情绪识别方法、系统及电子设备 | |
CN105049249A (zh) | 一种远程可视会话服务的评分方法及系统 | |
CN109785123A (zh) | 一种业务办理协助方法、装置及终端设备 | |
CN111353366A (zh) | 一种情绪检测方法及装置、电子设备 | |
CN107437052A (zh) | 基于微表情识别的相亲满意度计算方法和系统 | |
CN117636488B (zh) | 多模态融合的学习能力评估方法、装置及电子设备 | |
CN111970471A (zh) | 基于视频会议的参会人员评分方法、装置、设备及介质 | |
Huang et al. | Conversational Engagement Recognition Using Auditory and Visual Cues. | |
CN108898058A (zh) | 心理活动的识别方法、智能领带及存储介质 | |
CN110046580A (zh) | 一种基于情绪识别的人机交互方法及系统 | |
Savadi et al. | Face based automatic human emotion recognition | |
EP3799407B1 (en) | Initiating communication between first and second users | |
Dadiz et al. | Analysis of depression based on facial cues on a captured motion picture | |
CN118865465A (zh) | 一种人机交互图像情绪识别方法及其系统 | |
CN116935480B (zh) | 一种情绪识别方法及装置 | |
Zhao et al. | Library intelligent book recommendation system using facial expression recognition | |
CN118969241A (zh) | 一种基于脑成像的多模态抑郁情绪特征识别方法 | |
Gupta et al. | REDE-Detecting human emotions using CNN and RASA | |
Wu et al. | A mobile emotion recognition system based on speech signals and facial images | |
CN108958488A (zh) | 一种人脸指令识别方法 | |
CN114463671A (zh) | 一种基于视频数据的用户人格识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190723 |