CN110046580A - 一种基于情绪识别的人机交互方法及系统 - Google Patents
一种基于情绪识别的人机交互方法及系统 Download PDFInfo
- Publication number
- CN110046580A CN110046580A CN201910311948.1A CN201910311948A CN110046580A CN 110046580 A CN110046580 A CN 110046580A CN 201910311948 A CN201910311948 A CN 201910311948A CN 110046580 A CN110046580 A CN 110046580A
- Authority
- CN
- China
- Prior art keywords
- user
- face
- information
- recognition
- man
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Manipulator (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明公开了一种基于情绪识别的人机交互方法和系统,所述方法包括:实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息;根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。本发明通过结合虹膜识别技术和人脸图像处理技术,使得机器人能够高效识别用户的情绪并针对不同情绪给予不同的响应,达到满足用户特定时刻的情感需求的目的。
Description
技术领域
本发明涉及人工智能领域,具体涉及一种基于情绪识别的人机交互方法及系统。
背景技术
情绪识别是指研究一个自动、高效、准确的系统来识别人脸表情的状态,进而通过人脸表情信息了解人的情绪状态,比如高兴、悲伤、惊讶、愤怒等。该研究在人机交互、人工智能等方面有着重要的应用价值,是当前计算机视觉、模式识别、情感计算等领域的重要研究课题。
但是,在对现有技术的研究与实践过程中,本发明的发明人发现,在需要进行人机交互的技术领域,尤其是机器人技术上,通常需要能够对人的情感进行分析,使得机器人能够针对人不同的情绪给予不同的回应,但现有的人机交互技术仅仅考虑到识别人类的人脸特征,以此判断人的不同身份,而未有进一步实现机器与人进行人机互动、情绪交流的功能,因此现有人机交互技术亟待一种能够有效识别人的情绪的技术手段。
发明内容
本发明实施例所要解决的技术问题在于,提供一种基于情绪识别的人机交互方法及系统,使得机器人能够高效识别用户的情绪并针对不同情绪给予不同的响应。
为解决上述问题,本发明的一个实施例提供一种基于情绪识别的人机交互方法,至少包括如下步骤:
实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;
将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息;
根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。
进一步地,所述基于情绪识别的人机交互方法,还包括:
在给予用户对应的响应后,再次采集用户的图像并识别用户的情绪状态,分析用户的情绪状态是否变化,记录并储存反馈数据和分析结果。
进一步地,调整对应的情绪交互模式以使机器人给予用户对应的响应,具体为:
通过机器人的语音聊天和动作给予用户相关响应,并利用显示装置显示用户当前的情绪状态、情绪波动曲线以及机器人响应用户情绪的表情。
进一步地,所述人脸识别信息包括虹膜信息、人脸皮肤信息、五官信息以及脸部肌肉信息。
进一步地,所述将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果,具体为:
通过分析所采集的虹膜信息,得到用户的身份个性特征信息;
通过分析所采集的人脸皮肤信息,得到用户的年龄信息;
通过分析所采集的五官信息和脸部肌肉信息,得到用户当前的情绪信息。
进一步地,所述情绪状态包括喜、怒、忧、思、悲、恐和惊。
本发明的另一个实施例还提供了一种基于情绪识别的人机交互系统,包括:
采集模块,用于实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;
人脸识别模块,用于将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息;
响应模块,用于根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。
进一步地,所述基于情绪识别的人机交互系统,还包括:
数据模块,用于在给予用户对应的响应后,再次采集用户的图像并识别用户的情绪状态,分析用户的情绪状态是否变化,记录并储存反馈数据和分析结果。
进一步地,所述调整对应的情绪交互模式以使机器人给予用户对应的响应,具体为:
通过机器人的语音聊天和动作给予用户相关响应,并利用显示装置显示用户当前的情绪状态、情绪波动曲线以及机器人响应用户情绪的表情。
进一步地,所述人脸识别信息包括虹膜信息、人脸皮肤信息、五官信息以及脸部肌肉信息。
实施本发明实施例,具有如下有益效果:
本发明实施例提供的一种基于情绪识别的人机交互方法和系统,所述方法包括:实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息;根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。本发明通过结合虹膜识别技术和人脸图像处理技术,使得机器人能够高效识别用户的情绪并针对不同情绪给予不同的响应,达到满足用户特定时刻的情感需求的目的。
附图说明
图1为本发明第一实施例提供的一种基于情绪识别的人机交互方法的流程示意图;
图2为本发明实施例提供的显示装置的界面图;
图3为本发明第二实施例提供的一种基于情绪识别的人机交互系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
首先介绍本发明可以提供的应用场景,如机器人高效识别用户的情绪并针对不同情绪给予不同的响应。
本发明第一实施例:
请参阅图1和图2。
如图1所示,本实施例提供的一种基于情绪识别的人机交互方法,至少包括以下步骤:
S101、实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;
具体的,目前的人脸图像处理技术、虹膜识别技术的应用,主要运用于身份识别,具体例如:手机屏幕解锁、公安预警等,本实施例通过虹膜识别技术和人脸图像处理技术的结合,利用摄像装置首先采集用户的图像信息。
S102、将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息。
具体的,对于步骤S102,通过采集的虹膜信息来分辨人的身份个性特征,以方便同一人使用时调用数据,更好地优化人机情绪交互时人的使用体验;通过采集的人脸皮肤特征,粗略估计交互者的年龄,尽可能使机器人给予的响应为交互者所需要;通过采集的人脸五官、脸部肌肉信息,分析人的情绪,让机器人下一步的响应有所依据。
S103、根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。
具体的,对于步骤S103,先根据识别的情绪定位为喜、怒、忧、思、悲、恐、惊的一种或几种,再给予相应响应。响应过程中,机器人可在显示屏上显示人此刻的情绪,以及反映人某段时间内的情绪波动变化。响应方式具体通过语音聊天、动作、emoji表情包(在显示屏上显示)来达到情绪交互目的。
在优选的实施例中,所述基于情绪识别的人机交互方法,还包括:
在给予用户对应的响应后,再次采集用户的图像并识别用户的情绪状态,分析用户的情绪状态是否变化,记录并储存反馈数据和分析结果。
具体的,为了满足人的个性需求,以及达到更好的人机情绪交互效果,响应后,再次进行采集、识别步骤,通过获得的数据分析人的心情是否有所改变或改善,记录并储存反馈数据和分析结果。
在优选的实施例中,如图2所示,调整对应的情绪交互模式以使机器人给予用户对应的响应,具体为:
通过机器人的语音聊天和动作给予用户相关响应,并利用显示装置显示用户当前的情绪状态、情绪波动曲线以及机器人响应用户情绪的表情。
在优选的实施例中,所述人脸识别信息包括虹膜信息、人脸皮肤信息、五官信息以及脸部肌肉信息。
在优选的实施例中,所述将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果,具体为:
通过分析所采集的虹膜信息,得到用户的身份个性特征信息;
通过分析所采集的人脸皮肤信息,得到用户的年龄信息;
通过分析所采集的五官信息和脸部肌肉信息,得到用户当前的情绪信息。
在优选的实施例中,所述情绪状态包括喜、怒、忧、思、悲、恐和惊。
本实施例提供的一种基于情绪识别的人机交互方法,所述方法包括:实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息;根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。本发明通过结合虹膜识别技术和人脸图像处理技术,使得机器人能够高效识别用户的情绪并针对不同情绪给予不同的响应,达到满足用户特定时刻的情感需求的目的。
本发明第二实施例:
请参阅图2和图3。
如图3所示,本实施例还提供了一种基于情绪识别的人机交互系统,包括:
采集模块100,用于实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;
人脸识别模块200,用于将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息。
具体的,对于人脸识别模块200,通过采集的虹膜信息来分辨人的身份个性特征,以方便同一人使用时调用数据,更好地优化人机情绪交互时人的使用体验;通过采集的人脸皮肤特征,粗略估计交互者的年龄,尽可能使机器人给予的响应为交互者所需要;通过采集的人脸五官、脸部肌肉信息,分析人的情绪,让机器人下一步的响应有所依据。
响应模块300,用于根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。
具体的,对于响应模块300,先根据识别的情绪定位为喜、怒、忧、思、悲、恐、惊的一种或几种,再给予相应响应。响应过程中,机器人可在显示屏上显示人此刻的情绪,以及反映人某段时间内的情绪波动变化。响应方式具体通过语音聊天、动作、emoji表情包(在显示屏上显示)来达到情绪交互目的。
在优选的实施例中,所述基于情绪识别的人机交互系统,还包括:
数据模块,用于在给予用户对应的响应后,再次采集用户的图像并识别用户的情绪状态,分析用户的情绪状态是否变化,记录并储存反馈数据和分析结果。
具体的,为了满足人的个性需求,以及达到更好的人机情绪交互效果,响应后,再次进行采集、识别步骤,通过获得的数据分析人的心情是否有所改变或改善,记录并储存反馈数据和分析结果。
在优选的实施例中,如图2所示,调整对应的情绪交互模式以使机器人给予用户对应的响应,具体为:
通过机器人的语音聊天和动作给予用户相关响应,并利用显示装置显示用户当前的情绪状态、情绪波动曲线以及机器人响应用户情绪的表情。
在优选的实施例中,所述人脸识别信息包括虹膜信息、人脸皮肤信息、五官信息以及脸部肌肉信息。
在优选的实施例中,所述将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果,具体为:
通过分析所采集的虹膜信息,得到用户的身份个性特征信息;
通过分析所采集的人脸皮肤信息,得到用户的年龄信息;
通过分析所采集的五官信息和脸部肌肉信息,得到用户当前的情绪信息。
在优选的实施例中,所述情绪状态包括喜、怒、忧、思、悲、恐和惊。
实施本发明实施例,具有如下有益效果:
本发明实施例提供的一种基于情绪识别的人机交互系统,所述系统包括:采集模块,用于实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;人脸识别模块,用于将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息;响应模块,用于根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。本发明通过结合虹膜识别技术和人脸图像处理技术,使得机器人能够高效识别用户的情绪并针对不同情绪给予不同的响应,达到满足用户特定时刻的情感需求的目的。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和变形,这些改进和变形也视为本发明的保护范围。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
Claims (10)
1.一种基于情绪识别的人机交互方法,其特征在于,至少包括如下步骤:
实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;
将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息;
根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。
2.根据权利要求1所述的基于情绪识别的人机交互方法,其特征在于,还包括:
在给予用户对应的响应后,再次采集用户的图像并识别用户的情绪状态,分析用户的情绪状态是否变化,记录并储存反馈数据和分析结果。
3.根据权利要求1所述的基于情绪识别的人机交互方法,其特征在于,调整对应的情绪交互模式以使机器人给予用户对应的响应,具体为:
通过机器人的语音聊天和动作给予用户相关响应,并利用显示装置显示用户当前的情绪状态、情绪波动曲线以及机器人响应用户情绪的表情。
4.根据权利要求1所述的基于情绪识别的人机交互方法,其特征在于,所述人脸识别信息包括虹膜信息、人脸皮肤信息、五官信息以及脸部肌肉信息。
5.根据权利要求1和4所述的基于情绪识别的人机交互方法,其特征在于,所述将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果,具体为:
通过分析所采集的虹膜信息,得到用户的身份个性特征信息;
通过分析所采集的人脸皮肤信息,得到用户的年龄信息;
通过分析所采集的五官信息和脸部肌肉信息,得到用户当前的情绪信息。
6.根据权利要求1所述的基于情绪识别的人机交互方法,其特征在于,所述情绪状态包括喜、怒、忧、思、悲、恐和惊。
7.一种基于情绪识别的人机交互系统,其特征在于,包括:
采集模块,用于实时采集用户的图像,基于虹膜识别技术和人脸图像处理技术对所述用户的图像进行图像处理,得到用户的人脸识别信息;
人脸识别模块,用于将所述人脸识别信息输入到经过预先训练的深度神经网络进行人脸识别处理,得到用户的人脸识别结果;所述人脸识别结果包括情绪信息;
响应模块,用于根据所述情绪信息确定用户当前的情绪状态,调整对应的情绪交互模式以使机器人给予用户对应的响应。
8.根据权利要求7所述的基于情绪识别的人机交互系统,其特征在于,还包括:
数据模块,用于在给予用户对应的响应后,再次采集用户的图像并识别用户的情绪状态,分析用户的情绪状态是否变化,记录并储存反馈数据和分析结果。
9.根据权利要求7所述的基于情绪识别的人机交互系统,其特征在于,所述调整对应的情绪交互模式以使机器人给予用户对应的响应,具体为:
通过机器人的语音聊天和动作给予用户相关响应,并利用显示装置显示用户当前的情绪状态、情绪波动曲线以及机器人响应用户情绪的表情。
10.根据权利要求7所述的基于情绪识别的人机交互系统,其特征在于,所述人脸识别信息包括虹膜信息、人脸皮肤信息、五官信息以及脸部肌肉信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910311948.1A CN110046580A (zh) | 2019-04-16 | 2019-04-16 | 一种基于情绪识别的人机交互方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910311948.1A CN110046580A (zh) | 2019-04-16 | 2019-04-16 | 一种基于情绪识别的人机交互方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110046580A true CN110046580A (zh) | 2019-07-23 |
Family
ID=67277752
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910311948.1A Pending CN110046580A (zh) | 2019-04-16 | 2019-04-16 | 一种基于情绪识别的人机交互方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110046580A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111160037A (zh) * | 2019-12-02 | 2020-05-15 | 广州大学 | 一种支持跨语言迁移的细粒度情感分析方法 |
CN111413877A (zh) * | 2020-03-24 | 2020-07-14 | 珠海格力电器股份有限公司 | 控制家电设备的方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722246A (zh) * | 2012-05-30 | 2012-10-10 | 南京邮电大学 | 一种基于人脸信息识别的虚拟宠物情感表达方法 |
CN104091153A (zh) * | 2014-07-03 | 2014-10-08 | 苏州工业职业技术学院 | 应用于聊天机器人的情绪判断方法 |
CN108564007A (zh) * | 2018-03-27 | 2018-09-21 | 深圳市智能机器人研究院 | 一种基于表情识别的情绪识别方法和装置 |
-
2019
- 2019-04-16 CN CN201910311948.1A patent/CN110046580A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722246A (zh) * | 2012-05-30 | 2012-10-10 | 南京邮电大学 | 一种基于人脸信息识别的虚拟宠物情感表达方法 |
CN104091153A (zh) * | 2014-07-03 | 2014-10-08 | 苏州工业职业技术学院 | 应用于聊天机器人的情绪判断方法 |
CN108564007A (zh) * | 2018-03-27 | 2018-09-21 | 深圳市智能机器人研究院 | 一种基于表情识别的情绪识别方法和装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111160037A (zh) * | 2019-12-02 | 2020-05-15 | 广州大学 | 一种支持跨语言迁移的细粒度情感分析方法 |
CN111413877A (zh) * | 2020-03-24 | 2020-07-14 | 珠海格力电器股份有限公司 | 控制家电设备的方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gunawan et al. | Development of video-based emotion recognition using deep learning with Google Colab | |
CN108388876A (zh) | 一种图像识别方法、装置以及相关设备 | |
CN113693613B (zh) | 脑电信号分类方法、装置、计算机设备及存储介质 | |
CN111190484B (zh) | 一种多模态交互系统和方法 | |
CN114224342B (zh) | 一种基于时空融合特征网络的多通道脑电信号情绪识别方法 | |
CN110353673B (zh) | 一种基于标准互信息的脑电通道选择方法 | |
CN111728590A (zh) | 基于动态功能连接的个体认知能力预测方法和系统 | |
CN109145871A (zh) | 心理行为识别方法、装置与存储介质 | |
CN110135244B (zh) | 一种基于脑-机协同智能的表情识别方法 | |
CN109278051A (zh) | 基于智能机器人的交互方法及系统 | |
CN110503076A (zh) | 基于人工智能的视频分类方法、装置、设备和介质 | |
CN109431523A (zh) | 基于非社会性声音刺激行为范式的孤独症初级筛查装置 | |
CN108937407A (zh) | 一种智能镜子化妆指导方法及系统 | |
CN113208593A (zh) | 基于相关性动态融合的多模态生理信号情绪分类方法 | |
CN112488002B (zh) | 基于n170的情绪识别方法及识别系统 | |
CN114648354A (zh) | 一种基于眼动追踪和情绪状态的广告测评方法和系统 | |
CN112732092B (zh) | 基于双视图多尺度卷积神经网络的表面肌电信号识别方法 | |
CN110046580A (zh) | 一种基于情绪识别的人机交互方法及系统 | |
CN113920568A (zh) | 基于视频图像的人脸和人体姿态情绪识别方法 | |
CN110264243A (zh) | 基于活体检测的产品推广方法、装置、设备及存储介质 | |
Savadi et al. | Face based automatic human emotion recognition | |
CN112370058A (zh) | 一种基于移动端对用户的情感进行识别与监测方法 | |
CN116935480A (zh) | 一种情绪识别方法及装置 | |
CN112231037A (zh) | 一种基于情绪设计对应图标的方法 | |
Triesch | Vision Based Robotic Gesture Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190723 |
|
RJ01 | Rejection of invention patent application after publication |