CN110414493A - 一种心理状态分析方法与系统 - Google Patents

一种心理状态分析方法与系统 Download PDF

Info

Publication number
CN110414493A
CN110414493A CN201910829204.9A CN201910829204A CN110414493A CN 110414493 A CN110414493 A CN 110414493A CN 201910829204 A CN201910829204 A CN 201910829204A CN 110414493 A CN110414493 A CN 110414493A
Authority
CN
China
Prior art keywords
expression
information
psychological condition
target person
condition analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910829204.9A
Other languages
English (en)
Inventor
易前民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Tengfei Tengfei Information Technology Co Ltd
Original Assignee
Sichuan Tengfei Tengfei Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Tengfei Tengfei Information Technology Co Ltd filed Critical Sichuan Tengfei Tengfei Information Technology Co Ltd
Publication of CN110414493A publication Critical patent/CN110414493A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明实施例提出一种心理状态分析方法与系统,心理状态分析方法包括:采集多个人物在不同场景下的第一视频信息;分析第一视频信息,得到第一表情信息;依据多个人物的不同属性、不同场景以及第一表情信息,建立表情数据库;采集目标人物在当前场景的第二视频信息;分析第二视频信息,得到第二表情信息;依据目标人物的属性和当前场景,查找表情数据库中对应的表情信息;将第二表情信息与查找到的表情数据中对应的表情信息进行对比计算出偏差方差;依据偏差方差发出提示信息。本发明通过分析目标人物的表情、情绪是否正常,进一步可对其心理进行指导纠正,可广泛适用于幼儿园、办公区等场所。

Description

一种心理状态分析方法与系统
技术领域
本发明涉及数据分析技术领域,具体而言,涉及一种心理状态分析方法与系统。
背景技术
幼儿及童年时期是人的个性和社会性发展的重要时期,这个时期的心理状态对他们以后的人生发展影响很大,很多人的心理障碍与心理疾病都可以追溯到童年早期(特别是五岁以前)所遭受的挫折,幼儿学生的心理健康教育、预防幼儿心理和行为问题是教育工作者及家长不可忽视的重要课题,需要从小开始就给儿童培养一个健全的心理,促进儿童健康个性的形成及社会交往的正常发展。
心理健康的孩子会自然流露内心真正的感受,不会压抑情绪。他跌倒弄痛了会哭,被玩伴戏弄会生气,爬到高处会惊慌,当然,看见喜欢的东西会笑,它完全不保留地流露喜、怒、哀、乐的情绪,高兴、讨厌、不耐烦、疑惑等等,把什么都写在脸上,因而通过分析孩子的表情即能获取孩子的心理状态。
发明内容
本发明的目的在于提供一种心理状态分析方法与系统,通过分析表情可得知儿童的心理状态是否健康,从而提示家长或老师对儿童不健康的心理状态进行纠正。
为了实现上述目的,本发明实施例采用的技术方案如下:
第一方面,本发明实施例提供了一种心理状态分析方法,所述心理状态分析方法包括:采集多个人物在不同场景下的第一视频信息;分析所述第一视频信息,得到第一表情信息;依据所述多个人物的不同属性、所述不同场景以及所述第一表情信息,建立表情数据库;采集目标人物在当前场景的第二视频信息;分析所述第二视频信息,得到第二表情信息;依据所述目标人物的属性和当前场景,查找所述表情数据库中对应的表情信息;将所述第二表情信息与查找到的所述表情数据中对应的表情信息进行对比计算出偏差方差;依据所述偏差方差发出提示信息。
第二方面,本发明实施例还提供了一种心理状态分析系统,所述心理状态分析系统包括:采集模块,用于采集多个人物在不同场景下的第一视频信息,以及目标人物在当前场景的第二视频信息;分析模块,用于分析所述第一视频信息,得到第一表情信息,以及分析所述第二视频信息,得到第二表情信息;建立模块,用于依据所述多个人物的不同属性、所述不同场景以及所述第一表情信息,建立表情数据库;查找模块,用于依据所述目标人物的属性和当前场景,查找所述表情数据库中对应的表情信息;计算模块,用于将所述第二表情信息与查找到的所述表情数据中对应的表情信息进行对比计算出偏差方差;提示模块,用于依据所述偏差方差发出提示信息。
本发明实施例提供的心理状态分析方法及系统,通过预先建立表情数据库,采集目标人物当前场景下的视频信息,分析该视频信息,然后将分析结果与预先建立的数据库进行查找比对,从而分析目标人物的表情、情绪是否正常,进一步可对其心理进行指导纠正,可广泛适用于幼儿园、办公区等场所。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本发明实施例提供的心理状态分析方法及系统的应用环境示意图;
图2示出了本发明实施例提供的心理状态分析系统的结构框图;
图3示出了本发明实施例提供的心理状态分析方法的流程图。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
请参阅图1,示出了本发明实施例提供的心理状态分析方法及系统的应用环境示意图。本发明实施例提供的心理状态分析方法及系统可应用于各种终端设备100,例如可以包括智能手机、台式电脑、平板电脑、电子书阅读器、膝上型便携计算机、车载电脑、穿戴式移动终端等等。终端设备100通过有线或无线网络200与摄像头300通讯连接,从而获取摄像头300采集到的视频信息。
本发明实施例提出的心理状态分析方法及系统可适用于具Android操作系统、iOS操作系统、Windows Phone操作系统或其他平台的终端设备100。本发明实施例提出的心理状态分析系统400可以以应用程序(APP)的形式安装于终端设备100。
第一实施例
图2示出了本发明实施例提供的心理状态分析系统400的结构框图。心理状态分析系统400包括:采集模块410、分析模块420、建立模块430、查找模块440、计算模块450以及提示模块460。
采集模块410用于采集多个人物在不同场景下的第一视频信息,以及目标人物在当前场景的第二视频信息。
在本实施例中,优选为分析儿童想心理状态。在幼儿园的课堂教室、饭堂、操场等区域架设高清摄像头,采集幼儿上课、活动、进出校园、下课玩耍、吃饭等场景下的各种视频,分析每个小朋友每天的表情状态情况。多个人物可以是大人或者儿童,在本实施例中优选为儿童,以分析儿童的心理状态。多个人物可以是在上述不同场景中随机选取的人物,选取人物的数量越多,场景越多,越能够形成一定的规律性,以作为后续数据分析和数据对比的基础数据库。第一视频信息优选为摄像头拍摄的视频。目标人物可以为特定的某一个人物或者多个人物,例如要分析某一个人的心理状态,那么就选取特定的某一个人物,若要分析多个人物的心理状态,那么就选取多个人物,第二视频信息优选为摄像头拍摄的目标人物在当前场景中的视频。
分析模块420用于分析第一视频信息,得到第一表情信息,以及分析第二视频信息,得到第二表情信息;分析模块420还用于:对多个人物进行人脸识别;对目标人物进行人脸识别。
在本实施例中,分析模块420可以是预训练好的人工智能神经网络,通过分析模块420来分析人物的脸部表情。
人的面部有数十块肌肉,可以产生丰富的表情来表达不同的心里状态和情感,基本的面部表情有:
a)高兴:嘴角翘起,面颊上抬起皱,眼睑收缩,眼睛尾部会形成“鱼尾纹”;
b)伤心:眯眼,眉毛收缩,嘴角下拉,下巴抬起或收紧;
c)害怕:眼睛张开,嘴唇微微张开,水平靠近两耳,眉毛上扬紧缩,眼皮上扬收缩,鼻孔张大;
d)惊讶:下颚下垂,嘴唇和嘴巴放松,眼睛张大,眼睑和眉毛微抬;
e)愤怒:眉毛下垂且收拢,前额紧皱,眼睛怒视,嘴唇闭锁;
f)厌恶:嗤鼻,上嘴唇上抬,眉毛下垂,眯眼;
g)轻蔑:嘴角一侧抬起,作讥笑或得意笑状。
第一视频信息可以包含表情、动作等等,分析模块420可以分析提取出其中的表情得到第一表情信息。第一表情信息包括:多个人物在不同场景下的不同表情、不同表情的持续时间以及某个表情在某个时间段的出现频率等信息;第二表情信息包括:目标人物在当前场景下的表情、该表情的持续时间以及该表情在某个时间段的出现频率等信息。例如,第一/第二表情信息包括:微笑、持续时间为3秒,又例如,第一/第二表情信息包括:1小时以内微笑次数为3次。
建立模块430用于依据多个人物的不同属性、不同场景以及第一表情信息,建立表情数据库。
在本实施例中,多个人物的不同属性包括性别、年龄、班级等等。将多个人物的不同属性、不同场景以及第一表情信息进行整理绑定归类,得以建立表情数据库。例如,多个人物中,性别为男性、年龄为5-10岁、场景为操场的人物的表情信息分为第一类,性别为女性、年龄为5-10岁、场景为操场的人物的表情信息分为第二类,性别为男性、年龄为11-15岁、场景为操场的人物的表情信息分为第三类,性别为女性、年龄为11-15岁、场景为操场的人物的表情信息分为第四类等等,将性别、年龄、班级、场景等选一个作为变量,以建立信息量庞大的表情数据库。
查找模块440用于依据目标人物的属性和当前场景,查找表情数据库中对应的表情信息。
在本实施例中,例如目标人物为学生A,性别为女生,年龄为8岁,当前场景为操场,那么对应查找表情数据库中性别为女生、年龄为5-10岁、当前场景为操场对应的表情信息。
计算模块450用于将第二表情信息与查找到的表情数据中对应的表情信息进行对比计算出偏差方差。
在本实施例中,还是以目标人物为学生A为例,分析模块420通过分析学生A的第二视频信息得到第二表情信息:微笑,持续时间为4秒。查找模块440查找到的表情数据中对应的表情信息为:微笑,持续时间为3秒,那么偏差方差为时间相差1秒。当然,偏差方差不仅限于持续时间的差异,也可以为表情的差异,例如根据微笑的程度分为一级微笑、二级微笑、三级微笑等。偏差方差还可以是某个表情在特定时间段的出现频率的差异。
提示模块460用于依据所述偏差方差发出提示信息。当所述偏差方差大于预设阈值时发出对应的提示信息。
在本实施例中,预设阈值可以为持续时间的差异,例如2秒,当持续时间相差2秒以上,提示模块460发出对应的提示信息。预设阈值也可以为表情的差异,例如微笑程度差异两级以上,即发出对应的提示信息。提示模块460可以依据偏差方差的大小进行分级提示。
本发明实施例可以用于不同的人物群体,例如用于儿童心理分析时,可以统计不同性别、不同班级、不同年龄段下儿童的表情分布情况,形成基于大数据的幼儿表情数据库;分析每个儿童与整体表情情况的偏差,甄选出情绪异常(例如害怕过多、高兴过少、愤怒过多等)的儿童,从而根据心里学专家的知识库给出心里干预指导建议(心里学专家的知识库可以预先存储于终端设备100中)。
第二实施例
图3示出了本发明实施例提供的心理状态分析的流程图。本发明实施例提供的心理状态分析方法包括以下步骤:
步骤S1,采集多个人物在不同场景下的第一视频信息。
在本实施例中,步骤S1可以由采集模块410执行。不同场景包括:吃饭、上课、进出校园、下课玩耍等等。多个人物可以是大人或者儿童,在本实施例中优选为儿童,以分析儿童的心理状态。多个人物可以是在上述不同场景中随机选取的人物,选取人物的数量越多,场景越多,越能够形成一定的规律性,以作为后续数据分析和数据对比的基础数据库。第一视频信息优选为摄像头拍摄的视频。目标人物可以为特定的某一个人物或者多个人物,例如要分析某一个人的心理状态,那么就选取特定的某一个人物,若要分析多个人物的心理状态,那么就选取多个人物。
步骤S2,分析所述第一视频信息,得到第一表情信息。
在本实施例中,步骤S2可以由分析模块420执行。分析所述第一视频信息包括:对所述多个人物进行人脸识别。第一视频信息可以包含表情、动作等等,分析模块420通过分析可以提取出其中的表情得到第一表情信息。第一表情信息包括:多个人物在不同场景下的不同表情、不同表情的持续时间以及某个表情在某个时间段的出现频率。例如第一表情信息包括:微笑、持续时间为3秒。
步骤S3,依据所述多个人物的不同属性、所述不同场景以及所述第一表情信息,建立表情数据库。
在本实施例中,步骤S3可以由建立模块430执行。多个人物的不同属性包括性别、年龄、班级等等。将多个人物的不同属性、不同场景以及第一表情信息进行分类存储,得以建立表情数据库。例如,多个人物中,性别为男性、年龄为5-10岁、场景为操场的人物的表情信息分为第一类,性别为女性、年龄为5-10岁、场景为操场的人物的表情信息分为第二类,性别为男性、年龄为11-15岁、场景为操场的人物的表情信息分为第三类,性别为女性、年龄为11-15岁、场景为操场的人物的表情信息分为第四类等等,将性别、年龄、班级、场景等选一个作为变量,以建立信息量庞大的表情数据库。
步骤S4,采集目标人物在当前场景的第二视频信息。
在本实施例中,步骤S4可以由采集模块410执行。第二视频信息优选为摄像头拍摄的目标人物在当前场景中的视频。
步骤S5,分析所述第二视频信息,得到第二表情信息。
在本实施例中,步骤S5可以由分析模块420执行。分析所述第二视频信息包括:对所述目标人物进行人脸识别。第二表情信息包括:目标人物在当前场景下的表情、该表情的持续时间以及该表情在某个时间段的出现频率。
步骤S6,依据所述目标人物的属性和当前场景,查找所述表情数据库中对应的表情信息。
在本实施例中,步骤S6可以由查找模块440执行。例如目标人物为学生A,性别为女生,年龄为8岁,当前场景为操场,那么对应查找表情数据库中性别为女生、年龄为5-10岁、当前场景为操场对应的表情信息。
步骤S7,将所述第二表情信息与查找到的所述表情数据中对应的表情信息进行对比计算出偏差方差。
在本实施例中,步骤S7可以由计算模块450执行。还是以目标人物为学生A为例,分析模块420通过分析学生A的第二视频信息得到第二表情信息:在一小时以内出现伤心表情的次数为5次。查找模块440查找到的表情数据中对应的表情信息为:该年龄段的女生在该场景中一小时以内出现伤心表情的次数平均为1次,那么偏差方差为次数相差4次。当然,偏差方差不仅限于次数的差异,也可以为某个表情持续时间的差异,例如微笑表情的持续时间。
更加具体的,计算偏差方差的方法可以但不限于以下的方法:
第一步,对获取的儿童活动视频进行人脸识别;使用MTCNN算法检测视频图像中人脸的位置,对图像进行归一化预处理。
第二步:图像预处理。根据人脸位置裁剪图像,通过双线性算法或三次卷积算法将图像处理成48*48大小;将RGB图像转换成48*48的灰度图像。
第三步,表情特征提取。构建一个具有多个卷积和池化层的CNN神经网络进行特征提取:网络层依次为输入48*48*1的数据、1个卷积核为5*5的卷积层、最大池化层、1个卷积核为4*4的卷积层、1个最大池化层、1个5*5的卷积层、1个最大池化层,2个全连接层。将经过预处理后的表情图片输入双卷积CNN中,最后提取到一个1024维的表情信息。
第四步:分类/回归
通过softmax逻辑回归方法计算该表情信息与表情数据中分类存储的表情信息的概率。
第五步,识别结果。计算概率最大的分类类型,得出识别结果。
第六步,计算偏差方差。将该表情信息与识别结果进行对比,计算出偏差方差。
步骤S8,依据所述偏差方差发出提示信息。
在本实施例中,步骤S8可以由提示模块460执行。当所述偏差方差大于预设阈值时发出对应的提示信息。预设阈值可以为某个表情持续时间的差异,例如2秒,当持续时间相差2秒以上,提示模块460发出对应的提示信息。预设阈值也可以为某个表情出现频率的差异,例如一个小时以内出现微笑的次数相差2次,即发出对应的提示信息。进一步地,步骤S8可以依据偏差方差的大小进行分级提示。
本发明实施例可以用于不同的人物群体,例如用于儿童心理分析时,可以统计不同性别、不同班级、不同年龄段下儿童的表情分布情况,形成基于大数据的幼儿表情数据库;分析每个儿童与整体表情情况的偏差,甄选出情绪异常(例如害怕过多、高兴过少、愤怒过多等)的儿童,从而提示家长或老师对其给予心理指导。

Claims (10)

1.一种心理状态分析方法,其特征在于,所述心理状态分析方法包括:
采集多个人物在不同场景下的第一视频信息;
分析所述第一视频信息,得到第一表情信息;
依据所述多个人物的不同属性、所述不同场景以及所述第一表情信息,建立表情数据库;
采集目标人物在当前场景的第二视频信息;
分析所述第二视频信息,得到第二表情信息;
依据所述目标人物的属性和当前场景,查找所述表情数据库中对应的表情信息;
将所述第二表情信息与查找到的所述表情数据中对应的表情信息进行对比计算出偏差方差;
依据所述偏差方差发出提示信息。
2.如权利要求1所述的心理状态分析方法,其特征在于,所述分析所述第一视频信息包括:对所述多个人物进行人脸识别;分析所述第二视频信息包括:对所述目标人物进行人脸识别。
3.如权利要求2所述的心理状态分析方法,其特征在于,所述第一表情信息包括:所述多个人物在所述不同场景下的不同表情以及不同表情的持续时间;所述第二表情信息包括:所述目标人物在所述当前场景下的表情以及该表情的持续时间。
4.如权利要求1所述的心理状态分析方法,其特征在于,所述依据所述偏差方差发出提示信息包括:当所述偏差方差大于预设阈值时发出对应的提示信息。
5.如权利要求1所述的心理状态分析方法,其特征在于,所述不同场景包括:吃饭、上课、进出校园、下课玩耍;所述多个人物的不同属性包括性别、年龄、班级。
6.一种心理状态分析系统,其特征在于,所述心理状态分析系统包括:
采集模块,用于采集多个人物在不同场景下的第一视频信息,以及目标人物在当前场景的第二视频信息;
分析模块,用于分析所述第一视频信息,得到第一表情信息,以及分析所述第二视频信息,得到第二表情信息;
建立模块,用于依据所述多个人物的不同属性、所述不同场景以及所述第一表情信息,建立表情数据库;
查找模块,用于依据所述目标人物的属性和当前场景,查找所述表情数据库中对应的表情信息;
计算模块,用于将所述第二表情信息与查找到的所述表情数据中对应的表情信息进行对比计算出偏差方差;
提示模块,用于依据所述偏差方差发出提示信息。
7.如权利要求6所述的心理状态分析系统,其特征在于,所述分析分析模块还用于:对所述多个人物进行人脸识别;对所述目标人物进行人脸识别。
8.如权利要求7所述的心理状态分析方法,其特征在于,所述第一表情信息包括:所述多个人物在所述不同场景下的不同表情以及不同表情的持续时间;所述第二表情信息包括:所述目标人物在所述当前场景下的表情以及该表情的持续时间。
9.如权利要求6所述的心理状态分析方法,其特征在于,所述提示模块还用于:当所述偏差方差大于预设阈值时发出对应的提示信息。
10.如权利要求6所述的心理状态分析方法,其特征在于,所述不同场景包括:吃饭、上课、进出校园、下课玩耍;所述多个人物的不同属性包括性别、年龄、班级。
CN201910829204.9A 2019-06-02 2019-09-03 一种心理状态分析方法与系统 Pending CN110414493A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2019104740968 2019-06-02
CN201910474096 2019-06-02

Publications (1)

Publication Number Publication Date
CN110414493A true CN110414493A (zh) 2019-11-05

Family

ID=68370343

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910829204.9A Pending CN110414493A (zh) 2019-06-02 2019-09-03 一种心理状态分析方法与系统

Country Status (1)

Country Link
CN (1) CN110414493A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931633A (zh) * 2020-08-05 2020-11-13 珠海完全网络科技有限公司 一种基于视频识别的行为分析与微表情分析方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105354527A (zh) * 2014-08-20 2016-02-24 南京普爱射线影像设备有限公司 一种消极表情识别鼓励系统
JP2016093313A (ja) * 2014-11-13 2016-05-26 大和ハウス工業株式会社 心理状態推定方法、心理状態推定システム及び心理状態推定方法を用いたケアシステム
CN109376598A (zh) * 2018-09-17 2019-02-22 平安科技(深圳)有限公司 面部表情图片处理方法、装置、计算机设备和存储介质
CN109409199A (zh) * 2018-08-31 2019-03-01 百度在线网络技术(北京)有限公司 微表情训练方法、装置、存储介质及电子设备
CN109598262A (zh) * 2019-02-11 2019-04-09 华侨大学 一种儿童人脸表情识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105354527A (zh) * 2014-08-20 2016-02-24 南京普爱射线影像设备有限公司 一种消极表情识别鼓励系统
JP2016093313A (ja) * 2014-11-13 2016-05-26 大和ハウス工業株式会社 心理状態推定方法、心理状態推定システム及び心理状態推定方法を用いたケアシステム
CN109409199A (zh) * 2018-08-31 2019-03-01 百度在线网络技术(北京)有限公司 微表情训练方法、装置、存储介质及电子设备
CN109376598A (zh) * 2018-09-17 2019-02-22 平安科技(深圳)有限公司 面部表情图片处理方法、装置、计算机设备和存储介质
CN109598262A (zh) * 2019-02-11 2019-04-09 华侨大学 一种儿童人脸表情识别方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931633A (zh) * 2020-08-05 2020-11-13 珠海完全网络科技有限公司 一种基于视频识别的行为分析与微表情分析方法

Similar Documents

Publication Publication Date Title
Vinola et al. A survey on human emotion recognition approaches, databases and applications
Gordon et al. Training facial expression production in children on the autism spectrum
US9734730B2 (en) Multi-modal modeling of temporal interaction sequences
US10579866B2 (en) Method and system for enhancing user engagement during wellness program interaction
Saneiro et al. Towards emotion detection in educational scenarios from facial expressions and body movements through multimodal approaches
Piana et al. Real-time automatic emotion recognition from body gestures
Ma et al. ElderReact: a multimodal dataset for recognizing emotional response in aging adults
US20150313530A1 (en) Mental state event definition generation
Al Osman et al. Multimodal affect recognition: Current approaches and challenges
Zhang et al. Analyzing students' attention in class using wearable devices
US11430561B2 (en) Remote computing analysis for cognitive state data metrics
CN113506624A (zh) 基于逐层泛化推送逻辑的孤独症儿童认知能力评估干预系统
Lan et al. Eyesyn: Psychology-inspired eye movement synthesis for gaze-based activity recognition
Sun et al. Personality assessment based on multimodal attention network learning with category-based mean square error
Torres-Carrión et al. Facial Emotion Analysis in Down's syndrome children in classroom
Villegas-Ch et al. Identification of emotions from facial gestures in a teaching environment with the use of machine learning techniques
Jain et al. Study for emotion recognition of different age groups students during online class
CN110414493A (zh) 一种心理状态分析方法与系统
Stöckli et al. A practical guide for automated facial emotion classification 1
Ning et al. Application of psychological analysis of micro-expression recognition in teaching evaluation
EP3799407B1 (en) Initiating communication between first and second users
Kaiser Sequential patterning of facial actions in the production and perception of emotional expressions
Soleymani Implicit and Automated Emtional Tagging of Videos
Kersten et al. Who was that masked man? Conjoint representations of intrinsic motions with actor appearance
Anishchenko et al. Mobile tutoring system in facial expression perception and production for children with autism spectrum disorder

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20191105

WD01 Invention patent application deemed withdrawn after publication