CN110751015B - 面部红外热图的灌注优化及人工智能情绪监测方法 - Google Patents
面部红外热图的灌注优化及人工智能情绪监测方法 Download PDFInfo
- Publication number
- CN110751015B CN110751015B CN201910823131.2A CN201910823131A CN110751015B CN 110751015 B CN110751015 B CN 110751015B CN 201910823131 A CN201910823131 A CN 201910823131A CN 110751015 B CN110751015 B CN 110751015B
- Authority
- CN
- China
- Prior art keywords
- frame
- infrared video
- video image
- face
- blood perfusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本申请提供一种面部红外热图的灌注优化及人工智能情绪监测方法,其中,基于监测目标个体面部红外视频,利用CNN‑BiGRU_Attention网络模型对每帧面部红外图像对应的血液灌注伪彩色图进行处理,进而挖掘蕴含在帧内空间特征向量矩阵;此外,利用BiGRU层确定面部红外视频帧间时间特征向量矩阵;最后基于每帧面部红外图像对应的空间特征向量矩阵和相邻帧间时间特征向量矩阵,确定监测目标个体针对每种预设情绪状态的概率特征信息。上述技术方案将CNN与BiGRU结合,BiGRU模块引入Attention机制,充分提取图像的空间特征和帧间时间特征,进而联合识别监测目标个体对于每种预设情绪状态的概率特征信息,可以在非干扰的测试环境中获取更加真实的情绪分布,有效提高了情绪识别的效率及准确度。
Description
技术领域
本申请涉及心理和信息处理领域,具体涉及一种面部红外热图的灌注优化及人工智能情绪监测方法。
背景技术
情绪,是对一系列主观认知经验的通称,是多种感觉、思想和行为综合产生的心理和生理状态。最普遍、通俗的情绪有喜、怒、哀、惊、恐、爱等,也有一些细腻微妙的情绪,例如嫉妒、惭愧、羞耻、自豪等。情绪常和心情、性格、脾气、目的等因素互相作用,也受到荷尔蒙和神经递质影响。无论正面还是负面的情绪,都是引发人们行动的动机。尽管一些情绪引发的行为看上去没有经过思考,但实际上意识是产生情绪重要的一环。可见关注个体的情绪特征对于进行情绪引导和人们的安全能够起到非常重要的作用。
目前,分析个体的情绪特征的技术方案中,有些是利用个体的音频信息确定的,有些是利用个体的图像信息确定的。但是,现有技术在分析个体的情绪特征时忽略了时间序列中的重要情感信息,准确率和效率均较低,并且只能确个体单一的情绪类型。
发明内容
(一)解决的技术问题
针对现有技术的不足,本申请提供了一种面部红外热图的灌注优化及人工智能情绪监测方法,解决了现有技术中确定的个体的情绪特征准度率低、情绪类型单一以及效率低的缺陷。
(二)技术方案
为实现以上目的,本申请通过以下技术方案予以实现:
本申请提供了一种面部红外热图的灌注优化及人工智能情绪监测方法,包括:
获取目标个体的面部红外视频;所述面部红外视频包括多帧面部红外视频图像;
针对每帧面部红外视频图像,获取该帧面部红外视频图像中额头部位的多个特征点的温度信息,基于所述多个特征点的温度信息,确定该帧面部红外视频图像对应的额头平均温度信息,并基于该帧面部红外视频图像对应的额头平均温度信息,确定该帧面部红外视频图像对应的血液灌注值,基于确定的所述血液灌注值,确定该帧面部红外视频图像对应的血液灌注伪彩色图;
利用CNN-BiGRU_Attention网络模型对每帧面部红外视频图像对应的血液灌注伪彩色图进行处理,分别得到每帧面部红外视频图像对应的空间特征向量矩阵;
针对每帧面部红外视频图像,将该帧面部红外视频图像对应的血液灌注伪彩色图对应的数据进行数据清洗,并将清洗后的数据转化BiGRU层能够处理的矩阵向量;对转化得到的矩阵向量进行语义编码,并基于语义编码得到的数据,确定该帧面部红外视频图像对应的权重系数,并利用BiGRU层,基于确定权重系数,确定该帧面部红外视频图像对应的时间特征向量矩阵;
将每帧面部红外视频图像对应的时间特征向量矩阵,和每帧面部红外视频图像对应的空间特征向量矩阵,利用全连接层进行拼接,并利用softmax函数对拼接得到的数据进行处理,确定目标个体针对每种预设情绪的概率特征信息;
将所述概率特征信息发送给客户端和显示端进行显示。
在一种可能的实施方式中,所述基于该帧面部红外视频图像对应的额头平均温度信息,确定该帧面部红外视频图像对应的血液灌注值,包括:
利用如下公式计算该帧面部红外视频图像对应的血液灌注值:
PI=0.073*e0.3846T/856
式中,PI表示该帧面部红外视频图像对应的血液灌注值,T表示该帧面部红外视频图像对应的额头平均温度信息;
利用上述公式计算得到的血液灌注值具有r2=0.986的高置信度。
在一种可能的实施方式中,所述基于确定的所述血液灌注值,确定该帧面部红外视频图像对应的血液灌注伪彩色图,包括:
利用python中的opencv模块对所述血液灌注值进行处理,得到该帧面部红外视频图像对应的血液灌注伪彩色图。
在一种可能的实施方式中,所述CNN-BiGRU_Attention网络模型包括3个卷积层,2个池化层和1个全连接层。卷积层设置了1个5*5和2个3*3的规格,2个池化层分别设置为Maxpooling和Global Average Pooling。
在一种可能的实施方式中,所述对转化得到的矩阵向量进行语义编码,包括:
利用如下公式对化得到的矩阵向量进行语义编码:
hij=BiGRU(cij)
式中,hij表示语义编码得到的数据,cij表示转化得到的矩阵向量。
在一种可能的实施方式中,所述基于语义编码得到的数据,确定该帧面部红外视频图像对应的权重系数,包括:
利用如下公式计算该帧面部红外视频图像对应的权重系数:
qij=tanh(whij+bw)
式中,qij表示权重系数,w表示预设常数,bw表示偏置系数,uw表示随机初始化的注意力矩阵,Attention机制矩阵sij由attention机制分配的不同概率权重与各个隐层状态的乘积的累加和,使用softmax函数做归一化操作得到。
(三)有益效果
本申请提供了一种面部红外热图的灌注优化及人工智能情绪监测方法。具备以下有益效果:
本申请首先获取目标个体的面部红外视频,之后,利用CNN-BiGRU_Attention网络模型对每帧面部红外视频图像对应的血液灌注伪彩色图进行处理,得到每帧面部红外视频图像对应的空间特征向量矩阵;利用BiGRU层确定每帧面部红外视频图像对应的时间特征向量矩阵;最后基于每帧面部红外视频图像对应的空间特征向量矩阵和每帧面部红外视频图像对应的时间特征向量矩阵,确定目标个体针对每种预设情绪的概率特征信息。上述技术方案将CNN与BiGRU结合,BiGRU模块引入Attention机制,提取图像的空间特征和时间特征,联合识别目标个体针对每种预设情绪的概率特征信息,有效提高了识别效率、准确度,克服了识别得到的类型单一的缺陷。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性的示出了本申请一实施例的面部红外热图的灌注优化及人工智能情绪监测方法的流程图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请提供了一种面部红外热图的灌注优化及人工智能情绪监测方法,该方法将CNN与BiGRU结合,BiGRU模块引入Attention机制,提取图像的空间特征和时间特征,联合识别目标个体针对每种预设情绪的概率特征信息,有效提高了识别效率、准确度,克服了识别得到的类型单一的缺陷。具体地,如图1所述,包括如下步骤:
S110、获取目标个体的面部红外视频;所述面部红外视频包括多帧面部红外视频图像。
这里,可以利用红外热像仪对人体面部进行实时拍摄,将所采集到的面部红外视频保存到与热像仪相连接的计算机中,并实时显示在屏幕上。
S120、针对每帧面部红外视频图像,获取该帧面部红外视频图像中额头部位的多个特征点的温度信息,基于所述多个特征点的温度信息,确定该帧面部红外视频图像对应的额头平均温度信息,并基于该帧面部红外视频图像对应的额头平均温度信息,确定该帧面部红外视频图像对应的血液灌注值,基于确定的所述血液灌注值,确定该帧面部红外视频图像对应的血液灌注伪彩色图。
上述多个特征点可以是预先设定的特征点。
本步骤中,基于该帧面部红外视频图像对应的额头平均温度信息,确定该帧面部红外视频图像对应的血液灌注值,包括:
利用如下公式计算该帧面部红外视频图像对应的血液灌注值:
PI=0.073*e0.3846T/856
式中,PI表示该帧面部红外视频图像对应的血液灌注值,T表示该帧面部红外视频图像对应的额头平均温度信息;
利用上述公式计算得到的血液灌注值具有r2=0.986的高置信度。
本步骤中,基于确定的所述血液灌注值,确定该帧面部红外视频图像对应的血液灌注伪彩色图,包括:
利用python中的opencv模块对所述血液灌注值进行处理,得到该帧面部红外视频图像对应的血液灌注伪彩色图。
本步骤中,利用红外分析软件对上述红外视频图像进行提取面部前额区域温度数据。然后,利用传热模型将每一帧红外视频图像所对应的面部前额皮肤温度转换为血液灌注值。本申请的上述公式是对SHT传热模型进行简化得到的,运用最小二乘法拟合出函数近似描述血液灌注值与皮肤温度之间的函数关系。
S130、利用CNN-BiGRU_Attention网络模型对每帧面部红外视频图像对应的血液灌注伪彩色图进行处理,分别得到每帧面部红外视频图像对应的空间特征向量矩阵。
CNN-BiGRU_Attention网络模型包括3个卷积层,2个池化层和1个全连接层。卷积层设置了1个5*5和2个3*3的规格,2个池化层分别设置为Maxpooling和Global AveragePooling。
S140、针对每帧面部红外视频图像,将该帧面部红外视频图像对应的血液灌注伪彩色图对应的数据进行数据清洗,并将清洗后的数据转化BiGRU层能够处理的矩阵向量;对转化得到的矩阵向量进行语义编码,并基于语义编码得到的数据,确定该帧面部红外视频图像对应的权重系数,并利用BiGRU层,基于确定权重系数,确定该帧面部红外视频图像对应的时间特征向量矩阵。
本步骤中,对转化得到的矩阵向量进行语义编码,包括:
利用如下公式对化得到的矩阵向量进行语义编码:
hij=BiGRU(cij)
式中,hij表示语义编码得到的数据,cij表示转化得到的矩阵向量。
本步骤中,基于语义编码得到的数据,确定该帧面部红外视频图像对应的权重系数,包括:
利用如下公式计算该帧面部红外视频图像对应的权重系数:
qij=tanh(whij+bw)
式中,qij表示权重系数,w表示预设常数,bw表示偏置系数,uw表示随机初始化的注意力矩阵,Attention机制矩阵sij由attention机制分配的不同概率权重与各个隐层状态的乘积的累加和,使用softmax函数做归一化操作得到。
本步骤中,在BiGRU的基础上引入了注意力(Attention)机制,形成BiGRU_Attention模型,共分为两部分:输入层、隐含层。其中隐含层有BiGRU层、attention层和全连接层组成。其中,输入层用于完成上述读取血液灌注伪彩色图对应的数据并进行数据清洗,将数据向量化成BiGRU层能够直接接收并能处理的序列向量形式。每一帧血液灌注伪彩色图按时间顺序排列为{s1,s2,s3…}。隐含层的计算主要完成上述步骤中的:根据BiGRU层的神经网络模型,把BiGRU看做由向前GRU和反向GRU两部分组成,在第i时刻输入的第j张血液灌注伪彩色图的矩阵向量为cij,通过BiGRU层特征提取后,可以更加充分地学习前后两帧血液灌注伪彩色图之间的关系,并实现语义编码。计算每个矩阵向量应分配的概率权重。BiGRU的Attention机制层的输入为上一层中经过BiGRU层激活处理的输出向量hij。
S150、将每帧面部红外视频图像对应的时间特征向量矩阵,和每帧面部红外视频图像对应的空间特征向量矩阵,利用全连接层进行拼接,并利用softmax函数对拼接得到的数据进行处理,确定目标个体针对每种预设情绪的概率特征信息;
S160、将所述概率特征信息发送给客户端和显示端进行显示。
上述实施例中,红外视频图像同其他信号(如面部表情、语音、肢体动作等在内的外在视觉和听觉信号,心率、脑电、脉搏等在内的心理信号)进行心理情绪识别相比,具有非侵犯性、非言语性以及对光照的鲁棒性等特征,基于红外视频图像所反映出的面部温度信息,结合深度学习中的卷积神经网络和时间序列神经网络分析模型,并引入注意力机制,进行心理情绪状态识别更具有可行性和高准确率。
上述实施例利用面部红外视频图像进行情绪识别,具有非侵犯性、非言语性以及对光照的鲁棒性等特征。面部红外视频图像转换为血液灌注伪彩色图,可以解决红外热像仪的测温范围相对人脸表面温度的变化过大,不易从原始的面部红外视频图像序列中直接观察到人体面部温度明显变化的区域的问题。上述实施例通过联合分析数据的时间特征和空间特征,更加准确有效地识别出真实的情绪状态。
上述面部红外热图的灌注优化及人工智能情绪监测方法,基于监测目标个体面部红外视频,利用CNN-BiGRU_Attention网络模型对每帧面部红外图像对应的血液灌注伪彩色图进行处理,进而挖掘蕴含在帧内空间特征向量矩阵;此外,利用BiGRU层确定面部红外视频帧间时间特征向量矩阵;最后基于每帧面部红外图像对应的空间特征向量矩阵和相邻帧间时间特征向量矩阵,确定监测目标个体针对每种预设情绪状态的概率特征信息。上述技术方案将CNN与BiGRU结合,BiGRU模块引入Attention机制,充分提取图像的空间特征和帧间时间特征,进而联合识别监测目标个体对于每种预设情绪状态的概率特征信息,可以在非干扰的测试环境中获取更加真实的情绪分布,有效提高了情绪识别的效率及准确度。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (3)
1.一种面部红外热图的灌注优化及人工智能情绪监测方法,其特征在于,包括:
获取目标个体的面部红外视频;所述面部红外视频包括多帧面部红外视频图像;
针对每帧面部红外视频图像,获取该帧面部红外视频图像中额头部位的多个特征点的温度信息,基于所述多个特征点的温度信息,确定该帧面部红外视频图像对应的额头平均温度信息,并基于该帧面部红外视频图像对应的额头平均温度信息,确定该帧面部红外视频图像对应的血液灌注值,基于确定的所述血液灌注值,确定该帧面部红外视频图像对应的血液灌注伪彩色图;
利用CNN-BiGRU_Attention网络模型对每帧面部红外视频图像对应的血液灌注伪彩色图进行处理,分别得到每帧面部红外视频图像对应的空间特征向量矩阵;
针对每帧面部红外视频图像,将该帧面部红外视频图像对应的血液灌注伪彩色图对应的数据进行数据清洗,并将清洗后的数据转化BiGRU层能够处理的矩阵向量;对转化得到的矩阵向量进行语义编码,并基于语义编码得到的数据,确定该帧面部红外视频图像对应的权重系数,并利用BiGRU层,基于确定权重系数,确定该帧面部红外视频图像对应的时间特征向量矩阵;
将每帧面部红外视频图像对应的时间特征向量矩阵,和每帧面部红外视频图像对应的空间特征向量矩阵,利用全连接层进行拼接,并利用softmax函数对拼接得到的数据进行处理,确定目标个体针对每种预设情绪的概率特征信息;
将所述概率特征信息发送给客户端和显示端进行显示;
所述基于该帧面部红外视频图像对应的额头平均温度信息,确定该帧面部红外视频图像对应的血液灌注值,包括:
利用如下公式计算该帧面部红外视频图像对应的血液灌注值:
PI=0.073*e0.3846T/856
式中,PI表示该帧面部红外视频图像对应的血液灌注值,T表示该帧面部红外视频图像对应的额头平均温度信息;
利用上述公式计算得到的血液灌注值具有r2=0.986的高置信度;
所述对转化得到的矩阵向量进行语义编码,包括:
利用如下公式对化得到的矩阵向量进行语义编码:
hij=BiGRU(cij)
式中,hij表示语义编码得到的数据,cij表示转化得到的矩阵向量;
所述基于语义编码得到的数据,确定该帧面部红外视频图像对应的权重系数,包括:
利用如下公式计算该帧面部红外视频图像对应的权重系数:
表示随机初始化的注意力矩阵,Attention机制矩阵sij由attention机制分配的不同概率权重与各个隐层状态的乘积的累加和,使用softmax函数做归一化操作得到。
2.根据权利要求1所述的方法,其特征在于,所述基于确定的所述血液灌注值,确定该帧面部红外视频图像对应的血液灌注伪彩色图,包括:
利用python中的opencv模块对所述血液灌注值进行处理,得到该帧面部红外视频图像对应的血液灌注伪彩色图。
3.根据权利要求1所述的方法,其特征在于,所述CNN-BiGRU_Attention网络模型包括3个卷积层,2个池化层和1个全连接层。卷积层设置了1个5*5和2个3*3的规格,2个池化层分别设置为Maxpooling和Global Average Pooling。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910823131.2A CN110751015B (zh) | 2019-09-02 | 2019-09-02 | 面部红外热图的灌注优化及人工智能情绪监测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910823131.2A CN110751015B (zh) | 2019-09-02 | 2019-09-02 | 面部红外热图的灌注优化及人工智能情绪监测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110751015A CN110751015A (zh) | 2020-02-04 |
CN110751015B true CN110751015B (zh) | 2023-04-11 |
Family
ID=69275993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910823131.2A Active CN110751015B (zh) | 2019-09-02 | 2019-09-02 | 面部红外热图的灌注优化及人工智能情绪监测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110751015B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112380938B (zh) * | 2020-11-04 | 2024-05-03 | 浙江大华技术股份有限公司 | 一种人脸识别及测温方法、装置、设备及介质 |
CN112507916B (zh) * | 2020-12-16 | 2021-07-27 | 苏州金瑞阳信息科技有限责任公司 | 一种基于面部神态的人脸检测方法和系统 |
CN112998652B (zh) * | 2021-02-23 | 2022-07-19 | 华南理工大学 | 一种光电容积脉搏波压力识别方法及系统 |
CN113057633B (zh) * | 2021-03-26 | 2022-11-01 | 华南理工大学 | 多模态情绪压力识别方法、装置、计算机设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2063416A1 (en) * | 2006-09-13 | 2009-05-27 | Nippon Telegraph and Telephone Corporation | Feeling detection method, feeling detection device, feeling detection program containing the method, and recording medium containing the program |
CN107169426A (zh) * | 2017-04-27 | 2017-09-15 | 广东工业大学 | 一种基于深度神经网络的人群情绪异常检测和定位方法 |
CN109993093A (zh) * | 2019-03-25 | 2019-07-09 | 山东大学 | 基于面部和呼吸特征的路怒监测方法、系统、设备及介质 |
CN110175578A (zh) * | 2019-05-29 | 2019-08-27 | 厦门大学 | 应用于刑侦的基于深度森林的微表情识别方法 |
-
2019
- 2019-09-02 CN CN201910823131.2A patent/CN110751015B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2063416A1 (en) * | 2006-09-13 | 2009-05-27 | Nippon Telegraph and Telephone Corporation | Feeling detection method, feeling detection device, feeling detection program containing the method, and recording medium containing the program |
CN107169426A (zh) * | 2017-04-27 | 2017-09-15 | 广东工业大学 | 一种基于深度神经网络的人群情绪异常检测和定位方法 |
CN109993093A (zh) * | 2019-03-25 | 2019-07-09 | 山东大学 | 基于面部和呼吸特征的路怒监测方法、系统、设备及介质 |
CN110175578A (zh) * | 2019-05-29 | 2019-08-27 | 厦门大学 | 应用于刑侦的基于深度森林的微表情识别方法 |
Non-Patent Citations (1)
Title |
---|
基于面部红外热图的恐惧情绪识别;刘小燕等;《电子测量与仪器学报》;20170315(第03期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110751015A (zh) | 2020-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110751015B (zh) | 面部红外热图的灌注优化及人工智能情绪监测方法 | |
Du et al. | Vision-based fatigue driving recognition method integrating heart rate and facial features | |
CN110598608B (zh) | 非接触式与接触式协同的心理生理状态智能监测系统 | |
US10610109B2 (en) | Emotion representative image to derive health rating | |
CN112560810A (zh) | 基于多尺度时空特征神经网络的微表情识别方法 | |
CN110464367B (zh) | 基于多通道协同的心理异常检测方法和系统 | |
CN112183228B (zh) | 一种社区智慧养老服务系统及方法 | |
CN111507592A (zh) | 一种面向服刑人员的主动改造行为的评估方法 | |
WO2017136931A1 (en) | System and method for conducting online market research | |
Wu et al. | Occluded face recognition based on the deep learning | |
Li et al. | Infant monitoring system for real-time and remote discomfort detection | |
CN107967941A (zh) | 一种基于智能视觉重构的无人机人体健康监控方法与系统 | |
Vance et al. | Deception detection and remote physiological monitoring: A dataset and baseline experimental results | |
CN110598607B (zh) | 非接触式与接触式协同的实时情绪智能监测系统 | |
CN111612090B (zh) | 基于内容颜色交叉相关的图像情感分类方法 | |
JP7306152B2 (ja) | 感情推定装置、感情推定方法、プログラム、情報提示装置、情報提示方法及び感情推定システム | |
CN112818740A (zh) | 一种用于智能面试的心理素质维度评价方法及装置 | |
CN113627448A (zh) | 构建人体热舒适预测模型的方法、预测方法及系统 | |
CN110705413A (zh) | 基于视线方向和lstm神经网络的情感预测方法及系统 | |
CN113269079B (zh) | 基于视频层次化比对分析和等级行为范式的儿童孤独症早期评估装置及系统 | |
CN113598741B (zh) | 一种房颤评价模型训练方法、房颤评价方法和装置 | |
CN115761891A (zh) | 一种基于时空融合的异常行为识别方法及装置 | |
Zheng et al. | Hand-over-face occlusion and distance adaptive heart rate detection based on imaging photoplethysmography and pixel distance in online learning | |
Jaiswal et al. | Color space analysis for improvement in rPPG | |
Kumar et al. | Emotion Detection through Facial Expression using DeepLearning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |