CN116824280A - 基于微表情变化的心理预警方法 - Google Patents
基于微表情变化的心理预警方法 Download PDFInfo
- Publication number
- CN116824280A CN116824280A CN202311104282.5A CN202311104282A CN116824280A CN 116824280 A CN116824280 A CN 116824280A CN 202311104282 A CN202311104282 A CN 202311104282A CN 116824280 A CN116824280 A CN 116824280A
- Authority
- CN
- China
- Prior art keywords
- module
- micro
- expression
- image
- psychological
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000008859 change Effects 0.000 title claims abstract description 26
- 230000014509 gene expression Effects 0.000 claims abstract description 44
- 238000004645 scanning capacitance microscopy Methods 0.000 claims abstract description 37
- 238000013528 artificial neural network Methods 0.000 claims abstract description 19
- 230000009323 psychological health Effects 0.000 claims abstract description 16
- 230000008909 emotion recognition Effects 0.000 claims abstract description 14
- 230000004913 activation Effects 0.000 claims abstract description 6
- 238000011176 pooling Methods 0.000 claims abstract description 6
- 230000003287 optical effect Effects 0.000 claims description 41
- 238000012549 training Methods 0.000 claims description 24
- 230000008451 emotion Effects 0.000 claims description 23
- 230000000694 effects Effects 0.000 claims description 21
- 238000013527 convolutional neural network Methods 0.000 claims description 15
- 238000012544 monitoring process Methods 0.000 claims description 15
- 238000004458 analytical method Methods 0.000 claims description 14
- 238000011156 evaluation Methods 0.000 claims description 12
- 239000013598 vector Substances 0.000 claims description 11
- 125000004122 cyclic group Chemical group 0.000 claims description 9
- 230000008921 facial expression Effects 0.000 claims description 8
- 230000015654 memory Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 238000002474 experimental method Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 5
- 238000005286 illumination Methods 0.000 claims description 4
- 230000004630 mental health Effects 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 238000012795 verification Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 238000007619 statistical method Methods 0.000 claims description 2
- 239000000284 extract Substances 0.000 abstract description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000001815 facial effect Effects 0.000 description 4
- 238000005728 strengthening Methods 0.000 description 4
- 230000036651 mood Effects 0.000 description 3
- 210000003205 muscle Anatomy 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000001097 facial muscle Anatomy 0.000 description 2
- 230000007787 long-term memory Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于微表情变化的心理预警方法,由图像数据库、SCAM神经网络结构和展示系统组成,所述SCAM神经网络结构由第一阶段模块、第二阶段核心模块和第三阶段模块组成,所述图像数据库的建立需要以下步骤。本发明通过利用第一阶段模块中从图像数据库中提取微表情图像数据和人像识别图像序列并进行微表情图像序列的特征提取,并利用第二阶段核心模块中的:“SCAM模块1和SCAM模块4”对特征进行识别分析,再利用第三阶段模块中的:“卷积模块、全局池化模块和激活模块”进行提高图像情绪识别率,其中第二阶段核心模块能够进行多角度综合分析识别图像数据库中录入的个人表情,从而更加精准的判断人们是否出现心理健康问题,提高准确率。
Description
技术领域
本发明涉及心理预警技术领域,具体为基于微表情变化的心理预警方法。
背景技术
心理预警是利用人脸微表情来判断个体心理状态的方法,人类在经历情绪波动时,会在面部肌肉中产生微小的表情变化,这些变化可能是瞬间的、不易察觉的。通过分析和识别这些微表情的变化模式,帮助识别和预测个体的心理状态,而基于微表情变化的心理预警方法能够针对人们的微表情建立个性化表情体系,更加精准的判断人们心理健康问题,并给予预警。
现有的心理预警存在的缺陷是:
1、传统的心理预警不够完善,通常通过大众化的表情库进行判断,不便于更加精准的判断人们是否出现心理健康问题,降低了准确率。
2、传统的心理预警不够完善,不便于将人脸关键点和光流两种特征结合起来识别微表情,降低了个人用户面部表情的细微差别特征的识别率。
3、传统的心理预警不够完善,不便于建立微表情与心理情绪的关联模型,并绘制心理摆曲线图展示给人们观看,降低了预警直观度。
4、传统的心理预警不够完善,没有在进行微表情识别的同时对情绪进行剖析和对心理健康状态进行综合评估的方法,体系不够完整。
发明内容
本发明的目的在于提供基于微表情变化的心理预警方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:1.基于微表情变化的心理预警方法,由图像数据库、SCAM神经网络结构和展示系统组成,所述SCAM神经网络结构由第一阶段模块、第二阶段核心模块和第三阶段模块组成,所述图像数据库的建立需要以下步骤:
步骤一,建立表情库;
步骤二,向图像数据库中录入个人表情,形成个人个性化表情体系;
步骤三,监测用户人脸关键点;
步骤四,监测光流图像;
步骤五,将人脸关键点和光流两种特征结合起来;
步骤六,建立精细微表情与心理情绪关联模型,同时绘制心理摆的曲线;
步骤七,检验图像情绪识别效果;
利用所述第一阶段模块中的:“卷积模块和归一化模块”和第二阶段核心模块中的:“SCAM模块1和SCAM模块4”与第三阶段模块中的:“卷积模块、全局池化模块和激活模块”进行建立精细微表情与心理情绪关联模型,同时绘制心理摆的曲线。
优选的,在步骤一中还包括在所述第二阶段核心模块能够进行多角度综合分析识别图像数据库中录入的个人表情。
优选的,向所述图像数据库中录入个人表情时,需要首先录入两大类表情图像序列:开心和失落;
开心的图像序列为:“H”和“VH”;
失落的图像序列为:“DH”、“DDH”和“VDH”。
优选的,所述“H”所对应的微表情为微笑,钟摆效应结果为正;
“VH”所对应的微表情为大笑,钟摆效应结果为正+;
“DH”所对应的微表情为勉强笑,钟摆效应结果为正-;
“DDH”所对应的微表情为苦笑,钟摆效应结果为负;
“VDH”所对应的微表情为难过,钟摆效应结果为负+。
优选的,所述卷积模块用于构建ELRCN模型、CNN模型和长短期记忆循环神经网络LSTM模块,通过CNN模块提取深度空间特征,将每个微表情帧编码成特征向量,然后使用LSTM模块进行时间维度上的微表情特征学习,判断用户微表情,得到人脸关键点,使用CNN模型提取特征,配合使用SCAM卷积神经网络,使用长短期记忆循环神经网络LSTM模块进行微表情的时间维度上的特征学习。
优选的,在所述时间维度上的特征学习后,使用人像识别与图像数据库中的图像序列进行对比,并提取对应的微表情图像序列,然后对每个微表情序列的起始帧和峰值帧进行预处理,提取凸显人脸关键区域的人脸关键点,同时避免光照变化的影响,将人脸图片与人脸关键点分离,然后将两帧关键点叠加输入到预训练好的ResNet-10中进行训练,以监测用户人脸关键点特征。
优选的,所述监测光流图像需要在微表情序列的起始帧和峰值帧进行预处理,使用ELRCN模型,通过叠加光流图像、光流应变图像和原始灰度图像来丰富空间维度,并通过叠加深度特征实现时间维度的学习;
光流特征分支:计算每个微表情序列中起始帧到峰值帧的光流,将水平光流和垂直光流与光学应变、光流幅值或图片灰度值进行通道拼接,得到一种基于光流的三维特征,将其输入到预训练好的ResNet-10中进行训练。
优选的,将所述用户人脸关键点和光流两种特征的输出向量合并,得到最终的分类输出,然后使用第二阶段核心模块中的SCAM模块1和SCAM模块4对图像数据库中录入的个人表情进行多角度综合分析和识别效果评估,选取X-ception网络、VGGFace网络、SE-Xception网络和SCAM网络分别对CK+48数据库和FER2013数据库进行图像情绪识别比对实验。
优选的,使用所述X-ception网络、VGGFace网络、SE-Xception网络和SCAM网络对CK+48数据库和FER2013数据库进行图像情绪识别比对实验的步骤如下:
一、数据处理:
(1)从数据库中提取人脸图像数据;
(2)进行数据标注;
(3)裁剪和调整图像尺寸;
(4)数据增强操作(例如随机出现的旋转、平行移位或倒置图像);
二、模型选择和配置:
(1)选择经典的人脸表情识别模型,如CK+48、FER2013数据库,下载或构建所选模型的权重;
(2)加载模型并进行配置;
三、训练模型:
(1)将CK+48数据库划分为训练集和验证集,参考组合计算的具体情况来定义强化训练集和可验证集的百分比;
(2)使用交叉熵损失函数和适当的优化器(如Adam),设置学习率为0.001进行模型训练;
(3)监控调整模型;
四、模型评估:
(1)对测试集进行情绪识别预测;
(2)计算分类评分、准确性、评分模型和F1指标;
五、最终分析:
(1)比较不同模型的性能;
(2)进行统计分析,找出优势模型或方法。
优选的,最后利用所述图像序列和个人用户面部表情特征的细微差别特征配合第一阶段模块、第二阶段核心模块和第三阶段模块的分析判断和对比给出心理健康状态的综合评估,并给出相应的预警方法,同时通过系统展示给用户观看。
与现有技术相比,本发明的有益效果是:
1、本发明通过向图像数据库中录入个人表情,形成个人个性化表情体系时需要首先录入两大类表情图像序列,分别为开心和失落,开心的图像序列为:“H”和“VH”,失落的图像序列为:“DH”、“DDH”和“VDH”,利用第一阶段模块中的:“卷积模块和归一化模块”从图像数据库中提取微表情图像数据和人像识别图像序列并进行微表情图像序列的特征提取,并将提取后的特征传输给第二阶段核心模块,并利用其中的:“SCAM模块1和SCAM模块4”对特征进行识别分析,再将分析后的图像情绪特征输出给第三阶段模块中的:“卷积模块、全局池化模块和激活模块”进行提高图像情绪识别率,其中所述第二阶段核心模块能够进行多角度综合分析识别图像数据库中录入的个人表情,从而更加精准的判断人们是否出现心理健康问题,提高准确率。
2、本发明通过利用卷积模块通过CNN模块提取深度空间特征,将每个微表情帧编码成特征向量,然后通过将特征向量通过一个长短期记忆循环神经网络LSTM模块,利用微表情进行深度学习,判断用户微表情,得到人脸关键点,使用CNN模型提取特征,配合使用SCAM卷积神经网络,使用长短期记忆循环神经网络LSTM模块并通过叠加光流图像,光流应变图像和原始灰度图像丰富空间维度,并通过叠加深度特征实现时间维度的学习,在时间维度上的特征学习后需要利用人像识别与图像数据库中的图像序列对比,并提取对应的微表情图像序列,随后将每个微表情序列的起始帧和峰值帧进行预处理,然后提取人脸关键点为凸显人脸关键区域,同时避免光照变化影响,将人脸图片与人脸关键点分离,然后将两帧关键点叠加输入到预训练好的ResNet-10中进行训练,监测得到用户人脸关键点特征,监测光流图像需要在微表情序列的起始帧和峰值帧进行预处理后使用ELRCN模型,通过叠加光流图像,光流应变图像和原始灰度图像丰富空间维度,并通过叠加深度特征实现时间维度的学习,光流特征分支:分别计算每个微表情序列中起始帧到峰值帧的光流,将水平光流和垂直光流与光学应变、光流幅值、图片灰度值三者其一进行通道拼接,得到一种基于光流的三维特征,将其送入到预训练好的ResNet-10中进行训练,将用户人脸关键点和光流两种特征的输出向量进行合并,得到最终分类输出,从而方便将人脸关键点和光流两种特征结合起来识别微表情,提高了个人用户面部表情的细微差别特征的识别率。
3、本发明通过三个阶段实现了对图像数据的特征提取、识别分析,提高了图像情绪识别率,分别是:作为第一阶段处理模块的卷积模块/归一化模块,作为第二阶段核心处理模块的SCAM模块,作为第三阶段处理模块的卷积模块/全局池化模块/激活模块,将得到的结果,结合情绪摆钟效应绘制心理摆曲线,并传输给展示系统展示识别结果,从而实现建立微表情与心理情绪的关联模型,并绘制心理摆曲线图展示给人们观看,提高了预警直观度。
4、本发明通过利用图像序列对应的微表情、结果和基本特征与个人用户面部表情特征的细微差别特征配合进行微表情分类,同时对微表情情绪进行识别,并将分类后的微表情根据对应分类的微表情的生理信号预测存在心理健康问题的初步概率,同时根据识别到的情绪绘制情绪钟摆曲线图,并根据情绪预测出存在心理健康问题的初步概率,随后结合两个初步概率综合评估得到存在心理健康问题的最终概率,同时配合第一阶段模块、第二阶段核心模块和第三阶段模块的分析判断和对比给出心理健康状态的综合评估,并给出相应的预警方法,同时通过展示系统展示给用户观看,从而实现涵盖从微表情识别到情绪剖析再到心理健康状态的综合评估,体系更加完整。
附图说明
图1为本发明的整体心理预警流程示意图;
图2为本发明的个人个性化表情体系录入流程示意图;
图3为本发明的SCAM神经网络结构示意图;
图4为本发明的时间维度学习流程示意图;
图5为本发明的微表情处理流程示意图;
图6为本发明的心理摆曲获得流程示意图;
图7为本发明的心理健康评估预警流程示意图;
图8为本发明的图像情绪识别比对实验流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:请参阅图1、图2、图3和图6,本发明提供的一种实施例:基于微表情变化的心理预警方法,由图像数据库、SCAM神经网络结构和展示系统组成,SCAM神经网络结构由第一阶段模块、第二阶段核心模块和第三阶段模块组成,步骤一,建立表情库:利用第一阶段模块中的:“卷积模块和归一化模块”从图像数据库中提取微表情图像数据和人像识别图像序列并进行微表情图像序列的特征提取,并将提取后的特征传输给第二阶段核心模块,并利用其中的:“SCAM模块1和SCAM模块4”对特征进行识别分析,再将分析后的图像情绪特征输出给第三阶段模块中的:“卷积模块、全局池化模块和激活模块”进行提高图像情绪识别率,并将第一阶段模块、第二阶段模块和第三阶段模块配合建立精细微表情与心理情绪关联模型,得到的结果结合情绪摆钟效应绘制心理摆的曲线,并传输给展示系统展示识别结果,其中所述第二阶段核心模块能够进行多角度综合分析识别图像数据库中录入的个人表情。
实施例2:请参阅图2和图7,本发明提供的一种实施例:基于微表情变化的心理预警方法,包括步骤二,向图像数据库中录入个人表情,形成个人个性化表情体系:向图像数据库中录入个人表情,形成个人个性化表情体系时需要首先录入两大类表情图像序列,分别为开心和失落;
开心的图像序列为:“H”和“VH”;
失落的图像序列为:“DH”、“DDH”和“VDH”。
“H”所对应的微表情为:微笑,微笑对应钟摆效应中的结果为:正,微笑对应的基本特征为“嘴唇呈向上弧形、不露齿、眼轮匝肌收缩”;
“VH”所对应的微表情为:大笑,大笑对应钟摆效应中的结果为正+,大笑对应的基本特征为“嘴唇呈向上弧形、张嘴露齿、眼轮匝肌收缩”;
“DH”所对应的微表情为:勉强笑,勉强笑对应钟摆效应中的结构为正-,勉强笑对应的基本特征为“嘴角微微向上、眼轮匝肌不收缩”;
“DDH”所对应的微表情为:苦笑,苦笑对应钟摆效应中的结构为负,苦笑对应的基本特征为“嘴角微微向上,面部肌肉僵硬、眼轮匝肌不收缩”;
“VDH”所对应的微表情为:难过,难过对应钟摆效应中的结构为负+,难过对应的基本特征为“眉头上扬、内眼角的眉眼距离增加”。
实施例3:请参阅图1、图2、图3、图4、图5和图7,本发明提供的一种实施例:基于微表情变化的心理预警方法,包括步骤三,监测用户人脸关键点;卷积模块能够架构出ELRCN模型、CNN模型和长短期记忆循环神经网络LSTM模块,能够通过CNN模块提取深度空间特征,将每个微表情帧编码成特征向量,然后通过将特征向量通过一个长短期记忆循环神经网络LSTM模块,利用微表情进行深度学习,判断用户微表情,得到人脸关键点;
实施例4:请参阅图1、图2、图3、图4、图5和图7,本发明提供的一种实施例:步骤四,监测光流图像:使用CNN模型提取特征,配合使用SCAM卷积神经网络,使用长短期记忆循环神经网络LSTM模块并通过叠加光流图像,光流应变图像和原始灰度图像丰富空间维度,并通过叠加深度特征实现时间维度的学习,在时间维度上的特征学习后需要利用人像识别与图像数据库中的图像序列对比,并提取对应的微表情图像序列,随后将每个微表情序列的起始帧和峰值帧进行预处理,然后提取人脸关键点为凸显人脸关键区域,同时避免光照变化影响,将人脸图片与人脸关键点分离,然后将两帧关键点叠加输入到预训练好的ResNet-10中进行训练,监测得到用户人脸关键点特征,步骤五,将人脸关键点和光流两种特征结合起来:监测光流图像需要在微表情序列的起始帧和峰值帧进行预处理后使用ELRCN模型,通过叠加光流图像,光流应变图像和原始灰度图像丰富空间维度,并通过叠加深度特征实现时间维度的学习,步骤六,建立精细微表情与心理情绪关联模型,同时绘制心理摆的曲线:光流特征分支:分别计算每个微表情序列中起始帧到峰值帧的光流,将水平光流和垂直光流与光学应变、光流幅值、图片灰度值三者其一进行通道拼接,得到一种基于光流的三维特征,将其送入到预训练好的ResNet-10中进行训练,将用户人脸关键点和光流两种特征的输出向量进行合并,得到最终分类输出。
实施例5:请参阅图1、图2、图3、图5、图6、图7和图8,本发明提供的一种实施例:基于微表情变化的心理预警方法,包括步骤七,检验图像情绪识别效果:利用图像序列对应的微表情、结果和基本特征与个人用户面部表情特征的细微差别特征配合进行微表情分类,同时对微表情情绪进行识别,并将分类后的微表情根据对应分类的微表情的生理信号预测存在心理健康问题的初步概率,同时根据识别到的情绪绘制情绪钟摆曲线图,并根据情绪预测出存在心理健康问题的初步概率,随后结合两个初步概率综合评估得到存在心理健康问题的最终概率,并利用第二阶段核心模块中的SCAM模块1和SCAM模块4为多角度综合分析提出的SCAM神经网络对于图像数据库中录入个人表情的识别效果,选取X-ception网络,VGGFace网络和SE-Xception网络,以及SCAM网络分别对CK+48数据库和FER2013数据库进行图像情绪识别比对实验:
一、数据处理:
(1)从CK+48数据库和FER2013数据库中提取面部特征的数据。
(2)执行算法工程,将每个提取出的面部特征图像与相应的情绪分类相关联;
(3)对面部特征图像进行裁剪和调整尺寸,以满足模型输入需求(例如将面部特征图像调整为完全相同的尺寸);
(4)考虑数据库数据增强操作,例如随机出现的旋转、平行移位或倒置图像,(例如旋转角度范围为±15度,平移距离范围为±10%),以增强深度学习模型以进行强化训练;
二、模型的选择和配置:
(1)下载或构建X-ception网络、VGGFace 网络、SE-Xception网络和SCAM网络的模型权重;
(2)参考结合各模型表的指导文档,加载模型表并进行必需的设置,例如设置输入显示图像大小和各种情绪的具体分类数量;
三、训练模型:
(1)将CK+48数据库分为强化训练集和可测试集,用于强化训练模型和模型验证,能够参考组合计算的具体情况来定义强化训练集和可验证集的百分比;
(2)使用交叉熵损失函数和适当的优化器(如Adam)来训练每个模型,设置学习率为0.001并调整批量修改大小等相关参数来优化具体的强化训练过程;
(3)监控具体强化训练过程中的损失和准确率要求,并参考验证集的质量和性能调整模型;
四、模型评价:
(1)选用强化训练的模型在CK+48数据库测试集和FER2013数据库上进行情绪识别预测;
(2)计算测试集中每个模型像的评分、准确性、评分模型和F1分数等基本指标,以评估其质量和性能;
五、最终分析:
(1)相对比较CK+48和FER2013中每个模型的质量和性能,能够借助查看分类准确率、正确率、分类模型、混淆向量空间等基本指标来了解每个模型如何预测不同情绪类别;
(2)进行数据分析结果,比较相对不同且不完全相等的模型表,发现优势模型或具体方法同时配合第一阶段模块、第二阶段核心模块和第三阶段模块的分析判断和对比给出心理健康状态的综合评估,并给出相应的预警方法,同时通过系统展示给用户观看;
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视位置限制所涉及的权利要求。
Claims (10)
1.基于微表情变化的心理预警方法,由图像数据库、SCAM神经网络结构和展示系统组成,其特征在于:所述SCAM神经网络结构由第一阶段模块、第二阶段核心模块和第三阶段模块组成,所述图像数据库的建立需要以下步骤:
步骤一,建立表情库;
步骤二,向图像数据库中录入个人表情,形成个人个性化表情体系;
步骤三,监测用户人脸关键点;
步骤四,监测光流图像;
步骤五,将人脸关键点和光流两种特征结合起来;
步骤六,建立精细微表情与心理情绪关联模型,同时绘制心理摆的曲线;
步骤七,检验图像情绪识别效果;
步骤八,给出心理健康状态的综合评估;利用所述第一阶段模块中的:“卷积模块和归一化模块”和第二阶段核心模块中的:“SCAM模块1和SCAM模块4”与第三阶段模块中的:“卷积模块、全局池化模块和激活模块”进行建立精细微表情与心理情绪关联模型,同时绘制心理摆的曲线。
2.根据权利要求1所述的基于微表情变化的心理预警方法,其特征在于:在步骤一中还包括在所述第二阶段核心模块能够进行多角度综合分析识别图像数据库中录入的个人表情。
3.根据权利要求2所述的基于微表情变化的心理预警方法,其特征在于:向所述图像数据库中录入个人表情时,需要首先录入两大类表情图像序列:开心和失落;
开心的图像序列为:“H”和“VH”;
失落的图像序列为:“DH”、“DDH”和“VDH”。
4.根据权利要求3所述的基于微表情变化的心理预警方法,其特征在于:所述“H”所对应的微表情为微笑,钟摆效应结果为正;
“VH”所对应的微表情为大笑,钟摆效应结果为正+;
“DH”所对应的微表情为勉强笑,钟摆效应结果为正-;
“DDH”所对应的微表情为苦笑,钟摆效应结果为负;
“VDH”所对应的微表情为难过,钟摆效应结果为负+。
5.根据权利要求4所述的基于微表情变化的心理预警方法,其特征在于:所述卷积模块用于构建ELRCN模型、CNN模型和长短期记忆循环神经网络LSTM模块,通过CNN模块提取深度空间特征,将每个微表情帧编码成特征向量,然后使用LSTM模块进行时间维度上的微表情特征学习,判断用户微表情,得到人脸关键点,使用CNN模型提取特征,配合使用SCAM卷积神经网络,使用长短期记忆循环神经网络LSTM模块进行微表情的时间维度上的特征学习。
6.根据权利要求5所述的基于微表情变化的心理预警方法,其特征在于:在所述时间维度上的特征学习后,使用人像识别与图像数据库中的图像序列进行对比,并提取对应的微表情图像序列,然后对每个微表情序列的起始帧和峰值帧进行预处理,提取凸显人脸关键区域的人脸关键点,同时避免光照变化的影响,将人脸图片与人脸关键点分离,然后将两帧关键点叠加输入到预训练好的ResNet-10中进行训练,以监测用户人脸关键点特征。
7.根据权利要求6所述的基于微表情变化的心理预警方法,其特征在于:所述监测光流图像需要在微表情序列的起始帧和峰值帧进行预处理,使用ELRCN模型,通过叠加光流图像、光流应变图像和原始灰度图像来丰富空间维度,并通过叠加深度特征实现时间维度的学习;
光流特征分支:计算每个微表情序列中起始帧到峰值帧的光流,将水平光流和垂直光流与光学应变、光流幅值或图片灰度值进行通道拼接,得到一种基于光流的三维特征,将其输入到预训练好的ResNet-10中进行训练。
8.根据权利要求7所述的基于微表情变化的心理预警方法,其特征在于:将所述用户人脸关键点和光流两种特征的输出向量合并,得到最终的分类输出,然后使用第二阶段核心模块中的SCAM模块1和SCAM模块4对图像数据库中录入的个人表情进行多角度综合分析和识别效果评估,选取X-ception网络、VGGFace网络、SE-Xception网络和SCAM网络分别对CK+48数据库和FER2013数据库进行图像情绪识别比对实验。
9.根据权利要求8所述的基于微表情变化的心理预警方法,其特征在于:
使用所述X-ception网络、VGGFace网络、SE-Xception网络和SCAM网络对CK+48数据库和FER2013数据库进行图像情绪识别比对实验的步骤如下:
一、数据处理:
(1)从数据库中提取人脸图像数据;
(2)进行数据标注;
(3)裁剪和调整图像尺寸;
(4)数据增强操作(例如随机出现的旋转、平行移位或倒置图像);
二、模型选择和配置:
(1)选择经典的人脸表情识别模型,如CK+48、FER2013数据库,下载或构建所选模型的权重;
(2)加载模型并进行配置;
三、训练模型:
(1)将CK+48数据库划分为训练集和验证集,参考组合计算的具体情况来定义强化训练集和可验证集的百分比;
(2)使用交叉熵损失函数和适当的优化器(如Adam),设置学习率为0.001进行模型训练;
(3)监控调整模型;
四、模型评估:
(1)对测试集进行情绪识别预测;
(2)计算分类评分、准确性、评分模型和F1指标;
五、最终分析:
(1)比较不同模型的性能;
(2)进行统计分析,找出优势模型或方法。
10.根据权利要求9所述的基于微表情变化的心理预警方法,其特征在于:最后利用所述图像序列和个人用户面部表情特征的细微差别特征配合第一阶段模块、第二阶段核心模块和第三阶段模块的分析判断和对比给出心理健康状态的综合评估,并给出相应的预警方法,同时通过系统展示给用户观看。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311104282.5A CN116824280B (zh) | 2023-08-30 | 2023-08-30 | 基于微表情变化的心理预警方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311104282.5A CN116824280B (zh) | 2023-08-30 | 2023-08-30 | 基于微表情变化的心理预警方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116824280A true CN116824280A (zh) | 2023-09-29 |
CN116824280B CN116824280B (zh) | 2023-11-24 |
Family
ID=88114929
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311104282.5A Active CN116824280B (zh) | 2023-08-30 | 2023-08-30 | 基于微表情变化的心理预警方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116824280B (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090285456A1 (en) * | 2008-05-19 | 2009-11-19 | Hankyu Moon | Method and system for measuring human response to visual stimulus based on changes in facial expression |
WO2019184125A1 (zh) * | 2018-03-30 | 2019-10-03 | 平安科技(深圳)有限公司 | 基于微表情的风险识别方法、装置、设备及介质 |
WO2020082566A1 (zh) * | 2018-10-25 | 2020-04-30 | 深圳壹账通智能科技有限公司 | 基于生物识别的远程教学方法、装置、设备及存储介质 |
CN112329793A (zh) * | 2020-11-05 | 2021-02-05 | 天津大学 | 基于结构自适应和规模自适应感受野的显著性检测方法 |
CN112766159A (zh) * | 2021-01-20 | 2021-05-07 | 重庆邮电大学 | 一种基于多特征融合的跨数据库微表情识别方法 |
US20210174072A1 (en) * | 2018-11-21 | 2021-06-10 | Tencent Technology (Shenzhen) Company Limited | Microexpression-based image recognition method and apparatus, and related device |
WO2021259005A1 (zh) * | 2020-06-23 | 2021-12-30 | 平安科技(深圳)有限公司 | 视频微表情识别方法、装置、计算机设备及存储介质 |
CN113920571A (zh) * | 2021-11-06 | 2022-01-11 | 北京九州安华信息安全技术有限公司 | 基于多运动特征融合的微表情识别方法及装置 |
CN114220154A (zh) * | 2021-12-20 | 2022-03-22 | 王越 | 一种基于深度学习的微表情特征提取与识别方法 |
CN114333002A (zh) * | 2021-12-27 | 2022-04-12 | 南京邮电大学 | 基于图深度学习和人脸三维重建的微表情识别方法 |
CN115393944A (zh) * | 2022-09-15 | 2022-11-25 | 重庆邮电大学 | 一种基于多维特征融合的微表情识别方法 |
CN116030521A (zh) * | 2023-01-18 | 2023-04-28 | 杭州电子科技大学 | 一种基于频域特征的微表情识别方法 |
US20230169792A1 (en) * | 2021-11-26 | 2023-06-01 | GenkiTek Technology Co., Ltd. | System and method of mode selection face recognition with parallel cnns |
-
2023
- 2023-08-30 CN CN202311104282.5A patent/CN116824280B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090285456A1 (en) * | 2008-05-19 | 2009-11-19 | Hankyu Moon | Method and system for measuring human response to visual stimulus based on changes in facial expression |
WO2019184125A1 (zh) * | 2018-03-30 | 2019-10-03 | 平安科技(深圳)有限公司 | 基于微表情的风险识别方法、装置、设备及介质 |
WO2020082566A1 (zh) * | 2018-10-25 | 2020-04-30 | 深圳壹账通智能科技有限公司 | 基于生物识别的远程教学方法、装置、设备及存储介质 |
US20210174072A1 (en) * | 2018-11-21 | 2021-06-10 | Tencent Technology (Shenzhen) Company Limited | Microexpression-based image recognition method and apparatus, and related device |
WO2021259005A1 (zh) * | 2020-06-23 | 2021-12-30 | 平安科技(深圳)有限公司 | 视频微表情识别方法、装置、计算机设备及存储介质 |
CN112329793A (zh) * | 2020-11-05 | 2021-02-05 | 天津大学 | 基于结构自适应和规模自适应感受野的显著性检测方法 |
CN112766159A (zh) * | 2021-01-20 | 2021-05-07 | 重庆邮电大学 | 一种基于多特征融合的跨数据库微表情识别方法 |
CN113920571A (zh) * | 2021-11-06 | 2022-01-11 | 北京九州安华信息安全技术有限公司 | 基于多运动特征融合的微表情识别方法及装置 |
US20230169792A1 (en) * | 2021-11-26 | 2023-06-01 | GenkiTek Technology Co., Ltd. | System and method of mode selection face recognition with parallel cnns |
CN114220154A (zh) * | 2021-12-20 | 2022-03-22 | 王越 | 一种基于深度学习的微表情特征提取与识别方法 |
CN114333002A (zh) * | 2021-12-27 | 2022-04-12 | 南京邮电大学 | 基于图深度学习和人脸三维重建的微表情识别方法 |
CN115393944A (zh) * | 2022-09-15 | 2022-11-25 | 重庆邮电大学 | 一种基于多维特征融合的微表情识别方法 |
CN116030521A (zh) * | 2023-01-18 | 2023-04-28 | 杭州电子科技大学 | 一种基于频域特征的微表情识别方法 |
Non-Patent Citations (1)
Title |
---|
谢东亮等: "基于人工智能的微表情识别技术", 《科技与创新》, no. 22, pages 35 - 37 * |
Also Published As
Publication number | Publication date |
---|---|
CN116824280B (zh) | 2023-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111432233B (zh) | 用于生成视频的方法、装置、设备和介质 | |
CN111523462B (zh) | 基于自注意增强cnn的视频序列表情识别系统及方法 | |
CN110751208A (zh) | 一种基于自权重差分编码器进行多模态特征融合的服刑人员情感识别方法 | |
CN109948447B (zh) | 基于视频图像识别的人物网络关系发现及演化呈现方法 | |
US20160350611A1 (en) | Method and apparatus for authenticating liveness face, and computer program product thereof | |
CN111583964A (zh) | 一种基于多模深度特征学习的自然语音情感识别方法 | |
Mao et al. | Prediction of depression severity based on the prosodic and semantic features with bidirectional LSTM and time distributed CNN | |
CN114724222B (zh) | 一种基于多模态的ai数字人情感分析方法 | |
CN110797032B (zh) | 一种声纹数据库建立方法及声纹识别方法 | |
CN111666845A (zh) | 基于关键帧采样的小样本深度学习多模态手语识别方法 | |
CN116230234A (zh) | 多模态特征一致性心理健康异常识别方法及系统 | |
CN114898779A (zh) | 融合多模态的语音情感识别方法及系统 | |
CN116824280B (zh) | 基于微表情变化的心理预警方法 | |
CN112699236B (zh) | 一种基于情感识别与瞳孔大小计算的Deepfake检测方法 | |
Xiao et al. | Head motion synchrony and its correlation to affectivity in dyadic interactions | |
Chen et al. | An Identity Authentication Method Based on Multi-modal Feature Fusion | |
CN115905977A (zh) | 家庭同胞互动过程中负面情绪的监督系统及方法 | |
JP6285377B2 (ja) | コミュニケーションスキル評価フィードバック装置、コミュニケーションスキル評価フィードバック方法及びコミュニケーションスキル評価フィードバックプログラム | |
KR20230112478A (ko) | 성문 빅데이터 분석을 통한 궁합 시스템 및 그 방법 | |
Rasipuram et al. | Multi-modal expression recognition in the wild using sequence modeling | |
CN117150320B (zh) | 对话数字人情感风格相似度评价方法及系统 | |
Singh | Speaker emotion Recognition System using Artificial neural network classification method for brain-inspired application | |
CN109711300A (zh) | 盲人辅助沟通方法、装置、计算机设备和存储介质 | |
Xu et al. | Multimodal Depression Recognition that Integrates Audio and Text | |
Novitasari et al. | Multi-modal multi-task deep learning for speaker and emotion recognition of tv-series data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |