CN105279380B - 一种基于表情分析的抑郁程度自动评估系统 - Google Patents
一种基于表情分析的抑郁程度自动评估系统 Download PDFInfo
- Publication number
- CN105279380B CN105279380B CN201510746466.0A CN201510746466A CN105279380B CN 105279380 B CN105279380 B CN 105279380B CN 201510746466 A CN201510746466 A CN 201510746466A CN 105279380 B CN105279380 B CN 105279380B
- Authority
- CN
- China
- Prior art keywords
- video
- depression
- degree
- module
- hamd
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于表情分析的抑郁程度自动评估系统,包括数据采集模块、预处理和特征提取模块、相关特征提取模块、预测模型训练模块、新视频标注模块和新视频预测模块。本发明全程自动化,无侵入,无需受试对象的长时间配合,可长时间工作;本发明提供了一种客观的评估标准,不依赖于主观经验,能够真正做到客观有效的评估;本发明能够综合分析不同受试对象的数据,不局限于对单一对象进行孤立分析。
Description
技术领域
本发明涉及抑郁程度评估系统,特别是涉及一种基于表情分析的抑郁程度自动评估系统。
背景技术
抑郁症是以行为出现异常,心境低落为主要症状的一种心身疾病,常伴有情绪认知障碍,具有高发病率、难治愈和高自杀率的特点。据世界卫生组织统计,抑郁症的年患病率为10%,终身患病率为17%,每年约100万人死于自杀。并且,据世界卫生组织预测,截至2020年抑郁症将成为世界第二大致残诱因,至2030年抑郁症将成为最大的疾病负担。
传统的抑郁症评估采用临床问卷及访谈方式,需要根据病人的当前状况、病史、家族史以及各种社会心理量表填写情况进行评估。常用的三大诊断系统为精神疾病诊断与统计手册第4版、国际疾病分类第10版和中国精神疾病分类方案与诊断标准第3版。现有的抑郁评估时根据抑郁症自评量表和医生的经验来判断的,该技术存在以下不足:
(1)临床问卷及访谈对医生的专业知识和临床经验要求较高,易受到医生的主观因素影响;
(2)临床问卷及访谈需要受试对象的长时间的积极配合,已引起受试者的烦躁;
(3)临床问卷及访谈忽略了抑郁症患者的无意识表情或动作,无法进行客观有效的分析评估。并且,临床问卷及访谈方式效率低,资源消耗大。
发明内容
发明目的:本发明的目的是提供一种自动化、无需受试对象长时间配合的客观有效的基于表情分析的抑郁程度自动评估系统。
技术方案:为达到此目的,本发明采用以下技术方案:
本发明所述的基于表情分析的抑郁程度自动评估系统,包括:
数据采集模块:采集受试对象的访谈视频,每一段视频都对应标注了抑郁程度HAMD-17分值y;
预处理和特征提取模块:根据FACS手册定义视频特征库f,并在访谈视频中提取视频特征库f及其对应的HAMD-17分值y,并对HAMD-17分值y进行5级量化得到HAMD-17量化分值;
相关特征提取模块:获取视频特征库f中与抑郁严重程度最相关的特征fs;
预测模型训练模块:利用ε-SVR参数回归方法建立抑郁程度的预测模型函数h(·);
新视频标注模块:对于新输入的访谈视频,自动标注出最值得注意的位置和区段;
进一步,所述数据采集模块的访谈视频的内容为受试对象接受HAMD-17量表访谈时的面部动作;并且,每一段视频都对应标注了抑郁程度HAMD-17分值y。
进一步,所述视频特征库f中包括FACS手册定义的AU特征fAU,AU组合事件特征AU时间域统计特征底层几何特征fGeo,底层表观特征fApp;其中,AU为表情动作单元。
进一步,所述底层表观特征fApp选用SIFT的描述子。
进一步,所述预处理和特征提取模块中的HAMD-17量化分值是对HAMD-17分值y进行5级量化得到,量化区间为:0-7、8-13、14-18、19-22、23分及以上;对应的HAMD-17的量化分值分别为1、2、3、4、5。
进一步,所述相关特征提取模块是在预处理和特征提取模块提取的视频特征库f和对应的HAMD-17分值基础上,利用皮尔逊相关系数搜索视频特征库中与抑郁严重程度最相关的特征fs;在搜索与抑郁严重程度最相关的特征fs时,对视频特征库f中每一个维度计算皮尔逊相关系数R(i),然后基于R(i)2对特征维度降序排列。
进一步,所述预测模型训练模块是基于相关特征提取模块得到的与抑郁严重程度最相关的特征,建立的抑郁程度预测模型。
进一步,所述的抑郁程度预测模型输出为HAMD-17量化分值,HAMD-17的量化分值1、2、3、4、5分别对应正常、轻微、中性、重度和极重度五个抑郁等级。
进一步,所述新视频标注模块根据相关特征提取模块得到的与抑郁严重程度最相关的特征,在视频的相应帧区间内进行标注,便于回顾视频中与抑郁严重程度最相关视频位置和区段。
有益效果:本发明具有以下的有益效果:
1)本发明全程自动化,无侵入,无需受试对象的长时间配合,可长时间工作;
2)本发明提供了一种客观的评估标准,不依赖于主观经验,能够真正做到客观有效的评估;
3)本发明能够综合分析不同受试对象的数据,不局限于对单一对象进行孤立分析。
附图说明
图1为本发明的系统框图;
图2为本发明的预处理和特征提取模块进行人脸特征点提取和图像对齐的示意图;
图3为本发明的底层几何特征的示意图;
图4为本发明的表情分析视频标注的示意图。
具体实施方式
下面结合具体实施方式对本发明的技术方案作进一步的介绍。
本发明的系统包括数据采集模块1、预处理和特征提取模块2、相关特征提取模块3、预测模型训练模块4、新视频标注模块5和新视频预测模块6,如图1所示。
其中:
数据采集模块1:采集受试对象的访谈视频,每一段视频都对应标注了抑郁程度HAMD-17分值y;
预处理和特征提取模块2:根据FACS手册定义视频特征库f,并在访谈视频中提取视频特征库f及其对应的HAMD-17分值y,并对HAMD-17分值y进行5级量化得到HAMD-17量化分值;其中,FACS(Facial Action Coding System)手册是心理学家为了科学分析面部表情,在上世纪70年代提出的;
相关特征提取模块3:获取视频特征库f中与抑郁严重程度最相关的特征fs,以下简称为最相关特征fs;
预测模型训练模块4:利用ε-SVR参数回归方法建立预测模型函数h(·);
新视频标注模块5:对于新输入的访谈视频,自动标注出最值得注意的位置和区段;
系统的输出包括两个部分:(1)预测器给出的抑郁程度预测分值;(2)新输入数据中最相关特征所在的视频位置。本系统通过预测抑郁程度,自动标注新输入视频中值得注意的位置和区段,为受试者的抑郁特征评估提供了客观依据。
下面以一个实施例为例,对本发明系统进行更进一步的介绍,本发明系统的工作过程如下:
1)数据采集模块1采集受试对象的访谈视频
录制访谈视频时,固定光照环境和拍摄角度,由两名评定者与受试对象进行交谈,整个过程持续15分钟或者20分钟,访谈结束后,两名评定者分别独立评分。为避免评定者主观因素对判定结果的影响,后期选取两评定员一致性较好的评分结果进行分析。并为了保证不同受试对象不同时间的访谈录像中成像环境和讨论问题一致,访谈内容为HAMD-17量表,保证了视频数据的可比性。由此,每一段访谈视频都对应了一个HAMD-17心理学量表分值。本发明将这个分值作为抑郁程度标签,记为y。
2)预处理和特征提取模块2根据FACS手册定义视频特征库f,并在访谈视频中提取视频特征库f及其对应的HAMD-17分值y,并对HAMD-17分值y进行5级量化得到HAMD-17量化分值
本发明的视频预处理过程是采用SDM技术和普氏分析法实现视频中的人脸特征点检测和人脸图像对齐。SDM技术检测访谈视频中的每一帧的人脸特征点,人脸特征点的检测示意图见图2(a)。由于人脸视频中包含头部姿态,焦距,拍摄角度和距离的等因素,会干扰表情的分析。因此,将视频中的人脸与参考人脸形状对齐,实现图像对齐。在对齐过程中,预先选定一个固定大小(200X200像素)的参考人脸形状,如图2(b)所示。对每一张人脸图像,利用普氏分析法,计算最优的尺度,(平面内)旋转和平移变换,使得人脸图像与参考形状最接近。这个过程保证了参与训练和测试的所有人脸图像在统一的尺度上,并且不受头部姿态(平面内)偏转的影响。对齐后的人脸图像和特征点如图2(c)所示。
在特征提取中,预先定义一个视频特征库f,包括FACS表情动作单元(AU)fAU,AU组合事件AU时间域统计特征底层几何特征fGeo,底层表观特征fApp等。
视频特征库f中包括了一些AU组合事件。AU组合事件包含超出单个AU相加的信息。例如受试对象刻意控制自己的笑容(smile control),通常表现为AU 12未正常结束时出现轻蔑表情AU 14或厌恶表情AU 15。这被心理学研究者认为是受试对象抑制自己愉悦情绪表达的一种倾向,是一个与抑郁程度紧密关联的重要特征。
视频特征库f中包括了一些AU时间域统计特征,例如特定AU在一段时间内出现的频率,平均持续时间等。除了瞬时的表情动作之外,面部表情动作在一段时间内的统计特征也与抑郁紧密关联。例如长时间面部表情缺乏变化被认为是抑郁的一个表征,面部肌肉运动的缺乏预示着精神运动迟滞。抑郁症患者中AU 14的出现频率会显著升高,而AU 12的出现频率显著降低。视频特征库f中包括的底层几何特征指的是由人脸特征点计算出的一系列角度和距离等几何测量。图3给出了根据AU 12设计的一组几何特征示意图,标示了特征点之间的距离、脸部某一部位的高度、点之间的角度。视频特征库f中包括的底层表观特征则描绘了人脸图像中纹理,边缘,曲线方向等信息。本发明选用SIFT的描述子作为表观特征。通常SIFT描述子的提取位置和尺度由SIFT检测子得到,但本发明选择一组由人脸特征点决定的固定提取位置。同时本发明固定SIFT的提取尺度。结合之前描述的图像对齐步骤,本发明保证了训练和测试中所有人脸图像上提取到的SIFT描述子可以在统一平台上做比较。
由上所述,系统经过预处理和特征提取,将受试对象的各类人脸特征汇集成视频特征库
3)相关特征提取模块3:获取视频特征库f中的最相关特征fs
相关特征选择部分3,是基于预处理和特征提取部分2,计算特征库f中的每一个维度f(i)与抑郁标签y的相关程度,以选择与抑郁程度最为相关的特征。本发明采用皮尔逊相关系数定义来计算相关程度R(i).为了从{f(i)}中选取出与抑郁标签y相关程度(包括正相关和负相关)最大的特征,本发明基于R(i)2对{f(i)}进行降序排序,根据实际应用需要,选取前n个特征维度,或选取所有R(i)2大于一定预设阈值的特征维度。本发明将选取得到的特征维度集合记为{fs(j)}。对fs中每一个特征维度,本发明同时记录对应的Rs(i)。
4)预测模型训练模块4利用ε-SVR参数回归方法建立预测模型函数h(·)
在训练预测器时,利用视频数据集合样本个数为nk,训练一个回归模型,来预测新输入视频的抑郁严重程度。为了提升系统稳定性,本发明计算量化后的抑郁程度标签yq,量化标准中的五个等级分别对应了正常,轻微抑郁,中性抑郁,重度抑郁和极重度抑郁。
本发明采用如下的量化标准:
训练回归模型时,本发明采用标准ε-SVR参数回归方法,即求解优化问题:
w回归方程的权重矩阵,b表示回归方程的截距,表示表示特征向量,表示标签值。C是正则化参数,ξk表示回归方程软间隔,ε>0。
ε-SVR在训练样本中估计一个预测函数h(·),在保持函数的平滑性的同时,尽可能符合训练样本。对于新输入视频,本发明提取选定特征fs,进而预测抑郁程度
5)对于新输入的访谈视频,新视频标注模块5自动标注出最值得注意的位置和区段,新视频预测模块6给出新输入访谈视频的抑郁严重程度
在新输入视频时,本发明采取与训练集中一致的预处理方法,检测人脸特征点,对齐图像,提取图像特征。本发明根据提取得到的最相关特征fs,标注出视频中最值得注意的位置和区段。对于AU特征fAU,AU组合事件和底层几何特征fGeo,本发明在人脸图像相应视频位置和区段做出标注。对于AU时间域统计特征本发明在视频上添加显示说明。图4给出了一个视频标注的示意。图4(a)侧展示了用户选定的回顾帧和当前播放所在帧。在两帧中,值得注意的位置用虚线圆标出,与抑郁正相关采用灰色,负相关采用黑色。图4(b),系统在视频中标注出了值得注意的时间区段,与抑郁正相关的特征区段用灰色标出,负相关的特征区段用黑色标出。其中正负相关信息来自特征选取时记录的Rs(i)。图4(c)、图4(d),系统显示了一段时间内的AU变化曲线和统计信息。同时,利用ε-SVR训练得到的预测函数h(·),本发明可以预测新视频的抑郁程度这个分值为抑郁程度的评估提供了数据依据。
在本发明中,本发明提出了一套基于表情分析的抑郁程度自动评估系统。在实际使用时,该系统可以自动的预测受试对象的抑郁严重程度,同时在访谈视频中标注出值得注意的位置和区段,为抑郁症的评估提供了一种客观的参考标准。
以上所述的是本发明的一个优选实施方式,应当指出:在不脱离本发明原理的前提下,本研究领域的技术人员做出的若干改进和润饰也应视为本发明的保护范围。
Claims (8)
1.一种基于表情分析的抑郁程度自动评估系统,其特征在于:包括:
数据采集模块(1):采集受试对象的访谈视频,每一段视频都对应标注了抑郁程度HAMD-17分值y;所述数据采集模块(1)的访谈视频的内容为受试对象接受HAMD-17量表访谈时的面部动作;
预处理和特征提取模块(2):根据FACS手册定义视频特征库f,并在访谈视频中提取视频特征库f及其对应的HAMD-17分值y,并对HAMD-17分值y进行5级量化得到HAMD-17量化分值;
相关特征提取模块(3):获取视频特征库f中与抑郁严重程度最相关的特征fs;
预测模型训练模块(4):利用ε-SVR参数回归方法建立抑郁程度的预测模型函数h(·);
新视频标注模块(5):对于新输入的访谈视频,自动标注出最值得注意的位置和区段;
新视频预测模块(6):由预测模型函数h(·)给出新输入访谈视频的抑郁严重程度
2.根据权利要求1所述的基于表情分析的抑郁程度自动评估系统,其特征在于:所述视频特征库f中包括FACS手册定义的AU特征fAU,AU组合事件特征fAUc,AU时间域统计特征fAUt,底层几何特征fGeo,底层表观特征fApp;其中,AU为表情动作单元。
3.根据权利要求2所述的基于表情分析的抑郁程度自动评估系统,其特征在于:所述底层表观特征fApp选用SIFT的描述子。
4.根据权利要求1所述的基于表情分析的抑郁程度自动评估系统,其特征在于:所述预处理和特征提取模块(2)中的HAMD-17量化分值是对HAMD-17分值y进行5级量化得到,量化区间为:0-7、8-13、14-18、19-22、23分及以上;对应的HAMD-17的量化分值分别为1、2、3、4、5。
5.根据权利要求1所述的基于表情分析的抑郁程度自动评估系统,其特征在于:所述相关特征提取模块(3)是在预处理和特征提取模块(2)提取的视频特征库f和对应的HAMD-17分值基础上,利用皮尔逊相关系数搜索视频特征库中与抑郁严重程度最相关的特征fs;在搜索与抑郁严重程度最相关的特征fs时,对视频特征库f中每一个维度计算皮尔逊相关系数R(i),然后基于R(i)2对特征维度降序排列。
6.根据权利要求1所述的基于表情分析的抑郁程度自动评估系统,其特征在于:所述预测模型训练模块(4)是基于相关特征提取模块(3)得到的与抑郁严重程度最相关的特征,建立的抑郁程度预测模型。
7.根据权利要求6所述的基于表情分析的抑郁程度自动评估系统,其特征在于:所述的抑郁程度预测模型输出为HAMD-17量化分值,HAMD-17的量化分值1、2、3、4、5分别对应正常、轻微、中性、重度和极重度五个抑郁等级。
8.根据权利要求1所述的基于表情分析的抑郁程度自动评估系统,其特征在于:所述新视频标注模块(5)根据相关特征提取模块(3)得到的与抑郁严重程度最相关的特征,在视频的相应帧区间内进行标注,便于回顾视频中与抑郁严重程度最相关视频位置和区段。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510746466.0A CN105279380B (zh) | 2015-11-05 | 2015-11-05 | 一种基于表情分析的抑郁程度自动评估系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510746466.0A CN105279380B (zh) | 2015-11-05 | 2015-11-05 | 一种基于表情分析的抑郁程度自动评估系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105279380A CN105279380A (zh) | 2016-01-27 |
CN105279380B true CN105279380B (zh) | 2018-06-19 |
Family
ID=55148383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510746466.0A Active CN105279380B (zh) | 2015-11-05 | 2015-11-05 | 一种基于表情分析的抑郁程度自动评估系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105279380B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107621545B (zh) * | 2017-07-26 | 2019-10-11 | 东南大学 | Bicc1蛋白对精神疾病诊断的新用途 |
CN107578015B (zh) * | 2017-09-06 | 2020-06-30 | 竹间智能科技(上海)有限公司 | 一种基于深度学习的第一印象识别与回馈系统及方法 |
CN108335749A (zh) * | 2018-01-26 | 2018-07-27 | 首都师范大学 | 抑郁症数据分析方法及装置 |
CN109528197B (zh) * | 2018-11-20 | 2022-07-08 | 中国科学院脑科学与智能技术卓越创新中心 | 基于脑功能图谱进行精神疾病的个体化预测方法和系统 |
CN109919124B (zh) * | 2019-03-19 | 2021-01-29 | 北京邮电大学 | 快速构建人脸动作单元识别数据集的方法 |
CN111523504A (zh) * | 2020-04-30 | 2020-08-11 | 深圳市镜象科技有限公司 | 基于表情分析的抑郁症预测方法、预测终端和存储介质 |
CN112768070A (zh) * | 2021-01-06 | 2021-05-07 | 万佳安智慧生活技术(深圳)有限公司 | 一种基于对话交流的精神健康评测方法和系统 |
CN112927804B (zh) * | 2021-02-07 | 2022-09-13 | 武汉大学 | 基于hamd-17量表的抑郁程度评估简化方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104616005A (zh) * | 2015-03-10 | 2015-05-13 | 南京宜开数据分析技术有限公司 | 一种领域自适应的人脸表情分析方法 |
-
2015
- 2015-11-05 CN CN201510746466.0A patent/CN105279380B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104616005A (zh) * | 2015-03-10 | 2015-05-13 | 南京宜开数据分析技术有限公司 | 一种领域自适应的人脸表情分析方法 |
Non-Patent Citations (5)
Title |
---|
"Automatic Analysis of Facial Affect: A Survey of Registration, Representation, and Recognition";Evangelos Sariyanidi等;《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》;20150630;第37卷(第6期);第1113-1133页 * |
"Detecting depression from facial actions and vocal prosody";Jeffrey F. Cohn等;《International Conference on Affective Computing and Intelligent Interaction and Workshops》;20090912;第1-7页 * |
"Facial Action Unit Event Detection by Cascade of Tasks";Xiaoyu Ding等;《The IEEE International Conference on Computer Vision (ICCV)》;20131231;第2400-2407页 * |
"Social Risk and Depression: Evidence from Manual and Automatic Facial Expression Analysis";Jeffrey M. Girard等;《2013 10th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition》;20130426;第1-8页 * |
"抑郁症患者表情分类方法的研究";杨文杰;《万方数据企业知识服务平台》;20150520;第4节 * |
Also Published As
Publication number | Publication date |
---|---|
CN105279380A (zh) | 2016-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105279380B (zh) | 一种基于表情分析的抑郁程度自动评估系统 | |
Aigrain et al. | Multimodal stress detection from multiple assessments | |
Soleymani et al. | Affective ranking of movie scenes using physiological signals and content analysis | |
US9530048B2 (en) | Automated facial action coding system | |
CN110464366A (zh) | 一种情绪识别方法、系统及存储介质 | |
CN112957042B (zh) | 一种非接触式目标情绪识别的方法及系统 | |
Speth et al. | Deception detection and remote physiological monitoring: A dataset and baseline experimental results | |
Chen et al. | Examining palpebral conjunctiva for anemia assessment with image processing methods | |
JP5058064B2 (ja) | 絵画療法の模様選択及び配列、色塗り分析方法、絵画療法の模様分析による心理症状の診断方法、及びこれを行うためのプログラムを記録した記録媒体 | |
Beringer et al. | Reliability and validity of machine vision for the assessment of facial expressions | |
Harati et al. | Discriminating clinical phases of recovery from major depressive disorder using the dynamics of facial expression | |
Almeida et al. | Facial Expression Recognition System for Stress Detection with Deep Learning. | |
Folz et al. | Reading your emotions in my physiology? Reliable emotion interpretations in absence of a robust physiological resonance | |
CN112017671A (zh) | 一种基于多特征的面谈内容可信度评价方法和系统 | |
CN116211306A (zh) | 基于眼动和心电信号的心理健康自评估系统 | |
Rahman et al. | Video minor stroke extraction using learning vector quantization | |
Sukma Wicaksana et al. | Human-explainable features for job candidate screening prediction | |
Lucas et al. | Could precise and replicable manipulations of suspect-filler similarity optimize eyewitness identification performance? | |
Kurniastuti et al. | Determination of RGB in fingernail image as early detection of diabetes mellitus | |
Faisal et al. | A machine learning approach for analyzing and predicting suicidal thoughts and behaviors | |
CN111341444B (zh) | 智能绘画评分方法及系统 | |
Dupré et al. | Emotion recognition in humans and machine using posed and spontaneous facial expression | |
Hiris et al. | Individual observer differences in the use of form and motion to perceive the actor’s sex in biological motion displays | |
Canini et al. | Users' response to affective film content: A narrative perspective | |
Turan et al. | Toward the detection of reduced emotion expression intensity: an autism sibling study |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |