CN109508755B - 一种基于图像认知的心理测评方法 - Google Patents

一种基于图像认知的心理测评方法 Download PDF

Info

Publication number
CN109508755B
CN109508755B CN201910056284.9A CN201910056284A CN109508755B CN 109508755 B CN109508755 B CN 109508755B CN 201910056284 A CN201910056284 A CN 201910056284A CN 109508755 B CN109508755 B CN 109508755B
Authority
CN
China
Prior art keywords
tested person
picture
sight
foreground
eye movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910056284.9A
Other languages
English (en)
Other versions
CN109508755A (zh
Inventor
王海南
张宝昌
赵俊贺
吕彦轩
王语霖
罗益
侯光华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 54 Research Institute
Original Assignee
CETC 54 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 54 Research Institute filed Critical CETC 54 Research Institute
Priority to CN201910056284.9A priority Critical patent/CN109508755B/zh
Publication of CN109508755A publication Critical patent/CN109508755A/zh
Application granted granted Critical
Publication of CN109508755B publication Critical patent/CN109508755B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Optimization (AREA)
  • Evolutionary Computation (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Psychiatry (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Hospice & Palliative Care (AREA)
  • Public Health (AREA)
  • Social Psychology (AREA)
  • Educational Technology (AREA)
  • Pathology (AREA)
  • Developmental Disabilities (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Psychology (AREA)
  • Veterinary Medicine (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Biology (AREA)

Abstract

本发明公开了一种基于图像认知的心理测评方法,涉及眼动追踪及人工智能技术领域。其包括以下步骤:(1)建立具有对应心理学语义的图片集;(2)向被测者依次展示背景图片和前景图片;(3)采集被测者观看图片时的按键反应时间和眼动轨迹;(4)将按键反应时间和眼动轨迹数据输入并行LSTM网络,对被测者的心理状态进行分类。本发明方法简单易行,可以利用笔记本电脑的前置摄像头对被检测者看到图片时的反应时间及眼球追踪数据进行采集,并通过人工智能方法进行特征提取及分类,具有算法简单、易于实现、精确度高等优点。

Description

一种基于图像认知的心理测评方法
技术领域
本发明涉及眼动追踪及人工智能技术领域,特别是指一种基于图像认知的心理测评方法。
背景技术
当前,人们所承受的社会劳动量与日俱增,生活节奏日渐加快,工作压力日益增加,随之而来的心理问题不断危害着人们的身心健康和社会的安定。在这样的大环境下,人民群众对心理健康的需求飞速增长。最近发布的中国城镇居民心理健康白皮书中的调查结果显示,中国城镇居民中心理健康人数所占比例仅为10.3%,而其中73.6%处于心理亚健康状态,16.1%的人存在不同程度的心理问题。而且,最后一项比例在近年的统计中一直呈上升趋势,这表明我国社会所面临的心理问题已经十分严峻,必须引起足够的重视。事实上,这种现象在当今世界许多发达国家也早就普遍存在,并且引起了一部分人的关注。为了对有心理不健康现象的人的情绪状况做出及时的判断,早在上个世纪初发达国家就有不少的人开始研究如何对人的心理健康状况进行有效评估。
目前为止,公认的权威的心理测评方法是由明尼苏达大学的哈瑟韦和麦金力于上个世纪40年代提出的明尼苏达多项人格测验(MMPI)。该测验有566道判断题组成,其中的每一道题都是由哈瑟韦和麦金力从大量病史、医生笔记、早期人格量表中选出并进行反复验证后选用。经60多年的改进,MMPI已经成为一种非常成熟的人格测验,被广泛应用于精神病诊断、司法审判、犯罪调查、心理咨询等领域。
然而,目前对心理问题的诊断效率与准确度仍然不能满足随时代发展不断增长的心理测试方面的需求。以MMPI为代表的心理测评方法往往是以书面答题或口头交流的形式进行,这一过程主观性非常强,在很大程度上受到人为因素的影响,而且耗时长,效率低下,无法进行标准的量化分析。因此,有必要找到一种既能进行高效率的标准量化分析,又能克服语言交流带来的信息丢失等人为主观因素影响的心理分析方法。
现有技术中,有人选择利用人对不同图片做出的反应来分析测试者的心理状态,国内外已有很多文献证明了这一方式的可行性,如:
“Attentional bias for emotional faces in generalized anxietydisorder”,B.P.Bradley,K.Mogg,J.White,C.Groom,and J.D.Bono;
British Journal of Clinical Psychology,vol.38,No.3,pp.267–278,1999.
“ThuPIS:A new affective image system for psychological analysis.”Bao,Shurui,Huimin Ma,and Wenyu Li.
Bioelectronics and Bioinformatics(ISBB),2014IEEE InternationalSymposium on.IEEE,2014.
但是,上面这些文献中的方法还存在进一步改进的空间。
发明内容
有鉴于此,本发明提出一种基于图像认知的心理测评方法,该方法能够快速、准确地识别出受试者的心理状态。
为了实现上述目的,本发明采用的技术方案如下:
一种基于图像认知的心理测评方法,其特征在于,包括以下步骤:
(1)建立具有对应心理学语义的图片集,所述图片集包括前景图片和背景图片,所述前景图片为表情图片;
(2)向被测者依次展示背景图片和前景图片,由被测者对前景图片进行判断并按下相应按键;
(3)采集被测者观看图片时的按键反应时间和眼动轨迹;
(4)将按键反应时间和眼动轨迹数据输入并行LSTM网络,利用深度学习算法进行特征提取,并对被测者的心理状态进行分类。
具体的,所述步骤(2)的具体方式为:
首先向被测者展示背景图片,然后在背景图片的基础上以前景方式展示表情图片,展示表情图片的同时开始计时,直至被测者按下按键。
具体的,所述步骤(2)之前还包括以下步骤:
(010)对被测者进行视线的预校准,通过获取被测者在指定位置上的视线数据,借助回归方法得出Gaze-视线注意点转移矩阵;
所述步骤(3)包括以下步骤:
(301)拍摄被测者观看背景图片和前景图片时的面部视频,同时,当被测者在观看相应的前景图片时,记录下从前景图片展出到被测者按下按键的时间,即为被测者的按键反应时间;
(302)将视频分解为图像并借助Face++API以获取被测者观看背景图片和前景图片时的视线信息;
(303)借助步骤(010)得出的Gaze-视线注意点转移矩阵,将视线信息转化为被测者的视线落在屏幕上的相应位置;
(304)将步骤(303)得到的位置信息按时间排序,并连接到一起,从而得出被测者在观看图像时的眼动轨迹。
具体的,所述步骤(010)的具体方式为:
(011)依次在屏幕上随机地展示一个十字准星,第i次展示的十字准星的屏幕坐标为(xi,yi);同时,当被测者目光注视第i次展示的准星时,拍摄被测者的人脸图像;
(012)根据多次拍摄的人脸图像与屏幕上准星位置之间的对应关系,借助Face++API,从人脸图像中提取被测者的视线信息,包括左眼的位置坐标(slxi,slyi)、右眼的位置坐标(srxi,sryi)、左眼视线的方向矢量(slgxi,slgyi,slgzi),以及右眼视线的方向矢量(srgxi,srgyi,srgzi);
(013)计算Gaze-视线注意点转移矩阵β:
β=(XTX)-1XTY,
Figure BDA0001952564520000031
Figure BDA0001952564520000041
式中,上标T表示矩阵的转置,上标-1表示矩阵求逆。
具体的,所述并行LSTM网络包括LSTM网络、BatchNorm层、全连接层、ReLU层、BN层和线性分类器,所述LSTM网络共有多个,各LSTM网络均为单层单节点,且输入大小为2,所述全连接层的输入大小为14,输出大小为32;
被测者的眼动轨迹作为LSTM网络的输入,LSTM网络输出结果与被测者的平均按键反应时间一起作为BatchNorm层的输入,在BatchNorm层中进行正则化处理,BatchNorm层的输出结果作为全连接层的输入,全连接层的输出再依次经过ReLU层和BN层的处理,最后进入线性分类器进行分类。
采用上述技术方案的有益效果在于:
1、本发明方法简单易行,可以利用笔记本电脑的前置摄像头,对被检测者看到图片时的反应时间及眼球追踪数据进行采集,并通过人工智能方法进行特征提取及分类,即可得到被测试者的心理状况。
2、不同于传统心理学研究往往采用专业的眼动仪设备的实现方式,本发明采用手机、电脑等常见的便携式设备即可采集数据,同时,结合已有的深度学习技术,可以直接通过拍摄视频的方式来进行眼动数据的采集。可见,本发明方法有效避免了传统方法对于场地和装置的苛刻要求。
3、本发明方法采用了由Face++北京旷视科技有限公司提供的Image Analysis接口,具有极强的准确性和可拓展性,极大地减小了程序的占用空间,并提高了程序的运行速度。
4、本发明基于对几何关系的分析而实现视线关注点对应关系的建模,摒弃了传统的低精度的几何建模方法,采用易于实现的最小二乘法在保证误差最小化的前提下进行一元拟合,具有算法简单、易于实现、精确度高等优点。
5、本发明在分类器的设计上,基于近年来得到广泛发展的深度学习技术,自主设计了ParaLSTMNet并行LSTM网络。通过并行循环神经网络,基于训练标签,对眼动数据自适应特征提取,而后加入平均反应时间,输入分类网络进行分类器训练,成功实现了异构数据的高效一体化,较为准确地实现了心理情感状态的判别分类。
附图说明
图1是本发明实施例中的眼动数据采集原理图;
图2是本发明实施例中ParaLSTMNet(并行LSTM网络)的结构示意图。
具体实施方式
下面结合附图和实施例对本发明进行详细说明。
一种基于图像认知的心理测评方法,其包括以下步骤:
(1)建立具有对应心理学语义的图片集,所述图片集包括前景图片和背景图片,所述前景图片为表情图片;
(2)向被测者依次展示背景图片和前景图片,由被测者对前景图片进行判断并按下相应按键;
(3)采集被测者观看图片时的按键反应时间和眼动轨迹;
(4)将按键反应时间和眼动轨迹数据输入并行LSTM网络,利用深度学习算法进行特征提取,并对被测者的心理状态进行分类。
具体的,所述步骤(2)的具体方式为:
首先向被测者展示背景图片,然后在背景图片的基础上以前景方式展示表情图片,展示表情图片的同时开始计时,直至被测者按下按键。
具体的,所述步骤(2)之前还包括以下步骤:
(010)对被测者进行视线的预校准,通过获取被测者在指定位置上的视线数据,借助回归方法得出Gaze-视线注意点转移矩阵;
所述步骤(3)包括以下步骤:
(301)拍摄被测者观看背景图片和前景图片时的面部视频,同时,当被测者在观看相应的前景图片时,记录下从前景图片展出到被测者按下按键的时间,即为被测者的按键反应时间;
(302)将视频分解为图像并借助Face++API以获取被测者观看背景图片和前景图片时的视线信息;
(303)借助步骤(010)得出的Gaze-视线注意点转移矩阵,将视线信息转化为被测者的视线落在屏幕上的相应位置;
(304)将步骤(303)得到的位置信息按时间排序,并连接到一起,从而得出被测者在观看图像时的眼动轨迹。
为实现该方法,首先需要建立具有对应心理学语义的图片集。如阳光下的鲜花、激情澎湃的运动员表达积极元素,而废墟、掩面叹息的人表示消极元素等。
如图1所示,该方法的简要流程如下:首先要对被测者进行视线的预校准,通过获取被测者在指定位置上的视线数据,借助回归方法得出Gaze-视线注意点转移矩阵。然后当被测者在观看相应图片时,记录下被测者的反应时间,同时拍摄对应的面部视频,然后将视频分解为图像并借助Face++API以获取被测者的视线信息。借助之前得出的Gaze-视线注意点转移矩阵,可以将视线信息转化为被测者的视线落在屏幕上的相应位置,然后再将这些位置信息按时间排序,并连接到一起,从而得出被测者在观看图像时的眼动轨迹。最后,利用深度学习算法将反应时间和眼动轨迹进行进一步的特征提取及心理状态的分类。
下面具体介绍整个心理评测过程的几个重要部分:
1、数据采集过程:为了捕捉人眼睛关注点的变换,同时出于对系统低成本及易用性的考虑,采用带前置摄像头的笔记本电脑作为主要硬件设备,屏幕显示图形界面,能够切换显示不同的图片。目前深度学习技术也已经实现了通过单一摄像头采集的图片来估算人的视线方向。在进行图像眼动反应实验时,软件在控制不同图片切换显示的同时,通过前置摄像头记录人的面部活动的视频,后续将采集的视频通过深度学习算法进行处理,得到眼动轨迹。
2、校准过程:深度学习算法可以得到采集的图片中人眼睛的视线,但无法直接得到人目光位于屏幕上的焦点的位置,即完成眼球定位。为将视线向量与人眼在屏幕上焦点的位置相关联,我们希望预先采集若干焦点与视线向量相关联的数据,来拟合这之前的非线性关系。将其称为校准过程。校准过程中,在屏幕上随机出现若干十字准星,被测试者目光注视该准星,然后按键,同时拍摄人脸图像。通过若干图像与屏幕上准星位置之间的对应关系,进行拟合,用于之后获取目光焦点。
每次校准时,屏幕上出现的准星位置为(xi,yi),i=1,…,50,下标i表示每次测量时对应的数据。而借助Face++API,可以从人脸图像中提取到被测者的视线信息,包括左眼的位置坐标slxi,slyi,右眼的位置坐标srxi,sryi,左眼视线的方向矢量slgxi,slgyi,slgzi,右眼视线的方向矢量srgxi,srgyi,srgzi共计十个特征。则线性拟合过程可以由如下所示的方程组来表示:
Y=Xβ
其中,
Figure BDA0001952564520000071
Figure BDA0001952564520000072
Figure BDA0001952564520000073
β矩阵是希望通过校准过程来进行学习得到的Gaze-视线注意点转移矩阵,βi,j为转移矩阵中的参数。
根据最小二乘法原理,考虑超定方程组(超定指未知数小于方程个数):
Figure BDA0001952564520000074
其中m代表有m个等式,n代表有n个未知数β,m>n;可以将其写成向量形式为:
Y=Xβ
Figure BDA0001952564520000081
虽然该方程一般情况下无解,但是可以选择最合适的β让该方程组中尽量多的等式成立。为此,可以引入残差平方和函数S
S(β)=||Xβ-Y||2
当Xβ=Y,S(β)取最小值,记作:
Figure BDA0001952564520000082
通过对S(β)进行微分求极值,可以得到:
Figure BDA0001952564520000083
如果矩阵非奇异,则β有唯一解,即:
Figure BDA0001952564520000084
根据上述原理,Gaze-视线注意点转移矩阵可以通过以下公式计算得到:
β=(XTX)-1XTY
从而利用校准过程得到了Gaze-视线注意点转移矩阵。
3、视频处理过程:
首先将被测者在进行眼动反应实验时拍摄到的面部视频逐帧的转换为一组有序的图片集,每张图片的先后顺序即为其对应在视频中的时间顺序。然后,通过Face++API对每一张图片进行特征提取,获得被测者的视线信息(同校准过程中得到的信息:slxi,slyi,…,srgxi,srgyi,srgzi)。利用转移矩阵,可以根据视线信息反推出被测者在屏幕上注视的位置xi,yi,即
Figure BDA0001952564520000085
因此,按照上述方法,就将有序的图片集转换成了有序的被测者的注视信息。从而将被测者的面部视频信息转换为了相应的眼动轨迹。
4、情绪识别分类过程:作为程序采用的两项心理学评价指标,眼动轨迹和平均反应时间均蕴含分类器判别所需要的评价信息,但两者一为像素坐标值的不定长序列信息、一为表征时间的常数信息,在数据形式和量级上均具有异构的特性。因而,直接将眼动数据和时间数据并行等价输入分类器显然是不科学的,将显著影响分类器的分类效果。为了充分提取眼动轨迹中的信息进行分类,本例中将适用于处理序列信息的RNN循环神经网络与传统神经网络相结合,设计了一种ParaLSTMNet网络,其结构如图2所示。
具体来说,该ParaLSTMNet网络包括LSTM网络、BatchNorm层、全连接层、ReLU层、BN层和线性分类器,所述LSTM网络共有多个,各LSTM网络均为单层单节点,且输入大小为2,所述全连接层的输入大小为14,输出大小为32。
被测者的眼动轨迹作为LSTM网络的输入,LSTM网络输出结果与被测者的平均按键反应时间一起作为BatchNorm层的输入,在BatchNorm层中进行正则化处理,BatchNorm层的输出结果作为全连接层的输入,全连接层的输出再依次经过ReLU层和BN层的处理,最后进入线性分类器进行分类。
本发明基于目前准确性得到公认的MMPI明尼苏达多项人格心理学测试中的物象及概念特征建立了背景和表情图片集,通过采集受试者看到背景图像和表情图像后的反应时间和眼动数据来量化估计受试者的心理状态。将受试者第一次看到测试图片时的眼动数据以及在不同感情色彩的背景图片下,对不同感情色彩(积极、消极)的表情图片的认知反应时间作为心理判别特征。同时,以MMPI测试得到的判别结果作为性格标签,进行分类器训练,挖掘其中的深层次非线性关系,得到更加准确、可靠的判别结果。
本发明的测试形式采用竞争启动实验范式。图片分为背景图片和前景表情图片,在测试过程中,受试者首先仅看到单纯的背景图片,之后面部表情图片出现在背景图片上。受试者需要在背景图片的基础上对面部表情图片的属性(即积极或消极)做出判断并按下相应按键。通过受试者的对图片反应时间,眼动数据等来区分受试者的两对心理状态:外向与内向、焦虑与不焦虑。
综上,本发明利用RNN网络对序列数据极强的拟合能力对眼动轨迹进行有效的处理,利用分类网络传递回的有监督梯度作为监督信息对RNN网络进行训练,实现了自适应的眼动轨迹特征提取及分类。
总之,该方法可以通过手机或者电脑自带的摄像头采集视频数据,通过软件采集被测试者对不同类型图片及表情的反应时间和眼动轨迹数据,采用RNN深度学习方法对所采集的数据进行分类识别,将人的情绪和性格进行分类,得到被测试者焦虑与否的状态。该方法将眼下流行的人工智能技术与传统的心理识别系统结合起来,采用便捷的笔记本摄像头采集数据,具有容易获取数据,稳定性强、准确性高等优点。

Claims (2)

1.一种基于图像认知的心理测评方法,其特征在于,包括以下步骤:
(1)建立具有对应心理学语义的图片集,所述图片集包括前景图片和背景图片,所述前景图片为表情图片;
(010)对被测者进行视线的预校准,通过获取被测者在指定位置上的视线数据,借助回归方法得出Gaze-视线注意点转移矩阵;具体方式为:
(011)依次在屏幕上随机地展示一个十字准星,第i次展示的十字准星的屏幕坐标为(xi,yi);同时,当被测者目光注视第i次展示的准星时,拍摄被测者的人脸图像;
(012)根据多次拍摄的人脸图像与屏幕上准星位置之间的对应关系,借助Face++API,从人脸图像中提取被测者的视线信息,包括左眼的位置坐标(slxi,slyi)、右眼的位置坐标(srxi,sryi)、左眼视线的方向矢量(slgxi,slgyi,slgzi),以及右眼视线的方向矢量(srgxi,srgyi,srgzi);
(013)计算Gaze-视线注意点转移矩阵β:
β=(XTX)-1XTY,
Figure FDA0003903865170000011
Figure FDA0003903865170000012
式中,上标T表示矩阵的转置,上标-1表示矩阵求逆;
(2)向被测者依次展示背景图片和前景图片,由被测者对前景图片进行判断并按下相应按键;具体方式为:
首先向被测者展示背景图片,然后在背景图片的基础上以前景方式展示表情图片,展示表情图片的同时开始计时,直至被测者按下按键;
(3)采集被测者观看图片时的按键反应时间和眼动轨迹;具体方式为:
(301)拍摄被测者观看背景图片和前景图片时的面部视频,同时,当被测者在观看相应的前景图片时,记录下从前景图片展出到被测者按下按键的时间,即为被测者的按键反应时间;
(302)将视频分解为图像并借助Face++API以获取被测者观看背景图片和前景图片时的视线信息;
(303)借助步骤(010)得出的Gaze-视线注意点转移矩阵,将视线信息转化为被测者的视线落在屏幕上的相应位置;
(304)将步骤(303)得到的位置信息按时间排序,并连接到一起,从而得出被测者在观看图像时的眼动轨迹;
(4)将按键反应时间和眼动轨迹数据输入并行LSTM网络,利用深度学习算法进行特征提取,并对被测者的心理状态进行分类。
2.根据权利要求1所述的一种基于图像认知的心理测评方法,其特征在于,所述并行LSTM网络包括LSTM网络、BatchNorm层、全连接层、ReLU层、BN层和线性分类器,所述LSTM网络共有多个,各LSTM网络均为单层单节点,且输入大小为2,所述全连接层的输入大小为14,输出大小为32;
被测者的眼动轨迹作为LSTM网络的输入,LSTM网络输出结果与被测者的平均按键反应时间一起作为BatchNorm层的输入,在BatchNorm层中进行正则化处理,BatchNorm层的输出结果作为全连接层的输入,全连接层的输出再依次经过ReLU层和BN层的处理,最后进入线性分类器进行分类。
CN201910056284.9A 2019-01-22 2019-01-22 一种基于图像认知的心理测评方法 Active CN109508755B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910056284.9A CN109508755B (zh) 2019-01-22 2019-01-22 一种基于图像认知的心理测评方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910056284.9A CN109508755B (zh) 2019-01-22 2019-01-22 一种基于图像认知的心理测评方法

Publications (2)

Publication Number Publication Date
CN109508755A CN109508755A (zh) 2019-03-22
CN109508755B true CN109508755B (zh) 2022-12-09

Family

ID=65757526

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910056284.9A Active CN109508755B (zh) 2019-01-22 2019-01-22 一种基于图像认知的心理测评方法

Country Status (1)

Country Link
CN (1) CN109508755B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112890815A (zh) * 2019-12-04 2021-06-04 中国科学院深圳先进技术研究院 一种基于深度学习的孤独症辅助评估系统和方法
CN111326234A (zh) * 2020-01-21 2020-06-23 浙江连信科技有限公司 基于深度学习算法的心理困扰场景匹配方法及装置
CN111599472B (zh) * 2020-05-14 2023-10-24 重庆大学 用于学生心理状态识别的方法及装置、计算机
CN111738234B (zh) * 2020-08-14 2020-11-24 湖南师范大学 基于个体眼动特征的自动化共情能力识别方法
CN115607153B (zh) * 2022-09-06 2023-11-28 北京工业大学 一种基于眼动追踪的心理量表回答质量评估系统及方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6090051A (en) * 1999-03-03 2000-07-18 Marshall; Sandra P. Method and apparatus for eye tracking and monitoring pupil dilation to evaluate cognitive activity
CN103324287A (zh) * 2013-06-09 2013-09-25 浙江大学 基于眼动和笔触数据的计算机辅助草图绘制的方法和系统
CN104374374A (zh) * 2014-11-11 2015-02-25 浙江工业大学 基于主动全景视觉的3d环境复制系统及3d全景显示绘制方法
CN105139317A (zh) * 2015-08-07 2015-12-09 北京环度智慧智能技术研究所有限公司 兴趣取向值测验的认知指标分析方法
CN106691476A (zh) * 2017-01-16 2017-05-24 清华大学 基于眼动特征的图像认知心理分析系统
CN108170281A (zh) * 2018-01-19 2018-06-15 吉林大学 一种工作姿势分析系统测算方法
CN108665962A (zh) * 2018-04-17 2018-10-16 上海大学 一种数字化神经心理测验系统和方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9552061B2 (en) * 2014-03-26 2017-01-24 Microsoft Technology Licensing, Llc Eye gaze tracking using binocular fixation constraints

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6090051A (en) * 1999-03-03 2000-07-18 Marshall; Sandra P. Method and apparatus for eye tracking and monitoring pupil dilation to evaluate cognitive activity
CN103324287A (zh) * 2013-06-09 2013-09-25 浙江大学 基于眼动和笔触数据的计算机辅助草图绘制的方法和系统
CN104374374A (zh) * 2014-11-11 2015-02-25 浙江工业大学 基于主动全景视觉的3d环境复制系统及3d全景显示绘制方法
CN105139317A (zh) * 2015-08-07 2015-12-09 北京环度智慧智能技术研究所有限公司 兴趣取向值测验的认知指标分析方法
CN106691476A (zh) * 2017-01-16 2017-05-24 清华大学 基于眼动特征的图像认知心理分析系统
CN108170281A (zh) * 2018-01-19 2018-06-15 吉林大学 一种工作姿势分析系统测算方法
CN108665962A (zh) * 2018-04-17 2018-10-16 上海大学 一种数字化神经心理测验系统和方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MUlti-Store Tracker (MUSTer): A cognitive psychology inspired approach to object tracking;Zhibin Hong;《IEEE》;20150115;全文 *
基于单目摄像头的驾驶员注视区域估计方法;冮俊冶;《中国优秀硕士论文电子期刊网》;20160715;全文 *

Also Published As

Publication number Publication date
CN109508755A (zh) 2019-03-22

Similar Documents

Publication Publication Date Title
CN109508755B (zh) 一种基于图像认知的心理测评方法
Liao et al. Deep facial spatiotemporal network for engagement prediction in online learning
CN108806792B (zh) 深度学习面诊系统
CN109497990B (zh) 一种基于典型相关分析的心电信号身份识别方法及系统
CN109700433A (zh) 一种舌象诊断系统和舌诊移动终端
CN116230234A (zh) 多模态特征一致性心理健康异常识别方法及系统
CN111466878A (zh) 基于表情识别的卧床病人疼痛症状实时监护方法及装置
CN108256579A (zh) 一种基于先验知识的多模态民族认同感量化测量方法
CN116645721B (zh) 基于深度学习的坐姿识别方法及系统
Wang et al. Maximum weight multi-modal information fusion algorithm of electroencephalographs and face images for emotion recognition
CN113180701A (zh) 一种用于图像标签标注的脑电信号深度学习方法
Błażek et al. An unorthodox view on the problem of tracking facial expressions
Tychkov et al. The effect of virtual reality on mental health in the design of automated control systems
CN114424941A (zh) 疲劳检测模型构建方法、疲劳检测方法、装置及设备
WO2022100187A1 (zh) 一种基于移动端对用户的情感进行识别与监测方法
Li et al. Channel-wise interactive learning for remote heart rate estimation from facial video
CN113974627A (zh) 一种基于脑机生成对抗的情绪识别方法
Jin et al. E-EmotiConNet: EEG-based emotion recognition with context information
Ren et al. Extracting and supplementing method for EEG signal in manufacturing workshop based on deep learning of time–frequency correlation
Luo et al. Exploring adaptive graph topologies and temporal graph networks for EEG-based depression detection
Song et al. Early diagnosis of asd based on facial expression recognition and head pose estimation
Liu et al. Application of human movement and movement scoring technology in computer vision feature in sports training
Yashaswini et al. Stress detection using deep learning and IoT
Mitra et al. Analyzing clinical 12-lead ECG images using deep learning algorithms for objective detection of cardiac diseases
Liu et al. Machine to brain: facial expression recognition using brain machine generative adversarial networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant