CN115607153A - 一种基于眼动追踪的心理量表回答质量评估系统及方法 - Google Patents

一种基于眼动追踪的心理量表回答质量评估系统及方法 Download PDF

Info

Publication number
CN115607153A
CN115607153A CN202211095923.0A CN202211095923A CN115607153A CN 115607153 A CN115607153 A CN 115607153A CN 202211095923 A CN202211095923 A CN 202211095923A CN 115607153 A CN115607153 A CN 115607153A
Authority
CN
China
Prior art keywords
eye movement
testee
scale
eye
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211095923.0A
Other languages
English (en)
Other versions
CN115607153B (zh
Inventor
马一鸣
王文思
郑梦沂
吉彦平
郑依依
车妍妍
赵伯言
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CHINA UNIVERSITY OF POLITICAL SCIENCE AND LAW
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202211095923.0A priority Critical patent/CN115607153B/zh
Publication of CN115607153A publication Critical patent/CN115607153A/zh
Application granted granted Critical
Publication of CN115607153B publication Critical patent/CN115607153B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种基于眼动追踪的心理量表回答质量评估系统及方法,包括:依次连接的眼动数据采集模块、眼动数据分析模块、量表回答质量分析模块;其中,眼动数据采集模块,用于通过辅助定位标签收集被试者在答题过程中的眼动信息;眼动数据分析模块,用于根据屏幕显示的不同问题对眼动信息进行分类,计算被试者在回答每道题目时,在屏幕各位置的注视时间,获得注视信息;量表回答质量分析模块,用于根据注视信息,获取心理量表回答的质量评估分数。本发明通过加入眼动追踪技术,利用普适性较高的手机摄像头作为硬件终端,通过被试者眼动以及微表情的捕捉,来有效分析出对于量表测试的真实性。通过后续心理干预与智能算法,最终有效提高心理量表的质量。

Description

一种基于眼动追踪的心理量表回答质量评估系统及方法
技术领域
本发明属于心里测评质量评估领域,特别是涉及一种基于眼动追踪的心理量表回答质量评估系统及方法。
背景技术
心理量表是测量工具的一种,用于鉴别个体心理功能的高低。心理量表在心理测量中专指测评人的心理状态的表和问题的集合。通过心理量表,可以针对特定方向,测量个体的不同心理特征,如能力、性格、习惯、兴趣等。由被试人自己对照心理量表中的题目,依据自己的自身真实感受作答。眼动跟踪一般是指自动检测人眼瞳孔相对位置或估计视线方向的过程。眼动追踪技术在心理学测试中经常被使用,但一般用于分析测试对象的情绪、性格等,用于评价心理量表或心理量表质量的路线较少。
传统的心理测试仅对心理量表的回答结果进行评估。由被试人员回答量表问题,然后依据回答结果,对照量表中的各项指标,分析出被试者的心理状态。当被试者回答测试问题时,经常由于外界环境和自身心理等原因,在回答问题时不配合,不填写真实的心理感受,导致测试结果的心理评估偏差。这种情况很难提高评估量表的质量,对后续被试着采取的心理干预等措施带来一定的困难和误差。
心理量表测试结果质量的评估,主要是通过人脸面部特征或身体指标监测来实现的。通过人脸识别出被试者的面部表情,作为量表测试的依据。也有采集被试者的心电信息或身体指标,由答题人的答题时长、脑电数据为依据,计算特征值,判断被测人员是否故意答错;若是,则修改问题答案;若否,则维持问题答案不变;基于所有的问题答案得到可信评估量表,基于可信评估量表得到心理测评结果,在一个基准值上分析回答的质量。心理学研究中,利用眼动追踪技术也是一种有效的研究工具。在研究中,通过收集被试者的眼部信息,得到答题时、或对不同刺激的注视信息,这些信息往往对心理分析有很大的帮助。
使用人脸面部特征或身体指标监测来实现心理量表测试结果质量的评估,其测试设备笨重且设备成本较高,搭建这样的测试环境的不易实现,因为需要采集人体的身体指标,还需要相关专业的知识才可实施。
在心理学研究中使用眼动追踪技术时,需要使用眼动追踪专业设备来收集眼动信息。这需要专门的眼部采集设备,专门的场地放置眼动仪,需要电脑、显示器等配套设备。布置类似的实验环境成本较高、设备笨重且不易搭建。
发明内容
心理量表回答质量评估中,当被试者回答测试问题时,经常由于外界环境和自身心理不配合导致测试问题结果的心理评估偏差。这种情况很难提高评估量表的质量,对后续被试着采取的心理干预等措施带来一定的困难和误差。为了解决这一问题,本发明提供了如下方案:一种基于眼动追踪的心理量表回答质量评估系统及方法,包括:
眼动数据采集模块,用于通过辅助定位标签收集被试者在答题过程中的眼动信息;
眼动数据分析模块,与所述眼动数据采集模块连接,用于根据不同问题对所述眼动信息进行分类,计算被试者在回答每道题目时,在屏幕各位置的注视时间,获得注视信息;
量表回答质量分析模块,与所述眼动数据分析模块连接,用于根据所述注视信息,获取心理量表回答的质量评估分数。
优选地,所述眼动数据采集模块设置于带有摄像头的便携移动设备上,包括题目显示单元、眼动采集单元;
所述题目显示单元至少包括所述便携移动设备的显示屏幕,用于展示量表题目;
所述眼动采集单元用于通过所述便携移动设备的摄像头采集被试者的面目图像,录制成视频;基于所述视频和辅助定位标签获得眼动信息。
优选地,所述眼动采集单元包括校准采集单元、数据采集单元;
所述校准采集单元用于通过被试者注视所述题目显示单元上显示的校准点进行眼动采集校准,同时通过所述数据采集单元采集被试者的注视视频;
所述数据采集单元用于在眼动采集校准完成后,题目显示单元展示量表中的题目,同时数据采集单元采集被试者答题时的面部视频。
优选地,所述眼动数据分析模块包括瞳孔识别单元、标签追踪单元、屏幕映射单元、注视时长分析单元;
所述瞳孔识别单元用于根据采集的注视视频、面部视频,定位获得被试者的左、右两眼的瞳孔坐标;
所述标签追踪单元用于定位所述辅助定位标签的中心坐标;
所述屏幕映射单元分别与所述瞳孔识别单元、标签追踪单元连接,用于计算、应用映射模型,基于所述瞳孔坐标与标签的中心坐标,得到瞳孔相对于标签的位置,获得注视点;
所述注视时长分析单元,与所述屏幕映射单元连接,用于将所述注视点联合起来进行分析,获得被试者在回答每道题目时的注视时长、注视过程。
优选地,所述量表回答质量分析模块包括第一评估单元、第二评估单元;
所述第一评估单元用于根据所述注视信息,对量表测试结果的回答质量进行打分,获得初始质量评估结果;
所述第二评估单元用于基于不同的眼动情况,设置不同的分值标准;基于所述初始质量评估结果,在对每道题评估后,进行加权平均,结合所述分值标准获得目标质量评估结果。
一种基于眼动追踪的心理量表回答质量评估方法,包括:
在被试者头上粘贴定位辅助标签,并启动量表测试软件;采集被试者在答题过程中的眼动信息,根据不同问题对所述眼动信息进行分类,计算被试者在回答每道题目时,在屏幕各位置的注视时间,获得注视信息;根据所述注视信息,获取心理量表回答的质量评估分数。
优选地,采集被试者在答题过程中的眼动信息的过程包括对眼动数据采集模块进行校准以及通过眼动数据采集模块采集眼动信息;
所述对眼动数据采集模块进行校准以及通过眼动数据采集模块采集眼动信息的过程包括,
题目显示单元依次在显示屏幕的左上角、右上角、右下角、左下角、中间显示校准点,被试者目光跟随原点,依次注视校准点进行眼动采集校准,同时通过数据采集单元采集被试者的注视视频;
在眼动采集校准完成后,题目显示单元展示量表中的题目,同时数据采集单元采集被试者答题时的面部视频。
优选地,根据不同问题对所述眼动信息进行分类,计算被试者在回答每道题目时,在屏幕各位置的注视时间,获得注视信息的过程包括,
读取校准采集模式下的注视视频,识别获得注视视频中的瞳孔坐标、辅助定位标签的中心坐标;基于所述瞳孔坐标与标签的中心坐标,得到瞳孔相对于标签的位置,获得第一相对坐标;
根据所述相对坐标与校准点在题目显示单元的坐标构建映射关系,构建映射模型;
读取眼动采集模式下的面部视频,进行相同方式处理后,获得第二相对坐标,将所述第二相对坐标的坐标数据输入所述映射模型,获得注视点坐标。
优选地,将所述第二相对坐标的坐标数据输入所述映射模型,获得注视点坐标的过程中还包括,基于图像的透视变换算法,将注视点映射到屏幕上;
基于图像的透视变换算法,将注视点映射到屏幕上的过程包括,
将所述第二相对坐标通过变换矩阵映射到三维空间,再将得到的点映射到二维屏幕所在的平面上,得到注视点在屏幕上的注视点坐标。
优选地,根据所述注视信息,获取心理量表回答的质量评估分数的过程包括,
根据所述注视信息,对量表测试结果的回答质量进行打分,获得初始质量评估结果;
基于不同的眼动情况,设置不同的分值标准;基于所述初始质量评估结果,在对每道题评估后,进行加权平均,结合所述分值标准获得目标质量评估结果。
本发明公开了以下技术效果:
本发明提供的一种基于眼动追踪的心理量表回答质量评估系统及方法,在移动设备上仅借助辅助标签,即可采集被试者在进行心理量表测试时的眼动注视情况。之后对眼动数据进行分析,结合题目在屏幕上的显示位置,对测试结果的质量做出评估0-100分。心理学研究人员除了可以得到量表测试结果外,还能得到针对每份测试结果的质量评估,给心理学研究人员得到更可靠的测试结果,排除低质量、无效的量表测试回答。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的系统结构示意图;
图2为本发明实施例的眼动数据采集模块结构示意图;
图3为本发明实施例的眼动数据分析模块结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明提供了一种基于眼动追踪的心理量表回答质量评估系统,包括三大模块:眼动数据采集模块、眼动数据分析模块、量表回答质量分析模块。
首先,眼动数据采集模块通过辅助定位标签,收集量表被试者在答题过程中的眼动信息;接着,眼动数据分析模块将眼动信息针对各问题进行分类,计算被试者在回答每道题目时,在屏幕各位置的注视时间;最后,由量表回答质量分析模块结合每道题的注视数据,给出整张量表回答的质量评估分数。
眼动数据采集模块部署在带有前置摄像头的便携移动设备上,如手机、平板电脑等,含有题目显示模块和眼动采集模块。题目显示模块一般是移动设备的显示屏幕,用于展示量表题目,为了便于之后的分析,题目与各选项的分布会尽量布满整个屏幕。眼动采集模块使用移动设备的摄像头手机采集被试者的面目图像,录制成视频保存,被试者会在脸部粘贴一个辅助定位标签,用于眼动分析。眼动数据采集模块有两种模式:校准采集模式和眼动采集模式,如图2所示。校准模式下,会让被试者注视题目显示模块上显示的点各2秒,这些点分布在屏幕的四角及正中间,依次显示各点2秒,让被试者注视,同时眼动采集模块会记录下被试者的注视视频;眼动采集模式下,量表中的题目会由题目显示模块展示,同时眼动采集模块采集被试者答题时的面部视频。
眼动数据分析模块功能是将采集到的视频,结合屏幕的显示内容,对被试者的屏幕注视情况进行分析。本模块包含瞳孔识别模块、标签追踪模块、屏幕映射模块、注视时长分析模块,其结构如图3所示。其中,瞳孔识别模块作用是,在采集的视频中,定位出被试者的左、右两眼的瞳孔坐标;标签追踪模块则是定位出标签的中心坐标;屏幕映射模块可以计算、应用映射模型,将瞳孔坐标与标签坐标相减,即可得到瞳孔相对于标签的位置。首先使用校准模式下采集到的视频的相对坐标,构建映射模型,然后将映射模型应用到眼动采集模式所得的视频中,由相对坐标,得到屏幕上的注视点坐标。考虑到移动端的使用续航等因素,映射模型使用图像的透视变换算法,将注视点映射到屏幕上。透视变换的映射分为两步:将输入点坐标通过变换矩阵
Figure BDA0003834129870000091
映射到三维空间
Figure BDA0003834129870000092
再将得到的点映射到二维,屏幕所在的平面上,得到注视点在屏幕上的坐标x′、y′。
Figure BDA0003834129870000093
Figure BDA0003834129870000094
最后,注视时长分析模块将每个时间点的注视点联合起来分析,得到题目各部分的注视时长、注视过程。
量表回答质量分析模块的作用是通过被试者在答题过程中所被采集的眼动信息,对量表的测试结果进行评估打分,给出0-100分的质量评估。首先对每道题的回答质量进行评分。对于不同的眼动情况,设置不同的合理分值。在对每道题评估后,进行加权平均,从而得出整个回答的质量评分。
在使用心理量表进行测试时,被试者头部贴有辅助标签,即在本发明的环境下回答问题后,本系统会在得出测试结果的同时,结合测试期间采集到的被试者眼动情况,对测试结果的质量做出评估,质量由差至优以0至100分表示。
本发明提供了基于眼动追踪的心理量表回答质量评估方法,具体步骤如以下实施例的描述。
实施例一
在监狱中,对犯人进行心理测试时,被试人员可能会出现胡乱作答的情况。被试人员测试时,本发明的流程如下:
准备阶段:在被试人员头上粘贴定位辅助标签,在手机上启动量表测试软件。
校准采集模式:题目显示模块会依次在显示屏幕的左上角、右上角、右下角、左下角、中间显示小圆点各2秒钟,被试者目光跟随原点,依次注视小圆点。眼动采集模块会将被试者的眼部图像录制保存。
眼动采集模式:题目显示模块开始显示量表,被试人员开始作答,眼动采集模块将被试者的眼部图像录制保存。
眼动数据分析:读取校准采集模式下的视频,识别出视频中的瞳孔坐标、辅助标签坐标,二者相减得到瞳孔的相对坐标,将瞳孔的相对坐标与小圆点在显示模块的坐标构建映射关系,建立模型。再读取眼动采集模式下的视频,相同方式处理后,得到瞳孔的相对坐标,将数据送入映射模型,计算出被试人员答题时,再屏幕上的注视点,并将数据保存。
量表回答质量分析:读取被试人员的答题时间,结合对应的眼动数据,给每道题的答题质量进行评估打分,再将各题的数据加权整合,对整个测试结果的质量给出一个评估分值。
实施例二
学生自测心理量表。首先,在额头贴上辅助定位标签。然后,再手机上打开量表测试软件。软件会显示让学生依次注视眼动校准模式下显示的5个校准点,通过识别瞳孔和辅助定位标签的坐标,用于映射建模。接着,手机会显示心理量表题目,作答时,手机前置摄像头会采集学生的答题眼部视频。识别出瞳孔的相对坐标后,应用于映射模型,得到答题时的注视点。最后,结合每题的答题时间、眼动情况,对没道题的回答质量进行评分,最终再将各题的评分加权整合,分析出整个回答的质量评分。
在平板电脑上进行心理量表测试。
被试人在额头粘贴辅助定位标签,在测试软件中点击开始答题后,平板电脑会在屏幕左上、右上、右下、左下、中间五个位置依次显示小圆点,被试人应跟随小圆点的位置,依次注视五个位置。此时平板电脑的前置摄像头会录下被试人的面部视频,识别、定位出视频中被试者的瞳孔坐标与辅助定位标签的坐标,通过二两个坐标计算出映射模型。接下来平板电脑的屏幕会显示心理量表,被试人回答各个问题,平板电脑的前置摄像头会同时记录下被试人回答每题时的面部视频,同样计算出瞳孔坐标与辅助定位标签的坐标后,送入映射模型,计算出被试人的注视情况。在被试人回答完全部问题后,系统会依据计算出的答题注视信息,分别计算出被试人对量表中各题的回答质量,评估出得分。最后对各题的回答质量评分进行加权平均,给出整张量表回答质量的评估得分。
以上所述的实施例仅是对本发明的优选方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。

Claims (10)

1.一种基于眼动追踪的心理量表回答质量评估系统,其特征在于,包括:
眼动数据采集模块,用于通过辅助定位标签收集被试者在答题过程中的眼动信息;
眼动数据分析模块,与所述眼动数据采集模块连接,用于根据屏幕显示的不同问题对所述眼动信息进行分类,计算被试者在回答每道题目时,在屏幕各位置的注视时间,获得注视信息;
量表回答质量分析模块,与所述眼动数据分析模块连接,用于根据所述注视信息,获取心理量表回答的质量评估分数。
2.根据权利要求1所述的基于眼动追踪的心理量表回答质量评估系统,其特征在于,
所述眼动数据采集模块设置于带有摄像头的便携移动设备上,包括题目显示单元、眼动采集单元;
所述题目显示单元至少包括所述便携移动设备的显示屏幕,用于展示量表题目;
所述眼动采集单元用于通过所述便携移动设备的摄像头采集被试者的面目图像,录制成视频;基于所述视频和辅助定位标签获得眼动信息。
3.根据权利要求2所述的基于眼动追踪的心理量表回答质量评估系统,其特征在于,
所述眼动采集单元包括校准采集单元、数据采集单元;
所述校准采集单元用于通过被试者注视所述题目显示单元上显示的校准点进行眼动采集校准,同时通过所述数据采集单元采集被试者的注视视频;
所述数据采集单元用于在眼动采集校准完成后,题目显示单元展示量表中的题目,同时数据采集单元采集被试者答题时的面部视频。
4.根据权利要求3所述的基于眼动追踪的心理量表回答质量评估系统,其特征在于,
所述眼动数据分析模块包括瞳孔识别单元、标签追踪单元、屏幕映射单元、注视时长分析单元;
所述瞳孔识别单元用于根据采集的注视视频、面部视频,定位获得被试者的左、右两眼的瞳孔坐标;
所述标签追踪单元用于定位所述辅助定位标签的中心坐标;
所述屏幕映射单元分别与所述瞳孔识别单元、标签追踪单元连接,用于计算、应用映射模型,基于所述瞳孔坐标与标签的中心坐标,得到瞳孔相对于标签的位置,获得注视点;
所述注视时长分析单元,与所述屏幕映射单元连接,用于将所述注视点联合起来进行分析,获得被试者在回答每道题目时的注视时长、注视过程。
5.根据权利要求3所述的基于眼动追踪的心理量表回答质量评估系统,其特征在于,
所述量表回答质量分析模块包括第一评估单元、第二评估单元;
所述第一评估单元用于根据所述注视信息,对量表测试结果的回答质量进行打分,获得初始质量评估结果;
所述第二评估单元用于基于不同的眼动情况,设置不同的分值标准;基于所述初始质量评估结果,在对每道题评估后,进行加权平均,结合所述分值标准获得目标质量评估结果。
6.一种基于眼动追踪的心理量表回答质量评估方法,其特征在于,包括:
在被试者头上粘贴定位辅助标签,并启动量表测试软件;采集被试者在答题过程中的眼动信息,根据屏幕显示的不同问题对所述眼动信息进行分类,计算被试者在回答每道题目时,在屏幕各位置的注视时间,获得注视信息;根据所述注视信息,获取心理量表回答的质量评估分数。
7.根据权利要求6所述的基于眼动追踪的心理量表回答质量评估方法,其特征在于,
采集被试者在答题过程中的眼动信息的过程包括对眼动数据采集模块进行校准以及通过眼动数据采集模块采集眼动信息;
所述对眼动数据采集模块进行校准以及通过眼动数据采集模块采集眼动信息的过程包括,
题目显示单元依次在显示屏幕的左上角、右上角、右下角、左下角、中间显示校准点,被试者目光跟随原点,依次注视校准点进行眼动采集校准,同时通过数据采集单元采集被试者的注视视频;
在眼动采集校准完成后,题目显示单元展示量表中的题目,同时数据采集单元采集被试者答题时的面部视频。
8.根据权利要求6所述的基于眼动追踪的心理量表回答质量评估方法,其特征在于,根据屏幕显示的不同问题对所述眼动信息进行分类,计算被试者在回答每道题目时,在屏幕各位置的注视时间,获得注视信息的过程包括,
读取校准采集模式下的注视视频,识别获得注视视频中的瞳孔坐标、辅助定位标签的中心坐标;基于所述瞳孔坐标与标签的中心坐标,得到瞳孔相对于标签的位置,获得第一相对坐标;
根据所述相对坐标与校准点在题目显示单元的坐标构建映射关系,构建映射模型;
读取眼动采集模式下的面部视频,进行相同方式处理后,获得第二相对坐标,将所述第二相对坐标的坐标数据输入所述映射模型,获得注视点坐标。
9.根据权利要求8所述的基于眼动追踪的心理量表回答质量评估方法,其特征在于,将所述第二相对坐标的坐标数据输入所述映射模型,获得注视点坐标的过程中还包括,基于图像的透视变换算法,将注视点映射到屏幕上;
基于图像的透视变换算法,将注视点映射到屏幕上的过程包括,
将所述第二相对坐标通过变换矩阵映射到三维空间,再将得到的点映射到二维屏幕所在的平面上,得到注视点在屏幕上的注视点坐标。
10.根据权利要求6所述的基于眼动追踪的心理量表回答质量评估方法,其特征在于,根据所述注视信息,获取心理量表回答的质量评估分数的过程包括,
根据所述注视信息,对量表测试结果的回答质量进行打分,获得初始质量评估结果;
基于不同的眼动情况,设置不同的分值标准;基于所述初始质量评估结果,在对每道题评估后,进行加权平均,结合所述分值标准获得目标质量评估结果。
CN202211095923.0A 2022-09-06 2022-09-06 一种基于眼动追踪的心理量表回答质量评估系统及方法 Active CN115607153B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211095923.0A CN115607153B (zh) 2022-09-06 2022-09-06 一种基于眼动追踪的心理量表回答质量评估系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211095923.0A CN115607153B (zh) 2022-09-06 2022-09-06 一种基于眼动追踪的心理量表回答质量评估系统及方法

Publications (2)

Publication Number Publication Date
CN115607153A true CN115607153A (zh) 2023-01-17
CN115607153B CN115607153B (zh) 2023-11-28

Family

ID=84857948

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211095923.0A Active CN115607153B (zh) 2022-09-06 2022-09-06 一种基于眼动追踪的心理量表回答质量评估系统及方法

Country Status (1)

Country Link
CN (1) CN115607153B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117649157A (zh) * 2024-01-30 2024-03-05 中国人民解放军空军军医大学 基于视线追踪的仪表判别能力评估方法
CN117727087A (zh) * 2024-02-07 2024-03-19 浙江环玛信息科技有限公司 基于虚拟现实的视点校准方法、装置及认知推断系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160109945A1 (en) * 2013-05-30 2016-04-21 Umoove Services Ltd. Smooth pursuit gaze tracking
CN108836363A (zh) * 2018-04-08 2018-11-20 重庆讲究科技有限公司 一种应用眼动测控技术判断心理健康测评是否可靠的方法
CN109222888A (zh) * 2018-11-05 2019-01-18 温州职业技术学院 一种基于眼动技术判断心理测试可靠性的方法
CN109508755A (zh) * 2019-01-22 2019-03-22 中国电子科技集团公司第五十四研究所 一种基于图像认知的心理测评方法
CN112472089A (zh) * 2020-11-17 2021-03-12 衡阳师范学院 一种基于眼动技术判断心理测试可靠性的系统及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160109945A1 (en) * 2013-05-30 2016-04-21 Umoove Services Ltd. Smooth pursuit gaze tracking
CN108836363A (zh) * 2018-04-08 2018-11-20 重庆讲究科技有限公司 一种应用眼动测控技术判断心理健康测评是否可靠的方法
CN109222888A (zh) * 2018-11-05 2019-01-18 温州职业技术学院 一种基于眼动技术判断心理测试可靠性的方法
CN109508755A (zh) * 2019-01-22 2019-03-22 中国电子科技集团公司第五十四研究所 一种基于图像认知的心理测评方法
CN112472089A (zh) * 2020-11-17 2021-03-12 衡阳师范学院 一种基于眼动技术判断心理测试可靠性的系统及方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117649157A (zh) * 2024-01-30 2024-03-05 中国人民解放军空军军医大学 基于视线追踪的仪表判别能力评估方法
CN117649157B (zh) * 2024-01-30 2024-03-29 中国人民解放军空军军医大学 基于视线追踪的仪表判别能力评估方法
CN117727087A (zh) * 2024-02-07 2024-03-19 浙江环玛信息科技有限公司 基于虚拟现实的视点校准方法、装置及认知推断系统
CN117727087B (zh) * 2024-02-07 2024-05-03 浙江环玛信息科技有限公司 基于虚拟现实的视点校准方法、装置及认知推断系统

Also Published As

Publication number Publication date
CN115607153B (zh) 2023-11-28

Similar Documents

Publication Publication Date Title
CN115607153B (zh) 一种基于眼动追踪的心理量表回答质量评估系统及方法
CN108198620B (zh) 一种基于深度学习的皮肤疾病智能辅助诊断系统
CN110349667B (zh) 结合调查问卷及多模态范式行为数据分析的孤独症评估系统
CN109222888B (zh) 一种基于眼动技术判断心理测试可靠性的方法
US20110043759A1 (en) Method and system for determining familiarity with stimuli
US5482048A (en) System and method for measuring and quantitating facial movements
CN109199410B (zh) 一种基于眼部运动的言语认知评估方法
CN109685007B (zh) 用眼习惯的预警方法、用户设备、存储介质及装置
CN111887867A (zh) 基于表情识别与心理学测试生成性格的分析方法及系统
CN109620266B (zh) 个体焦虑水平的检测方法和系统
CN108171437B (zh) 一种心理学职业能力测评系统
CN109508755B (zh) 一种基于图像认知的心理测评方法
CN104185020B (zh) 一种检测立体视觉疲劳度的系统及方法
CN110729047A (zh) 基于人脸视频的心理生理分析与量表测试结合的装置及方法
CN112472089A (zh) 一种基于眼动技术判断心理测试可靠性的系统及方法
CN114209324A (zh) 基于图像视觉认知的心理测评数据获取方法及vr系统
CN111265226A (zh) 一种心理应激管理能力检测系统及方法
Nugrahaningsih et al. Assessing learning styles through eye tracking for e-learning applications
CN115691797A (zh) 一种大学生心理健康预警系统
Popelka et al. Advanced map optimalization based on eye-tracking
CN111738234B (zh) 基于个体眼动特征的自动化共情能力识别方法
CN112562852A (zh) 基于肢体动作的颈椎病筛查装置
CN115497621A (zh) 一种老年人认知状况测评系统
WO2023060720A1 (zh) 情绪状态展示方法、装置及系统
CN115793847A (zh) 一种用于监测学生线上上课状态的教学系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20231103

Address after: 100124 No. 100 Chaoyang District Ping Tian Park, Beijing

Applicant after: Beijing University of Technology

Applicant after: CHINA University OF POLITICAL SCIENCE AND LAW

Address before: 100124 No. 100 Chaoyang District Ping Tian Park, Beijing

Applicant before: Beijing University of Technology

GR01 Patent grant
GR01 Patent grant