CN111708434B - 一种结合眼动识别的网上答题反馈系统 - Google Patents

一种结合眼动识别的网上答题反馈系统 Download PDF

Info

Publication number
CN111708434B
CN111708434B CN202010493138.5A CN202010493138A CN111708434B CN 111708434 B CN111708434 B CN 111708434B CN 202010493138 A CN202010493138 A CN 202010493138A CN 111708434 B CN111708434 B CN 111708434B
Authority
CN
China
Prior art keywords
time
interval
eye movement
ceil
floor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010493138.5A
Other languages
English (en)
Other versions
CN111708434A (zh
Inventor
孙耀辉
陈洁
黄旭庭
颜子尧
单婉婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202010493138.5A priority Critical patent/CN111708434B/zh
Publication of CN111708434A publication Critical patent/CN111708434A/zh
Application granted granted Critical
Publication of CN111708434B publication Critical patent/CN111708434B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明涉及基于眼动识别技术的网上答题反馈系统,所述方法包括:获取人在进行网上答题时不同时间下的眼动信息;根据标准答案获得答题正确率的量化评价,得出该答题者的卷面成绩;根据相关时间信息及眼动信息得出做题合格与否、审题合格与否、审题是否足够有效等评价;根据相关眼动信息生成眼动热点图及瞳孔直径随时间变化图,得出该题完成过程中是否足够集中、是否对答题者造成了明显的精神负担等判断。该系统能够对考生的考试状态进行有效反馈,从而对考生的结果有更加详细的过程分析,从而对考生有更加针对性的指导。

Description

一种结合眼动识别的网上答题反馈系统
技术领域
本发明涉及一种结合眼动识别技术的网上答题反馈系统,属于眼动识别技术领域。
背景技术
随着当今计算机技术的高速发展,人机交互的频率与质量也在迅速提升。人体的信息加工在很大程度上依赖于视觉,约有80%~90%的外界信息是通过人的眼睛获得的。由于人的视线具有直接性、自然性和双向性等其它信息所无法具备的特点,眼动追踪技术被广泛运用于实验心理学、应用心理学、工程心理学、认知神经科学等领域。基于眼动识别的人机交互系统如眼动控制的虚拟键盘也再进行着开发。
当人的眼睛看向不同方向,或处于不同的精神状态时时,眼部会有相应的变化,这些变化会产生可以提取的特征,计算机就可以通过图像捕捉或扫描提取这些特征,从而实时追踪眼睛的变化,判断人的状态和需求,并进行响应。由此可见,眼动信息的确可以通过计算机在一定程度上提供可靠的判断数据来进行一些反馈。
一方面,根据吴君等人关于眼动追踪技术在国外信息行为研究中的应用调查,这类研究往往局限于几个主要的眼动测量指标,没有对多个指标进行联合的参数分析,这可能对反馈结果造成一定的影响。
另一方面,目前的考试结果的反馈分析依旧建立在对最终成绩的大数据分析的层次上,对于考生临场的状态的反馈往往是试后的回忆性反思,这样的反馈存在模糊、不准确等缺陷。需要一种实时反馈的系统来精确记录考生当时的精神状态、答题速度、考试策略等应试内容以帮助考生及时对自己的缺陷进行调整。
发明内容
本发明旨在解决当前答题过程中只有分数这唯一指标对考生的状态进行判断的现状,提供一种结合眼动识别的网上答题反馈系统,通过引入眼动识别采集考生考试时的眼球信息,结合时间信息进行联合分析,并设定合理阈值,以增加考生考试时的有效信息反馈,从而在后续更加恰当准确地对考生给予合适的指导意见。
为达到上述目的,本发明采用的方法是:一种结合眼动识别的网上答题反馈系统包括以下模块:眼动信息采集模块,用于获取答题过程中不同时间下的眼动信息;眼动特征提取模块,用于从眼动信息中提取需要的眼动特征向量,并进行分类、绘图、存储;时间信息采集模块,基于计时器,结合眼动特征提取模块中的部分数据,获取答题过程中的时间信息向量,并进行绘图、存储,计时精度至少为0.01秒;数据预处理模块,用于对可量化数据进行第一次整合归纳;传统评价模块,根据答题者答题正确率,结合设定分值,对答题结果进行评分;可量化数据评价模块,根据第一次整合归纳结果进行五段式分类,并得出每一段对应的评价;不可量化数据评价模块,根据热点图比对结果及瞳孔变化人工给出相应结果;最终反馈模块,将时间模块中的个人统计数据,及三个评价模块的结果发送给答题者。
作为本发明的一种改进,结合眼动识别的网上答题反馈系统,是通过以下步骤实现的:
S1、在满足人眼部识别的光线范围内,获取人在进行网上答题时,不同时间下的眼动信息;
S2、根据标准答案获得答题正确率的量化评价,得出结论一:该答题者的卷面成绩;
S3、在答题过程中,计算时间信息向量,包括:首次完成所有题答题时长Tfirst、最终完成所有题答题时长Tfinal、第i题做题时长Tdi、第i题审题时长Tri、第i题有效审题时长Tei,共六类时间特征向量;
S4、从眼动信息中提取眼动特征向量,包括:眼动方向、眼动距离、注视时间、注视次数、瞳孔直径大小,并绘制第i题眼动热点图Hi和瞳孔直径随时间变化图P;
S5、将所有参与答题人员的部分眼动特征向量及时间信息向量汇总,获得与各小题相关的时间信息向量中的最大值Tdi_max、Tri_max、Tei_max,最小值Tdi_min、Tri_min、Tei_min和平均值Tdi_aven、Tri_aven、Tei_aven,对数据进行第一次统计归纳,存储归纳结果;
S6、根据存储的归纳结果,设定合理的五段区间,将对应的时间信息向量分配到各区间中,得出结论二:做题合格与否、审题合格与否、审题是否足够有效;
S7、对部分不可量化数据进行定性分析,得出结论三:该题完成过程中是否足够集中、是否对答题者造成了明显的精神负担;
S8、结合结论一、结论二以及结论三,得出最终反馈。
作为本发明的一种改进,所述步骤S3采集的时间信息的定义分别为:
S3.1.1、将首次完成答题时长Tfirst定义为,从开始做题到视线第一次离开卷尾的时间间隔;
S3.1.2、将最终完成答题时长Tfinal定义为,确认提交时的总答题时间,其大小关系为0<Tfirst≤Tfinal≤T0(考试限定时间);
S3.1.3、将第i题做题时长Tdi定义为,在眼动数据采集模块检测到注视点在设定的该题区域内到达1秒,则开始计时;检测到注视点离开设定区域到达1秒,则暂停计时;若已填上答案,则计时结束;若后续存在回视状态,且在眼动数据采集模块检测到注视点在设定的该题区域内到达1秒,则开始独立计时;检测到注视点离开设定区域到达1秒,则停止计时,在原计时结果上在先前的做题时长上累加该独立计时。
S3.1.4、将第i题审题时长Tri定义为,在状态确认为正在做答第i题时,在眼动数据采集模块检测到注视点在设定的题干区域到达0.5秒,则开始计时,检测到注视点离开设定区域到达0.5秒时,则暂停计时,若已填上答案,则计时结束,若后续存在回视状态,且在眼动数据采集模块检测到注视点在设定的题干区域到达1秒,则开始独立计时,检测到注视点离开设定区域到达1秒时,则停止独立计时,在原计时结果上在先前的审题时长上累加该独立计时。
S3.1.5、将第i题有效审题时长Tei定义为,在状态确认为正在阅读第i题题干时,在眼动数据采集模块检测到注视点在设定的关键词区域到达0.1秒,则开始计时,检测到注视点离开设定区域到达0.1秒,则暂停计时,若已填上答案,则计时结束,多个关键词的计时结果直接相加;若后续存在回视状态,且在眼动数据采集模块检测到注视点在设定的关键词区域到达0.1秒,则开始独立计时,检测到注视点离开设定区域到达0.1秒,则停止独立计时,在原计时结果上在先前的有效审题时长上累加该独立计时。
作为本发明的一种改进,所述步骤S3计算时间信息向量的具体步骤为:
S3.1、将采集的时间信息分类,获得:首次完成所有题答题时长Tfirst、最终完成所有题答题时长Tfinal、第i题做题时长Tdi、第i题审题时长Tri、第i题有效审题时长Tei,共六类时间特征向量;并得到最大值Tdi_max、Tri_max、Tei_max,最小值Tdi_min、Tri_min、Tei_min和平均值Tdi_aven、Tri_aven、Tei_aven
S3.2、将相关的时间信息按照题号i绘制各题不同时间信息关键数据表,并存储关键数据表。
作为本发明的一种改进,所述定义S3.1.3的某第i题的做题区域为:包括该题题干及答题区域的最小矩形框Rdi
作为本发明的一种改进,所述定义S3.1.4的某第i题的审题区域为:可包括题干的最小矩形框Rri
作为本发明的一种改进,所述定义S3.1.5的某第i题的有效审题区域为:包含各关键字或关键词的最小矩形框(需教师预先设置),矩形框不一定相连Rei
作为本发明的一种改进,所述步骤S4从眼动信息中提取眼动特征向量的具体步骤为:
S4.1、将采集到的眼动信息按照眼动方向、眼动距离、注视时间、注视次数、瞳孔直径大小分类,获得五类眼动特征向量;
S4.2、在每一题划定的区域,根据眼动方向及眼动距离绘制第i题的眼动轨迹图Ti,并存储眼动轨迹图Ti
S4.3、根据眼动轨迹图Ti结合注视时间及注视次数,绘制第i题的眼动热点图Hi,并存储眼动热点图Hi
S4.4、根据瞳孔直径大小变化,绘制瞳孔直径随时间变化图P,并在时间坐标轴上根据第i题做题时长Tdi划分时间坐标轴,并存储。
作为本发明的一种改进,所述步骤S5的对相关数据的第一次统计归纳的具体步骤为:
S5.1.1、根据Tdi_min设置单位时间ud:若1秒<Tdi_min<10秒,则单位时间ud=0.5秒;若Tdi_min<1秒,则单位时间ud=0.05秒;若Tdi_min>10秒,则单位时间ud=5秒;
S5.1.2、设置上限为大于最大值Tdi_max的最小的单位时间ud的倍数Tdi_fmax,设置下限为小于最小值Tdi_min的最大的单位时间ud的倍数Tdi_fmin
S5.1.3、根据上限值与下限值,以单位时间ud为一个时间单位,划分时间轴;
S5.1.4、将采集数据归入符合的时间区间中,存储Tdi的第一次统计归纳结果;
作为本发明的一种改进,所述步骤S6的对合理的五段区间的划分的具体步骤为:
S6.1.1、取一个整数nd,则可得一段时间区间长度为单位时间ud的nd倍,即ud*nd,nd是满足使该时间区间[Tdi_floor,Tdi_ceil]内人数为满足大于总人数的40%的最小整数nd,其中Tdi_ceil=ceil(Tdi_aven+ud*nd/2),Tdi_floor=floor(Tdi_aven-ud*nd/2)(ceil()表示向上取整,floor()表示向下取整)。该区间内对应数据平均数所在单位时间区间为所有数据的平均数所在的单位时间区间,作为第一个区间;
S6.1.2、取一个整数md,可取的一段时间区间长度为单位时间ud的md倍,即ud*md,取第二个区间[Tdi_ceil,Tdi_ceil_2],使区间中的人数为总人数的20%,Tdi_ceil_2=ceil(Tdi_ceil+ud*md);取一个整数kd,可取的一段时间区间长度为单位时间ud的kd倍,即ud*kd,取第三个区间[Tdi_floor_2,Tdi_floor],使区间中的人数为总人数的20%,Tdi_floor_2=floor(Tdi_floor-ud*kd);
S6.1.3、确定第四个区间[Tdi_ceil_2,Tdi_fmax],确定第五个区间[Tdi_fmin,Tdi_floor_2];
S6.1.4、对于区间给出相应评价。从左到右,五个区间的评价依次为:过快、优秀、正常、较慢、过慢。存储最终的做题速度评价。
作为本发明的一种改进,所述步骤S5的对相关数据的第一次统计归纳的具体步骤为:
S5.2.1、根据Tri_min设置单位时间ur:若1秒<Tri_min<10秒,则单位时间ur=0.5秒;若Tri_min<1秒,则单位时间ur=0.05秒;若Tri_min>10秒,则单位时间ur=5秒;
S5.2.2、设置上限为大于最大值Tri_max的最小的单位时间ur的倍数Tri_fmax,设置下限为小于最小值Tri_min的最大的单位时间ur的倍数Tri_fmin
S5.2.3、根据上限值与下限值,以单位时间ur秒为一个时间单位,划分时间轴;
S5.2.4、将采集数据归入符合的时间区间中,存储Tri的第一次统计归纳最终结果。
作为本发明的一种改进,所述步骤S6的对合理的五段区间的划分的具体步骤为:
S6.2.1、取一个整数nr,则可得一段时间区间长度为单位时间ur的nr倍,即ur*nr,nr是满足使该时间区间[Tri_floor,Tri_ceil]内人数为满足大于总人数的40%的最小整数nr,其中Tri_ceil=ceil(Tri_aven+ur*nr/2),Tri_floor=floor(Tri_aven-ur*nr/2)(ceil()表示向上取整,floor()表示向下取整)。该区间内对应数据平均数所在单位时间区间为所有数据的平均数所在的单位时间区间;
S6.2.2、取一个整数mr,可取的一段时间区间长度为单位时间ur的mr倍,即ur*mr,取第二个区间区间[Tri_ceil,Tei_ceil_2],使区间中的人数为总人数的20%,Tri_ceil_2=ceil(Tri_ceil+ur*mr);取一个整数kr,可取的一段时间区间长度为单位时间ur的kr倍,即ur*kr,取第三个区间[Tri_floor_2,Tri_floor],使区间中的人数为总人数的20%,Tri_floor_2=floor(Tri_floor-ur*kr);
S6.2.3、确定第四个区间[Tri_ceil_2,Tri_fmax],确定第五个区间[Tri_fmin,Tri_floor_2];
S6.2.4、对于区间给出相应评价。从左到右,五个区间的评价依次为:不充分、较充分、充分、过充分、过慢。存储最终的审题速度评价。
作为本发明的一种改进,所述步骤S5的对相关数据的第一次统计归纳的具体步骤为:
S5.3.1、根据Tei_min设置单位时间ue:若1秒<Tei_min<10秒,则单位时间ue=0.5秒;若Tei_min<1秒,则单位时间ue=0.05秒;若Tei_min>10秒,则单位时间ue=5秒;
S5.3.2、设置上限为大于最大值Tei_max的最小的单位时间ue的倍数Tei_fmax,设置下限为小于最小值Tei_min的最大的单位时间ue的倍数Tei_fmin
S5.3.3、根据上限值与下限值,以单位时间ue秒为一个时间单位,划分时间轴;
S5.3.4、将采集数据归入符合的时间区间中,存储Tei的第一次统计归纳最终结果。
作为本发明的一种改进,所述步骤S6的对合理的五段区间的划分的具体步骤为:
S6.3.1、取一个整数ne,则可得一段时间区间长度为单位时间ue的ne倍,即ue*ne,ne是满足使该时间区间[Tei_floor,Tei_ceil]内人数为满足大于总人数的40%的最小整数ne,其中Tei_ceil=ceil(Tei_aven+ue*ne/2),Tei_floor=floor(Tei_aven-ue*ne/2)(ceil()表示向上取整,floor()表示向下取整)。该区间内对应数据平均数所在单位时间区间为所有数据的平均数所在的单位时间区间;
S6.3.2、取一个整数me,可取的一段时间区间长度为单位时间ue的me倍,即ue*me,取第二个区间区间[Tei_ceil,Tei_ceil_2],使区间中的人数为总人数的20%,Tei_ceil_2=ceil(Tei_ceil+ue*me);取一个整数ke,可取的一段时间区间长度为单位时间ue的ke倍,即ue*ke,取第三个区间[Tei_floor_2,Tei_floor],使区间中的人数为总人数的20%,Tei_floor_2=floor(Tei_floor-ue*ke);
S6.3.3、确定第四个区间[Tei_ceil_2,Tei_fmax],确定第五个区间[Tei_fmin,Tei_floor_2];
S6.3.4、对于区间给出相应评价。从左到右,五个区间的评价依次为:欠有效、较有效、有效、过有效、过慢。存储最终的审题有效性评价。
作为本发明的一种改进,所述步骤S7的对不可量化数据的定性分析包括:
S7.1、将眼动热点图Hi与标记的试卷因注意区域比对,判断热点区域与关键区域是否吻合:若吻合,说明答题者在考试过程中精神较为集中;若不吻合,表明答题者在考试时精神不集中;
S7.2、观察瞳孔直径随时间变化图P,分析对应时刻答题者的心理状态:若瞳孔直径放大,则表现答题者逐渐紧张;若瞳孔直径几乎无变化或起伏较小,则说明答题者在答题过程中无太大阻碍;若答题者的瞳孔直径一直处于低水平,且热点图与关键区域不吻合,可能该答题者当时的精神状态不正常,如发困等。
有益效果:
该发明将有利于应考生的自省与锻炼,帮助教师更加全面地了解学生的应试状态并给予恰当的指导与建议,最终将有效保证考生在下次考试的正常发挥。
附图说明
图1为本发明的系统流程图;
图2为本发明的第一次统计归纳结果图:
图3为本发明的第二次统计归纳结果图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步地说明。
本发明公开了一种结合眼动识别的网上答题反馈系统,包括以下模块:眼动信息采集模块,用于获取答题过程中不同时间下的眼动信息;眼动特征提取模块,用于从眼动信息中提取需要的眼动特征向量,并进行分类、绘图、存储;时间信息采集模块,基于计时器,结合眼动特征提取模块中的部分数据,获取答题过程中的时间信息向量,并进行绘图、存储,计时精度至少为0.01秒;数据预处理模块,用于对可量化数据进行第一次整合归纳;传统评价模块,根据答题者答题正确率,结合设定分值,对答题结果进行评分;可量化数据评价模块,根据第一次整合归纳结果进行五段式分类,并得出每一段对应的评价;不可量化数据评价模块,根据热点图比对结果及瞳孔变化人工给出相应结果;最终反馈模块,将时间模块中的个人统计数据,及三个评价模块的结果发送给答题者。
如图1所示的为本发明的系统流程图,本实施例的结合眼动识别的网上答题反馈系统,通过以下步骤来实现的:
S1、在满足人眼部识别的光线范围内,获取人在进行网上答题时,不同时间下的眼动信息;
S2、根据标准答案获得答题正确率的量化评价,得出结论一:该答题者的卷面成绩;
S3、在答题过程中,计算时间信息向量,包括:首次完成所有题答题时长Tfirst、最终完成所有题答题时长Tfinal、第i题做题时长Tdi、第i题审题时长Tri、第i题有效审题时长Tei,共六类时间特征向量;采集的时间信息的定义分别为:
将首次完成答题时长Tfirst定义为,从开始做题到视线第一次离开卷尾的时间间隔;
将最终完成答题时长Tfinal定义为,确认提交时的总答题时间,其大小关系为0<Tfirst≤Tfinal≤T0(考试限定时间);
将第i题做题时长Tdi定义为,在眼动数据采集模块检测到注视点在设定的该题区域内到达1秒,则开始计时;检测到注视点离开设定区域到达1秒,则暂停计时;若已填上答案,则计时结束;若后续存在回视状态,且在眼动数据采集模块检测到注视点在设定的该题区域内到达1秒,则开始独立计时;检测到注视点离开设定区域到达1秒,则停止计时,在原计时结果上在先前的做题时长上累加该独立计时。定义某第i题的做题区域为:包括该题题干及答题区域的最小矩形框Rdi。
将第i题审题时长Tri定义为,在状态确认为正在做答第i题时,在眼动数据采集模块检测到注视点在设定的题干区域到达0.5秒,则开始计时,检测到注视点离开设定区域到达0.5秒时,则暂停计时,若已填上答案,则计时结束,若后续存在回视状态,且在眼动数据采集模块检测到注视点在设定的题干区域到达1秒,则开始独立计时,检测到注视点离开设定区域到达1秒时,则停止独立计时,在原计时结果上在先前的审题时长上累加该独立计时。定义第i题的审题区域为:可包括题干的最小矩形框Rri。
将第i题有效审题时长Tei定义为,在状态确认为正在阅读第i题题干时,在眼动数据采集模块检测到注视点在设定的关键词区域到达0.1秒,则开始计时,检测到注视点离开设定区域到达0.1秒,则暂停计时,若已填上答案,则计时结束,多个关键词的计时结果直接相加;若后续存在回视状态,且在眼动数据采集模块检测到注视点在设定的关键词区域到达0.1秒,则开始独立计时,检测到注视点离开设定区域到达0.1秒,则停止独立计时,在原计时结果上在先前的有效审题时长上累加该独立计时。定义某第i题的有效审题区域为:包含各关键字或关键词的最小矩形框(需教师预先设置),矩形框不一定相连Rei。
S4、从眼动信息中提取眼动特征向量,包括:眼动方向、眼动距离、注视时间、注视次数、瞳孔直径大小,并绘制第i题眼动热点图Hi和瞳孔直径随时间变化图P;
S5、将所有参与答题人员的部分眼动特征向量及时间信息向量汇总,获得与各小题相关的时间信息向量中的最大值Tdi_max、Tri_max、Tei_max,最小值Tdi_min、Tri_min、Tei_min和平均值Tdi_aven、Tri_aven、Tei_aven,对数据进行第一次统计归纳,存储归纳结果;
S6、根据存储的归纳结果,设定合理的五段区间,将对应的时间信息向量分配到各区间中,得出结论二:做题合格与否、审题合格与否、审题是否足够有效;
S7、对部分不可量化数据进行定性分析,得出结论三:该题完成过程中是否足够集中、是否对答题者造成了明显的精神负担;
S8、结合结论一、结论二以及结论三,得出最终反馈。
上述的步骤S3计算时间信息向量的具体步骤为:
S3.1、将采集的时间信息分类,获得:首次完成所有题答题时长Tfirst、最终完成所有题答题时长Tfinal、第i题做题时长Tdi、第i题审题时长Tri、第i题有效审题时长Tei,共六类时间特征向量;并得到最大值Tdi_max、Tri_max、Tei_max,最小值Tdi_min、Tri_min、Tei_min和平均值Tdi_aven、Tri_aven、Tei_aven
S3.2、将相关的时间信息按照题号i绘制各题不同时间信息关键数据表,并存储关键数据表。
例如有原始数据表Tdi如表1:
表1某班学生Tdi记录结果
则存储的数据表如表2:
表2Tdi的关键数据表
Tdi_max Tdi_aven Tdi_min
49.69 32.24 15.41
步骤S4从眼动信息中提取眼动特征向量的具体步骤为:
S4.1、将采集到的眼动信息按照眼动方向、眼动距离、注视时间、注视次数、瞳孔直径大小分类,获得五类眼动特征向量;
S4.2、在每一题划定的区域,根据眼动方向及眼动距离绘制第i题的眼动轨迹图Ti,并存储眼动轨迹图Ti
S4.3、根据眼动轨迹图Ti结合注视时间及注视次数,绘制第i题的眼动热点图Hi,并存储眼动热点图Hi
S4.4、根据瞳孔直径大小变化,绘制瞳孔直径随时间变化图P,并在时间坐标轴上根据第i题做题时长Tdi划分时间坐标轴,并存储。
步骤S5的对相关数据的第一次统计归纳的具体步骤为:
S5.1.1、根据Tdi_min设置单位时间ud:若1秒<Tdi_min<10秒,则单位时间ud=0.5秒;若Tdi_min<1秒,则单位时间ud=0.05秒;若Tdi_min>10秒,则单位时间ud=5秒;
S5.1.2、设置上限为大于最大值Tdi_max的最小的单位时间ud的倍数Tdi_fmax,设置下限为小于最小值Tdi_min的最大的单位时间ud的倍数Tdi_fmin
S5.1.3、根据上限值与下限值,以单位时间ud为一个时间单位,划分时间轴;
S5.1.4、将采集数据归入符合的时间区间中,存储Tdi的第一次统计归纳结果,即传统分布图;
设有原始数据如上表1,则可得第一次统计归纳结果如图2。
步骤S6的对合理的五段区间的划分的具体步骤为:
S6.1.1、取一个整数nd,则可得一段时间区间长度为单位时间ud的nd倍,即ud*nd,nd是满足使该时间区间[Tdi_floor,Tdi_ceil]内人数为满足大于总人数的40%的最小整数nd,其中Tdi_ceil=ceil(Tdi_aven+ud*nd/2),Tdi_floor=floor(Tdi_aven-ud*nd/2)(ceil()表示向上取整,floor()表示向下取整)。该区间内对应数据平均数所在单位时间区间为所有数据的平均数所在的单位时间区间,作为第一个区间;
S6.1.2、取一个整数md,可取的一段时间区间长度为单位时间ud的md倍,即ud*md,取第二个区间[Tdi_ceil,Tdi_ceil_2],使区间中的人数为总人数的20%,Tdi_ceil_2=ceil(Tdi_ceil+ud*md);取一个整数kd,可取的一段时间区间长度为单位时间ud的kd倍,即ud*kd,取第三个区间[Tdi_floor_2,Tdi_floor],使区间中的人数为总人数的20%,Tdi_floor_2=floor(Tdi_floor-ud*kd);
S6.1.3、确定第四个区间[Tdi_ceil_2,Tdi_fmax],确定第五个区间[Tdi_fmin,Tdi_floor_2];
S6.1.4、对于区间给出相应评价。从左到右,五个区间的评价依次为:过快、优秀、正常、较慢、过慢。生成评价分布图,存储最终的做题速度评价。
根据上述数据及第一次统计归纳结果,可得第二次统计归纳结果,如图3:
步骤S5的对相关数据的第一次统计归纳的具体步骤为:
S5.2.1、根据Tri_min设置单位时间ur:若1秒<Tri_min<10秒,则单位时间ur=0.5秒;若Tri_min<1秒,则单位时间ur=0.05秒;若Tri_min>10秒,则单位时间ur=5秒;
S5.2.2、设置上限为大于最大值Tri_max的最小的单位时间ur的倍数Tri_fmax,设置下限为小于最小值Tri_min的最大的单位时间ur的倍数Tri_fmin
S5.2.3、根据上限值与下限值,以单位时间ur秒为一个时间单位,划分时间轴;
S5.2.4、将采集数据归入符合的时间区间中,存储Tri的第一次统计归纳最终结果,即传统分布图。
步骤S6的对合理的五段区间的划分的具体步骤为:
S6.2.1、取一个整数nr,则可得一段时间区间长度为单位时间ur的nr倍,即ur*nr,nr是满足使该时间区间[Tri_floor,Tri_ceil]内人数为满足大于总人数的40%的最小整数nr,其中Tri_ceil=ceil(Tri_aven+ur*nr/2),Tri_floor=floor(Tri_aven-ur*nr/2)(ceil()表示向上取整,floor()表示向下取整)。该区间内对应数据平均数所在单位时间区间为所有数据的平均数所在的单位时间区间;
S6.2.2、取一个整数mr,可取的一段时间区间长度为单位时间ur的mr倍,即ur*mr,取第二个区间区间[Tri_ceil,Tei_ceil_2],使区间中的人数为总人数的20%,Tri_ceil_2=ceil(Tri_ceil+ur*mr);取一个整数kr,可取的一段时间区间长度为单位时间ur的kr倍,即ur*kr,取第三个区间[Tri_floor_2,Tri_floor],使区间中的人数为总人数的20%,Tri_floor_2=floor(Tri_floor-ur*kr);
S6.2.3、确定第四个区间[Tri_ceil_2,Tri_fmax],确定第五个区间[Tri_fmin,Tri_floor_2];
S6.2.4、对于区间给出相应评价。从左到右,五个区间的评价依次为:不充分、较充分、充分、过充分、过慢。生成评价分布图,存储最终的审题速度评价。
步骤S5的对相关数据的第一次统计归纳的具体步骤为:
S5.3.1、根据Tei_min设置单位时间ue:若1秒<Tei_min<10秒,则单位时间ue=0.5秒;若Tei_min<1秒,则单位时间ue=0.05秒;若Tei_min>10秒,则单位时间ue=5秒;
S5.3.2、设置上限为大于最大值Tei_max的最小的单位时间ue的倍数Tei_fmax,设置下限为小于最小值Tei_min的最大的单位时间ue的倍数Tei_fmin
S5.3.3、根据上限值与下限值,以单位时间ue秒为一个时间单位,划分时间轴;
S5.3.4、将采集数据归入符合的时间区间中,存储Tei的第一次统计归纳最终结果,即传统分布图。
步骤S6的对合理的五段区间的划分的具体步骤为:
S6.3.1、取一个整数ne,则可得一段时间区间长度为单位时间ue的ne倍,即ue*ne,ne是满足使该时间区间[Tei_floor,Tei_ceil]内人数为满足大于总人数的40%的最小整数ne,其中Tei_ceil=ceil(Tei_aven+ue*ne/2),Tei_floor=floor(Tei_aven-ue*ne/2)(ceil()表示向上取整,floor()表示向下取整)。该区间内对应数据平均数所在单位时间区间为所有数据的平均数所在的单位时间区间;
S6.3.2、取一个整数me,可取的一段时间区间长度为单位时间ue的me倍,即ue*me,取第二个区间区间[Tei_ceil,Tei_ceil_2],使区间中的人数为总人数的20%,Tei_ceil_2=ceil(Tei_ceil+ue*me);取一个整数ke,可取的一段时间区间长度为单位时间ue的ke倍,即ue*ke,取第三个区间[Tei_floor_2,Tei_floor],使区间中的人数为总人数的20%,Tei_floor_2=floor(Tei_floor-ue*ke);
S6.3.3、确定第四个区间[Tei_ceil_2,Tei_fmax],确定第五个区间[Tei_fmin,Tei_floor_2];
S6.3.4、对于区间给出相应评价。从左到右,五个区间的评价依次为:欠有效、较有效、有效、过有效、过慢。生成评价分布图,存储最终的审题有效性评价。
步骤S7的对不可量化数据的定性分析包括:
S7.1、将眼动热点图Hi与标记的试卷因注意区域比对,判断热点区域与关键区域是否吻合:若吻合,说明答题者在考试过程中精神较为集中;若不吻合,表明答题者在考试时精神不集中;
S7.2、观察瞳孔直径随时间变化图P,分析对应时刻答题者的心理状态:若瞳孔直径放大,则表现答题者逐渐紧张;若瞳孔直径几乎无变化或起伏较小,则说明答题者在答题过程中无太大阻碍;若答题者的瞳孔直径一直处于低水平,且热点图与关键区域不吻合,可能该答题者当时的精神状态不正常,如发困等。

Claims (3)

1.一种结合眼动识别的网上答题反馈系统,其特征在于:包括眼动信息采集模块,用于获取答题过程中不同时间下的眼动信息;眼动特征提取模块,用于从眼动信息中提取需要的眼动特征向量,并进行分类、绘图、存储;时间信息采集模块,基于计时器,结合眼动特征提取模块中的部分数据,获取答题过程中的时间信息向量,并进行绘图、存储,计时精度至少为0.01秒;数据预处理模块,用于对可量化数据进行第一次整合归纳;传统评价模块,根据答题者答题正确率,结合设定分值,对答题结果进行评分;可量化数据评价模块,根据第一次整合归纳结果进行五段式分类,并得出每一段对应的评价;不可量化数据评价模块,根据热点图比对结果及瞳孔变化人工给出相应结果;最终反馈模块,将时间模块中的个人统计数据,及三个评价模块的结果发送给答题者;
所述的系统是通过以下步骤实现的:
S1、在满足人眼部识别的光线范围内,获取人在进行网上答题时,不同时间下的眼动信息;
S2、根据标准答案获得答题正确率的量化评价,得出结论一:该答题者的卷面成绩;
S3、在答题过程中,计算时间信息向量,包括:首次完成所有题答题时长Tfirst、最终完成所有题答题时长Tfinal、第i题做题时长Tdi、第i题审题时长Tri、第i题有效审题时长Tei,共六类时间特征向量;
S4、从眼动信息中提取眼动特征向量,包括:眼动方向、眼动距离、注视时间、注视次数、瞳孔直径大小,并绘制第i题眼动热点图Hi和瞳孔直径随时间变化图P;
S5、将所有参与答题人员的部分眼动特征向量及时间信息向量汇总,获得与各小题相关的时间信息向量中的最大值Tdi_max、Tri_max、Tei_max,最小值Tdi_min、Tri_min、Tei_min和平均值Tdi_aven、Tri_aven、Tei_aven,对数据进行第一次统计归纳,存储归纳结果;
S6、根据存储的归纳结果,设定五段区间,将对应的时间信息向量分配到各区间中,得出结论二:做题合格与否、审题合格与否、审题是否足够有效;
S7、对部分不可量化数据进行定性分析,得出结论三:该题完成过程中是否足够集中、是否对答题者造成了明显的精神负担;
S8、结合结论一、结论二以及结论三,得出最终反馈;
所述步骤S4从眼动信息中提取眼动特征向量的具体步骤为:
S4.1、将采集到的眼动信息按照眼动方向、眼动距离、注视时间、注视次数、瞳孔直径大小分类,获得五类眼动特征向量;
S4.2、在每一题划定的区域,根据眼动方向及眼动距离绘制第i题的眼动轨迹图Ti,并存储眼动轨迹图Ti
S4.3、根据眼动轨迹图Ti结合注视时间及注视次数,绘制第i题的眼动热点图Hi,并存储眼动热点图Hi
S4.4、根据瞳孔直径大小变化,绘制瞳孔直径随时间变化图P,并在时间坐标轴上根据第i题做题时长Tdi划分时间坐标轴,并存储;
所述步骤S5的对相关数据的第一次统计归纳的具体步骤为:
S5.1.1、根据Tdi_min设置单位时间ud:若1秒<Tdi_min<10秒,则单位时间ud=0.5秒;若Tdi_min<1秒,则单位时间ud=0.05秒;若Tdi_min>10秒,则单位时间ud=5秒;
S5.1.2、设置上限为大于最大值Tdi_max的最小的单位时间ud的倍数Tdi_fmax,设置下限为小于最小值Tdi_min的最大的单位时间ud的倍数Tdi_fmin
S5.1.3、根据上限值与下限值,以单位时间ud为一个时间单位,划分时间轴;
S5.1.4、将采集数据归入符合的时间区间中,存储Tdi的第一次统计归纳结果;
所述步骤S6的对合理的五段区间的划分的具体步骤为:
S6.1.1、取一个整数nd,则可得一段时间区间长度为单位时间ud的nd倍,即ud*nd,nd是满足使该时间区间[Tdi_floor,Tdi_ceil]内人数为满足大于总人数的40%的最小整数nd,其中Tdi_ceil=ceil(Tdi_aven+ud*nd/2),Tdi_floor=floor(Tdi_aven-ud*nd/2),ceil()表示向上取整,floor()表示向下取整,该区间内对应数据平均数所在单位时间区间为所有数据的平均数所在的单位时间区间,作为第一个区间;
S6.1.2、取一个整数md,可取的一段时间区间长度为单位时间ud的md倍,即ud*md,取第二个区间[Tdi_ceil,Tdi_ceil_2],使区间中的人数为总人数的20%,Tdi_ceil_2=ceil(Tdi_ceil+ud*md);取一个整数kd,可取的一段时间区间长度为单位时间ud的kd倍,即ud*kd,取第三个区间[Tdi_floor_2,Tdi_floor],使区间中的人数为总人数的20%,Tdi_floor_2=floor(Tdi_floor-ud*kd);
S6.1.3、确定第四个区间[Tdi_ceil_2,Tdi_fmax],确定第五个区间[Tdi_fmin,Tdi_floor_2];
S6.1.4、对于区间给出相应评价,从左到右,五个区间的评价依次为:过快、优秀、正常、较慢、过慢,存储最终的做题速度评价;
所述步骤S5的对相关数据的第一次统计归纳的具体步骤为:
S5.2.1、根据Tri_min设置单位时间ur:若1秒<Tri_min<10秒,则单位时间ur=0.5秒;若Tri_min<1秒,则单位时间ur=0.05秒;若Tri_min>10秒,则单位时间ur=5秒;
S5.2.2、设置上限为大于最大值Tri_max的最小的单位时间ur的倍数Tri_fmax,设置下限为小于最小值Tri_min的最大的单位时间ur的倍数Tri_fmin
S5.2.3、根据上限值与下限值,以单位时间ur秒为一个时间单位,划分时间轴;
S5.2.4、将采集数据归入符合的时间区间中,存储Tri的第一次统计归纳最终结果;
所述步骤S6的对合理的五段区间的划分的具体步骤为:
S6.2.1、取一个整数nr,则可得一段时间区间长度为单位时间ur的nr倍,即ur*nr,nr是满足使该时间区间[Tri_floor,Tri_ceil]内人数为满足大于总人数的40%的最小整数nr,其中Tri_ceil=ceil(Tri_aven+ur*nr/2),Tri_floor=floor(Tri_aven-ur*nr/2),ceil()表示向上取整,floor()表示向下取整,该区间内对应数据平均数所在单位时间区间为所有数据的平均数所在的单位时间区间;
S6.2.2、取一个整数mr,可取的一段时间区间长度为单位时间ur的mr倍,即ur*mr,取第二个区间[Tri_ceil,Tei_ceil_2],使区间中的人数为总人数的20%,Tri_ceil_2=ceil(Tri_ceil+ur*mr);取一个整数kr,可取的一段时间区间长度为单位时间ur的kr倍,即ur*kr,取第三个区间[Tri_floor_2,Tri_floor],使区间中的人数为总人数的20%,Tri_floor_2=floor(Tri_floor-ur*kr);
S6.2.3、确定第四个区间[Tri_ceil_2,Tri_fmax],确定第五个区间[Tri_fmin,Tri_floor_2];
S6.2.4、对于区间给出相应评价,从左到右,五个区间的评价依次为:不充分、较充分、充分、过充分、过慢,存储最终的审题速度评价;
所述步骤S5的对相关数据的第一次统计归纳的具体步骤为:
S5.3.1、根据Tei_min设置单位时间ue:若1秒<Tei_min<10秒,则单位时间ue=0.5秒;若Tei_min<1秒,则单位时间ue=0.05秒;若Tei_min>10秒,则单位时间ue=5秒;
S5.3.2、设置上限为大于最大值Tei_max的最小的单位时间ue的倍数Tei_fmax,设置下限为小于最小值Tei_min的最大的单位时间ue的倍数Tei_fmin
S5.3.3、根据上限值与下限值,以单位时间ue秒为一个时间单位,划分时间轴;
S5.3.4、将采集数据归入符合的时间区间中,存储Tei的第一次统计归纳最终结果。
2.根据权利要求1所述的结合眼动识别的网上答题反馈系统,其特征在于,所述步骤S6的对合理的五段区间的划分的具体步骤为:
S6.3.1、取一个整数ne,则可得一段时间区间长度为单位时间ue的ne倍,即ue*ne,ne是满足使该时间区间[Tei_floor,Tei_ceil]内人数为满足大于总人数的40%的最小整数ne,其中Tei_ceil=ceil(Tei_aven+ue*ne/2),Tei_floor=floor(Tei_aven-ue*ne/2),ceil()表示向上取整,floor()表示向下取整,该区间内对应数据平均数所在单位时间区间为所有数据的平均数所在的单位时间区间;
S6.3.2、取一个整数me,可取的一段时间区间长度为单位时间ue的me倍,即ue*me,取第二个区间[Tei_ceil,Tei_ceil_2],使区间中的人数为总人数的20%,Tei_ceil_2=ceil(Tei_ceil+ue*me);取一个整数ke,可取的一段时间区间长度为单位时间ue的ke倍,即ue*ke,取第三个区间[Tei_floor_2,Tei_floor],使区间中的人数为总人数的20%,Tei_floor_2=floor(Tei_floor-ue*ke);
S6.3.3、确定第四个区间[Tei_ceil_2,Tei_fmax],确定第五个区间[Tei_fmin,Tei_floor_2];
S6.3.4、对于区间给出相应评价,从左到右,五个区间的评价依次为:欠有效、较有效、有效、过有效、过慢,存储最终的审题有效性评价。
3.根据权利要求1所述的结合眼动识别的网上答题反馈系统,其特征在于,所述步骤S7的对不可量化数据的定性分析包括:
S7.1、将眼动热点图Hi与标记的试卷因注意区域比对,判断热点区域与关键区域是否吻合:若吻合,说明答题者在考试过程中精神较为集中;若不吻合,表明答题者在考试时精神不集中;
S7.2、观察瞳孔直径随时间变化图P,分析对应时刻答题者的心理状态:若瞳孔直径放大,则表现答题者逐渐紧张;若瞳孔直径几乎无变化或起伏较小,则说明答题者在答题过程中无太大阻碍;若答题者的瞳孔直径一直处于低水平,且热点图与关键区域不吻合,说明该答题者当时的精神状态不正常。
CN202010493138.5A 2020-06-03 2020-06-03 一种结合眼动识别的网上答题反馈系统 Active CN111708434B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010493138.5A CN111708434B (zh) 2020-06-03 2020-06-03 一种结合眼动识别的网上答题反馈系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010493138.5A CN111708434B (zh) 2020-06-03 2020-06-03 一种结合眼动识别的网上答题反馈系统

Publications (2)

Publication Number Publication Date
CN111708434A CN111708434A (zh) 2020-09-25
CN111708434B true CN111708434B (zh) 2023-09-29

Family

ID=72538576

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010493138.5A Active CN111708434B (zh) 2020-06-03 2020-06-03 一种结合眼动识别的网上答题反馈系统

Country Status (1)

Country Link
CN (1) CN111708434B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112346568B (zh) * 2020-11-05 2021-08-03 广州市南方人力资源评价中心有限公司 基于计数器和脑电波的vr试题动态呈现方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104504390A (zh) * 2015-01-14 2015-04-08 北京工业大学 一种基于眼动数据的网上用户状态识别方法和装置
CN106407935A (zh) * 2016-09-21 2017-02-15 俞大海 基于人脸图像和眼动注视信息的心理测试方法
CN109222888A (zh) * 2018-11-05 2019-01-18 温州职业技术学院 一种基于眼动技术判断心理测试可靠性的方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104504390A (zh) * 2015-01-14 2015-04-08 北京工业大学 一种基于眼动数据的网上用户状态识别方法和装置
CN106407935A (zh) * 2016-09-21 2017-02-15 俞大海 基于人脸图像和眼动注视信息的心理测试方法
CN109222888A (zh) * 2018-11-05 2019-01-18 温州职业技术学院 一种基于眼动技术判断心理测试可靠性的方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Tibor Ujbanyi等.Eye-tracking analysis of computer networks exam question besides different skilled groups.IEEE.2017,全文. *
刘非凡.基于眼动测量的在线考试分析系统的设计与实现.信息科技辑.2019,正文第2-6章. *
江 波等.在线测评中的学习者眼动行为分析.现代教育技术.2018,全文. *

Also Published As

Publication number Publication date
CN111708434A (zh) 2020-09-25

Similar Documents

Publication Publication Date Title
Sulsky et al. Frame-of-reference training and cognitive categorization: An empirical investigation of rater memory issues.
EP1383430B1 (en) Analysis of the behaviour of a subject
Metcalfe et al. People's hypercorrection of high-confidence errors: Did they know it all along?
Wang et al. Facial expression video analysis for depression detection in Chinese patients
CN109222888B (zh) 一种基于眼动技术判断心理测试可靠性的方法
US20210015416A1 (en) Method for evaluating multi-modal emotion cognition capability of patient with autism spectrum disorder
Krendl et al. Does aging impair first impression accuracy? Differentiating emotion recognition from complex social inferences.
CN112133407A (zh) 一种基于语音与表情的快速智能情绪测评分析方法
CN111708434B (zh) 一种结合眼动识别的网上答题反馈系统
JP3954295B2 (ja) 識別・反応計測方法、識別・反応計測プログラムを記録したコンピュータ読み取り可能な記録媒体及び識別・反応計測装置
CN112085392A (zh) 一种学习参与度确定方法、装置及计算机设备
Boutet et al. Different measures of holistic face processing tap into distinct but partially overlapping mechanisms
CN111523445A (zh) 一种基于改进的Openpose模型和面部微表情的考试行为检测方法
CN111738234B (zh) 基于个体眼动特征的自动化共情能力识别方法
Brennan et al. Cognitive mechanisms influencing facial emotion processing in psychopathy and externalizing.
CN116741360B (zh) 基于智能终端的医生问诊及服务质量评价系统
CN114220522B (zh) 基于视觉认知注意的心理测评数据采集与干预方法及系统
CN114399827B (zh) 基于面部微表情的高校毕业生职业性格测试方法及系统
CN110298301A (zh) 一种组织人员心态预测方法
CN114169808A (zh) 计算机实施的学习力评估方法、计算设备、介质和系统
CN114388143A (zh) 基于游戏交互的阿尔兹海默症面部数据采集方法及装置
CN113506027A (zh) 基于学生视觉注意及教师行为的课程质量评估与提升方法
CN113409635A (zh) 基于虚拟现实场景的互动教学方法与系统
CN112168189A (zh) 一种抑郁症程度量化的评估系统
CN113693599B (zh) 用于人心识别的心理评测系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant