CN113838086B - 注意力评估测试方法、装置、电子设备及存储介质 - Google Patents
注意力评估测试方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN113838086B CN113838086B CN202110967049.4A CN202110967049A CN113838086B CN 113838086 B CN113838086 B CN 113838086B CN 202110967049 A CN202110967049 A CN 202110967049A CN 113838086 B CN113838086 B CN 113838086B
- Authority
- CN
- China
- Prior art keywords
- pupil
- user
- eye movement
- moments
- analysis stage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010998 test method Methods 0.000 title claims description 17
- 210000001747 pupil Anatomy 0.000 claims abstract description 247
- 230000004424 eye movement Effects 0.000 claims abstract description 123
- 238000000034 method Methods 0.000 claims abstract description 34
- 238000012360 testing method Methods 0.000 claims abstract description 22
- 239000011159 matrix material Substances 0.000 claims description 20
- 238000011156 evaluation Methods 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 7
- 238000012544 monitoring process Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 230000003068 static effect Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000008451 emotion Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000001711 saccadic effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/207—Analysis of motion for motion estimation over a hierarchy of resolutions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明实施例公开了一种注意力评估测试方法、装置、电子设备及存储介质,该方法包括:获取用户在眼动分析阶段内不同采集时刻的眼动信息;依据用户在不同采集时刻的眼动信息,确定用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹;其中,所述瞳孔运动轨迹用于表征瞳孔从当前采集时刻到相邻下一采集时刻之间的运动轨迹;依据用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹,确定用户在眼动分析阶段的注意力评估结果。通过本发明实施例的技术方案,实现无注视目标及非实时眼动追踪的注意力评估。
Description
技术领域
本发明实施例涉及测试技术领域,尤其涉及一种注意力评估测试方法、装置、电子设备及存储介质。
背景技术
人类视觉系统会迅速将注意力集中在场景中的重要区域上,这一选择性感知机制极大地减少了人类视觉系统处理数据的数量,从而使人类在处理复杂的视觉信息时,能够抑制不重要的刺激。
传统的注意力检测包括眼跳类检测和眼动追踪类,眼动样本数据区分成注视和眼跳,包括注意力和视线跟随、视线扫视等视觉能力。但是,需要全过程实时追踪用户眼动计算用户注视点信息,在非实时追踪场景下无法追踪,并且需要预先展示一个或多个事先定义兴趣区域,通过用户的注视点信息计算用户注意力和视觉能力分数,否则无法进行注意力测评。
发明内容
本发明实施例中提供了一种注意力评估测试方法、电子设备及存储介质,以实现无注视目标及非实时眼动追踪的注意力评估。
第一方面,本发明实施例中提供了一种注意力评估测试方法,包括:
获取用户在眼动分析阶段内不同采集时刻的眼动信息;
依据用户在不同采集时刻的眼动信息,确定用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹;其中,所述瞳孔运动轨迹用于表征瞳孔从当前采集时刻到相邻下一采集时刻之间的运动轨迹;
依据用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹,确定用户在眼动分析阶段的注意力评估结果。
第二方面,本发明实施例中还提供了一种注意力评估测试装置,包括:
信息获取模块,用于获取用户在眼动分析阶段内不同采集时刻的眼动信息;
瞳孔位置及运动轨迹确定模块,用于依据用户在不同采集时刻的眼动信息,确定用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹;其中,所述瞳孔运动轨迹用于表征瞳孔从当前采集时刻到相邻下一采集时刻之间的运动轨迹;
注意力评估结果确定模块,用于依据用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹,确定用户在眼动分析阶段的注意力评估结果。
第三方面,本发明实施例中还提供了一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明任意实施例中提供的注意力评估测试方法。
第四方面,本发明实施例中还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任意实施例中提供的注意力评估测试方法。
本发明实施例公开了一种注意力评估测试方法、装置、电子设备及存储介质,该方法包括:获取用户在眼动分析阶段内不同采集时刻的眼动信息;依据用户在不同采集时刻的眼动信息,确定用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹;其中,所述瞳孔运动轨迹用于表征瞳孔从当前采集时刻到相邻下一采集时刻之间的运动轨迹;依据用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹,确定用户在眼动分析阶段的注意力评估结果。通过本发明实施例的技术方案,实现无注视目标及非实时眼动追踪的注意力评估。
上述发明内容仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1A是本申请实施例一提供的一种注意力评估测试方法的流程图;
图1B是本申请实施例一提供的眼动分析阶段瞳孔位置发生偏移的示意图;
图2是本申请实施例二提供的一种注意力评估测试方法的流程图;
图3是本申请实施例三提供的一种注意力评估测试装置的结构示意图;
图4是本申请实施例四提供的一种电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作(或步骤)描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
实施例一
图1A是本发明实施例一中提供的一种注意力评估测试方法的流程图,该方法可适用于对注意力进行评估测试的情况,该方法可由注意力评估测试装置来执行,该装置可由软件和/或硬件实现,并可集成于电子设备中。如图1A所示,本实施例中的注意力评估测试方法,包括以下步骤:
S110、获取用户在眼动分析阶段内不同采集时刻的眼动信息。
其中,眼动分析阶段可以是指在一段时间内瞳孔矩阵的位置没有发生改变,即瞳孔锚定的视线未发生改变的时间段。例如可以是在3秒时间内瞳孔锚定的视线未发生改变,则该时间段称为眼动分析阶段。例如可以是在做心理测评或情绪分析时,对用户的瞳孔运动进行监测的某个时间段。
可选的,如图1B所示,在一眼动分析阶段,瞳孔矩阵的中心点未发生变化,t时刻瞳孔位置位于a22,t+1时刻瞳孔位置位于a23,则a22和a23为不同采集时刻的眼动信息。
在下一个眼动分析阶段,瞳孔矩阵将再次对准瞳孔中心,采集不同时刻瞳孔发生偏移的信息。在不同的眼动分析阶段,对应不同位置的瞳孔矩阵,在同一眼动分析阶段,瞳孔矩阵不会发生改变。若瞳孔矩阵发生变化,则无法判断瞳孔的偏移情况。
眼动信息可以是指在某一个眼动分析阶段内用户的瞳孔发生运动变化的情况。例如,可以是用户在做心理测评时,瞳孔由兴趣区域的右侧经过运动变化至兴趣区域的左侧。
不同采集时刻可以是指在不同的时间段内对用户的瞳孔进行监测并获取眼动信息。例如可以是在做心理测评时的开始时刻、中间时刻或最后时刻;可以是在获取眼动信息时,摄像头不断移动或切换。实现了在非实时的场景下对眼动信息进行追踪。
S120、依据用户在不同采集时刻的眼动信息,确定用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹。
其中,瞳孔位置可以是指瞳孔在发生运动变化时,某时刻瞳孔所在的位置。例如可以是t时刻,瞳孔位置为a11;t1时刻瞳孔发生运动变化,瞳孔位置为a12。
瞳孔运动轨迹可以是指瞳孔在发生运动变化时形成的运动轨迹。例如,可以是t时刻,瞳孔位置为a11;t1时刻瞳孔发生运动变化,瞳孔位置为a12。瞳孔位置从a11至a12所形成的轨迹为瞳孔运动轨迹。其中,所述瞳孔运动轨迹用于表征瞳孔从当前采集时刻到相邻下一采集时刻之间的运动轨迹。
S130、依据用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹,确定用户在眼动分析阶段的注意力评估结果。
其中,注意力评估结果可以是指根据用户在不同时刻瞳孔的位置变化进行评估得到的结果。例如可以是,根据用户瞳孔位置以及瞳孔运动轨迹得出的注意力评估结果。通过瞳孔位置和瞳孔运动轨迹,以及注意力得分进行深度学习训练,生成模型;通过输入瞳孔位置、瞳孔运动轨迹和模型,输出预测的注意力得分,得到注意力评估结果。
本发明实施例提供了一种注意力评估测试方法,通过获取用户在眼动分析阶段内不同采集时刻的眼动信息;依据用户在不同采集时刻的眼动信息,确定用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹;依据用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹,确定用户在眼动分析阶段的注意力评估结果。通过本发明实施例的技术方案,在非实时追踪场景下,无需定义兴趣区域,根据眼动分析阶段内不同采集时刻的眼动信息,确定用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹,实现无注视目标及非实时眼动追踪的注意力评估。
实施例二
图2是本申请实施例二提供的一种注意力评估测试方法的流程图。本发明实施例在上述实施例的基础上对前述实施例进行进一步优化,本发明实施例可以与上述一个或者多个实施例中各个可选方案结合。如图2所示,本发明实施例中提供的注意力评估测试方法,可包括以下步骤:
S210、获取用户在眼动分析阶段内不同采集时刻的眼动信息。
其中,通过图像采集器从静态影像资料或者动态监测环境中,获取用户在眼动分析阶段的不同采集时刻的眼动信息;
所述眼动信息用于表征在眼动分析阶段内用户瞳孔的运动变化情况。
其中,所述图像采集器包含但不限于摄像头和相机等。
S220、依据用户在不同采集时刻的眼动信息,确定用户在当前采集时刻的瞳孔位置与相邻下一采集时刻的瞳孔位置。
其中,依据用户在当前采集时刻的眼动信息,确定当前采集时刻的瞳孔相对眼动分析阶段关联的瞳孔校准坐标系中瞳孔中心的运动方向;
依据当前采集时刻的瞳孔相对瞳孔中心的运动方向,确定用户在当前采集时刻的瞳孔位置;
其中,所述瞳孔位置采用眼动分析阶段关联的瞳孔位置矩阵表示,所述瞳孔位置矩阵中的中心元素表示瞳孔中心,瞳孔位置矩阵中元素取值基于瞳孔相对瞳孔中心的运动方向进行确定。
将瞳孔放置在二维坐标系的中心,如果用户视线出现偏移,把眼睛的最中心的位置作为整个屏幕的一个焦点的位置,便于锚定视线。
将瞳孔放置于二维坐标系的中心,分为9个方向,记为瞳孔矩阵A=(aij):
其中,瞳孔位于a22,a11为西北方向,a12为正北方向,a13为东北方向,a21为正西方向,a23为正东方向,a31为西南方向,a32为正南方向,a33为东南方向。
S230、依据用户在当前采集时刻的瞳孔位置与相邻下一采集时刻的瞳孔位置,生成瞳孔从当前采集时刻到相邻下一采集时刻之间的运动轨迹,以得到用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹。
其中,根据每个时刻采集的眼动信息,计算瞳孔的位置,以及瞳孔在最近画面帧的前后连续运动轨迹;记时间T=1,2,3,……,t,t+1。t时刻采集的瞳孔矩阵A记为At(A1,A2,……,At,……),t∈T。注意力得分为Xt,t∈T。计算t时刻瞳孔位置,记为Aij(t):
如果瞳孔在对应的区域aij,此时瞳孔位置矩阵为1;否则,瞳孔位置矩阵为0。
计算t时刻,t+1时刻瞳孔运动轨迹,记为Sijkl(t):
t时刻瞳孔位置为a11,t+1时刻瞳孔位置为a32,则a11+a32为t至t+1时刻的运动轨迹。
S240、将用户在不同采集时刻的瞳孔位置组成瞳孔位置序列,以及将用户在不同采集时刻的瞳孔运动轨迹组成瞳孔运动轨迹序列。
其中,瞳孔位置序列可以是指在对数据进行训练时已标注好的数据所对应的序列。例如,可以是在t,t+1,t+2时间段内,对应的序列为101。101序列对应情绪源时间的输出,从而得知该时刻用户的情绪,例如,101序列对应悲伤情绪,110序列对应高兴序列等。
将不同时刻的瞳孔运动轨迹组成瞳孔运动轨迹序列。例如,可以是在t,t+1,t+2时间段内,对应的序列为101;t+3,t+4时间段内对应的序列为11,则t至t+4时间段内对应的序列为10111。以此类推,将不同时刻的瞳孔运动轨迹组成对应时间段内的瞳孔运动轨迹,同时组成相应的瞳孔运动轨迹序列。
S250、将眼动分析阶段的瞳孔位置序列与瞳孔运动轨迹序列输入到预先训练的注意力评估模型中,获得用户在眼动分析阶段的注意力评估结果。
其中,所述注意力评估模型基于包括瞳孔位置序列与瞳孔运动轨迹序列的训练样本对时延神经网络进行训练得到。所述训练模型,包含但不限于时延神经网络、卷积神经网络以及循环神经网络等能够满足训练要求的模型。
获取用户不同采集时刻的眼动信息,确定确定用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹,将眼动分析阶段的瞳孔位置序列与瞳孔运动轨迹序列输入到预先训练的注意力评估模型中,获得用户在眼动分析阶段的注意力评估结果。
本发明实施例提供了一种注意力评估测评方法,通过获取用户在眼动分析阶段内不同采集时刻的眼动信息;确定用户在当前采集时刻的瞳孔位置与相邻下一采集时刻的瞳孔位置,并生成瞳孔运动轨迹;将用户在不同采集时刻的瞳孔位置组成瞳孔位置序列,以及将用户在不同采集时刻的瞳孔运动轨迹组成瞳孔运动轨迹序列;将眼动分析阶段的瞳孔位置序列与瞳孔运动轨迹序列输入到预先训练的注意力评估模型中,获得用户在眼动分析阶段的注意力评估结果。该方法简单实用,不需要设定用户目光注视区域,也不需要持续实时跟踪眼动位置,适用于任意摄像头位置以及角度,连续视频或者不连续视频的用户注意力评估。通过本发明实施例的技术方案,实现了无注视目标及非实时眼动追踪的注意力评估。
实施例三
图3是本发明实施例三中提供的一种注意力评估测试装置的结构示意图。该装置可适用于对注意力进出评估测试的情况,该装置可由软件和/或硬件实现,并集成在电子设备中。该装置用于实现上述实施例提供的注意力评估测试方法。如图3所示,本实施例中提供的注意力评估测试装置,包括:
信息获取模块310,用于获取用户在眼动分析阶段内不同采集时刻的眼动信息;
瞳孔位置及运动轨迹确定模块320,用于依据用户在不同采集时刻的眼动信息,确定用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹;其中,所述瞳孔运动轨迹用于表征瞳孔从当前采集时刻到相邻下一采集时刻之间的运动轨迹;
注意力评估结果确定模块330,用于依据用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹,确定用户在眼动分析阶段的注意力评估结果。
可选的,所述信息获取模块包括:
通过图像采集器从静态影像资料或者动态监测环境中,获取用户在眼动分析阶段的不同采集时刻的眼动信息;
其中,所述眼动信息用于表征在眼动分析阶段内用户瞳孔的运动变化情况。
可选的,所述瞳孔位置及运动轨迹确定模块包括:
依据用户在不同采集时刻的眼动信息,确定用户在当前采集时刻的瞳孔位置与相邻下一采集时刻的瞳孔位置;
依据用户在当前采集时刻的瞳孔位置与相邻下一采集时刻的瞳孔位置,生成瞳孔从当前采集时刻到相邻下一采集时刻之间的运动轨迹,以得到用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹。
可选的,所述瞳孔位置及运动轨迹确定模块还包括:
依据用户在当前采集时刻的眼动信息,确定当前采集时刻的瞳孔相对眼动分析阶段关联的瞳孔校准坐标系中瞳孔中心的运动方向;
依据当前采集时刻的瞳孔相对瞳孔中心的运动方向,确定用户在当前采集时刻的瞳孔位置;
其中,所述瞳孔位置采用眼动分析阶段关联的瞳孔位置矩阵表示,所述瞳孔位置矩阵中的中心元素表示瞳孔中心,瞳孔位置矩阵中元素取值基于瞳孔相对瞳孔中心的运动方向进行确定。
可选的,所述注意力评估结果确定模块包括:
将用户在不同采集时刻的瞳孔位置组成瞳孔位置序列,以及将用户在不同采集时刻的瞳孔运动轨迹组成瞳孔运动轨迹序列;
将眼动分析阶段的瞳孔位置序列与瞳孔运动轨迹序列输入到预先训练的注意力评估模型中,获得用户在眼动分析阶段的注意力评估结果;
其中,所述注意力评估模型基于包括瞳孔位置序列与瞳孔运动轨迹序列的训练样本对时延神经网络进行训练得到。
本发明实施例中所提供的注意力评估测试装置可执行上述本发明任意实施例中所提供的注意力评估测试方法,具备执行该注意力评估测试方法相应的功能和有益效果,详细过程参见前述实施例中注意力评估测试方法的相关操作。
实施例四
图4是本申请实施例四提供的一种电子设备的结构示意图。本申请实施例提供了一种电子设备,该电子设备中可集成本申请实施例提供的注意力评估测试装置。如图4所示,本实施例提供了一种电子设备400,其包括:一个或多个处理器420;存储装置410,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器420执行,使得所述一个或多个处理器420实现本申请实施例所提供的注意力评估测试方法,该方法包括:
获取用户在眼动分析阶段内不同采集时刻的眼动信息;
依据用户在不同采集时刻的眼动信息,确定用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹;其中,所述瞳孔运动轨迹用于表征瞳孔从当前采集时刻到相邻下一采集时刻之间的运动轨迹;
依据用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹,确定用户在眼动分析阶段的注意力评估结果。
当然,本领域技术人员可以理解,处理器420还实现本申请任意实施例所提供的注意力评估测试方法的技术方案。
图4显示的电子设备400仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图4所示,该电子设备400包括处理器420、存储装置410、输入装置430和输出装置440;电子设备中处理器420的数量可以是一个或多个,图4中以一个处理器420为例;电子设备中的处理器420、存储装置410、输入装置430和输出装置440可以通过总线或其他方式连接,图4中以通过总线450连接为例。
存储装置410作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块单元,如本申请实施例中的注意力评估测试方法对应的程序指令。
存储装置410可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储装置410可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储装置410可进一步包括相对于处理器420远程设置的存储器,这些远程存储器可以通过网络连接。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置430可用于接收输入的数字、字符信息或语音信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入。输出装置440可包括显示屏、扬声器等电子设备。
本申请实施例提供的电子设备,可以达到实现无注视目标及非实时眼动追踪的注意力评估的技术效果。
实施例五
本发明实施例五中提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时用于执行注意力评估测试方法,该方法包括:
获取用户在眼动分析阶段内不同采集时刻的眼动信息;
依据用户在不同采集时刻的眼动信息,确定用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹;其中,所述瞳孔运动轨迹用于表征瞳孔从当前采集时刻到相邻下一采集时刻之间的运动轨迹;
依据用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹,确定用户在眼动分析阶段的注意力评估结果。
可选的,该程序被处理器执行时还可以用于执行本发明任意实施例中所提供的注意力评估测试方法。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(Random AccessMemory,RAM)、只读存储器(Read Only Memory,ROM)、可擦式可编程只读存储器(ErasableProgrammable Read Only Memory,EPROM)、闪存、光纤、便携式CD-ROM、光存储器件、磁存储器件、或者上述的任意合适的组合。计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于:电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、无线电频率(RadioFrequency,RF)等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (6)
1.一种注意力评估测试方法,其特征在于,所述方法包括:
获取用户在眼动分析阶段内不同采集时刻的眼动信息;
依据用户在不同采集时刻的眼动信息,确定用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹;其中,所述瞳孔运动轨迹用于表征瞳孔从当前采集时刻到相邻下一采集时刻之间的运动轨迹;
依据用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹,确定用户在眼动分析阶段的注意力评估结果;
其中,依据用户在不同采集时刻的眼动信息,确定用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹,包括:
依据用户在不同采集时刻的眼动信息,确定用户在当前采集时刻的瞳孔位置与相邻下一采集时刻的瞳孔位置;依据用户在当前采集时刻的瞳孔位置与相邻下一采集时刻的瞳孔位置,生成瞳孔从当前采集时刻到相邻下一采集时刻之间的运动轨迹,以得到用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹;
对应的,依据用户在不同采集时刻的眼动信息,确定用户在当前采集时刻的瞳孔位置,包括:
依据用户在当前采集时刻的眼动信息,确定当前采集时刻的瞳孔相对眼动分析阶段关联的瞳孔校准坐标系中瞳孔中心的运动方向;依据当前采集时刻的瞳孔相对瞳孔中心的运动方向,确定用户在当前采集时刻的瞳孔位置;其中,所述瞳孔位置采用眼动分析阶段关联的瞳孔位置矩阵表示,所述瞳孔位置矩阵中的中心元素表示瞳孔中心,瞳孔位置矩阵中元素取值基于瞳孔相对瞳孔中心的运动方向进行确定;
所述依据用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹,确定用户在眼动分析阶段的注意力评估结果,包括:
将用户在不同采集时刻的瞳孔位置组成瞳孔位置序列,以及将用户在不同采集时刻的瞳孔运动轨迹组成瞳孔运动轨迹序列;将眼动分析阶段的瞳孔位置序列与瞳孔运动轨迹序列输入到预先训练的注意力评估模型中,获得用户在眼动分析阶段的注意力评估结果;其中,所述注意力评估模型基于包括瞳孔位置序列与瞳孔运动轨迹序列的训练样本对时延神经网络进行训练得到。
2.根据权利要求1所述的方法,其特征在于,获取用户在眼动分析阶段内不同采集时刻的眼动信息,包括:
通过图像采集器从静态影像资料或者动态监测环境中,获取用户在眼动分析阶段的不同采集时刻的眼动信息;
其中,所述眼动信息用于表征在眼动分析阶段内用户瞳孔的运动变化情况。
3.一种注意力评估测试装置,其特征在于,所述装置包括:
信息获取模块,用于获取用户在眼动分析阶段内不同采集时刻的眼动信息;
瞳孔位置及运动轨迹确定模块,用于依据用户在不同采集时刻的眼动信息,确定用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹;其中,所述瞳孔运动轨迹用于表征瞳孔从当前采集时刻到相邻下一采集时刻之间的运动轨迹;
注意力评估结果确定模块,用于依据用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹,确定用户在眼动分析阶段的注意力评估结果;
其中,瞳孔位置及运动轨迹确定模块,具体用于:
依据用户在不同采集时刻的眼动信息,确定用户在当前采集时刻的瞳孔位置与相邻下一采集时刻的瞳孔位置;依据用户在当前采集时刻的瞳孔位置与相邻下一采集时刻的瞳孔位置,生成瞳孔从当前采集时刻到相邻下一采集时刻之间的运动轨迹,以得到用户在不同采集时刻的瞳孔位置与瞳孔运动轨迹;
所述瞳孔位置及运动轨迹确定模块,还具体用于:
依据用户在当前采集时刻的眼动信息,确定当前采集时刻的瞳孔相对眼动分析阶段关联的瞳孔校准坐标系中瞳孔中心的运动方向;依据当前采集时刻的瞳孔相对瞳孔中心的运动方向,确定用户在当前采集时刻的瞳孔位置;其中,所述瞳孔位置采用眼动分析阶段关联的瞳孔位置矩阵表示,所述瞳孔位置矩阵中的中心元素表示瞳孔中心,瞳孔位置矩阵中元素取值基于瞳孔相对瞳孔中心的运动方向进行确定;
所述注意力评估结果确定模块,具体用于:
将用户在不同采集时刻的瞳孔位置组成瞳孔位置序列,以及将用户在不同采集时刻的瞳孔运动轨迹组成瞳孔运动轨迹序列;将眼动分析阶段的瞳孔位置序列与瞳孔运动轨迹序列输入到预先训练的注意力评估模型中,获得用户在眼动分析阶段的注意力评估结果;其中,所述注意力评估模型基于包括瞳孔位置序列与瞳孔运动轨迹序列的训练样本对时延神经网络进行训练得到。
4.根据权利要求3所述的装置,其特征在于,所述信息获取模块包括:
通过图像采集器从静态影像资料或者动态监测环境中,获取用户在眼动分析阶段的不同采集时刻的眼动信息;
其中,所述眼动信息用于表征在眼动分析阶段内用户瞳孔的运动变化情况。
5.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现权利要求1-2中任一所述的注意力评估测试方法。
6.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-2中任一所述的注意力评估测试方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110967049.4A CN113838086B (zh) | 2021-08-23 | 2021-08-23 | 注意力评估测试方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110967049.4A CN113838086B (zh) | 2021-08-23 | 2021-08-23 | 注意力评估测试方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113838086A CN113838086A (zh) | 2021-12-24 |
CN113838086B true CN113838086B (zh) | 2024-03-22 |
Family
ID=78960909
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110967049.4A Active CN113838086B (zh) | 2021-08-23 | 2021-08-23 | 注意力评估测试方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113838086B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106725531A (zh) * | 2016-12-03 | 2017-05-31 | 西安科锐盛创新科技有限公司 | 基于视线的儿童专注力测试分析系统和方法 |
CN107784280A (zh) * | 2017-10-18 | 2018-03-09 | 张家港全智电子科技有限公司 | 一种动态瞳孔跟踪方法 |
CN109086676A (zh) * | 2018-07-06 | 2018-12-25 | 合肥明高软件技术有限公司 | 一种学生注意力分析系统及其判定方法 |
CN110502100A (zh) * | 2019-05-29 | 2019-11-26 | 中国人民解放军军事科学院军事医学研究院 | 基于眼动跟踪的虚拟现实交互方法及装置 |
CN110623629A (zh) * | 2019-07-31 | 2019-12-31 | 毕宏生 | 一种基于眼球运动的视觉注意检测方法及系统 |
CN111160104A (zh) * | 2019-12-02 | 2020-05-15 | 中国联合网络通信集团有限公司 | 一种注意力分析方法和装置 |
CN113052064A (zh) * | 2021-03-23 | 2021-06-29 | 北京思图场景数据科技服务有限公司 | 基于面部朝向、面部表情及瞳孔追踪的注意力检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104173063B (zh) * | 2014-09-01 | 2015-08-12 | 北京工业大学 | 一种视觉注意的检测方法及系统 |
-
2021
- 2021-08-23 CN CN202110967049.4A patent/CN113838086B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106725531A (zh) * | 2016-12-03 | 2017-05-31 | 西安科锐盛创新科技有限公司 | 基于视线的儿童专注力测试分析系统和方法 |
CN107784280A (zh) * | 2017-10-18 | 2018-03-09 | 张家港全智电子科技有限公司 | 一种动态瞳孔跟踪方法 |
CN109086676A (zh) * | 2018-07-06 | 2018-12-25 | 合肥明高软件技术有限公司 | 一种学生注意力分析系统及其判定方法 |
CN110502100A (zh) * | 2019-05-29 | 2019-11-26 | 中国人民解放军军事科学院军事医学研究院 | 基于眼动跟踪的虚拟现实交互方法及装置 |
CN110623629A (zh) * | 2019-07-31 | 2019-12-31 | 毕宏生 | 一种基于眼球运动的视觉注意检测方法及系统 |
CN111160104A (zh) * | 2019-12-02 | 2020-05-15 | 中国联合网络通信集团有限公司 | 一种注意力分析方法和装置 |
CN113052064A (zh) * | 2021-03-23 | 2021-06-29 | 北京思图场景数据科技服务有限公司 | 基于面部朝向、面部表情及瞳孔追踪的注意力检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113838086A (zh) | 2021-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10786895B2 (en) | Operation method for activation of home robot device and home robot device supporting the same | |
US10043281B2 (en) | Apparatus and method for estimating eye gaze location | |
Chen et al. | A probabilistic approach to online eye gaze tracking without explicit personal calibration | |
EP2400370B1 (en) | Information processing device and information processing method | |
US11393186B2 (en) | Apparatus and method for detecting objects using key point sets | |
CN109545003B (zh) | 一种显示方法、装置、终端设备及存储介质 | |
EP3933552B1 (en) | Method and device for determining gaze position of user, storage medium, and electronic apparatus | |
CN110547756A (zh) | 一种视力测试方法、装置和系统 | |
CN111724361B (zh) | 实时显示病灶的方法及装置、电子设备和存储介质 | |
Li et al. | Real-time gaze estimation using a kinect and a HD webcam | |
CN113721483B (zh) | 研究模拟飞行空间定向中视觉注意特征的实验系统和方法 | |
CN113838086B (zh) | 注意力评估测试方法、装置、电子设备及存储介质 | |
CN110568770A (zh) | 一种控制智能家居设备的方法及控制设备 | |
JPWO2019146405A1 (ja) | 表情解析技術を用いた商品に対するモニタの反応を評価するための情報処理装置、情報処理システム、プログラム | |
CN104541304A (zh) | 使用多个相机的目标对象角度确定 | |
CN110189364B (zh) | 用于生成信息的方法和装置,以及目标跟踪方法和装置 | |
CN111833375B (zh) | 一种动物群体轨迹追踪的方法及其系统 | |
CN113283402B (zh) | 一种差分式二维注视点检测方法及装置 | |
CN111126279B (zh) | 一种手势互动方法及手势互动装置 | |
CN115114950B (zh) | 一种决策不确定性的测试方法、装置及设备 | |
US20230045686A1 (en) | Fusion of spatial and temporal context for location determination for visualization systems | |
KR102094944B1 (ko) | 시선 추적 방법 및 이를 수행하기 위한 단말 | |
KR102419860B1 (ko) | 운전자 또는 콘텐츠 시청자의 몰입도 측정 방법 및 장치 | |
US20230283879A1 (en) | Electronic device and method for controlling the electronic device | |
Barbosa et al. | Human gesture evaluation with visual detection and haptic feedback |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |