CN110934599A - 一种自然场景下婴幼儿共同注意评估方法及系统 - Google Patents
一种自然场景下婴幼儿共同注意评估方法及系统 Download PDFInfo
- Publication number
- CN110934599A CN110934599A CN201911324603.6A CN201911324603A CN110934599A CN 110934599 A CN110934599 A CN 110934599A CN 201911324603 A CN201911324603 A CN 201911324603A CN 110934599 A CN110934599 A CN 110934599A
- Authority
- CN
- China
- Prior art keywords
- attention
- infants
- common attention
- natural scene
- test
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4076—Diagnosing or monitoring particular conditions of the nervous system
- A61B5/4088—Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/04—Babies, e.g. for SIDS detection
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Psychiatry (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Psychology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- Hospice & Palliative Care (AREA)
- Biophysics (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Biomedical Technology (AREA)
- Neurology (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Educational Technology (AREA)
- Social Psychology (AREA)
- Physiology (AREA)
- Neurosurgery (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明公开了一种自然场景下婴幼儿共同注意评估方法及系统,所述方法包括:第一步骤,自然场景定标装置的安装;第二步骤,开启电脑,打开婴幼儿共同注意测试软件,进入系统;第三步骤,对木棍上6颗LED灯分别进行控制开断,记录婴幼儿在观看LED开断时的眼动轨迹数据,用于眼动注视点的校正;第四步骤,对主试发起的共同注意和婴幼儿发起的共同注意这两种情况,系统会记录和分析婴幼儿在共同注意过程中眼动轨迹数据;第五步骤,计算共同注意评估结果,将共同注意结果与大数据常模参考值进行对比,生成评估报告。本发明利用特殊的自然场景标定装置和方法,实现在自然场景下对婴幼儿共同注意进行评估,实现对婴幼儿共同注意发展异常的早期鉴别和干预。
Description
技术领域
本发明是一种自然场景下婴幼儿共同注意评估方法及系统,属于儿童发展评估的技术领域。
背景技术
共同注意(Joint Attention)是一种早期社会认知能力,指两个人共同对某一物体或事件加以注意,以分享对该物品或事件的兴趣的行为。共同注意是婴幼儿期沟通与社交发展的核心要素,对婴幼儿的语言、社会认知等能力的发展都起到重要作用。共同注意缺陷会导致社会功能发展障碍,与其他技能缺陷有着紧密联系,是预测孤独症谱系障碍(ASD)的重要因素。因此,对婴幼儿共同注意的发展特征及水平进行评估和早期干预意义重大。然而,目前缺乏客观的测量婴幼儿共同注意的方法,目前采用的主要是行为观察方法,对主试的水平要求很高,且主观性强。
为克服传统行为观察方法的不足,现有公开专利“一种基于眼动特征的儿童共同注意分析方法”(申请号201810347167.3)提出利用眼动仪,通过分析儿童在处理视觉信息时的眼动轨迹特征来实现对儿童共同注意的评估与分析。从技术上来讲,该专利的实施需要如下四个关键步骤:(1)定标:通过儿童注视精心设计的图案(点阵或小图片陈列)或小动画来完成;(2)材料呈现:通过播放图片或视频文件;(3)眼动轨迹记录:记录儿童在观看材料呈现中的眼动轨迹;(4)数据统计分析:通过分析儿童在屏幕每个点上停留时间的长短而绘制出眼动热图,并根据儿童眼动轨迹中计算共同注意评估结果,并将共同注意结果与大数据常模参考值进行对比,生成评估报告。
虽然公开专利“一种基于眼动特征的儿童共同注意分析方法”(申请号201810347167.3)获得了客观的测量方法,但需要借助计算机屏幕来完成测试,因此测试的生态效度差。因此需要发展自然场景下婴幼儿共同注意评估方法。
本发明提出一种自然场景下婴幼儿共同注意评估方法及系统构造,利用特殊的眼动仪标定方法,实现在自然场景下对婴幼儿共同注意进行评估,实现对婴幼儿共同注意发展异常的早期鉴别和干预。
发明内容
本发明的目的在于提供一种自然场景下婴幼儿共同注意评估方法及系统构造,以解决上述背景技术中提出的问题。本发明利用特殊的自然场景标定装置和方法,实现在自然场景下对婴幼儿共同注意进行评估,实现对婴幼儿共同注意发展异常的早期鉴别和干预。
为了实现以上目的,本发明所采用的技术方案:
一种自然场景下婴幼儿共同注意评估系统,包括电脑主机、显示器、眼动仪、自然场景定标装置,眼动仪与电脑主机通过USB接口相连,所述电脑主机连接显示器。
进一步的,所述自然场景定标装置包括在测试桌面左右两侧各布置一根木棍,每根木棍的上中下三个地方各放置了1颗LED灯,LED灯通过遥控器控制;两根木棍处于同一平面。
还公开了一种自然场景下婴幼儿共同注意分析方法,包含以下步骤:
S1.自然场景定标装置的安装:在测试桌面左右两侧各布置一根木棍(每根木棍的上中下三个地方各放置了1颗LED灯,可以通过遥控器控制;两根木棍处于同一平面),这样就完成了自然场景定标装置的安装;
S2.开启电脑,打开婴幼儿共同注意测试软件,进入系统;
S3.眼动仪定标:按照先后顺序,通过遥控器对木棍上6颗LED灯分别进行控制开断,记录婴幼儿在观看LED开断时的眼动轨迹数据,用于眼动注视点的校正。
S4.正式测试:主试与婴幼儿面对面,通过遥控器控制LED灯的开关,主试通过改变脸的朝向和手指的指向等方法发起共同注意,同时还分析被试主动发起的共同注意,系统会记录和分析婴幼儿在共同注意过程中眼动轨迹数据。
S5.数据分析:通过分析婴幼儿在共同注意过程中停留在LED灯和主试面部上停留时间的长短而绘制出眼动热图,并根据婴幼儿眼动轨迹中计算共同注意评估结果,并将共同注意结果与大数据常模参考值进行对比,生成评估报告。
进一步的,所述步骤S1中自然定标装置,自然定标装置实际上是有两根木棍组成,每根木棍的上中下三个地方各放置了1颗LED灯(可以通过遥控器控制)。
进一步的,所述步骤S3中定标算法如下:测试者相对自然定标装置的坐标(xe,ye)与测试者相对眼动仪的坐标(xv,yv)满足函数关系:(xv,yv)=f(C,(xe,ye)),其中:向量(xe,ye)为测试者相对自然定标装置的坐标;(xv,yv)为测试者相对眼动仪的坐标;C为参数;f为映射函数,最简单的形式为多项式函数,本发明优选二次多项式。
按顺序控制自然定标装置的六个LED灯的开关,可以获得六组数据,从而可以通过最小二乘法确定参数C,并最终获得测试者相对自然定标装置的坐标:(xe,ye)=f-1(C,(xv,yv))。
进一步的,所述步骤S4中主试与婴幼儿面对面的场景,主试通过改变脸的朝向和手指的指向等方法来发起共同注意。主试与婴幼儿的互动过程包括被试主动发起的共同注意和被试回应主试的共同注意这两种模式。
进一步的,所述步骤S5中,所述第五步骤中大数据常模的建立,需要考虑年龄、性别、区域等因素,需要建立符合统计规律的大数据模型。
与现有技术相比,本发明的有益效果是:
1.本发明提出一种自然场景下眼动仪标定方法,避免现有眼动仪需要依靠屏幕来实现定标的不足,实现在自然场景下对婴幼儿共同注意进行评估,实现对婴幼儿共同注意发展异常的早期鉴别和干预。
2.本发明采用了主试与婴幼儿面对面的测试范式,主试通过改变脸的朝向和手指的指向等方法来发起共同注意,同时还分析被试主动发起的共同注意,实现在自然场景下婴幼儿共同注意的评估。
附图说明
图1为本发明的结构框图。
图2为测试系统展示及测试过程示范图。
具体实施方式
下面对本发明技术方案进行结合附图和实施例详细说明。
一种自然场景下婴幼儿共同注意评估系统,包括电脑主机、显示器、眼动仪、自然场景定标装置,眼动仪与电脑主机通过USB接口相连。,所述电脑主机连接显示器。所述自然场景定标装置包括在测试桌面左右两侧各布置一根木棍,每根木棍的上中下三个地方各放置了1颗LED灯,LED灯通过遥控器控制;两根木棍处于同一平面。
如图1所示,一种自然场景下婴幼儿共同注意评估方法,包括五个步骤,分别为自然场景定标装置的安装,开启电脑,眼动仪定标,正式测试,数据分析。
下面结合具体的实施案例对本发明做进一步的详细说明,需注明的是,所述是对本发明的解释而不是限定。
实施例:
一种自然场景下婴幼儿共同注意分析方法,本示例共分五步,分别为自然场景定标装置的安装,开启电脑,眼动仪定标,正式测试,数据分析。
第一步,自然场景定标装置的安装。
如图2所示,在测试桌面左右两侧各布置一根木棍(每根木棍的上中下三个地方各放置了1颗LED灯,可以通过遥控器控制;两根木棍处于同一平面),这样就完成了自然场景定标装置的安装。
第二步,开启电脑。
正常开启电脑,打开婴幼儿共同注意测试软件,进入系统。
第三步,眼动仪定标。
根据眼动仪的原理,测试者相对自然定标装置的坐标(xe,ye)与测试者相对眼动仪的坐标(xv,yv)满足函数关系:(xv,yv)=f(C,(xe,ye)),其中:向量(xe,ye)为测试者相对自然定标装置的坐标;(xv,yv)为测试者相对眼动仪的坐标;C为参数;f为映射函数,最简单的形式为多项式函数,本发明优选二次多项式。
按照先后顺序,通过遥控器对木棍上6颗LED灯分别进行控制开断,记录婴幼儿在观看LED开断时的眼动轨迹数据,用于眼动注视点的校正。按顺序控制自然定标装置的六个LED灯的开关,可以获得六组数据,从而可以通过最小二乘法确定参数C,并最终获得测试者相对自然定标装置的坐标:(xe,ye)=f-1(C,(xv,yv))。
第四步,正式测试。
如图2所示,主试与婴幼儿面对面,通过遥控器控制LED灯的开关,主试通过改变脸的朝向和手指的指向等方法来发起共同注意,同时还分析被试主动发起的共同注意,系统会记录和分析婴幼儿在共同注意过程中眼动轨迹数据。
第五步,数据分析
通过分析婴幼儿在共同注意过程中停留在LED灯和主试面部上停留时间的长短而绘制出眼动热图,并根据婴幼儿眼动轨迹中计算共同注意评估结果,并将共同注意结果与大数据常模参考值进行对比,生成评估报告。
大数据常模的建立,需要考虑年龄、性别、区域等因素,需要建立符合统计规律的大数据模型。
根据以上所述,便可实现本发明。
Claims (8)
1.本发明提供了一种自然场景下婴幼儿共同注意评估方法,其特征是,S1:自然场景定标装置的安装,测试桌面放置LED灯,LED灯通过遥控器控制;S2开启电脑,打开婴幼儿共同注意测试软件,进入系统;S3眼动仪定标:按照先后顺序,通过遥控器对LED灯分别进行控制开断,记录婴幼儿在观看LED开断时的眼动轨迹数据,用于眼动注视点的校正;S4正式测试,对主试发起的共同注意和婴幼儿发起的共同注意这两种情况,系统记录和分析婴幼儿在共同注意过程中眼动轨迹数据;S5数据分析,通过分析婴幼儿在共同注意过程中停留在LED灯和主试面部上停留时间的长短而绘制出眼动热图,并根据婴幼儿眼动轨迹中计算共同注意评估结果,并将共同注意结果与大数据常模参考值进行对比,生成评估报告。
2.根据权利要求1所述的一种自然场景下婴幼儿共同注意评估方法,其特征是,所述S1步骤中,自然场景定标装置中,测试桌面左右两侧各布置一根木棍,每根木棍的上中下三处各放置了1颗LED灯,6个LED灯通过遥控器控制。
3.根据权利要求2所述的一种自然场景下婴幼儿共同注意评估方法,其特征是,所述步骤S3中的定标算法为:(1)测试者相对自然定标装置的坐标(xe,ye)与测试者相对眼动仪的坐标(xv,yv)满足函数关系:(xv,yv)=f(C,(xe,ye)),其中:向量(xe,ye)为测试者相对自然定标装置的坐标;(xv,yv)为测试者相对眼动仪的坐标;C为参数;f为映射函数;(2)按顺序控制自然定标装置的六个LED灯的开关,可以获得六组数据,从而可以通过最小二乘法确定参数C,并最终获得测试者相对自然定标装置的坐标:(xe,ye)=f-1(C,(xv,yv))。
4.根据权利要求1所述的一种自然场景下婴幼儿共同注意评估方法,,其特征是,所述步骤S4中,主试通过改变脸的朝向和手指的指向方法来发起共同注意;主试与婴幼儿的互动过程包括被试主动发起的共同注意和被试回应主试的共同注意这两种模式。
5.根据权利要求1所述的一种自然场景下婴幼儿共同注意评估方法,其特征是,所述步骤S4中需要记录的行为数据包括眼神注视、眼神交替、手指指示、主动展示、眼神追视、跟随指示。
6.根据权利要求1所述的一种自然场景下婴幼儿共同注意评估方法及系统构造,其特征是,所述步骤S5中,分析婴幼儿在共同注意过程中停留在LED灯和主试面部上停留时间的长短,从而分析被试主动发起的共同注意和被试回应主试的共同注意这两种模式下眼动轨迹热图,实现对婴幼儿共同注意发展异常的早期鉴别和干预。
7.一种自然场景下婴幼儿共同注意评估系统,其特征在于:包括电脑主机、显示器、眼动仪、自然场景定标装置,眼动仪与电脑主机通过USB接口相连,所述电脑主机连接显示器。
8.根据权利要求7所述的一种自然场景下婴幼儿共同注意评估系统,其特征在于:所述自然场景定标装置包括在测试桌面左右两侧各布置一根木棍,每根木棍的上中下三个地方各放置了1颗LED灯,LED灯通过遥控器控制;两根木棍处于同一平面。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911324603.6A CN110934599A (zh) | 2019-12-20 | 2019-12-20 | 一种自然场景下婴幼儿共同注意评估方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911324603.6A CN110934599A (zh) | 2019-12-20 | 2019-12-20 | 一种自然场景下婴幼儿共同注意评估方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110934599A true CN110934599A (zh) | 2020-03-31 |
Family
ID=69912389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911324603.6A Pending CN110934599A (zh) | 2019-12-20 | 2019-12-20 | 一种自然场景下婴幼儿共同注意评估方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110934599A (zh) |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101576771A (zh) * | 2009-03-24 | 2009-11-11 | 山东大学 | 基于非均匀样本插值的眼动仪定标方法 |
CN102520796A (zh) * | 2011-12-08 | 2012-06-27 | 华南理工大学 | 一种基于逐步回归分析映射模型的视线跟踪方法 |
CN102749991A (zh) * | 2012-04-12 | 2012-10-24 | 广东百泰科技有限公司 | 一种适用于人机交互的非接触式自由空间视线跟踪方法 |
CN108498068A (zh) * | 2018-04-18 | 2018-09-07 | 北京中启睿宝教育科技有限公司 | 一种基于眼动特征的儿童共同注意分析方法 |
CN108681403A (zh) * | 2018-05-18 | 2018-10-19 | 吉林大学 | 一种采用视线跟踪的小车控制方法 |
CN108763394A (zh) * | 2018-05-21 | 2018-11-06 | 浙江工业大学 | 面向协同交互的多用户眼动跟踪数据可视化方法和系统 |
CN108968907A (zh) * | 2018-07-05 | 2018-12-11 | 四川大学 | 眼动数据的校正方法及装置 |
CN109086726A (zh) * | 2018-08-10 | 2018-12-25 | 陈涛 | 一种基于ar智能眼镜的局部图像识别方法及系统 |
CN109199410A (zh) * | 2018-06-28 | 2019-01-15 | 浙江大学 | 一种基于眼部运动的言语认知评估方法 |
CN109599162A (zh) * | 2018-11-15 | 2019-04-09 | 东南大学 | 一种孤独症谱系障碍儿童合作能力干预系统及方法 |
CN109711465A (zh) * | 2018-12-26 | 2019-05-03 | 西安电子科技大学 | 基于mll和asca-fr的图像字幕生成方法 |
CN109717878A (zh) * | 2018-12-28 | 2019-05-07 | 上海交通大学 | 一种用于孤独症共同注意诊断范式的检测系统及使用方法 |
CN110313923A (zh) * | 2019-07-05 | 2019-10-11 | 昆山杜克大学 | 基于联合注意能力测试和音视频行为分析的孤独症早期筛查系统 |
CN110349667A (zh) * | 2019-07-05 | 2019-10-18 | 昆山杜克大学 | 结合调查问卷及多模态范式行为数据分析的孤独症评估系统 |
CN110495895A (zh) * | 2019-08-26 | 2019-11-26 | 重庆大学 | 一种基于眼动跟踪的疲劳检测方法与系统 |
-
2019
- 2019-12-20 CN CN201911324603.6A patent/CN110934599A/zh active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101576771A (zh) * | 2009-03-24 | 2009-11-11 | 山东大学 | 基于非均匀样本插值的眼动仪定标方法 |
CN102520796A (zh) * | 2011-12-08 | 2012-06-27 | 华南理工大学 | 一种基于逐步回归分析映射模型的视线跟踪方法 |
CN102749991A (zh) * | 2012-04-12 | 2012-10-24 | 广东百泰科技有限公司 | 一种适用于人机交互的非接触式自由空间视线跟踪方法 |
CN108498068A (zh) * | 2018-04-18 | 2018-09-07 | 北京中启睿宝教育科技有限公司 | 一种基于眼动特征的儿童共同注意分析方法 |
CN108681403A (zh) * | 2018-05-18 | 2018-10-19 | 吉林大学 | 一种采用视线跟踪的小车控制方法 |
CN108763394A (zh) * | 2018-05-21 | 2018-11-06 | 浙江工业大学 | 面向协同交互的多用户眼动跟踪数据可视化方法和系统 |
CN109199410A (zh) * | 2018-06-28 | 2019-01-15 | 浙江大学 | 一种基于眼部运动的言语认知评估方法 |
CN108968907A (zh) * | 2018-07-05 | 2018-12-11 | 四川大学 | 眼动数据的校正方法及装置 |
CN109086726A (zh) * | 2018-08-10 | 2018-12-25 | 陈涛 | 一种基于ar智能眼镜的局部图像识别方法及系统 |
CN109599162A (zh) * | 2018-11-15 | 2019-04-09 | 东南大学 | 一种孤独症谱系障碍儿童合作能力干预系统及方法 |
CN109711465A (zh) * | 2018-12-26 | 2019-05-03 | 西安电子科技大学 | 基于mll和asca-fr的图像字幕生成方法 |
CN109717878A (zh) * | 2018-12-28 | 2019-05-07 | 上海交通大学 | 一种用于孤独症共同注意诊断范式的检测系统及使用方法 |
CN110313923A (zh) * | 2019-07-05 | 2019-10-11 | 昆山杜克大学 | 基于联合注意能力测试和音视频行为分析的孤独症早期筛查系统 |
CN110349667A (zh) * | 2019-07-05 | 2019-10-18 | 昆山杜克大学 | 结合调查问卷及多模态范式行为数据分析的孤独症评估系统 |
CN110495895A (zh) * | 2019-08-26 | 2019-11-26 | 重庆大学 | 一种基于眼动跟踪的疲劳检测方法与系统 |
Non-Patent Citations (4)
Title |
---|
MULTIMODAL PARENT BEHAVIORS WITHIN JOINT ATTENTION SUPPORT SUSTA: "Suarez-Rivera, C;Smith, LB;Yu, C", 《DEVELOPMENTAL PSYCHOLOGY》 * |
沈晓权: "协同式眼动跟踪技术及其交互应用研究", 《中国优秀硕士学位论文全文数据库》 * |
禹东川: "基于脑电的课堂注意力监测:构建"可视化"教学生态", 《中小学管理》 * |
靳来鹏,禹东川.: "眼动技术:个性化评测的新"武器"", 《中小学管理》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8551015B2 (en) | System and method for evaluating and diagnosing patients based on ocular responses | |
EP1799105B1 (en) | System and method for mental workload measurement based on rapid eye movement | |
US10888222B2 (en) | System and method for visual field testing | |
CN111326253A (zh) | 自闭症谱系障碍患者的多模态情感认知能力的评估方法 | |
KR20140111298A (ko) | 녹내장에서의 시야 손실을 모니터링하기 위한 비디오 게임 | |
JP5676112B2 (ja) | ディストラクションの影響を測定するための方法、コンピュータ化された試験システム、ディストラクションの影響を測定するためのシステム、ヒトの被験者の行動を測定するための方法、および刺激の影響を測定するためのシステム | |
CN104636890B (zh) | 一种空中交通管制员工作负荷测量方法 | |
US10725534B2 (en) | Apparatus and method of generating machine learning-based cyber sickness prediction model for virtual reality content | |
CN111223566A (zh) | 注意力测评和训练方法、装置、设备及可读存储介质 | |
Edwards et al. | Sensor-based methodological observations for studying online learning | |
Samad et al. | A pilot study to identify autism related traits in spontaneous facial actions using computer vision | |
CN110934599A (zh) | 一种自然场景下婴幼儿共同注意评估方法及系统 | |
JP2014050649A (ja) | 疲労感評価装置、疲労感評価方法、及びプログラム | |
CN116392123A (zh) | 一种基于游戏交互和眼动追踪的多动症筛查方法及系统 | |
Peng et al. | Evaluation of interactive data visualization tools based on gaze and mouse tracking | |
KR101878359B1 (ko) | 정보기술을 이용한 다중지능 검사 장치 및 방법 | |
CN104122075A (zh) | 一种基于运动方块宽度的直接测量显示器运动模糊的方法 | |
Eckert et al. | Pupillary light reflex correction for robust pupillometry in virtual reality | |
US20170109627A1 (en) | System and method to evaluate decision-making | |
Hubenova et al. | Usage of eye tracker technology in examining attention distribution of operators of unmanned aerial vehicles | |
Cacciatori et al. | On Developing Facial Stress Analysis and Expression Recognition Platform | |
TWI796227B (zh) | 遠距監考系統及方法 | |
US20230245581A1 (en) | Systems and methods for assessing data collected by automated proctoring | |
Miao et al. | Analysis of facial expressions to estimate the level of engagement in online lectures | |
Op de Beeck et al. | Combinatorial brain decoding of people's whereabouts during visuospatial navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200331 |