CN109887000A - 注意追踪策略的识别方法、训练方法及其装置 - Google Patents
注意追踪策略的识别方法、训练方法及其装置 Download PDFInfo
- Publication number
- CN109887000A CN109887000A CN201910093897.XA CN201910093897A CN109887000A CN 109887000 A CN109887000 A CN 109887000A CN 201910093897 A CN201910093897 A CN 201910093897A CN 109887000 A CN109887000 A CN 109887000A
- Authority
- CN
- China
- Prior art keywords
- position information
- subject
- attention
- attentively
- pursive strategy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
本发明提供了一种注意追踪策略的识别方法、训练方法及其装置,该识别方法包括:根据在多目标视觉追踪任务训练中采集的至少一个被试瞳孔位置信息确定至少一个被试注视点位置信息;根据所述至少一个被试注视点位置信息确定被试注视核心点位置信息;通过比较所述被试注视核心点位置信息与设定注意追踪策略的核心点位置信息,识别得到所述被试注视点位置信息所使用的实际注意追踪策略。通过上述方案能够客观真实地获取训练人员的注意追踪策略,有效提升注意加工能力。
Description
技术领域
本发明涉及心理学研究技术领域,尤其涉及一种注意追踪策略的识别方法、训练方法及其装置。
背景技术
多目标追踪(Multiple Object Tracking,MOT)范式是由Pylyshyn和Storm提出,被广泛应用于视觉认知研究,并主要集中在动态和并行信息的注意加工机制方面的探讨。而且,通过多目标追踪任务的训练,可以提升个体的注意加工能力,增强认知功能。
现有多目标追踪训练技术中,测试者以主观方式进行操作,以此不能识别并获取该训练人员的注意追踪策略,也不能给予科学的训练方案来提升注意加工能力。
发明内容
有鉴于此,本发明提供了一种注意追踪策略的识别方法、训练方法及其装置,以客观真实地获取训练人员的注意追踪策略,通过科学训练方法提升注意加工能力。
为了实现上述目的,本发明采用以下方案:
在本发明一实施例中,注意追踪策略的识别方法,包括:
根据在多目标视觉追踪任务训练中采集的至少一个被试瞳孔位置信息确定至少一个被试注视点位置信息;
根据所述至少一个被试注视点位置信息确定被试注视核心点位置信息;
通过比较所述被试注视核心点位置信息与设定注意追踪策略的核心点位置信息,识别得到所述被试注视点位置信息所使用的实际注意追踪策略。
在本发明一实施例中,注意追踪策略的训练方法,包括:
根据在多目标视觉追踪任务训练中采集的至少一个被试瞳孔位置信息确定至少一个被试注视点位置信息;
根据所述至少一个被试注视点位置信息确定被试注视核心点位置信息;
通过比较所述被试注视核心点位置信息与设定注意追踪策略的核心点位置信息,识别得到所述被试注视点位置信息所使用的实际注意追踪策略;
根据利用不同所述实际注意追踪策略完成所述多目标视觉追踪任务的正确率确定最优注意追踪策略,并利用所述最优注意追踪策略进行注意追踪策略训练。
在本发明一实施例中,注意追踪策略的识别装置,包括:
注视点确定单元,用于根据在多目标视觉追踪任务训练中采集的至少一个被试瞳孔位置信息确定至少一个被试注视点位置信息;
核心点确定单元,用于根据所述至少一个被试注视点位置信息确定被试注视核心点位置信息;
注意策略识别单元,用于通过比较所述被试注视核心点位置信息与设定注意追踪策略的核心点位置信息,识别得到所述被试注视点位置信息所使用的实际注意追踪策略。
在本发明一实施例中,注意追踪策略的训练装置,包括:
注视点确定单元,用于根据在多目标视觉追踪任务训练中采集的至少一个被试瞳孔位置信息确定至少一个被试注视点位置信息;
核心点确定单元,用于根据所述至少一个被试注视点位置信息确定被试注视核心点位置信息;
注意策略识别单元,用于通过比较所述被试注视核心点位置信息与设定注意追踪策略的核心点位置信息,识别得到所述被试注视点位置信息所使用的实际注意追踪策略;
注意提升训练单元,用于根据利用不同所述实际注意追踪策略完成所述多目标视觉追踪任务的正确率确定最优注意追踪策略,并利用所述最优注意追踪策略进行注意追踪策略训练。
在本发明一实施例中,电子设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述实施例所述方法的步骤。
在本发明一实施例中,计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述实施例所述方法的步骤。
本发明的注意追踪策略的识别方法、注意追踪策略的训练方法、注意追踪策略的识别装置、注意追踪策略的训练装置、电子设备及计算机可读存储介质,通过在多目标视觉追踪任务训练中采集的被试瞳孔位置信息来确定被试注视点位置信息,能够避免被试的主观判断。通过根据被试注视点位置信息确定被试注视核心点位置信息,通过比较所述被试注视核心点位置信息与设定注意追踪策略的核心点位置信息,能够实现识别得到被试所采用的实际注意追踪策略,从而获取被试的注意追踪策略。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1是本发明一实施例的注意追踪策略的识别方法的流程示意图;
图2是本发明一实施例中根据在多目标视觉追踪任务训练中采集的被试瞳孔位置信息确定被试注视点位置信息的方法流程示意图;
图3是本发明一实施例中的对瞳孔位置进行筛选得到注视点位置的方法流程示意图;
图4是本发明一实施例中根据被试瞳孔位置信息计算得到眼动角速率的方法流程示意图;
图5是本发明另一实施例中根据被试瞳孔位置信息计算得到眼动角速率的方法流程示意图;
图6是本发明一实施例的注意追踪策略的训练方法的流程示意图;
图7是本发明另一实施例的注意追踪策略的训练方法的流程示意图;
图8是本发明一实施例中的进行多目标追踪任务训练所使用的目标刺激示意图;
图9是本发明一实施例中的以多个目标刺激的空间组合的重心为追踪核心位置的示意图;
图10是本发明一实施例中的以多个目标刺激在虚拟现实场景中投影平面的质心为追踪核心位置的示意图;
图11是本发明一实施例中的以整个虚拟现实场景的中心为追踪核心位置的示意图;
图12是本发明一实施例的注意追踪策略的识别装置的结构示意图;
图13是本发明一实施例的注意追踪策略的训练装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚明白,下面结合附图对本发明实施例做进一步详细说明。在此,本发明的示意性实施例及其说明用于解释本发明,但并不作为对本发明的限定。
图1是本发明一实施例的注意追踪策略的识别方法的流程示意图。如图1所示,一些实施例的注意追踪策略的识别方法,可包括:
步骤S110:根据在多目标视觉追踪任务训练中采集的至少一个被试瞳孔位置信息确定至少一个被试注视点位置信息;
步骤S120:根据所述至少一个被试注视点位置信息确定被试注视核心点位置信息;
步骤S130:通过比较所述被试注视核心点位置信息与设定注意追踪策略的核心点位置信息,识别得到所述被试注视点位置信息所使用的实际注意追踪策略。
在上述步骤S110中,多目标视觉追踪任务中可以包括多个刺激,该多个刺激中可包括多个目标刺激,该多个目标刺激需要被试追踪该多个目标刺激,例如,该多个目标刺激点亮闪烁几秒后变为与所有刺激一样的颜色,随后所有刺激运动一段时间,要求被试指出该多个目标刺激。在多目标视觉追踪任务训练过程中,例如,可以采用眼动仪采集被试的瞳孔位置信息,即眼动点数据或眼动数据,可以用坐标点标识。通过眼动点数据的角速率与角速度阈值的比较来确定注视点。一次多目标视觉追踪任务训练中可以监测到被试的一个或多个瞳孔位置。
在上述步骤S120中,被试注视核心点是被试视觉最关注的一点,从总体上反映了被试的视觉注视中心或中心区域,可以是其中一个注视点,或者是由多个注视点所形成立体或平面图形中的一区域中的一点。
在上述步骤S130中,可以根据经验预先设计多个设定注意追踪策略,每个设定注意追踪策略可以对应一个或多个核心点,例如,当对多个目标刺激逐一循视时,每个目标刺激可以作为一个核心点,当以多个目标刺激的重心或质心为核心点进行注视时,仅包含一个核心点。若被试注视核心点位置信息和某一设定注意追踪策略的核心点位置信息相符,则认为被试所采用的注意追踪策略是该设定注意追踪策略。
本实施例中,通过在多目标视觉追踪任务训练中采集的被试瞳孔位置信息来确定被试注视点位置信息,能够避免被试的主观判断。通过根据被试注视点位置信息确定被试注视核心点位置信息,通过比较所述被试注视核心点位置信息与设定注意追踪策略的核心点位置信息,能够实现识别得到被试所采用的实际注意追踪策略,从而获取被试的注意追踪策略。
图2是本发明一实施例中根据在多目标视觉追踪任务训练中采集的被试瞳孔位置信息确定被试注视点位置信息的方法流程示意图。如图2所示,上述步骤S110,即,根据在多目标视觉追踪任务训练中采集的至少一个被试瞳孔位置信息确定至少一个被试注视点位置信息,可包括:
步骤S111:在基于虚拟现实交互的多目标视觉追踪任务训练中,对虚拟现实场景中的被试瞳孔坐标点进行采样,得到至少一个被试瞳孔位置信息;
步骤S112:对所述至少一个被试瞳孔位置信息进行筛选,得到至少一个被试注视点位置信息。
在上述步骤S111,基于虚拟现实交互的目标视觉追踪任务训中,被试可以佩戴虚拟现实眼镜,利用激光指向其追踪的目标刺激并利用手柄进行确认选择。在上述步骤S112,可以从所述至少一个被试瞳孔位置信息中选择眼动角速率较小的瞳孔位置的坐标点,作为被试的注视点。
本实施例中,通过基于虚拟现实交互进行目标视觉追踪任务训练,并对虚拟现实场景中的被试瞳孔坐标点进行采样,得到瞳孔位置信息,进而得到注视点位置信息,以此基于VR虚拟现实技术,能够进行高真实性的空间多目标追踪测试,更符合真实生活场景,更匹配人的空间记忆等认知知觉,因此,所识别的实际注意追踪策略更准确。
在其他实施例中,可以基于其他装置,例如屏幕,进行多目标视觉追踪任务训练,此时,可以利用鼠标、键盘等进行交互,使被试对刺激目标进行追踪确认。
图3是本发明一实施例中的对瞳孔位置进行筛选得到注视点位置的方法流程示意图。如图3所示,上述步骤S111,即,对所述至少一个被试瞳孔位置信息进行筛选,得到至少一个被试注视点位置信息,可包括:
步骤S1111:根据所述至少一个被试瞳孔位置信息计算得到各所述被试瞳孔位置信息对应的眼动角速率;
步骤S1112:通过比较各所述眼动角速率和设定角速率阈值从所述至少一个被试瞳孔位置信息中筛选被试瞳孔位置信息进而确定对应的被试注视点位置信息。
在上述步骤S1111中,可以根据不同瞳孔位置之间的角度差除以时间差得到相应的眼动角速率。在上述步骤S1112中,该设定角速率阈值例如可以是25°/s、30°/s、35°/s等。若计算得到的眼动角速率大于设定角速率阈值,可以认为此时的瞳孔位置是一次眼跳,若计算得到的眼动角速率小于或等于设定角速率阈值,可以认为此时的瞳孔位置所对应的被试在被观察物体上的观察点是注视点。在一个瞳孔位置对应一个眼动角速率且记录了多个瞳孔位置的情况下,注视点位置可以是一个或多个。
本实施例中,眼动角速率能够更好地描述人眼的运动情况,所以通过眼动角速率能够简便、准确地确定注视点。
在其他实施例中,可以通过计算各所述被试瞳孔位置信息对应的其他运动参数,例如,速率、加速度大小、角加速度大小等,来筛选瞳孔位置作为注视点位置。
图4是本发明一实施例中根据被试瞳孔位置信息计算得到眼动角速率的方法流程示意图。如图4所示,上述步骤S1111,即,根据所述至少一个被试瞳孔位置信息计算得到各所述被试瞳孔位置信息对应的眼动角速率,可包括:
步骤S11111:从所述至少一个被试瞳孔位置信息中选定被试瞳孔位置信息作为设定窗口长度的中间点,得到窗口长度范围;
步骤S11112:在所述窗口长度范围内查找最早的被试瞳孔位置信息和最晚的被试瞳孔位置信息;
步骤S11113:根据所述最早的被试瞳孔位置信息和所述最晚的被试瞳孔位置信息计算视角;
步骤S11114:根据所述最早的被试瞳孔位置信息对应的时间戳和所述最晚的被试瞳孔位置信息对应的时间戳计算时间差;
步骤S11115:根据所述视角和所述时间差计算选定的被试瞳孔位置信息对应的眼动角速率。
在上述步骤S11111中,可以将每个被试瞳孔位置信息分别作为设定窗口长度中的中间点,相应地,可以得到每个被试瞳孔位置信息对应的窗口长度范围。其中,该设定窗口长度例如可以是15ms、20ms、25ms、30ms等。该窗口长度范围可以是被选定的被试瞳孔位置信息对应的时间戳的前后一段时间范围,例如,当该设定窗口长度为20ms,该窗口长度范围可以是选定的被试瞳孔位置信息对应的时间戳前后10ms范围。
在上述步骤S11112中,在一个窗口长度范围内可以有多个被试瞳孔位置信息的采样点,即,该多个被试瞳孔位置信息或补充数据的时间戳在该窗口长度范围内,所以,在改窗口长度范围内根据时间顺序(例如通过比较时间戳或时间点)可以找到最早的瞳孔位置和最晚的瞳孔位置,进而可以得到相应的位置信息、时间戳等信息。其中,被试瞳孔位置信息和其时间戳均可以通过眼动仪采集得到。
在上述步骤S11113~步骤S11115中,由所述最早的被试瞳孔位置信息和所述最晚的被试瞳孔位置信息可以确定一个视角。所述最早的被试瞳孔位置信息对应的时间戳和所述最晚的被试瞳孔位置信息对应的时间戳可以(例如由眼动仪)测量得到,通过作差,可以得到两个位置的时间差。通过利用该视角除以该时间差可以得到选定的被试瞳孔位置信息对应的眼动角速率,类似地,可以得到每个选定的被试瞳孔位置信息对应的眼动角速率。
图5是本发明另一实施例中根据被试瞳孔位置信息计算得到眼动角速率的方法流程示意图。如图5所示,图4所示的根据被试瞳孔位置信息计算得到眼动角速率的方法,在上述步骤S11111之前,即,从所述至少一个被试瞳孔位置信息中选定被试瞳孔位置信息作为设定窗口长度的中间点之前,还可包括:
步骤S11116:在相邻时间点的两个被试瞳孔位置信息的时间戳之差不超过设定最大填补长度的情况下,在所述两个被试瞳孔位置信息之间进行数据填补。
在上述步骤S11116中,该设定最大填补长度例如可以为70ms、75ms、80ms等。如果时间戳之差不超过设定最大填补长度,可根据被试瞳孔位置信息的采样率通过线性填充的方法在所述两个被试瞳孔位置信息之间进行数据填补。如果时间戳之差大于设定最大填补长度,可以认为该时间戳之差为有效的空隙,不进行数据填补。
本实施例中,通过在时间戳相差较小时再相邻被试瞳孔位置信息对应的采样点之间进行数据填补,可以使得即使采样率较低的情况下也可以较准确地获取最早的被试瞳孔位置信息和最晚的被试瞳孔位置信息,从而得到更准确地眼动角速率,进而得到更准确地注视点。
在一些实施例中,上述步骤S120,即,根据所述至少一个被试注视点位置信息确定被试注视核心点位置信息的具体实施方式,可包括:
通过比较不同所述被试注视点位置信息所对应区域内的注视时间和/或注视次数确定被试注视核心点位置信息。或者,在其他实施例中,通过比较不同所述被试注视点位置信息所对应区域内的注视时间占比和/或注视次数占比达到规定比值来确定被试注视核心点位置信息,此比值取值范围为大于等于60%。例如总的注视点注视时间为100s,在某一区域(如A区域)注视时间为60s,在其他多个区域的注视时间为40s,则在A区域的注视时间占比最大,且达到60%;则确定A区域为被试注视核心点位置。或者,例如例如总的注视点注视次数为100次,在某一区域(如A区域)注视次数为60次,在其他多个区域的注视次数为40次,则在A区域的注视次数占比最大且达到60%;则确定A区域为被试注视核心点位置。此处所说的核心点位置可以为多个较为集中的群点。
本实施例中,通过比较不同被试注视点位置信息所对应区域内的注视时间,得到注视时间最长的被试注视点位置信息所对应区域,或者比较不同被试注视点位置信息所对应区域内的注视次数,得到注视次数最多的被试注视点位置信息所对应区域,或者即比较注视时间又比较注视次数,得到注视时间较长且注视次数较多的被试注视点位置信息所对应区域。其中,该注视时间可以是被试的所有落入注视点位置信息所对应区域内注视点的总注视时间长度,该注视次数可以是被试的所有落入注视点位置信息所对应区域内注视点的个数,被试注视点位置信息所对应区域可以是一注视点周围一定距离范围内的区域。具体地,可以通过选择注视时间最长、注视次数最多或者注视时间较长/最长且注视次数较多/最多的区域所对应的被试注视点位置作为核心点位置,相应地,被试注视点位置信息作为被试注视核心点位置信息。通过比较不同所述被试注视点位置信息所对应区域内的注视时间和/或注视次数确定被试注视核心点位置信息能够方便地量化得到被试的注视核心点位置。
在一些实施例中,上述步骤S130中,多目标视觉追踪任务可包括多个目标刺激;所述设定注意追踪策略可包括:以每个所述目标刺激为追踪核心位置循环注视、以所述多个目标刺激的三维空间组合重心为追踪核心位置、以所述多个目标刺激在所述虚拟现实场景的投影平面上的质心为追踪核心位置、以整个所述虚拟现实场景的中心为追踪核心位置之中的至少一个。
本实施例中,例如,当目标刺激的个数为四个时,在第一种注意追踪策略中,可以以每个目标刺激为追踪核心位置循环注视四个目标刺激,在第二种注意追踪策略中,可以以四个目标刺激构成的三棱锥的重心为追踪核心位置进行注意追踪,在第三种注意追踪策略中,可以以四个目标刺激在所述虚拟现实场景的投影平面(例如纵向平面)上投影后的结果的质心为追踪核心位置进行注意追踪,在第四种注意追踪策略中,可以以整个所述虚拟现实场景(可以是对应的活动区域)的中心为追踪核心位置进行注意追踪。每次可以选择一种注意追踪策略的追踪核心位置并将其与上述的被试注视核心点位置进行比较,如果一致,则认为被试使用了该种注意追踪策略,若不一致,可以利用其它注意追踪策略的追踪核心位置与上述的被试注视核心点位置进行比较,直至找到一种一致或最接近的注意追踪策略。在其他实施例中,可以设计其它注意追踪策略用来与被试所使用的注意追踪策略进行比较。该实施例中,考虑了被试所可能采用的注意追踪策略,更符合视觉注意追踪时的实际情况。
图6是本发明一实施例的注意追踪策略的训练方法的流程示意图。如图6所示,一些实施例的注意追踪策略的训练方法,可包括:
步骤S210:根据在多目标视觉追踪任务训练中采集的至少一个被试瞳孔位置信息确定至少一个被试注视点位置信息;
步骤S220:根据所述至少一个被试注视点位置信息确定被试注视核心点位置信息;
步骤S230:通过比较所述被试注视核心点位置信息与设定注意追踪策略的核心点位置信息,识别得到所述被试注视点位置信息所使用的实际注意追踪策略;
步骤S240:根据利用不同所述实际注意追踪策略完成所述多目标视觉追踪任务的正确率确定最优注意追踪策略,并利用所述最优注意追踪策略进行注意追踪策略训练。
上述步骤S210~步骤S230可以参照上述步骤S110~步骤S130,故在此不再赘述。
在上述步骤S240中,根据设计好的多目标视觉追踪任务进行一次识别,可以得到本次所使用的实际注意追踪策略,相应地,可以根据记录的目标刺激的实际信息和被试指认的目标刺激的信息,可以得知被试的注意追踪结果是否正确,根据基于同样的实际注意追踪策略进行的多次训练(一组训练)可以得到多个注意追踪结果,根据这些注意追踪结果,可以计算出该实际注意追踪策略所对应的正确率。根据基于其他类型的实际注意追踪策略进行的多次训练可以得到相应的多个注意追踪结果,以此可以得到该实际注意追踪策略的正确率。通过比较不同实际注意追踪策略的正确率,可以选出正确率最高的实际注意追踪策略作为最优的注意追踪策略,用于进行训练提升认知能力。
在其他实施例中,可以告诉被试分别使用各种设定注意追踪策略进行多目标视觉追踪任务训练,每种设定注意追踪策略对应可以得到多个训练结果,根据该多个训练结果可以得到相应的正确率,从而可以得到每种注意追踪策略对应的正确率。
本实施例的方法,主要在于,通过上述步骤S210~步骤S230可以对每次进行多目标视觉追踪任务训练的实际注意追踪策略进行识别,以此可以避免被试因其主观性或没有很好地控制注意策略而导致注意追踪训练所使用的策略不是优选的策略,从而能够更有效地提升认知能力。
在一些实施例中,上述步骤S240,即,根据利用不同所述实际注意追踪策略完成所述多目标视觉追踪任务的正确率确定最优注意追踪策略,并利用所述最优注意追踪策略进行注意追踪策略训练的具体实施方式,可包括:
根据不同类型被试所利用的不同所述实际注意追踪策略完成所述多目标视觉追踪任务的正确率确定各所述类型被试的最优注意追踪策略,并利用所述最优注意追踪策略对所述类型被试进行注意追踪策略训练。
本实施例中,不同类型的被试例如可以是男性被试或女性被试,或者不同年龄段的被试等。进行大量训练,对不同类型被试所采用的各注意追踪策略的训练结果进行统计,例如,对男性被试所采用的各注意追踪策略的训练结果进行统计,可以得到各注意追踪策略的训练结果正确率,以此可以判断男性被试的最优注意追踪策略,可以利用该最优注意追踪策略对男性被试进行训练以提高其认知能力。以此,对被试的训练更有针对性,能够更有效提升被试的认知能力。
图7是本发明另一实施例的注意追踪策略的训练方法的流程示意图。如图7所示,图6所示的注意追踪策略的训练方法,还可包括:
步骤S250:根据进行注意追踪策略训练的目标刺激正确率调整刺激运动速度,并利用所述刺激运动速度重新进行多目标视觉追踪任务训练。
进行注意追踪策略训练的过程可包括:首先点亮多个目标刺激,保持第一设定时间长度,然后将该多个目标刺激变成与普通的刺激一致,并运动第二设定时间长度,之后,让被试指出其追踪的目标刺激。在上述步骤S250中,在追踪多个目标刺激时,可能有的目标追踪正确,有的目标追踪错误,可以根据该些目标刺激的追踪结果计算正确率,进行多次训练,若正确率变高,则可提高普通刺激和目标刺激的运动速度,反之降低普通刺激和目标刺激的运动速度。在一些实施例中,需要提高的运动速度的幅度高于需要降低的运动速度的幅度,以此可以更有效地进行认知能力训练。
为使本领域技术人员更好地了解本发明,下面将以具体实施例说明本发明的实施过程。
在进行多目标注意追踪任务识别或训练之前,可以记录或输入训练人员或被试的姓名、性别、年龄、职业等变量的信息,便于后续分类统计并区分各变量在注意追踪策略与效果中的中介或调节作用。
进行多目标注意追踪任务识别或训练所需设置的默认参数可包括:刺激的形状、大小、数量、运动时间,目标刺激的数量、标记时间、运动速度、速度变化幅度等,各参数的具体数值可根据需要进行调整。
图8是本发明一实施例中的进行多目标追踪任务训练所使用的目标刺激示意图。如图8所示,刺激可设置为球体形状,球体的直径可设置为25cm;刺激的总数量可设置为10个,目标刺激301的数量可设置为4个,普通刺激的数量设置为6个;目标刺激的标记时间可设置为2s(即后续的闪烁2s是供被试记忆)。
刺激的运动相关参数具体可包括初始运动速度、速度上升幅度、速度下降幅度等。经过大量被试的测试数据结果统计得知注意能力的平均追踪速度为68cm/s。可根据被试的测试数据统计结果设置初始运动速度,可以设置为68cm/s。
在刺激的初始运动速度的基础上,可根据训练或识别的实时成绩调整刺激的速度。具体调整方式可为,当识别到被试追踪的目标刺激全部正确时,可使刺激的运动速度自动上调一定比例,例如50%,即上调后的运动速度为68cm/s*(1+50%);如果利用上调后的运动速度进行测试,识别到被试追踪的目标刺激正确,则在当前运动速度的基础上继续上调运动速度,继续上调后的运动速度为68cm/s*(1+50%)(1+50%),以此类推,在训练或识别成绩较好的情况下可以不断上调刺激运动速度。当识别到注意追踪的目标刺激出现错误时,表示训练人员的能力未达到当前刺激运动速度对应的注意追踪能力水平,可自动将刺激的运动速度下调一定比例,例如25%,下调后的运动速度为68cm/s*(1-25%)。如果利用下调后的运动速度再次进行注意追踪测试时又出现了错误,则可基于当前运动速度继续下调25%,再次下调后的运动速度为68cm/s*(1-25%)(1-25%),以此类推,在训练或识别成绩较差的情况下可以不断下调刺激运动速度。另外,若交替出现追踪正确和错误,则可在当前运动速度的基础上交替乘以(1+50%)和(1-25%)。
运动速度的上升幅度与下降幅度可以根据测试数据的统计规律来确定,可设为默认值。具体地,根据大量测试数据统计结果经研究发现,当训练个体一旦达到某种注意控制能力水平时,其能力下降的速度将会变得特别慢(原因可能是由于多次训练发现了某种追踪策略),进而能够保持当前水平,基于此,在一些实施例中,在设置刺激的运动速度的调整幅度时,可使上升幅度高于下降幅度,以此可以更高效地提升注意追踪的训练效果与注意控制能力。
刺激的运动时间可依据大量数据测试的均值确定,例如可设置为8s;每组注意追踪识别或训练的测试次数可设置为50次。
进行多目标注意追踪任务识别或训练的测试流程可包括:
A:被试与识别或训练场景的距离可为5m;被试佩戴虚拟现实(VR)视线交互系统装备;
B:如图8所示,所有刺激出现在场景中,目标刺激301闪烁2s,例如可为红色球体,随后所有刺激变成同一颜色,例如黄色;
C:所有刺激随机运动,要求被试追踪之前标记为红色球体的目标刺激301,所有刺激的运动8s后可停止;
D:要求被试快速通过人机交互手柄的射线选中其追踪的目标刺激;然后确认被试追踪的目标刺激是否正确,并可记录测试成绩;
E:拉动场景的扳机可进行下一次注意追踪识别或训练的测试。
多目标注意追踪任务识别的识别方法可在多目标追踪识别或训练过程中通过VR视觉交互技术实现智能识别被试的注意追踪策略。
具体识别方法可包括:采集被试在VR场景中的瞳孔位置,例如瞳孔的坐标点(X,Y,Z),即,对眼动点数据进行采集,形成采样点;进一步,通过I-VT(Identify_velocitythreshold)算法计算出每个眼动点数据的角速率;按照角速率的阈值对所有采样点进行分类,提取出在训练过程中的注视点数据。
在计算眼动点数据的角速度之前,可首先进行眼动点数据的填补,最大填补时间长度可为75ms。如果原相邻眼动点数据之间的空隙(时间差)超过最大填补时间长度(最长填补空隙)75ms,则该空隙可视为有效空隙;如果该空隙未超过最大填补时间长度,则可根据原眼动点数据的采样率并通过线性填充的方法进行眼动点数据的填补。然后,可按照窗口长度参数,例如20ms,计算出每个眼动点数据的角速率。
眼动点数据的角速率计算方法可包括:确定一原始眼动点数据的采样点,将该采样点作为窗口长度的中间点,在相应的窗口长度范围内查找到第一个采样点和最后一个的采样点,并根据这两个采样点的位置确定相应视角;根据这两个采样点的时间戳确定这两个采样点之间的时间差;将视角与时间差做商,可求得该采样点的角速率。
按照给定的角速率阈值对所有眼动点数据的采样点进行分类。角速率的阈值可采用30°/s,如果采样点对应的角速率高于该阈值,可以认为该采样点是一次眼跳;如果低于该角速率阈值,可以认为该采样点是注视点。以此,就可以提取出在识别或训练过程中的注视点数据,即真正进行视觉加工的眼动点。
根据注视点数据进而可以计算出注视时间和注视次数,用来得到注意追踪策略的核心点。其中,注视时间是指被试在注视点对应区域注视的时间的总和(s),注视次数是指被试在注视点对应区域注视的次数的总和(n)。
研究发现被试若采用某种注意追踪策略,则其注视时间最长、注视次数最多的区域为该注意追踪策略的核心位置,不同的注意追踪策略,其核心位置不同。那么,通过反推,利用确定出核心位置,可以推出被试采用哪种注意追踪策略。
在同一个训练分析中,可先划定多种注意追踪策略各自所需分析的区域,进而比较各个区域的注视加工参数,其中,注视时间最长、注视次数最多的区域为其所采用的注意追踪策略的核心位置,则通过反推,利用此核心位置识别出被试在此次识别或训练中采用的注意追踪策略。
设定的注意追踪策略及其所需分析的区域,具体可如下:
第一种追踪策略:可以以每个目标刺激为中心,进行循环注视。
以每个目标刺激球体为核心位置,提前预设对应每个目标刺激球体的分析区域,统计每个目标刺激球体上的注视时间与注视次数,分析区域大小可为实际球体大小的1.2倍,以此可以眼动追踪的要求更客观。
第二种追踪策略:以多个目标刺激的空间组合的重心为追踪的核心位置。
图9是本发明一实施例中的以多个目标刺激的空间组合的重心为追踪核心位置的示意图。如图9所示,可以以四个目标刺激的空间组合的重心为追踪的核心位置302,即,以三棱锥的重心为追踪的核心位置303,核心位置坐标可表示为[(x1+x2+x3+x4)/4,(y1+y2+y3+y4)/4,1/4(z1+z2+z3+z4)/4]。
第三种追踪策略:以多个目标在VR场景中投影平面的质心为追踪的核心位置。图10是本发明一实施例中的以多个目标刺激在虚拟现实场景中投影平面的质心为追踪核心位置的示意图。如图10所示,四个目标刺激在VR场景中投影平面(竖直平面)的平面投影,对应坐标分别为(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4),以该四个投影点为四边形的四个顶点,若该四边形的质心可表示为(xc,yc),则该四边形的质心的x轴坐标可表示为xc=(m1x1+m2x2+m3x3+m4x4)/(m1+m2+m3+m4),由于刺激的球体同质,则该四边形的质心的x轴坐标可表示为xc=(x1+x2+x3+x4)/4,同,y轴坐标可表示为yc=(y1+y2+y3+y4)/4,即,核心位置303坐标为:[((x1+x2+x3+x4)/4),((y1+y2+y3+y4)/4)]。
第四种追踪策略:以整个训练场景的中心为追踪的核心位置。
图11是本发明一实施例中的以整个虚拟现实场景的中心为追踪核心位置的示意图。如图11所示,以整个训练场景的中心,即立方体的中心,为追踪的核心位置(xc,yc,zc),核心位置的坐标可表示为(xc,yc,zc)=[(x1+x2)/2,(y1+y2)/2,(z1+z2)/2]。
进行一组注意追踪识别或训练的测试后,可以对测试成绩进行统计,便于筛选最优追踪策略、提升认知能力训练效果等。例如,训练一组共50次,其中28次的目标全部选中,那么该被试的正确率为28/50*100%=56%。为了提升训练效果,目标刺激的运动速度变化率可以等于四个试次的平均速度除以初始运动速度。其中,追踪速度变化率,即为依次计算最近四次试验中,球体的运动速度平均值与第一次试验时球的运动速度的比值,用公式表示,追踪速度变化率=[V(n-4)+V(n-3)+V(n-2)+V(n-1)+V(n)/4V(1)]*100%,其中n为当前的训练试次。
可以通过训练累计的大量测试数据,采集训练策略与训练成绩,进而匹配二者关系,总结出哪一种注意追踪策略的注意加工能力更加占优势,进而可以用于训练,以此可以更科学有效地进行训练。在此基础上,可以再进一步分析被试的参数信息(例如,性别)在追踪策略及训练成绩之间起到的中介作用或调节作用,比如,对于性别,例如男性更适于采用第二种追踪策略,从而能取得更好的测试成绩。
最优注意追踪策略的识别及认知能力训练可包括:
1、输入训练人员参数;
2、进行多目标追踪任务训练,获取眼动点数据,得到相应训练成绩;
3、对眼动点数据进行计算、分类,从中选定注视点;
4、根据注视点信息识别被试采用的追踪策略;
5、匹配被试的训练成绩及其采用的追踪策略,分析得知哪一种注意追踪策略的注意加工能力更加占优势;
6、在步骤5的基础上,进一步分析被试参数信息在追踪策略及训练成绩之间起到的中介作用或调节作用,例如,性别的影响,男性更适于采用第二种追踪策略,并以此能取得更好的测试成绩。
基于VR虚拟现实技术,能够创建高真实性的空间多目标追踪测试系统,更符合生活场景,更加匹配人的其他认知知觉,如空间记忆的影响等。通过VR视觉交互技术实现智能识别训练人员的四种注意追踪策略,包括:以每个目标为中心,进行循环注视;以四个目标刺激的空间组合即三棱锥的重心为追踪的核心点,进行多目标追踪任务;以四个目标在VR场景中投影平面的质心为追踪的核心点,进行多目标追踪任务;以整个训练场景的中心即立方体的中心为追踪的核心点,进行多目标追踪任务。将记录每种注意策略对应的训练成绩,包括追踪正确率、目标的运动速度阈值,作为追踪效果的评判标准,采用了国际通用的多目标追踪任务的成绩指标。大数据采集注意追踪策略与对应的训练成绩,形成二者的相关性识别,能够科学、有效地提升注意认知能力的训练策略,用于普通大众、运动员亦或有认知缺陷的个体。
本实施例中,采集个体在进行多目标追踪任务时的眼动数据,进而分析其视觉追踪策略,将注意追踪策略与成绩进行相关性研究,发现二者的关联性,进而探索并提出科学、有效的注意追踪策略,能够有效训练、快速提升个体的注意加工能力,明确追踪策略与科学的训练方法,能保证注意加工能力的提升效果。
基于与图1所示的注意追踪策略的识别方法相同的发明构思,本申请实施例还提供了一种注意追踪策略的识别装置,如下面实施例所述。由于该注意追踪策略的识别装置解决问题的原理与注意追踪策略的识别方法相似,因此该注意追踪策略的识别装置的实施可以参见注意追踪策略的识别方法的实施,重复之处不再赘述。
图12是本发明一实施例的注意追踪策略的识别装置的结构示意图。如图12所示,一些实施例的注意追踪策略的识别装置,可包括:
注视点确定单元310,用于根据在多目标视觉追踪任务训练中采集的至少一个被试瞳孔位置信息确定至少一个被试注视点位置信息;
核心点确定单元320,用于根据所述至少一个被试注视点位置信息确定被试注视核心点位置信息;
注意策略识别单元330,用于通过比较所述被试注视核心点位置信息与设定注意追踪策略的核心点位置信息,识别得到所述被试注视点位置信息所使用的实际注意追踪策略。
在一些实施例中,注视点确定单元310,可包括:
瞳孔位置获取模块,用于在基于虚拟现实交互的多目标视觉追踪任务训练中,对虚拟现实场景中的被试瞳孔坐标点进行采样,得到至少一个被试瞳孔位置信息;
注视点位置获取模块,用于对所述至少一个被试瞳孔位置信息进行筛选,得到至少一个被试注视点位置信息。
在一些实施例中,注视点位置获取模块,可包括:
角速率确定模块,用于根据所述至少一个被试瞳孔位置信息计算得到各所述被试瞳孔位置信息对应的眼动角速率;
注视点筛选模块,用于通过比较各所述眼动角速率和设定角速率阈值从所述至少一个被试瞳孔位置信息中筛选被试瞳孔位置信息进而确定对应的被试注视点位置信息。
在一些实施例中,角速率确定模块,可包括:
窗口长度范围确定模块,用于从所述至少一个被试瞳孔位置信息中选定被试瞳孔位置信息作为设定窗口长度的中间点,得到窗口长度范围;
首尾瞳孔位置查找模块,用于在所述窗口长度范围内查找最早的被试瞳孔位置信息和最晚的被试瞳孔位置信息;
视角计算模块,用于根据所述最早的被试瞳孔位置信息和所述最晚的被试瞳孔位置信息计算视角;
时间差计算模块,用于根据所述最早的被试瞳孔位置信息对应的时间戳和所述最晚的被试瞳孔位置信息对应的时间戳计算时间差;
角速率计算模块,用于根据所述视角和所述时间差计算选定的被试瞳孔位置信息对应的眼动角速率。
在一些实施例中,角速率确定模块,还可包括:
数据填补模块,用于在相邻时间点的两个被试瞳孔位置信息的时间戳之差不超过设定最大填补长度的情况下,在所述两个被试瞳孔位置信息之间进行数据填补。该数据填补模块与上述窗口长度范围确定模块连接。
在一些实施例中,核心点确定单元320,可包括:
核心点确定模块,用于通过比较不同所述被试注视点位置信息所对应区域内的注视时间和/或注视次数确定被试注视核心点位置信息。
在一些实施例中,多目标视觉追踪任务包括多个目标刺激,所述设定注意追踪策略包括:以每个所述目标刺激为追踪核心位置循环注视、以所述多个目标刺激的三维空间组合重心为追踪核心位置、以所述多个目标刺激在所述虚拟现实场景的投影平面上的质心为追踪核心位置、以整个所述虚拟现实场景的中心为追踪核心位置之中的至少一个。
图13是本发明一实施例的注意追踪策略的训练装置的结构示意图。如图13所示,一些实施例的注意追踪策略的训练装置,可包括:
注视点确定单元310,用于根据在多目标视觉追踪任务训练中采集的至少一个被试瞳孔位置信息确定至少一个被试注视点位置信息;
核心点确定单元320,用于根据所述至少一个被试注视点位置信息确定被试注视核心点位置信息;
注意策略识别单元330,用于通过比较所述被试注视核心点位置信息与设定注意追踪策略的核心点位置信息,识别得到所述被试注视点位置信息所使用的实际注意追踪策略;
注意提升训练单元340,用于根据利用不同所述实际注意追踪策略完成所述多目标视觉追踪任务的正确率确定最优注意追踪策略,并利用所述最优注意追踪策略进行注意追踪策略训练。
在一些实施例中,注意提升训练单元340,可包括:
注意提升训练模块,用于根据不同类型被试所利用的不同所述实际注意追踪策略完成所述多目标视觉追踪任务的正确率确定各所述类型被试的最优注意追踪策略,并利用所述最优注意追踪策略对所述类型被试进行注意追踪策略训练。
在一些实施例中,图13所示注意追踪策略的训练装置,还可包括:
运动速度调整模块,用于根据进行注意追踪策略训练的目标刺激正确率调整刺激运动速度,并利用所述刺激运动速度重新进行多目标视觉追踪任务训练。
本发明实施例还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述实施例所述方法的步骤。该电子设备可以是计算机设备、平板电脑、手机、专用电子设备、电子芯片等。
本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述实施例所述方法的步骤。
综上所述,本发明实施例的注意追踪策略的识别方法、注意追踪策略的训练方法、注意追踪策略的识别装置、注意追踪策略的训练装置、电子设备及计算机可读存储介质,通过在多目标视觉追踪任务训练中采集的被试瞳孔位置信息来确定被试注视点位置信息,能够避免被试的主观判断。通过根据被试注视点位置信息确定被试注视核心点位置信息,通过比较所述被试注视核心点位置信息与设定注意追踪策略的核心点位置信息,能够实现识别得到被试所采用的实际注意追踪策略,从而获取被试的注意追踪策略。
在本说明书的描述中,参考术语“一个实施例”、“一个具体实施例”、“一些实施例”、“例如”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。各实施例中涉及的步骤顺序用于示意性说明本发明的实施,其中的步骤顺序不作限定,可根据需要作适当调整。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种注意追踪策略的识别方法,其特征在于,包括:
根据在多目标视觉追踪任务训练中采集的至少一个被试瞳孔位置信息确定至少一个被试注视点位置信息;
根据所述至少一个被试注视点位置信息确定被试注视核心点位置信息;
通过比较所述被试注视核心点位置信息与设定注意追踪策略的核心点位置信息,识别得到所述被试注视点位置信息所使用的实际注意追踪策略。
2.如权利要求1所述的注意追踪策略的识别方法,其特征在于,根据在多目标视觉追踪任务训练中采集的至少一个被试瞳孔位置信息确定至少一个被试注视点位置信息,包括:
在基于虚拟现实交互的多目标视觉追踪任务训练中,对虚拟现实场景中的被试瞳孔坐标点进行采样,得到至少一个被试瞳孔位置信息;
对所述至少一个被试瞳孔位置信息进行筛选,得到至少一个被试注视点位置信息。
3.如权利要求2所述的注意追踪策略的识别方法,其特征在于,对所述至少一个被试瞳孔位置信息进行筛选,得到至少一个被试注视点位置信息,包括:
根据所述至少一个被试瞳孔位置信息计算得到各所述被试瞳孔位置信息对应的眼动角速率;
通过比较各所述眼动角速率和设定角速率阈值从所述至少一个被试瞳孔位置信息中筛选被试瞳孔位置信息进而确定对应的被试注视点位置信息。
4.如权利要求3所述的注意追踪策略的识别方法,其特征在于,根据所述至少一个被试瞳孔位置信息计算得到各所述被试瞳孔位置信息对应的眼动角速率,包括:
从所述至少一个被试瞳孔位置信息中选定被试瞳孔位置信息作为设定窗口长度的中间点,得到窗口长度范围;
在所述窗口长度范围内查找最早的被试瞳孔位置信息和最晚的被试瞳孔位置信息;
根据所述最早的被试瞳孔位置信息和所述最晚的被试瞳孔位置信息计算视角;
根据所述最早的被试瞳孔位置信息对应的时间戳和所述最晚的被试瞳孔位置信息对应的时间戳计算时间差;
根据所述视角和所述时间差计算选定的被试瞳孔位置信息对应的眼动角速率;
从所述至少一个被试瞳孔位置信息中选定被试瞳孔位置信息作为设定窗口长度的中间点之前,还包括:在相邻时间点的两个被试瞳孔位置信息的时间戳之差不超过设定最大填补长度的情况下,在所述两个被试瞳孔位置信息之间进行数据填补。
5.如权利要求1所述的注意追踪策略的识别方法,其特征在于,根据所述至少一个被试注视点位置信息确定被试注视核心点位置信息,包括:
通过比较不同所述被试注视点位置信息所对应区域内的注视时间和/或注视次数确定被试注视核心点位置信息。
6.如权利要求2所述的注意追踪策略的识别方法,其特征在于,多目标视觉追踪任务包括多个目标刺激,所述设定注意追踪策略包括:以每个所述目标刺激为追踪核心位置循环注视、以所述多个目标刺激的三维空间组合重心为追踪核心位置、以所述多个目标刺激在所述虚拟现实场景的投影平面上的质心为追踪核心位置、以整个所述虚拟现实场景的中心为追踪核心位置之中的至少一个。
7.一种注意追踪策略的训练方法,其特征在于,包括:
根据在多目标视觉追踪任务训练中采集的至少一个被试瞳孔位置信息确定至少一个被试注视点位置信息;
根据所述至少一个被试注视点位置信息确定被试注视核心点位置信息;
通过比较所述被试注视核心点位置信息与设定注意追踪策略的核心点位置信息,识别得到所述被试注视点位置信息所使用的实际注意追踪策略;
根据利用不同所述实际注意追踪策略完成所述多目标视觉追踪任务的正确率确定最优注意追踪策略,并利用所述最优注意追踪策略进行注意追踪策略训练。
8.如权利要求7所述的注意追踪策略的训练方法,其特征在于,根据利用不同所述实际注意追踪策略完成所述多目标视觉追踪任务的正确率确定最优注意追踪策略,并利用所述最优注意追踪策略进行注意追踪策略训练,包括:
根据不同类型被试所利用的不同所述实际注意追踪策略完成所述多目标视觉追踪任务的正确率确定各所述类型被试的最优注意追踪策略,并利用所述最优注意追踪策略对所述类型被试进行注意追踪策略训练。
9.如权利要求7所述的注意追踪策略的训练方法,其特征在于,还包括:
根据进行注意追踪策略训练的目标刺激正确率调整刺激运动速度,并利用所述刺激运动速度重新进行多目标视觉追踪任务训练。
10.一种注意追踪策略的识别装置,其特征在于,包括:
注视点确定单元,用于根据在多目标视觉追踪任务训练中采集的至少一个被试瞳孔位置信息确定至少一个被试注视点位置信息;
核心点确定单元,用于根据所述至少一个被试注视点位置信息确定被试注视核心点位置信息;
注意策略识别单元,用于通过比较所述被试注视核心点位置信息与设定注意追踪策略的核心点位置信息,识别得到所述被试注视点位置信息所使用的实际注意追踪策略。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910093897.XA CN109887000A (zh) | 2019-01-30 | 2019-01-30 | 注意追踪策略的识别方法、训练方法及其装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910093897.XA CN109887000A (zh) | 2019-01-30 | 2019-01-30 | 注意追踪策略的识别方法、训练方法及其装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109887000A true CN109887000A (zh) | 2019-06-14 |
Family
ID=66927584
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910093897.XA Pending CN109887000A (zh) | 2019-01-30 | 2019-01-30 | 注意追踪策略的识别方法、训练方法及其装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109887000A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111309144A (zh) * | 2020-01-20 | 2020-06-19 | 北京津发科技股份有限公司 | 三维空间内注视行为的识别方法、装置及存储介质 |
US12099650B2 (en) | 2020-01-20 | 2024-09-24 | Kingfar International Inc. | Method and apparatus for identifying gaze behavior in three-dimensional space, and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106293045A (zh) * | 2015-06-30 | 2017-01-04 | 北京智谷睿拓技术服务有限公司 | 显示控制方法、显示控制装置及用户设备 |
CN108042917A (zh) * | 2017-12-13 | 2018-05-18 | 深圳先进技术研究院 | 多物体追踪能力的增强方法和装置 |
CN109086726A (zh) * | 2018-08-10 | 2018-12-25 | 陈涛 | 一种基于ar智能眼镜的局部图像识别方法及系统 |
-
2019
- 2019-01-30 CN CN201910093897.XA patent/CN109887000A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106293045A (zh) * | 2015-06-30 | 2017-01-04 | 北京智谷睿拓技术服务有限公司 | 显示控制方法、显示控制装置及用户设备 |
CN108042917A (zh) * | 2017-12-13 | 2018-05-18 | 深圳先进技术研究院 | 多物体追踪能力的增强方法和装置 |
CN109086726A (zh) * | 2018-08-10 | 2018-12-25 | 陈涛 | 一种基于ar智能眼镜的局部图像识别方法及系统 |
Non-Patent Citations (3)
Title |
---|
宋静雯: ""运动速度、目标数和追踪时间对多目标视觉追踪绩效与追踪策略的影响"", 《中国优秀硕士学位论文全文数据库哲学与人文科学辑》 * |
郭昕: ""图像质量主观评价中眼动信号的可视化分析方法"", 《现代电子技术》 * |
高闯: "《眼动实验原理》", 31 December 2012 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111309144A (zh) * | 2020-01-20 | 2020-06-19 | 北京津发科技股份有限公司 | 三维空间内注视行为的识别方法、装置及存储介质 |
WO2021147905A1 (zh) * | 2020-01-20 | 2021-07-29 | 北京津发科技股份有限公司 | 三维空间内注视行为的识别方法、装置及存储介质 |
CN111309144B (zh) * | 2020-01-20 | 2022-02-01 | 北京津发科技股份有限公司 | 三维空间内注视行为的识别方法、装置及存储介质 |
US12099650B2 (en) | 2020-01-20 | 2024-09-24 | Kingfar International Inc. | Method and apparatus for identifying gaze behavior in three-dimensional space, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jackson et al. | Advance visual information, awareness, and anticipation skill | |
Murphy et al. | Contextual information and perceptual-cognitive expertise in a dynamic, temporally-constrained task. | |
CN107224261B (zh) | 利用虚拟现实的视觉障碍检测系统 | |
CN107929007A (zh) | 一种利用眼动追踪和智能评估技术的注意力和视觉能力训练系统及方法 | |
Williams et al. | Anticipation skill in a real-world task: measurement, training, and transfer in tennis. | |
Manera et al. | Cooperation or competition? Discriminating between social intentions by observing prehensile movements | |
Weaving et al. | The same story or a unique novel? Within-participant principal-component analysis of measures of training load in professional rugby union skills training | |
CN109925678A (zh) | 一种基于眼动追踪技术的训练方法、训练装置及设备 | |
US10390696B2 (en) | Dynamic computer images for improving visual perception | |
CN105373774B (zh) | 一种幼师体罚小孩行为的检测方法 | |
CN109864749A (zh) | 注意控制能力的训练方法、测评方法及其装置 | |
CN109700472A (zh) | 一种疲劳检测方法、装置、设备和存储介质 | |
Lee et al. | ADHD assessment and testing system design based on virtual reality | |
CN106667426A (zh) | 一种大细胞通路功能检测方法和系统 | |
CN109887000A (zh) | 注意追踪策略的识别方法、训练方法及其装置 | |
Tripathy et al. | Severe loss of positional information when detecting deviations in multiple trajectories | |
CN114469089A (zh) | 基于虚拟现实技术的多模态数据抗压能力测评方法及系统 | |
US20200185110A1 (en) | Computer-implemented method and an apparatus for use in detecting malingering by a first subject in one or more physical and/or mental function tests | |
CN110038300A (zh) | 一种采用人脑控制的对抗游戏系统 | |
Williams | THE EFFECTS OF SYSTEMATIC VARIATION OF SPEED AND DIRECTION OF OBJECT FLIGHT AND OF SKILL AND AGE CLASSIFICATIONS UPON VISUO-PERCEPTUAL JUDGMENTS OF MOVING OBJECTS IN THREE-DIMENSIONAL SPACE. FINAL REPORT. | |
TWI793457B (zh) | 注意力缺陷虛擬實境自動化診斷方法與系統 | |
CN106388830A (zh) | 基于WiiBalanceboard的平衡性检测方法 | |
Button et al. | 13 Visual-motor skill in climbing | |
CN111401721A (zh) | 目标预判性思维评测与训练的方法及系统 | |
Ishibe et al. | The development of an immersive three-dimensional virtual reality system for identifying hand–eye coordination in badminton |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |