CN112991392A - 不同空间知觉场景中眼球运动功能的检查系统 - Google Patents

不同空间知觉场景中眼球运动功能的检查系统 Download PDF

Info

Publication number
CN112991392A
CN112991392A CN202110389387.4A CN202110389387A CN112991392A CN 112991392 A CN112991392 A CN 112991392A CN 202110389387 A CN202110389387 A CN 202110389387A CN 112991392 A CN112991392 A CN 112991392A
Authority
CN
China
Prior art keywords
model
models
module
visual
visual target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110389387.4A
Other languages
English (en)
Other versions
CN112991392B (zh
Inventor
阎丽
林岩平
褚航
吴殿鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Shiming Technology Development Co ltd
Original Assignee
Guangdong Shiming Technology Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Shiming Technology Development Co ltd filed Critical Guangdong Shiming Technology Development Co ltd
Priority to CN202110389387.4A priority Critical patent/CN112991392B/zh
Publication of CN112991392A publication Critical patent/CN112991392A/zh
Application granted granted Critical
Publication of CN112991392B publication Critical patent/CN112991392B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明提供一种不同空间知觉场景中眼球运动功能的检查系统,包括立体视野场景构造模块、可视目标模型创建模块、噪声模型创建模块、条栅模型创建模块、处理模块、观察结果反馈模块、测试结果输出模块和显示模块。本发明还提供一种不同空间知觉场景中眼球运动功能的检查方法,基于所述的不同空间知觉场景中眼球运动功能的检查系统实现。本发明提供一种不同空间知觉场景中眼球运动功能的检查系统,通过在不同立体视野场景下选定n个可视目标模型作为观察对象,并设置噪声模型和条栅模型干扰观察者的追踪观察,能够全面、准确地测试出观察者的眼球运动功能,解决了目前对于眼球运动功能的测试方案得到的测试结果不够准确的问题。

Description

不同空间知觉场景中眼球运动功能的检查系统
技术领域
本发明涉及眼球运动功能测试的技术领域,更具体的,涉及一种不同空间知觉场景中眼球运动功能的检查系统。
背景技术
在立体视野空间中,当物体位于立体视野空间的视平面上时,会产生平面视觉而非立体视觉;当物体位于立体视野空间的视平面前时,会产生交叉立体视觉;当物体位于立体视野空间的视平面后时,会产生非交叉立体视觉。
眼球运动有三种基本类型:注视,即保持眼睛稳定而不偏离目标的能力;扫视,即当我们改变目标时,眼睛做出准确跳跃的能力;追随,即我们眼睛跟踪移动目标的能力。
其中,注视是最基本的眼动技能,其他技能从它中成长。良好的注视技巧可以让我们保持稳定的注视,而不让我们的眼睛不由自主地偏离目标。这使得进入眼睛的图像以中央凹为中心,中央凹是视网膜的一部分,给我们最清晰的视觉。没有稳定的注视能力,图像会变得模糊和混乱。在学校里,当我们的眼睛不由自主地离开书本上的文字时,文字会变得混乱或跳跃,我们的理解力就会受到影响。注视能力缺损的问题必须在治疗早期解决,因为它是其他眼动机能建立的基础。
扫视是眼睛的跳跃——从一个物体到另一个物体的突然、快速、自愿的改变。扫视包括任何目光的转移,比如从路标到速度计,从景观到绘画板,从笔记本到电脑屏幕。阅读时,准确的扫视运动是至关重要的。眼睛必须沿着一条直线从左到右移动,不能向上或向下移动到上面或下面的线。此外,当我们读到一行的末尾时,我们的眼睛必须艰难地反向扫到下一行的开头。如果一个孩子不能控制这些眼球运动,他就会失去自己的位置,理解就会成为一个问题。准确扫视的能力涉及到我们的中枢和外围视觉系统之间非常精确的协调。我们的中央视觉处理我们所看到的细节,并定义我们所看到的(“它是什么?”),而周边视觉同时定位下一个目标,让我们知道在下一次扫视时眼睛应该瞄准哪里(“它在哪里?”)。如果这两个系统之间没有连续的、流畅的、同时的集成,眼球的扫视运动将会很差。
追随眼球运动用于跟踪移动的目标。准确、平滑的眼球运动可以让我们对移动目标的速度和位置做出准确地空间判断。追随眼球运动在驾驶和运动中尤为重要。如在打球时,必须不间断地注视运动的球才能作出正确的判断和反应。
眼球运动功能缺损时一般会导致以下问题:阅读时经常漏字、跳行、重读,阅读速率慢,阅读理解能力差,运动表现差,注意力难以集中等等,从而影响人们的工作、生活和学习。因此,有必要对人的眼球运动功能进行测试检查,及时发现问题,以便于尽早治疗康复。但目前对于眼球运动功能的测试方案都不够全面,得到的测试结果不够准确。
现有技术中,如2016-06-29公开的中国专利,视觉追踪训练设备,公开号为CN105718057A,能够有效地训练眼睛,在此基础上还能避免过度用眼疲劳,但对眼球运动功能的测试比较简单,没有进行全面的测试。
发明内容
本发明为克服目前对于眼球运动功能的测试方案得到的测试结果不够准确的技术缺陷,提供一种不同空间知觉场景中眼球运动功能的检查系统。
为解决上述技术问题,本发明的技术方案如下:
一种不同空间知觉场景中眼球运动功能的检查系统,包括立体视野场景构造模块、可视目标模型创建模块、噪声模型创建模块、条栅模型创建模块、处理模块、观察结果反馈模块、测试结果输出模块和显示模块;
所述立体视野场景构造模块,用于构造立体视野场景并设置立体视野场景中视平面的位置;
所述可视目标模型创建模块,用于创建可视目标模型,并控制可视目标模型的参数;
所述噪声模型创建模块,用于创建噪声模型,并控制噪声模型的参数;
所述条栅模型创建模块,用于设置条栅模型对可视目标模型和噪声模型进行遮挡,从而干扰观察者对可视目标模型的追踪观察,还用于控制条栅模型的参数;
所述处理模块,用于获取立体视野场景构造模块、可视目标模型创建模块、噪声模型创建模块和条栅模型创建模块中的数据并同步到显示模块中;用于选取可视目标模型作为观察对象;还用于判断观察者反馈的观察结果是否正确,得到测试结果并发送到测试结果输出模块;
所述观察结果反馈模块,用于接收观察者反馈的观察结果,并将观察结果发送到处理模块;
所述测试结果输出模块,用于记录并输出观察者的测试结果;
所述显示模块,用于提供虚拟立体空间,并在虚拟立体空间中显示立体视野场景、可视目标模型、噪声模型和条栅模型。
优选的,还包括时间控制模块;所述时间控制模块,用于计时、设置观察对象明确时间和设置追踪观察时间。
优选的,可视目标模型的参数包括可视目标模型的数量、颜色、尺寸、运动速度、震荡频率和震荡幅度。
优选的,噪声模型的参数包括噪声模型的数量、颜色、尺寸、运动速度、震荡频率和震荡幅度。
优选的,所述噪声模型与可视目标模型相似,将噪声模型与可视目标模型随机分布,实现干扰观察者对可视目标模型的追踪观察。
优选的,条栅模型的参数包括条栅模型的数量、遮挡面积、设置方向、空间旋转方向、移动方向和移动速率。
一种不同空间知觉场景中眼球运动功能的检查方法,基于所述的不同空间知觉场景中眼球运动功能的检查系统实现,包括以下步骤:
S1:在显示模块提供的虚拟立体空间中构造立体视野场景并设置立体视野场景中视平面的位置;
在立体视野场景中创建m个可视目标模型,并设置各个可视目标模型的初始参数;
在立体视野场景中添加若干个噪声模型,并设置各个噪声模型的初始参数;
在立体视野场景中设置条栅模型对可视目标模型和噪声模型进行遮挡,并设置条栅模型的初始参数;
选定n个可视目标模型作为观察对象,以及确定可调节参数;
其中,m≥2,n≤m;
S2:在预设的观察对象明确时间内短暂改变观察对象的参数,以便于观察者明确观察对象;
S3:将观察对象的参数恢复成与其他可视目标模型的参数一致,并由观察者对观察对象进行追踪观察;达到预设的追踪观察时间后,由观察者反馈观察结果;
S4:判断观察者反馈的观察结果是否正确;
若是,则以预设的参数调节间隔改变可调节参数,执行步骤S5;
若否,则执行步骤S6;
S5:判断改变后的可调节参数是否达到其预设的最值;
若是,则执行步骤S6;
若否,则根据改变后的可调节参数更新相应的模型,并重新选定n个可视目标模型作为观察对象,返回步骤S2;
S6:得到并记录当前视平面的位置、可视目标模型的数量、可视目标模型的尺寸、可视目标模型的运动速度、噪声模型的数量和条栅模型的遮挡面积,执行步骤S7;
S7:判断是否遍历所有的视平面位置情况;
若是,则将各个视平面位置情况下对应的可视目标模型的数量、可视目标模型的尺寸、可视目标模型的运动速度、噪声模型的数量和条栅模型的遮挡面积作为测试结果并输出;
若否,则改变立体视野场景中视平面的位置,初始化可调节参数,重新选定n个可视目标模型作为观察对象,返回步骤S2。
优选的,可调节参数为可视目标模型的数量、可视目标模型的尺寸、可视目标模型的运动速度、噪声模型的数量或条栅模型的遮挡面积。
优选的,在步骤S3中,达到预设的追踪观察时间后,还包括:令立体视野场景中的可视目标模型、噪声模型和条栅模型均静止。
优选的,在步骤S5和步骤S7中,重新选定n个可视目标模型作为观察对象之后均还包括:根据可视目标模型、噪声模型和条栅模型的参数恢复可视目标模型、噪声模型和条栅模型的运动状态。
与现有技术相比,本发明技术方案的有益效果是:
本发明提供了一种不同空间知觉场景中眼球运动功能的检查系统,通过在不同立体视野场景下选定n个可视目标模型作为观察对象,并设置噪声模型和条栅模型干扰观察者的追踪观察,能够全面、准确地测试出观察者的眼球运动功能。
附图说明
图1为本发明的模块连接示意图;
图2为本发明的技术方案实施步骤流程图;
其中:1、立体视野场景构造模块;2、可视目标模型创建模块;3、噪声模型创建模块;4、条栅模型创建模块;5、处理模块;6、观察结果反馈模块;7、测试结果输出模块;8、显示模块;9、时间控制模块。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,一种不同空间知觉场景中眼球运动功能的检查系统,包括立体视野场景构造模块1、可视目标模型创建模块2、噪声模型创建模块3、条栅模型创建模块4、处理模块5、观察结果反馈模块6、测试结果输出模块7和显示模块8;
所述立体视野场景构造模块1,用于构造立体视野场景并设置立体视野场景中视平面的位置;
在具体实施过程中,当可视目标模型、噪声模型和条栅模型均在视平面前时,会产生交叉立体视觉;当可视目标模型、噪声模型和条栅模型均在视平面后时,会产生非交叉立体视觉;当可视目标模型、噪声模型和条栅模型均在视平面上时,则不产生立体视觉;
所述可视目标模型创建模块2,用于创建可视目标模型,并控制可视目标模型的参数;
在具体实施过程中,可视目标模型创建模块2中封装有可视目标模型编码模块,能够根据实际情况编码创建若干个可视目标模型;可视目标模型一般设置为几何形状,也可以根据实际需要设置成其他形状;
所述噪声模型创建模块3,用于创建噪声模型,并控制噪声模型的参数;
在具体实施过程中,噪声模型创建模块3中封装有噪声模型编码模块,能够根据实际情况编码创建若干个噪声模型;
所述条栅模型创建模块4,用于设置条栅模型对可视目标模型和噪声模型进行遮挡,从而干扰观察者对可视目标模型的追踪观察,还用于控制条栅模型的参数;
在具体实施过程中,将条栅模型设置在立体视野场景的近眼端,将可视目标模型和噪声模型设置在立体视野场景的远眼端,从而实现条栅模型对可视目标模型和噪声模型的遮挡,干扰观察者对可视目标模型的追踪观察;
所述处理模块5,用于获取立体视野场景构造模块1、可视目标模型创建模块2、噪声模型创建模块3和条栅模型创建模块4中的数据并同步到显示模块8中;用于选取可视目标模型作为观察对象;还用于判断观察者反馈的观察结果是否正确,得到测试结果并发送到测试结果输出模块7;
在具体实施过程中,处理模型选取可视目标模型作为观察对象后,联立可视目标模型创建模块2短暂改变观察对象的参数(如颜色、尺寸等),使观察对象与其他可视目标模型和噪声模型区别开来,以便于观察者明确观察对象;待观察者明确观察对象或达到预设的观察对象明确时间后,恢复观察对象的参数与其他可视目标模型相同;当接收到观察者反馈的观察结果时,根据观察对象的位置判断观察结果是否正确,如观察对象的位置与观察者反馈的观察结果中的位置一致,则判断观察结果正确,如否,则判断观察结果不正确;
所述观察结果反馈模块6,用于接收观察者反馈的观察结果,并将观察结果发送到处理模块5;
在具体实施过程中,观察者通过观察结果反馈模块6的人机交互装置反馈观察结果,观察者反馈的观察结果为观察者实际追踪观察的可视目标模型的位置;
所述测试结果输出模块7,用于记录并输出观察者的测试结果;
所述显示模块8,用于提供虚拟立体空间,并在虚拟立体空间中显示立体视野场景、可视目标模型、噪声模型和条栅模型;
在具体实施过程中,采用AR显示设备作为显示模块8,还可以采用VR、MR、裸眼3D、分视设备等显示设备作为显示模块8。
更具体的,还包括时间控制模块9;所述时间控制模块9,用于计时、设置观察对象明确时间和设置追踪观察时间。
更具体的,可视目标模型的参数包括可视目标模型的数量、颜色、尺寸、运动速度、震荡频率和震荡幅度。
在具体实施过程中,运动速度包括运动速率和运动方向。
更具体的,噪声模型的参数包括噪声模型的数量、颜色、尺寸、运动速度、震荡频率和震荡幅度。
更具体的,所述噪声模型与可视目标模型相似,将噪声模型与可视目标模型随机分布,实现干扰观察者对可视目标模型的追踪观察。
在具体实施过程中,通过将噪声模型的颜色、尺寸和运动速度设置成与可视目标模型的颜色、尺寸和运动速度相近,使噪声模型与可视目标模型相似;噪声模型与可视目标模型越相似,则识别难度越高。
更具体的,条栅模型的参数包括条栅模型的数量、遮挡面积、设置方向、空间旋转方向、移动方向和移动速率。
在具体实施过程中,条栅模型的遮挡面积为条栅模型对可视目标模型和噪声模型的遮挡面积,受条栅模型的数量、宽度和间距影响。
实施例2
在本实施例中,以可视目标模型的数量作为可调节参数测试不同立体视野场景下的眼球运动功能:
如图2所示,一种不同空间知觉场景中眼球运动功能的检查方法,基于所述的不同空间知觉场景中眼球运动功能的检查系统实现,包括以下步骤:
S1:在显示模块8提供的虚拟立体空间中构造立体视野场景并设置立体视野场景中视平面的位置;
在立体视野场景中创建m个可视目标模型,并设置各个可视目标模型的初始参数,包括可视目标模型的数量、颜色、尺寸、运动速度、震荡频率和震荡幅度;
在立体视野场景中添加若干个噪声模型,并设置各个噪声模型的初始参数,包括噪声模型的数量、颜色、尺寸、运动速度、震荡频率和震荡幅度;
在立体视野场景中设置条栅模型对可视目标模型和噪声模型进行遮挡,并设置条栅模型的初始参数,包括条栅模型的数量、遮挡面积、设置方向、空间旋转方向、移动方向和移动速率;
选定n个可视目标模型作为观察对象,以及确定可视目标模型的数量作为可调节参数;
其中,m≥2,n≤m;
S2:在预设的观察对象明确时间内短暂改变观察对象的参数(如颜色、尺寸等),以便于观察者明确观察对象;
S3:将观察对象的参数恢复成与其他可视目标模型的参数一致,并由观察者对观察对象进行追踪观察;达到预设的追踪观察时间后,令立体视野场景中的可视目标模型、噪声模型和条栅模型均静止,由观察者反馈观察结果;
S4:判断观察者反馈的观察结果是否正确;
若是,则以预设的数量调节间隔增加可视目标模型的数量,执行步骤S5;
若否,则执行步骤S6;
S5:判断增加后的可视目标模型的数量是否达到其预设的最大数量;
若是,则执行步骤S6;
若否,则根据增加后的可视目标模型的数量更新可视目标模型,并重新选定n个可视目标模型作为观察对象,根据可视目标模型、噪声模型和条栅模型的参数恢复可视目标模型、噪声模型和条栅模型的运动状态,返回步骤S2;
S6:得到并记录当前视平面的位置、可视目标模型的数量、可视目标模型的尺寸、可视目标模型的运动速度、噪声模型的数量和条栅模型的遮挡面积,执行步骤S7;
S7:判断是否遍历所有的视平面位置情况;
若是,则将各个视平面位置情况下对应的可视目标模型的数量、可视目标模型的尺寸、可视目标模型的运动速度、噪声模型的数量和条栅模型的遮挡面积作为测试结果并输出;
若否,则改变立体视野场景中视平面的位置,初始化可视目标模型的数量,重新选定n个可视目标模型作为观察对象,根据可视目标模型、噪声模型和条栅模型的参数恢复可视目标模型、噪声模型和条栅模型的运动状态,返回步骤S2。
实施例3
在本实施例中,以可视目标模型的尺寸作为可调节参数测试不同立体视野场景下的眼球运动功能:
一种不同空间知觉场景中眼球运动功能的检查方法,基于所述的一种不同空间知觉场景中眼球运动功能的检查系统实现,包括以下步骤:
S1:在显示模块8提供的虚拟立体空间中构造立体视野场景并设置立体视野场景中视平面的位置;
在立体视野场景中创建m个可视目标模型,并设置各个可视目标模型的初始参数,包括可视目标模型的数量、颜色、尺寸、运动速度、震荡频率和震荡幅度;
在立体视野场景中添加若干个噪声模型,并设置各个噪声模型的初始参数,包括噪声模型的数量、颜色、尺寸、运动速度、震荡频率和震荡幅度;
在立体视野场景中设置条栅模型对可视目标模型和噪声模型进行遮挡,并设置条栅模型的初始参数,包括条栅模型的数量、遮挡面积、设置方向、空间旋转方向、移动方向和移动速率;
选定n个可视目标模型作为观察对象,以及确定可视目标模型的尺寸作为可调节参数;
其中,m≥2,n≤m;
S2:在预设的观察对象明确时间内短暂改变观察对象的参数(如颜色、尺寸等),以便于观察者明确观察对象;
S3:将观察对象的参数恢复成与其他可视目标模型的参数一致,并由观察者对观察对象进行追踪观察;达到预设的追踪观察时间后,令立体视野场景中的可视目标模型、噪声模型和条栅模型均静止,由观察者反馈观察结果;
S4:判断观察者反馈的观察结果是否正确;
若是,则以预设的尺寸调节间隔减少可视目标模型的尺寸,执行步骤S5;
若否,则执行步骤S6;
S5:判断减少后的可视目标模型的尺寸是否达到其预设的最小尺寸;
若是,则执行步骤S6;
若否,则根据减少后的可视目标模型的尺寸更新可视目标模型,并重新选定n个可视目标模型作为观察对象,根据可视目标模型、噪声模型和条栅模型的参数恢复可视目标模型、噪声模型和条栅模型的运动状态,返回步骤S2;
S6:得到并记录当前视平面的位置、可视目标模型的数量、可视目标模型的尺寸、可视目标模型的运动速度、噪声模型的数量和条栅模型的遮挡面积,执行步骤S7;
S7:判断是否遍历所有的视平面位置情况;
若是,则将各个视平面位置情况下对应的可视目标模型的数量、可视目标模型的尺寸、可视目标模型的运动速度、噪声模型的数量和条栅模型的遮挡面积作为测试结果并输出;
若否,则改变立体视野场景中视平面的位置,初始化可视目标模型的尺寸,重新选定n个可视目标模型作为观察对象,根据可视目标模型、噪声模型和条栅模型的参数恢复可视目标模型、噪声模型和条栅模型的运动状态,返回步骤S2。
实施例4
在本实施例中,以可视目标模型的运动速度作为可调节参数测试不同立体视野场景下的眼球运动功能:
一种不同空间知觉场景中眼球运动功能的检查方法,基于所述的一种不同空间知觉场景中眼球运动功能的检查系统实现,包括以下步骤:
S1:在显示模块8提供的虚拟立体空间中构造立体视野场景并设置立体视野场景中视平面的位置;
在立体视野场景中创建m个可视目标模型,并设置各个可视目标模型的初始参数,包括可视目标模型的数量、颜色、尺寸、运动速度、震荡频率和震荡幅度;
在立体视野场景中添加若干个噪声模型,并设置各个噪声模型的初始参数,包括噪声模型的数量、颜色、尺寸、运动速度、震荡频率和震荡幅度;
在立体视野场景中设置条栅模型对可视目标模型和噪声模型进行遮挡,并设置条栅模型的初始参数,包括条栅模型的数量、遮挡面积、设置方向、空间旋转方向、移动方向和移动速率;
选定n个可视目标模型作为观察对象,以及确定可视目标模型的运动速度作为可调节参数;
其中,m≥2,n≤m;
S2:在预设的观察对象明确时间内短暂改变观察对象的参数(如颜色、尺寸等),以便于观察者明确观察对象;
S3:将观察对象的参数恢复成与其他可视目标模型的参数一致,并由观察者对观察对象进行追踪观察;达到预设的追踪观察时间后,令立体视野场景中的可视目标模型、噪声模型和条栅模型均静止,由观察者反馈观察结果;
S4:判断观察者反馈的观察结果是否正确;
若是,则以预设的速度调节间隔提高可视目标模型的运动速度,执行步骤S5;
若否,则执行步骤S6;
S5:判断提高后的可视目标模型的运动速度是否达到其预设的最大速度;
若是,则执行步骤S6;
若否,则根据提高后的可视目标模型的运动速度更新可视目标模型,并重新选定n个可视目标模型作为观察对象,根据可视目标模型、噪声模型和条栅模型的参数恢复可视目标模型、噪声模型和条栅模型的运动状态,返回步骤S2;
S6:得到并记录当前视平面的位置、可视目标模型的数量、可视目标模型的尺寸、可视目标模型的运动速度、噪声模型的数量和条栅模型的遮挡面积,执行步骤S7;
S7:判断是否遍历所有的视平面位置情况;
若是,则将各个视平面位置情况下对应的可视目标模型的数量、可视目标模型的尺寸、可视目标模型的运动速度、噪声模型的数量和条栅模型的遮挡面积作为测试结果并输出;
若否,则改变立体视野场景中视平面的位置,初始化可视目标模型的运动速度,重新选定n个可视目标模型作为观察对象,根据可视目标模型、噪声模型和条栅模型的参数恢复可视目标模型、噪声模型和条栅模型的运动状态,返回步骤S2。
实施例5
在本实施例中,以噪声模型的数量作为可调节参数测试不同立体视野场景下的眼球运动功能:
一种不同空间知觉场景中眼球运动功能的检查方法,基于所述的一种不同空间知觉场景中眼球运动功能的检查系统实现,包括以下步骤:
S1:在显示模块8提供的虚拟立体空间中构造立体视野场景并设置立体视野场景中视平面的位置;
在立体视野场景中创建m个可视目标模型,并设置各个可视目标模型的初始参数,包括可视目标模型的数量、颜色、尺寸、运动速度、震荡频率和震荡幅度;
在立体视野场景中添加若干个噪声模型,并设置各个噪声模型的初始参数,包括噪声模型的数量、颜色、尺寸、运动速度、震荡频率和震荡幅度;
在立体视野场景中设置条栅模型对可视目标模型和噪声模型进行遮挡,并设置条栅模型的初始参数,包括条栅模型的数量、遮挡面积、设置方向、空间旋转方向、移动方向和移动速率;
选定n个可视目标模型作为观察对象,以及确定噪声模型的数量作为可调节参数;
其中,m≥2,n≤m;
S2:在预设的观察对象明确时间内短暂改变观察对象的参数(如颜色、尺寸等),以便于观察者明确观察对象;
S3:将观察对象的参数恢复成与其他可视目标模型的参数一致,并由观察者对观察对象进行追踪观察;达到预设的追踪观察时间后,令立体视野场景中的可视目标模型、噪声模型和条栅模型均静止,由观察者反馈观察结果;
S4:判断观察者反馈的观察结果是否正确;
若是,则以预设的噪声数量调节间隔增加噪声模型的数量,执行步骤S5;
若否,则执行步骤S6;
S5:判断增加后的噪声模型的数量是否达到其预设的最大数量;
若是,则执行步骤S6;
若否,则根据增加后的噪声模型的数量更新噪声模型,并重新选定n个可视目标模型作为观察对象,根据可视目标模型、噪声模型和条栅模型的参数恢复可视目标模型、噪声模型和条栅模型的运动状态,返回步骤S2;
S6:得到并记录当前视平面的位置、可视目标模型的数量、可视目标模型的尺寸、可视目标模型的运动速度、噪声模型的数量和条栅模型的遮挡面积,执行步骤S7;
S7:判断是否遍历所有的视平面位置情况;
若是,则将各个视平面位置情况下对应的可视目标模型的数量、可视目标模型的尺寸、可视目标模型的运动速度、噪声模型的数量和条栅模型的遮挡面积作为测试结果并输出;
若否,则改变立体视野场景中视平面的位置,初始化噪声模型的数量,重新选定n个可视目标模型作为观察对象,根据可视目标模型、噪声模型和条栅模型的参数恢复可视目标模型、噪声模型和条栅模型的运动状态,返回步骤S2。
实施例6
在本实施例中,以条栅模型的遮挡面积作为可调节参数测试不同立体视野场景下的眼球运动功能:
一种不同空间知觉场景中眼球运动功能的检查方法,基于所述的一种不同空间知觉场景中眼球运动功能的检查系统实现,包括以下步骤:
S1:在显示模块8提供的虚拟立体空间中构造立体视野场景并设置立体视野场景中视平面的位置;
在立体视野场景中创建m个可视目标模型,并设置各个可视目标模型的初始参数,包括可视目标模型的数量、颜色、尺寸、运动速度、震荡频率和震荡幅度;
在立体视野场景中添加若干个噪声模型,并设置各个噪声模型的初始参数,包括噪声模型的数量、颜色、尺寸、运动速度、震荡频率和震荡幅度;
在立体视野场景中设置条栅模型对可视目标模型和噪声模型进行遮挡,并设置条栅模型的初始参数,包括条栅模型的数量、遮挡面积、设置方向、空间旋转方向、移动方向和移动速率;
选定n个可视目标模型作为观察对象,以及确定条栅模型的遮挡面积作为可调节参数;
其中,m≥2,n≤m;
S2:在预设的观察对象明确时间内短暂改变观察对象的参数(如颜色、尺寸等),以便于观察者明确观察对象;
S3:将观察对象的参数恢复成与其他可视目标模型的参数一致,并由观察者对观察对象进行追踪观察;达到预设的追踪观察时间后,令立体视野场景中的可视目标模型、噪声模型和条栅模型均静止,由观察者反馈观察结果;
S4:判断观察者反馈的观察结果是否正确;
若是,则以预设的遮挡面积调节间隔增加条栅模型的遮挡面积,执行步骤S5;
若否,则执行步骤S6;
S5:判断增加后的条栅模型的遮挡面积是否达到其预设的最大遮挡面积;
若是,则执行步骤S6;
若否,则根据增加后的条栅模型的遮挡面积更新条栅模型,并重新选定n个可视目标模型作为观察对象,根据可视目标模型、噪声模型和条栅模型的参数恢复可视目标模型、噪声模型和条栅模型的运动状态,返回步骤S2;
S6:得到并记录当前视平面的位置、可视目标模型的数量、可视目标模型的尺寸、可视目标模型的运动速度、噪声模型的数量和条栅模型的遮挡面积,执行步骤S7;
S7:判断是否遍历所有的视平面位置情况;
若是,则将各个视平面位置情况下对应的可视目标模型的数量、可视目标模型的尺寸、可视目标模型的运动速度、噪声模型的数量和条栅模型的遮挡面积作为测试结果并输出;
若否,则改变立体视野场景中视平面的位置,初始化条栅模型的遮挡面积,重新选定n个可视目标模型作为观察对象,根据可视目标模型、噪声模型和条栅模型的参数恢复可视目标模型、噪声模型和条栅模型的运动状态,返回步骤S2。
在实施例2、实施例3、实施例4、实施例5和实施例6中,当n=1时,能够测试眼球运动功能中的追随功能;当n大于1时,能够同时测试眼球运动功能中的追随和扫视功能。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (10)

1.不同空间知觉场景中眼球运动功能的检查系统,其特征在于,包括立体视野场景构造模块、可视目标模型创建模块、噪声模型创建模块、条栅模型创建模块、处理模块、观察结果反馈模块、测试结果输出模块和显示模块;
所述立体视野场景构造模块,用于构造立体视野场景并设置立体视野场景中视平面的位置;
所述可视目标模型创建模块,用于创建可视目标模型,并控制可视目标模型的参数;
所述噪声模型创建模块,用于创建噪声模型,并控制噪声模型的参数;
所述条栅模型创建模块,用于设置条栅模型对可视目标模型和噪声模型进行遮挡,从而干扰观察者对可视目标模型的追踪观察,还用于控制条栅模型的参数;
所述处理模块,用于获取立体视野场景构造模块、可视目标模型创建模块、噪声模型创建模块和条栅模型创建模块中的数据并同步到显示模块中;用于选取可视目标模型作为观察对象;还用于判断观察者反馈的观察结果是否正确,得到测试结果并发送到测试结果输出模块;
所述观察结果反馈模块,用于接收观察者反馈的观察结果,并将观察结果发送到处理模块;
所述测试结果输出模块,用于记录并输出观察者的测试结果;
所述显示模块,用于提供虚拟立体空间,并在虚拟立体空间中显示立体视野场景、可视目标模型、噪声模型和条栅模型。
2.根据权利要求1所述的不同空间知觉场景中眼球运动功能的检查系统,其特征在于,还包括时间控制模块;所述时间控制模块,用于计时、设置观察对象明确时间和设置追踪观察时间。
3.根据权利要求1所述的不同空间知觉场景中眼球运动功能的检查系统,其特征在于,可视目标模型的参数包括可视目标模型的数量、颜色、尺寸、运动速度、震荡频率和震荡幅度。
4.根据权利要求1所述的不同空间知觉场景中眼球运动功能的检查系统,其特征在于,噪声模型的参数包括噪声模型的数量、颜色、尺寸、运动速度、震荡频率和震荡幅度。
5.根据权利要求1所述的不同空间知觉场景中眼球运动功能的检查系统,其特征在于,所述噪声模型与可视目标模型相似,将噪声模型与可视目标模型随机分布,实现干扰观察者对可视目标模型的追踪观察。
6.根据权利要求1所述的不同空间知觉场景中眼球运动功能的检查系统,其特征在于,条栅模型的参数包括条栅模型的数量、遮挡面积、设置方向、空间旋转方向、移动方向和移动速率。
7.不同空间知觉场景中眼球运动功能的检查方法,其特征在于,包括以下步骤:
S1:在显示模块提供的虚拟立体空间中构造立体视野场景并设置立体视野场景中视平面的位置;
在立体视野场景中创建m个可视目标模型,并设置各个可视目标模型的初始参数;
在立体视野场景中添加若干个噪声模型,并设置各个噪声模型的初始参数;
在立体视野场景中设置条栅模型对可视目标模型和噪声模型进行遮挡,并设置条栅模型的初始参数;
选定n个可视目标模型作为观察对象,以及确定可调节参数;
其中,m≥2,n≤m;
S2:在预设的观察对象明确时间内短暂改变观察对象的参数,以便于观察者明确观察对象;
S3:将观察对象的参数恢复成与其他可视目标模型的参数一致,并由观察者对观察对象进行追踪观察;达到预设的追踪观察时间后,由观察者反馈观察结果;
S4:判断观察者反馈的观察结果是否正确;
若是,则以预设的参数调节间隔改变可调节参数,执行步骤S5;
若否,则执行步骤S6;
S5:判断改变后的可调节参数是否达到其预设的最值;
若是,则执行步骤S6;
若否,则根据改变后的可调节参数更新相应的模型,并重新选定n个可视目标模型作为观察对象,返回步骤S2;
S6:得到并记录当前视平面的位置、可视目标模型的数量、可视目标模型的尺寸、可视目标模型的运动速度、噪声模型的数量和条栅模型的遮挡面积,执行步骤S7;
S7:判断是否遍历所有的视平面位置情况;
若是,则将各个视平面位置情况下对应的可视目标模型的数量、可视目标模型的尺寸、可视目标模型的运动速度、噪声模型的数量和条栅模型的遮挡面积作为测试结果并输出;
若否,则改变立体视野场景中视平面的位置,初始化可调节参数,重新选定n个可视目标模型作为观察对象,返回步骤S2。
8.根据权利要求7所述的不同空间知觉场景中眼球运动功能的检查方法,其特征在于,可调节参数为可视目标模型的数量、可视目标模型的尺寸、可视目标模型的运动速度、噪声模型的数量或条栅模型的遮挡面积。
9.根据权利要求7所述的不同空间知觉场景中眼球运动功能的检查方法,其特征在于,在步骤S3中,达到预设的追踪观察时间后,还包括:令立体视野场景中的可视目标模型、噪声模型和条栅模型均静止。
10.根据权利要求7所述的不同空间知觉场景中眼球运动功能的检查方法,其特征在于,在步骤S5和步骤S7中,重新选定n个可视目标模型作为观察对象之后均还包括:根据可视目标模型、噪声模型和条栅模型的参数恢复可视目标模型、噪声模型和条栅模型的运动状态。
CN202110389387.4A 2021-04-12 2021-04-12 不同空间知觉场景中眼球运动功能的检查系统 Active CN112991392B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110389387.4A CN112991392B (zh) 2021-04-12 2021-04-12 不同空间知觉场景中眼球运动功能的检查系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110389387.4A CN112991392B (zh) 2021-04-12 2021-04-12 不同空间知觉场景中眼球运动功能的检查系统

Publications (2)

Publication Number Publication Date
CN112991392A true CN112991392A (zh) 2021-06-18
CN112991392B CN112991392B (zh) 2021-09-07

Family

ID=76338034

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110389387.4A Active CN112991392B (zh) 2021-04-12 2021-04-12 不同空间知觉场景中眼球运动功能的检查系统

Country Status (1)

Country Link
CN (1) CN112991392B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115624313A (zh) * 2022-09-26 2023-01-20 广东视明科技发展有限公司 多场景双眼能量刺激的同时视分级检查系统及方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101742957A (zh) * 2007-05-16 2010-06-16 爱丁堡大学董事会 测试视觉
CN104173021A (zh) * 2013-05-24 2014-12-03 苏州视可佳医疗器械有限公司 检测婴幼儿视力的方法
CN106648049A (zh) * 2016-09-19 2017-05-10 上海青研科技有限公司 一种基于眼球追踪及眼动点预测的立体渲染方法
CN107427209A (zh) * 2015-01-20 2017-12-01 格林C.科技有限公司 用于自动视力诊断的方法和系统
CN110769243A (zh) * 2019-10-22 2020-02-07 天津大学 一种高清裸眼3d立体视频刺激下的双眼眼动采集系统
US10567641B1 (en) * 2015-01-19 2020-02-18 Devon Rueckner Gaze-directed photography
CN111603134A (zh) * 2020-05-29 2020-09-01 上海青研科技有限公司 眼球运动测试的装置及方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101742957A (zh) * 2007-05-16 2010-06-16 爱丁堡大学董事会 测试视觉
CN104173021A (zh) * 2013-05-24 2014-12-03 苏州视可佳医疗器械有限公司 检测婴幼儿视力的方法
US10567641B1 (en) * 2015-01-19 2020-02-18 Devon Rueckner Gaze-directed photography
CN107427209A (zh) * 2015-01-20 2017-12-01 格林C.科技有限公司 用于自动视力诊断的方法和系统
CN106648049A (zh) * 2016-09-19 2017-05-10 上海青研科技有限公司 一种基于眼球追踪及眼动点预测的立体渲染方法
CN110769243A (zh) * 2019-10-22 2020-02-07 天津大学 一种高清裸眼3d立体视频刺激下的双眼眼动采集系统
CN111603134A (zh) * 2020-05-29 2020-09-01 上海青研科技有限公司 眼球运动测试的装置及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吴葆健 等: "同视机法与基于计算机平台的知觉眼位检查法检测间歇性外斜视患者主观斜视角的对比观察", 《眼科》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115624313A (zh) * 2022-09-26 2023-01-20 广东视明科技发展有限公司 多场景双眼能量刺激的同时视分级检查系统及方法
CN115624313B (zh) * 2022-09-26 2023-10-03 广东视明科技发展有限公司 多场景双眼能量刺激的同时视分级检查系统及方法

Also Published As

Publication number Publication date
CN112991392B (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
US12016629B2 (en) Screening apparatus and method
CN107929007B (zh) 一种利用眼动追踪和智能评估技术的注意力和视觉能力训练系统及方法
Patterson et al. Human factors of stereoscopic 3D displays
Grossman et al. Perception of coherent motion, biological motion and form-from-motion under dim-light conditions
CN110292515A (zh) 一种视功能训练的方法及系统
US20090073386A1 (en) Enhanced head mounted display
CN106999035A (zh) 用于测试患者的视野的方法、软件和设备
JP7263474B2 (ja) 人の視覚挙動を検査する機器及びそのような装置を用いて眼鏡レンズの少なくとも1個の光学設計パラメータを決定する方法
US11774759B2 (en) Systems and methods for improving binocular vision
KR20190088491A (ko) 자극 및 안구 추적 시스템
CN108852766A (zh) 视力矫正方法
CN112991392B (zh) 不同空间知觉场景中眼球运动功能的检查系统
CN110269586A (zh) 用于捕获具有暗点的人的视野的设备和方法
Panerai et al. Contribution of extraretinal signals to the scaling of object distance during self-motion
JP6901474B2 (ja) 人の視覚挙動パラメータを判断する方法及びこれに関連する検査機器
Cheung et al. Eye tracking, point of gaze, and performance degradation during disorientation
US12064181B2 (en) Method of analyzing a visual field of an individual and a corresponding ophthalmic lens
EP4142570B1 (en) Method and device for determining a refractive error
CN117918785A (zh) 一种视力检测方法及系统
KR20230103223A (ko) 가상현실 콘텐츠의 시청 중 시기능 이상 감지 및 보정 방법
Orikasa et al. A Gaze-Reactive Display for Simulating Depth-of-Field of Eyes When Viewing Scenes with Multiple Depths
CN118830804A (zh) 一种视力检测数据的处理方法、系统及视力检测系统
CN116725473A (zh) 一种动态立体视觉检测装置和方法
Tomaszewska Real-time algorithms optimization based on a gaze-point position

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant