CN118986267A - 基于眼动追踪的视功能检查方法和装置 - Google Patents
基于眼动追踪的视功能检查方法和装置 Download PDFInfo
- Publication number
- CN118986267A CN118986267A CN202411107379.6A CN202411107379A CN118986267A CN 118986267 A CN118986267 A CN 118986267A CN 202411107379 A CN202411107379 A CN 202411107379A CN 118986267 A CN118986267 A CN 118986267A
- Authority
- CN
- China
- Prior art keywords
- eye
- point
- cohesive
- position point
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004424 eye movement Effects 0.000 title claims abstract description 146
- 230000004382 visual function Effects 0.000 title claims abstract description 38
- 238000000034 method Methods 0.000 title claims description 41
- 238000007689 inspection Methods 0.000 title description 10
- 238000001514 detection method Methods 0.000 claims abstract description 78
- 239000011521 glass Substances 0.000 claims abstract description 41
- 238000011084 recovery Methods 0.000 claims description 84
- 230000004927 fusion Effects 0.000 claims description 68
- 230000006870 function Effects 0.000 claims description 51
- 239000006185 dispersion Substances 0.000 claims description 39
- 230000015654 memory Effects 0.000 claims description 28
- 230000004438 eyesight Effects 0.000 claims description 18
- 238000005336 cracking Methods 0.000 claims description 12
- 238000012360 testing method Methods 0.000 claims description 2
- 230000009977 dual effect Effects 0.000 claims 1
- 210000001508 eye Anatomy 0.000 description 313
- 238000010586 diagram Methods 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000004308 accommodation Effects 0.000 description 5
- 210000005252 bulbus oculi Anatomy 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 4
- 210000001525 retina Anatomy 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 241000593989 Scardinius erythrophthalmus Species 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 201000005111 ocular hyperemia Diseases 0.000 description 3
- 208000004350 Strabismus Diseases 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 210000000857 visual cortex Anatomy 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Ophthalmology & Optometry (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Human Computer Interaction (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本公开涉及视功能检测技术领域,公开了基于眼动追踪的视功能检测方法,包括:在第一初始位置点、第二初始位置点分别呈现左眼通道图像、右眼通道图像;在检测到用户已佩戴双通道眼镜时,获取用户的左眼坐标、右眼坐标;在根据左眼坐标、右眼坐标确定用户的左眼、右眼分别观看左眼通道图像、右眼通道图像时,向用户呈现左眼通道图像的第一运动轨迹和右眼通道图像的第二运动轨迹;获取用户的左眼运动轨迹、右眼运动轨迹;基于第一运动轨迹、第二运动轨迹、左眼运动轨迹和右眼运动轨迹,生成并呈现用户的眼动视功能检测信息。本公开提升了所生成和呈现的眼动视功能检测信息的准确性。
Description
技术领域
本公开涉及视功能检测技术领域,具体涉及基于眼动追踪的视功能检测方法和装置。
背景技术
在双眼的视功能检查中,通常需要关注人眼的眼球运动协调能力。
在双眼视功能检查中,通常需要用到同视机,同视机检查的原理是利用两个镜筒将两眼视野分开,左眼看左画片,右眼看右画片,通过凸透镜将物象投射到两眼视网膜的一定位置上,再通过视中枢传导到视皮层进行加工、分析、综合。如果有双眼视觉,便可以将分别来自双眼的物象合二为一,感觉为一个物体,如无双眼视觉,可以借助于同视机面板的刻度了解患者的斜视度,并对其他一些资料进行分析。
然而,采用同视机检测人眼的眼球运动协调能力的方法,依赖于被测者主观反馈的大脑呈现的画像。这些主观感受可能因个体差异、注意力集中程度、疲劳状态等因素而有所变化,从而影响检测结果的准确性和可靠性。因此,如何提升用户的眼动视功能检测结果的准确性,成为亟需解决的问题。
发明内容
有鉴于此,本公开提供了一种基于眼动追踪的视功能检查方法和装置,以解决如何提升融像性聚散能力的检测结果的客观性的问题。
第一方面,本公开提供了一种基于眼动追踪的视功能检测方法,方法包括:在第一初始位置点、第二初始位置点分别呈现左眼通道图像、右眼通道图像,第一初始位置点、第二初始位置点沿水平方向左右设置且间隔预设距离;在检测到用户已佩戴双通道眼镜时,获取用户的左眼坐标、右眼坐标,双通道眼镜的左通道观看左眼通道图像、右通道观看右眼通道图像;在根据左眼坐标、右眼坐标确定用户的左眼、右眼分别观看左眼通道图像、右眼通道图像时,向用户呈现左眼通道图像的第一运动轨迹和右眼通道图像的第二运动轨迹;获取用户的左眼运动轨迹、右眼运动轨迹;基于第一运动轨迹、第二运动轨迹、左眼运动轨迹和右眼运动轨迹,生成并呈现用户的眼动视功能检测信息。
在本实施例中,通过在第一初始位置点、第二初始位置点分别呈现左眼通道图像、右眼通道图像,并在检测到用户已佩戴双通道眼镜时,若用户的左眼坐标、右眼坐标指示用户的左眼、右眼分别观看左眼通道图像、右眼通道图像,则呈现左眼通道图像的第一运动轨迹、右眼通道图像的第二运动轨迹,进而获取用户的左眼运动轨迹和右眼运动轨迹,之后基于第一运动轨迹、第二运动轨迹、左眼运动轨迹和右眼运动轨迹,生成并呈现用户的眼动视功能检测信息。这一方法无需被测者主观反馈感受,在用户佩戴双通道眼镜观看双通道图像时,客观的获取了被测者的双眼的运动轨迹和双通道图像的运动轨迹,进而生成用户的眼动视功能检测信息并予以呈现,提升了所获取的用于生成用户的眼动视功能检测信息的数据的准确性,进而提升了所生成和呈现的眼动视功能检测信息的准确性。
第二方面,本公开提供了一种基于眼动追踪的视功能检测装置,装置包括:图像呈现模块,用于在第一初始位置点、第二初始位置点分别呈现左眼通道图像、右眼通道图像,第一初始位置点、第二初始位置点沿水平方向左右设置且间隔预设距离;坐标获取模块,用于在检测到用户已佩戴双通道眼镜时,获取用户的左眼坐标、右眼坐标,双通道眼镜的左通道观看左眼通道图像、右通道观看右眼通道图像;轨迹呈现模块,用于在根据左眼坐标、右眼坐标确定用户的左眼、右眼分别观看左眼通道图像、右眼通道图像时,向用户呈现左眼通道图像的第一运动轨迹和右眼通道图像的第二运动轨迹;轨迹获取模块,用于获取用户的左眼运动轨迹、右眼运动轨迹;信息呈现模块,用于基于第一运动轨迹、第二运动轨迹、左眼运动轨迹和右眼运动轨迹,生成并呈现用户的眼动视功能检测信息。
第三方面,本公开提供了一种计算机设备,包括:存储器和处理器,存储器和处理器之间互相通信连接,存储器中存储有计算机指令,处理器通过执行计算机指令,从而执行上述第一方面或其对应的任一实施方式的基于眼动追踪的视功能检测方法。
第四方面,本公开提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机指令,计算机指令用于使计算机执行上述第一方面或其对应的任一实施方式的基于眼动追踪的视功能检测方法。
第五方面,本公开提供了一种计算机程序产品,包括计算机指令,计算机指令用于使计算机执行上述第一方面或其对应的任一实施方式的基于眼动追踪的视功能检测方法。
附图说明
为了更清楚地说明本公开具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本公开的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本公开实施例的基于眼动追踪的视功能检测方法的流程示意图;
图2a是根据本公开实施例的一种生成并呈现用户的眼动视功能检测信息的方法的流程图;
图2b是根据本公开实施例的屏幕中呈现左眼通道图像和右眼通道图像两者的初始位置的示意图;
图2c是根据本公开实施例的屏幕中呈现红色通道图像和蓝色通道图像分别位于对应左眼散开破裂位置点和右眼散开破裂位置点的示意图;
图3a是根据本公开实施例的又一生成并呈现用户的眼动视功能检测信息的方法的流程图;
图3b是根据本公开实施例的屏幕中呈现左眼通道图像和右眼通道图像两者处于初始位置的示意图;
图3c是根据本公开实施例的屏幕中呈现左眼通道图像和右眼通道图像两者重叠的示意图;
图3d是根据本公开实施例的屏幕中呈现左眼通道图像和右眼通道图像分别运动至对应左眼内聚破裂位置点和右眼内聚破裂位置点的示意图;
图4是根据本公开实施例的基于眼动追踪的视功能检测装置的结构框图;
图5是本公开实施例的计算机设备的硬件结构示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
在双眼的视功能检查中,通常需要关注人眼的眼球运动协调能力。
在双眼视功能检查中,通常需要用到同视机,同视机检查的原理是利用两个镜筒将两眼视野分开,左眼看左画片,右眼看右画片,通过凸透镜将物象投射到两眼视网膜的一定位置上,再通过视中枢传导到视皮层进行加工、分析、综合。如果有双眼视觉,便可以将分别来自双眼的物象合二为一,感觉为一个物体,如无双眼视觉,可以借助于同视机面板的刻度了解患者的斜视度,并对其他一些资料进行分析。
然而,采用同视机检测人眼的眼球运动协调能力的方法,依赖于被测者主观反馈的大脑呈现的画像。这些主观感受可能因个体差异、注意力集中程度、疲劳状态等因素而有所变化,从而影响检测结果的准确性和可靠性。因此,如何提升用户的眼动视功能检测结果的准确性,成为亟需解决的问题。
在关注人眼的眼球运动协调能力时,通常需要关注人眼的融像性聚散能力。
在融像性聚散能力的视功能检查中,例如视功能检测中的融像范围检测,通常需要被测者的双眼在注视不同距离物体时,调节眼球的内聚和散开功能,使双眼视网膜上的物像能够重合,从而维持双眼单视的能力。
目前,通常采用三棱镜或棱镜式设备来检测融像性聚散能力。在三棱镜的作用下,人为地引入一定量的基底向内(BI)或基底向外(BO)的棱镜度,使被测者的双眼视网膜上的物像产生水平方向上的分离或聚合,从而诱发双眼的聚散反应。根据被测者对棱镜刺激的响应速度和程度,可以评估其融像性聚散的灵敏度和幅度。
根据本公开实施例,提供了一种基于眼动追踪的视功能检测方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
在本实施例中提供了一种基于眼动追踪的视功能检测方法,可用于上述的计算机系统,如移动终端,如手机、平板电脑等,又或者如固定终端,如台式机、工控机等。图1是根据本公开实施例的基于眼动追踪的视功能检测方法的流程图,如图1所示,该流程包括如下步骤:
步骤S101,在第一初始位置点、第二初始位置点分别呈现左眼通道图像、右眼通道图像,第一初始位置点、第二初始位置点沿水平方向左右设置且间隔预设距离。
在本实施例中,左眼通道图像、右眼通道图像分别为显示于显示屏幕上的、用于供用户左眼、右眼观看的图像,左眼通道图像位于右眼通道图像的左侧。图像的内容可以设定为任意内容,本申请对此不做限定。例如,图像的内容可以为电子静态图像和/或电子动态图像。在一些具体的示例中,图像的内容可以为动物、植物、建筑物、风景、艺术品、文本图像等。
左眼通道图像与右眼通道图像所间隔的预设距离,可以根据实际应用场景或本领域技术人员的经验确定,本申请对此不做限定。在一些具体的示例中,左眼通道图像与右眼通道图像可间隔0~3△(棱镜屈光度,也称为棱镜度)。
可以理解的是,左眼通道图像和右眼通道图像为不同通道的图像即可,本申请对此不做限定。例如,左眼通道图像和右眼通道图像,可以分别为红色通道图像、绿色通道图像;或者分别为绿色通道图像、红色通道图像;或者分别为红色通道图像、蓝色通道图像;或者分别为蓝色通道图像、红色通道图像;或者分别为绿色通道图像、蓝色通道图像;或者分别为蓝色通道图像、绿色通道图像等。
步骤S102,在检测到用户已佩戴双通道眼镜时,获取用户的左眼坐标、右眼坐标。
在本实施例中,双通道眼镜的左通道观看左眼通道图像、右通道观看右眼通道图像。也即,双通道眼镜的左镜、右镜分别与左眼通道图像、右眼通道图像相对应,从而通过左镜仅能观看到左眼通道图像,通过右镜仅能观看到右眼通道图像。
例如,与上述的左眼通道图像和右眼通道图像分别为红色通道图像、绿色通道图像相对应,双通道眼镜可以为绿红眼镜,也即左眼镜片为绿色镜片、右眼镜片为红色镜片。
又例如,与上述的左眼通道图像和右眼通道图像分别为绿色通道图像、红色通道图像相对应,双通道眼镜可以为红绿眼镜,也即左眼镜片为红色镜片、右眼镜片为绿色镜片。
又例如,与上述的左眼通道图像和右眼通道图像分别为红色通道图像、蓝色通道图像相对应,双通道眼镜可以为蓝红眼镜,也即左眼镜片为蓝色镜片、右眼镜片为红色镜片。
又例如,与上述的左眼通道图像和右眼通道图像分别为绿色通道图像、蓝色通道图像相对应,双通道眼镜可以为蓝绿眼镜,也即左眼镜片为蓝色镜片、右眼镜片为绿色镜片。
又例如,与上述的左眼通道图像和右眼通道图像分别为蓝色通道图像、绿色通道图像相对应,双通道眼镜可以为绿蓝眼镜,也即左眼镜片为绿色镜片、右眼镜片为蓝色镜片。
以双通道眼镜为蓝红眼镜为例,左侧眼镜为蓝色镜片,过滤蓝色,因此左眼可以看到的左眼通道图像为红色通道图像;右眼为红色镜片,过滤红色,因此右眼可以看到的右眼通道图像为蓝色通道图像。
在一个具体的示例中,上述执行主体可以连接眼动传感器和摄像头,在眼动传感器检测到用户距离设备屏幕40cm-50cm时,摄像头捕捉用户头部画像,在检测到人脸并识别已佩戴双通道眼镜时,自动启动检查页面,眼动仪开始分别捕捉左右眼位置。
步骤S103,在根据左眼坐标、右眼坐标确定用户的左眼、右眼分别观看左眼通道图像、右眼通道图像时,向用户呈现左眼通道图像的第一运动轨迹和右眼通道图像的第二运动轨迹。
在本实施例中,第一运动轨迹为左眼通道图像进行运动的轨迹;第二运动轨迹为右眼通道图像进行运动的轨迹。第一运动轨迹和第二运动轨迹可以为左眼通道图像和右眼通道图像分别从各自的某个位置向外运动的轨迹;第一运动轨迹和第二运动轨迹也可以为左眼通道图像和右眼通道图像分别从各自的某个位置向内运动的轨迹。
在眼动传感器追踪到用户的左眼坐标、右眼坐标时,上述执行主体在确定左眼坐标、右眼坐标与所注视图像的坐标相符(如相同、平行或距离小于等于预设值)时,确定图像的运动轨迹的起始位置,并预设左眼通道图像、右眼通道图像的下一个坐标位置,以形成第一运动轨迹和第二运动轨迹。
在一些针对眼球追踪能力的具体的示例中,第一运动轨迹和第二运动轨迹可以包括以下两种运动模式:在测眼球的集合功能范围时,左眼看到的图像向右移动,右眼看到的图像向左移动;在测眼球的散开功能范围时,左眼看到的左眼通道图像向左移动,右眼看到的右眼通道图像向右移动。
在一个具体的示例中,可以预设左眼通道图像和右眼通道图像在屏幕中的初始坐标的x,y值,并按预设速度(例如1-2△/s)向不同方向移动,此时可以计算出第一运动轨迹对应的第一方程、第二运动轨迹对应的第二方程。第一方程和第二方程互为沿平行线移动的方程。
步骤S104,获取用户的左眼运动轨迹、右眼运动轨迹。
在本实施例中,上述执行主体可以通过眼动传感器获取用户的左眼运动轨迹、右眼运动轨迹。例如,可以通过固定式眼动追踪设备或移动式、可穿戴眼动追踪设备获取用户的左眼运动轨迹、右眼运动轨迹。
左眼运动轨迹、右眼运动轨迹可以根据眼动传感器返回的双眼的坐标获得。
在一个具体的示例中,眼动传感器返回的坐标可能基于以下设置获得:
预设一个电子屏幕分为9个点位,那么可以设定每个点位的坐标为:
[0.0,0.0][0.5,0.0][1.0,0.0]
[0.0,0.5][0.5,0.5][1.0,0.5]
[0.0,1.0][0.5,1.0][1.0,1.0]
超出屏幕之外记录为负值,如[-1,-1]。
步骤S105,基于第一运动轨迹、第二运动轨迹、左眼运动轨迹和右眼运动轨迹,生成并呈现用户的眼动视功能检测信息。
在本实施例中,视功能检测信息,可以包括对眼球运动协调能力的检测信息。对眼球运动协调能力的检测信息可以是眼球运动对称性信息、眼球运动速度信息等。上述执行主体可以基于第一运动轨迹、第二运动轨迹、左眼运动轨迹和右眼运动轨迹,生成并呈现用户的眼球运动对称性信息和/或眼球运动速度信息。
上述的眼球运动协调能力的检测信息,还可以是眼球追踪能力信息。眼球追踪能力信息可以包括眼球的聚散能力信息。眼球的聚散能力信息又包括:眼球融像性内聚能力信息和眼球融像性散开能力信息。
其中,融像性内聚能力信息,是在不改变眼睛调节状态的情况下,双眼能够向内(鼻侧)转动并聚焦到近处物体的能力的指示信息。融像性散开能力信息,是双眼能够向外(颞侧)转动并适应看远处物体的能力的指示信息。
在检测用户的眼睛融像性内聚能力时,可以将用户双眼看到的图像分别向内侧运动,此时为了维持双眼的单一视像,双眼需要向内转动,此时可以检测眼睛在不改变调节的情况下,能够产生的最大集合量,也即融像性内聚能力信息。
在检测用户的眼睛融像性散开能力时,可以将用户双眼看到的图像分别向外侧运动,此时为了维持双眼的单一视像,双眼需要向外转动,此时可以检测眼睛在不改变调节的情况下,能够产生的最大集合量,也即融像性散开能力信息。
上述执行主体可以首先获取第一运动轨迹、第二运动轨迹两者的相对运动方向,确定左眼运动轨迹、右眼运动轨迹中的异常点,从而确定用户的眼球聚散能力信息。其中,异常点可以包括轨迹波动点、与图像运动轨迹不相符的位置点、与图像运动轨迹相符的位置点等。
例如,若相对运动方向是从第一初始位置点、第二初始位置点分别向外侧运动的相离运动,此时根据左眼运动轨迹、右眼运动轨迹两者中的异常点,可以得到用户的融像性散开能力信息。
备选地或附加地,若相对运动方向是从第一初始位置点、第二初始位置点分别向内侧运动的相向运动,此时根据左眼运动轨迹、右眼运动轨迹两者中的异常点,可以得到用户的融像性内聚能力信息。
本实施例提供的基于眼动追踪的视功能检测方法,通过在第一初始位置点、第二初始位置点分别呈现左眼通道图像、右眼通道图像,并在检测到用户已佩戴双通道眼镜时,若用户的左眼坐标、右眼坐标指示用户的左眼、右眼分别观看左眼通道图像、右眼通道图像,则呈现左眼通道图像的第一运动轨迹、右眼通道图像的第二运动轨迹,进而获取用户的左眼运动轨迹和右眼运动轨迹,之后基于第一运动轨迹、第二运动轨迹、左眼运动轨迹和右眼运动轨迹,生成并呈现用户的眼动视功能检测信息。这一方法无需被测者主观反馈感受,在用户佩戴双通道眼镜观看双通道图像时,客观的获取了被测者的双眼的运动轨迹和双通道图像的运动轨迹,进而生成用户的眼动视功能检测信息并予以呈现,提升了所获取的用于生成用户的眼动视功能检测信息的数据的准确性,进而提升了所生成和呈现的眼动视功能检测信息的准确性。
在上述实施例的一些可选实现方式中,上述基于第一运动轨迹、第二运动轨迹、左眼运动轨迹和右眼运动轨迹,生成并呈现用户的眼动视功能检测信息,还可以采用如图2a所示的呈现用户的眼动视功能检测信息的方法来实现。该呈现用户的眼动视功能检测信息的方法,可用于上述的计算机等执行主体。
请参考图2a,图2a是根据本公开实施例的生成并呈现用户的眼动视功能检测信息的方法的流程图。如图2a所示,该流程包括如下步骤:
步骤S201,在第一运动轨迹、第二运动轨迹分别为从左眼通道图像的初始位置点、右眼通道图像的初始位置点向外运动的运动轨迹时,确定左眼运动轨迹中的波动位置点为左眼散开波动点、右眼运动轨迹中的波动位置点为右眼散开波动点。
在本实施例中,左眼通道图像可以从其初始位置点向屏幕左侧方向以预设速度(例如1-2△/s)移动,同样右眼通道图像可以从其初始位置点向屏幕右侧方向以预设速度(例如1-2△/s)移动,当眼动传感器返回的坐标生成的运动轨迹发生波动时,记录当前图像在屏幕中的坐标值。
图2b是根据本公开实施例的屏幕中呈现左眼通道图像和右眼通道图像两者的初始位置的示意图。如图2b所示,以左眼通道图像和右眼通道图像分别为红色通道图像和蓝色通道图像为例,红色通道图像和蓝色通道图像的初始位置位于屏幕正中心且间隔为2△,模拟棱镜度为-2.0△,视距为432mm,用户佩戴蓝红眼镜观看红色通道图像和蓝色通道图像。
之后,红色通道图像向屏幕左侧方向以预设速度移动,蓝色通道图像向屏幕右侧方向以预设速度移动,当眼动传感器返回的双眼的坐标生成的运动轨迹发生波动时,记录当前图像在屏幕中的坐标值,得到双眼散开波动点。
步骤S202,基于左眼散开波动点、右眼散开波动点,生成融像性散开模糊点信息。
在本实施例中,当用户双眼观看左眼通道图像和右眼通道图像的自身融像性集合使用完之后,开始动用调节性集合,当动用调节性集合的时候就会改变调节性集合,用户双眼看屏幕时的调节性集合改变至用户感觉到左眼通道图像和或右眼通道图像变模糊了,此时对应左眼散开波动点和右眼散开波动点的融像性散开模糊点出现。也即,可以基于左眼散开波动点和右眼散开波动点,生成融像性散开模糊点信息(也即双眼的散开模糊点棱镜值)。
具体地,可以根据以下融像性散开模糊点计算公式,计算融像性散开模糊点信息:
散开模糊点棱镜值=(100/观看距离)×散开模糊点偏移量;
散开模糊点偏移量=散开模糊点横坐标-初始位置点横坐标。
步骤S203,呈现融像性散开模糊点信息。
在本实施例中,上述执行主体可以通过上述屏幕或其他呈现设备(如其他屏幕、扬声器或其他现有技术或未来发展的技术中的呈现设备等),向用户和/或检测人员呈现融像性散开模糊点信息。
本实施例中的呈现用户的眼动视功能检测信息的方法,通过确定左眼散开波动点、右眼散开波动点进而确定融像性散开模糊点信息,之后呈现融像性散开模糊点信息,从而根据客观获取的具有较高准确度的图像运动轨迹和人眼运动轨迹,生成双眼的融像性散开模糊点信息,提升了用户的视功能检测结果中融像性散开模糊点信息的准确性。
在上述图2a所示的实施例的一些可选的实施方式中,上述基于第一运动轨迹、第二运动轨迹、左眼运动轨迹和右眼运动轨迹,生成并呈现用户的眼动视功能检测信息,还包括步骤S204、S205和S206。
步骤S204,在第一运动轨迹、第二运动轨迹分别为从左眼散开模糊位置点、右眼散开模糊位置点向外运动的运动轨迹时,将左眼运动轨迹中与第一运动轨迹不相符的位置点确定为左眼散开破裂位置点,将右眼运动轨迹中与第二运动轨迹不相符的位置点确定为右眼散开破裂位置点。
在本实施方式中,左眼散开模糊位置点为第一运动轨迹中与左眼散开波动点对应的位置点;右眼散开模糊位置点为第二运动轨迹中与右眼散开波动点对应的位置点。
左眼通道图像可以从左眼散开模糊位置点向屏幕左侧方向以预设速度(例如1-2△/s)移动,同样右眼通道图像可以从右眼散开模糊位置点向屏幕右侧方向以预设速度(例如1-2△/s)移动,当眼动传感器返回的坐标生成的运动轨迹与图像的运动轨迹不相符(如不相同、不平行或距离大于预设值等)时,记录当前图像在屏幕中的坐标值,得到左眼散开破裂位置点和右眼散开破裂位置点。
继续以左眼通道图像和右眼通道图像分别为红色通道图像和蓝色通道图像为例,在上述当眼动传感器返回的双眼的坐标生成的运动轨迹发生波动时,记录当前图像在屏幕中的坐标值之后,红色通道图像继续向屏幕左侧方向以预设速度移动,蓝色通道图像继续向屏幕右侧方向以预设速度移动,直至如图2c所示,图2c示出了屏幕中呈现红色通道图像和蓝色通道图像分别位于对应左眼散开破裂位置点和右眼散开破裂位置点的示意图。在图2c中,红色通道图像运动至屏幕左侧,蓝色通道图像运动至屏幕右侧,此时眼动传感器返回的坐标生成的运动轨迹与各自对应的图像完全不同,记录当前图像在屏幕中的坐标值,得到左眼散开破裂位置点和右眼散开破裂位置点。
步骤S205,基于左眼散开破裂位置点、右眼散开破裂位置点,生成融像性散开破裂点信息。
在本实施方式中,从散开模糊位置点到散开破裂位置点之间,用户双眼一直动用的是调节性集合。当调节性集合用尽时,用户感觉到左眼通道图像和右眼通道图像变成两个图像,此时对应于检测到的左眼散开破裂位置点和右眼散开破裂位置点。从而可以基于左眼散开破裂位置点和右眼散开破裂位置点,生成融像性散开破裂点信息。
具体地,可以根据以下融像性散开破裂点计算公式,计算融像性散开破裂点信息:
散开破裂点棱镜值=(100/观看距离)×散开破裂点偏移量;
散开破裂点偏移量=散开破裂点横坐标-初始位置点横坐标。
步骤S206,呈现融像性散开破裂点信息。
在本实施方式中,上述执行主体可以通过上述屏幕或其他呈现设备(如其他屏幕、扬声器或其他现有技术或未来发展的技术中的呈现设备等),向用户和/或检测人员呈现融像性散开破裂点信息。
本实施例方式中的呈现用户的眼动视功能检测信息的方法,通过确定左眼散开破裂位置点、右眼散开破裂位置点进而确定融像性散开破裂点信息,之后呈现融像性散开破裂点信息,从而根据客观获取的具有较高准确度的图像运动轨迹和人眼运动轨迹,生成双眼的融像性散开破裂点信息,提升了用户的视功能检测结果中融像性散开破裂点信息的准确性。
在上述图2a所示的实施例的一些可选的实施方式中,上述基于第一运动轨迹、第二运动轨迹、左眼运动轨迹和右眼运动轨迹,生成并呈现用户的眼动视功能检测信息,还包括步骤S207、S208和S209。
步骤S207,在第一运动轨迹、第二运动轨迹分别为从左眼散开切点、右眼散开切点向内运动时,将左眼运动轨迹中与第一运动轨迹相符的位置点确定为左眼散开恢复位置点,将右眼运动轨迹中与第二运动轨迹相符的位置点确定为右眼散开恢复位置点。
在本实施方式中,左眼散开切点为第一运动轨迹中与左眼散开破裂位置点对应的位置点;右眼散开切点为第二运动轨迹中与右眼散开破裂位置点对应的位置点。
左眼通道图像可以从左眼散开切点向屏幕右侧方向以预设速度(例如1-2△/s)移动,同样右眼通道图像可以从右眼散开切点向屏幕左侧方向以预设速度(例如1-2△/s)移动,当眼动传感器返回的双眼坐标生成的运动轨迹与双通道图像的运动轨迹相符(如相同、平行或距离小于等于预设值)时,记录当前图像在屏幕中的坐标值,得到左眼散开恢复位置点和右眼散开恢复位置点。
以左眼通道图像和右眼通道图像分别为红色通道图像和蓝色通道图像为例,在红色通道图像和蓝色通道图像分别到达左眼散开切点和右眼散开切点时,红色通道图像和蓝色通道图像分别从左眼散开切点和右眼散开切点向图像的初始位置点返回。返回过程中,当眼动传感器返回的双眼坐标生成的运动轨迹与各自对应的图像完全相同时,记录当前图像在屏幕中的坐标值,得到左眼散开恢复位置点和右眼散开恢复位置点。
步骤S208,基于左眼散开恢复位置点、右眼散开恢复位置点,生成融像性散开恢复点信息。
在本实施方式中,可以根据以下融像性散开恢复点计算公式,计算融像性散开恢复点信息:
散开恢复点棱镜值=(100/观看距离)×散开恢复点偏移量;
散开恢复点偏移量=散开恢复点横坐标-初始位置点横坐标。
步骤S209,呈现融像性散开恢复点信息。
在本实施方式中,上述执行主体可以通过上述屏幕或其他呈现设备(如其他屏幕、扬声器或其他现有技术或未来发展的技术中的呈现设备等),向用户和/或检测人员呈现融像性散开恢复点信息。
本实施方式中的呈现用户的眼动视功能检测信息的方法,通过确定左眼散开恢复位置点、右眼散开恢复位置点进而确定融像性散开恢复点信息,之后呈现融像性散开恢复点信息,从而根据客观获取的具有较高准确度的图像运动轨迹和人眼运动轨迹,生成双眼的融像性散开恢复点信息,提升了用户的视功能检测结果中融像性散开恢复点信息的准确性。
在上述实施例的一些可选实现方式中,上述基于第一运动轨迹、第二运动轨迹、左眼运动轨迹和右眼运动轨迹,生成并呈现用户的眼动视功能检测信息,还可以采用如图3a所示的生成并呈现用户的眼动视功能检测信息的方法来实现。该呈现用户的眼动视功能检测信息的方法,可用于上述的计算机等执行主体。
请参考图3a,图3a是根据本公开实施例的又一生成并呈现用户的眼动视功能检测信息的方法的流程图。如图3a所示,该流程包括如下步骤:
步骤S301,在第一运动轨迹、第二运动轨迹分别为从第一初始位置点、第二初始位置点向内运动、经过重叠点后继续向前运动的运动轨迹时,确定左眼运动轨迹中的波动位置点为左眼内聚波动点、右眼运动轨迹中的波动位置点为右眼内聚波动点。
其中,在本实施例中,左眼通道图像可以从其初始位置点向屏幕右侧方向以预设速度(例如1-2△/s)移动,同样右眼通道图像可以从其初始位置点向屏幕左侧方向以预设速度(例如1-2△/s)移动,当眼动传感器返回的坐标生成的运动轨迹发生波动时,记录当前图像在屏幕中的坐标值。
图3b是根据本公开实施例的屏幕中呈现左眼通道图像和右眼通道图像两者的初始位置的示意图。以左眼通道图像和右眼通道图像分别为红色通道图像和蓝色通道图像为例,如图3b所示,红色通道图像和蓝色通道图像的初始位置位于屏幕正中心且间隔为2△。
之后,红色通道图像向屏幕右侧方向以预设速度移动,蓝色通道图像向屏幕左侧方向以预设速度移动,直至如图3c所示,图3c是根据本公开实施例的屏幕中呈现左眼通道图像和右眼通道图像两者重叠的示意图,在图3c中,红色通道图像和蓝色通道图像运动至屏幕中间重合。
之后,红色通道图像向屏幕右侧方向以预设速度移动,蓝色通道图像向屏幕左侧方向以预设速度移动,当眼动传感器返回的双眼的坐标生成的运动轨迹发生波动时,记录当前图像在屏幕中的坐标值,得到双眼内聚波动点。
步骤S302,基于左眼内聚波动点、右眼内聚波动点,生成融像性内聚模糊点信息。
在本实施例中,当用户双眼观看左眼通道图像和右眼通道图像的自身融像性集合使用完之后,开始动用调节性集合,当动用调节性集合的时候就会改变调节性集合,用户双眼看屏幕时的调节性集合改变至用户感觉到左眼通道图像和或右眼通道图像变模糊了,此时对应左眼内聚波动点和右眼内聚波动点的内聚模糊点出现。也即,可以基于左眼内聚波动点和右眼内聚波动点,生成融像性内聚模糊点信息(也即双眼的内聚模糊点棱镜值)。
具体地,可以根据以下融像性内聚模糊点计算公式,计算融像性内聚模糊点信息:
内聚模糊点棱镜值=(100/观看距离)×内聚模糊点偏移量;
内聚模糊点偏移量=内聚模糊点横坐标-初始位置点横坐标。
步骤S303,呈现融像性内聚模糊点信息。
上述执行主体可以通过上述屏幕或其他呈现设备(如其他屏幕、扬声器或其他现有技术或未来发展的技术中的呈现设备等),向用户和/或检测人员呈现融像性内聚模糊点信息。
本实施例中的呈现用户的眼动视功能检测信息的方法,通过确定左眼内聚波动点、右眼内聚波动点进而确定融像性内聚模糊点信息,之后呈现融像性内聚模糊点信息,从而根据客观获取的具有较高准确度的图像运动轨迹和人眼运动轨迹,生成双眼的融像性内聚模糊点信息,提升了用户的视功能检测结果中融像性内聚模糊点信息的准确性。
在上述图3a所示的实施例的一些可选的实施方式中,上述基于第一运动轨迹、第二运动轨迹、左眼运动轨迹和右眼运动轨迹,生成并呈现用户的眼动视功能检测信息,还包括步骤S304、S305和S306。
步骤S304,在第一运动轨迹、第二运动轨迹分别为从左眼内聚模糊位置点、右眼内聚模糊位置点向外运动的运动轨迹时,将左眼运动轨迹中与第一运动轨迹不相符的位置点确定为左眼内聚破裂位置点,将右眼运动轨迹中与第二运动轨迹不相符的位置点确定为右眼内聚破裂位置点。
在本实施方式中,左眼内聚模糊位置点为第一运动轨迹中与左眼内聚波动点对应的位置点;右眼内聚模糊位置点为第二运动轨迹中与右眼内聚波动点对应的位置点。
左眼通道图像可以从左眼内聚模糊位置点向屏幕右侧方向以预设速度(例如1-2△/s)移动,同样右眼通道图像可以从右眼内聚模糊位置点向屏幕左侧方向以预设速度(例如1-2△/s)移动,当眼动传感器返回的坐标生成的运动轨迹与图像的运动轨迹不相符(如不相同、不平行或距离大于预设值等)时,记录当前图像在屏幕中的坐标值,得到左眼内聚破裂位置点和右眼内聚破裂位置点。
继续以左眼通道图像和右眼通道图像分别为红色通道图像和蓝色通道图像为例,在上述当眼动传感器返回的双眼的坐标生成的运动轨迹发生波动时,记录当前图像在屏幕中的坐标值,得到双眼内聚波动点之后,红色通道图像继续向屏幕右侧方向以预设速度移动,蓝色通道图像继续向屏幕左侧方向以预设速度移动,直至如图3d所示,图3d示出了屏幕中呈现左眼通道图像和右眼通道图像分别运动至对应左眼内聚破裂位置点和右眼内聚破裂位置点的示意图。在图3d中,红色通道图像运动至屏幕右侧,蓝色通道图像运动至屏幕左侧,此时眼动传感器返回的双眼的坐标生成的运动轨迹与各自对应的图像的运动轨迹完全不同,记录当前图像在屏幕中的坐标值,得到左眼内聚破裂位置点和右眼内聚破裂位置点。
步骤S305,基于左眼内聚破裂位置点、右眼内聚破裂位置点,生成融像性内聚破裂点信息。
在本实施方式中,从内聚模糊位置点到内聚破裂位置点之间,用户双眼一直动用的是调节性集合。当调节性集合用尽时,用户感觉到左眼通道图像和右眼通道图像变成两个图像,此时对应于检测到的左眼内聚破裂位置点和右眼内聚破裂位置点。从而可以基于左眼内聚破裂位置点和右眼内聚破裂位置点,生成融像性内聚破裂点信息。
具体地,可以根据以下融像性内聚破裂点计算公式,计算融像性内聚破裂点信息:
内聚破裂点棱镜值=(100/观看距离)×内聚破裂点偏移量;
内聚破裂点偏移量=内聚破裂点横坐标-初始位置点横坐标。
步骤S306,呈现融像性内聚破裂点信息。
在本实施方式中,上述执行主体可以通过上述屏幕或其他呈现设备(如其他屏幕、扬声器或其他现有技术或未来发展的技术中的呈现设备等),向用户和/或检测人员呈现融像性内聚破裂点信息。
本实施方式中的呈现用户的眼动视功能检测信息的方法,通过确定左眼内聚破裂位置点、右眼内聚破裂位置点进而确定融像性内聚破裂点信息,之后呈现融像性内聚破裂点信息,从而根据客观获取的具有较高准确度的图像运动轨迹和人眼运动轨迹,生成双眼的融像性内聚破裂点信息,提升了用户的视功能检测结果中融像性内聚破裂点信息的准确性。
在上述图3a所示的实施例的一些可选的实施方式中,上述基于第一运动轨迹、第二运动轨迹、左眼运动轨迹和右眼运动轨迹,生成并呈现用户的眼动视功能检测信息,还包括步骤S307、S308和S309。
步骤S307,在第一运动轨迹、第二运动轨迹分别为从左眼内聚切点、右眼内聚切点向内运动的运动轨迹时,将左眼运动轨迹中与第一运动轨迹相符的位置点确定为左眼内聚恢复位置点,将右眼运动轨迹中与第二运动轨迹相符的位置点确定为右眼内聚恢复位置点。
在本实施方式中,左眼内聚切点为第一运动轨迹中与左眼内聚破裂位置点对应的位置点;右眼内聚切点为第二运动轨迹中与右眼内聚破裂位置点对应的位置点。
左眼通道图像可以从左眼内聚切点向屏幕左侧方向以预设速度(例如1-2△/s)移动,同样右眼通道图像可以从右眼内聚切点向屏幕右侧方向以预设速度(例如1-2△/s)移动,当眼动传感器返回的双眼坐标生成的运动轨迹与双通道图像的运动轨迹相符(如相同、平行或距离小于等于预设值)时,记录当前图像在屏幕中的坐标值,得到左眼内聚恢复位置点和右眼内聚恢复位置点。
以左眼通道图像和右眼通道图像分别为红色通道图像和蓝色通道图像为例,在红色通道图像和蓝色通道图像分别到达左眼内聚切点和右眼内聚切点时,红色通道图像和蓝色通道图像分别从左眼内聚切点和右眼内聚切点向图像的初始位置点返回。返回过程中,当眼动传感器返回的双眼坐标生成的运动轨迹与各自对应的图像完全相同时,记录当前图像在屏幕中的坐标值,得到左眼内聚恢复位置点和右眼内聚恢复位置点。
步骤S308,基于左眼内聚恢复位置点、右眼内聚恢复位置点,生成融像性内聚恢复点信息。
在本实施方式中,可以根据以下融像性内聚恢复点计算公式,计算融像性内聚恢复点信息:
内聚恢复点棱镜值=(100/观看距离)×内聚恢复点偏移量;
内聚恢复点偏移量=内聚恢复点横坐标-初始位置点横坐标。
步骤S309,呈现融像性内聚恢复点信息。
在本实施方式中,上述执行主体可以通过上述屏幕或其他呈现设备(如其他屏幕、扬声器或其他现有技术或未来发展的技术中的呈现设备等),向用户和/或检测人员呈现融像性内聚恢复点信息。
本实施方式中的呈现用户的眼动视功能检测信息的方法,通过确定左眼内聚恢复位置点、右眼内聚恢复位置点进而确定融像性内聚恢复点信息,之后呈现融像性内聚恢复点信息,从而根据客观获取的具有较高准确度的图像运动轨迹和人眼运动轨迹,生成双眼的融像性内聚恢复点信息,提升了用户的视功能检测结果中融像性内聚恢复点信息的准确性。
在本实施例中还提供了一种基于眼动追踪的视功能检测装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
本实施例提供一种基于眼动追踪的视功能检测装置,如图4所示,包括:
图像呈现模块401,用于在第一初始位置点、第二初始位置点分别呈现左眼通道图像、右眼通道图像,第一初始位置点、第二初始位置点沿水平方向左右设置且间隔预设距离;
坐标获取模块402,用于在检测到用户已佩戴双通道眼镜时,获取用户的左眼坐标、右眼坐标,双通道眼镜的左通道观看左眼通道图像、右通道观看右眼通道图像;
轨迹呈现模块403,用于在根据左眼坐标、右眼坐标确定用户的左眼、右眼分别观看左眼通道图像、右眼通道图像时,向用户呈现左眼通道图像的第一运动轨迹和右眼通道图像的第二运动轨迹;
轨迹获取模块404,用于获取用户的左眼运动轨迹、右眼运动轨迹;
信息呈现模块405,用于基于第一运动轨迹、第二运动轨迹、左眼运动轨迹和右眼运动轨迹,生成并呈现用户的眼动视功能检测信息。
在本装置的一些可选实施方式中,信息呈现模块405包括:
散开波动点确定单元,用于在第一运动轨迹、第二运动轨迹分别为从第一初始位置点、第二初始位置点向外运动的运动轨迹时,确定左眼运动轨迹中的波动位置点为左眼散开波动点、右眼运动轨迹中的波动位置点为右眼散开波动点;
散开模糊点信息生成单元,用于基于左眼散开波动点、右眼散开波动点,生成融像性散开模糊点信息;
散开模糊点信息呈现单元,用于呈现融像性散开模糊点信息。
在本装置的一些可选实施方式中,信息呈现模块405包括:
散开破裂位置点确定单元,用于在第一运动轨迹、第二运动轨迹分别为从左眼散开模糊位置点、右眼散开模糊位置点向外运动的运动轨迹时,将左眼运动轨迹中与第一运动轨迹不相符的位置点确定为左眼散开破裂位置点,将右眼运动轨迹中与第二运动轨迹不相符的位置点确定为右眼散开破裂位置点;其中,左眼散开模糊位置点为第一运动轨迹中与左眼散开波动点对应的位置点;右眼散开模糊位置点为第二运动轨迹中与右眼散开波动点对应的位置点;
散开破裂点信息生成单元,用于基于左眼散开破裂位置点、右眼散开破裂位置点,生成融像性散开破裂点信息;
散开破裂点信息呈现单元,用于呈现融像性散开破裂点信息。
在本装置的一些可选实施方式中,信息呈现模块405包括:
散开恢复位置点确定单元,用于在第一运动轨迹、第二运动轨迹分别为从左眼散开切点、右眼散开切点向内运动时,将左眼运动轨迹中与第一运动轨迹相符的位置点确定为左眼散开恢复位置点,将右眼运动轨迹中与第二运动轨迹相符的位置点确定为右眼散开恢复位置点;其中,左眼散开切点为第一运动轨迹中与左眼散开破裂位置点对应的位置点;右眼散开切点为第二运动轨迹中与右眼散开破裂位置点对应的位置点;
散开恢复点信息生成单元,用于基于左眼散开恢复位置点、右眼散开恢复位置点,生成融像性散开恢复点信息;
散开恢复点信息呈现单元,用于呈现融像性散开恢复点信息。
在本装置的一些可选实施方式中,信息呈现模块405包括:
内聚波动点确定单元,用于在第一运动轨迹、第二运动轨迹分别为从第一初始位置点、第二初始位置点向内运动、经过重叠点后继续向前运动的运动轨迹时,确定左眼运动轨迹中的波动位置点为左眼内聚波动点、右眼运动轨迹中的波动位置点为右眼内聚波动点;
内聚模糊点信息生成单元,用于基于左眼内聚波动点、右眼内聚波动点,生成融像性内聚模糊点信息;
内聚模糊点信息呈现单元,用于呈现融像性内聚模糊点信息。
在本装置的一些可选实施方式中,信息呈现模块405包括:
内聚破裂位置点确定单元,用于在第一运动轨迹、第二运动轨迹分别为从左眼内聚模糊位置点、右眼内聚模糊位置点向外运动的运动轨迹时,将左眼运动轨迹中与第一运动轨迹不相符的位置点确定为左眼内聚破裂位置点,将右眼运动轨迹中与第二运动轨迹不相符的位置点确定为右眼内聚破裂位置点;
其中,左眼内聚模糊位置点为第一运动轨迹中与左眼内聚波动点对应的位置点;右眼内聚模糊位置点为第二运动轨迹中与右眼内聚波动点对应的位置点;
内聚破裂点信息生成单元,用于基于左眼内聚破裂位置点、右眼内聚破裂位置点,生成融像性内聚破裂点信息;
内聚破裂点信息呈现单元,用于呈现融像性内聚破裂点信息。
在本装置的一些可选实施方式中,信息呈现模块405包括:
内聚恢复位置点确定单元,用于在第一运动轨迹、第二运动轨迹分别为从左眼内聚切点、右眼内聚切点向内运动的运动轨迹时,将左眼运动轨迹中与第一运动轨迹相符的位置点确定为左眼内聚恢复位置点,将右眼运动轨迹中与第二运动轨迹相符的位置点确定为右眼内聚恢复位置点;其中,左眼内聚切点为第一运动轨迹中与左眼内聚破裂位置点对应的位置点;右眼内聚切点为第二运动轨迹中与右眼内聚破裂位置点对应的位置点;
内聚恢复点信息生成单元,用于基于左眼内聚恢复位置点、右眼内聚恢复位置点,生成融像性内聚恢复点信息;
内聚恢复点信息呈现单元,用于呈现融像性内聚恢复点信息。
在本装置的一些可选实施方式中,坐标获取模块402所获取的双通道眼镜包括以下任意一项:红蓝眼镜、蓝红眼镜、红绿眼镜、绿红眼镜、蓝绿眼镜和绿蓝眼镜。
上述各个模块和单元的更进一步的功能描述与上述对应实施例相同,在此不再赘述。
本实施例中的基于眼动追踪的视功能检测装置是以功能单元的形式来呈现,这里的单元是指ASIC(Application Specific Integrated Circuit,专用集成电路)电路,执行一个或多个软件或固定程序的处理器和存储器,和/或其他可以提供上述功能的器件。
请参阅图5,图5是本公开可选实施例提供的一种计算机设备的结构示意图,该计算机设备包括:一个或多个处理器10、存储器20,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相通信连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在计算机设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在一些可选的实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个计算机设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。
处理器10可以是中央处理器,网络处理器或其组合。其中,处理器10还可以进一步包括硬件芯片。上述硬件芯片可以是专用集成电路,可编程逻辑器件或其组合。上述可编程逻辑器件可以是复杂可编程逻辑器件,现场可编程逻辑门阵列,通用阵列逻辑或其任意组合。
其中,所述存储器20存储有可由至少一个处理器10执行的指令,以使所述至少一个处理器10执行实现上述实施例示出的方法。
存储器20可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据计算机设备的使用所创建的数据等。此外,存储器20可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些可选的实施方式中,存储器20可选包括相对于处理器10远程设置的存储器,这些远程存储器可以通过网络连接至该计算机设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
存储器20可以包括易失性存储器,例如,随机存取存储器;存储器也可以包括非易失性存储器,例如,快闪存储器,硬盘或固态硬盘;存储器20还可以包括上述种类的存储器的组合。
该计算机设备还包括输入装置30和输出装置40。处理器10、存储器20、输入装置30和输出装置40可以通过总线或者其他方式连接。
输入装置30可接收输入的数字或字符信息,以及产生与该计算机设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等。输出装置40可以包括显示设备、辅助照明装置(例如,LCD)和触觉反馈装置(例如,振动电机)等。上述显示设备包括但不限于液晶显示器,发光二极管,显示器和等离子体显示器。在一些可选的实施方式中,显示设备可以是触摸屏。
本公开实施例还提供了一种计算机可读存储介质,上述根据本公开实施例的方法可在硬件、固件中实现,或者被实现为可记录在存储介质,或者被实现通过网络下载的原始存储在远程存储介质或非暂时机器可读存储介质中并将被存储在本地存储介质中的计算机代码,从而在此描述的方法可被存储在使用通用计算机、专用处理器或者可编程或专用硬件的存储介质上的这样的软件处理。其中,存储介质可为磁碟、光盘、只读存储记忆体、随机存储记忆体、快闪存储器、硬盘或固态硬盘等;进一步地,存储介质还可以包括上述种类的存储器的组合。可以理解,计算机、处理器、微处理器控制器或可编程硬件包括可存储或接收软件或计算机代码的存储组件,当软件或计算机代码被计算机、处理器或硬件访问且执行时,实现上述实施例示出的方法。
本公开的一部分可被应用为计算机程序产品,例如计算机程序指令,当其被计算机执行时,通过该计算机的操作,可以调用或提供根据本公开的方法和/或技术方案。本领域技术人员应能理解,计算机程序指令在计算机可读介质中的存在形式包括但不限于源文件、可执行文件、安装包文件等,相应地,计算机程序指令被计算机执行的方式包括但不限于:该计算机直接执行该指令,或者该计算机编译该指令后再执行对应的编译后程序,或者该计算机读取并执行该指令,或者该计算机读取并安装该指令后再执行对应的安装后程序。在此,计算机可读介质可以是可供计算机访问的任意可用的计算机可读存储介质或通信介质。
虽然结合附图描述了本公开的实施例,但是本领域技术人员可以在不脱离本公开的精神和范围的情况下做出各种修改和变型,这样的修改和变型均落入由所附权利要求所限定的范围之内。
Claims (18)
1.一种基于眼动追踪的视功能检测方法,其特征在于,所述方法包括:
在第一初始位置点、第二初始位置点分别呈现左眼通道图像、右眼通道图像,所述第一初始位置点、所述第二初始位置点沿水平方向左右设置且间隔预设距离;
在检测到用户已佩戴双通道眼镜时,获取所述用户的左眼坐标、右眼坐标,所述双通道眼镜的左通道观看所述左眼通道图像、右通道观看所述右眼通道图像;
在根据所述左眼坐标、所述右眼坐标确定所述用户的左眼、右眼分别观看所述左眼通道图像、所述右眼通道图像时,向用户呈现所述左眼通道图像的第一运动轨迹和所述右眼通道图像的第二运动轨迹;
获取所述用户的左眼运动轨迹、右眼运动轨迹;
基于所述第一运动轨迹、所述第二运动轨迹、所述左眼运动轨迹和所述右眼运动轨迹,生成并呈现所述用户的眼动视功能检测信息。
2.根据权利要求1所述的方法,其特征在于,所述基于所述第一运动轨迹、所述第二运动轨迹、所述左眼运动轨迹和所述右眼运动轨迹,生成并呈现所述用户的眼动视功能检测信息,包括:
在所述第一运动轨迹、所述第二运动轨迹分别为从所述第一初始位置点、所述第二初始位置点向外运动的运动轨迹时,确定所述左眼运动轨迹中的波动位置点为左眼散开波动点、所述右眼运动轨迹中的波动位置点为右眼散开波动点;
基于所述左眼散开波动点、所述右眼散开波动点,生成融像性散开模糊点信息;
呈现所述融像性散开模糊点信息。
3.根据权利要求2所述的方法,其特征在于,所述基于所述第一运动轨迹、所述第二运动轨迹、所述左眼运动轨迹和所述右眼运动轨迹,生成并呈现所述用户的眼动视功能检测信息,还包括:
在所述第一运动轨迹、所述第二运动轨迹分别为从左眼散开模糊位置点、右眼散开模糊位置点向外运动的运动轨迹时,将所述左眼运动轨迹中与所述第一运动轨迹不相符的位置点确定为左眼散开破裂位置点,将所述右眼运动轨迹中与所述第二运动轨迹不相符的位置点确定为右眼散开破裂位置点;
其中,所述左眼散开模糊位置点为所述第一运动轨迹中与所述左眼散开波动点对应的位置点;所述右眼散开模糊位置点为所述第二运动轨迹中与所述右眼散开波动点对应的位置点;
基于所述左眼散开破裂位置点、所述右眼散开破裂位置点,生成融像性散开破裂点信息;
呈现所述融像性散开破裂点信息。
4.根据权利要求1所述的方法,其特征在于,所述基于所述第一运动轨迹、所述第二运动轨迹、所述左眼运动轨迹和所述右眼运动轨迹,生成并呈现所述用户的眼动视功能检测信息,包括:
在所述第一运动轨迹、所述第二运动轨迹分别为从左眼散开切点、右眼散开切点向内运动时,将所述左眼运动轨迹中与所述第一运动轨迹相符的位置点确定为左眼散开恢复位置点,将所述右眼运动轨迹中与所述第二运动轨迹相符的位置点确定为右眼散开恢复位置点;
其中,所述左眼散开切点为所述第一运动轨迹中与所述左眼散开破裂位置点对应的位置点;所述右眼散开切点为所述第二运动轨迹中与所述右眼散开破裂位置点对应的位置点;
基于所述左眼散开恢复位置点、所述右眼散开恢复位置点,生成融像性散开恢复点信息;
呈现所述融像性散开恢复点信息。
5.根据权利要求1所述的方法,其特征在于,所述基于所述第一运动轨迹、所述第二运动轨迹、所述左眼运动轨迹和所述右眼运动轨迹,生成并呈现所述用户的眼动视功能检测信息,包括:
在所述第一运动轨迹、所述第二运动轨迹分别为从所述第一初始位置点、所述第二初始位置点向内运动、经过重叠点后继续向前运动的运动轨迹时,确定所述左眼运动轨迹中的波动位置点为左眼内聚波动点、所述右眼运动轨迹中的波动位置点为右眼内聚波动点;
基于所述左眼内聚波动点、所述右眼内聚波动点,生成融像性内聚模糊点信息;
呈现所述融像性内聚模糊点信息。
6.根据权利要求5所述的方法,其特征在于,所述基于所述第一运动轨迹、所述第二运动轨迹、所述左眼运动轨迹和所述右眼运动轨迹,生成并呈现所述用户的眼动视功能检测信息,包括:
在所述第一运动轨迹、所述第二运动轨迹分别为从左眼内聚模糊位置点、右眼内聚模糊位置点向外运动的运动轨迹时,将所述左眼运动轨迹中与所述第一运动轨迹不相符的位置点确定为左眼内聚破裂位置点,将所述右眼运动轨迹中与所述第二运动轨迹不相符的位置点确定为右眼内聚破裂位置点;
其中,所述左眼内聚模糊位置点为所述第一运动轨迹中与所述左眼内聚波动点对应的位置点;所述右眼内聚模糊位置点为所述第二运动轨迹中与所述右眼内聚波动点对应的位置点;
基于所述左眼内聚破裂位置点、所述右眼内聚破裂位置点,生成融像性内聚破裂点信息;
呈现所述融像性内聚破裂点信息。
7.根据权利要求6所述的方法,其特征在于,所述基于所述第一运动轨迹、所述第二运动轨迹、所述左眼运动轨迹和所述右眼运动轨迹,生成并呈现所述用户的眼动视功能检测信息,包括:
在所述第一运动轨迹、所述第二运动轨迹分别为从左眼内聚切点、右眼内聚切点向内运动的运动轨迹时,将所述左眼运动轨迹中与所述第一运动轨迹相符的位置点确定为左眼内聚恢复位置点,将所述右眼运动轨迹中与所述第二运动轨迹相符的位置点确定为右眼内聚恢复位置点;
其中,所述左眼内聚切点为所述第一运动轨迹中与所述左眼内聚破裂位置点对应的位置点;所述右眼内聚切点为所述第二运动轨迹中与所述右眼内聚破裂位置点对应的位置点;
基于所述左眼内聚恢复位置点、所述右眼内聚恢复位置点,生成融像性内聚恢复点信息;
呈现所述融像性内聚恢复点信息。
8.根据权利要求1所述的方法,其特征在于,所述双通道眼镜包括以下任意一项:红蓝眼镜、蓝红眼镜、红绿眼镜、绿红眼镜、蓝绿眼镜和绿蓝眼镜。
9.一种基于眼动追踪的视功能检测装置,其特征在于,所述装置包括:
图像呈现模块,用于在第一初始位置点、第二初始位置点分别呈现左眼通道图像、右眼通道图像,所述第一初始位置点、所述第二初始位置点沿水平方向左右设置且间隔预设距离;
坐标获取模块,用于在检测到用户已佩戴双通道眼镜时,获取所述用户的左眼坐标、右眼坐标,所述双通道眼镜的左通道观看所述左眼通道图像、右通道观看所述右眼通道图像;
轨迹呈现模块,用于在根据所述左眼坐标、所述右眼坐标确定所述用户的左眼、右眼分别观看所述左眼通道图像、所述右眼通道图像时,向用户呈现所述左眼通道图像的第一运动轨迹和所述右眼通道图像的第二运动轨迹;
轨迹获取模块,用于获取所述用户的左眼运动轨迹、右眼运动轨迹;
信息呈现模块,用于基于所述第一运动轨迹、所述第二运动轨迹、所述左眼运动轨迹和所述右眼运动轨迹,生成并呈现所述用户的眼动视功能检测信息。
10.根据权利要求9所述的装置,其特征在于,所述信息呈现模块包括:
散开波动点确定单元,用于在所述第一运动轨迹、所述第二运动轨迹分别为从所述第一初始位置点、所述第二初始位置点向外运动的运动轨迹时,确定所述左眼运动轨迹中的波动位置点为左眼散开波动点、所述右眼运动轨迹中的波动位置点为右眼散开波动点;
散开模糊点信息生成单元,用于基于所述左眼散开波动点、所述右眼散开波动点,生成融像性散开模糊点信息;
散开模糊点信息呈现单元,用于呈现所述融像性散开模糊点信息。
11.根据权利要求10所述的装置,其特征在于,所述信息呈现模块包括:
散开破裂位置点确定单元,用于在所述第一运动轨迹、所述第二运动轨迹分别为从左眼散开模糊位置点、右眼散开模糊位置点向外运动的运动轨迹时,将所述左眼运动轨迹中与所述第一运动轨迹不相符的位置点确定为左眼散开破裂位置点,将所述右眼运动轨迹中与所述第二运动轨迹不相符的位置点确定为右眼散开破裂位置点;其中,所述左眼散开模糊位置点为所述第一运动轨迹中与所述左眼散开波动点对应的位置点;所述右眼散开模糊位置点为所述第二运动轨迹中与所述右眼散开波动点对应的位置点;
散开破裂点信息生成单元,用于基于所述左眼散开破裂位置点、所述右眼散开破裂位置点,生成融像性散开破裂点信息;
散开破裂点信息呈现单元,用于呈现所述融像性散开破裂点信息。
12.根据权利要求11所述的装置,其特征在于,所述信息呈现模块包括:
散开恢复位置点确定单元,用于在所述第一运动轨迹、所述第二运动轨迹分别为从左眼散开切点、右眼散开切点向内运动时,将所述左眼运动轨迹中与所述第一运动轨迹相符的位置点确定为左眼散开恢复位置点,将所述右眼运动轨迹中与所述第二运动轨迹相符的位置点确定为右眼散开恢复位置点;其中,所述左眼散开切点为所述第一运动轨迹中与所述左眼散开破裂位置点对应的位置点;所述右眼散开切点为所述第二运动轨迹中与所述右眼散开破裂位置点对应的位置点;
散开恢复点信息生成单元,用于基于所述左眼散开恢复位置点、所述右眼散开恢复位置点,生成融像性散开恢复点信息;
散开恢复点信息呈现单元,用于呈现所述融像性散开恢复点信息。
13.根据权利要求9所述的装置,其特征在于,所述信息呈现模块包括:
内聚波动点确定单元,用于在所述第一运动轨迹、所述第二运动轨迹分别为从所述第一初始位置点、所述第二初始位置点向内运动、经过重叠点后继续向前运动的运动轨迹时,确定所述左眼运动轨迹中的波动位置点为左眼内聚波动点、所述右眼运动轨迹中的波动位置点为右眼内聚波动点;
内聚模糊点信息生成单元,用于基于所述左眼内聚波动点、所述右眼内聚波动点,生成融像性内聚模糊点信息;
内聚模糊点信息呈现单元,用于呈现所述融像性内聚模糊点信息。
14.根据权利要求13所述的装置,其特征在于,所述信息呈现模块包括:
内聚破裂位置点确定单元,用于在所述第一运动轨迹、所述第二运动轨迹分别为从左眼内聚模糊位置点、右眼内聚模糊位置点向外运动的运动轨迹时,将所述左眼运动轨迹中与所述第一运动轨迹不相符的位置点确定为左眼内聚破裂位置点,将所述右眼运动轨迹中与所述第二运动轨迹不相符的位置点确定为右眼内聚破裂位置点;其中,所述左眼内聚模糊位置点为所述第一运动轨迹中与所述左眼内聚波动点对应的位置点;所述右眼内聚模糊位置点为所述第二运动轨迹中与所述右眼内聚波动点对应的位置点;
内聚破裂点信息生成单元,用于基于所述左眼内聚破裂位置点、所述右眼内聚破裂位置点,生成融像性内聚破裂点信息;
内聚破裂点信息呈现单元,用于呈现所述融像性内聚破裂点信息。
15.根据权利要求14所述的装置,其特征在于,所述信息呈现模块包括:
内聚恢复位置点确定单元,用于在所述第一运动轨迹、所述第二运动轨迹分别为从左眼内聚切点、右眼内聚切点向内运动的运动轨迹时,将所述左眼运动轨迹中与所述第一运动轨迹相符的位置点确定为左眼内聚恢复位置点,将所述右眼运动轨迹中与所述第二运动轨迹相符的位置点确定为右眼内聚恢复位置点;其中,所述左眼内聚切点为所述第一运动轨迹中与所述左眼内聚破裂位置点对应的位置点;所述右眼内聚切点为所述第二运动轨迹中与所述右眼内聚破裂位置点对应的位置点;
内聚恢复点信息生成单元,用于基于所述左眼内聚恢复位置点、所述右眼内聚恢复位置点,生成融像性内聚恢复点信息;
内聚恢复点信息呈现单元,用于呈现所述融像性内聚恢复点信息。
16.根据权利要求9所述的装置,其特征在于,所述坐标获取模块所获取的所述双通道眼镜包括以下任意一项:红蓝眼镜、蓝红眼镜、红绿眼镜、绿红眼镜、蓝绿眼镜和绿蓝眼镜。
17.一种计算机设备,其特征在于,包括:
存储器和处理器,所述存储器和所述处理器之间互相通信连接,所述存储器中存储有计算机指令,所述处理器通过执行所述计算机指令,从而执行权利要求1至8中任一项所述的基于眼动追踪的视功能检测方法。
18.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机指令,所述计算机指令用于使计算机执行权利要求1至8中任一项所述的基于眼动追踪的视功能检测方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202411107379.6A CN118986267A (zh) | 2024-08-13 | 2024-08-13 | 基于眼动追踪的视功能检查方法和装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202411107379.6A CN118986267A (zh) | 2024-08-13 | 2024-08-13 | 基于眼动追踪的视功能检查方法和装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN118986267A true CN118986267A (zh) | 2024-11-22 |
Family
ID=93483957
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202411107379.6A Pending CN118986267A (zh) | 2024-08-13 | 2024-08-13 | 基于眼动追踪的视功能检查方法和装置 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN118986267A (zh) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012095694A (ja) * | 2010-10-29 | 2012-05-24 | Hoya Corp | 両眼視機能測定方法、両眼視機能測定プログラム、眼鏡レンズの設計方法、及び眼鏡レンズの製造方法 |
| US20190082954A1 (en) * | 2016-02-22 | 2019-03-21 | Neuro Kinetics, Inc. | Objective Testing of Vergence Dysfunction for Diagnosis and Vergence Recovery Convalescence Using Dynamic Vergence Testing Platform Including 3D Head Mounted Display System with Integrated Eye Tracking Technology |
| US11023042B1 (en) * | 2020-03-10 | 2021-06-01 | Korea Advanced Institute Of Science And Technology | Method for inputting gaze for display and devices performing the same |
| CN114302668A (zh) * | 2019-09-30 | 2022-04-08 | 豪雅镜片泰国有限公司 | 双眼视功能测定方法、双眼视功能测定程序、眼镜镜片的设计方法、眼镜镜片的制造方法以及双眼视功能测定系统 |
| CN116509694A (zh) * | 2023-04-23 | 2023-08-01 | 广州视景医疗软件有限公司 | 一种眼球平滑聚散训练方法及装置 |
-
2024
- 2024-08-13 CN CN202411107379.6A patent/CN118986267A/zh active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012095694A (ja) * | 2010-10-29 | 2012-05-24 | Hoya Corp | 両眼視機能測定方法、両眼視機能測定プログラム、眼鏡レンズの設計方法、及び眼鏡レンズの製造方法 |
| US20190082954A1 (en) * | 2016-02-22 | 2019-03-21 | Neuro Kinetics, Inc. | Objective Testing of Vergence Dysfunction for Diagnosis and Vergence Recovery Convalescence Using Dynamic Vergence Testing Platform Including 3D Head Mounted Display System with Integrated Eye Tracking Technology |
| CN114302668A (zh) * | 2019-09-30 | 2022-04-08 | 豪雅镜片泰国有限公司 | 双眼视功能测定方法、双眼视功能测定程序、眼镜镜片的设计方法、眼镜镜片的制造方法以及双眼视功能测定系统 |
| US20220257110A1 (en) * | 2019-09-30 | 2022-08-18 | Hoya Lens Thailand Ltd. | Binocular visual function measurement method, binocular visual function measurement program, eyeglass lens designing method, eyeglass lens manufacturing method, and binocular visual function measurement system |
| US11023042B1 (en) * | 2020-03-10 | 2021-06-01 | Korea Advanced Institute Of Science And Technology | Method for inputting gaze for display and devices performing the same |
| CN116509694A (zh) * | 2023-04-23 | 2023-08-01 | 广州视景医疗软件有限公司 | 一种眼球平滑聚散训练方法及装置 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN114730094B (zh) | 具有人工现实内容的变焦显示的人工现实系统 | |
| US9400554B2 (en) | Information display system including transmission type HMD, non-transitory computer-readable storage medium and display control method | |
| EP3195595B1 (en) | Technologies for adjusting a perspective of a captured image for display | |
| US10395510B2 (en) | Reminding method and reminding device | |
| JP6454851B2 (ja) | 3次元上の注視点の位置特定アルゴリズム | |
| WO2019070465A1 (en) | CORRECTION AND REPROJECTION OF IPD FOR A PRECISE PLACEMENT OF OBJECT OF MIXED REALITY | |
| CN107515474B (zh) | 自动立体显示方法、装置及立体显示设备 | |
| US12299192B2 (en) | Visual assistance | |
| Rokers et al. | Systematic misperceptions of 3-D motion explained by Bayesian inference | |
| CN113170090A (zh) | 头戴式显示装置 | |
| WO2021034527A1 (en) | Pupil assessment using modulated on-axis illumination | |
| CN106708249B (zh) | 交互方法、交互装置及用户设备 | |
| CN107065190B (zh) | 一种在vr设备上显示信息的方法、装置及vr设备 | |
| Gruenefeld et al. | Behind the scenes: Comparing x-ray visualization techniques in head-mounted optical see-through augmented reality | |
| Khuu et al. | The perception of three-dimensional cast-shadow structure is dependent on visual awareness | |
| CN118986267A (zh) | 基于眼动追踪的视功能检查方法和装置 | |
| CN113940622A (zh) | 视觉融合交叉角测定方法、装置及存储介质 | |
| JP2015046111A (ja) | 視点検出装置および視点検出方法 | |
| WO2020031949A1 (ja) | 情報処理装置、情報処理システム、情報処理方法、および、コンピュータプログラム | |
| JP7663947B2 (ja) | 視覚情報補正装置、視覚情報補正方法、及びプログラム | |
| CN105785749B (zh) | 一种显示方法及电子设备 | |
| KR20240040727A (ko) | 광학 제품 시뮬레이션 방법 | |
| WO2020059357A1 (ja) | 表示装置、表示制御方法、及び表示制御プログラム | |
| JPWO2017179280A1 (ja) | 視線測定装置および視線測定方法 | |
| CN113132642A (zh) | 图像显示的方法及装置、电子设备 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination |