CN116807388A - 基于眼动追踪的主导眼检测方法、装置、终端设备和介质 - Google Patents
基于眼动追踪的主导眼检测方法、装置、终端设备和介质 Download PDFInfo
- Publication number
- CN116807388A CN116807388A CN202310742249.9A CN202310742249A CN116807388A CN 116807388 A CN116807388 A CN 116807388A CN 202310742249 A CN202310742249 A CN 202310742249A CN 116807388 A CN116807388 A CN 116807388A
- Authority
- CN
- China
- Prior art keywords
- subject
- virtual camera
- eye
- ray
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 69
- 230000004424 eye movement Effects 0.000 title claims abstract description 9
- 238000000034 method Methods 0.000 claims abstract description 14
- 238000004590 computer program Methods 0.000 claims description 21
- 230000000007 visual effect Effects 0.000 claims description 7
- 230000004438 eyesight Effects 0.000 claims description 4
- 210000001747 pupil Anatomy 0.000 claims description 4
- 238000004088 simulation Methods 0.000 claims description 4
- 230000004456 color vision Effects 0.000 abstract description 5
- 230000000694 effects Effects 0.000 abstract description 5
- 238000012360 testing method Methods 0.000 abstract description 5
- 238000005259 measurement Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 4
- 230000002207 retinal effect Effects 0.000 description 4
- 230000035945 sensitivity Effects 0.000 description 4
- 239000011324 bead Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Ophthalmology & Optometry (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明提供了一种基于眼动追踪的主导眼检测方法、装置、终端设备和介质,方法包括:通过在VR设备中的第一虚拟摄像机和第二虚拟摄像机模拟受试者双眼观察的信息;每隔第一预设时间,生成若干第一目标物和第二目标物;通过眼动追踪系统的API接口实时获取第一虚拟摄像机对应的第一射线和第二虚拟摄像机对应的第二射线;并通过统计所有时间段内所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,确定受试者的主导眼。相比于现有技术,不依赖受试者对颜色的判断,并且避免了不同用户的色觉等因素之间的区别对测试结果的影响,从而提高了检测效果的稳定性和测量结果的准确性。
Description
技术领域
本发明涉及主导眼检测技术领域,尤其涉及一种基于眼动追踪的主导眼检测方法、装置、终端设备和计算机可读存储介质。
背景技术
虚拟现实(Virtual Reality,简称VR)技术又可以译为临境、灵境等。其综合了计算机图形、多媒体、人机交互、网络、立体显示以及仿真等多门学科。并且,其特点在于,通过模仿的方式,为用户创造一种虚拟的环境,通过视、听、触等感知行为使得用户产生一种沉浸于虚拟环境的感觉,并与虚拟环境相互作用从而引起虚拟环境的实时变化。
主导眼是双眼中的一只占据优势的眼,其是定位、引起融合的主要负担眼。现有技术存在通过虚拟现实(Virtual Reality,简称VR)来确定主导眼的技术方案。现有技术在采用虚拟现实技术实现主导眼的检测时,其主要模拟“Worth四点法”的原理,具体地:首先提供四个圆,底部圆在左眼中呈现的是绿色,在右眼呈现的则是红色,两只眼睛共同注视下若呈现绿色则左眼为主导眼,否则右眼就是主导眼。但是,这种技术方案依赖受试者对颜色的判断,并且考虑到不同用户的色觉、两眼视网膜敏感度等因素之间的差别,也可能会导致检测结果的差异,影响检测效果的稳定性以及检测结果的准确性。
发明内容
本发明提供了一种基于眼动追踪的主导眼检测方法、装置、终端设备和计算机可读存储介质,以解决现有技术检测效果稳定性差的技术问题,提高了检测结果的准确性。
为了解决上述技术问题,本发明实施例提供了一种基于眼动追踪的主导眼检测方法,包括:
通过在VR设备中的第一虚拟摄像机和第二虚拟摄像机模拟受试者双眼观察的信息;其中,所述第一虚拟摄像机和第二虚拟摄像机分别对应受试者的左眼和右眼;
每隔第一预设时间,在所述第一虚拟摄像机前方生成若干第一目标物,在所述第二虚拟摄像机前方生成若干第二目标物;其中,所述第一目标物和所述第二目标物数量相等;每次生成第一目标物和第二目标物的持续时间为第二预设时间;所述第一预设时间大于等于所述第二预设时间;
通过眼动追踪系统的API接口实时获取第一虚拟摄像机对应的第一射线和第二虚拟摄像机对应的第二射线;并通过统计所有时间段内所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,确定所述受试者的主导眼。
作为优选方案,所述通过统计所有时间段内所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,确定所述受试者的主导眼,具体为:
在所述所有时间段内所述第一射线与所述第一目标物的碰撞次数为a1,所述第二射线与所述第二目标物的碰撞次数为a2;或者,
在所述所有时间段内所述第一射线与所述第一目标物的碰撞次数为a2,所述第二射线与所述第二目标物的碰撞次数为a1
根据所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,计算a2对应眼可见目标物的注视数量占比ratio:
ratio=a2/(a1+a2)×100%;
当ratio大于60%时,判断所述受试者的主导眼为a2对应眼,当ratio小于40%时,则判断所述受试者的主导眼为a1对应眼;当ratio大于等于40%且小于等于60%时,则判断所述受试者的主导眼不明显。
作为优选方案,所述第一目标物和所述第二目标物均为黑色目标球;在所述统计所有时间段内所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,确定所述受试者的主导眼之前,还包括:
在每次生成所述第一目标物和所述第二目标物后,控制所有黑色目标球往受试者方向移动,且移动的持续时间为所述第二预设时间。
作为优选方案,所有所述第一目标物的z坐标相同,所有所述第二目标物的z坐标相同;其中,所述VR设备内的三维坐标系的z轴对应受试者观察画面中的正前方和正后方。
作为优选方案,所述第一虚拟摄像机和所述第二虚拟摄像机之间的距离为所述受试者的瞳距。
作为优选方案,在所述通过在VR设备中的第一虚拟摄像机和第二虚拟摄像机模拟受试者双眼观察的信息之前,获取受试者信息;所述受试者信息包括受试者的姓名、出生日期、性别、左右眼矫正视力和瞳距。
作为优选方案,所有所述第一目标物与所述受试者之间的距离相同,所有所述第二目标物与所述受试者之间的距离相同。
相应的,本发明实施例还提供了一种基于眼动追踪的主导眼检测装置,包括模拟模块、生成模块和检测模块;其中,
所述模拟模块,用于通过在VR设备中的第一虚拟摄像机和第二虚拟摄像机模拟受试者双眼观察的信息;其中,所述第一虚拟摄像机和第二虚拟摄像机分别对应受试者的左眼和右眼;
所述生成模块,用于每隔第一预设时间,在所述第一虚拟摄像机前方生成若干第一目标物,在所述第二虚拟摄像机前方生成若干第二目标物;其中,所述第一目标物和所述第二目标物数量相等;每次生成第一目标物和第二目标物的持续时间为第二预设时间;所述第一预设时间大于等于所述第二预设时间;
所述检测模块,用于通过眼动追踪系统的API接口实时获取第一虚拟摄像机对应的第一射线和第二虚拟摄像机对应的第二射线;并通过统计所有时间段内所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,确定所述受试者的主导眼。
相应的,本发明实施例还提供了一种终端设备,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现所述的基于眼动追踪的主导眼检测方法。
相应的,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行所述的基于眼动追踪的主导眼检测方法。
相比于现有技术,本发明实施例具有如下有益效果:
本发明实施例提供了一种基于眼动追踪的主导眼检测方法、装置、终端设备和计算机可读存储介质,所述主导眼检测方法包括:通过在VR设备中的第一虚拟摄像机和第二虚拟摄像机模拟受试者双眼观察的信息;其中,所述第一虚拟摄像机和第二虚拟摄像机分别对应受试者的左眼和右眼;每隔第一预设时间,在所述第一虚拟摄像机前方生成若干第一目标物,在所述第二虚拟摄像机前方生成若干第二目标物;其中,所述第一目标物和所述第二目标物数量相等;每次生成第一目标物和第二目标物的持续时间为第二预设时间;所述第一预设时间大于等于所述第二预设时间;通过眼动追踪系统的API接口实时获取第一虚拟摄像机对应的第一射线和第二虚拟摄像机对应的第二射线;并通过统计所有时间段内所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,确定所述受试者的主导眼。相比于现有技术基于红绿光的Worth四点法,不依赖受试者对颜色的判断,并且避免了不同用户的色觉、两眼视网膜敏感度等因素之间的区别对测试结果的影响,从而避免了受试者观察时出现忽明忽暗的情况,提高了检测效果的稳定性和测量结果的准确性。
附图说明
图1:为本发明基于眼动追踪提供的主导眼检测方法的一种实施例的流程示意图。
图2:为本发明基于眼动追踪提供的主导眼检测方法的一种实施例的原理示意图。
图3:为本发明提供的虚拟摄像机的一种实施例的俯视图。
图4:为本发明基于眼动追踪提供的主导眼检测装置的一种实施例的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
根据相关技术记载,在采用虚拟现实技术实现主导眼的检测时,其主要模拟“Worth四点法”的原理,具体地:首先提供四个圆,底部圆在左眼中呈现的是绿色,在右眼呈现的则是红色,两只眼睛共同注视下若呈现绿色则左眼为主导眼,否则右眼就是主导眼。但是,这种技术方案依赖受试者对颜色的判断,并且考虑到不同用户的色觉、两眼视网膜敏感度等因素之间的差别,也可能会导致检测结果的差异,影响检测效果的稳定性以及检测结果的准确性。在一些其他的现有技术中,也有采用对比度、特征值等方式去替代颜色这一因素,但是无论是哪一种,总的来说对用户的视觉判断都具有较高的依赖,检测时,用户的视觉判断均不够直观,都会导致存在检测效果的稳定性较差等问题。
针对上述一个或多个技术问题,请参照图1至图3,为本发明实施例提供的一种基于眼动追踪的主导眼检测方法,包括步骤S1至步骤S3,其中,
步骤S1,通过在VR设备中的第一虚拟摄像机和第二虚拟摄像机模拟受试者双眼观察的信息;其中,所述第一虚拟摄像机和第二虚拟摄像机分别对应受试者的左眼和右眼。
本实施例中,所述主导眼检测方法在步骤S1之前,还包括:获取受试者信息。其中,所述受试者信息包括但不限于受试者的姓名、出生日期、性别、左右眼矫正视力和瞳距。在第二次进行检测时,如果受试者信息有变化则可以通过用户端进行修改,如果没有变化,则可以不进行操作。
第一虚拟摄像机和第二虚拟摄像机在虚拟场景中平行放置,两者之间的距离为所述受试者的瞳距。在实际应用中,可以对摄像机进行标记,第一虚拟摄像机标记为left_cam,第二虚拟摄像机标记为right_cam,分别对应VR设备的左眼和右眼,可以参照图2。
步骤S2,每隔第一预设时间,在所述第一虚拟摄像机前方生成若干第一目标物,在所述第二虚拟摄像机前方生成若干第二目标物;其中,所述第一目标物和所述第二目标物数量相等;每次生成第一目标物和第二目标物的持续时间为第二预设时间;所述第一预设时间大于等于所述第二预设时间。
在步骤S2中,第一目标物和第二目标物均可以为黑色目标球,或者可以选择其他颜色,或者可以设置其他不同形状、规则或不规则形状的目标物。其中,一半的目标物仅左眼可见,另一半的目标物仅右眼可见。
在每次生成所述第一目标物和所述第二目标物后,在测试开始时,控制所有黑色目标球往受试者方向移动,且移动的持续时间为所述第二预设时间。第二预设时间长短的设置需要满足(例如,第二预设时间可以优选为1秒)的是,受试者在黑色目标球生成后的第一时间(指较短时间)内进行观察,并获取该较短时间内对目标球的观察情况。
在经过例如1秒时间后,黑色目标球消失不见。需要说明的是,作为本实施例的一种举例,第一虚拟摄像机所有的黑色目标球(第一目标物)的三维坐标z坐标相同。第二虚拟摄像机所有的黑色目标球(第二目标物)的三维坐标z坐标相同。在本实施例的虚拟场景中,VR设备内的三维坐标系的z轴对应受试者观察画面中的正前方和正后方。这样,在虚拟场景中,黑色目标球距离受试者较远的情况下,各黑色目标球与受试者的距离都几乎一致,差异可以忽略不计;作为本实施例的另一种举例,也可以使所有所述第一目标物与所述受试者之间的距离相同,所有所述第二目标物与所述受试者之间的距离相同。实施本申请实施例,上述两种举例对应的实施方式,可以使得受试者的视线范围内,不会出现各小球之间相互重叠的情形,避免步骤S3出现漏检、或者重复计数的情况(x,y为随机值,但是其随机的范围限定在虚拟摄像机的前方区域,在受试者的视线范围内)。
步骤S3,通过眼动追踪系统的API接口实时获取第一虚拟摄像机对应的第一射线和第二虚拟摄像机对应的第二射线;并通过统计所有时间段内所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,确定所述受试者的主导眼。
在步骤S3中,可以通过VR设备提供的眼动追踪系统的API接口,实时地获取ray射线(也即用户的视线)。基于所有时间段内所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,确定所述受试者的主导眼。
例如,黑色目标球可以为12个,左眼和右眼分别对应6个。其中,左眼可见小球依次命名left_ball0至left_ball5。右眼可见小球依次命名right_ball0至right_ball5。分别针对左眼和右眼设置一个用于统计的变量,右眼为right_ball_gaze,左眼为left_ball_gaze。当判断发生碰撞时,注视的小球为right_ball,则眼动追踪系统的API返回的结果中物体名字带有right_ball,此时程序变量right_ball_gaze的值加1,反之是程序变量left_ball_gaze加1。该过程可以重复若干次,每隔第一预设时间,生成一次若干数量的第一目标物和若干数量的第二目标物,每次持续第二预设时间,然后达到所述预设时间段的要求,获得最终统计得到的程序变量left_ball_gaze和right_ball_gaze,作为左右眼各自对应的累计数量。
然后,所述通过统计所有时间段内所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,确定所述受试者的主导眼,具体为:
在所述所有时间段内所述第一射线与所述第一目标物的碰撞次数为a1,所述第二射线与所述第二目标物的碰撞次数为a2;或者,
在所述所有时间段内所述第一射线与所述第一目标物的碰撞次数为a2,所述第二射线与所述第二目标物的碰撞次数为a1
根据所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,计算a2对应眼可见目标物的注视数量占比ratio:
ratio=a2/(a1+a2)×100%;
当ratio大于60%时,判断所述受试者的主导眼为a2对应眼,当ratio小于40%时,则判断所述受试者的主导眼为a1对应眼;当ratio大于等于40%且小于等于60%时,则判断所述受试者的主导眼不明显,此时检测结果为“不确定”、或者“受试者双眼平衡”等。
为了做进一步说明,作为本实施例的一种举例,上述实施方式具体可以为:设在所述所有时间段内所述第一射线与所述第一目标物的碰撞次数为a1(即left_ball_gaze),所述第二射线与所述第二目标物的碰撞次数为a2(即right_ball_gaze);
根据所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,计算右眼可见目标物的注视数量占比ratio(即right_ball_gaze_ratio的简化):
ratio=a2/(a1+a2)×100%;
当ratio大于60%时,判断所述受试者的主导眼为右眼,当ratio小于40%时,则判断所述受试者的主导眼为左眼;当ratio大于等于40%且小于等于60%时,则判断所述受试者的主导眼不明显。
作为本实施例的另一种举例,设在所述所有时间段内所述第一射线与所述第一目标物的碰撞次数为a2,所述第二射线与所述第二目标物的碰撞次数为a1;
根据所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,计算左眼可见目标物的注视数量占比ratio(即left_ball_gaze_ratio的简化):
ratio=a2/(a1+a2)×100%;
当ratio大于60%时,判断所述受试者的主导眼为左眼,当ratio小于40%时,则判断所述受试者的主导眼为右眼;当ratio大于等于40%且小于等于60%时,则判断所述受试者的主导眼不明显。
最后,可以通过UI展示界面,通过用户端向受试者、相关技术人员或者医生等展示检查结果。
相应的,参照图4,本发明实施例还提供了一种基于眼动追踪的主导眼检测装置,包括模拟模块101、生成模块102和检测模块103;其中,
所述模拟模块101,用于通过在VR设备中的第一虚拟摄像机和第二虚拟摄像机模拟受试者双眼观察的信息;其中,所述第一虚拟摄像机和第二虚拟摄像机分别对应受试者的左眼和右眼;
所述生成模块102,用于每隔第一预设时间,在所述第一虚拟摄像机前方生成若干第一目标物,在所述第二虚拟摄像机前方生成若干第二目标物;其中,所述第一目标物和所述第二目标物数量相等;每次生成第一目标物和第二目标物的持续时间为第二预设时间;所述第一预设时间大于等于所述第二预设时间;
所述检测模块103,用于通过眼动追踪系统的API接口实时获取第一虚拟摄像机对应的第一射线和第二虚拟摄像机对应的第二射线;并通过统计所有时间段内所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,确定所述受试者的主导眼。
作为一种优选实施方式,所述检测模块103通过统计所有时间段内所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,确定所述受试者的主导眼,具体为:
在所述所有时间段内所述第一射线与所述第一目标物的碰撞次数为a1,所述第二射线与所述第二目标物的碰撞次数为a2;或者,
在所述所有时间段内所述第一射线与所述第一目标物的碰撞次数为a2,所述第二射线与所述第二目标物的碰撞次数为a1
所述检测模块103根据所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,计算a2对应眼可见目标物的注视数量占比ratio:
ratio=a2/(a1+a2)×100%;
当ratio大于60%时,判断所述受试者的主导眼为a2对应眼,当ratio小于40%时,则判断所述受试者的主导眼为a1对应眼;当ratio大于等于40%且小于等于60%时,则判断所述受试者的主导眼不明显。
作为一种优选实施方式,所述第一目标物和所述第二目标物均为黑色目标球;所述主导眼检测装置还包括第一控制模块;所述第一控制模块用于在所述统计所有时间段内所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,确定所述受试者的主导眼之前,还包括:
在每次生成所述第一目标物和所述第二目标物后,控制所有黑色目标球往受试者方向移动,且移动的持续时间为所述第二预设时间。
作为一种优选实施方式,所有所述第一目标物的z坐标相同,所有所述第二目标物的z坐标相同;其中,所述VR设备内的三维坐标系的z轴对应受试者观察画面中的正前方和正后方。
作为一种优选实施方式,所述第一虚拟摄像机和所述第二虚拟摄像机之间的距离为所述受试者的瞳距。
作为一种优选实施方式,所述主导眼检测装置还包括用户信息获取模块;其中,所述用户信息获取模块用于在所述通过在VR设备中的第一虚拟摄像机和第二虚拟摄像机模拟受试者双眼观察的信息之前,获取受试者信息;所述受试者信息包括受试者的姓名、出生日期、性别、左右眼矫正视力和瞳距。
作为一种优选实施方式,所有所述第一目标物与所述受试者之间的距离相同,所有所述第二目标物与所述受试者之间的距离相同。
相应的,本发明实施例还提供了一种终端设备,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现所述的基于眼动追踪的主导眼检测方法。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述终端的控制中心,利用各种接口和线路连接整个终端的各个部分。
所述存储器可用于存储所述计算机程序,所述处理器通过运行或执行存储在所述存储器内的计算机程序,以及调用存储在存储器内的数据,实现所述终端的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
相应的,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行所述的基于眼动追踪的主导眼检测方法。
其中,所述基于眼动追踪的主导眼检测装置集成的模块如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。
相比于现有技术,本发明实施例具有如下有益效果:
本发明实施例提供了一种基于眼动追踪的主导眼检测方法、装置、终端设备和计算机可读存储介质,所述主导眼检测方法包括:通过在VR设备中的第一虚拟摄像机和第二虚拟摄像机模拟受试者双眼观察的信息;其中,所述第一虚拟摄像机和第二虚拟摄像机分别对应受试者的左眼和右眼;每隔第一预设时间,在所述第一虚拟摄像机前方生成若干第一目标物,在所述第二虚拟摄像机前方生成若干第二目标物;其中,所述第一目标物和所述第二目标物数量相等;每次生成第一目标物和第二目标物的持续时间为第二预设时间;所述第一预设时间大于等于所述第二预设时间;通过眼动追踪系统的API接口实时获取第一虚拟摄像机对应的第一射线和第二虚拟摄像机对应的第二射线;并通过统计所有时间段内所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,确定所述受试者的主导眼。相比于现有技术基于红绿光的Worth四点法,不依赖受试者对颜色、特征值或对比度的判断,并且避免了不同用户的色觉、两眼视网膜敏感度等因素之间的区别对测试结果的影响,从而避免了受试者观察时出现忽明忽暗的情况,提高了受试者视觉判断的直观性,从而达到提高检测效果的稳定性和检测结果的准确性的目的。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步的详细说明,应当理解,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围。特别指出,对于本领域技术人员来说,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于眼动追踪的主导眼检测方法,其特征在于,包括:
通过在VR设备中的第一虚拟摄像机和第二虚拟摄像机模拟受试者双眼观察的信息;其中,所述第一虚拟摄像机和第二虚拟摄像机分别对应受试者的左眼和右眼;
每隔第一预设时间,在所述第一虚拟摄像机前方生成若干第一目标物,在所述第二虚拟摄像机前方生成若干第二目标物;其中,所述第一目标物和所述第二目标物数量相等;每次生成第一目标物和第二目标物的持续时间为第二预设时间;所述第一预设时间大于等于所述第二预设时间;
通过眼动追踪系统的API接口实时获取第一虚拟摄像机对应的第一射线和第二虚拟摄像机对应的第二射线;并通过统计所有时间段内所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,确定所述受试者的主导眼。
2.如权利要求1所述的一种基于眼动追踪的主导眼检测方法,其特征在于,所述通过统计所有时间段内所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,确定所述受试者的主导眼,具体为:
在所述所有时间段内所述第一射线与所述第一目标物的碰撞次数为a1,所述第二射线与所述第二目标物的碰撞次数为a2;或者,
在所述所有时间段内所述第一射线与所述第一目标物的碰撞次数为a2,所述第二射线与所述第二目标物的碰撞次数为a1
根据所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,计算a2对应眼可见目标物的注视数量占比ratio:
ratio=a2/(a1+a2)×100%;
当ratio大于60%时,判断所述受试者的主导眼为a2对应眼,当ratio小于40%时,则判断所述受试者的主导眼为a1对应眼;当ratio大于等于40%且小于等于60%时,则判断所述受试者的主导眼不明显。
3.如权利要求2所述的一种基于眼动追踪的主导眼检测方法,其特征在于,所述第一目标物和所述第二目标物均为黑色目标球;在所述统计所有时间段内所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,确定所述受试者的主导眼之前,还包括:
在每次生成所述第一目标物和所述第二目标物后,控制所有黑色目标球往受试者方向移动,且移动的持续时间为所述第二预设时间。
4.如权利要求3所述的一种基于眼动追踪的主导眼检测方法,其特征在于,所有所述第一目标物的z坐标相同,所有所述第二目标物的z坐标相同;其中,所述VR设备内的三维坐标系的z轴对应受试者观察画面中的正前方和正后方。
5.如权利要求4所述的一种基于眼动追踪的主导眼检测方法,其特征在于,所述第一虚拟摄像机和所述第二虚拟摄像机之间的距离为所述受试者的瞳距。
6.如权利要求5所述的一种基于眼动追踪的主导眼检测方法,其特征在于,在所述通过在VR设备中的第一虚拟摄像机和第二虚拟摄像机模拟受试者双眼观察的信息之前,获取受试者信息;所述受试者信息包括受试者的姓名、出生日期、性别、左右眼矫正视力和瞳距。
7.如权利要求3所述的一种基于眼动追踪的主导眼检测方法,其特征在于,所有所述第一目标物与所述受试者之间的距离相同,所有所述第二目标物与所述受试者之间的距离相同。
8.一种基于眼动追踪的主导眼检测装置,其特征在于,包括模拟模块、生成模块和检测模块;其中,
所述模拟模块,用于通过在VR设备中的第一虚拟摄像机和第二虚拟摄像机模拟受试者双眼观察的信息;其中,所述第一虚拟摄像机和第二虚拟摄像机分别对应受试者的左眼和右眼;
所述生成模块,用于每隔第一预设时间,在所述第一虚拟摄像机前方生成若干第一目标物,在所述第二虚拟摄像机前方生成若干第二目标物;其中,所述第一目标物和所述第二目标物数量相等;每次生成第一目标物和第二目标物的持续时间为第二预设时间;所述第一预设时间大于等于所述第二预设时间;
所述检测模块,用于通过眼动追踪系统的API接口实时获取第一虚拟摄像机对应的第一射线和第二虚拟摄像机对应的第二射线;并通过统计所有时间段内所述第一射线与所述第一目标物的碰撞次数,以及所述第二射线与所述第二目标物的碰撞次数,确定所述受试者的主导眼。
9.一种终端设备,其特征在于,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7中任意一项所述的基于眼动追踪的主导眼检测方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如权利要求1至7中任意一项所述的基于眼动追踪的主导眼检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310742249.9A CN116807388B (zh) | 2023-06-20 | 2023-06-20 | 基于眼动追踪的主导眼检测方法、装置、终端设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310742249.9A CN116807388B (zh) | 2023-06-20 | 2023-06-20 | 基于眼动追踪的主导眼检测方法、装置、终端设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116807388A true CN116807388A (zh) | 2023-09-29 |
CN116807388B CN116807388B (zh) | 2023-12-05 |
Family
ID=88140405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310742249.9A Active CN116807388B (zh) | 2023-06-20 | 2023-06-20 | 基于眼动追踪的主导眼检测方法、装置、终端设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116807388B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117481592A (zh) * | 2023-11-16 | 2024-02-02 | 广州视景医疗软件有限公司 | 基于vr设备的正负相对调节的视功能检查方法及vr设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106226911A (zh) * | 2016-09-09 | 2016-12-14 | 深圳市世尊科技有限公司 | 一种通过视线进行人机交互的智能眼镜以及交互方法 |
CN108478399A (zh) * | 2018-02-01 | 2018-09-04 | 上海青研科技有限公司 | 一种弱视训练仪 |
CN109002167A (zh) * | 2018-08-07 | 2018-12-14 | 浙江冰峰科技有限公司 | 眼球追踪模拟方法、装置及头戴显示设备 |
KR20200093926A (ko) * | 2019-01-29 | 2020-08-06 | 박준용 | 주시안 테스트 장치 및 주시안 테스트 방법 |
-
2023
- 2023-06-20 CN CN202310742249.9A patent/CN116807388B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106226911A (zh) * | 2016-09-09 | 2016-12-14 | 深圳市世尊科技有限公司 | 一种通过视线进行人机交互的智能眼镜以及交互方法 |
CN108478399A (zh) * | 2018-02-01 | 2018-09-04 | 上海青研科技有限公司 | 一种弱视训练仪 |
CN109002167A (zh) * | 2018-08-07 | 2018-12-14 | 浙江冰峰科技有限公司 | 眼球追踪模拟方法、装置及头戴显示设备 |
KR20200093926A (ko) * | 2019-01-29 | 2020-08-06 | 박준용 | 주시안 테스트 장치 및 주시안 테스트 방법 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117481592A (zh) * | 2023-11-16 | 2024-02-02 | 广州视景医疗软件有限公司 | 基于vr设备的正负相对调节的视功能检查方法及vr设备 |
Also Published As
Publication number | Publication date |
---|---|
CN116807388B (zh) | 2023-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10573085B2 (en) | Reality mixer for mixed reality | |
Mantiuk et al. | Gaze-dependent depth-of-field effect rendering in virtual environments | |
Arthur et al. | Evaluating 3d task performance for fish tank virtual worlds | |
Held et al. | Using blur to affect perceived distance and size | |
Livingston et al. | Resolving multiple occluded layers in augmented reality | |
CN108282648B (zh) | 一种vr渲染方法、装置、穿戴式设备及可读存储介质 | |
Vienne et al. | Depth perception in virtual reality systems: effect of screen distance, environment richness and display factors | |
CN106484116B (zh) | 媒体文件的处理方法和装置 | |
Ellis et al. | Factors influencing operator interaction with virtual objects viewed via head-mounted see-through displays: viewing conditions and rendering latency | |
CN116807388B (zh) | 基于眼动追踪的主导眼检测方法、装置、终端设备和介质 | |
Berning et al. | A study of depth perception in hand-held augmented reality using autostereoscopic displays | |
CN108259883B (zh) | 图像处理方法、头戴式显示器以及可读存储介质 | |
Papenmeier et al. | DynAOI: A tool for matching eye-movement data with dynamic areas of interest in animations and movies | |
US11039125B2 (en) | Test method and system for wearable device | |
Do et al. | The effects of object shape, fidelity, color, and luminance on depth perception in handheld mobile augmented reality | |
CN109901290B (zh) | 注视区域的确定方法、装置及可穿戴设备 | |
CN111248851A (zh) | 一种视功能自测方法 | |
CN111275801A (zh) | 一种三维画面渲染方法及装置 | |
CN108235778B (zh) | 基于云端计算的标定方法、装置、电子设备和计算机程序产品 | |
CN107864372B (zh) | 立体拍照方法、装置及终端 | |
CN107065190B (zh) | 一种在vr设备上显示信息的方法、装置及vr设备 | |
CN107924229A (zh) | 一种虚拟现实设备中的图像处理方法和装置 | |
CN112926523B (zh) | 基于虚拟现实的眼球追踪方法、系统 | |
Smith et al. | Nonblurred regions show priority for gaze direction over spatial blur | |
CN116368529A (zh) | 基于当前用户外观的用户的表示 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |