CN113101159A - 一种基于vr的立体视觉训练、评估方法和装置 - Google Patents
一种基于vr的立体视觉训练、评估方法和装置 Download PDFInfo
- Publication number
- CN113101159A CN113101159A CN202110378058.XA CN202110378058A CN113101159A CN 113101159 A CN113101159 A CN 113101159A CN 202110378058 A CN202110378058 A CN 202110378058A CN 113101159 A CN113101159 A CN 113101159A
- Authority
- CN
- China
- Prior art keywords
- training
- depth
- user
- targets
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H5/00—Exercisers for the eyes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H5/00—Exercisers for the eyes
- A61H5/005—Exercisers for training the stereoscopic view
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/16—Physical interface with patient
- A61H2201/1602—Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
- A61H2201/1604—Head
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/16—Physical interface with patient
- A61H2201/1602—Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
- A61H2201/165—Wearable interfaces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5007—Control means thereof computer controlled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5023—Interfaces to the user
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5023—Interfaces to the user
- A61H2201/5043—Displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2205/00—Devices for specific parts of the body
- A61H2205/02—Head
- A61H2205/022—Face
- A61H2205/024—Eyes
Abstract
本发明提供了一种基于VR的立体视觉训练、评估方法和装置,属于视觉训练领域,解决现有关于立体视觉训练枯燥乏味、评估缺乏量化标准的技术问题。包括:在虚拟三维训练场景中为用户显示因不同视差而形成的多个具有深度的训练目标;在训练过程中要求用户辨识两两训练目标之间深度的差异并接收用户的反馈信息;根据反馈信息自适应的重新配置两两训练目标之间深度的差异,输出并显示配置后的训练目标;通过不断重复辨识两两训练目标之间深度的差异形成训练的迭代促进过程。以连贯的互动任务为主要训练内容,整个训练过程能提供更高的沉浸体验。用趣味性的训练内容以交互的方式自适应的体制引人入胜,达到准确客观的训练及评估用户立体视觉功能的作用。
Description
技术领域
本发明涉及视觉训练技术领域,具体涉及一种基于VR的立体视觉训练、评估方法和装置。
背景技术
目前市面上立体视觉的训练及评估量化方式多靠纸质的测试方式及红蓝、偏振眼镜组合来实现立体视觉的量化。此类检测方式,多数如Lang test和Random Dot StereoTests,其测试过程多数无法重复进行第二次,且需要医务人员的密切指导及配合来实现立体视觉的训练及评估量化。
同时,传统的立体式视觉训练系统(例如中国发明专利申请的说明书中CN102885606A就公开了利用图库组成的立体视觉训练系统),但是其无法提供全场景沉浸式、高互动的训练场景,其也不能针对用户立体视觉的客观情况作出准确的评估。
发明内容
鉴于上述问题,本发明实施例一种基于VR的立体视觉训练方法、评估方法、装置和存储介质,解决现有关于立体视觉训练枯燥,缺乏立体视觉评估量化标准的技术问题。
为解决上述技术问题,本发明提供以下技术方案:
第一方面,本发明提供一种基于VR的立体视觉训练方法,该方法包括:
在虚拟三维训练场景中为用户显示因不同视差而形成的多个具有深度的训练目标;
在训练过程中要求用户辨识两两训练目标之间深度的差异并接收用户的反馈信息;
根据反馈信息自适应的重新配置两两训练目标之间深度的差异,输出并显示重新配置后的训练目标;
通过不断重复辨识两两训练目标之间深度的差异形成训练的迭代促进过程。
在本发明一实施例中,所述在虚拟三维训练场景中为用户显示因不同视差而形成的多个具有深度的训练目标包括:
将同一训练目标分别独立显示在两块显示屏幕的不同位置处形成视差进而形成脑部的深度感知;
通过上述方式重复添加不同的训练目标进而形成多个具有不同深度的训练目标。
在本发明一实施例中,所述在训练过程中要求用户辨识两两训练目标之间深度的差异包括:
将任务目标的基准点定义在用户左眼视角点和右眼视角点的中点;
将需要辨识的两个训练目标中的一训练目标的中心点与基准点之间的距离定义为第一深度;
将需要辨识的两个训练目标中的另一训练目标的中心点与基准点之间的距离定义为第二深度;
要求用户辨识的是第一深度与第二深度所对应训练目标的深度感知。
在本发明一实施例中,还包括:
将训练目标的尺寸与训练目标的中心点到基准点的距离的比值设置为一个定值。
第二方面,本发明提供一种基于VR的立体视觉评估方法,该方法包括:
根据一种基于VR的立体视觉训练方法中的反馈信息获取用户能够辨别的两两训练目标之间深度的最小差异;
根据所述最小差异对用户立体视觉进行量化评估。
第三方面,本发明提供一种基于VR的立体视觉训练装置,该装置包括:
训练目标形成单元:用于在虚拟三维训练场景为用户显示因不同视差而形成的多个具有深度的训练目标;
任务反馈接收单元:用于在训练过程中要求用户辨识两两训练目标之间深度的差异并接收用户的反馈信息;
自适应配置单元:用于根据反馈信息自适应的重新配置两两训练目标之间深度的差异,输出并显示配置后的训练目标;
训练效果提升单元:用于通过不断重复辨识两两训练目标之间深度的差异形成训练的迭代促进过程。
在本发明一实施例中,所述训练目标形成单元具体用于:
将同一训练目标分别独立显示在两块显示屏幕的不同位置处形成视差进而形成脑部的深度感知;
通过上述方式重复添加不同的训练目标进而形成多个具有不同深度的训练目标。
在本发明一实施例中,所述自适应配置单元具体用于:
将任务目标的基准点定义在用户左眼视角点和右眼视角点的中点;
将需要辨识的两个训练目标中的一训练目标的中心点与基准点之间的距离定义为第一深度;
将需要辨识的两个训练目标中的另一训练目标的中心点与基准点之间的距离定义为第二深度;
要求用户辨识的是第一深度与第二深度所对应训练目标的深度感知。
在本发明一实施例中,所述自适应配置单元还用于:
将训练目标的尺寸与训练目标的中心点到基准点的距离的比值设置为一个定值。
第四方面,本发明提供一种基于VR的立体视觉评估装置,该装置包括:
差异获取单元:用于根据一种基于VR的立体视觉训练方法中的反馈信息获取用户能够辨别的两两训练目标之间深度的最小差异;
量化评估单元:用于根据所述最小差异对用户立体视觉进行量化评估。
第五方面,本发明提供一种电子设备,该设备包括:
处理器、存储器、与网关通信的接口;
存储器用于存储程序和数据,所述处理器调用存储器存储的程序,以执行第一方面任一项提供的一种基于VR的立体视觉训练方法。
第六方面,本发明提供一种计算机可读存储介质,所述计算机可读存储介质包括程序,所述程序在被处理器执行时用于执行第一方面任一项提供的一种基于VR的立体视觉训练方法。
从上述描述可知,本发明实施例提供一种基于VR的立体视觉训练、评估方法、装置、设备和存储介质。在本发明中,立体视觉的训练是在虚拟三维环境中进行的,在立体视觉的训练中辨识两两训练目标之间深度的差异为主要的训练内容,在用户进行辨识后根据用户的反馈信息形成新的训练目标,任务之间的切换是连贯的,整个训练过程能提供更高的沉浸式体验。在虚拟三维环境中训练提升了训练内容的趣味性,使用户更愿接受,以高交互的方式自适应的体制引人入胜,通过立体视觉训练过程形成的立体视觉评估可以达到准确、客观评估用户立体视觉功能的作用。
附图说明
图1所示为本发明一种基于VR的立体视觉训练方法的流程示意图;
图2所示为本发明一种基于VR的立体视觉训练方法中虚拟三维训练场景的示意图;
图3所示为本发明一种基于VR的立体视觉训练方法中用户脑部成像的原理示意图;
图4所示为本发明一种基于VR的立体视觉训练方法中的近深度训练目标在屏幕显示位置的示意图;
图5所示为本发明一种基于VR的立体视觉训练方法中的近深度训练目标的形成原理示意图;
图6所示为本发明一种基于VR的立体视觉训练方法中的远深度训练目标在屏幕显示位置的示意图;
图7所示为本发明一种基于VR的立体视觉训练方法中的远深度训练目标的形成原理示意图;
图8所示为本发明一种基于VR的立体视觉训练方法中根据不同距离相应训练目标尺寸变化规则的示意图;
图9所示为本发明一种基于VR的立体视觉训练方法中根据图8所定规则用户在VR设备中观察到的训练目标的最终效果图;
图10所示为本发明一种基于VR的立体视觉评估方法的流程示意图;
图11所示为本发明一种基于VR的立体视觉训练装置的结构示意图;
图12所示为本发明一种基于VR的立体视觉评估装置的结构示意图;
图13所示为本发明一种电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明白,以下结合附图及具体实施方式对本发明作进一步说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
基于现有技术的缺点,本发明实施例提供了一种基于VR的立体视觉训练方法的具体实施方式,如图1所示,该方法具体包括:
S110:在虚拟三维训练场景中为用户显示因不同视差而形成的多个具有深度的训练目标。
具体地,用户在接受立体视觉训练期间需要佩戴VR设备,用户在活动期间佩戴的VR设备可以被允许控制亮度和其它图像参数。VR设备是可佩戴在用户眼部的任何类型的VR设备,例如VR智能眼镜、VR头盔等。VR设备的显示器可以向用户的每只眼睛独立显示图像,显示的图像也就是在立体视觉训练中的训练目标,通过更改用户显示同一训练目标在用户两只眼显示的不同(即视差的不同),经过用户脑部处理即可形成具有深度属性的训练目标,其形成的效果及原理如图5和图7所示。利用VR设备可以构建出如图2所示的虚拟三维场景,将VR设备构建出的三维场景作为虚拟三维训练场景,图中气泡形的图形即为添加在虚拟三维训练场景中的训练目标,在实际应用时在用户脑海成像的原理如图3所示,这样就可通过VR设备为用户提供完全沉浸式的体验,当然VR设备构建出的三维场景的内容是可修改的,可以通过更换不同场景用以增加训练的趣味性。
S120:在训练过程中要求用户辨识两两训练目标之间深度的差异并接收用户的反馈信息;
具体地,通过步骤S110可知构建的多个训练目标均具有虚拟的三维空间属性,因此两两训练目标之间存在着空间上的差别,因此可以为用户呈现多个具有不同或相同深度属性的训练目标。在本步骤中要求用户辨识两两训练目标之间深度的差异即为训练内容,也就是说无论虚拟三维场景中存在多少个训练目标,最终需要用户辨别的也只是众多训练目标中两个训练目标之间的深度差异,当然并不排除训练任务中将两个以上的训练目标按照从由近到远或由远到近的逐个辨别。在具体应用时,可以将训练内容中的训练任务定义为辨别多个训练目标两两之间哪个的距离更近或者更远,用户通过感知训练任务指定的两个训练目标的深度差异进行辨别,最后做出选择,用户选定哪一个训练目标相比较另一个训练目标而言距离更近或者更远即为用户的反馈信息。
S130:根据反馈信息自适应的重新配置两两训练目标之间深度的差异,输出并显示重新配置后的训练目标;
具体地,由S110和S120的表述可以获知并且可以理解的是,用户被要求辨别的两两训练目标之间在深度上的差异是控制训练任务难度系数的存在。这样就可以在实际应用中,先将训练任务的初始难度定的小一些(即两两训练目标之间在深度上的差异较大),伴随用户不断在训练过程中的表现逐渐适应性的配置不同难度。当然还可以理解的是,在实际训练过程中,用户做出的反馈信息有正确也有错误,所谓自适应即根据反馈信息的正确与否增大或者减小训练任务的难度。
S140:通过不断重复辨识两两训练目标之间深度的差异形成训练的迭代促进过程。
具体地,用户利用立体视觉训练的迭代促进过程不断锻炼双眼对于物体距离的辨识能力,来提高立体视觉能力的上限从而达到训练立体视觉的目的。
在本实施例中,立体视觉的训练是在虚拟三维环境中进行的,在立体视觉的训练中辨识两两训练目标之间深度的差异为主要的训练内容,在用户进行辨识后根据用户的反馈信息形成新的训练目标,任务之间的切换是连贯的,整个训练过程能提供更高的沉浸体验。在虚拟三维环境中训练提升了训练内容的趣味性,使用户更愿接受,以高交互的方式自适应的体制引人入胜,最终通过立体视觉训练达到提升立体视觉的能力。
本发明一实施例中,S110具体包括以下步骤:
将同一训练目标分别独立显示在两块显示屏幕的不同位置处形成视差进而形成脑部的深度感知;
具体地,可以理解的是用户佩戴的VR设备包括两块显示屏幕,这两块显示屏幕的作用是为用户两只眼睛独立显示图像。如图4所示,同一训练目标在两块显示屏幕的显示位置距离屏幕中心位置较近,用户左眼视角和右眼视角观察这一目标时能产生的深度如图5所示,从图中可知左眼视角的视线与右眼视角的视线和视点(即被观察的物体)之间形成的夹角较大,对应形成的虚拟距离较近生成近深度训练目标;如图6所示,同一训练目标在两块显示屏幕的显示位置距离屏幕中心位置较远,用户左眼视角和右眼视角观察这一目标时能产生的深度如图7所示,从图中可知左眼视角的视线与右眼视角的视线和视点(即被观察的物体)之间形成的夹角较小,对应形成的虚拟距离较远生成远深度训练目标。由此可以根据上述的方式对训练目标在用户脑中形成的虚拟距离进行适应性的配置。
通过上述方式重复添加不同的训练目标进而形成多个具有不同深度的训练目标。
具体地,以上步骤具体描述了一个训练目标深度的具体形成方式,根据上述的形成方式添加另外一个训练目标,只要保证后添加的训练目标与已经添加的训练目标显示位置不同,即可产生多个具有不同深度属性的训练目标。
在本实施例中,只需通过调整训练目标在显示屏幕中的显示位置,就能形成针对用户双眼的视差,经过大脑处理就能形成训练目标的深度供用户感知,其深度调整方式较为简单便捷,可以减少训练目标调整过程的运算量,减少系统的冗余处理时间以及自适应的调整时间,达到低延时切换的目的。
本发明一实施例中,如图8所示,S120中在训练过程中要求用户辨识两两训练目标之间深度的差异包括:
将任务目标的基准点定义在用户左眼视角点和右眼视角点的中点;
基准点定义完成后,任务目标与基准点位的距离就可精确量化,进而被感知的深度也可被精确量化。
将需要辨识的两个训练目标中的一训练目标的中心点与基准点之间的距离定义为第一深度(即图8中表示的r1);
将需要辨识的两个训练目标中的另一训练目标的中心点与基准点之间的距离定义为第二深度(即图8中表示的r2);
要求用户辨识的是第一深度与第二深度所对应训练目标的深度感知。
具体地,可以理解的是以上表述仅是对在训练任务提到的需要进行辨识的两个训练目标的深度量化,同理,其它训练目标的中心点与基准点之间的距离也会被精准量化。
在本实施例中,用户感知训练目标的深度被精准量化,并能保持用户视角不变,保持训练的一致性,使训练的效果更加明显。各个训练目标被量化后更容易在训练过程中进行调整或者对已经被辨别的训练目标进行替换,使得训练过程更加优化。
本发明一实施例中,在上述实施例的基础上,本实施例还包括:
将训练目标的尺寸与训练目标的中心点到基准点的距离的比值设置为一个定值。
具体地,参见图8,被要求辨别的两两训练目标的形状是相同的,其形状可以是多边形形、圆形或其它异形。以图8中的圆形为例说明,其中一个训练目标的中心点(即图8左边圆形的圆心)距离基准点的距离用r1表示,r1=d,该训练目标的尺寸用s1表示,s1=R;根据将训练目标的尺寸与训练目标的中心点到基准点的距离的比值设置为一个定值的规定,则另一训练目标的中心点(即图8右边圆形的圆心)距离基准点的距离用r2表示,r2=2d,该训练目标的尺寸用s2表示,s2=2R;以上配置表明r1/s1=r2/s2(即两两训练目标的尺寸距离比为一个定值)。在此机制下给用户呈现的视觉效果如图9所示。
在本实施例中,两两训练目标的尺寸距离比是固定的,也就是说训练目标的尺寸会随着与基准点之间距离的增加而逐渐变大,使得距离基准点不同距离的训练目标呈现在用户视野时的尺寸是相同的,这样可以有效避免用户通过视角差及近大远小的原理利用单眼进行测试,进而提高训练效果避免无用功。
在上述实例的基础上,本发明还提供了基于VR的立体视觉评估方法,该方法包括:
S210:根据一种基于VR的立体视上述实施例的立体视觉训练方法中的反馈信息获取用户能够辨别的两两训练目标之间深度的最小差异;
S220:根据所述最小差异对用户立体视觉进行量化评估。
具体地,由立体视觉训练可知,训练过程中需要辨别两两训练目标之间深度的差异,训练的难度随着两两训练目标之间差异的逐渐减小,训练的难度等级就会逐渐增大,必然当用户辨别到一定的深度差异后就会出现辨别错误的情况,这时根据用户的反馈信息确定用户能够辨别的差异即为用户能够辨别的两两训练目标之间深度的最小差异(即反馈信息中包括两个训练目标深度的判断,根据这个判断可以获取量化的最小深度差异),在此前提下两两训练目标之间深度的差异是确定的(具体来说也就是图8中r1与r2的差值,这个差值是确定的),根据该差异可以形成分段评估结论,将用户的立体视觉功能通过分段评估结论进行换算,作为评估用户立体视觉的基准。
在本实施例中,可以在立体图视觉训练过程中形成立体视觉的评估结论,用户可以直接的了解到自身立体视觉功能的强弱,也方便医生针对评估结果对用户施加更有针对性的指导。
基于同一发明构思,本申请实施例还提供了一种基于VR的立体视觉训练装置和评估装置,可以用于实现上述实施例所描述的一种基于VR的立体视觉训练方法和评估方法,如下面的实施例所述。由于装置解决问题的原理与方法相似,因此装置的实施可以参见方法实施,重复之处不再赘述。以下所使用的,术语“单元”或者“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的系统较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
本发明提供了一种基于VR的立体视觉训练装置,如图11所示。在图11中,该装置包括:
训练目标形成单元310:用于在虚拟三维训练场景为用户显示因不同视差而形成的多个具有深度的训练目标;
任务反馈接收单元320:用于在训练过程中要求用户辨识两两训练目标之间深度的差异并接收用户的反馈信息;
自适应配置单元330:用于根据反馈信息自适应的重新配置两两训练目标之间深度的差异,输出并显示配置后的训练目标;
训练效果提升单元340:用于通过不断重复辨识两两训练目标之间深度的差异形成训练的迭代促进过程。
本发明一实施例中,训练目标形成单元310具体用于:
将同一训练目标分别独立显示在两块显示屏幕的不同位置处形成视差进而形成脑部的深度感知;
通过上述方式重复添加不同的训练目标进而形成多个具有不同深度的训练目标。
本发明一实施例中自适应配置单元330具体用于:
将任务目标的基准点定义在用户左眼视角点和右眼视角点的中点;
将需要辨识的两个训练目标中的一训练目标的中心点与基准点之间的距离定义为第一深度;
将需要辨识的两个训练目标中的另一训练目标的中心点与基准点之间的距离定义为第二深度;
要求用户辨识的是第一深度与第二深度所对应训练目标的深度感知。
本发明一实施例中,自适应配置单元330还具体用于:
将训练目标的尺寸与训练目标的中心点到基准点的距离的比值设置为一个定值。
本发明提供了一种基于VR的立体视觉评估装置,如图12所示。在图12中,该装置包括:
差异获取单元410:根据一种基于VR的立体视上述实施例的立体视觉训练方法中的反馈信息获取用户能够辨别的两两训练目标之间深度的最小差异;
量化评估单元420:根据所述最小差异对用户立体视觉进行量化评估。
本申请的实施例还提供能够实现上述实施例中的一种基于VR的立体视觉训练方法中全部步骤的一种电子设备的具体实施方式,参见图13,该电子设备500具体包括如下内容:
处理器510、存储器520、通信单元530和总线540;
其中,处理器510、存储器520、通信单元530通过总线540完成相互间的通信;通信单元530用于实现服务器端设备以及终端设备等相关设备之间的信息传输。
处理器510用于调用存储器520中的计算机程序,处理器执行计算机程序时实现上述实施例中的方法中的全部步骤。
本领域普通技术人员应理解:存储器可以是,但不限于,随机存取存储器(RandomAccess Memory,简称:RAM),只读存储器(Read Only Memory,简称:ROM),可编程只读存储器(Programmable Read-OnlyMemory,简称:PROM),可擦除只读存储器(ErasableProgrammable Read-Only Memory,简称:EPROM),电可擦除只读存储器(ElectricErasable Programmable Read-Only Memory,简称:EEPROM)等。其中,存储器用于存储程序,处理器在接收到执行指令后,执行程序。进一步地,上述存储器内的软件程序以及模块还可包括操作系统,其可包括各种用于管理系统任务(例如内存管理、存储设备控制、电源管理等)的软件组件和/或驱动,并可与各种硬件或软件组件相互通信,从而提供其他软件组件的运行环境。
处理器可以是一种集成电路芯片,具有信号的处理能力。上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称:CPU)、网络处理器(NetworkProcessor,简称:NP)等。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
本申请还提供一种计算机可读存储介质,所述计算机可读存储介质包括程序,所述程序在被处理器执行时用于执行前述任一方法实施例提供的一种基于VR的立体视觉训练方法。
本领域普通技术人员应理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质,具体的介质类型本申请不做限制。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (10)
1.一种基于VR的立体视觉训练方法,其特征在于,该方法包括:
在虚拟三维训练场景中为用户显示因不同视差而形成的多个具有深度的训练目标;
在训练过程中要求用户辨识两两训练目标之间深度的差异并接收用户的反馈信息;
根据反馈信息自适应的重新配置两两训练目标之间深度的差异,输出并显示重新配置后的训练目标;
通过不断重复辨识两两训练目标之间深度的差异形成训练的迭代促进过程。
2.如权利要求1所述的一种基于VR的立体视觉训练方法,其特征在于,所述在虚拟三维训练场景中为用户显示因不同视差而形成的多个具有深度的训练目标包括:
将同一训练目标分别独立显示在两块显示屏幕的不同位置处形成视差进而形成脑部的深度感知;
通过上述方式重复添加不同的训练目标进而形成多个具有不同深度的训练目标。
3.如权利要求1所述的一种基于VR的立体视觉训练方法,其特征在于,所述在训练过程中要求用户辨识两两训练目标之间深度的差异包括:
将任务目标的基准点定义在用户左眼视角点和右眼视角点的中点;
将需要辨识的两个训练目标中的一训练目标的中心点与基准点之间的距离定义为第一深度;
将需要辨识的两个训练目标中的另一训练目标的中心点与基准点之间的距离定义为第二深度;
要求用户辨识的是第一深度与第二深度所对应训练目标的深度感知。
4.如权利要求3所述的一种基于VR的立体视觉训练方法,其特征在于,还包括:
将训练目标的尺寸与训练目标的中心点到基准点的距离的比值设置为一个定值。
5.一种基于VR的立体视觉评估方法,其特征在于,包括:
根据权利要求1至4中任意一项所述的一种基于VR的立体视觉训练方法中的反馈信息获取用户能够辨别的两两训练目标之间深度的最小差异;
根据所述最小差异对用户立体视觉进行量化评估。
6.一种基于VR的立体视觉训练装置,其特征在于,该装置包括:
训练目标形成单元:用于在虚拟三维训练场景为用户显示因不同视差而形成的多个具有深度的训练目标;
任务反馈接收单元:用于在训练过程中要求用户辨识两两训练目标之间深度的差异并接收用户的反馈信息;
自适应配置单元:用于根据反馈信息自适应的重新配置两两训练目标之间深度的差异,输出并显示配置后的训练目标;
训练效果提升单元:用于通过不断重复辨识两两训练目标之间深度的差异形成训练的迭代促进过程。
7.如权利要求6所述的一种基于VR的立体视觉训练装置,其特征在于,所述训练目标形成单元具体用于:
将同一训练目标分别独立显示在两块显示屏幕的不同位置处形成视差进而形成脑部的深度感知;
通过上述方式重复添加不同的训练目标进而形成多个具有不同深度的训练目标。
8.如权利要求5所述的一种基于VR的立体视觉训练装置,其特征在于,所述自适应配置单元具体用于:
将任务目标的基准点定义在用户左眼视角点和右眼视角点的中点;
将需要辨识的两个训练目标中的一训练目标的中心点与基准点之间的距离定义为第一深度;
将需要辨识的两个训练目标中的另一训练目标的中心点与基准点之间的距离定义为第二深度;
要求用户辨识的是第一深度与第二深度所对应训练目标的深度感知。
9.一种电子设备,其特征在于,包括:
处理器、存储器、与网关通信的接口;
存储器用于存储程序和数据,所述处理器调用存储器存储的程序,以执行权利要求1至4任一项所述的一种基于VR的立体视觉训练方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括程序,所述程序在被处理器执行时用于执行权利要求1至4任一项所述的一种基于VR的立体视觉训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110378058.XA CN113101159B (zh) | 2021-04-08 | 2021-04-08 | 一种基于vr的立体视觉训练、评估方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110378058.XA CN113101159B (zh) | 2021-04-08 | 2021-04-08 | 一种基于vr的立体视觉训练、评估方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113101159A true CN113101159A (zh) | 2021-07-13 |
CN113101159B CN113101159B (zh) | 2023-08-04 |
Family
ID=76714768
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110378058.XA Active CN113101159B (zh) | 2021-04-08 | 2021-04-08 | 一种基于vr的立体视觉训练、评估方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113101159B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116019693A (zh) * | 2023-03-30 | 2023-04-28 | 广州视景医疗软件有限公司 | 一种基于vr的立体视训练方法及装置 |
CN116098795A (zh) * | 2023-02-16 | 2023-05-12 | 广州视景医疗软件有限公司 | 一种基于深度视差的视觉训练方法及装置 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4408846A (en) * | 1981-02-02 | 1983-10-11 | Andrew M. Clay | Method and apparatus for increasing visual acuity |
CN1533749A (zh) * | 2003-03-28 | 2004-10-06 | ������������ʽ���� | 眼功能训练方法以及眼功能训练装置 |
US20060087618A1 (en) * | 2002-05-04 | 2006-04-27 | Paula Smart | Ocular display apparatus for assessment and measurement of and for treatment of ocular disorders, and methods therefor |
CN101683298A (zh) * | 2008-09-24 | 2010-03-31 | 丛繁滋 | 用于突破近视等眼病病理生理心理惯性的视锐度训练系统 |
CN102573610A (zh) * | 2009-08-03 | 2012-07-11 | 耐克国际有限公司 | 统一的视力测试和/或训练 |
CN102885606A (zh) * | 2012-08-07 | 2013-01-23 | 北京嘉铖视欣数字医疗技术有限公司 | 基于双眼立体视知觉矫治训练系统 |
CN103054698A (zh) * | 2013-01-08 | 2013-04-24 | 封利霞 | 一种人眼立体视知觉学习训练仪 |
JP2013122434A (ja) * | 2011-12-12 | 2013-06-20 | Itt:Kk | レーザーを用いた単眼カメラによる3次元形状位置計測装置,3次元形状位置計測処理方法および3次元形状位置計測処理プログラム |
CN103876886A (zh) * | 2014-04-09 | 2014-06-25 | 合肥科飞视觉科技有限公司 | 一种弱视治疗系统 |
CN105616118A (zh) * | 2016-01-29 | 2016-06-01 | 深圳市易知见科技有限公司 | 虚拟现实眼镜和预防及矫正近视的光学系统 |
CN105853162A (zh) * | 2016-06-22 | 2016-08-17 | 刘东光 | 多种模式的视力增视训练系统及其训练方法 |
CN107582341A (zh) * | 2017-09-15 | 2018-01-16 | 殷军如 | 一种综合性康复弱视的训练方法 |
CN107929007A (zh) * | 2017-11-23 | 2018-04-20 | 北京萤视科技有限公司 | 一种利用眼动追踪和智能评估技术的注意力和视觉能力训练系统及方法 |
CN109431763A (zh) * | 2018-12-12 | 2019-03-08 | 广州视景医疗软件有限公司 | 基于vr的视觉调节功能训练的方法及其系统 |
CN109645953A (zh) * | 2019-01-25 | 2019-04-19 | 北京十维度科技有限公司 | 视觉检测及训练方法、装置和vr设备 |
CN110292515A (zh) * | 2019-07-31 | 2019-10-01 | 北京浩瞳科技有限公司 | 一种视功能训练的方法及系统 |
CN111265392A (zh) * | 2020-02-27 | 2020-06-12 | 深圳市视界智造科技有限公司 | 一种弱视治疗系统 |
-
2021
- 2021-04-08 CN CN202110378058.XA patent/CN113101159B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4408846A (en) * | 1981-02-02 | 1983-10-11 | Andrew M. Clay | Method and apparatus for increasing visual acuity |
US20060087618A1 (en) * | 2002-05-04 | 2006-04-27 | Paula Smart | Ocular display apparatus for assessment and measurement of and for treatment of ocular disorders, and methods therefor |
CN1533749A (zh) * | 2003-03-28 | 2004-10-06 | ������������ʽ���� | 眼功能训练方法以及眼功能训练装置 |
CN101683298A (zh) * | 2008-09-24 | 2010-03-31 | 丛繁滋 | 用于突破近视等眼病病理生理心理惯性的视锐度训练系统 |
CN102573610A (zh) * | 2009-08-03 | 2012-07-11 | 耐克国际有限公司 | 统一的视力测试和/或训练 |
JP2013122434A (ja) * | 2011-12-12 | 2013-06-20 | Itt:Kk | レーザーを用いた単眼カメラによる3次元形状位置計測装置,3次元形状位置計測処理方法および3次元形状位置計測処理プログラム |
CN102885606A (zh) * | 2012-08-07 | 2013-01-23 | 北京嘉铖视欣数字医疗技术有限公司 | 基于双眼立体视知觉矫治训练系统 |
CN103054698A (zh) * | 2013-01-08 | 2013-04-24 | 封利霞 | 一种人眼立体视知觉学习训练仪 |
CN103876886A (zh) * | 2014-04-09 | 2014-06-25 | 合肥科飞视觉科技有限公司 | 一种弱视治疗系统 |
CN105616118A (zh) * | 2016-01-29 | 2016-06-01 | 深圳市易知见科技有限公司 | 虚拟现实眼镜和预防及矫正近视的光学系统 |
CN105853162A (zh) * | 2016-06-22 | 2016-08-17 | 刘东光 | 多种模式的视力增视训练系统及其训练方法 |
CN107582341A (zh) * | 2017-09-15 | 2018-01-16 | 殷军如 | 一种综合性康复弱视的训练方法 |
CN107929007A (zh) * | 2017-11-23 | 2018-04-20 | 北京萤视科技有限公司 | 一种利用眼动追踪和智能评估技术的注意力和视觉能力训练系统及方法 |
CN109431763A (zh) * | 2018-12-12 | 2019-03-08 | 广州视景医疗软件有限公司 | 基于vr的视觉调节功能训练的方法及其系统 |
CN109645953A (zh) * | 2019-01-25 | 2019-04-19 | 北京十维度科技有限公司 | 视觉检测及训练方法、装置和vr设备 |
CN110292515A (zh) * | 2019-07-31 | 2019-10-01 | 北京浩瞳科技有限公司 | 一种视功能训练的方法及系统 |
CN111265392A (zh) * | 2020-02-27 | 2020-06-12 | 深圳市视界智造科技有限公司 | 一种弱视治疗系统 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116098795A (zh) * | 2023-02-16 | 2023-05-12 | 广州视景医疗软件有限公司 | 一种基于深度视差的视觉训练方法及装置 |
CN116098795B (zh) * | 2023-02-16 | 2024-03-12 | 广州视景医疗软件有限公司 | 一种基于深度视差的视觉训练装置 |
CN116019693A (zh) * | 2023-03-30 | 2023-04-28 | 广州视景医疗软件有限公司 | 一种基于vr的立体视训练方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113101159B (zh) | 2023-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | Full-reference quality assessment of stereopairs accounting for rivalry | |
Benoit et al. | Quality assessment of stereoscopic images | |
US8817073B2 (en) | System and method of processing 3D stereoscopic image | |
EP2544459A1 (en) | Stereoscopic video display device and operation method of stereoscopic video display device | |
KR20100002037A (ko) | 영상 처리 방법 및 장치 | |
CN113101159B (zh) | 一种基于vr的立体视觉训练、评估方法和装置 | |
JP2012505586A (ja) | 信号に含まれる視差情報を処理する方法 | |
CN109901710A (zh) | 媒体文件的处理方法和装置、存储介质及终端 | |
CN103179414B (zh) | 深度控制方法和装置 | |
US9754379B2 (en) | Method and system for determining parameters of an off-axis virtual camera | |
CN109521871B (zh) | 一种融合功能的训练方法、装置、设备及存储介质 | |
US11439300B2 (en) | Binocular brightness sensitivity measurement method based on wearable display device, device and mobile terminal | |
Han et al. | Stereoscopic video quality assessment model based on spatial-temporal structural information | |
CN109951642A (zh) | 显示方法及显示装置、电子设备、存储介质 | |
CN115735358A (zh) | 裸眼3d显示模式的切换控制方法、介质和系统 | |
Yun et al. | The objective quality assessment of stereo image | |
Bell et al. | Numerosity and density judgments: Biases for area but not for volume | |
CN113101158A (zh) | 一种基于vr的双眼视像融合训练方法和装置 | |
US20200257360A1 (en) | Method for calculating a gaze convergence distance | |
CN113325947A (zh) | 一种显示方法、装置、终端设备及存储介质 | |
CN107831921B (zh) | 一种手柄空间位置与编码对应关系的确定方法、装置及系统 | |
KR20130142008A (ko) | 신뢰도 기반의 스테레오 매칭 방법 및 장치 | |
CN111654688B (zh) | 一种获取目标控制参数的方法与设备 | |
CN113100706A (zh) | 一种基于vr的主视眼检测、辅视眼抑制量化方法和装置 | |
Guan et al. | A tool for stereoscopic parameter setting based on geometric perceived depth percentage |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |