CN115251827B - 基于虚实结合的深度知觉评估方法及系统 - Google Patents
基于虚实结合的深度知觉评估方法及系统 Download PDFInfo
- Publication number
- CN115251827B CN115251827B CN202211171427.9A CN202211171427A CN115251827B CN 115251827 B CN115251827 B CN 115251827B CN 202211171427 A CN202211171427 A CN 202211171427A CN 115251827 B CN115251827 B CN 115251827B
- Authority
- CN
- China
- Prior art keywords
- virtual
- transmitting
- depth perception
- image model
- solid light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/08—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
- A61B3/0058—Operational features thereof characterised by display arrangements for multiple images
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4076—Diagnosing or monitoring particular conditions of the nervous system
- A61B5/4088—Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Neurology (AREA)
- Ophthalmology & Optometry (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Developmental Disabilities (AREA)
- Psychiatry (AREA)
- Psychology (AREA)
- Neurosurgery (AREA)
- Physiology (AREA)
- Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提出一种基于虚实结合的深度知觉评估方法及系统,涉及深度知觉评估的技术领域,由虚拟显示设备展示虚拟生物刺激影像模型内容,将虚拟生物刺激影像模型内容与实体结合,打造虚实结合的场景,贴合现实自然条件,且实体透光板依次平行等间隔设置,以待被评估者观测到的虚拟生物刺激影像模型内容的位置与其前方实体透光板的位置前后关系作为深度知觉测量的出发点,按实体透光板设置的顺序,相邻的每两个实体透光板之间设为一个深度知觉能力水平等级。基于依次增多实体透光板的个数,评估出待评估者的深度知觉能力水平等级,以评估出的个体观测虚拟的结果衡量现实中个体的深度知觉,指导人们及时对自身的双眼视功能乃至深度知觉问题进行干预。
Description
技术领域
本发明涉及深度知觉评估的技术领域,更具体地,涉及一种基于虚实结合的深度知觉评估方法及系统。
背景技术
深度知觉是指个体在三维空间中对所视之物的立体深度(凹、凸)和远近距离的感知判断能力。视网膜虽然是一个二维的平面,但人不仅能感知平面的物体,而且还能产生具有深度的三维空间的知觉,这主要是通过双眼视觉实现的,中间有双眼视差、双眼辐合、晶体的调节、运动视差等生理线索的参与,然后大脑对双眼视觉信息的整合加工形成深度感知能力,涉及到大脑精细的计算匹配能力,尤其是运动过程中对动态的视觉信息进行加工的能力。
无论是人类还是动物,均在三维现实空间中活动,许多对生存至关重要的行为(如动物世界的觅食、打架和逃跑),以及社交(如握手)和娱乐行为(如打网球),均涉及到自身身体运动与三维空间中物体的互动行为,在许多这样的行为中,首先,自身的双眼视觉功能质量情况很重要,因为需要双眼首先“看”到物体才有下一步感知,在视觉功能中,立体视是临床上评估双眼视觉功能质量的重要指标之一,它是人眼对所视之物的立体整合,立体视正常的个体能看到所视物体的视觉深度即“凹”与“凸”,临床上还通过改变立体视测试难度,来衡量个体的立体视敏度,以衡量个体的立体视水平;其次,在视觉信息输入的情况下,大脑能形成准确的深度感知更是至关重要的,即涉及到大脑对视觉信息的整合。
目前,在传统深度知觉评估时,以视觉功能如立体视水平的好坏作为评判标准,且普遍认为若通过检查评估得出个体的视觉功能无缺陷问题,尤其是评估出被评估者能看到立体视觉深度即“凹”与“凸”,在立体视良好的情况下,即认为被评估者在立体感知上的视觉功能无问题,而实际上许多人视觉功能评估无异常,但在真实生活中却表现出来各种失误,甚至遇到失误引发的各种严重问题,如走路时虽能看清楚前方有人或门的障碍,但却时常撞到人或者撞到门;在球类运动中,个人运动能力强,且能看清楚球的方向,但却时常接不住球;开车时能看清楚前后方有车,但却难以判断前后车的距离,导致发生追尾车祸,以上现象严重人们的正常生活。出现这种评估无问题但实际生活中存在问题的原因主要是,一方面这种评估一般在实验室条件下进行的静态检查,非贴近现实三维空间生活中的动态任务,因此,不涉及动态视觉信息加工,则利用视觉功能评估结果作为对个体的深度知觉评估结果的方式不合适且不准确,因为,整体上可通俗理解为立体视是静态虚拟检查出的结果,而深度知觉是个体在自然生活中的立体视表现;另一方面,单纯虚拟的测试不能反映真实的现实生活,测试过程中被评估者所做出的响应的可信度低,如现有技术中公开了一种空间深度测试系统和方法,通过虚拟空间对测试场景参数的设定,建立空间深度知觉测试场景,根据空间深度测试场景,对虚拟空间中的方块进行不同位置的排列,得到不同空间深度的位置信息,并对外接控制键盘按键与方块位置信息进行对应。根据显示方块的不同位置排列、空间深度位置信息、外接控制键盘按键与方块位置信息对应,进行空间深度测试,得到测试结果,但如前述所言,实际人是生活在现实的自然三维空间中,需要对自然条件下、运动过程中动态的视觉信息进行加工,需要有深度知觉。
可见,深度知觉渗透在我们生活的方方面面,如何贴合现实自然条件,进行更高可信度的深度知觉评估,是极其重要的待解决的技术问题。
发明内容
为解决如何贴合现实自然条件,进行更高可信度的深度知觉评估的问题,本发明提出一种基于虚实结合的深度知觉评估方法及系统,在虚实结合的场景下,以评估出的个体观测虚拟的结果衡量现实中个体的深度知觉,从而指导人们及时对自身的双眼乃至深度知觉问题进行干预。
为了达到上述技术效果,本发明的技术方案如下:
一种基于虚实结合的深度知觉评估方法,所述方法包括以下步骤:
S1.在虚拟显示设备中展示虚拟生物刺激影像模型内容;
S2.在虚拟显示设备前方、距离虚拟显示设备h米处设置实体透光参考板,并以该实体透光参考板为初始实体透光参考板,以g米为等间隔间距,朝远离虚拟显示设备的方向,依次平行设置u个相同的实体透光参考板,u为大于1的整数,u的上限值为n;
S3.令u=2,待评估者位于距离初始实体透光板正前方m米处,m﹥g(u-1)+h,按实体透光板依次设置的顺序,相邻的每两个实体透光板之间设为一个深度知觉能力水平等级;
S4.待评估者通过观测设备透过实体透光参考板观测虚拟生物刺激影像模型内容与实体透光参考板的位置关系;
S5.判断观测到的虚拟生物刺激影像模型内容的位置是否在第(u-1)个实体透光板的前面,若是,执行步骤S6;否则,执行步骤S7;
S6.判断u是否达到上限值n,若是,执行步骤S7;否则,令u的值加1,返回步骤S4;
S7.判断观测到的虚拟生物刺激影像模型内容的位置是否在第u个实体透光板的前面,若是,执行步骤S8;否则,得到被评估者的深度知觉能力水平为(u-1)级;
S8.得到被评估者的深度知觉能力水平等级为u级。
在本技术方案中,由虚拟显示设备展示虚拟生物刺激影像模型内容,将虚拟生物刺激影像模型内容与实体结合,打造虚实结合的场景,从而贴合现实自然条件,且实体透光板依次等平行间隔设置,以待评估者观测到的虚拟生物刺激影像模型内容的位置与其前方实体透光板的位置前后关系作为深度知觉考量的出发点,按实体透光板依次设置的顺序,相邻的每两个实体透光板之间设为一个深度知觉能力水平等级,深度知觉能力水平等级随实体透光板设置个数的增大而提高,在评估时,基于依次增多实体透光板的个数,侧面评估出待评估者的深度知觉能力水平等级,以评估出的个体观测虚拟的结果衡量现实中个体的深度知觉,从而指导人们及时对自身的双眼乃至深度知觉问题进行干预。
优选地,在步骤S1中,虚拟显示设备中设置有虚拟生物刺激模型发生模块,虚拟生物刺激模型发生模块内加载有虚拟生物刺激影像模型生成算法,所述虚拟生物刺激模型发生模块基于虚拟生物刺激影像模型生成算法生成虚拟生物刺激影像模型,还包括预设虚拟生物刺激影像模型的形态、运动方向、运动速度及颜色组成。
在此,虚拟生物刺激影像模型是作为虚实结合场景中的“虚拟”部分,类似于传统静态虚拟检查中用于评估待评估者立体视觉深度“凹”与“凸”的测试影像,在本技术方案中,考虑与后续深度知觉评估的配合以贴合现实自然条件中所视之物的丰富多彩的状态,提高深度知觉评估的可信度,在生成时还包括预设了虚拟生物刺激影像模型的形态、运动方向、运动速度及颜色组成,并且虚拟生物刺激影像不局限于特定的形态表征,如虚拟生物刺激影像模型可以为不规则的球型形态或有一定背景色的回转轨道,虚拟生物刺激影像模型分布于虚拟显示设备的被观测显示区域中。
优选地,所述实体透光参考板的透光面积大于虚拟显示设备的显示屏的面积,以保障待评估者透过实体透光参考板能观测到完整的虚拟显示设备显示的虚拟生物刺激影像模型。
优选地,所述由虚拟显示设备显示的虚拟生物刺激影像模型入射依次平行设置的u个实体透光参考板的方向相同,使得实体透光板的设置个数增加时,不影响待评估者通过依次平行设置的实体透光板的观测光线,便于判断待评估者观测到的虚拟生物刺激影像模型的位置与各个实体透光板的位置关系。
优选地,优选地,所述实体透光参考板的板面上绘制有平面简笔画标记或数字标号标记。
在此,考虑单纯的实体透光参考板尤其若是透明状态的实体透光参考板,在视觉上容易与待评估者的观测环境融为一体,起到的位置标识作用较弱,因此,在实体透光参考板的板面上绘制平面简笔画或数字标号,既能提升实体透光参考板的位置标识作用,又不影响观测光线。此外,在实体透光参考板设置个数较多时,若对实体透光参考板上标记数字标号,还能直接对应相邻的每两个实体透光板之间的深度知觉能力水平等级,加快深度知觉能力的评估速度,节约时间。
优选地,所述待评估者的视觉状态均满足屈光矫正后的状态。
在此,均满足屈光矫正后的状态是指统一待评估者视觉状态,因为深度知觉能力是要视觉上先“看到”物体,才有的下一步感知,而若待评估者本身存在近视或者弱视等情况,可能在一定的距离内根本无法“看到”虚拟显示设备中的虚拟生物刺激影像模型内容,则无从谈及下一步的深度感知,直接评估深度知觉水平是无意义的。
优选地,所述观测设备为内外叠加的红绿眼镜与3D光谱分离眼镜,其中,红绿眼镜位于内层,3D光谱分离眼镜位于外层;待评估者透过实体透光参考板观测到由虚拟显示设备显示的虚拟生物刺激影像模型内容,其中,红绿眼镜用于匹配虚拟生物刺激影像模型中颜色的“红”“绿”,在待评估者眼睛上形成有深度的立体视三维图像,3D光谱分离眼镜基于虚拟生物刺激影像模型内容颜色组成中不同颜色波长,形成有深度的立体视三维图像,红绿眼镜与3D光谱分离眼镜组合后,待评估者的深度知觉从观测成像的角度得到表征。
优选地,深度知觉能力水平等级随实体透光板设置个数u的增大而提高,待评估者被评估的深度知觉能力水平等级越高,其深度知觉能力越强。
本申请还提出一种基于虚实结合的深度知觉评估系统,所述系统包括:
虚拟显示设备,用于展示虚拟生物刺激影像模型;
u个实体透光参考板,包括初始透光板和除初始实体透光板之外的其它实体透光板,初始透光板设置于虚拟显示设备前方、距离虚拟显示设备h米处,且以g米为等间隔间距,朝远离虚拟显示设备的方向,由初始透光板开始,依次平行设置的u个相同的实体透光参考板,u为大于1的整数,u的上限值为n;
观测设备,用于待评估者透过实体透光参考板观测虚拟生物刺激影像模型与实体透光参考板的位置关系时使用;
判断模块,用于判断观测到的虚拟生物刺激影像模型的位置与实体透光板的位置是否满足该深度知觉能力水平预设的位置关系,并判断u是否达到上限值n;所述预设的位置关系包括:观测到的虚拟生物刺激影像模型的位置与第(u-1)个实体透光板位置的前后关系、观测到的虚拟生物刺激影像模型的位置与第u个实体透光板位置的前后关系;
评估模块,根据判断模块的判断结果,用于评估待评估者的深度知觉能力水平等级。
优选地,所述评估模块评估待评估者的深度知觉能力水平等级时,满足:
A.若观测到的虚拟生物刺激影像模型的位置在第(u-1)个实体透光板的前面,且u达到上限值n,且观测到的虚拟生物刺激影像模型的位置在第u个实体透光板的前面,则评估出被评估者的深度知觉能力水平等级为u级;
B.若观测到的虚拟生物刺激影像模型的位置在第(u-1)个实体透光板的前面,且u达到上限值n,但观测到的虚拟生物刺激影像模型内容的位置在第u个实体透光板的后面,则评估出被评估者的深度知觉能力水平为(u-1)级;
C.若观测到的虚拟生物刺激影像模型的位置在第(u-1)个实体透光板的前面,但u未达到上限值n,将u的值加1,直至u达到上限值,按A情况评估深度知觉能力水平等级。
与现有技术相比,本发明技术方案的有益效果是:
本发明提出一种基于虚实结合的深度知觉评估方法及系统,由虚拟显示设备展示虚拟生物刺激影像模型,将虚拟生物刺激影像模型与实体结合,打造虚实结合的场景,从而贴合现实自然条件,且实体透光板依次等平行间隔设置,以待评估者观测到的虚拟生物刺激影像模型的位置与其前方实体透光板的位置前后关系作为深度知觉考量的出发点,按实体透光板依次设置的顺序,相邻的每两个实体透光板之间设为一个深度知觉能力水平等级,深度知觉能力水平等级随实体透光板设置个数的增大而提高,在评估时,基于依次增多实体透光板的个数,侧面评估出待评估者的深度知觉能力水平等级,以评估出的个体观测虚拟的结果衡量现实中个体的深度知觉,从而指导人们及时对自身的双眼乃至深度知觉问题进行干预。
附图说明
图1表示本发明实施例1中提出的基于虚实结合的深度知觉评估方法的流程示意图;
图2表示本发明实施例1中提出的虚拟显示设备上显示的一种虚拟生物刺激影像模型的示意图;
图3表示本发明实施例1中提出的虚拟显示设备上显示的另一种虚拟生物刺激影像模型的示意图;
图4表示本实施例2中提出的实体透光参考板上的标记示意图;
图5表示本发明实施例3中提出的基于虚实结合的深度知觉评估系统的一种结构图;
图6表示本发明实施例3中提出的基于虚实结合的深度知觉评估系统的另一种结构示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好地说明本实施例,附图某些部位会有省略、放大或缩小,并不代表实际尺寸;
对于本领域技术人员来说,附图中某些公知内容说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
附图中描述位置关系的仅用于示例性说明,不能理解为对本专利的限制;
实施例1
如图1所示,本实施例提出了一种基于虚实结合的深度知觉评估方法,结合图1所示的流程图,该方法包括以下步骤:
S1.在虚拟显示设备中展示虚拟生物刺激影像模型;
在本实施例中,选定的虚拟现实设备为平板电脑或设有hdmi的显示器,其中,平板电脑内设有虚拟生物刺激模型发生模块,虚拟生物刺激模型发生模块内加载有虚拟生物刺激影像模型生成算法,即实际实施时,虚拟生物刺激模型发生模块是指由虚拟生物刺激影像模型生成算法封装为程序编码所在的一个单元;设有hdmi的显示器是通过hdmi接口连接外部与平板电脑性质相同的电子产品,这类电子产品中加载设有虚拟生物刺激模型发生模块,虚拟生物刺激模型发生模块内加载有虚拟生物刺激影像模型生成算法,即实际实施时,虚拟生物刺激模型发生模块是指由虚拟生物刺激影像模型生成算法封装为程序编码所在的一个单元;
虚拟生物刺激模型发生模块基于虚拟生物刺激影像模型生成算法生成虚拟生物刺激影像模型,还包括预设虚拟生物刺激影像模型的形态、运动方向、运动速度及颜色组成。
在本实施例中,虚拟生物刺激影像模型是作为虚实结合场景中的“虚拟”部分,类似于传统静态虚拟检查中用于评估待评估者立体视觉深度“凹”与“凸”的测试影像,考虑与后续深度知觉评估的配合以贴合现实自然条件中所视之物的丰富多彩的状态,提高深度知觉评估的可信度,在生成时还包括预设了虚拟生物刺激影像模型的形态、运动方向、运动速度及颜色组成,并且虚拟生物刺激影像不局限于特定的形态表征,如图2所示的虚拟生物刺激影像模型,可以为不规则的球型形态,运动方向上可以是流动的,在观测设备下,待评估者看到的是立体的有深度的影像,也可以是图3所示的有一定背景色的回转轨道,除背景色外,还有以写其他颜色的颗粒填充,虚拟生物刺激影像模型分布于虚拟显示设备的被观测显示区域中。
S2.在虚拟显示设备前方、距离虚拟显示设备h米处设置实体透光参考板,并以该实体透光参考板为初始实体透光参考板,以g米为等间隔间距,朝远离虚拟显示设备的方向,依次平行设置u个相同的实体透光参考板,u为大于1的整数,u的上限值为n;
在本实施例中,实体透光参考板的透光面积大于虚拟显示设备的显示屏的面积,以保障待评估者透过实体透光参考板能观测到完整的虚拟显示设备显示的虚拟生物刺激影像模型,而且由虚拟显示设备显示的虚拟生物刺激影像模型入射依次平行设置的u个实体透光参考板的方向相同,使得实体透光板的设置个数增加时,不影响待评估者通过依次平行设置的实体透光板的观测光线,便于判断待评估者观测到的虚拟生物刺激影像模型的位置与各个实体透光板的位置关系。
S3.令u=2,待评估者位于距离初始实体透光板正前方m米处,m﹥g(u-1)+h,按实体透光板依次设置的顺序,相邻的每两个实体透光板之间设为一个深度知觉能力水平等级;在本实施例中,待评估者的视觉状态均满足屈光矫正后的状态,均满足屈光矫正后的状态是指统一待评估者视觉状态,因为深度知觉能力是要视觉上先“看到”物体,才有的下一步感知,而若待评估者本身存在近视或者弱视等情况,可能在一定的距离内根本无法“看到”虚拟显示设备中的虚拟生物刺激影像模型,则无从谈及下一步的深度感知,直接评估深度知觉水平是无意义的。
S4.待评估者通过观测设备透过实体透光参考板观测虚拟生物刺激影像模型与实体透光参考板的位置关系;
在本实施例中,所述观测设备为内外叠加的红绿眼镜与3D光谱分离眼镜,其中,红绿眼镜位于内层,3D光谱分离眼镜位于外层;待评估者透过实体透光参考板观测到由虚拟显示设备显示的虚拟生物刺激影像模型,其中,红绿眼镜用于匹配虚拟生物刺激影像模型中颜色的“红”“绿”,在待评估者眼睛上形成有深度的立体视三维图像,3D光谱分离眼镜基于虚拟生物刺激影像模型颜色组成中不同颜色波长,形成有深度的立体视三维图像,红绿眼镜与3D光谱分离眼镜组合后,待评估者的深度知觉从观测成像的角度得到表征。
S5.判断观测到的虚拟生物刺激影像模型的位置是否在第(u-1)个实体透光板的前面,若是,执行步骤S6;否则,执行步骤S7;
S6.判断u是否达到上限值n,若是,执行步骤S7;否则,令u的值加1,返回步骤S4;
S7.判断观测到的虚拟生物刺激影像模型的位置是否在第u个实体透光板的前面,若是,执行步骤S8;否则,得到被评估者的深度知觉能力水平为(u-1)级;
S8.得到被评估者的深度知觉能力水平等级为u级。
整体上,由虚拟显示设备展示虚拟生物刺激影像模型,将虚拟生物刺激影像模型与实体结合,打造虚实结合的场景,从而贴合现实自然条件,且实体透光板依次等平行间隔设置,以待评估者观测到的虚拟生物刺激影像模型的位置与其前方实体透光板的位置前后关系作为深度知觉考量的出发点,按实体透光板依次设置的顺序,相邻的每两个实体透光板之间设为一个深度知觉能力水平等级,深度知觉能力水平等级随实体透光板设置个数的增大而提高,在评估时,基于依次增多实体透光板的个数,侧面评估出待评估者的深度知觉能力水平等级,以评估出的个体观测虚拟的结果衡量现实中个体的深度知觉,从而指导人们及时对自身的双眼乃至深度知觉问题进行干预。
实施例2
在本实施例中,对于所采用的的实体透光参考板进行更详细的说明,实际实施时,实体透光参考板的板面上绘制有平面简笔画标记或数字标号标记,因为考虑单纯的实体透光参考板尤其若是透明状态的实体透光参考板,在视觉上容易与待评估者的观测环境融为一体,起到的位置标识作用较弱,因此,在实体透光参考板的板面上绘制平面简笔画或数字标号,既能提升实体透光参考板的位置标识作用,又不影响观测光线,如图4所示,数字标号可以为“①”“②”“③”等,平面简笔画可以为蝴蝶,假山,老虎等。此外,在实体透光参考板设置个数较多时,若对实体透光参考板上标记数字标号,还能直接对应相邻的每两个实体透光板之间的深度知觉能力水平等级,加快深度知觉能力的评估速度,节约时间。
实施例3
本申请还提出一种基于虚实结合的深度知觉评估系统,所述系统包括:
虚拟显示设备1,用于展示虚拟生物刺激影像模型内容;选定的虚拟现实设备为平板电脑或设有hdmi的显示器,其中,平板电脑内设有虚拟生物刺激模型内容发生模块,虚拟生物刺激模型内容发生模块内加载有虚拟生物刺激影像模型内容生成算法,即实际实施时,虚拟生物刺激模型内容发生模块是指由虚拟生物刺激影像模型内容生成算法封装为程序编码所在的一个单元;设有hdmi的显示器是通过hdmi接口连接外部与平板电脑性质相同的电子产品,这类电子产品中加载设有虚拟生物刺激模型内容发生模块,虚拟生物刺激模型内容发生模块内加载有虚拟生物刺激影像模型内容生成算法,即实际实施时,虚拟生物刺激模型内容发生模块是指由虚拟生物刺激影像模型内容生成算法封装为程序编码所在的一个单元
u个实体透光参考板2,包括初始透光板和除初始实体透光板之外的其它实体透光板,初始透光板设置于虚拟显示设备前方、距离虚拟显示设备h米处,且以g米为等间隔间距,朝远离虚拟显示设备的方向,由初始透光板开始,依次平行设置的u个相同的实体透光参考板,u为大于1的整数,u的上限值为n;
观测设备3,用于待评估者透过实体透光参考板观测虚拟生物刺激影像模型内容与实体透光参考板的位置关系时使用;
判断模块,用于判断观测到的虚拟生物刺激影像模型内容的位置与实体透光板的位置是否满足该深度知觉能力水平预设的位置关系,并判断u是否达到上限值n;所述预设的位置关系包括:观测到的虚拟生物刺激影像模型的位置与第(u-1)个实体透光板位置的前后关系、观测到的虚拟生物刺激影像模型的位置与第u个实体透光板位置的前后关系;
评估模块,根据判断模块的判断结果,用于评估待评估者的深度知觉能力水平等级。
所述评估模块评估待评估者的深度知觉能力水平等级时,满足:
A.若观测到的虚拟生物刺激影像模型的位置在第(u-1)个实体透光板的前面,且u达到上限值n,且观测到的虚拟生物刺激影像模型的位置在第u个实体透光板的前面,则评估出被评估者的深度知觉能力水平等级为u级;
B.若观测到的虚拟生物刺激影像模型的位置在第(u-1)个实体透光板的前面,且u达到上限值n,但观测到的虚拟生物刺激影像模型的位置在第u个实体透光板的后面,则评估出被评估者的深度知觉能力水平为(u-1)级;
C.若观测到的虚拟生物刺激影像模型的位置在第(u-1)个实体透光板的前面,但u未达到上限值n,将u的值加1,直至u达到上限值,按A情况评估深度知觉能力水平等级。
下面讲述系统的应用过程,实体透光参考板中的初始实体透光参考板是位于虚拟显示设备前方、距离虚拟显示设备h米处,其余的实体透光参考板是以g米为等间隔间距,朝着原理虚拟现实设备的方向,依次平行设置u个,但这里是统一性的先假定了有“多个”实体透光参考板,开始实施时,如图5所示,一个实体透光参考板21与虚拟显示设备1配合也是能评估待评估者在一个初始设定距离下的深度知觉的,但真正涉及到不同深度知觉能力水平等级评估时,首先令u取2,即在初始实体透光参考板21间隔g米之后再设置一个实体透光参考板22,因为设定相邻的每两个实体透光板之间设为一个深度知觉能力水平等级,那此时加上初始实体透光参考板之后的两个实体透光参考板即能构成一个深度知觉能力水平等级的评估,本实施例中,实体透光参考板选用透明玻璃板,这时待评估者通过观测设备透过实体透光参考板观测虚拟生物刺激影像模型内容与实体透光参考板的位置关系,若观测到的虚拟生物刺激影像模型内容的位置在第1个实体透光板即初始实体透光板的前面,且这时候设置实体透光板的上限为2,则判断观测到的虚拟生物刺激影像模型内容的位置是否在第2个实体透光板的前面,如果在,在待评估者的深度知觉能力水平就是2级,若是不在,说明待评估者在第2个实体透光板的前面已对该虚拟生物刺激影像模型内容无深度知觉,则待评估者的深度知觉能力水平就是1级,即待评估者在第1个实体透光板的前面对该虚拟生物刺激影像模型内容有深度知觉,其余的以此类推,结构示意图可参见图6,该结构示意图中透明板上可用彩色图像或不同光谱的LED点光源,通过特效眼镜或光场眼镜与红绿眼镜或3D光谱分离眼镜内外叠加,产生虚实结合的深度知觉效果。
显然,本发明的上述实施例仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (10)
1.一种基于虚实结合的深度知觉评估方法,其特征在于,所述方法包括以下步骤:
S1.在虚拟显示设备中展示虚拟生物刺激影像模型的内容;
S2.在虚拟显示设备前方、距离虚拟显示设备h米处设置实体透光参考板,并以该实体透光参考板为初始实体透光参考板,以g米为等间隔间距,朝远离虚拟显示设备的方向,依次平行设置u个相同的实体透光参考板,u为大于1的整数,u的上限值为n;
S3.令u=2,待评估者位于距离初始实体透光板正前方m米处,m﹥g(u-1)+h,按实体透光板依次设置的顺序,相邻的每两个实体透光板之间设为一个深度知觉能力水平等级;
S4.待评估者通过观测设备透过实体透光参考板观测虚拟生物刺激影像模型的内容与实体透光参考板的位置关系;
S5.判断观测到的虚拟生物刺激影像模型内容的位置是否在第(u-1)个实体透光板的前面,若是,执行步骤S6;否则,执行步骤S7;
S6.判断u是否达到上限值n,若是,执行步骤S7;否则,令u的值加1,返回步骤S4;
S7.判断观测到的虚拟生物刺激影像模型内容的位置是否在第u个实体透光板的前面,若是,执行步骤S8;否则,得到被评估者的深度知觉能力水平为(u-1)级;
S8.得到被评估者的深度知觉能力水平等级为u级。
2.根据权利要求1所述的基于虚实结合的深度知觉评估方法,其特征在于,在步骤S1中,虚拟显示设备中设置有虚拟生物刺激模型内容的发生模块,虚拟生物刺激模型发生模块内加载有虚拟生物刺激影像模型生成算法,所述虚拟生物刺激模型发生模块基于虚拟生物刺激影像模型生成算法生成虚拟生物刺激影像模型内容,还包括预设虚拟生物刺激影像模型内容的形态、运动方向、运动速度及颜色组成。
3.根据权利要求2所述的基于虚实结合的深度知觉评估方法,其特征在于,所述实体透光参考板的透光面积大于虚拟显示设备的显示屏的面积。
4.根据权利要求3所述的基于虚实结合的深度知觉评估方法,其特征在于,所述由虚拟显示设备显示的虚拟生物刺激影像模型内容入射依次平行设置的u个实体透光参考板的方向相同。
5.根据权利要求1所述的基于虚实结合的深度知觉评估方法,其特征在于,优选地,所述实体透光参考板的板面上绘制有平面简笔画标记或数字标号标记。
6.根据权利要求1所述的基于虚实结合的深度知觉评估方法,其特征在于,所述待评估者的视觉状态均满足屈光矫正后的状态。
7.根据权利要求6所述的基于虚实结合的深度知觉评估方法,其特征在于,所述观测设备为红绿眼镜或3D光谱分离眼镜,红绿眼镜内外叠加特效眼镜或光场眼镜,3D光谱分离眼镜内外叠加特效眼镜或光场眼镜;其中,红绿眼镜位于内层,特效眼镜或光场眼镜位于外层,或3D光谱分离眼镜位于内层,特效眼镜或光场眼镜位于外层;待评估者透过实体透光参考板观测到由虚拟显示设备显示的虚拟生物刺激影像模型内容,其中,红绿眼镜或3D光谱分离眼镜用于匹配虚拟生物刺激影像模型中颜色的“红”“绿”或分光光谱颜色内容,在待评估者眼睛上形成有深度的立体视三维图像,3D光谱分离眼镜基于虚拟生物刺激影像模型颜色组成中不同颜色波长,形成有深度的立体视三维图像,红绿眼镜或3D光谱分离眼镜与特效眼镜或光场眼镜组合后,待评估者的深度知觉从观测成像的角度得到表征。
8.根据权利要求7所述的基于虚实结合的深度知觉评估方法,其特征在于,深度知觉能力水平等级随实体透光板设置个数u的增大而提高,待评估者被评估的深度知觉能力水平等级越高,其深度知觉能力越强。
9.一种基于虚实结合的深度知觉评估系统,其特征在于,所述系统包括:
虚拟显示设备,用于展示虚拟生物刺激影像模型内容;
u个实体透光参考板,包括初始透光板和除初始实体透光板之外的其它实体透光板,初始透光板设置于虚拟显示设备前方、距离虚拟显示设备h米处,且以g米为等间隔间距,朝远离虚拟显示设备的方向,由初始透光板开始,依次平行设置的u个相同的实体透光参考板,u为大于1的整数,u的上限值为n;
观测设备,用于待评估者透过实体透光参考板观测虚拟生物刺激影像模型内容与实体透光参考板的位置关系时使用;
判断模块,用于判断观测到的虚拟生物刺激影像模型内容的位置与实体透光板的位置是否满足该深度知觉能力水平预设的位置关系,并判断u是否达到上限值n;所述预设的位置关系包括:观测到的虚拟生物刺激影像模型内容的位置与第(u-1)个实体透光板位置的前后关系、观测到的虚拟生物刺激影像模型内容的位置与第u个实体透光板位置的前后关系;
评估模块,根据判断模块的判断结果,用于评估待评估者的深度知觉能力水平等级。
10.根据权利要求9所述的基于虚实结合的深度知觉评估系统,其特征在于,所述评估模块评估待评估者的深度知觉能力水平等级时,满足:
A.若观测到的虚拟生物刺激影像模型内容的位置在第(u-1)个实体透光板的前面,且u达到上限值n,且观测到的虚拟生物刺激影像模型内容的位置在第u个实体透光板的前面,则评估出被评估者的深度知觉能力水平等级为u级;
B.若观测到的虚拟生物刺激影像模型内容的位置在第(u-1)个实体透光板的前面,且u达到上限值n,但观测到的虚拟生物刺激影像模型内容的位置在第u个实体透光板的后面,则评估出被评估者的深度知觉能力水平为(u-1)级;
C.若观测到的虚拟生物刺激影像模型内容的位置在第(u-1)个实体透光板的前面,但u未达到上限值n,将u的值加1,直至u达到上限值,按A情况评估深度知觉能力水平等级。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211171427.9A CN115251827B (zh) | 2022-09-26 | 2022-09-26 | 基于虚实结合的深度知觉评估方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211171427.9A CN115251827B (zh) | 2022-09-26 | 2022-09-26 | 基于虚实结合的深度知觉评估方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115251827A CN115251827A (zh) | 2022-11-01 |
CN115251827B true CN115251827B (zh) | 2022-12-30 |
Family
ID=83757686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211171427.9A Active CN115251827B (zh) | 2022-09-26 | 2022-09-26 | 基于虚实结合的深度知觉评估方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115251827B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116958225B (zh) * | 2023-09-19 | 2023-11-28 | 广东视明科技发展有限公司 | 一种基于单向玻璃虚实结合的深度感知检测方法及系统 |
CN116942074B (zh) * | 2023-09-19 | 2024-01-02 | 广东视明科技发展有限公司 | 基于多屏深度多焦点堆栈模式的视功能评估训练方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004357760A (ja) * | 2003-06-02 | 2004-12-24 | Sophia Co Ltd | 遊技機 |
JP2011212430A (ja) * | 2010-03-16 | 2011-10-27 | Univ Of Tokyo | 視覚認知検査システム、訓練システムおよび支援システム |
WO2020157350A1 (es) * | 2019-01-28 | 2020-08-06 | Universitat Politècnica De València | Sistema y método de medida de la percepción de la profundidad en la visión |
WO2021087375A1 (en) * | 2019-11-01 | 2021-05-06 | Evolution Optiks Limited | Light field device, variable perception pixel rendering method therefor, and variable perception system and method using same |
CN113225547A (zh) * | 2016-02-11 | 2021-08-06 | 奇跃公司 | 减少深度平面之间切换的多深度平面显示系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2002246714A1 (en) * | 2000-12-18 | 2002-08-06 | Sara L. Johnson | 3d display devices with transient light scattering shutters |
-
2022
- 2022-09-26 CN CN202211171427.9A patent/CN115251827B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004357760A (ja) * | 2003-06-02 | 2004-12-24 | Sophia Co Ltd | 遊技機 |
JP2011212430A (ja) * | 2010-03-16 | 2011-10-27 | Univ Of Tokyo | 視覚認知検査システム、訓練システムおよび支援システム |
CN113225547A (zh) * | 2016-02-11 | 2021-08-06 | 奇跃公司 | 减少深度平面之间切换的多深度平面显示系统 |
WO2020157350A1 (es) * | 2019-01-28 | 2020-08-06 | Universitat Politècnica De València | Sistema y método de medida de la percepción de la profundidad en la visión |
WO2021087375A1 (en) * | 2019-11-01 | 2021-05-06 | Evolution Optiks Limited | Light field device, variable perception pixel rendering method therefor, and variable perception system and method using same |
Non-Patent Citations (1)
Title |
---|
"A multi-plane optical see-through head mounted display design for augmented reality";Shuxin Liu 等;《Journal of the SID》;20160430;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN115251827A (zh) | 2022-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115251827B (zh) | 基于虚实结合的深度知觉评估方法及系统 | |
CN102905609B (zh) | 视觉功能检查装置 | |
CN108398787B (zh) | 增强现实显示设备、方法和增强现实眼镜 | |
US6139152A (en) | Electronic depth perception testing system and apparatus for conducting depth perception tests | |
JP6245840B2 (ja) | 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置 | |
Drouot et al. | Effect of context and distance switching on visual performances in augmented reality | |
Pala et al. | Optical cross-talk and visual comfort of a stereoscopic display used in a real-time application | |
CN103356159B (zh) | 一种立体视觉检测图板及其制作方法 | |
US10255676B2 (en) | Methods and systems for simulating the effects of vision defects | |
JPH11212526A (ja) | カラースクリーンに画像を生成する方法及びそれに適するカラースクリーン | |
Jin et al. | Creating a comfortable stereoscopic viewing experience: effects of viewing distance and field of view on fusional range | |
Levy et al. | Stereopsis and binocular rivalry from dichoptic stereograms | |
Van Ee | Correlation between stereoanomaly and perceived depth when disparity and motion interact in binocular matching | |
Grove et al. | Ecologically invalid monocular texture leads to longer perceptual latencies in random-dot stereograms | |
Pisanpeeti et al. | Transparent objects: Influence of shape and color on depth perception | |
Winterbottom et al. | Investigating aircrew depth perception standards using a stereoscopic simulation environment | |
CN116958225B (zh) | 一种基于单向玻璃虚实结合的深度感知检测方法及系统 | |
CN113077510B (zh) | 遮蔽下的立体视功能检查系统 | |
CN115251828B (zh) | 立体游标视力评估装置及方法 | |
Grove et al. | The range of fusible horizontal disparities around the empirical horopters | |
CN115624313B (zh) | 多场景双眼能量刺激的同时视分级检查系统及方法 | |
Deas et al. | Estimation of altitude in stereoscopic-3D versus 2D real-world scenes | |
Bahn et al. | Device for diagnosis and treatment of impairments on binocular vision and stereopsis | |
Tsang et al. | Effect of color contrast on visual lobe shape characteristics | |
Vreven | 3D shape discrimination using relative disparity derivatives |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |