CN116942074B - 基于多屏深度多焦点堆栈模式的视功能评估训练方法 - Google Patents
基于多屏深度多焦点堆栈模式的视功能评估训练方法 Download PDFInfo
- Publication number
- CN116942074B CN116942074B CN202311205248.7A CN202311205248A CN116942074B CN 116942074 B CN116942074 B CN 116942074B CN 202311205248 A CN202311205248 A CN 202311205248A CN 116942074 B CN116942074 B CN 116942074B
- Authority
- CN
- China
- Prior art keywords
- virtual
- model image
- evaluated
- virtual reality
- reality display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 104
- 230000004382 visual function Effects 0.000 title claims abstract description 95
- 238000000034 method Methods 0.000 title claims abstract description 16
- 238000012549 training Methods 0.000 title abstract description 33
- 230000000638 stimulation Effects 0.000 claims abstract description 177
- 239000011521 glass Substances 0.000 claims abstract description 150
- 210000001508 eye Anatomy 0.000 claims abstract description 99
- 230000000007 visual effect Effects 0.000 claims abstract description 64
- 230000004438 eyesight Effects 0.000 claims description 48
- 230000005764 inhibitory process Effects 0.000 claims description 17
- 238000012854 evaluation process Methods 0.000 claims description 16
- 230000001629 suppression Effects 0.000 claims description 15
- 239000003086 colorant Substances 0.000 claims description 8
- 230000005856 abnormality Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000009471 action Effects 0.000 description 14
- 230000008447 perception Effects 0.000 description 14
- 230000004044 response Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000004064 dysfunction Effects 0.000 description 7
- 210000005252 bulbus oculi Anatomy 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 201000009487 Amblyopia Diseases 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000035699 permeability Effects 0.000 description 2
- 238000012797 qualification Methods 0.000 description 2
- 206010062942 Optic Nerve Hypoplasia Diseases 0.000 description 1
- 235000013559 Schnittsellerie Nutrition 0.000 description 1
- 244000169997 Schnittsellerie Species 0.000 description 1
- 208000004350 Strabismus Diseases 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000003792 cranial nerve Anatomy 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000008482 dysregulation Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 208000026611 isolated optic nerve hypoplasia Diseases 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/09—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing accommodation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/08—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Ophthalmology & Optometry (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Eye Examination Apparatus (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提出一种基于多屏深度多焦点堆栈模式的视功能评估训练方法,涉及视觉功能的技术领域,以虚拟现实显示装置显示待评估视功能类型对应的虚拟生物刺激模型影像,并采取与镜显玻璃配合的方式,镜显玻璃可透射或反射虚拟生物刺激模型影像,待评估者在观测虚拟生物刺激模型影像时,基于多屏配合,双眼切换观测屏幕,实现观测距离上切换的同时,接收多信息源的深度线索刺激,且从多种距离的平面上接收视觉刺激光线,与传统的固定距离电子显示设备平面发射视觉刺激光线相比,提升了待评估者评估时的舒适度,且更接近于人在自然状态下现实世界的丰富场景,有利于脑神经区域对视觉功能的调节,也有利于深度和距离的感知调节,使视功能评估结果更可靠。
Description
技术领域
本发明涉及视觉功能的技术领域,更具体地,涉及一种基于多屏深度多焦点堆栈模式的视功能评估训练方法。
背景技术
在正常生活工作中,我们要看不同距离的物体,需要双眼视功能的参与,所以,应进行双眼视功能检查评估。若发现双眼视功能障碍,可制定相应视功能训练方案,对眼睛视觉系统进行训炼,从而提高视觉功能、视觉舒适度。
目前,视功能障碍影响着全世界数十亿人,视功能障碍包括立体视深度感知不足、视觉抑制(在双眼共同注视状态下,一眼视网膜功能部分或全部被优势眼压抑的一种生理现象)、动态视力不足、斜视、弱视、近视、融合聚散功能障碍、调节障碍、视神经发育不全等,这些视功能障碍会影响人的正常生活,导致患者的生活质量下降,如立体视深度感知能力不足,深度知觉受到抑制的人,无法感知三维世界,难以在他们的视觉空间追踪物体,如视觉抑制容易引起弱视,而弱视患者的单眼注视能力很差,不能形成正常的立体视觉,他们眼中物体不能准确地把握立体感,不能从事测绘、美工等对眼睛立体视觉要求比较高的职业,因此,视功能障碍是严重降低生活质量但又被忽视的问题。
传统的视觉功能检测评估方式是借助医生辅助,利用纸质的展示板向待评估者展示的,这种对医生的依赖程度高,对于年龄小的待评估者,易受检测环境的干扰,最终得到的评估结果的准确度低。随着科技的发展,也有基于电子设备的视功能检测装置被提出,如现有技术中公开了一种智能手机的视功能检测系统及方法,利用手机软件控制视功能检测和分析判断,同时利用手机前置摄像头实时监测人眼到视标的测试距离,能够实时移动检测视力功能,而且不依赖医生指导,受环境影响的程度低。但是从电子屏幕上观看到的场景与现实世界观看的场景不同,评估结果可靠性低,另外,视觉信息在一个固定距离通过电子屏幕传达,这个屏幕距离会影响观众感知立体显示中的立体深度,由于人的视觉系统需要调节和聚散以获得清晰而单一的视觉,调节刺激和聚散刺激之间存在距离冲突,调节距离和聚散距离之间的冲突越大,知觉偏差就越大,而距离冲突规模就越大,知觉扭曲就越强。此时,若是单一距离的观看控制,不利于深度视差感知调节,而且较少信息源的双眼深度线索刺激,不利于脑神经区域对视觉功能的调节,因此,目前的视功能评估方式不能够兼顾视功能的训练。
随着当前视觉显示领域的发展,具备高反射与强透过性能特点的镜显玻璃被提出,镜显玻璃也叫做智能玻璃、魔镜、镜面玻璃、镜面成像玻璃、镜面电视玻璃等,可以与显示设备合成,当触屏显示设备关闭时,此时的镜显玻璃呈现出镜面的效果,而将显示设备开启时,可以将显示设备屏幕上的光线透过,能在玻璃的表面上形成清晰的动画,且同时能呈现出镜面的效果,在自由健身训练领域被广泛应用。镜显玻璃的高反射性以及强透过性能,在观测距离上利于深度视差的感知调节,可以提升使用者所观测到的立体深度效果,因此,在利用电子设备进行视功能评估时,若再结合镜显玻璃,可提升视功能评估效果。
发明内容
为解决当前视功能评估的方式评估结果可靠性低,待评估者观测距离单一、双眼刺激信息源少,无法兼顾视功能训练的问题,本发明提出一种基于多屏深度多焦点堆栈模式的视功能评估训练方法,提升视功能评估的可靠性,并且结合多种信息源刺激感知空间维度,改善对深度和距离的感知,且兼顾对视功能的训练。
为了达到上述技术效果,本发明的技术方案如下:
一种基于多屏深度多焦点堆栈模式的视功能评估系统,包括:
虚拟生物刺激模型影像生成模块,用于根据待评估视功能类型,生成视功能类型对应的虚拟生物刺激模型影像;
至少一个虚拟现实显示装置,用于显示虚拟生物刺激模型影像;
至少一个镜显玻璃,位于虚拟现实显示装置的前方,与至少一个虚拟现实显示装置的摆放位置平行或垂直,以透射或反射所述虚拟现实显示装置中显示的虚拟生物刺激模型影像;
观测设备,用于待评估者观测虚拟生物刺激模型影像,并用于待评估者分辨所视虚拟生物刺激模型影像的状态情况;
状态判断模块,用于判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况;
评估结果输出模块,用于输出待评估者的视功能评估结果。
在本技术方案中,以虚拟现实显示装置显示待评估视功能类型对应的虚拟生物刺激模型影像,并采取虚拟现实显示装置、镜显玻璃配合的方式,其中,镜显玻璃可透射或反射虚拟现实显示装置中显示的虚拟生物刺激模型影像,待评估者在观测虚拟生物刺激模型影像时,基于至少一个虚拟现实显示装置及镜显玻璃形成的多屏配合,双眼切换观测屏幕,实现观测距离上切换的同时,接收多种信息源的深度线索刺激,且从多种距离的平面上接收视觉刺激光线,与现有传统的固定距离电子显示设备平面发射视觉刺激光线相比,提升了待评估者评估时的舒适度,且更接近于人在自然状态下现实世界的丰富场景,有利于脑神经区域对视觉功能的调节,也有利于深度和距离的感知调节,使得视觉功能评估结果更可靠。
优选地,所述待评估视功能类型包括:立体视、眼位及抑制;其中,立体视对应的虚拟生物刺激模型影像为具有深度位置立体感显示关系的视觉刺激影像;眼位评估对应的虚拟生物刺激模型影像为中心能对齐重合或分离的不同形状、色彩的视觉刺激影像;眼睛抑制对应的虚拟生物刺激模型影像为色彩鲜明的视觉刺激影像。
根据上述技术手段,以不同的虚拟生物刺激模型影像匹配不同的待评估视功能类型,灵活性高。
优选地,所述虚拟现实显示装置包括:透明虚拟现实显示屏及虚拟现实显示柜体;在所述透明虚拟现实显示屏的正后方、与所述透明虚拟现实显示屏距离h处,设有一个实物,所述透明虚拟现实显示屏的一侧设有一个镜显玻璃,所述镜显玻璃所在的平面与所述透明虚拟现实显示屏所在的平面呈小于90°的夹角,所述虚拟现实显示柜体设置于透明虚拟现实显示屏的侧方;待评估者位于镜显玻璃的前方,利用所述观测设备观测透明虚拟现实显示屏及虚拟现实显示柜体显示的虚拟生物刺激模型影像时,虚拟现实显示柜体显示的虚拟生物刺激模型影像通过镜显玻璃二次投射至观测设备。
根据上述技术手段,在透明虚拟现实显示屏后方设置一个实物,对于透明虚拟现实显示屏而言,显示虚拟生物刺激模型影像的屏幕刺激待评估者双眼的中心视野,虚拟生物刺激模型影像刺激待评估者双眼的周边视野,再与实物结合,实现虚实结合,在透明虚拟现实显示屏的一侧再设置一个镜显玻璃,在待评估者观测时,自透明虚拟现实显示屏一侧至另一侧的虚拟现实显示柜体,观测内容可实现:虚实结合、镜显透射显示、镜显和虚拟生物刺激模型影像的虚实结合,在视觉上也有远近距离的切换,不同的界面上显示视觉刺激信息,促进待评估者的视功能感知。
优选地,当所述待评估视功能类型为立体视时,评估过程包括:
待评估者的眼俯视角大于45度,通过观测设备依次注视透明虚拟现实显示屏、注视实物、注视镜显玻璃、注视虚拟现实显示柜体;
在注视透明虚拟现实显示屏、注视实物时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:透明虚拟现实显示屏上显示的虚拟生物刺激模型影像的位置在实物前方及透明虚拟现实显示屏上显示的虚拟生物刺激模型影像的位置在实物后方;
在注视镜显玻璃、注视虚拟现实显示柜体时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:镜显玻璃上显示的虚拟生物刺激模型影像的位置在透明柜前方以及镜显玻璃上显示的虚拟生物刺激模型影像的位置在透明柜后方;
通过状态判断模块判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况,若是,记录为一次“正确”;否则,记录为一次“错误”;
重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,得到“正确”的次数,并计算“正确”的概率,若“正确”的概率大于设置的分辨概率阈值,则通过评估结果输出模块输出待评估者的立体视评估结果为合格;否则,通过评估结果输出模块输出待评估者的立体视评估结果为不合格。
根据上述技术手段,立体视对应的虚拟生物刺激模型影像的状态即为深度位置关系上的“前后”,待评估者重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,可以得出待评估者K次虚拟生物刺激模型影像的状态的注视分辨操作下“正确”的概率,评估出待评估者的立体视功能的水平。
优选地,当所述待评估视功能类型为眼位时,评估过程包括:
待评估者的眼俯视角大于45度,通过观测设备依次注视透明虚拟现实显示屏、注视实物、注视镜显玻璃、注视虚拟现实显示柜体;
在注视透明虚拟现实显示屏、注视实物时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:透明虚拟现实显示屏上显示的虚拟生物刺激模型影像的中心对齐以及透明虚拟现实显示屏上显示的虚拟生物刺激模型影像中心不对齐;
在注视镜显玻璃、注视虚拟现实显示柜体时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:镜显玻璃上显示的虚拟生物刺激模型影像的中心对齐以及镜显玻璃上显示的虚拟生物刺激模型影像中心不对齐;
通过状态判断模块判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况,若是,记录为一次“正确”;否则,记录为一次“错误”;
重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,得到“正确”的次数,并计算“正确”的概率,若“正确”的概率大于设置的分辨概率阈值,则通过评估结果输出模块输出待评估者的眼位评估结果为眼位正常;否则,通过评估结果输出模块输出待评估者的眼位评估结果为眼位异常。
优选地,当所述待评估视功能类型为抑制时,评估过程包括:
待评估者的眼俯视角大于45度,通过观测设备依次注视透明虚拟现实显示屏、注视实物、注视镜显玻璃、注视虚拟现实显示柜体;
在注视透明虚拟现实显示屏、注视实物时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:透明虚拟现实显示屏上显示的虚拟生物刺激模型影像同时被待评估者的双眼看到以及镜显玻璃上显示的虚拟生物刺激模型影像在被待评估者的某只眼睛观测时,时有时无;
在注视镜显玻璃、注视虚拟现实显示柜体时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:镜显玻璃上显示的虚拟生物刺激模型影像同时被待评估者的双眼看到以及镜显玻璃上显示的虚拟生物刺激模型影像在被待评估者的某只眼睛观测时,时有时无;
通过状态判断模块判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况,若是,记录为一次“正确”;否则,记录为一次“错误”;
重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,得到“正确”的次数,并计算“正确”的概率,若“正确”的概率大于设置的分辨概率阈值,则通过评估结果输出模块输出待评估者的抑制评估结果为合格;否则,通过评估结果输出模块输出待评估者的抑制评估结果为不合格。
优选地,所述虚拟现实显示装置共一个,所述镜显玻璃共有两个,两个镜显玻璃平行且对立,以相距h1的距离设置,虚拟现实显示装置设置于两个镜显玻璃的同一侧,中心位于h1/2处,虚拟现实显示装置所在的平面与镜显玻璃所在的平面垂直;
待评估者位于虚拟现实显示装置的正前方,利用所述观测设备观测虚拟生物刺激模型影像时,虚拟现实显示装置显示的虚拟生物刺激模型影像通过每一个镜显玻璃的镜面呈像,并反射至待评估者使用的观测设备。
优选地,当所述待评估视功能类型为立体视时,评估过程包括:
待评估者位于虚拟现实显示装置的正前方,眼俯视角大于45度,通过观测设备依次注视虚拟现实显示装置、每一个镜显玻璃;
在注视虚拟现实显示装置以及注视镜显玻璃时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:镜显玻璃上显示的虚拟生物刺激模型影像在虚拟现实显示装置的前方以及镜显玻璃上显示的虚拟生物刺激模型影像在虚拟现实显示装置的后方;
通过状态判断模块判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况,若是,记录为一次“正确”;否则,记录为一次“错误”;
重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,得到“正确”的次数,并计算“正确”的概率,若“正确”的概率大于设置的分辨概率阈值,则通过评估结果输出模块输出待评估者的立体视评估结果为合格;否则,通过评估结果输出模块输出待评估者的立体视评估结果为不合格;
当所述待评估视功能类型为眼位时,评估过程包括:
待评估者位于虚拟现实显示装置的正前方,眼俯视角大于45度,通过观测设备依次注视虚拟现实显示装置、每一个镜显玻璃;
在注视虚拟现实显示装置、每一个镜显玻璃时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:镜显玻璃上显示的虚拟生物刺激模型影像的中心对齐以及镜显玻璃上显示的虚拟生物刺激模型影像中心不对齐;
通过状态判断模块判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况,若是,记录为一次“正确”;否则,记录为一次“错误”;
重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,得到“正确”的次数,并计算“正确”的概率,若“正确”的概率大于设置的分辨概率阈值,则通过评估结果输出模块输出待评估者的眼位评估结果为眼位正常;否则,通过评估结果输出模块输出待评估者的眼位评估结果为眼位异常;
当所述待评估视功能类型为抑制时,评估过程包括:
待评估者位于虚拟现实显示装置的正前方,眼俯视角大于45度,通过观测设备依次注视虚拟现实显示装置、每一个镜显玻璃;
在注视虚拟现实显示装置以及注视镜显玻璃时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:镜显玻璃上显示的虚拟生物刺激模型影像同时被待评估者的双眼看到以及镜显玻璃上显示的虚拟生物刺激模型影像在被待评估者的某只眼睛观测时,时有时无;
通过状态判断模块判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况,若是,记录为一次“正确”;否则,记录为一次“错误”;
重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,得到“正确”的次数,并计算“正确”的概率,若“正确”的概率大于设置的分辨概率阈值,则通过评估结果输出模块输出待评估者的抑制评估结果为合格;否则,通过评估结果输出模块输出待评估者的抑制评估结果为不合格。
与现有技术相比,本发明技术方案的有益效果是:
本发明提出了一种基于多屏深度多焦点堆栈模式的视功能评估训练方法,以虚拟现实显示装置显示待评估视功能类型对应的虚拟生物刺激模型影像,并采取虚拟现实显示装置、镜显玻璃配合的方式,其中,镜显玻璃可透射或反射虚拟现实显示装置中显示的虚拟生物刺激模型影像,待评估者在观测虚拟生物刺激模型影像时,基于至少一个虚拟现实显示装置及镜显玻璃形成的多屏配合,双眼切换观测屏幕,实现观测距离上切换的同时,接收多种信息源的深度线索刺激,且从多种距离的平面上接收视觉刺激光线,与现有传统的固定距离电子显示设备平面发射视觉刺激光线相比,提升了待评估者评估时的舒适度,且更接近于人在自然状态下现实世界的丰富场景,有利于脑神经区域对视觉功能的调节,也有利于深度和距离的感知调节,使得视觉功能评估结果更可靠。而且,在设置的训练时长下,通过多屏配合,可以锻炼多方位的眼球运动,扩大训练的视野范围以及角度,强化眼球运动扫视,注视能力,提高视功能水平。
附图说明
图1表示本发明实施例中提出的基于多屏深度多焦点堆栈模式的视功能评估系统的整体结构图;
图2表示本发明实施例中提出的基于多屏深度多焦点堆栈模式的视功能评估系统的第一种结构示意图;
图3表示本发明实施例中提出的基于多屏深度多焦点堆栈模式的视功能评估系统的第二种结构示意图;
图4表示本发明实施例中提出的用于立体视评估的虚拟生物刺激模型影像的示意图;
图5表示本发明实施例中提出的用于眼位评估的虚拟生物刺激模型影像的示意图;
图6表示本发明实施例中提出的用于抑制评估的虚拟生物刺激模型影像的示意图;
图7表示本发明实施例中提出的基于多屏深度多焦点堆栈模式的视功能评估系统的第三种结构示意图;
图8表示本发明实施例中提出的所述的多屏配合的视功能评估系统进行视功能训练的方法的一种流程示意图;
图9表示本发明实施例中提出的所述的多屏配合的视功能评估系统进行视功能训练的方法的另一种流程示意图;
1-虚拟生物刺激模型影像生成模块;2-虚拟现实显示装置;3-镜显玻璃;4-观测设备;5-状态判断模块;6-评估结果输出模块;21-透明虚拟现实显示屏;22-虚拟现实显示柜体。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好地说明本实施例,附图某些部位会有省略、放大或缩小,并不代表实际尺寸;
对于本领域技术人员来说,附图中某些公知内容说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,本实施例提出了一种基于多屏深度多焦点堆栈模式的视功能评估系统,该系统包括:虚拟生物刺激模型影像生成模块1、至少一个虚拟现实显示装置2、至少一个镜显玻璃3、观测设备4、状态判断模块5及评估结果输出模块6,虚拟生物刺激模型影像生成模块1根据待评估视功能类型,生成视功能类型对应的虚拟生物刺激模型影像;在本实施例中,待评估视功能类型包括:立体视、眼位及抑制;其中,立体视对应的虚拟生物刺激模型影像为具有深度位置立体感显示关系的视觉刺激影像,还可以加一些光流;眼位评估对应的虚拟生物刺激模型影像为中心能对齐重合或分离的不同形状、色彩的视觉刺激影像;眼睛抑制对应的虚拟生物刺激模型影像为色彩鲜明的视觉刺激影像。在实际实施时,虚拟生物刺激模型影像生成模块1里封装有不同形态的虚拟生物刺激模型影像程序编码模块,可根据待评估者需要编码生成不同的虚拟生物刺激模型影像。虚拟生物刺激模型影像生成模块1生成的虚拟生物刺激模型影像在虚拟现实显示装置2中显示,镜显玻璃3位于虚拟现实显示装置2的前方,与至少一个虚拟现实显示装置2的摆放位置平行或垂直,在本实施例中,根据实际需要将镜显玻璃与虚拟现实显示装置2平行摆放设置或垂直摆放设置,镜显玻璃3能透射或反射虚拟现实显示装置2中显示的虚拟生物刺激模型影像。
在本实施例中,观测设备4可以为红绿眼镜、偏振眼镜、分光眼镜及裸眼,在虚拟现实显示装置2采用裸眼3D显示技术时,待评估者可以直接观看。
观测设备4用于待评估者观测虚拟生物刺激模型影像,并用于待评估者分辨所视虚拟生物刺激模型影像的状态情况;状态判断模块5用于判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况;评估结果输出模块6用于输出待评估者的视功能评估结果。
本实施例以虚拟现实显示装置2显示待评估视功能类型对应的虚拟生物刺激模型影像,并采取虚拟现实显示装置2、镜显玻璃3配合的方式,其中,镜显玻璃3可透射或反射虚拟现实显示装置2中显示的虚拟生物刺激模型影像,待评估者在观测虚拟生物刺激模型影像时,可基于至少一个虚拟现实显示装置2及镜显玻璃3形成的多屏配合,双眼切换观测屏幕,实现观测距离上切换的同时,接收多种信息源的深度线索刺激,且从多种距离的平面上接收视觉刺激光线,与现有传统的固定距离电子显示设备平面发射视觉刺激光线相比,提升了待评估者评估时的舒适度,且更接近于人在自然状态下现实世界的丰富场景,有利于脑神经区域对视觉功能的调节,也有利于深度和距离的感知调节,使得视觉功能评估结果更可靠。
实施例2
在本实施例中,参见图2,虚拟现实显示装置2包括:透明虚拟现实显示屏21及虚拟现实显示柜体22,在本实施例中,透明虚拟现实显示屏21是可显示虚拟生物刺激模型影像且是透明的;在透明虚拟现实显示屏21的正后方、与透明虚拟现实显示屏21距离h处,设有一个实物A,透明虚拟现实显示屏21的一侧设有一个镜显玻璃3,镜显玻璃3所在的平面与所述透明虚拟现实显示屏21所在的平面呈小于90°的夹角,参见图2,在本实施例中,此夹角为锐角,接近于直角,虚拟现实显示柜体22设置于透明虚拟现实显示屏21的侧方,在图2中虚拟现实显示柜体22设置于透明虚拟现实显示屏21的正后方,镜显玻璃3所在的平面与所述透明虚拟现实显示屏21所在的平面围成一个区域,待评估者在所述区域内,利用所述观测设备4观测透明虚拟现实显示屏21及虚拟现实显示柜体22显示的虚拟生物刺激模型影像时,虚拟现实显示柜体22显示的虚拟生物刺激模型影像通过镜显玻璃3二次投射至观测设备4。
在透明虚拟现实显示屏21的后方设置一个实物,对于透明虚拟现实显示屏21而言,显示虚拟生物刺激模型影像的屏幕刺激待评估者双眼的中心视野,虚拟生物刺激模型影像刺激待评估者双眼的周边视野,再与实物结合,实现虚实结合,在透明虚拟现实显示屏21的一侧再设置一个镜显玻璃3,在待评估者观测时,自透明虚拟现实显示屏21一侧至另一侧的虚拟现实显示柜体22,观测内容可实现:虚实结合、镜显透射显示、镜显和虚拟生物刺激模型影像的虚实结合,在视觉上也有远近距离的切换,不同的界面上显示视觉刺激信息,促进待评估者的视功能感知。
在本实施例中,参见图3所示的另一种系统示意图,虚拟现实显示装置2也是包括:透明虚拟现实显示屏21及虚拟现实显示柜体22,在本实施例中,透明虚拟现实显示屏21是可显示虚拟生物刺激模型影像且是透明的;在透明虚拟现实显示屏21的正后方距离透明虚拟现实显示屏21的距离h处,设有一个实物A,透明虚拟现实显示屏21的一侧设有一个镜显玻璃3,镜显玻璃3所在的平面与所述透明虚拟现实显示屏21所在的平面呈小于90°的夹角,参见图3,在本实施例中,此夹角为0度角,即镜显玻璃3所在的平面与所述透明虚拟现实显示屏21所在的平面平行,虚拟现实显示柜体22设置于透明虚拟现实显示屏21的侧方,与虚拟现实显示柜体22所在的平面垂直,待评估者位于镜显玻璃3的前方,在所述区域内,利用所述观测设备4观测虚拟生物刺激模型影像时,虚拟现实显示柜体22显示的虚拟生物刺激模型影像通过镜显玻璃3进行二次投射至观测设备4。
当待评估视功能类型为立体视时,评估过程包括:
待评估者的眼俯视角大于45度,通过观测设备4依次注视透明虚拟现实显示屏21、注视实物、注视镜显玻璃3、注视虚拟现实显示柜体22;
在注视透明虚拟现实显示屏21、注视实物时,分辨所视虚拟生物刺激模型影像的状态情况,图4为本实施例提出的立体视所用的虚拟生物刺激模型影像,如图4所示,以图4中的箭头作为虚拟生物刺激模型影像移动方向,待评估者在深度维度上观测的是虚拟生物刺激模型影像是以屏幕为基准“进”或“出”的,在视觉上,与实物A存在前后关系,虚拟生物刺激模型影像的状态包括:透明虚拟现实显示屏21上显示的虚拟生物刺激模型影像的位置在实物前方及透明虚拟现实显示屏21上显示的虚拟生物刺激模型影像的位置在实物后方;
在注视镜显玻璃3、注视虚拟现实显示柜体22时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:镜显玻璃3上显示的虚拟生物刺激模型影像的位置在透明柜前方以及镜显玻璃3上显示的虚拟生物刺激模型影像的位置在透明柜后方;
通过状态判断模块5判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况,若是,记录为一次“正确”;否则,记录为一次“错误”;
重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,得到“正确”的次数,并计算“正确”的概率,若“正确”的概率大于设置的分辨概率阈值,则通过评估结果输出模块6输出待评估者的立体视评估结果为合格;否则,通过评估结果输出模块6输出待评估者的立体视评估结果为不合格。
立体视对应的虚拟生物刺激模型影像的状态即为深度位置关系上的“前”或“后”,待评估者重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,可以得出待评估者K次虚拟生物刺激模型影像的状态的注视分辨操作下“正确”的概率,评估出待评估者的立体视功能的水平。
当所述待评估视功能类型为眼位时,图5表示用于眼位评估的虚拟生物刺激模型影像示意图,其中,“C”表示外圈圆与十字中心对齐的情况,“D”表示外圈圆与十字中心不对齐的情况,在不同眼位状况的待评估者观测时,对于同一个外圈圆与十字的配合,看到的中心对齐状况不同,评估过程包括:
待评估者的眼俯视角大于45度,通过观测设备4依次注视透明虚拟现实显示屏21、注视实物、注视镜显玻璃3、注视虚拟现实显示柜体22;
在注视透明虚拟现实显示屏21、注视实物时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:透明虚拟现实显示屏21上显示的虚拟生物刺激模型影像的中心对齐以及透明虚拟现实显示屏21上显示的虚拟生物刺激模型影像中心不对齐;
在注视镜显玻璃3、注视虚拟现实显示柜体22时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:镜显玻璃3上显示的虚拟生物刺激模型影像的中心对齐以及镜显玻璃3上显示的虚拟生物刺激模型影像中心不对齐;此时即是观测的镜显玻璃3上的反射影像。
通过状态判断模块5判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况,若是,记录为一次“正确”;否则,记录为一次“错误”;
重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,得到“正确”的次数,并计算“正确”的概率,若“正确”的概率大于设置的分辨概率阈值,则通过评估结果输出模块6输出待评估者的眼位评估结果为眼位正常;否则,通过评估结果输出模块6输出待评估者的眼位评估结果为眼位异常。
当待评估视功能类型为抑制时,图6表示用于双眼抑制评估的虚拟生物刺激模型影像示意图,对应左右眼均有一个影响,其中,“W”表示左眼睛所看到的中心影像,“M”表示右眼睛所看到的中心影像,在待评估者两只眼睛观测虚拟生物刺激模型影像时,观测设备4可以是分视眼镜,两只眼睛分别看不同中心影像对应的虚拟生物刺激模型影响,对于双眼存在抑制情况的待评估者,虚拟生物刺激模型影像可能被某只眼睛观测时,时有时无,对于双眼不存在抑制情况的待评估者,虚拟生物刺激模型影像能同时被待评估者的双眼看到,评估过程包括:
待评估者的眼俯视角大于45度,通过观测设备4依次注视透明虚拟现实显示屏21、注视实物A、注视镜显玻璃3、注视虚拟现实显示柜体22;
在注视透明虚拟现实显示屏21、注视实物A时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:透明虚拟现实显示屏21上显示的虚拟生物刺激模型影像同时被待评估者的双眼看到以及镜显玻璃3上显示的虚拟生物刺激模型影像在被待评估者的某只眼睛观测时,时有时无;
在注视镜显玻璃3、注视虚拟现实显示柜体22时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:镜显玻璃3上显示的虚拟生物刺激模型影像同时被待评估者的双眼看到以及镜显玻璃3上显示的虚拟生物刺激模型影像在被待评估者的某只眼睛观测时,时有时无;
通过状态判断模块5判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况,若是,记录为一次“正确”;否则,记录为一次“错误”;
重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,得到“正确”的次数,并计算“正确”的概率,若“正确”的概率大于设置的分辨概率阈值,则通过评估结果输出模块6输出待评估者的抑制评估结果为合格;否则,通过评估结果输出模块6输出待评估者的抑制评估结果为不合格。
在以上合格与不合格的计算过程中,考虑待评估者参与评估的适应性情况,不以一次观测结果作为定论,多进行几次虚拟生物刺激模型影像的状态的注视分辨操作,然后设置分辨概率阈值,根据“正确”次数概率与分辨概率阈值的比较,得出是否合格或不合格,在具体实施时,可采取5次重复操作,若分辨“正确”的次数大于3次,即“正确”的概率大于60%,则“合格”。
实施例3
如图7所示,本实施例提出另一种系统结构示意图,虚拟现实显示装置2共一个,镜显玻璃3共有两个,参见图7,两个镜显玻璃3平行且对立,如图7所示,包括第一镜显玻璃31和第二镜显玻璃32,以相距h1的距离设置,虚拟现实显示装置2设置于两个镜显玻璃3的同一侧,中心位于h1/2处,虚拟现实显示装置2所在的平面与镜显玻璃3所在的平面垂直;
待评估者位于虚拟现实显示装置2的正前方,利用所述观测设备4观测虚拟生物刺激模型影像时,虚拟现实显示装置2显示的虚拟生物刺激模型影像通过每一个镜显玻璃3的镜面呈像,并反射至待评估者使用的观测设备4。
对于立体视、眼位及抑制的评估过程,与实施例2采用的虚拟生物刺激模型影像类似,具体的:
当待评估视功能类型为立体视时,评估过程包括:
待评估者位于虚拟现实显示装置2的正前方,眼俯视角大于45度,通过观测设备4依次注视虚拟现实显示装置2、每一个镜显玻璃3;
在注视虚拟现实显示装置2以及注视镜显玻璃3时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:镜显玻璃3上显示的虚拟生物刺激模型影像在虚拟现实显示装置2的前方以及镜显玻璃3上显示的虚拟生物刺激模型影像在虚拟现实显示装置2的后方;
通过状态判断模块5判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况,若是,记录为一次“正确”;否则,记录为一次“错误”;
重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,得到“正确”的次数,并计算“正确”的概率,若“正确”的概率大于设置的分辨概率阈值,则通过评估结果输出模块6输出待评估者的立体视评估结果为合格;否则,通过评估结果输出模块6输出待评估者的立体视评估结果为不合格;
当所述待评估视功能类型为眼位时,评估过程包括:
待评估者位于虚拟现实显示装置2的正前方,眼俯视角大于45度,通过观测设备4依次注视虚拟现实显示装置2、每一个镜显玻璃3;
在注视虚拟现实显示装置2、每一个镜显玻璃3时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:镜显玻璃3上显示的虚拟生物刺激模型影像的中心对齐以及镜显玻璃3上显示的虚拟生物刺激模型影像中心不对齐;
通过状态判断模块5判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况,若是,记录为一次“正确”;否则,记录为一次“错误”;
重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,得到“正确”的次数,并计算“正确”的概率,若“正确”的概率大于设置的分辨概率阈值,则通过评估结果输出模块6输出待评估者的眼位评估结果为眼位正常;否则,通过评估结果输出模块6输出待评估者的眼位评估结果为眼位异常;
当所述待评估视功能类型为抑制时,评估过程包括:
待评估者位于虚拟现实显示装置2的正前方,眼俯视角大于45度,通过观测设备4依次注视虚拟现实显示装置2、每一个镜显玻璃3;
在注视虚拟现实显示装置2以及注视镜显玻璃3时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:镜显玻璃3上显示的虚拟生物刺激模型影像同时被待评估者的双眼看到以及镜显玻璃3上显示的虚拟生物刺激模型影像在被待评估者的某只眼睛观测时,时有时无;
通过状态判断模块5判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况,若是,记录为一次“正确”;否则,记录为一次“错误”;
重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,得到“正确”的次数,并计算“正确”的概率,若“正确”的概率大于设置的分辨概率阈值,则通过评估结果输出模块6输出待评估者的抑制评估结果为合格;否则,通过评估结果输出模块6输出待评估者的抑制评估结果为不合格。
在以上合格与不合格的计算过程中,考虑待评估者参与评估的适应性情况,不以一次观测结果作为定论,多进行几次虚拟生物刺激模型影像的状态的注视分辨操作,然后设置分辨概率阈值,根据“正确”次数概率与分辨概率阈值的比较,得出是否合格或不合格,在具体实施时,可采取5次重复操作,若分辨“正确”的次数大于3次,即“正确”的概率大于60%,则“合格”。
实施例4
本实施例提出一种利用所述的基于多屏深度多焦点堆栈模式的视功能评估系统进行视功能训练的方法,流程图如图8所示,包括以下步骤:
S1.设定最大用户观测距离;本实施例中,最大用户观测距离设置为2m;
S2.指示用户在镜显玻璃3所在的平面与透明虚拟现实显示屏21所在的平面围成区域内的设定位置上,利用观测设备4依次观测透明虚拟现实显示屏21上显示的虚拟生物刺激模型影像、镜显玻璃3上显示的虚拟生物刺激模型影像以及虚拟现实显示柜体22上显示的虚拟生物刺激模型影像,并根据虚拟生物刺激模型影像的提示,作出肢体姿态响应动作;如虚拟生物刺激模型影像里为“射击”靶标提示时,待评估者做出射击动作响应,并且虚拟现实显示装置捕捉待评估者的动作响应,如虚拟生物刺激模型影像里为“虚拟接球”提示时,待评估者移动身体与四肢,做出接球动作响应,并且虚拟现实显示装置捕捉待评估者的动作响应,此外,还有可在观测区域内设定一定的蹦床,一边进行跳跃运动一边进行视觉训练,提升运动功能与平衡性,或使用陀螺仪、动作捕捉等方式识别本体,进行视觉-本体感知训练。
S3.判断训练时长是否达到当前位置对应的训练时长,若是,执行步骤S4;否则,返回步骤S2;
S4.在当前设定位置的基础上,以△L为距离均匀增大尺度,增大观测距离;在本实施例中,以0.5m的为距离均匀增大尺度。
S5.指示用户在增大观测距离后的位置,利用观测设备4依次观测透明虚拟现实显示屏21上显示的虚拟生物刺激模型影像、镜显玻璃3上显示的虚拟生物刺激模型影像以及虚拟现实显示柜体22上显示的虚拟生物刺激模型影像,并根据虚拟生物刺激模型影像的提示,作出肢体姿态响应动作;
S6.判断训练时长是否达到当前位置对应的训练时长,若是,执行步骤S7;否则,返回步骤S5;每个位置对应的训练时长设置为10分钟。
S7.判断增大后的观测距离是否达到设定的最大用户观测距离,若是,训练终止;否则,返回步骤S4。
实施例5
本实施例提出一种利用所述的基于多屏深度多焦点堆栈模式的视功能评估系统进行视功能训练的方法,流程图如图9所示,包括以下步骤:
S101.设定最大用户观测距离;本实施例中,最大用户观测距离设置为2m;
S201.指示用户在设定位置上,利用观测设备4依次观测虚拟现实显示装置2上显示的虚拟生物刺激模型影像、每一个镜显玻璃3上显示的虚拟生物刺激模型影像,并根据虚拟生物刺激模型影像的提示,作出肢体姿态响应动作;如虚拟生物刺激模型影像里为“射击”靶标提示时,待评估者做出射击动作响应,并且虚拟现实显示装置捕捉待评估者的动作响应,如虚拟生物刺激模型影像里为“虚拟接球”提示时,待评估者移动身体与四肢,做出接球动作响应,并且虚拟现实显示装置捕捉待评估者的动作响应,此外,还有可在观测区域内设定一定的蹦床,一边进行跳跃运动一边进行视觉训练,提升运动功能与平衡性,或使用陀螺仪、动作捕捉等方式识别本体,进行视觉-本体感知训练。
S301.判断训练时长是否达到当前位置对应的训练时长,若是,执行步骤S401;否则,返回步骤S201;
S401.在当前设定位置的基础上,以△L为距离均匀增大尺度,增大观测距离;在本实施例中,以0.5m的为距离均匀增大尺度。
S501.指示用户在增大观测距离后的位置,利用观测设备4依次观测虚拟现实显示装置2上显示的虚拟生物刺激模型影像、每一个镜显玻璃3上显示的虚拟生物刺激模型影像,并根据虚拟生物刺激模型影像的提示,作出肢体姿态响应动作;
S601.判断训练时长是否达到当前位置对应的训练时长,若是,执行步骤S701;否则,返回步骤S501;
S701.判断增大后的观测距离是否达到设定的最大用户观测距离,若是,训练终止;否则,返回步骤S401。
在设置的训练时长下,通过多屏配合,可以锻炼多方位的眼球运动,扩大训练的视野范围以及角度,强化眼球运动扫视,注视能力,提高视功能水平。
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (7)
1.一种基于多屏深度多焦点堆栈模式的视功能评估系统,其特征在于,包括:
虚拟生物刺激模型影像生成模块(1),用于根据待评估视功能类型,生成视功能类型对应的虚拟生物刺激模型影像;
至少一个虚拟现实显示装置(2),用于显示虚拟生物刺激模型影像;
至少一个镜显玻璃(3),位于虚拟现实显示装置(2)的前方,与至少一个虚拟现实显示装置(2)的摆放位置平行或垂直,以透射或反射所述虚拟现实显示装置(2)中显示的虚拟生物刺激模型影像;
观测设备(4),用于待评估者观测虚拟生物刺激模型影像,并用于待评估者分辨所视虚拟生物刺激模型影像的状态情况;
状态判断模块(5),用于判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况;
评估结果输出模块(6),用于输出待评估者的视功能评估结果;
所述虚拟现实显示装置(2)包括:透明虚拟现实显示屏(21)及虚拟现实显示柜体(22);在所述透明虚拟现实显示屏(21)的正后方、与所述透明虚拟现实显示屏(21)距离h处,设有一个实物,所述透明虚拟现实显示屏(21)的一侧设有一个镜显玻璃(3),所述镜显玻璃(3)所在的平面与所述透明虚拟现实显示屏(21)所在的平面呈小于90°的夹角,所述虚拟现实显示柜体(22)设置于透明虚拟现实显示屏(21)的侧方;待评估者位于镜显玻璃(3)的前方,利用所述观测设备(4)观测透明虚拟现实显示屏(21)及虚拟现实显示柜体(22)显示的虚拟生物刺激模型影像时,虚拟现实显示柜体(22)显示的虚拟生物刺激模型影像通过镜显玻璃(3)二次投射至观测设备(4),待评估者的眼俯视角大于45度,通过观测设备(4)依次注视透明虚拟现实显示屏(21)、注视实物、注视镜显玻璃(3)、注视虚拟现实显示柜体(22)。
2.根据权利要求1所述的基于多屏深度多焦点堆栈模式的视功能评估系统,其特征在于,所述待评估视功能类型包括:立体视、眼位及抑制;其中,立体视对应的虚拟生物刺激模型影像为具有深度位置立体感显示关系的视觉刺激影像;眼位评估对应的虚拟生物刺激模型影像为中心能对齐重合或分离的不同形状、色彩的视觉刺激影像;眼睛抑制对应的虚拟生物刺激模型影像为色彩鲜明的视觉刺激影像。
3.根据权利要求2所述的基于多屏深度多焦点堆栈模式的视功能评估系统,其特征在于,当所述待评估视功能类型为立体视时,评估过程包括:
待评估者的眼俯视角大于45度,通过观测设备(4)依次注视透明虚拟现实显示屏(21)、注视实物、注视镜显玻璃(3)、注视虚拟现实显示柜体(22);
在注视透明虚拟现实显示屏(21)、注视实物时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:透明虚拟现实显示屏(21)上显示的虚拟生物刺激模型影像的位置在实物前方及透明虚拟现实显示屏(21)上显示的虚拟生物刺激模型影像的位置在实物后方;
在注视镜显玻璃(3)、注视虚拟现实显示柜体(22)时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:镜显玻璃(3)上显示的虚拟生物刺激模型影像的位置在虚拟现实显示柜体(22)前方以及镜显玻璃(3)上显示的虚拟生物刺激模型影像的位置在虚拟现实显示柜体(22)后方;
通过状态判断模块(5)判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况,若是,记录为一次“正确”;否则,记录为一次“错误”;
重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,得到“正确”的次数,并计算“正确”的概率,若“正确”的概率大于设置的分辨概率阈值,则通过评估结果输出模块(6)输出待评估者的立体视评估结果为合格;否则,通过评估结果输出模块(6)输出待评估者的立体视评估结果为不合格。
4.根据权利要求2所述的基于多屏深度多焦点堆栈模式的视功能评估系统,其特征在于,当所述待评估视功能类型为眼位时,评估过程包括:
待评估者的眼俯视角大于45度,通过观测设备(4)依次注视透明虚拟现实显示屏(21)、注视实物、注视镜显玻璃(3)、注视虚拟现实显示柜体(22);
在注视透明虚拟现实显示屏(21)、注视实物时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:透明虚拟现实显示屏(21)上显示的虚拟生物刺激模型影像的中心对齐以及透明虚拟现实显示屏(21)上显示的虚拟生物刺激模型影像中心不对齐;
在注视镜显玻璃(3)、注视虚拟现实显示柜体(22)时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:镜显玻璃(3)上显示的虚拟生物刺激模型影像的中心对齐以及镜显玻璃(3)上显示的虚拟生物刺激模型影像中心不对齐;
通过状态判断模块(5)判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况,若是,记录为一次“正确”;否则,记录为一次“错误”;
重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,得到“正确”的次数,并计算“正确”的概率,若“正确”的概率大于设置的分辨概率阈值,则通过评估结果输出模块(6)输出待评估者的眼位评估结果为眼位正常;否则,通过评估结果输出模块(6)输出待评估者的眼位评估结果为眼位异常。
5.根据权利要求2所述的基于多屏深度多焦点堆栈模式的视功能评估系统,其特征在于,当所述待评估视功能类型为抑制时,评估过程包括:
待评估者的眼俯视角大于45度,通过观测设备(4)依次注视透明虚拟现实显示屏(21)、注视实物、注视镜显玻璃(3)、注视虚拟现实显示柜体(22);
在注视透明虚拟现实显示屏(21)、注视实物时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:透明虚拟现实显示屏(21)上显示的虚拟生物刺激模型影像同时被待评估者的双眼看到以及透明虚拟现实显示屏(21)上显示的虚拟生物刺激模型影像在被待评估者的某只眼睛观测时,时有时无;
在注视镜显玻璃(3)、注视虚拟现实显示柜体(22)时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:镜显玻璃(3)上显示的虚拟生物刺激模型影像同时被待评估者的双眼看到以及镜显玻璃(3)上显示的虚拟生物刺激模型影像在被待评估者的某只眼睛观测时,时有时无;
通过状态判断模块(5)判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况,若是,记录为一次“正确”;否则,记录为一次“错误”;
重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,得到“正确”的次数,并计算“正确”的概率,若“正确”的概率大于设置的分辨概率阈值,则通过评估结果输出模块(6)输出待评估者的抑制评估结果为合格;否则,通过评估结果输出模块(6)输出待评估者的抑制评估结果为不合格。
6.一种基于多屏深度多焦点堆栈模式的视功能评估系统,其特征在于,包括:
虚拟生物刺激模型影像生成模块(1),用于根据待评估视功能类型,生成视功能类型对应的虚拟生物刺激模型影像;
至少一个虚拟现实显示装置(2),用于显示虚拟生物刺激模型影像;
至少一个镜显玻璃(3),位于虚拟现实显示装置(2)的前方,与至少一个虚拟现实显示装置(2)的摆放位置平行或垂直,以透射或反射所述虚拟现实显示装置(2)中显示的虚拟生物刺激模型影像;
观测设备(4),用于待评估者观测虚拟生物刺激模型影像,并用于待评估者分辨所视虚拟生物刺激模型影像的状态情况;
状态判断模块(5),用于判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况;
评估结果输出模块(6),用于输出待评估者的视功能评估结果;
所述虚拟现实显示装置(2)共一个,所述镜显玻璃(3)共有两个,两个镜显玻璃(3)平行且对立,以相距h1的距离设置,虚拟现实显示装置(2)设置于两个镜显玻璃(3)的同一侧,其中心位于1/2h1处,虚拟现实显示装置(2)所在的平面与镜显玻璃(3)所在的平面垂直;
待评估者位于虚拟现实显示装置(2)的正前方,利用所述观测设备(4)观测虚拟生物刺激模型影像时,虚拟现实显示装置(2)显示的虚拟生物刺激模型影像通过每一个镜显玻璃(3)的镜面呈像,并反射至待评估者使用的观测设备(4);待评估者位于虚拟现实显示装置(2)的正前方,眼俯视角大于45度,通过观测设备(4)依次注视虚拟现实显示装置(2)、每一个镜显玻璃(3)。
7.根据权利要求6所述的基于多屏深度多焦点堆栈模式的视功能评估系统,其特征在于,待评估者的视功能类型包括:立体视、眼位及抑制;其中,立体视对应的虚拟生物刺激模型影像为具有深度位置立体感显示关系的视觉刺激影像;眼位评估对应的虚拟生物刺激模型影像为中心能对齐重合或分离的不同形状、色彩的视觉刺激影像;眼睛抑制对应的虚拟生物刺激模型影像为色彩鲜明的视觉刺激影像;
当所述待评估视功能类型为立体视时,评估过程包括:
在注视虚拟现实显示装置(2)以及注视镜显玻璃(3)时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:镜显玻璃(3)上显示的虚拟生物刺激模型影像在虚拟现实显示装置(2)的前方以及镜显玻璃(3)上显示的虚拟生物刺激模型影像在虚拟现实显示装置(2)的后方;
通过状态判断模块(5)判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况,若是,记录为一次“正确”;否则,记录为一次“错误”;
重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,得到“正确”的次数,并计算“正确”的概率,若“正确”的概率大于设置的分辨概率阈值,则通过评估结果输出模块(6)输出待评估者的立体视评估结果为合格;否则,通过评估结果输出模块(6)输出待评估者的立体视评估结果为不合格;
当所述待评估视功能类型为眼位时,评估过程包括:
在注视虚拟现实显示装置(2)、每一个镜显玻璃(3)时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:镜显玻璃(3)上显示的虚拟生物刺激模型影像的中心对齐以及镜显玻璃(3)上显示的虚拟生物刺激模型影像中心不对齐;
通过状态判断模块(5)判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况,若是,记录为一次“正确”;否则,记录为一次“错误”;
重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,得到“正确”的次数,并计算“正确”的概率,若“正确”的概率大于设置的分辨概率阈值,则通过评估结果输出模块(6)输出待评估者的眼位评估结果为眼位正常;否则,通过评估结果输出模块(6)输出待评估者的眼位评估结果为眼位异常;
当所述待评估视功能类型为抑制时,评估过程包括:
在注视虚拟现实显示装置(2)以及注视镜显玻璃(3)时,分辨所视虚拟生物刺激模型影像的状态情况,所述虚拟生物刺激模型影像的状态包括:镜显玻璃(3)上显示的虚拟生物刺激模型影像同时被待评估者的双眼看到以及镜显玻璃(3)上显示的虚拟生物刺激模型影像在被待评估者的某只眼睛观测时,时有时无;
通过状态判断模块(5)判断待评估者分辨的虚拟生物刺激模型影像的状态情况是否符合虚拟生物刺激模型影像的实际显示情况,若是,记录为一次“正确”;否则,记录为一次“错误”;
重复进行K次虚拟生物刺激模型影像的状态的注视分辨操作,得到“正确”的次数,并计算“正确”的概率,若“正确”的概率大于设置的分辨概率阈值,则通过评估结果输出模块(6)输出待评估者的抑制评估结果为合格;否则,通过评估结果输出模块(6)输出待评估者的抑制评估结果为不合格。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311205248.7A CN116942074B (zh) | 2023-09-19 | 2023-09-19 | 基于多屏深度多焦点堆栈模式的视功能评估训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311205248.7A CN116942074B (zh) | 2023-09-19 | 2023-09-19 | 基于多屏深度多焦点堆栈模式的视功能评估训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116942074A CN116942074A (zh) | 2023-10-27 |
CN116942074B true CN116942074B (zh) | 2024-01-02 |
Family
ID=88453213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311205248.7A Active CN116942074B (zh) | 2023-09-19 | 2023-09-19 | 基于多屏深度多焦点堆栈模式的视功能评估训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116942074B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117976129A (zh) * | 2024-04-01 | 2024-05-03 | 河海大学 | 一种基于多深度线索场景的深度知觉训练方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113080839A (zh) * | 2021-04-12 | 2021-07-09 | 广州市诺以德医疗科技发展有限公司 | 结合眼球运动训练的动态立体视功能评估系统 |
CN113081718A (zh) * | 2021-04-12 | 2021-07-09 | 广东视明科技发展有限公司 | 基于生物机制刺激配合的综合视觉训练系统 |
CN115251827A (zh) * | 2022-09-26 | 2022-11-01 | 广东视明科技发展有限公司 | 基于虚实结合的深度知觉评估方法及系统 |
WO2023033461A1 (ko) * | 2021-09-03 | 2023-03-09 | 재단법인 아산사회복지재단 | 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11793403B2 (en) * | 2020-03-16 | 2023-10-24 | Vivid Vision, Inc. | Apparatus, systems, and methods for vision assessment and treatment |
-
2023
- 2023-09-19 CN CN202311205248.7A patent/CN116942074B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113080839A (zh) * | 2021-04-12 | 2021-07-09 | 广州市诺以德医疗科技发展有限公司 | 结合眼球运动训练的动态立体视功能评估系统 |
CN113081718A (zh) * | 2021-04-12 | 2021-07-09 | 广东视明科技发展有限公司 | 基于生物机制刺激配合的综合视觉训练系统 |
WO2023033461A1 (ko) * | 2021-09-03 | 2023-03-09 | 재단법인 아산사회복지재단 | 가상현실 기반 안구운동 및 시지각 훈련 제공 장치 및 방법 |
CN115251827A (zh) * | 2022-09-26 | 2022-11-01 | 广东视明科技发展有限公司 | 基于虚实结合的深度知觉评估方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN116942074A (zh) | 2023-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104603673B (zh) | 头戴式系统以及使用头戴式系统计算和渲染数字图像流的方法 | |
Patterson | Human factors of stereo displays: An update | |
Patterson | Human factors of 3‐D displays | |
CN103781400B (zh) | 用于治疗视力损害的方法和系统 | |
US9513478B2 (en) | Mirror system and control method therefor | |
Yang et al. | Effects of vergence and accommodative responses on viewer's comfort in viewing 3D stimuli | |
Hoffman et al. | Focus information is used to interpret binocular images | |
US20090295683A1 (en) | Head mounted display with variable focal length lens | |
CN116942074B (zh) | 基于多屏深度多焦点堆栈模式的视功能评估训练方法 | |
WO2003079272A1 (en) | Materials and methods for simulating focal shifts in viewers using large depth of focus displays | |
KR101203921B1 (ko) | 안구 추적과 위치 기반 서비스를 이용한 정보 제공 장치 | |
CN108710206A (zh) | 一种应用于vr显示器的防眩晕和视疲劳的方法和装置 | |
US11684517B2 (en) | Medical device for improving environmental perception for blind or visually-impaired users | |
CN114903760A (zh) | 一种斜视训练设备 | |
CN110433062B (zh) | 一种基于动态视频影像的视功能训练系统 | |
MacKenzie et al. | Eliminating accommodation-convergence conflicts in stereoscopic displays: Can multiple-focal-plane displays elicit continuous and consistent vergence and accommodation responses? | |
CN112926523B (zh) | 基于虚拟现实的眼球追踪方法、系统 | |
Cutolo et al. | The role of camera convergence in stereoscopic video see-through augmented reality displays | |
US10255676B2 (en) | Methods and systems for simulating the effects of vision defects | |
CN107291233B (zh) | 头戴3d显示设备的视觉优化系统、智能终端及头戴设备 | |
Singh | Near-field depth perception in optical see-though augmented reality | |
CN109917908B (zh) | 一种ar眼镜的图像获取方法及系统 | |
Imai et al. | Measuring gaze direction perception capability of humans to design human centered communication systems | |
Soans et al. | A framework for the continuous evaluation of 3D Motion Perception in Virtual Reality | |
Jin et al. | Creating a comfortable stereoscopic viewing experience: effects of viewing distance and field of view on fusional range |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |