CN116138726A - 一种基于虚拟现实的视敏度综合评估系统及方法 - Google Patents
一种基于虚拟现实的视敏度综合评估系统及方法 Download PDFInfo
- Publication number
- CN116138726A CN116138726A CN202310079917.4A CN202310079917A CN116138726A CN 116138726 A CN116138726 A CN 116138726A CN 202310079917 A CN202310079917 A CN 202310079917A CN 116138726 A CN116138726 A CN 116138726A
- Authority
- CN
- China
- Prior art keywords
- model
- optotype
- module
- virtual reality
- tested
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/028—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
- A61B3/032—Devices for presenting test symbols or characters, e.g. test chart projectors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0033—Operational features thereof characterised by user input arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
- A61B3/005—Constructional features of the display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H5/00—Exercisers for the eyes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Ophthalmology & Optometry (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Epidemiology (AREA)
- Physical Education & Sports Medicine (AREA)
- Rehabilitation Therapy (AREA)
- Pain & Pain Management (AREA)
- Human Computer Interaction (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明提供了一种基于虚拟现实的视敏度综合评估系统及方法,包括:虚拟现实头盔、手柄、主机终端;虚拟现实头盔用于将虚拟现实环境呈现给被试,并通过眼动采集模块采集被试实时眼动数据;手柄由被试单手控制,用于采集被试视标模型判断结果;主机终端,由中央处理器、存储器、传输模块、显示器和输入装置构成,包含环境模块、信息记录模块、评估计算模块和结果模块,用于提供虚拟环境,采集数据信息并完成数据处理,再将结果通过主机显示器呈现;评估计算模块包含静态视力测试、动态视力测试与运动视力测试单元,通过不同模块测试,采集测试过程中的视标模型数据与眼动数据,评估被试不同模式下视敏度能力,对视敏度评估与科研需求提供有效帮助。
Description
技术领域
本发明涉及视敏度评估技术领域,具体是一种基于虚拟现实的视敏度综合评估系统。
背景技术
视敏度测量主要分为静态视敏度测量与动态视敏度测量。视敏度是指眼分辨物体细微结构的最大能力。静态视敏度通常是指临床上用视力表检测视敏度结果,是一种标准评价视敏度能力的方法。但是,如车辆驾驶、体育运动等日常行为都对视敏度提出不同特征的要求。因此,需要通过评价动态视敏度对眼视光进行系统评价。动态视敏度即动态视力是指当被试与目标之间存在相对运动时,对视觉目标细节的识别能力。动态视敏度的测量通常是指平面内的视标运动,而分辨由远及近的物体运动的视敏度通常由静态视敏度结果进行代替。
有研究指出,视觉发生主要由腹侧视觉通路与背侧视觉通路两部分组成。其中背侧视觉通路主要处理运动物体的视觉信号,因此采用由远及近的物体运动的视敏度测量需要新型的测量设备与方法。
传统动态视敏度评估手段主要分为机械式与数字式两种。机械式通过搭载不同视标模型的小车运动,完成视敏度测量;数字式在屏幕上生成视标模型,并通过程序控制完成视敏度测量。
现有技术中存在问题如下:
(1)传统动态视力评估手段主要分为机械式与数字式两种。机械式通过搭载不同视标模型的小车运动,完成视力测量,需占用大面积场地;数字式在屏幕上生成视标模型,并通过程序控制完成视力测量,但所收集的被试视野范围有限,无法对被试视敏度结果做出全面评价。
(2)传统动态视力评估手段均需要对实验人员进行大量培训且需要大量手动操作,产生较高的人力成本,因此在本申请中提出一种基于虚拟现实的视敏度综合评估系统进行视力的训练与测量。
发明内容
本发明的目的在于提供一种基于虚拟现实的视敏度综合评估系统及方法,以解决上述背景技术中提出的问题。
本发明的技术方案是:一种基于虚拟现实的视敏度综合评估系统,包括虚拟现实头盔、手柄、主机终端;
虚拟现实头盔,佩戴在被试的头部,具有第一显示装置,被配置用于将虚拟现实环境呈现给被试,还具有眼动采集模块采集被试佩戴时的眼动数据,虚拟现实头盔能够实现空间定位功能;
手柄,由被试单手控制,具有交互采集模块,用于采集被试测试过程中的视标模型判断结果,并通过手柄的无线传输模块将视标模型判断结果传输至主机终端,且手柄具有空间定位功能;
主机终端,由中央处理器、存储器、传输模块、显示器和输入装置构成,传输模块用于连接虚拟现实头盔、手柄并传输数据,中央处理器被配置运行视敏度综合评估程序,视敏度综合评估程序由环境模块、信息记录模块、评估计算模块和结果模块组成,环境模块用于控制虚拟现实头盔实现虚拟现实环境界面的显示,包括显示背景、视标模型、引导被试完成测试的指示、以及被试实时的测量情况;信息记录模块通过显示器和输入装置完成被试基本信息的录入,并存储在存储器中;评估计算模块实现静态视力测试、动态视力测试和运动视力测试,接收测试过程中手柄交互采集模块获取的视标模型判断结果和虚拟现实头盔眼动采集模块采集的眼动数据;评估计算模块还根据信息记录模块的被试基本信息调整环境模块的背景参数与初始视标模型参数;进一步,评估计算模块根据被试者信息、视标模型判断结果及眼动数据,计算静态视力、动态视力与运动视力以及操作反应时间、眼动反应时间结果;结果模块,用于控制终端的显示器显示相关计算结果。
优选的,评估计算模块执行静态视力测量时,环境模块控制虚拟现实头盔在预设背景下显示静止的视标模型,通过信息记录模块记录的被试信息调整虚拟头盔中环境模块显示视标模型的初始尺寸,被试通过手柄输入对视标模型的判断结果,每十次为一组,当视标模型判断正确结果≥6次,则记为成功,并选择尺寸小一级的视标模型重新测试,否则记为失败并选择大一级视标模型重新测试,直至被试在同一尺寸视标模型失败两次视为测试,记录测试过程中视标模型视标模型尺寸、视标模型方向、判断结果。
优选的,评估计算模块执行动态视力测试时,环境模块控制虚拟现实头盔在预设背景下显示运动的视标模型,通过终端输入装置调整环境模块显示参数,包括背景颜色与视标模型颜色、视标模型运动速度、视标模型尺寸,其中运动速度范围为0~100°/s,被试通过手柄输入对视标模型的判断结果,每十次为一组,当视标模型判断正确结果≥6次,则记为本组测试成功,并选择尺寸小一级的视标模型重新测试,否则记为失败并选择大一级视标模型重新测试,直至被试在同一尺寸视标模型失败两次视为测试结束,记录测试过程中背景颜色与视标模型颜色、视标模型尺寸、视标模型运动速度、判断结果、视觉-运动反应时、眼动反应。
优选的,评估计算模块执行运动视力测试时,环境模块控制虚拟现实头盔在预设背景下显示运动的视标模型,通过终端输入装置调整环境模块显示参数,包括背景颜色与视标模型颜色、视标模型运动速度、视标模型尺寸及视标模型的生成区域,其中视标模型运动速度范围为0~5m/s,视标模型运动方向为由远及近从生成区域至被试虚拟现实头盔,被试通过手柄输入对视标模型的判断结果,每十次为一组,当视标模型判断正确结果≥6次,则记为成功,并选择尺寸小一级的视标模型重新测试,否则记为失败并选择大一级视标模型重新测试,直至被试在同一尺寸视标模型失败两次视为测试结束,记录测试过程中背景颜色与视标模型颜色、视标模型尺寸、视标模型运动速度、视标模型生成区域、判断结果。
优选的,环境模块用于控制虚拟现实头盔实现的视标模型显示,视标模型根据以下公式设计:
上述公式中,L为视标模型边长,单位为mm,d为测试时视标模型至被试眼结点的视标模型设计距离,视标模型设计距离优选为5m,V为小数记录视力结果,用视角的倒数表达,视角单位为(′)分,R=2.9089×10-4,为1′的弧度制表达。
优选的,所述评估计算模块执行动态视力测试时,虚拟现实环境中视标模型运动轨迹保持视标模型位置与被试距离不变,且沿着距被试5m处的空间球面中相切运动。
评估计算模块根据被试者信息、视标模型判断结果及眼动数据,计算动态视力的具体公式为:
A=-lgT1-N1×0.01
其中,A为动态视力计算结果;T1为动态视力测量过程中比被试所能识别个数超60%的视标模型尺寸小一级的视标模型尺寸;N1为结果矫正系数,取在当前视标模型尺寸等级,即T1等级下被试可识别视标模型个数;
评估计算模块根据被试者信息、视标模型判断结果及眼动数据,计算运动视力的具体公式为:
其中,B为运动视力计算结果;V为视标模型的小数记录视力结果;d为视标模型设计距离;R为弧度值表达常数;s为在虚拟环境中视标模型模型至人眼初始距离,单位为mm;a为视标模型运动速度,单位为mm/s;t为视标模型运动时间;N1为结果矫正系数,取在当前等级下被试可识别的视标模型个数;
一种基于虚拟现实的视敏度综合评估方法,采用上述基于虚拟现实的视敏度综合评估系统,包括如下步骤:
S1:在主机终端的信息记录模块完成被试基本信息录入,被试佩戴虚拟现实头盔并使用单手控制手柄,完成虚拟现实头盔与手柄的定位;
S2:执行评估计算模块的静态视力测量单元,根据所述信息记录模块的被试基本信息调整环境模块所出现的初始视标模型,接下来视标模型出现时变换视标模型尺寸及开口方向,记录被试在手柄中输入的视标模型判断结果,测试结束后评估计算模块计算静态视力并存储;
S3:执行动态视力训练与测试单元调整所述环境模块的背景参数与视标模型颜色、尺寸、开口方向、运动速度,测试过程中视标模型随机生成并根据被试视标模型的判断结果自动变换视标模型参数,记录被试在手柄中输入的视标模型判断结果,测试结束后评估计算模块计算动态视力并存储;
S4:执行运动视力训练与测试单元:调整所述环境模块的背景参数与视标模型颜色、尺寸与开口方向、视标模型生成位置与运动速度,产生不同位置处由远及近的视标模型,测试时依据被试的视标模型判断结果自动变换视标模型生成位置及运动速度,测试结束后评估计算模块计算运动视力并存储;
S5:将上述方法中S1-S4计算的结果通过结果模块输出至主机终端的显示器测试结果交互界面。
所述评估计算模块采用以下公式计算眼动反应时间:
t眼动=t采集眼动-t视标模型出现
上述公式中,t眼动为眼动反应时间;t采集眼动为头盔内置的眼动追踪元件采集到眼动的时间点,t视标模型出现为头盔内部出现视标模型的时间点;
所述评估计算模块采用以下公式计算操作反应时间:
t操作=t采集操作-t视标模型出现
上述公式中,t操作为眼动反应时间;t采集操作为无线手柄采集到被试操作的时间点,t视标模型出现为头盔内部出现视标模型的时间点。
本发明通过改进在此提供一种基于虚拟现实的视敏度综合评估系统及方法,与现有技术相比,具体如下改进及优点:
其一:本发明的视敏度综合评估系统,利用虚拟现实作为视敏度评估手段,参数调整简便,评估方法新颖且有趣味性,一改传统视敏度评估方式枯燥且复杂的特点,在评估过程中视标模型随被试表现自动变换参数可实现测试全程自动化,无需操作者额外练习即可控制系统,实验结果真实、客观;
其二:本发明采用科学合理的测试设置,采集眼动数据和视标模型判断结果,结合多种参数设计了动态视力、运动视力、视觉-运动反应时间、眼动时间等计算公式,能够真实准确的获取被试的动态视力和运动视力,反应被试在测试过程中的视敏度与眼动情况,与传统视力测量结果相比,更加全面地评估被试在视敏度评估过程中的眼动情况与视觉表现,经过大量被试的实验数据验证后,结果可靠,有应用价值;
其三:本发明的视敏度综合评估系统,相较于传统测量方法中视标模型运动区域占视野范围比例较小,消除外部复杂环境干扰,通过虚拟现实技术实现理想的视标模型测试环境和条件,能够在减少外界环境影响的同时,实现视标模型在更广泛的视野范围内运动,并给予被试充足的判断时间;
其四:本发明的视敏度综合评估系统可实现多参数调节,包括但不限于评估计算模式、环境模块与视标模型参数,对各种参数精确控制,同时能够根据操作者实际需求进行不同模块化测试组合,自定义个性化测试流程,并实现不同环境下测量被试的视敏度情况;
其五:本发明的视敏度综合评估系统实现了运动视敏度功能的训练与评估,对不同视野区域进行视敏度评估,根据提供的计算公式可量化评估被试的运动视敏度能力。
附图说明
下面结合附图和实施例对本发明做出进一步解释:
图1是本发明提供的基于虚拟现实的视敏度综合评估系统组成;
图2是本发明的主机终端中评估计算模块的静态视敏度测试单元参考图;
图3是本发明的主机终端中评估计算模块的动态视力测试单元参考图;
图4是本发明的主机终端中评估计算模块的运动视力测试单元参考图;
图5是本发明提供的视标模型示意图;
图6是本发明的视敏度评估流程图;
图7是本发明的主机终端的信息记录模块参考图;
图8是本发明的主机终端的结束模块参考图;
图9是本发明视敏度的各项指标与系统测量参数的相关性验证数据。
具体实施方式
下面对本发明进行详细说明,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明通过改进在此提供一种基于虚拟现实的视敏度综合评估系统及方法,本发明的技术方案是:
一种基于虚拟现实的视敏度综合评估系统,如图1所示,包括虚拟现实头盔102、手柄103、主机终端101;
所述虚拟现实头盔102,佩戴在被试的头部,具有第一显示装置,被配置用于将虚拟现实环境呈现给被试,还具有眼动采集模块采集被试佩戴时的眼动数据,虚拟现实头盔102具有空间定位功能进行空间定位,优选的,虚拟现实头盔102采用HTC VIVE虚拟现实头盔;
所述手柄103,由被试单手控制,具有交互采集模块,用于采集被试测试过程中的视标模型判断结果,并通过手柄103的无线传输模块将视标模型判断结果传输至主机终端101,且手柄103具有空间定位功能,设置手柄圆盘键以正右方向为0°且以逆时针方向为正方向,则45°~135°判定为“上”、135°~225°判定为“左”、225°~315°判定为“下”、-45°~45°判定为“右”,优选的手柄103采用HTC VIVE自带的无线手柄;
主机终端101,由中央处理器、存储器、传输模块、显示器和输入装置构成,主机终端101通过传输模块分别连接虚拟现实头盔102、手柄103并传输数据,中央处理器被配置运行视敏度综合评估程序,视敏度综合评估程序由环境模块、信息记录模块、评估计算模块和结果模块组成,环境模块用于实现虚拟现实界面,通过控制虚拟现实头盔102显示预设的虚拟现实环境,包括显示背景、视标模型、引导被试完成测试的指示、以及被试实时的测量情况;信息记录模块通过显示器和输入装置完成被试基本信息的录入,并存储在存储器中;评估计算模块实现静态视力测试、动态视力测试和运动视力测试,接收测试过程中手柄103交互采集模块获取的视标模型判断结果和虚拟现实头盔102眼动采集模块采集的眼动数据;评估计算模块还根据信息记录模块的被试基本信息调整环境模块的背景参数与初始视标模型参数;进一步,评估计算模块根据被试者信息、视标模型判断结果及眼动数据,计算静态视力、动态视力与运动视力以及操作反应时间、眼动反应时间结果;结果模块,用于控制终端的显示器显示相关计算结果。
执行评估计算模块执行静态视力测量时,如图2所示,环境模块控制虚拟现实头盔102在预设背景下显示静止的视标模型,视标模型以小数法显示包括0.1、0.125、0.16、0.2、0.25、0.32、0.4、0.5、0.625、0.8、1.0、1.25和1.6并可通过按键或下拉菜单进行选择,通过信息记录模块记录的被试信息调整虚拟头盔中环境模块显示视标模型的初始尺寸,被试通过手柄103输入对视标模型的判断结果,每十次为一组,当视标模型判断正确结果≥6次,则记为成功,并在主机终端101的显示屏显示“Correct”,并选择尺寸小一级的视标模型重新测试,否则记为失败并在主机终端101的显示屏显示“Wrong”,再选择大一级视标模型重新测试,直至被试在同一尺寸视标模型失败两次视为测试,记录测试过程中视标模型尺寸、视标模型方向、判断结果。
执行评估计算模块执行动态视力测试时,如图3所示,环境模块控制虚拟现实头盔102在预设背景下向被试显示运动的视标模型,通过主机终端101输入装置调整环境模块显示参数,包括背景颜色与视标模型颜色、视标模型运动速度、视标模型尺寸、其中运动速度范围为0~100°/s,视标模型运动方向包括水平左、右方向、垂直上、下方向,视标模型开口方向包括上、下、左、右四种,通过选择组合视标模型运动方向和开口方向实现视标模型沿对角线斜向运动,被试通过手柄103输入对视标模型的判断结果,每十次为一组,当视标模型判断正确结果≥6次,则记为成功,并选择尺寸小一级的视标模型重新测试,否则记为失败并选择大一级视标模型重新测试,直至被试在同一尺寸视标模型失败两次视为测试结束,记录测试过程中背景颜色与视标模型颜色、视标模型尺寸、视标模型运动速度、判断结果、视觉-运动反应时、眼动反应。
执行评估计算模块执行运动视力测试时,如图4所示,环境模块控制虚拟现实头盔102在预设背景下显示运动的视标模型,通过主机终端101输入装置调整环境模块显示参数,包括背景颜色与视标模型颜色、视标模型运动速度、视标模型尺寸及视标模型的生成区域,初始视标模型生成区域包括30°、60°、90°与120°视野范围区域或通过输入视角值生成初始视标模型,其中视标模型运动速度范围为0~5m/s,视标模型运动方向为由远及近从生成区域至被试虚拟现实头盔102,被试通过手柄103输入对视标模型的判断结果,每十次为一组,当视标模型判断正确结果≥6次,则记为成功,并选择尺寸小一级的视标模型重新测试,否则记为失败并选择大一级视标模型重新测试,直至被试在同一尺寸视标模型失败两次视为测试结束,记录测试过程中背景颜色与视标模型颜色、视标模型尺寸、视标模型运动速度、视标模型生成区域、判断结果。
环境模块用于控制虚拟现实头盔102实现的视标模型如图5显示,视标模型根据以下公式设计:
上述公式中,L为视标模型边长,单位为mm,d为测试时视标模型至被试眼结点的视标模型设计距离,视标模型设计距离优选为5m,V为小数记录视力结果,用视角的倒数表达,视角单位为(′)分,R=2.9089×10-4,为1′的弧度制表达。
所述评估计算模块执行动态视力测试时,虚拟现实环境中视标模型运动轨迹保持视标模型位置与被试距离不变,且沿着距被试5m处的空间球面中相切运动,保证距离始终为标准测试距离,避免测试过程中由于视标模型距离变化影响测试结果。
进一步,评估计算模块在测试完成后,计算静态视力、动态视力和运动视力。
评估计算模块根据被试者信息、视标模型判断结果及眼动数据,计算动态视力的具体公式为:
A=-lgT1-N1×0.01
其中,A为动态视力计算结果;T1为动态视力测量过程中比被试所能识别个数超60%的视标模型尺寸小一级的视标模型尺寸;N1为结果矫正系数,取在当前视标模型尺寸等级,即T1等级下被试可识别视标模型个数;
评估计算模块根据被试者信息、视标模型判断结果及眼动数据,计算运动视力的具体公式为:
其中,B为运动视力计算结果;V为视标模型的小数记录视力结果;d为视标模型设计距离;R为弧度值表达常数;s为在虚拟环境中视标模型至人眼初始距离,单位为mm;a为视标模型运动速度,单位为mm/s;t为视标模型运动时间;N1为结果矫正系数,取在当前视标模型尺寸等级下被试可识别的视标模型个数;
所述评估计算模块采用以下公式计算眼动反应时间:
t眼动=t采集眼动-t视标模型出现
上述公式中,t眼动为眼动反应时间;t采集眼动为头盔内置的眼动追踪元件采集到眼动的时间点,t视标模型出现为头盔内部出现视标模型模型的时间点;
所述评估计算模块采用以下公式计算操作反应时间:
t操作=t采集操作-t视标模型出现
上述公式中,t操作为眼动反应时间;t采集操作为手柄103采集到被试操作的时间点,t视标模型出现为头盔内部出现视标模型的时间点。
一种基于虚拟现实的视敏度综合评估方法,采用上述基于虚拟现实的视敏度综合评估系统,包括如下步骤,如图6所示:
S1:在主机终端101的信息记录模块完成被试基本信息录入,如图7a所示,包括姓名、性别、病历号、出生日期、实测左眼静态视力、实测右眼静态视力,被试佩戴虚拟现实头盔102并使用单手控制手柄103,完成虚拟现实头盔102与手柄103的定位,并在虚拟现实头盔102中提供图7b所示的系统介绍界面告知被试测试相关操作流程与测试内容。
S2:执行评估计算模块的静态视力测量单元,根据所述信息记录模块的被试基本信息调整环境模块所出现的初始视标模型,接下来视标模型出现时变换视标模型尺寸及开口方向,记录被试在手柄103中输入的视标模型判断结果,测试结束后评估计算模块计算静态视力并存储;
S3:执行动态视力训练与测试单元调整所述环境模块的背景参数与视标模型颜色、尺寸、开口方向、运动速度,测试过程中视标模型随机生成并根据被试视标模型的判断结果自动变换视标模型参数,记录被试在手柄103中输入的视标模型判断结果,测试结束后评估计算模块计算动态视力并存储;
S4:执行运动视力训练与测试单元:调整所述环境模块的背景参数与视标模型颜色、尺寸与开口方向、视标模型生成位置与运动速度,产生不同位置处由远及近的视标模型,测试时依据被试的视标模型判断结果自动变换视标模型生成位置及运动速度,测试结束后评估计算模块计算运动视力并存储;
S5:将上述方法中S1-S4计算的结果通过结果模块输出至主机终端101的显示器测试结果交互界面,操作者进入结果界面,将显示实测静态视力、静态视敏度评估结果、动态视敏度评估结果与运动视敏度评估结果如图8所示。
系统验证情况:
为验证本发明提供的系统评估视敏度的可靠性,进行了以下实验:
首先,使用《GB 11533-2011标准对数视力表》所述的标准视力表对正常视力被试与近视被试进行静态视敏度检测,所有被试无明显眼科疾病与外伤,无既往眼科病史,实验前未进行散瞳操作。将检测结果与本发明的系统结果通过主机终端101记录至信息记录模块的实测静态视敏度结果中;
然后,被试基于本发明提供的视敏度综合评估系统完成静态视敏度评估任务,由于动态视敏度与运动视敏度目前没有国内与国际统一标准,故本设备获得每个被试的单眼静态视敏度测量结果进行可靠性评价。为提高验证的科学性,对实测静态视敏度与虚拟静态视敏度的单眼情况进行相关性与显著性差异分析,图9所示为标准对数视力表与虚拟现实技术的静态视敏度评估之间的相关性与显著性差异性分析,显而易见,通过测量被试左眼、右眼及双眼的实测与虚拟静态视敏度结果均呈现较好相关性且不存在明显的统计学差异,正说明本发明提供的评估系统确实能够对被试静态视敏度进行可靠评估。因此,本发明提供的视敏度综合评估系统所测量的参数能够很好地反映出被试真实的视敏度情况,并在准确性与可靠性中得到验证。此外,通过动态视敏度与运动视敏度的评估,完善了视敏度评估体系。
本发明通过引入虚拟现实技术,极大地增加了视敏度测量的全面性与趣味性,将动态视敏度与运动视敏度进行量化评估,能够全面反应被试在日常生活中的视觉表现情况;特别地,在虚拟空间中,各项参数可以随时调整,相比于传统测试方法,简化了操作流程与硬件设备要求,通过模块化设计实现自定义不同视敏度能力评估,对视敏度评估与科研需求提供有效帮助。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (9)
1.一种基于虚拟现实的视敏度综合评估系统,其特征在于,包括:虚拟现实头盔、手柄、主机终端;
虚拟现实头盔,佩戴在被试的头部,具有第一显示装置,被配置用于将虚拟现实环境呈现给被试,还具有眼动采集模块采集被试测试过程中的眼动数据,虚拟现实头盔能够实现空间定位功能;
手柄,由被试单手控制,具有交互采集模块,用于采集被试测试过程中的视标模型判断结果,并通过手柄的无线传输模块将视标模型判断结果传输至主机终端,且手柄具有空间定位功能;
主机终端,由中央处理器、存储器、传输模块、显示器和输入装置构成,传输模块用于连接虚拟现实头盔、手柄并传输数据,中央处理器被配置运行视敏度综合评估程序,视敏度综合评估程序由环境模块、信息记录模块、评估计算模块和结果模块组成,环境模块用于控制虚拟现实头盔实现虚拟现实环境界面的显示,包括显示背景、视标模型、引导被试完成测试的指示、以及被试实时的测量情况;信息记录模块通过显示器和输入装置完成被试基本信息的录入,并存储在存储器中;评估计算模块实现静态视力测试、动态视力测试和运动视力测试,接收测试过程中手柄交互采集模块获取的视标模型判断结果和虚拟现实头盔眼动采集模块采集的眼动数据;评估计算模块还根据信息记录模块的被试基本信息调整环境模块的背景参数与初始视标模型参数;进一步,评估计算模块根据被试者信息、视标模型判断结果及眼动数据,计算静态视力、动态视力与运动视力以及操作反应时间、眼动反应时间结果;结果模块,用于控制终端的显示器显示相关计算结果。
3.根据权利要求2所述的一种基于虚拟现实的视敏度综合评估系统,其特征在于,评估计算模块执行动态视力测试时,环境模块控制虚拟现实头盔在预设背景下显示运动的视标模型,通过终端输入装置调整环境模块显示参数,包括背景颜色与视标模型颜色、视标模型运动速度、视标模型尺寸、其中运动速度范围为0~100°/s,被试通过手柄输入对视标模型的判断结果,每十次为一组,当视标模型判断正确结果≥6次,则记为成功,并选择尺寸小一级的视标模型重新测试,否则记为失败并选择大一级视标模型重新测试,直至被试在同一尺寸视标模型失败两次视为测试结束,记录测试过程中背景颜色与视标模型颜色、视标模型尺寸、视标模型运动速度、判断结果、视觉-运动反应时、眼动反应。
4.根据权利要求3所述的一种基于虚拟现实的视敏度综合评估系统,其特征在于,评估计算模块根据被试者信息、视标模型判断结果及眼动数据,计算动态视力的具体公式为:
A=-lgT1-N1×0.01
其中,A为动态视力计算结果;T1为动态视力测量过程中比被试所能识别个数超60%的视标模型尺寸小一级的视标模型尺寸;N1为结果矫正系数,取在当前视标模型尺寸等级,即T1等级下被试可识别视标模型个数。
5.根据权利要求2所述的一种基于虚拟现实的视敏度综合评估系统,其特征在于,评估计算模块执行运动视力测试时,环境模块控制虚拟现实头盔在预设背景下显示运动的视标模型,通过终端输入装置调整环境模块显示参数,包括背景颜色与视标模型颜色、视标模型运动速度、视标模型尺寸及视标模型的生成区域,其中视标模型运动速度范围为0~5m/s,视标模型运动方向为由远及近从生成区域至被试虚拟现实头盔,被试通过手柄输入对视标模型的判断结果,每十次为一组,当视标模型判断正确结果≥6次,则记为成功,并选择尺寸小一级的视标模型重新测试,否则记为失败并选择大一级视标模型重新测试,直至被试在同一尺寸视标模型失败两次视为测试结束,记录测试过程中背景颜色与视标模型颜色、视标模型尺寸、视标模型运动速度、视标模型生成区域、判断结果。
6.视标模型根据权利要求5所述的一种基于虚拟现实的视敏度综合评估系统,其特征在于,所述评估计算模块执行动态视力测试时,虚拟现实环境的视标模型运动轨迹保持视标模型位置与被试距离不变,且沿着距被试5m处的空间球面中相切运动。
8.根据权利要求1所述的一种基于虚拟现实的视敏度综合评估系统,其特征在于,所述评估计算模块执行静态视力测量时,环境模块控制虚拟现实头盔在预设背景下显示静止的视标模型,通过信息记录模块记录的被试信息调整虚拟头盔中,环境模块显示视标模型的初始尺寸,被试通过手柄输入对视标模型的判断结果,每十次为一组,当视标模型判断正确结果≥6次,则记为成功,并选择尺寸小一级的视标模型重新测试,否则记为失败并选择大一级视标模型重新测试,直至被试在同一尺寸视标模型失败两次视为测试,记录测试过程中视标模型视标模型尺寸、视标模型方向、判断结果。
9.一种基于虚拟现实的视敏度综合评估方法,采用权利要求1、4、6、7任一项所述的基于虚拟现实的视敏度综合评估系统,包括如下步骤:
S1:在主机终端的信息记录模块完成被试基本信息录入,被试佩戴虚拟现实头盔并使用单手控制手柄,完成虚拟现实头盔与手柄的定位;
S2:执行评估计算模块的静态视力测量单元,根据所述信息记录模块的被试基本信息调整环境模块所出现的初始视标模型,接下来视标模型出现时变换视标模型尺寸及开口方向,记录被试在手柄中输入的视标模型判断结果,测试结束后评估计算模块计算静态视力并存储;
S3:执行动态视力训练与测试单元调整所述环境模块的背景参数与视标模型颜色、尺寸、开口方向、运动速度,测试过程中视标模型随机生成并根据被试视标模型的判断结果自动变换视标模型参数,记录被试在手柄中输入的视标模型判断结果,测试结束后评估计算模块计算动态视力并存储;
S4:执行运动视力训练与测试单元:调整所述环境模块的背景参数与视标模型颜色、尺寸与开口方向、视标模型生成位置与运动速度,产生不同位置处由远及近的视标模型,测试时依据被试的视标模型判断结果自动变换视标模型生成位置及运动速度,测试结束后评估计算模块计算运动视力并存储;
S5:将上述方法中S1-S4计算的结果通过结果模块输出至主机终端的显示器测试结果交互界面。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310079917.4A CN116138726A (zh) | 2023-02-08 | 2023-02-08 | 一种基于虚拟现实的视敏度综合评估系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310079917.4A CN116138726A (zh) | 2023-02-08 | 2023-02-08 | 一种基于虚拟现实的视敏度综合评估系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116138726A true CN116138726A (zh) | 2023-05-23 |
Family
ID=86357786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310079917.4A Pending CN116138726A (zh) | 2023-02-08 | 2023-02-08 | 一种基于虚拟现实的视敏度综合评估系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116138726A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116725472A (zh) * | 2023-08-14 | 2023-09-12 | 北京大学第三医院(北京大学第三临床医学院) | 一种彩色动态视力测试系统和方法 |
-
2023
- 2023-02-08 CN CN202310079917.4A patent/CN116138726A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116725472A (zh) * | 2023-08-14 | 2023-09-12 | 北京大学第三医院(北京大学第三临床医学院) | 一种彩色动态视力测试系统和方法 |
CN116725472B (zh) * | 2023-08-14 | 2024-04-12 | 北京大学第三医院(北京大学第三临床医学院) | 一种彩色动态视力测试系统和方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108371538B (zh) | 一种人眼视觉监测系统及方法 | |
EP1747750B1 (en) | Method and device for determining the visual behaviour of a person and method of customising a spectacle lens | |
JP5235047B2 (ja) | 眼用レンズを着用者に選択および/または調製する方法および眼用レンズを着用者に処方および/または調製するシステム | |
EP1799105B1 (en) | System and method for mental workload measurement based on rapid eye movement | |
KR101898414B1 (ko) | 3차원 안구 움직임 측정 방법 및 전자동 딥러닝 기반 어지럼 진단 시스템 | |
US9078598B2 (en) | Cognitive function evaluation and rehabilitation methods and systems | |
CN111700624B (zh) | 一种智能手环检测运动姿态的模式识别方法及系统 | |
CN110232963B (zh) | 一种基于立体显示技术的上肢运动功能评估系统及方法 | |
CN201879669U (zh) | 一种人体信息监测与处理系统 | |
CN101980228A (zh) | 人体信息监测与处理系统及方法 | |
CN110200601A (zh) | 一种脉象获取装置及系统 | |
CN108324239B (zh) | 便携式智能验光仪 | |
CN108135514B (zh) | 心率校正 | |
CN109634431B (zh) | 无介质浮空投影视觉追踪互动系统 | |
CN116138726A (zh) | 一种基于虚拟现实的视敏度综合评估系统及方法 | |
CN104146684A (zh) | 一种眼罩式眩晕检测仪 | |
EP4167129A1 (en) | Method and system for recognizing user actions | |
Cunha et al. | Real-time Evaluation System for Top Taekwondo Athletes: Project Overview. | |
CN111528788A (zh) | 一种评价视觉疲劳程度的便携式检测仪器 | |
CN108804246A (zh) | 上肢康复机器人的可用性评价方法 | |
Naydanova et al. | Objective evaluation of motor symptoms in parkinson’s disease via a dual system of leap motion controllers | |
CN108766504B (zh) | 一种手术导航系统的人因评价方法 | |
CN113517052A (zh) | 商用健身场景下的多感知人机交互系统与方法 | |
KR102118463B1 (ko) | 디지털 근용 양안시 기능 검사 장치 | |
CN116458835B (zh) | 一种幼儿近视及弱视的检测预防系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |