CN116807849B - 一种基于眼动追踪的视觉训练方法及装置 - Google Patents
一种基于眼动追踪的视觉训练方法及装置 Download PDFInfo
- Publication number
- CN116807849B CN116807849B CN202310740594.9A CN202310740594A CN116807849B CN 116807849 B CN116807849 B CN 116807849B CN 202310740594 A CN202310740594 A CN 202310740594A CN 116807849 B CN116807849 B CN 116807849B
- Authority
- CN
- China
- Prior art keywords
- training
- optotype
- target
- user
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 312
- 230000000007 visual effect Effects 0.000 title claims abstract description 118
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000004424 eye movement Effects 0.000 title claims abstract description 25
- 230000004438 eyesight Effects 0.000 claims abstract description 92
- 238000005516 engineering process Methods 0.000 claims abstract description 56
- 238000009877 rendering Methods 0.000 claims abstract description 50
- 238000002645 vision therapy Methods 0.000 claims abstract description 20
- 238000010276 construction Methods 0.000 claims description 15
- 230000000694 effects Effects 0.000 abstract description 20
- 238000012545 processing Methods 0.000 description 9
- 230000000638 stimulation Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000006872 improvement Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007996 neuronal plasticity Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H5/00—Exercisers for the eyes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5007—Control means thereof computer controlled
Landscapes
- Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Epidemiology (AREA)
- Pain & Pain Management (AREA)
- Physical Education & Sports Medicine (AREA)
- Rehabilitation Therapy (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Rehabilitation Tools (AREA)
Abstract
本发明公开了一种基于眼动追踪的视觉训练方法及装置,包括:根据用户的双眼视力信息确定用户的优势眼及弱势眼,并通过预设的VR技术分别对所述用户的优势眼及弱势眼构建虚拟场景,将预设的初始训练图像投送到所述虚拟场景,并根据所述双眼视力信息对所述初始训练图像进行图像更新,接着通过预设的眼动追踪技术实时检测所述用户的优势眼是否注视所述训练图像中的目标视标,获得所述目标视标的注视结果,并根据所述注视结果对目标视标进行图像渲染,通过所述虚拟场景显示所述训练图像,以使进行所述用户的视觉训练,当用户的视觉训练时长达到预设的时间阈值时,则停止所述训练图像的播放,完成所述用户的视觉训练,提高视觉训练的效果。
Description
技术领域
本发明涉及视觉训练技术领域,尤其涉及一种基于眼动追踪的视觉训练方法及装置。
背景技术
视觉训练是通过提供视觉刺激来激活视觉系统,促进其神经可塑性调整,提高视觉信息处理能力。
传统的视觉训练方法是通过眼部遮盖方法实现视力的提高与视觉功能的恢复。所述眼部遮盖方法为遮盖视力较好的优势眼,使得视力较为不好的弱势眼被迫承担全部视觉任务,从而增强其视觉刺激与使用,进而改善弱势眼的视觉信息处理能力,但传统的眼部遮盖方法遮盖一只眼睛会对用户的视觉体验产生比较的大影响,使得用户眼部的视野减半,对空间感知产生一定障碍。
同时由于只通过弱势眼进行视觉输入,视觉环境适应性会受到限制,无法同时对双眼视觉功能的协调性与平衡性进行训练,且无法针对弱势眼的具体视觉状况进行图像的定制,提供更精确个性化的视觉刺激,刺激手段较单一,训练效果有限。
发明内容
本发明公开了一种基于眼动追踪的视觉训练方法及装置,提供精确个性化的视觉刺激,提高视觉训练的效果。
为了实现上述目的,本发明公开了一种基于眼动追踪的视觉训练方法,包括:
根据用户的双眼视力信息确定用户的优势眼及弱势眼,并通过预设的VR技术分别对所述用户的优势眼及弱势眼构建虚拟场景,获得所述优势眼对应的第一虚拟场景和所述弱势眼对应的第二虚拟场景;
将预设的初始训练图像分别投送到所述第一虚拟场景和所述第二虚拟场景,并根据所述双眼视力信息对所述第一虚拟场景中的初始训练图像进行图像更新,以使所述第一虚拟场景显示图像更新后的第一训练图像及所述第二虚拟场景显示所述初始训练图像;所述第一训练图像及所述初始训练图像包括目标视标及非目标视标;
在所述第一虚拟场景显示所述若干个第一训练图像中的每一个第一训练图像时,通过预设的眼动追踪技术实时检测所述用户的优势眼是否注视所述第一训练图像中的目标视标,获得所述目标视标的注视结果;
根据所述注视结果,通过预设的图像渲染技术对所述每一个第一训练图像中的目标视标进行图像渲染,获得图像渲染后的若干个第二训练图像;
通过所述第一虚拟场景显示所述第二训练图像及所述第二虚拟场景显示所述初始训练图像,以使进行所述用户的视觉训练,并采集所述用户的视觉训练时长;
当所述视觉训练时长达到预设的时间阈值时,则停止所述训练图像的播放,完成所述用户的视觉训练。
本发明公开了一种基于眼动追踪的视觉训练方法,包括获取用户的双眼视力信息以此确定用户的优势眼及弱势眼,再利用所述双眼视力信息对预设的初始训练图像进行图像处理,获得处理后的第一及第二训练图像,以使根据用户的双眼视力信息制定精准个性化的训练图像,满足用户的视觉训练需求的同时提高视觉训练的效果,同时在所述第一训练图像及所述第二训练图像中包括目标视标及非目标视标,用于反馈用户的视觉训练效果,接下来利用预设的VR技术分别为所述用户的优势眼及弱势眼构建虚拟场景,并使将所述第一训练图像及所述第二训练图像分别投送到所述虚拟场景中,以使所述用户的优势眼及弱势眼同时进行双眼视觉训练,在所述优势眼虚拟场景播放所述第一训练图像及所述弱势眼虚拟场景播放所述第二训练图像的时候,利用预设的眼动追踪技术检测所述优势眼是否注视所述第一训练图像中的目标视标,并根据所述目标视标的注视结果对所述第一训练图像中的目标视标进行图像渲染,使得双眼同时观看不同清晰度的图像,进而提高弱势眼的使用频率,实现弱势眼的视觉训练,提高视觉训练的准确度。
作为优选例子,在所述根据用户的双眼视力信息确定用户的优势眼及弱势眼,并通过预设的VR技术分别对所述用户的优势眼及弱势眼构建虚拟场景,包括:
获取用户的左眼矫正视力及右眼矫正视力,并根据所述左眼矫正视力及右眼矫正视力确定所述用户的优势眼、弱势眼及所述用户的双眼视力差绝对值;
通过预设的VR技术搭建VR场景并在所述VR场景中放置两个平行相机,及分别与所述平行相机正对面的虚拟场景;所述虚拟场景覆盖所述平行相机的视野;
通过构建在所述VR场景中的平行相机代替所述用户的优势眼及弱势眼注视所述虚拟场景,获得所述优势眼对应的第一虚拟场景和所述弱势眼对应的第二虚拟场景。
本发明首先获取用户的双眼视力信息,以使根据所述双眼视力信息区分用户的优势眼及弱势眼,便于后续根据用户的实际视力情况处理训练图像,只是制定精确的视觉训练方法,同时利用预设的VR技术分别为用户的优势眼及弱势眼构建虚拟场景,保证用户的双眼同时进行训练,提高双眼的协调性。
作为优选例子,在所述根据所述双眼视力信息对所述第一虚拟场景中的初始训练图像进行图像更新,包括:
根据所述优势眼对应的矫正视力及所述双眼视力差绝对值调整所述初始训练图像中的目标视标的初始视标参数,获得所述目标视标对应的第一视标参数;所述初始视标参数包括亮度、对比度及模糊度;
根据所述第一视标参数对所述初始训练图像进行图像更新,获得第一训练图像。
本发明利用用户的双眼视力信息对预设的初始训练图像的视标参数进行了调整更新,以使及时的根据用户的实际视力制定视觉训练的训练开始难度,提高视觉训练的效率。
作为优选例子,在所述通过预设的眼动追踪技术实时检测所述用户的优势眼是否注视所述第一训练图像中的目标视标,获得所述目标视标的注视结果,包括:
通过预设的眼动追踪技术获取所述用户的优势眼的注视点区域,并计算所述注视点区域与所述第一训练图像中的目标视标的重叠区域;
将所述重叠区域与预设的区域阈值进行比较,判断所述用户的优势眼是否注视所述第一训练图像中的目标视标;
若所述重叠区域大于或等于所述预设的区域阈值,则判定所述目标视标被所述用户的优势眼注视;
若所述重叠区域小于所述预设的区域阈值,则判定所述目标视标未被所述用户的优势眼注视。
本发明通过预设的眼动追踪技术实时检测所述用户的优势眼的注视点所在的区域,并将所述区域与所述目标视标的区域进行重合度计算,获得所述用户的优势眼注视区域与所述目标视标所在区域的重叠区域,以使根据所述重叠区域判断所述用户的优势眼是否注视所述目标视标,进而获得当前用户的优势眼对所述目标视标的注视结果,便于后期根据所述注视结果对所述第一训练图像的目标视标进行视标处理,以便于提高双眼视觉训练的效果。
作为优选例子,在所述根据所述注视结果,通过预设的图像渲染技术对所述每一个第一训练图像中的目标视标进行图像渲染,获得图像渲染后的若干个第二训练图像,包括:
当判定所述目标视标被所述用户的优势眼注视时,通过预设的图像渲染组件调整所述目标视标的第一视标参数,获得所述目标视标的第二视标参数,并根据所述第二视标参数对所述第一训练图像中的目标视标进行图像渲染,获得图像渲染后的第二训练图像;所述调整所述目标视标的第一视标参数包括提高所述目标视标的模糊度、降低所述目标视标的亮度及对比度;
当判定所述目标视标未被所述用户的优势眼注视时,通过预设的图像渲染组件调整所述目标视标的第一视标参数,获得所述目标视标的第三视标参数,并根据所述第三视标参数对所述第一训练图像中的目标视标进行图像渲染,获得图像渲染后的第二训练图像;所述调整所述目标视标的第一视标参数包括降低所述目标视标的模糊度、提高所述目标视标的亮度及对比度。
本发明根据所述目标视标的注视结果获得当前用户的优势眼的注视情况,当所述目标视标被注视时,说明当前目标视标的视标参数依旧在用户的优势眼的注视范围内,则此时减低所述目标视标的亮度及对比度,提高所述目标视标的模糊度,使得降低优势眼对所述目标视标的感知度,使得用户的弱势眼注视清晰度高的目标视标,进而提高所述用户的弱势眼的使用频率,当所述目标视标未被注视时,说明当前目标视标的视标参数已经不在用户的优势眼的注视范围内,则此时为了提高用户的双眼协调性发展,提高所述目标视标的亮度及对比度,降低所述目标视标的模糊度,使得所述优势眼与所述弱势眼中的目标视标的参数相同,进而对用户的双眼同时进行视觉训练,提高用户的视觉训练效果。
作为优选例子,在所述采集所述用户的视觉训练时长,还包括:
根据所述VR技术中预设的手柄射线分别对准所述若干个第二训练图像中的每一个第二训练图像及所述初始训练图像中的每一个初始训练图像的目标视标并按下扳机键,采集所述用户对所述每一个第二训练图像的目标视标的第一训练操作及对所述每一个初始训练图像中的目标视标的第二训练操作。
本发明在进行视觉训练的过程中,及时对训练者的操作作出反馈,当在训练者找到目标视标并对准按下扳机键确认时,采集所述用户的每一次操作结果,以使记录每一次训练时用户的反馈,以便于在后期被用来进一步分析用户的表现,以及对训练任务进行调整和优化。
另一方面,本发明还公开了一种基于眼动追踪的视觉训练装置,包括场景构建模块、图像投放模块、视标注视模块、图像渲染模块、数据采集模块及训练终止模块;
所述场景构建模块用于根据用户的双眼视力信息确定用户的优势眼及弱势眼,并通过预设的VR技术分别对所述用户的优势眼及弱势眼构建虚拟场景,获得所述优势眼对应的第一虚拟场景和所述弱势眼对应的第二虚拟场景;
所述图像投放模块用于将预设的初始训练图像分别投送到所述第一虚拟场景和所述第二虚拟场景,并根据所述双眼视力信息对所述第一虚拟场景中的初始训练图像进行图像更新,以使所述第一虚拟场景显示图像更新后的第一训练图像及所述第二虚拟场景显示所述初始训练图像;所述第一训练图像及所述初始训练图像包括目标视标及非目标视标;
所述视标注视模块用于在所述第一虚拟场景显示所述若干个第一训练图像中的每一个第一训练图像时,通过预设的眼动追踪技术实时检测所述用户的优势眼是否注视所述第一训练图像中的目标视标,获得所述目标视标的注视结果;
所述图像渲染模块用于根据所述注视结果,通过预设的图像渲染技术对所述每一个第一训练图像中的目标视标进行图像渲染,获得图像渲染后的若干个第二训练图像;
所述数据采集模块用于通过所述第一虚拟场景显示所述第二训练图像及所述第二虚拟场景显示所述初始训练图像,以使进行所述用户的视觉训练,并采集所述用户的视觉训练时长;
所述训练终止模块用于当所述视觉训练时长达到预设的时间阈值时,则停止所述训练图像的播放,完成所述用户的视觉训练。
本发明公开了一种基于眼动追踪的视觉训练装置,包括获取用户的双眼视力信息以此确定用户的优势眼及弱势眼,再利用所述双眼视力信息对预设的初始训练图像进行图像处理,获得处理后的第一及第二训练图像,以使根据用户的双眼视力信息制定精准个性化的训练图像,满足用户的视觉训练需求的同时提高视觉训练的效果,同时在所述第一训练图像及所述第二训练图像中包括目标视标及非目标视标,用于反馈用户的视觉训练效果,接下来利用预设的VR技术分别为所述用户的优势眼及弱势眼构建虚拟场景,并使将所述第一训练图像及所述第二训练图像分别投送到所述虚拟场景中,以使所述用户的优势眼及弱势眼同时进行双眼视觉训练,在所述优势眼虚拟场景播放所述第一训练图像及所述弱势眼虚拟场景播放所述第二训练图像的时候,利用预设的眼动追踪技术检测所述优势眼是否注视所述第一训练图像中的目标视标,并根据所述目标视标的注视结果对所述第一训练图像中的目标视标进行图像渲染,使得双眼同时观看不同清晰度的图像,进而提高弱势眼的使用频率,实现弱势眼的视觉训练,提高视觉训练的准确度。
作为优选例子,所述场景构建模块包括视力信息单元及场景搭建单元;
所述视力信息单元用于获取用户的左眼矫正视力及右眼矫正视力,并根据所述左眼矫正视力及右眼矫正视力确定所述用户的优势眼、弱势眼及所述用户的双眼视力差绝对值;
所述场景搭建单元用于通过预设的VR技术搭建VR场景并在所述VR场景中放置两个平行相机,及分别与所述平行相机正对面的虚拟场景;所述虚拟场景覆盖所述平行相机的视野;通过构建在所述VR场景中的平行相机代替所述用户的优势眼及弱势眼注视所述虚拟场景,获得所述优势眼对应的第一虚拟场景和所述弱势眼对应的第二虚拟场景。
本发明首先获取用户的双眼视力信息,以使根据所述双眼视力信息区分用户的优势眼及弱势眼,便于后续根据用户的实际视力情况处理训练图像,只是制定精确的视觉训练方法,同时利用预设的VR技术分别为用户的优势眼及弱势眼构建虚拟场景,保证用户的双眼同时进行训练,提高双眼的协调性。
作为优选例子,所述图像投放模块包括参数调整单元及图像更新单元;
所述参数调整单元用于根据所述优势眼对应的矫正视力及所述双眼视力差绝对值调整所述初始训练图像中的目标视标的初始视标参数,获得所述目标视标对应的第一视标参数;所述初始视标参数包括亮度、对比度及模糊度;
所述图像更新单元用于根据所述第一视标参数对所述初始训练图像进行图像更新,获得第一训练图像。
本发明利用用户的双眼视力信息对预设的初始训练图像的视标参数进行了调整更新,以使及时的根据用户的实际视力制定视觉训练的训练开始难度,提高视觉训练的效率。
作为优选例子,所述视标注视模块包括区域重叠单元及注视判定单元;
所述区域重叠单元用于通过预设的眼动追踪技术获取所述用户的优势眼的注视点区域,并计算所述注视点区域与所述第一训练图像中的目标视标的重叠区域;
所述注视判定单元用于将所述重叠区域与预设的区域阈值进行比较,判断所述用户的优势眼是否注视所述第一训练图像中的目标视标;若所述重叠区域大于或等于所述预设的区域阈值,则判定所述目标视标被所述用户的优势眼注视;若所述重叠区域小于所述预设的区域阈值,则判定所述目标视标未被所述用户的优势眼注视。
本发明通过预设的眼动追踪技术实时检测所述用户的优势眼的注视点所在的区域,并将所述区域与所述目标视标的区域进行重合度计算,获得所述用户的优势眼注视区域与所述目标视标所在区域的重叠区域,以使根据所述重叠区域判断所述用户的优势眼是否注视所述目标视标,进而获得当前用户的优势眼对所述目标视标的注视结果,便于后期根据所述注视结果对所述第一训练图像的目标视标进行视标处理,以便于提高双眼视觉训练的效果。
附图说明
图1:为本发明实施例提供的一种基于眼动追踪的视觉训练方法的流程示意图;
图2:为本发明实施例提供的一种基于眼动追踪的视觉训练装置的结构示意图;
图3:为本发明又一实施例提供的一种基于眼动追踪的视觉训练方法的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
本发明实施例提供了一种基于眼动追踪的视觉训练方法,所述训练方法的具体实施过程请参照图1,主要包括步骤101至步骤106,所述步骤主要包括:
步骤101:根据用户的双眼视力信息确定用户的优势眼及弱势眼,并通过预设的VR技术分别对所述用户的优势眼及弱势眼构建虚拟场景,获得所述优势眼对应的第一虚拟场景和所述弱势眼对应的第二虚拟场景。
在本实施例中,该步骤主要包括:获取用户的左眼矫正视力及右眼矫正视力,并根据所述左眼矫正视力及右眼矫正视力确定所述用户的优势眼、弱势眼及所述用户的双眼视力差绝对值;通过预设的VR技术搭建VR场景并在所述VR场景中放置两个平行相机,及分别与所述平行相机正对面的虚拟场景;所述虚拟场景覆盖所述平行相机的视野;通过构建在所述VR场景中的平行相机代替所述用户的优势眼及弱势眼注视所述虚拟场景,获得所述优势眼对应的第一虚拟场景和所述弱势眼对应的第二虚拟场景。
本实施例首先获取用户的双眼视力信息,以使根据所述双眼视力信息区分用户的优势眼及弱势眼,便于后续根据用户的实际视力情况处理训练图像,只是制定精确的视觉训练方法,同时利用预设的VR技术分别为用户的优势眼及弱势眼构建虚拟场景,保证用户的双眼同时进行训练,提高双眼的协调性。
步骤102:将预设的初始训练图像分别投送到所述第一虚拟场景和所述第二虚拟场景,并根据所述双眼视力信息对所述第一虚拟场景中的初始训练图像进行图像更新,以使所述第一虚拟场景显示图像更新后的第一训练图像及所述第二虚拟场景显示所述初始训练图像;所述第一训练图像及所述初始训练图像包括目标视标及非目标视标。
在本实施例中,该步骤主要包括:根据所述优势眼对应的矫正视力及所述双眼视力差绝对值调整所述初始训练图像中的目标视标的初始视标参数,获得所述目标视标对应的第一视标参数;所述初始视标参数包括亮度、对比度及模糊度;根据所述第一视标参数对所述初始训练图像进行图像更新,获得第一训练图像。
本实施例利用用户的双眼视力信息对预设的初始训练图像的视标参数进行了调整更新,以使及时的根据用户的实际视力制定视觉训练的训练开始难度,提高视觉训练的效率。
步骤103:在所述第一虚拟场景显示所述若干个第一训练图像中的每一个第一训练图像时,通过预设的眼动追踪技术实时检测所述用户的优势眼是否注视所述第一训练图像中的目标视标,获得所述目标视标的注视结果。
在本实施例中,该步骤主要包括:通过预设的眼动追踪技术获取所述用户的优势眼的注视点区域,并计算所述注视点区域与所述第一训练图像中的目标视标的重叠区域;将所述重叠区域与预设的区域阈值进行比较,判断所述用户的优势眼是否注视所述第一训练图像中的目标视标;若所述重叠区域大于或等于所述预设的区域阈值,则判定所述目标视标被所述用户的优势眼注视;若所述重叠区域小于所述预设的区域阈值,则判定所述目标视标未被所述用户的优势眼注视。
本实施例通过预设的眼动追踪技术实时检测所述用户的优势眼的注视点所在的区域,并将所述区域与所述目标视标的区域进行重合度计算,获得所述用户的优势眼注视区域与所述目标视标所在区域的重叠区域,以使根据所述重叠区域判断所述用户的优势眼是否注视所述目标视标,进而获得当前用户的优势眼对所述目标视标的注视结果,便于后期根据所述注视结果对所述第一训练图像的目标视标进行视标处理,以便于提高双眼视觉训练的效果。
步骤104:根据所述注视结果,通过预设的图像渲染技术对所述每一个第一训练图像中的目标视标进行图像渲染,获得图像渲染后的若干个第二训练图像。
在本实施例中,该步骤主要包括:当判定所述目标视标被所述用户的优势眼注视时,通过预设的图像渲染组件调整所述目标视标的第一视标参数,获得所述目标视标的第二视标参数,并根据所述第二视标参数对所述第一训练图像中的目标视标进行图像渲染,获得图像渲染后的第二训练图像;所述调整所述目标视标的第一视标参数包括提高所述目标视标的模糊度、降低所述目标视标的亮度及对比度;当判定所述目标视标未被所述用户的优势眼注视时,通过预设的图像渲染组件调整所述目标视标的第一视标参数,获得所述目标视标的第三视标参数,并根据所述第三视标参数对所述第一训练图像中的目标视标进行图像渲染,获得图像渲染后的第二训练图像;所述调整所述目标视标的第一视标参数包括降低所述目标视标的模糊度、提高所述目标视标的亮度及对比度。
本实施例根据所述目标视标的注视结果获得当前用户的优势眼的注视情况,当所述目标视标被注视时,说明当前目标视标的视标参数依旧在用户的优势眼的注视范围内,则此时减低所述目标视标的亮度及对比度,提高所述目标视标的模糊度,使得降低优势眼对所述目标视标的感知度,使得用户的弱势眼注视清晰度高的目标视标,进而提高所述用户的弱势眼的使用频率,当所述目标视标未被注视时,说明当前目标视标的视标参数已经不在用户的优势眼的注视范围内,则此时为了提高用户的双眼协调性发展,提高所述目标视标的亮度及对比度,降低所述目标视标的模糊度,使得所述优势眼与所述弱势眼中的目标视标的参数相同,进而对用户的双眼同时进行视觉训练,提高用户的视觉训练效果。
步骤105:通过所述第一虚拟场景显示所述第二训练图像及所述第二虚拟场景显示所述初始训练图像,以使进行所述用户的视觉训练,并采集所述用户的视觉训练时长。
在本实施例中,该步骤还包括:根据所述VR技术中预设的手柄射线分别对准所述若干个第二训练图像中的每一个第二训练图像及所述初始训练图像中的每一个初始训练图像的目标视标并按下扳机键,采集所述用户对所述每一个第二训练图像的目标视标的第一训练操作及对所述每一个初始训练图像中的目标视标的第二训练操作。
本实施例在进行视觉训练的过程中,及时对训练者的操作作出反馈,当在训练者找到目标视标并对准按下扳机键确认时,采集所述用户的每一次操作结果,以使记录每一次训练时用户的反馈,以便于在后期被用来进一步分析用户的表现,以及对训练任务进行调整和优化。
步骤106:当所述视觉训练时长达到预设的时间阈值时,则停止所述训练图像的播放,完成所述用户的视觉训练。
另一方面,本发明实施例还公开了一种基于眼动追踪的视觉训练装置,所述训练装置的具体结构组成请参照图2,包括场景构建模块201、图像投放模块202、视标注视模块203、图像渲染模块204、数据采集模块205及训练终止模块206.
所述场景构建模块201用于根据用户的双眼视力信息确定用户的优势眼及弱势眼,并通过预设的VR技术分别对所述用户的优势眼及弱势眼构建虚拟场景,获得所述优势眼对应的第一虚拟场景和所述弱势眼对应的第二虚拟场景;
所述图像投放模块202用于将预设的初始训练图像分别投送到所述第一虚拟场景和所述第二虚拟场景,并根据所述双眼视力信息对所述第一虚拟场景中的初始训练图像进行图像更新,以使所述第一虚拟场景显示图像更新后的第一训练图像及所述第二虚拟场景显示所述初始训练图像;所述第一训练图像及所述初始训练图像包括目标视标及非目标视标;
所述视标注视模块203用于在所述第一虚拟场景显示所述若干个第一训练图像中的每一个第一训练图像时,通过预设的眼动追踪技术实时检测所述用户的优势眼是否注视所述第一训练图像中的目标视标,获得所述目标视标的注视结果;
所述图像渲染模块204用于根据所述注视结果,通过预设的图像渲染技术对所述每一个第一训练图像中的目标视标进行图像渲染,获得图像渲染后的若干个第二训练图像;
所述数据采集模块205用于通过所述第一虚拟场景显示所述第二训练图像及所述第二虚拟场景显示所述初始训练图像,以使进行所述用户的视觉训练,并采集所述用户的视觉训练时长;
所述训练终止模块206用于当所述视觉训练时长达到预设的时间阈值时,则停止所述训练图像的播放,完成所述用户的视觉训练。
在本实施例中,所述场景构建模块201包括视力信息单元及场景搭建单元;
所述视力信息单元用于获取用户的左眼矫正视力及右眼矫正视力,并根据所述左眼矫正视力及右眼矫正视力确定所述用户的优势眼、弱势眼及所述用户的双眼视力差绝对值;
所述场景搭建单元用于通过预设的VR技术搭建VR场景并在所述VR场景中放置两个平行相机,及分别与所述平行相机正对面的虚拟场景;所述虚拟场景覆盖所述平行相机的视野;通过构建在所述VR场景中的平行相机代替所述用户的优势眼及弱势眼注视所述虚拟场景,获得所述优势眼对应的第一虚拟场景和所述弱势眼对应的第二虚拟场景。
在本实施例中,所述图像投放模块202包括参数调整单元及图像更新单元;
所述参数调整单元用于根据所述优势眼对应的矫正视力及所述双眼视力差绝对值调整所述初始训练图像中的目标视标的初始视标参数,获得所述目标视标对应的第一视标参数;所述初始视标参数包括亮度、对比度及模糊度;
所述图像更新单元用于根据所述第一视标参数对所述初始训练图像进行图像更新,获得第一训练图像。
在本实施例中,所述视标注视模块203包括区域重叠单元及注视判定单元;
所述区域重叠单元用于通过预设的眼动追踪技术获取所述用户的优势眼的注视点区域,并计算所述注视点区域与所述第一训练图像中的目标视标的重叠区域;
所述注视判定单元用于将所述重叠区域与预设的区域阈值进行比较,判断所述用户的优势眼是否注视所述第一训练图像中的目标视标;若所述重叠区域大于或等于所述预设的区域阈值,则判定所述目标视标被所述用户的优势眼注视;若所述重叠区域小于所述预设的区域阈值,则判定所述目标视标未被所述用户的优势眼注视。
本发明实施例公开的一种基于眼动追踪的视觉训练方法及装置,包括获取用户的双眼视力信息以此确定用户的优势眼及弱势眼,再利用所述双眼视力信息对预设的初始训练图像进行图像处理,获得处理后的第一及第二训练图像,以使根据用户的双眼视力信息制定精准个性化的训练图像,满足用户的视觉训练需求的同时提高视觉训练的效果,同时在所述第一训练图像及所述第二训练图像中包括目标视标及非目标视标,用于反馈用户的视觉训练效果,接下来利用预设的VR技术分别为所述用户的优势眼及弱势眼构建虚拟场景,并使将所述第一训练图像及所述第二训练图像分别投送到所述虚拟场景中,以使所述用户的优势眼及弱势眼同时进行双眼视觉训练,在所述优势眼虚拟场景播放所述第一训练图像及所述弱势眼虚拟场景播放所述第二训练图像的时候,利用预设的眼动追踪技术检测所述优势眼是否注视所述第一训练图像中的目标视标,并根据所述目标视标的注视结果对所述第一训练图像中的目标视标进行图像渲染,使得双眼同时观看不同清晰度的图像,进而提高弱势眼的使用频率,实现弱势眼的视觉训练,提高视觉训练的准确度。
实施例二
在本实施例中又提供了一种基于眼动追踪的视觉训练方法,所述训练方法的具体实施过程请参照图3,主要包括步骤301至步骤304,所述步骤主要为:
步骤301:通过预设的VR技术分别构建左眼及右眼的虚拟现实场景,并获取用户的双眼视力信息,确定用户的优势眼及弱势眼。
在本实施例中,本步骤主要包括:根据用户的双眼视力信息确定用户的优势眼及弱势眼,并通过预设的VR技术分别对所述用户的优势眼及弱势眼构建虚拟场景,获得所述优势眼对应的第一虚拟场景和所述弱势眼对应的第二虚拟场景。
在本实施例中,本步骤具体为:利用预设的VR技术,所述VR技术可采用VR设备,建立一个虚拟现实场景,并在所述虚拟现实场景里放置两个平行的虚拟摄像机,所述虚拟摄像机分别代表用户的右眼及左眼,所述右眼摄像机标记为RightCamera,左眼摄像机标记为LeftCamera。初始化RightCamera和LeftCamera,接着获取用户的双眼视力信息,根据所述双眼视力信息确定用户的优势眼及弱势眼,示例性的,所述用户的右眼矫正视力为1.0,左眼矫正视力0.6,则根据所述矫正视力确定用户的右眼为优势眼,左眼为弱势眼,同时根据所述根据所述矫正视力双眼视力差值绝对值。
步骤302:根据所述双眼视力信息处理预设的初始训练图像,并将所述处理后的初始训练图像投放到所述虚拟现实场景;所述处理后的初始训练图像包括第一训练图像及初始训练图像。
在本实施例中,该步骤主要包括:将预设的初始训练图像分别投送到所述第一虚拟场景和所述第二虚拟场景,并根据所述双眼视力信息对所述第一虚拟场景中的初始训练图像进行图像更新,以使所述第一虚拟场景显示图像更新后的第一训练图像及所述第二虚拟场景显示所述初始训练图像;所述第一训练图像及所述初始训练图像包括目标视标及非目标视标。
在本实施例中,该步骤具体包括:根据优势眼的矫正视力和双眼视力差值绝对值,初始化投放到优势眼所在的虚拟现实场景中的初始训练图像的图像参数,所述图像参数为所述训练图像中的目标视标的参数,在本实施例中,设置所述目标视标的亮度值为targetBrightness、模糊度值为targetBlur及对比度值为targetContrast,根据所述优势眼的矫正视力和双眼视力差值绝对值后降低优势眼对应的训练图像的目标视标的亮度值和对比度值,减少刺激,提高模糊度值使目标视标的边缘和轮廓变得不清晰。而投放到弱势眼所在的虚拟现实场景中的初始训练图像对应的视标按默认值不做修改。
步骤303:在所述优势眼虚拟场景显示所述第一训练图像时,通过预设的眼动追踪技术实时检测所述用户的优势眼是否注视所述第一训练图像中的目标视标,获得所述目标视标的注视结果,并根据所述注视结果,通过预设的图像渲染技术对所述第一训练图像中的目标视标进行图像渲染,获得图像渲染后的若干个第二训练图像。
在本实施例中,该步骤主要包括:通过预设的眼动追踪技术获取所述用户的优势眼的注视点区域,并计算所述注视点区域与所述第一训练图像中的目标视标的重叠区,根据所述重叠区域获得所述目标视标的注视结果,并根据所述注视结果通过预设的图像渲染组件调整所述目标视标。
在本实施例中,该步骤具体为:根据预设的眼动追踪技术捕获用户的优势眼的注视点坐标,示例性的,在本实施例中,使用Tobii眼动追踪技术实时识别训练者的眼睛注视点,并创建一个Gaze Focus组件用于检测训练者的优势眼的注视点是否在目标视标上,在本实施例中实时利用所述Tobii眼动追踪技术及所述Gaze Focus组件识别训练者的优势眼注视点区域,然后通过计算注视点区域和预设目标视标的重叠区域,来判断训练者的优势眼是否在注视预设目标视标,若所述重叠区域大于或等于所述预设的区域阈值,则判定所述目标视标被所述用户的优势眼注视,若所述重叠区域小于所述预设的区域阈值,则判定所述目标视标未被所述用户的优势眼注视。
进一步的,在本实施例中,为所述训练图像中的预设目标视标和预设非目标视标添加渲染组件,例如Light和Material组件,以控制视标的亮度、模糊度和对比度等参数。在所述训练图像中包含一定数量的预设非目标视标和一定数量的预设目标视标,在所述优势眼所在的虚拟现实场景播放每一个训练图像时,使用Tobii提供的函数GazeFocus.HasGazeFocus(target)来检测训练者的优势眼的注视点是否在目标视标上。当训练者的右眼的注视点在目标视标上时,修改RightCamera场景中对应的目标视标的亮度值targetBrightness、模糊度值为targetBlur和对比度值为targetContrast,并进行实时渲染更新画面输出;当训练者的优势眼的注视点不在目标视标上时,修改RightCamera场景中对应的目标视标的亮度值、模糊度和比度值为默认的值,即和弱势眼该目标的值一样。进一步的,在本实施例中可以给目标视标及非目标视标添加一个Collider组件,以便用户进行点击和交互。
步骤304:通过所述虚拟现实场景显示所述训练图像,以使进行所述用户的视觉训练,并采集所述用户的视觉训练时长,当所述视觉训练时长达到预设的时间阈值时,则停止所述训练图像的播放,完成所述用户的视觉训练。
在本实施例中,该步骤还包括:根据所述VR技术中预设的手柄射线分别对准所述若干个第二训练图像中的每一个第二训练图像及所述初始训练图像中的每一个初始训练图像的目标视标并按下扳机键,采集所述用户对所述每一个第二训练图像的目标视标的第一训练操作及对所述每一个初始训练图像中的目标视标的第二训练操作。
在本实施例中,该步骤具体为:在训练过程中,及时对训练者的操作作出反馈,当在训练者成功找到目标视标并根据所述VR技术中预设的手柄射线对准所述目标视标按下扳机键确认,如果正确则触发一个正确反馈的音效,并增加训练积分。如果训练者找错并点击了,可以触发一个错误反馈的音效,但不得分,在本实施例中可记录每一次训练用户的反馈,以便知道训练者的训练情况。在记录训练者的反馈时,还可以将其它相关数据一并保存,例如训练时长、找到目标的速度、错过目标的次数等等。这些数据可以被用来进一步分析用户的视觉表现,以及对训练任务的调整和优化。
本实施例提供的一种基于眼动追踪的视觉训练方法提供定向刺激,包括利用眼动追踪技术识别优势眼所注视的屏幕上的特定物体和注视点区域,并进行视觉动态调节亮度或对比度,而且能根据弱势眼注视点的动态变化实时调整刺激参数,刺激更精确有效,提供持续定向刺激,从而训练过程画面更为舒服,提高训练的依从性,同时在本实施例中利用VR技术通过识别两眼注视点差异,分别进行定向刺激,有利于弱势眼视力的提高和双眼协调性的恢复,同时基于VR,体验更真实,区别传统2D训练场景,VR技术可以创建更真实的视觉环境,激活视觉系统,训练体验更佳。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步的详细说明,应当理解,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围。特别指出,对于本领域技术人员来说,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (3)
1.一种基于眼动追踪的视觉训练装置,其特征在于,包括场景构建模块、图像投放模块、视标注视模块、图像渲染模块、数据采集模块及训练终止模块;
所述场景构建模块用于根据用户的双眼视力信息确定用户的优势眼及弱势眼,并通过预设的VR技术分别对所述用户的优势眼及弱势眼构建虚拟场景,获得所述优势眼对应的第一虚拟场景和所述弱势眼对应的第二虚拟场景;
所述图像投放模块用于将预设的初始训练图像分别投送到所述第一虚拟场景和所述第二虚拟场景,并根据所述双眼视力信息对所述第一虚拟场景中的初始训练图像进行图像更新,以使所述第一虚拟场景显示图像更新后的第一训练图像及所述第二虚拟场景显示所述初始训练图像;所述第一训练图像及所述初始训练图像包括目标视标及非目标视标;
所述视标注视模块用于在所述第一虚拟场景显示若干个第一训练图像中的每一个第一训练图像时,通过预设的眼动追踪技术实时检测所述用户的优势眼是否注视所述第一训练图像中的目标视标,获得所述目标视标的注视结果;其中,所述视标注视模块包括区域重叠单元及注视判定单元;所述区域重叠单元用于通过预设的眼动追踪技术获取所述用户的优势眼的注视点区域,并计算所述注视点区域与所述第一训练图像中的目标视标的重叠区域;所述注视判定单元用于将所述重叠区域与预设的区域阈值进行比较,判断所述用户的优势眼是否注视所述第一训练图像中的目标视标;若所述重叠区域大于或等于所述预设的区域阈值,则判定所述目标视标被所述用户的优势眼注视;若所述重叠区域小于所述预设的区域阈值,则判定所述目标视标未被所述用户的优势眼注视;
所述图像渲染模块用于根据所述注视结果,通过预设的图像渲染技术对所述每一个第一训练图像中的目标视标进行图像渲染,获得图像渲染后的若干个第二训练图像;其中,所述图像渲染模块包括当判定所述目标视标被所述用户的优势眼注视时,通过预设的图像渲染组件调整所述目标视标的第一视标参数,获得所述目标视标的第二视标参数,并根据所述第二视标参数对所述第一训练图像中的目标视标进行图像渲染,获得图像渲染后的第二训练图像;所述调整所述目标视标的第一视标参数包括提高所述目标视标的模糊度、降低所述目标视标的亮度及对比度;当判定所述目标视标未被所述用户的优势眼注视时,通过预设的图像渲染组件调整所述目标视标的第一视标参数,获得所述目标视标的第三视标参数,并根据所述第三视标参数对所述第一训练图像中的目标视标进行图像渲染,获得图像渲染后的第二训练图像;所述调整所述目标视标的第一视标参数包括降低所述目标视标的模糊度、提高所述目标视标的亮度及对比度;
所述数据采集模块用于通过所述第一虚拟场景显示所述第二训练图像及所述第二虚拟场景显示所述初始训练图像,以使进行所述用户的视觉训练,并采集所述用户的视觉训练时长;其中,所述采集所述用户的视觉训练时长,还包括根据所述VR技术中预设的手柄射线分别对准所述若干个第二训练图像中的每一个第二训练图像及所述初始训练图像中的每一个初始训练图像的目标视标并按下扳机键,采集所述用户对所述每一个第二训练图像的目标视标的第一训练操作及对所述每一个初始训练图像中的目标视标的第二训练操作;
所述训练终止模块用于当所述视觉训练时长达到预设的时间阈值时,则停止所述训练图像的播放,完成所述用户的视觉训练。
2.如权利要求1所述的一种基于眼动追踪的视觉训练装置,其特征在于,所述场景构建模块包括视力信息单元及场景搭建单元;
所述视力信息单元用于获取用户的左眼矫正视力及右眼矫正视力,并根据所述左眼矫正视力及右眼矫正视力确定所述用户的优势眼、弱势眼及所述用户的双眼视力差绝对值;
所述场景搭建单元用于通过预设的VR技术搭建VR场景并在所述VR场景中放置两个平行相机,及分别与所述平行相机正对面的虚拟场景;所述虚拟场景覆盖所述平行相机的视野;通过构建在所述VR场景中的平行相机代替所述用户的优势眼及弱势眼注视所述虚拟场景,获得所述优势眼对应的第一虚拟场景和所述弱势眼对应的第二虚拟场景。
3.如权利要求2所述的一种基于眼动追踪的视觉训练装置,其特征在于,所述图像投放模块包括参数调整单元及图像更新单元;
所述参数调整单元用于根据所述优势眼对应的矫正视力及所述双眼视力差绝对值调整所述初始训练图像中的目标视标的初始视标参数,获得所述目标视标对应的第一视标参数;所述初始视标参数包括亮度、对比度及模糊度;
所述图像更新单元用于根据所述第一视标参数对所述初始训练图像进行图像更新,获得第一训练图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310740594.9A CN116807849B (zh) | 2023-06-20 | 2023-06-20 | 一种基于眼动追踪的视觉训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310740594.9A CN116807849B (zh) | 2023-06-20 | 2023-06-20 | 一种基于眼动追踪的视觉训练方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116807849A CN116807849A (zh) | 2023-09-29 |
CN116807849B true CN116807849B (zh) | 2024-05-03 |
Family
ID=88112152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310740594.9A Active CN116807849B (zh) | 2023-06-20 | 2023-06-20 | 一种基于眼动追踪的视觉训练方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116807849B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118649069A (zh) * | 2024-08-19 | 2024-09-17 | 浙江工业大学 | 基于视线估计的vr交互式双眼视功能训练系统 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107802474A (zh) * | 2017-11-17 | 2018-03-16 | 广州视景医疗软件有限公司 | 一种视觉训练方法、装置和设备 |
CN107920244A (zh) * | 2017-11-17 | 2018-04-17 | 广州视景医疗软件有限公司 | 一种视觉训练方法、装置和设备 |
KR101880386B1 (ko) * | 2017-01-12 | 2018-07-19 | 고려대학교 산학협력단 | Vr 장치를 이용한 시각장애 치료 시스템 |
CN108852766A (zh) * | 2018-04-03 | 2018-11-23 | 山东省看看视力矫治科技有限公司 | 视力矫正方法 |
CN109431763A (zh) * | 2018-12-12 | 2019-03-08 | 广州视景医疗软件有限公司 | 基于vr的视觉调节功能训练的方法及其系统 |
CN209564367U (zh) * | 2018-04-03 | 2019-11-01 | 山东省看看视力矫治科技有限公司 | 视力矫正装置 |
CN110755241A (zh) * | 2019-09-11 | 2020-02-07 | 牧心教育有限公司 | 视觉训练方法、视觉训练装置及存储介质 |
CN111202663A (zh) * | 2019-12-31 | 2020-05-29 | 浙江工业大学 | 一种基于vr技术的视觉训练学习系统 |
CN112641610A (zh) * | 2020-12-21 | 2021-04-13 | 韩晓光 | 弱视的训练方法、装置及系统 |
CN113101158A (zh) * | 2021-04-08 | 2021-07-13 | 杭州深睿博联科技有限公司 | 一种基于vr的双眼视像融合训练方法和装置 |
CN113208884A (zh) * | 2021-01-08 | 2021-08-06 | 上海青研科技有限公司 | 视觉检测与视觉训练设备 |
CN114255204A (zh) * | 2020-09-24 | 2022-03-29 | 华为技术有限公司 | 弱视训练方法、装置、设备及存储介质 |
US11360328B1 (en) * | 2020-04-06 | 2022-06-14 | Novasight Ltd. | Method and device for treating vision impairment |
CN115639677A (zh) * | 2022-12-23 | 2023-01-24 | 广州视景医疗软件有限公司 | 一种基于vr眼镜的图像对比度调节方法和装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8066372B2 (en) * | 2007-10-23 | 2011-11-29 | Mcgill University | Binocular vision assessment and/or therapy |
GB2524500A (en) * | 2014-03-24 | 2015-09-30 | Nottingham University Hospitals Nhs Trust | Apparatus and methods for the treatment of ocular disorders |
US11122999B2 (en) * | 2016-06-30 | 2021-09-21 | Cornell University | Optokinesys |
JP2020509790A (ja) * | 2016-09-23 | 2020-04-02 | ノバサイト リミテッド | スクリーニング装置及び方法 |
US20220225873A1 (en) * | 2017-11-01 | 2022-07-21 | Robert Wendell Arnold | Systems and methods for eye evaluation and treatment |
EP4099972A1 (en) * | 2020-02-07 | 2022-12-14 | Amblyotech Inc. | Method of improving stereoacuity using an interval-based protocol |
US12102387B2 (en) * | 2020-04-24 | 2024-10-01 | Remmedvr Sp. Z.O.O. | System and methods for use in vision assessment to determine refractive errors and neurodegenerative disorders by ocular biomarking features |
WO2022051688A1 (en) * | 2020-09-03 | 2022-03-10 | Hes Ip Holdings, Llc | Systems and methods for improving binocular vision |
-
2023
- 2023-06-20 CN CN202310740594.9A patent/CN116807849B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101880386B1 (ko) * | 2017-01-12 | 2018-07-19 | 고려대학교 산학협력단 | Vr 장치를 이용한 시각장애 치료 시스템 |
CN107802474A (zh) * | 2017-11-17 | 2018-03-16 | 广州视景医疗软件有限公司 | 一种视觉训练方法、装置和设备 |
CN107920244A (zh) * | 2017-11-17 | 2018-04-17 | 广州视景医疗软件有限公司 | 一种视觉训练方法、装置和设备 |
CN108852766A (zh) * | 2018-04-03 | 2018-11-23 | 山东省看看视力矫治科技有限公司 | 视力矫正方法 |
CN209564367U (zh) * | 2018-04-03 | 2019-11-01 | 山东省看看视力矫治科技有限公司 | 视力矫正装置 |
CN109431763A (zh) * | 2018-12-12 | 2019-03-08 | 广州视景医疗软件有限公司 | 基于vr的视觉调节功能训练的方法及其系统 |
CN110755241A (zh) * | 2019-09-11 | 2020-02-07 | 牧心教育有限公司 | 视觉训练方法、视觉训练装置及存储介质 |
CN111202663A (zh) * | 2019-12-31 | 2020-05-29 | 浙江工业大学 | 一种基于vr技术的视觉训练学习系统 |
US11360328B1 (en) * | 2020-04-06 | 2022-06-14 | Novasight Ltd. | Method and device for treating vision impairment |
CN114255204A (zh) * | 2020-09-24 | 2022-03-29 | 华为技术有限公司 | 弱视训练方法、装置、设备及存储介质 |
CN112641610A (zh) * | 2020-12-21 | 2021-04-13 | 韩晓光 | 弱视的训练方法、装置及系统 |
CN113208884A (zh) * | 2021-01-08 | 2021-08-06 | 上海青研科技有限公司 | 视觉检测与视觉训练设备 |
CN113101158A (zh) * | 2021-04-08 | 2021-07-13 | 杭州深睿博联科技有限公司 | 一种基于vr的双眼视像融合训练方法和装置 |
CN115639677A (zh) * | 2022-12-23 | 2023-01-24 | 广州视景医疗软件有限公司 | 一种基于vr眼镜的图像对比度调节方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN116807849A (zh) | 2023-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10971115B2 (en) | Foveated rendering system and method | |
CN103181180B (zh) | 提示控制装置以及提示控制方法 | |
KR101660157B1 (ko) | 시선 추적 기반 재활 시스템 | |
CN116807849B (zh) | 一种基于眼动追踪的视觉训练方法及装置 | |
CN108491072B (zh) | 一种虚拟现实交互方法及装置 | |
WO2013033842A1 (en) | System and method for using eye gaze information to enhance interactions | |
US20190392636A1 (en) | Method and apparatus for displaying a bullet | |
CN112641610B (zh) | 弱视的训练方法、装置及系统 | |
CN108463789A (zh) | 信息处理设备、信息处理方法和程序 | |
CN108721070A (zh) | 一种基于眼球追踪的智能视觉功能训练系统及其训练方法 | |
CN108960002A (zh) | 一种动作调整信息提示方法及装置 | |
CN112702533B (zh) | 视线修正方法及视线修正装置 | |
CN112666705A (zh) | 一种眼动追踪设备及眼动追踪方法 | |
CN108572728A (zh) | 信息处理设备、信息处理方法和程序 | |
KR20180034278A (ko) | 시지각 트레이닝을 제공하는 컴퓨팅 장치, 헤드마운트 디스플레이 장치 기반의 시지각 트레이닝 제공방법 및 프로그램 | |
US11880501B2 (en) | User profile generating system and method | |
AU2019269104B2 (en) | An apparatus for detecting a display, method therefor and computer readable medium | |
CN117333644A (zh) | 一种虚拟现实的显示画面生成方法、装置、设备和介质 | |
CN115103094A (zh) | 一种基于注视点的摄像头模组远视角调节方法及系统 | |
CN117435058B (zh) | 一种智慧展厅的交互控制方法和系统 | |
CN110755241A (zh) | 视觉训练方法、视觉训练装置及存储介质 | |
CN116413915A (zh) | 一种近眼显示设备的亮度调节方法、近眼显示设备及介质 | |
CN115883816A (zh) | 显示方法、装置、头戴显示设备及存储介质 | |
CN116850012B (zh) | 一种基于双眼分视的视觉训练方法及系统 | |
CN116048251A (zh) | Vr显示方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |