CN112641610A - 弱视的训练方法、装置及系统 - Google Patents
弱视的训练方法、装置及系统 Download PDFInfo
- Publication number
- CN112641610A CN112641610A CN202011520934.XA CN202011520934A CN112641610A CN 112641610 A CN112641610 A CN 112641610A CN 202011520934 A CN202011520934 A CN 202011520934A CN 112641610 A CN112641610 A CN 112641610A
- Authority
- CN
- China
- Prior art keywords
- training
- user
- eye
- scene corresponding
- enhanced
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H5/00—Exercisers for the eyes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Multimedia (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Epidemiology (AREA)
- Pain & Pain Management (AREA)
- Physical Education & Sports Medicine (AREA)
- Rehabilitation Therapy (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Rehabilitation Tools (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供了一种弱视的训练方法、装置及系统,该训练方法包括:响应用户输入的训练模式的选择操作,确定选择操作指定的训练模式;获取用户双眼的视力数据,根据视力数据,设定用户的每一只眼睛对应的训练场景的显示方式;用户的每一只眼睛对应的训练场景中包括立体对象,用户的每一只眼睛对应的训练场景的显示方式,使得用户双眼得到了弱视矫正的训练;按照用户的每一只眼睛对应的训练场景的显示方式,输出用户的每一只眼睛对应的训练场景,并按照选择操作指定的训练模式,在用户的每一只眼睛对应的训练场景中以特定形式呈现目标对象;特定形式由选择操作执行的训练模式确定。通过对用户弱视的眼睛进行训练,对弱视的眼睛得到了锻炼。
Description
技术领域
本申请涉及视力矫正领域,特别涉及一种弱视的训练方法、装置及系统。
背景技术
弱视是视觉功能发育障碍导致的,最佳矫正视力低于正常,或是两只眼的视力相差两行以上。一般情况下,最佳矫正视力≤0.8可诊断弱视。视力低下的原因是视觉系统没有得到正常的发育,在视觉发育的关键期进入眼内的光刺激不够充分,剥夺了眼底黄斑形成清晰物像的机会和(或)两眼视觉输入不等引起清晰物像与模糊物像间发生竞争所造成的单眼或双眼视力减退。
弱视对患者的生活、学习、工作和心理等各方面造成了严重的危害。目前,大多数都是以优视眼来使用,放弃使用弱视眼,或者,以优势眼遮盖的方式来进行弱视的简单训练,但是这种简单的训练方案,并没有得到较好的效果。
发明内容
有鉴于此,本申请提供一种弱视的训练方法、装置及系统,用于加强对弱视的眼睛的锻炼。
本申请第一方面提供了一种弱视的训练方法,包括:
响应用户输入的训练模式的选择操作,确定所述选择操作指定的训练模式;
获取用户双眼的视力数据,并根据所述视力数据,设定所述用户的每一只眼睛对应的训练场景的显示方式;其中,所述用户的每一只眼睛对应的训练场景中包括立体对象,所述用户的每一只眼睛对应的训练场景的显示方式,使得所述用户双眼得到了弱视矫正的训练;
按照所述用户的每一只眼睛对应的训练场景的显示方式,输出所述用户的每一只眼睛对应的训练场景,并按照所述选择操作指定的训练模式,在所述用户的每一只眼睛对应的训练场景中以特定形式呈现目标对象;其中,所述特定形式由所述选择操作执行的训练模式确定。
可选的,所述响应用户输入的训练模式的选择操作,确定所述选择操作指定的训练模式之前,还包括:
获取所述用户的瞳距;
在预设的瞳距和两个训练场景中的对象的间隔距离的对应关系中,查询得到与所述用户的瞳距对应的两个训练场景中的对象的间隔距离;
根据所述用户的瞳距对应的两个训练场景中的对象的间隔距离,设定呈现给用户的两个训练场景中的对象的的间隔距离。
可选的,所述根据所述用户的视力数据,设定所述用户的每一只眼睛对应的训练场景的显示方式,包括:
根据所述用户的视力数据,确定所述用户的两只眼睛中视力更好的眼睛为目标眼睛;
维持非目标眼睛对应的训练场景的清晰度,依据所述用户的目标眼睛的视力数据,降低所述目标眼睛对应的训练场景的清晰度,或不展示所述目标眼睛对应的训练场景。
可选的,所述在所述用户的每一只眼睛对应的训练场景中以特定形式呈现目标对象,包括:
若所述选择操作指定的训练模式为常规模式,则在所述用户的每一只眼睛对应的训练场景中以唤醒训练形式呈现唤醒对象第一时长后,在所述用户的每一只眼睛对应的训练场景中以增强训练形式呈现增强对象第二时长;其中,一个所述唤醒训练形式对应一个唤醒对象,一个所述唤醒训练形式和对应的唤醒对象组成唤醒训练方案,唤醒训练方案设置有多个;一个所述增强训练形式对应一个增强对象,一个所述增强训练形式和对应的增强对象组成增强训练方案,增强训练方案设置有多个;
若所述选择操作指定的训练模式为手动模式,则响应用户在展示界面上输入的训练方案筛选操作,确定用户选择的唤醒训练方案和/或增强训练方案;在所述用户的每一只眼睛对应的训练场景中以目标唤醒训练形式呈现目标唤醒对象第一时长,和/或,在所述用户的每一只眼睛对应的训练场景中以目标增强训练形式呈现目标增强对象第二时长;其中,所述目标唤醒训练形式和所述目标唤醒对象属于所述用户选择的唤醒训练方案;所述目标增强训练形式和所述目标增强对象属于所述用户选择的增强训练方案;
若所述选择操作指定的训练模式为智能模式,则在所述用户的每一只眼睛对应的训练场景中以智能唤醒训练形式呈现智能唤醒对象第一时长后,在所述用户的每一只眼睛对应的训练场景中以智能增强训练形式呈现智能增强对象第二时长;其中,所述智能唤醒训练形式和所述智能唤醒对象属于所述唤醒训练方案中被智能推荐给用户的方案,所述智能增强训练形式和所述智能增强对象属于所述增强训练方案中被智能推荐给用户的方案。
可选的,所述在所述用户的每一只眼睛对应的训练场景中以增强训练形式呈现增强对象第二时长,包括:
所述第二时长内,在所述用户的每一只眼睛对应的训练场景中呈现背景,在所述用户的非目标眼睛对应的训练场景中呈现用户操作对象;其中,所述目标眼睛为用户的两只眼睛中视力更好的眼睛;
响应用户通过输入手柄执行的双手操作,在所述用户的每一只眼睛对应的训练场景中呈现所述用户操作对象的操作过程,其中,所述用户操作对象的操作过程对应于所述用户的双手操作。
可选的,所述根据所述视力数据,设定所述用户的每一只眼睛对应的训练场景的显示方式之后,还包括:
若所述选择操作指定的训练模式为手动模式,则响应用户输入的显示方式的调整操作,确定所述调整操作指定的用户的每一只眼睛对应的训练场景的显示方式;
将所述设定的所述用户的每一只眼睛对应的训练场景的显示方式,更新为所述调整操作指定的用户的每一只眼睛对应的训练场景的显示方式。
本申请第二方面提供了一种弱视的训练装置,包括:
第一响应单元,用于响应用户输入的训练模式的选择操作,确定所述选择操作指定的训练模式;
获取单元,用于获取用户双眼的视力数据;
第一设定单元,用于根据所述视力数据,设定所述用户的每一只眼睛对应的训练场景的显示方式;其中,所述用户的每一只眼睛对应的训练场景中包括立体对象,所述用户的每一只眼睛对应的训练场景的显示方式,使得所述用户双眼得到了弱视矫正的训练;
输出单元,用于按照所述用户的每一只眼睛对应的训练场景的显示方式,输出所述用户的每一只眼睛对应的训练场景,并按照所述选择操作指定的训练模式,在所述用户的每一只眼睛对应的训练场景中以特定形式呈现目标对象;其中,所述特定形式由所述选择操作执行的训练模式确定。
可选的,所述弱视的训练装置,还包括:
所述获取单元,还用于获取所述用户的瞳距;
查询单元,用于在预设的瞳距和两个训练场景中的对象的间隔距离的对应关系中,查询得到与所述用户的瞳距对应的两个训练场景中的对象的间隔距离;
第二设定单元,用根据所述用户的瞳距对应的两个训练场景中的对象的间隔距离,设定呈现给用户的两个训练场景中的对象的的间隔距离。
可选的,所述第一设定单元,包括:
确定单元,用于根据所述用户的视力数据,确定所述用户的两只眼睛中视力更好的眼睛为目标眼睛;
设定子单元,用于维持非目标眼睛对应的训练场景的清晰度,依据所述用户的目标眼睛的视力数据,降低所述目标眼睛对应的训练场景的清晰度,或不展示所述目标眼睛对应的训练场景。
可选的,所述输出单元在执行按照所述选择操作指定的训练模式,在所述用户的每一只眼睛对应的训练场景中以特定形式呈现目标对象时,用于:
若所述选择操作指定的训练模式为常规模式,则在所述用户的每一只眼睛对应的训练场景中以唤醒训练形式呈现唤醒对象第一时长后,在所述用户的每一只眼睛对应的训练场景中以增强训练形式呈现增强对象第二时长;其中,一个所述唤醒训练形式对应一个唤醒对象,一个所述唤醒训练形式和对应的唤醒对象组成唤醒训练方案,唤醒训练方案设置有多个;一个所述增强训练形式对应一个增强对象,一个所述增强训练形式和对应的增强对象组成增强训练方案,增强训练方案设置有多个;
若所述选择操作指定的训练模式为手动模式,则响应用户在展示界面上输入的训练方案筛选操作,确定用户选择的唤醒训练方案和/或增强训练方案;在所述用户的每一只眼睛对应的训练场景中以目标唤醒训练形式呈现目标唤醒对象第一时长,和/或,在所述用户的每一只眼睛对应的训练场景中以目标增强训练形式呈现目标增强对象第二时长;其中,所述目标唤醒训练形式和所述目标唤醒对象属于所述用户选择的唤醒训练方案;所述目标增强训练形式和所述目标增强对象属于所述用户选择的增强训练方案;
若所述选择操作指定的训练模式为智能模式,则在所述用户的每一只眼睛对应的训练场景中以智能唤醒训练形式呈现智能唤醒对象第一时长后,在所述用户的每一只眼睛对应的训练场景中以智能增强训练形式呈现智能增强对象第二时长;其中,所述智能唤醒训练形式和所述智能唤醒对象属于所述唤醒训练方案中被智能推荐给用户的方案,所述智能增强训练形式和所述智能增强对象属于所述增强训练方案中被智能推荐给用户的方案。
可选的,所述输出单元在执行所述用户的每一只眼睛对应的训练场景中以增强训练形式呈现增强对象第二时长时,用于:
所述第二时长内,在所述用户的每一只眼睛对应的训练场景中呈现背景,在所述用户的非目标眼睛对应的训练场景中呈现用户操作对象;其中,所述目标眼睛为用户的两只眼睛中视力更好的眼睛;
响应用户通过输入手柄执行的双手操作,在所述用户的每一只眼睛对应的训练场景中呈现所述用户操作对象的操作过程,其中,所述用户操作对象的操作过程对应于所述用户的双手操作。
可选的,所述弱视的训练装置,还包括:
第二响应单元,用于若所述选择操作指定的训练模式为手动模式,则响应用户输入的显示方式的调整操作,确定所述调整操作指定的用户的每一只眼睛对应的训练场景的显示方式;
更新单元,用于将所述第一设定单元设定的所述用户的每一只眼睛对应的训练场景的显示方式,更新为所述调整操作指定的用户的每一只眼睛对应的训练场景的显示方式。
本申请第三方面提供了一种弱视的训练系统,包括:
VR眼镜本体、输入输出模块、无线通信模块、音视频模块、控制芯片、眼动追踪模块、交互模块和手势识别模块;
其中,所述眼动追踪模块用于获取用户的眼球移动数据;
所述手势识别模块用于识别用户双手姿势,得到用户的双手操作的数据;所述控制芯片通过与所述眼动追踪模块、手势识别模块、所述交互模块,执行所述的弱视的训练方法;所述控制芯片输出的训练场景通过所述VR眼镜本体向用户展示;
所述交互模块用于收集所述控制芯片执行所述弱视的训练方法过程中的所需数据。
可选的,所述弱视的训练系统,还包括:设置于所述VR眼镜本体上的瞳距调整机构;其中,所述瞳距调整机构用于调整所述VR眼镜本体的两个镜筒之间的间距。
由以上方案可知,本申请提供了一种弱视的训练方法、装置及系统,所述弱视的训练方法包括:首先,响应用户输入的训练模式的选择操作,确定所述选择操作指定的训练模式;然后,获取用户双眼的视力数据,并根据所述视力数据,设定所述用户的每一只眼睛对应的训练场景的显示方式;其中,所述用户的每一只眼睛对应的训练场景中包括立体对象,所述用户的每一只眼睛对应的训练场景的显示方式,使得所述用户双眼得到了弱视矫正的训练;然后,按照所述用户的每一只眼睛对应的训练场景的显示方式,输出所述用户的每一只眼睛对应的训练场景,并按照所述选择操作指定的训练模式,在所述用户的每一只眼睛对应的训练场景中以特定形式呈现目标对象;其中,所述特定形式由所述选择操作执行的训练模式确定。通过对用户弱视的眼睛进行训练,对弱视的眼睛得到了锻炼。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1a为本申请实施例提供的一种弱视的训练系统的示意图;
图1b为本申请实施例提供的一种弱视的训练系统的示意图;
图2为本申请另一实施例提供的一种VR眼镜本体的示意图;
图3为本申请另一实施例提供的一种弱视的训练方法的具体流程图;
图4为本申请另一实施例提供的一种立体遮罩效果的示意图;
图5为本申请另一实施例提供的一种立体遮罩效果的示意图;
图6为本申请另一实施例提供的一种完全遮罩效果的示意图;
图7为本申请另一实施例提供的确定选择操作指定的训练模式的一种实施方案的流程图;
图8为本申请另一实施例提供的设定用户的每一只眼睛对应的训练场景的显示方式的一种实施方案的流程图;
图9为本申请另一实施例提供的一种弱视的训练方法的具体流程图;
图10为本申请另一实施例提供的在用户的每一只眼睛对应的训练场景中以增强训练形式呈现增强对象第二时长的一种实施方式的流程图;
图11为本申请另一实施例提供的手动模式下根据视力数据,设定用户的每一只眼睛对应的训练场景的显示方式的一种实施方式的流程图;
图12为本申请另一实施例提供的一种弱视的训练装置的示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要注意,本申请中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系,而术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本申请实施例提供了一种弱视的训练系统,参阅图1a和图1b,包括:
VR眼镜本体101、输入输出模块102、无线通信模块103、音视频模块104、控制芯片105、眼动追踪模块106、交互模块107和手势识别模块108。
其中,眼动追踪模块106用于获取用户的眼球移动数据;手势识别模块108用于识别用户双手姿势,得到用户的双手操作的数据;控制芯片105通过与眼动追踪模块106、手势识别模块108、交互模块107对用户弱视的眼睛进行训练;控制芯片105输出的训练场景通过VR眼镜本体101向用户展示。交互模块107用于收集控制芯片105执行弱视的训练方法过程中的所需数据,具体用来接收用户操作数据和反馈数据。
控制芯片105可以理解成VR眼镜本体101中具有逻辑处理能力的处理器,控制芯片105可以通过输入输出模块102与VR眼镜本体101的其他部件以及外界设备相交互。手势识别模块108、交互模块107分别与控制芯片105相连。VR眼镜本体101还设置输入输出模块102、无线通信模块103、音视频模块104和眼动追踪模块106。手势识别模块108、交互模块107与控制芯片105之间通信连接可采用WIFI、蓝牙、超声波传输等无线通信连接方式。
需要说明的是,输入输出模块102可以是但不限于接口等;眼动追踪模块106可以通过但不限于在VR眼镜本体101上的红外线传感器,可以获取用户的瞳孔的移动数据;手势识别模块108可以是但不限于通过深度摄像头、RGB摄像头等对用户的双手识别和追踪;交互模块107可以通过但不限于陀螺仪传感器、磁传感器、蓝牙等传感器收集控制芯片105执行弱视的训练方法过程中的所需数据;手势识别模块108和交互模块107,可以在VR场景中还原用户的双手,以在VR场景中可以用用户的虚拟双手完成一系列的操作,VR眼镜本体101具有两个镜筒和实现VR技术的基础部件。
可以理解的是,图1a和图1b只是对弱视的训练系统进行举例说明的一个示意图,当然,训练系统中还应当包括其他未在上述内容中展示的模块,以实现训练系统的运行,例如电源模块等。并且,在图1a中还可以看出:训练系统还可以单独设置两个用户操作手柄109,用户操作手柄与VR眼镜本体101是分离式设计。手势识别模块108用于检测用户的手的操作,且通过控制芯片105的配合,将用户的手的操作在VR眼镜本体101输出的训练场景中还原出来。并且,用户的手的操作可以多样化,例如:手的姿势的多种调整,手指的姿势的多种调整等。
另外,用户操作手柄109上也可以设置检测器件,在用户对用户操作手柄109执行抓、握、拿、捏、食指运动等动作时,用户操作手柄109上的检测部件也可以检测用户的手的操作,并通过控制芯片105的配合,将用户的手操作在VR眼镜本体101输出的训练场景中还原出来。
需要说明的是,音频模块与视频模块(即上述音视频模块104)可以分开实现,音频模块可以通过输入输出模块102与VR眼镜本体101或控制芯片105或输入输出模块102相连,如音响等,音频模块同样也可以与AR眼镜本体101通过蓝牙连接,如蓝牙音响等,同样,可以根据控制芯片105对音频模块进控制,如音量的加减等。
可选的,在本申请的另一实施例中,如图2所示,弱视的训练系统还可以包括:设置与VR眼镜本体上的瞳距调整机构110,用于调整VR眼镜本体的两个镜筒之间的间距。
具体的,用户可以通过调节瞳距调整机构110,达到改变VR眼镜本体的两个镜筒之间的间距的目的。例如:在用户选择对瞳距进行调节后,VR眼镜本体的两个镜筒中首先会呈现一幅标定的图像,可以是十字光标、可以是圆环、也可以是方形等其他形式,此处不做限定。用户通过观看这个标定图像的模糊重影程度,手动控制调节瞳距调整机构110,直至用户观看到的标定图像到达最清晰,结束对瞳距进行调节。
基于上述实施例提供的弱视的训练系统,本申请实施例还提供了一种弱视的训练方法,弱视的训练方法可以理解成由弱视的训练系统中的控制芯片来执行。
如图3所示,本实施例公开的弱视的训练方法,具体包括以下步骤:
S301、响应用户输入的训练模式的选择操作,确定选择操作指定的训练模式。
其中,选择操作可以是用户通过与VR眼镜本体相连的设备,例如:电脑、iPad、手机等设备进行人机交互输入指令,再与控制芯片进行交互选择自己想要的训练模式;也可以是用户通过控制手柄与控制芯片进行交互,选择自己想要的训练模式;当然还可以是利用手势识别模块以及交互模块对用户的手势进行识别,由控制芯片确定用户在VR眼镜本体中呈现的虚拟双手的位置,从而确定用户选择的训练模式等,方式十分多样化,此处不做限定。
控制芯片可以与音视频模块进行交互,向音视频模块发送控制指令,由音视频模块发送音视频数据,该音视频数据通过VR眼镜本体向用户展示训练模式的选择界面,在用户输入训练模式的选择操作后,确定选择操作指定的训练模式。当然,控制芯片还可以向音视频模块发送其他控制指令,使得音视频模块通过VR眼镜本体向用户播放出不同的音视频数据。
还需要说明的是,由于不同人的瞳距可能不同,因此为提高对弱视眼睛的锻炼效果,需要针对不同的人的瞳距来对训练系统进行调整,以适应训练系统当前使用者的瞳距需求。
前述训练系统的实施例中,介绍了通过瞳距调整机构来调整VR眼镜的镜筒的方案,除了这种机构结构的调整,还可以通过软件控制的形式来实现对训练系统的调整。具体的,在执行本实施例提供的弱视的训练方法中步骤S301之前,如图7所示,还可以执行以下步骤:
S701、获取用户的瞳距。
其中,获取用户的瞳距的方式,十分多样化。用户通过外部设备,例如:电脑、iPad、手机等,手动输入的瞳距,由外部设备与控制芯片进行交互,完成了用户的瞳距的输入;控制芯片上可以安装测量瞳距的软件,在用户佩戴VR眼镜之后,对用户的瞳距进行测量;当然,如图2所示,眼动追踪模块106可以设置于两个镜筒上,在用户佩戴上VR眼镜本体之后,可以测量用户的瞳距。
S702、在预设的瞳距和两个训练场景中的对象的间隔距离的对应关系中,查询得到与用户的瞳距对应的两个训练场景中的对象的间隔距离。
其中,瞳距和两个训练场景中的对象的间隔距离的对应关系,包括了不同瞳距值所对应的训练场景中的对象的间隔距离。一个训练场景对应用户的一只眼睛,由VR眼镜的一个镜筒输出训练场景。当然,训练场景是一个立体的图像,包括属于本场景中的多个立体对象。
这里所说的两个训练场景中的对象,则指代训练场景中的标志性的对象,或者处于场景中心区域的对象。每一个瞳距对应的训练场景中的对象的间隔距离是最合理的,与瞳距也是最匹配的,能让具有该瞳距的用户佩戴最舒服。
S703、根据用户的瞳距对应的两个训练场景中的对象的间隔距离,设定呈现给用户的两个训练场景中的对象的间隔距离。
通过步骤S702和S703的方式,使得用户在进行弱视训练的过程中,呈现给用户的两个训练场景中的对象的间隔距离更加贴合用户自身的瞳距。
S302、获取用户双眼的视力数据,并根据视力数据,设定用户的每一只眼睛对应的训练场景的显示方式。
其中,用户的每一只眼睛对应的训练场景中包括立体对象,用户的每一只眼睛对应的训练场景的显示方式,使得用户双眼得到了弱视矫正的训练。
需要说明的是,获取用户的视力数据方式可以是但不限于通过与VR眼镜相连的设备,例如:电脑、iPad、手机等,由外部设备与控制芯片进行交互,完成了用户的视力数据的输入;控制芯片上可以安装测量视力的软件,在用户佩戴VR眼镜之后,对用户的视力进行测量;当然测量视力的软件也可以设置于VR眼镜的内部芯片,此处不做限定。
还需要说明的是,可以但不限于通过软件编写多种VR着色器,用以实现左右屏幕呈现不同的图像,从而使用户在使用VR眼镜时,双目可以观察到在同一训练场景下的不同的物体图像,使得用户在同一场景的不同眼睛可以的到不同的锻炼机会,从而增强弱视眼睛的神经功能。其中,着色器是一段程序,通过着色器自定义显卡渲染画面的算法,可以将纹理、网格信息输入至程序中得到不同的材质画面效果。
具体的,编写VR着色器后,可以将左右屏幕的图像按照两种呈现效果进行呈现:立体遮罩效果和完全遮罩效果。
参阅图4,为立体遮罩效果的一种示意图。左眼只能看见图片1中的物体,右眼只能看见图片2中的物体,最后用户大脑中呈现的物体为图片3中的物体效果。
参阅图5,在本申请的实际应用过程中,假如用户的左眼弱视,则设置左眼只能看到正方形物体,右眼只能看见圆形物体,那么可以让用户通过交互模块操作正方形物体左右移动接住下落的圆形物体。
参阅图6,为完全遮罩效果的一种示意图。通过将正常视力的眼睛中的图像设为模糊或纯黑效果,弱视的眼睛中的图像的效果为正常显示,促使用户更多的使用右眼。
需要说明的是,图4、图5以及图6只是以2D平面图进行示意说明,在实际的应用过程中,均为训练场景的对象,是3D空间中的立体物体,比如圆形物体为乒乓球、正方形物体为水桶等。
可选的,在本申请的另一实施例中,步骤S302的一种实施方式,如图8所示,包括:
S801、根据用户的视力数据,确定用户的两只眼睛中视力更好的眼睛为目标眼睛。
需要说明的是,两只眼睛可能都是弱视,只是将两只眼睛中视力更好的眼睛确定为目标眼睛,优先训练弱视更严重的眼睛。
S802、维持非目标眼睛对应的训练场景的清晰度,依据用户的目标眼睛的视力数据,降低目标眼睛对应的训练场景的清晰度,或不展示目标眼睛对应的训练场景。
需要说明的是,降低目标眼睛对应的训练场景的清晰度,可以是用户通过手动进行调节,也可以是系统根据正常眼睛与非正常眼睛之间视力差距进行调节的。
在非目标眼睛的视力数据反映眼睛的弱视程度越严重,则目标眼睛对应的训练场景的清晰度降低的越低,直至不展示目标眼睛对应的训练场景。此处提出的不展示目标眼睛对应的训练场景,就是上述内容提出的设置训练场景为纯黑色,无法辨识训练场景中的对象。
S303、按照用户的每一只眼睛对应的训练场景的显示方式,输出用户的每一只眼睛对应的训练场景,并按照选择操作指定的训练模式,在用户的每一只眼睛对应的训练场景中以特定形式呈现目标对象。
其中,特定形式由选择操作执行的训练模式确定。特定形式可以是通过将目标对象进行规律性的闪烁对弱视的眼镜进行刺激;还可以是结合交互模块进行眼手交互等,进一步的提高对弱视的眼睛的锻炼效果,方式十分多样化,此处不做限定。
需要说明的是,目标对象在实际的应用过程中了,可以是立体的,也可以是平面的,可以根据实际需求进行设定,此处不做限定。
例如:用户的左眼为弱视的眼睛,右眼为正常眼睛,降低输出至右眼的训练场景的清晰度,维持输出至左眼的训练场景的清晰度,并按照用户选择则操作所指定的训练模式,在用户的每一只眼睛对应的训练场景中以特定形式呈现目标对象。
由以上方案可知,本申请提供了一种弱视的训练方法中:首先,响应用户输入的训练模式的选择操作,确定选择操作指定的训练模式;然后,获取用户双眼的视力数据,并根据视力数据,设定用户的每一只眼睛对应的训练场景的显示方式;其中,用户的每一只眼睛对应的训练场景中包括立体对象,用户的每一只眼睛对应的训练场景的显示方式,使得用户双眼得到了弱视矫正的训练;然后,按照用户的每一只眼睛对应的训练场景的显示方式,输出用户的每一只眼睛对应的训练场景,并按照选择操作指定的训练模式,在用户的每一只眼睛对应的训练场景中以特定形式呈现目标对象;其中,特定形式由选择操作执行的训练模式确定。通过对用户弱视的眼睛进行训练,对弱视的眼睛得到了锻炼。
本申请另一实施例还公开了一种弱视的训练方法,如图9所示,包括步骤:
S901、响应用户输入的训练模式的选择操作,确定选择操作指定的训练模式。
S902、获取用户双眼的视力数据,并根据视力数据,设定用户的每一只眼睛对应的训练场景的显示方式。
其中,用户的每一只眼睛对应的训练场景中包括立体对象,用户的每一只眼睛对应的训练场景的显示方式,使得用户双眼得到了弱视矫正的训练。
本实施例中,步骤S901和S902的具体实施内容,可参见对应图3和图8的内容,此处不再赘述。
S903、识别选择操作指定的训练模式为常规模式,按照用户的每一只眼睛对应的训练场景的显示方式,输出用户的每一只眼睛对应的训练场景,并在用户的每一只眼睛对应的训练场景中以唤醒训练形式呈现唤醒对象第一时长后,在用户的每一只眼睛对应的训练场景中以增强训练形式呈现增强对象第二时长。
其中,一个唤醒训练形式对应一个唤醒对象,一个唤醒训练形式和对应的唤醒对象组成唤醒训练方案,唤醒训练方案设置有多个;一个增强训练形式对应一个增强对象,一个增强训练形式和对应的增强对象组成增强训练方案,增强训练方案设置有多个。
需要说明的是,常规模式也可以认为是系统设定的默认模式,常规模式下的第一时长和第二时长是根据技术人员进行预先设置的。唤醒训练方案和增强训练方案,会预先设置的多个方案。在常规模式下,控制芯片会随机为用户选择一个唤醒训练方案或按照唤醒训练方案的顺序选择一个唤醒训练方案,在训练场景中以唤醒训练方案中的唤醒训练形式呈现唤醒训练方案中的唤醒对象第一时长;会随机为用户选择一个增强训练方案或按照增强训练方案的顺序选择一个增强训练方案,在增强场景中以增强训练方案中的增强训练形式呈现增强训练方案中的增强对象第二时长。
可以理解的是,为避免用户的长时间使用VR眼镜导致眼睛过于疲劳,从而给用的眼睛带来负面影响,还应当设置一个第三时长,其中,第一时长与第二时长的和不应超过第三时长,从而保护用户的眼睛,当然,也可以不进行设置第三时长,此处不做限定。
需要说明的是,以下对唤醒训练方案和增强训练方案进行举例说明。
例如:唤醒训练方案可以是但不限于黑白成像、条删刺激、红光闪烁、光刷模式、光点追踪、后像模式等几种方案。
其中:黑白成像为在立体空间中呈现对象的黑色和反白色的规律性闪烁节奏作为视觉刺激源。条删刺激为在立体空间中呈现不同频率的黑白(或不同颜色)条栅作为视觉刺激源,使用户的弱视眼受到不同空间频率和有对比度的光栅刺激。红光闪烁为在立体空间中呈现红绿蓝三色光交替闪烁,充分刺激用户弱视眼的黄斑中心凹的视锥细胞。光刷模式为在立体空间中在强光背景下呈现一条蓝色透明条状对象,训练开始时为绕自中心360°旋转状态,在旋转一周的时间内的特定时间时条状对象为消失状态,在其他特定时间为实体显现状态,用户在注视强光时,训练弱视眼的黄斑中心凹敏感性。光点追踪为在立体空间中在暗色或纯色或某些图案作为背景时,规律性闪烁的光点在不同时间的不同位置消失和出现,训练用户的弱视眼视神经敏感性。后像模式为在立体空间中的呈现圆形的遮挡物,用户在训练时会被强制遮住黄斑中心凹3°范围内的视网膜,造成纱光刺激黄斑中心凹3°以外的视网膜,使中心凹的注视能力得到训练。
再例如:增强训练方案可以是但不限于精细识别类、飞行避障类、射击精准类、敏捷反应类等几种方案。
其中,精细分辨类用于训练弱视的眼睛的视神经对目标的精准捕捉能力,例如:通过VR进行接苹果,弱视的眼睛只呈现要交互的对象O(苹果),对象A(左手水桶)绑定于交互模块A(左手柄),对象B(模拟右手)绑定与交互模块B(右手手柄),正常眼只呈现固定的背景(果园)或对象X(苹果树)。通过交互模块A和B的配合(手从树上摘下苹果),完成A对对象O的收集功能(放到水桶里)。
飞行避障类,用于训练弱视的眼睛的视神经对目标的跟随识别能力,例如:通过VR进行太空飞行,弱视的眼睛只呈现要交互的对象O(飞行器)和要进入的对象X(圆环),对象O空间移动的方式绑定于交互模块A和交互模块B(左右手手柄),正常的眼睛只呈现固定的背景(宇宙空间)或要躲避的对象Y(岩石)。通过交互模块A或B,用户操作对象O躲避对象Y,进入多个对象X,同样,可以针对移动方式稍作修改,对象O的前后左右移动方式绑定于交互模块A,射击枪炮开火方式绑定与交互模块B,正常的眼睛只呈现固定的背景(宇宙空间)或要躲避的对象Y(岩石)。通过交互模块A和B的配合,用户操作左手手柄使对象O躲避对象Y或者操作右手手柄B打碎对象Y,最终进入多个对象X。
射击精准类,用于训练弱视的眼睛的眼手配合能力,提高视觉神经与身体运动神经的配合性。例如:利用VR进行射击,弱视的眼睛只呈现要交互的对象O(枪械及其附带的激光指示点)和要射击的对象X(苹果),对象O的开火方式绑定于交互模块A(弱视的眼睛同侧的手柄),对象Y(模拟手部形状)绑定与交互模块B(正常的眼睛同侧手柄),当对象Y靠近对象O时画面显示握住枪械的前部,形成双手持枪的状态,正常的眼睛只呈现固定的场景(森林)。训练时通过交互模块A与B的配合,用户操作对象射击对象X。同样,交互对象O可以为弓绑定与交互模块B(正常的眼睛同侧手柄),交互对象Y设置为箭(弱视的眼睛同侧的手柄)。训练时通过交互模块B配合交互模块A,射中对象X。
敏捷反映类,用于训练弱视的眼睛的眼手配合能力,提高弱视的眼睛的追踪能力,与身体运动神经的敏捷反映配合性。例如:利用VR用拳击气球,弱视的眼睛只呈现要交互的对象O(红或蓝气球),对象A(左手拳套)绑定于交互模块A(左手柄),对象B(右手拳套)绑定与交互模块B(右手手柄),正常的眼睛只呈现固定的背景(体育馆)或对象X(白色或黑色气球)。通过交互模块A和B的配合击打对象O,完成对象A和B对对象O的交互功能(击碎)。同样,可以利用VR进行打地鼠,弱视的眼睛只呈现要交互的对象O(地洞里的老鼠对象),对象A(左手木锤)绑定于交互模块A(左手柄),对象B(右手木锤)绑定与交互模块B(右手手柄),正常的眼睛只呈现固定的背景(体育馆)或对象X(白色或黑色气球)。通过交互模块A和B的配合击打对象O,完成对象A和B对对象O的交互功能(击中)。
可以理解的是,上述给出的唤醒训练方案和增强训练方案,仅仅是实例性说明。当然,训练系统还可以设置的其他多种多样的训练方案。但不管是哪种训练方案,均可以理解成:是在用户的每一只眼睛对应的训练场景中以特定形式呈现目标对象。
S904、识别选择操作指定的训练模式为手动模式,按照用户的每一只眼睛对应的训练场景的显示方式,输出用户的每一只眼睛对应的训练场景,并响应用户在展示界面上输入的训练方案筛选操作,确定用户选择的唤醒训练方案和/或增强训练方案。
S905、在用户的每一只眼睛对应的训练场景中以目标唤醒训练形式呈现目标唤醒对象第一时长,和/或,在用户的每一只眼睛对应的训练场景中以目标增强训练形式呈现目标增强对象第二时长。
其中,目标唤醒训练形式和目标唤醒对象属于用户选择的唤醒训练方案;目标增强训练形式和目标增强对象属于用户选择的增强训练方案。
需要说明的是,手动模式为用户根据自身喜好或实际需求,手动对自己想要进行的目标唤醒训练方案和/或目标增强训练方案进行选择,也可以理解为自定义自己的训练方案,并且可以自定义第一时长和第二时长。
还需要说明的是,目标唤醒训练方案、目标增强训练方案分别与上述的唤醒训练方案、增强训练方案一致,具体的实施过程可以参见上述内容,此处不再赘述。
参见上述实施例,在手动模式下同样可以增加一个第三时长,使得用户所自定义的训练方案的总时长不超过第三时长,从而保护用户的眼睛。
S906、识别选择操作指定的训练模式为智能模式,按照用户的每一只眼睛对应的训练场景的显示方式,输出用户的每一只眼睛对应的训练场景,并在用户的每一只眼睛对应的训练场景中以智能唤醒训练形式呈现智能唤醒对象第一时长后,在用户的每一只眼睛对应的训练场景中以智能增强训练形式呈现智能增强对象第二时长。
其中,智能唤醒训练形式和智能唤醒对象属于唤醒训练方案中被智能推荐给用户的方案,智能增强训练形式和智能增强对象属于增强训练方案中被智能推荐给用户的方案。
需要说明的是,智能唤醒训练方案、智能增强训练方案分别与上述的唤醒训练方案、增强训练方案一致,具体的实施过程可以参见上述内容,此处不再赘述。
当用户为第一次使用VR眼镜,那么智能模式即为上述的常规模式;当每一次用户结束训练后,对用户的视力数据以及训练过程中的训练数据进行记录,并将其存储在本地或者云端。当下一次用户使用智能模式进行训练时,可以通过用户的历史数据进行分析,用户更适合于哪种训练形式,哪种训练方案,进行唤醒训练的时长、进行增强训练的时长等。具体的,可以但不限于通过行为树、状态机等智能方式,根据用户历史视力数据和历史训练数据,智能推荐功能训练组合,此处不做限定。
可以理解的是,在用户进行弱视训练的过程中,由于弱视的眼睛受到了训练,所以每一次结束训练后,用户的视力数据可能会发生变化。
参见上述实施例,在智能模式下同样可以增加一个第三时长,使得用户在智能模式下的训练的总时长不超过第三时长,从而可以更好的保护用户的眼睛。
可选的,在本申请的另一实施例中,步骤S903中在用户的每一只眼睛对应的训练场景中以增强训练形式呈现增强对象第二时长的一种实施方式,如图10所示,包括:
S1001、在第二时长内,在用户的每一只眼睛对应的训练场景中呈现背景,在用户的非目标眼睛对应的训练场景中呈现用户操作对象。
其中,目标眼睛为用户的两只眼睛中视力更好的眼睛;背景为用户操作对象所处的背景的图像。
S1002、响应用户通过输入手柄执行的双手操作,在用户的每一只眼睛对应的训练场景中呈现用户操作对象的操作过程。
其中,用户操作对象的操作过程对应于用户的双手操作。
具体的,响应用户通过输入手柄的按键操作,例如:方向键控制用户在训练场景中的操作对象进行移动等。
可选的,在本申请的另一实施例中,若选择操作指定的训练模式为手动模式,则在步骤S302之后的一种实施方式,如图11所示,包括:
S1101、响应用户输入的显示方式的调整操作,确定调整操作指定的用户的每一只眼睛对应的训练场景的显示方式。
需要说明的是,由于步骤S302中根据视力数据,设定用户的每一只眼睛对应的训练场景的显示方式,但是,可能用户并不喜欢或觉得控制芯片为其设定的用户的每一只眼睛对应的训练场景的显示方式并不好,那么用户可以输入用于调整用户的每一只眼睛对应的训练场景的显示方式的调整操作。
S1102、将设定的用户的每一只眼睛对应的训练场景的显示方式,更新为调整操作指定的用户的每一只眼睛对应的训练场景的显示方式。
可以理解的是,不仅限于用户选择操作指定的训练模式为手动模式,本实施例同样可以应用于,用户选择操作指定的训练模式为智能或常规模式。
本申请另一实施例提供了一种弱视的训练装置,如图12所示,具体包括:
第一响应单元1201,用于响应用户输入的训练模式的选择操作,确定选择操作指定的训练模式。
获取单元1202,用于获取用户双眼的视力数据。
第一设定单元1203,用于根据视力数据,设定用户的每一只眼睛对应的训练场景的显示方式。
其中,用户的每一只眼睛对应的训练场景中包括立体对象,用户的每一只眼睛对应的训练场景的显示方式,使得用户双眼得到了弱视矫正的训练。
可选的,在本申请的另一实施例中,第一设定单元1203的一种实施方式,包括:
确定单元,用于根据用户的视力数据,确定用户的两只眼睛中视力更好的眼睛为目标眼睛。
设定子单元,用于维持非目标眼睛对应的训练场景的清晰度,依据用户的目标眼睛的视力数据,降低目标眼睛对应的训练场景的清晰度,或不展示目标眼睛对应的训练场景。
本申请上述实施例公开的单元的具体工作过程,可参见对应的方法实施例内容,如图8所示,此处不再赘述。
输出单元1204,用于按照用户的每一只眼睛对应的训练场景的显示方式,输出用户的每一只眼睛对应的训练场景,并按照选择操作指定的训练模式,在用户的每一只眼睛对应的训练场景中以特定形式呈现目标对象。
其中,特定形式由选择操作执行的训练模式确定。
本申请上述实施例公开的单元的具体工作过程,可参见对应的方法实施例内容,如图3所示,此处不再赘述。
由以上方案可知,本申请提供了一种弱视的训练装置,弱视的训练方法包括:首先,第一响应单元1201响应用户输入的训练模式的选择操作,确定选择操作指定的训练模式;然后,获取单元1202获取用户双眼的视力数据,第一设定单元1203根据视力数据,设定用户的每一只眼睛对应的训练场景的显示方式;其中,用户的每一只眼睛对应的训练场景中包括立体对象,用户的每一只眼睛对应的训练场景的显示方式,使得用户双眼得到了弱视矫正的训练;然后,输出单元1204按照用户的每一只眼睛对应的训练场景的显示方式,输出用户的每一只眼睛对应的训练场景,并按照选择操作指定的训练模式,在用户的每一只眼睛对应的训练场景中以特定形式呈现目标对象;其中,特定形式由选择操作执行的训练模式确定。通过对用户弱视的眼睛进行训练,对弱视的眼睛得到了锻炼。
可选的,在本申请的另一实施例中,弱视的训练装置的一种实施方式,还包括:
获取单元,用于获取用户的瞳距。
查询单元,用于在预设的瞳距和两个训练场景中的对象的间隔距离的对应关系中,查询得到与用户的瞳距对应的两个训练场景中的对象的间隔距离。
第二设定单元,用根据用户的瞳距对应的两个训练场景中的对象的间隔距离,设定呈现给用户的两个训练场景中的对象的的间隔距离。
本申请上述实施例公开的单元的具体工作过程,可参见对应的方法实施例内容,如图7所示,此处不再赘述。
可选的,在本申请的另一实施例中,输出单元在执行按照选择操作指定的训练模式,在用户的每一只眼睛对应的训练场景中以特定形式呈现目标对象时,用于:
若选择操作指定的训练模式为常规模式,则在用户的每一只眼睛对应的训练场景中以唤醒训练形式呈现唤醒对象第一时长后,在用户的每一只眼睛对应的训练场景中以增强训练形式呈现增强对象第二时长。
其中,一个唤醒训练形式对应一个唤醒对象,一个唤醒训练形式和对应的唤醒对象组成唤醒训练方案,唤醒训练方案设置有多个;一个增强训练形式对应一个增强对象,一个增强训练形式和对应的增强对象组成增强训练方案,增强训练方案设置有多个。
若选择操作指定的训练模式为手动模式,则响应用户在展示界面上输入的训练方案筛选操作,确定用户选择的唤醒训练方案和/或增强训练方案;在用户的每一只眼睛对应的训练场景中以目标唤醒训练形式呈现目标唤醒对象第一时长,和/或,在用户的每一只眼睛对应的训练场景中以目标增强训练形式呈现目标增强对象第二时长。
其中,目标唤醒训练形式和目标唤醒对象属于用户选择的唤醒训练方案;目标增强训练形式和所述目标增强对象属于所述用户选择的增强训练方案。
若选择操作指定的训练模式为智能模式,则在用户的每一只眼睛对应的训练场景中以智能唤醒训练形式呈现智能唤醒对象第一时长后,在用户的每一只眼睛对应的训练场景中以智能增强训练形式呈现智能增强对象第二时长。
其中,智能唤醒训练形式和所述智能唤醒对象属于唤醒训练方案中被智能推荐给用户的方案,智能增强训练形式和智能增强对象属于所述增强训练方案中被智能推荐给用户的方案。
本申请上述实施例公开的单元的具体工作过程,可参见对应的方法实施例内容,如图9所示,此处不再赘述。
可选的,在本申请的另一实施例中,输出单元在执行用户的每一只眼睛对应的训练场景中以增强训练形式呈现增强对象第二时长时,用于:
第二时长内,在用户的每一只眼睛对应的训练场景中呈现背景,在用户的非目标眼睛对应的训练场景中呈现用户操作对象。
其中,目标眼睛为用户的两只眼睛中视力更好的眼睛;背景为用户操作对象所处的背景的图像。
响应用户通过输入手柄执行的双手操作,在用户的每一只眼睛对应的训练场景中呈现用户操作对象的操作过程。
其中,用户操作对象的操作过程对应于用户的双手操作。
本申请上述实施例公开的单元的具体工作过程,可参见对应的方法实施例内容,如图10所示,此处不再赘述。
可选的,在本申请的另一实施例中,弱视的训练装置的一种实施方式,还包括:
第二响应单元,用于若选择操作指定的训练模式为手动模式,则响应用户输入的显示方式的调整操作,确定调整操作指定的用户的每一只眼睛对应的训练场景的显示方式。
更新单元,用于将第一设定单元设定的用户的每一只眼睛对应的训练场景的显示方式,更新为调整操作指定的用户的每一只眼睛对应的训练场景的显示方式。
本申请上述实施例公开的单元的具体工作过程,可参见对应的方法实施例内容,如图11所示,此处不再赘述。
在本申请公开的上述实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置和方法实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本公开的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本公开各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,直播设备,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (14)
1.一种弱视的训练方法,其特征在于,包括:
响应用户输入的训练模式的选择操作,确定所述选择操作指定的训练模式;
获取用户双眼的视力数据,并根据所述视力数据,设定所述用户的每一只眼睛对应的训练场景的显示方式;其中,所述用户的每一只眼睛对应的训练场景中包括立体对象,所述用户的每一只眼睛对应的训练场景的显示方式,使得所述用户双眼得到了弱视矫正的训练;
按照所述用户的每一只眼睛对应的训练场景的显示方式,输出所述用户的每一只眼睛对应的训练场景,并按照所述选择操作指定的训练模式,在所述用户的每一只眼睛对应的训练场景中以特定形式呈现目标对象;其中,所述特定形式由所述选择操作执行的训练模式确定。
2.根据权利要求1所述的训练方法,其特征在于,所述响应用户输入的训练模式的选择操作,确定所述选择操作指定的训练模式之前,还包括:
获取所述用户的瞳距;
在预设的瞳距和两个训练场景中的对象的间隔距离的对应关系中,查询得到与所述用户的瞳距对应的两个训练场景中的对象的间隔距离;
根据所述用户的瞳距对应的两个训练场景中的对象的间隔距离,设定呈现给用户的两个训练场景中的对象的的间隔距离。
3.根据权利要求1所述的训练方法,其特征在于,所述根据所述用户的视力数据,设定所述用户的每一只眼睛对应的训练场景的显示方式,包括:
根据所述用户的视力数据,确定所述用户的两只眼睛中视力更好的眼睛为目标眼睛;
维持非目标眼睛对应的训练场景的清晰度,依据所述用户的目标眼睛的视力数据,降低所述目标眼睛对应的训练场景的清晰度,或不展示所述目标眼睛对应的训练场景。
4.根据权利要求1所述的训练方法,其特征在于,所述在所述用户的每一只眼睛对应的训练场景中以特定形式呈现目标对象,包括:
若所述选择操作指定的训练模式为常规模式,则在所述用户的每一只眼睛对应的训练场景中以唤醒训练形式呈现唤醒对象第一时长后,在所述用户的每一只眼睛对应的训练场景中以增强训练形式呈现增强对象第二时长;其中,一个所述唤醒训练形式对应一个唤醒对象,一个所述唤醒训练形式和对应的唤醒对象组成唤醒训练方案,唤醒训练方案设置有多个;一个所述增强训练形式对应一个增强对象,一个所述增强训练形式和对应的增强对象组成增强训练方案,增强训练方案设置有多个;
若所述选择操作指定的训练模式为手动模式,则响应用户在展示界面上输入的训练方案筛选操作,确定用户选择的唤醒训练方案和/或增强训练方案;在所述用户的每一只眼睛对应的训练场景中以目标唤醒训练形式呈现目标唤醒对象第一时长,和/或,在所述用户的每一只眼睛对应的训练场景中以目标增强训练形式呈现目标增强对象第二时长;其中,所述目标唤醒训练形式和所述目标唤醒对象属于所述用户选择的唤醒训练方案;所述目标增强训练形式和所述目标增强对象属于所述用户选择的增强训练方案;
若所述选择操作指定的训练模式为智能模式,则在所述用户的每一只眼睛对应的训练场景中以智能唤醒训练形式呈现智能唤醒对象第一时长后,在所述用户的每一只眼睛对应的训练场景中以智能增强训练形式呈现智能增强对象第二时长;其中,所述智能唤醒训练形式和所述智能唤醒对象属于所述唤醒训练方案中被智能推荐给用户的方案,所述智能增强训练形式和所述智能增强对象属于所述增强训练方案中被智能推荐给用户的方案。
5.根据权利要求4所述的训练方法,其特征在于,所述在所述用户的每一只眼睛对应的训练场景中以增强训练形式呈现增强对象第二时长,包括:
所述第二时长内,在所述用户的每一只眼睛对应的训练场景中呈现背景,在所述用户的非目标眼睛对应的训练场景中呈现用户操作对象;其中,所述目标眼睛为用户的两只眼睛中视力更好的眼睛;
响应用户通过输入手柄执行的双手操作,在所述用户的每一只眼睛对应的训练场景中呈现所述用户操作对象的操作过程,其中,所述用户操作对象的操作过程对应于所述用户的双手操作。
6.根据权利要求1所述的训练方法,其特征在于,所述根据所述视力数据,设定所述用户的每一只眼睛对应的训练场景的显示方式之后,还包括:
若所述选择操作指定的训练模式为手动模式,则响应用户输入的显示方式的调整操作,确定所述调整操作指定的用户的每一只眼睛对应的训练场景的显示方式;
将所述设定的所述用户的每一只眼睛对应的训练场景的显示方式,更新为所述调整操作指定的用户的每一只眼睛对应的训练场景的显示方式。
7.一种弱视的训练装置,其特征在于,包括:
第一响应单元,用于响应用户输入的训练模式的选择操作,确定所述选择操作指定的训练模式;
获取单元,用于获取用户双眼的视力数据;
第一设定单元,用于根据所述视力数据,设定所述用户的每一只眼睛对应的训练场景的显示方式;其中,所述用户的每一只眼睛对应的训练场景中包括立体对象,所述用户的每一只眼睛对应的训练场景的显示方式,使得所述用户双眼得到了弱视矫正的训练;
输出单元,用于按照所述用户的每一只眼睛对应的训练场景的显示方式,输出所述用户的每一只眼睛对应的训练场景,并按照所述选择操作指定的训练模式,在所述用户的每一只眼睛对应的训练场景中以特定形式呈现目标对象;其中,所述特定形式由所述选择操作执行的训练模式确定。
8.根据权利要求7所述的训练装置,其特征在于,还包括:
所述获取单元,还用于获取所述用户的瞳距;
查询单元,用于在预设的瞳距和两个训练场景中的对象的间隔距离的对应关系中,查询得到与所述用户的瞳距对应的两个训练场景中的对象的间隔距离;
第二设定单元,用根据所述用户的瞳距对应的两个训练场景中的对象的间隔距离,设定呈现给用户的两个训练场景中的对象的的间隔距离。
9.根据权利要求7所述的训练装置,其特征在于,所述第一设定单元,包括:
确定单元,用于根据所述用户的视力数据,确定所述用户的两只眼睛中视力更好的眼睛为目标眼睛;
设定子单元,用于维持非目标眼睛对应的训练场景的清晰度,依据所述用户的目标眼睛的视力数据,降低所述目标眼睛对应的训练场景的清晰度,或不展示所述目标眼睛对应的训练场景。
10.根据权利要求7所述的训练装置,其特征在于,所述输出单元在执行按照所述选择操作指定的训练模式,在所述用户的每一只眼睛对应的训练场景中以特定形式呈现目标对象时,用于:
若所述选择操作指定的训练模式为常规模式,则在所述用户的每一只眼睛对应的训练场景中以唤醒训练形式呈现唤醒对象第一时长后,在所述用户的每一只眼睛对应的训练场景中以增强训练形式呈现增强对象第二时长;其中,一个所述唤醒训练形式对应一个唤醒对象,一个所述唤醒训练形式和对应的唤醒对象组成唤醒训练方案,唤醒训练方案设置有多个;一个所述增强训练形式对应一个增强对象,一个所述增强训练形式和对应的增强对象组成增强训练方案,增强训练方案设置有多个;
若所述选择操作指定的训练模式为手动模式,则响应用户在展示界面上输入的训练方案筛选操作,确定用户选择的唤醒训练方案和/或增强训练方案;在所述用户的每一只眼睛对应的训练场景中以目标唤醒训练形式呈现目标唤醒对象第一时长,和/或,在所述用户的每一只眼睛对应的训练场景中以目标增强训练形式呈现目标增强对象第二时长;其中,所述目标唤醒训练形式和所述目标唤醒对象属于所述用户选择的唤醒训练方案;所述目标增强训练形式和所述目标增强对象属于所述用户选择的增强训练方案;
若所述选择操作指定的训练模式为智能模式,则在所述用户的每一只眼睛对应的训练场景中以智能唤醒训练形式呈现智能唤醒对象第一时长后,在所述用户的每一只眼睛对应的训练场景中以智能增强训练形式呈现智能增强对象第二时长;其中,所述智能唤醒训练形式和所述智能唤醒对象属于所述唤醒训练方案中被智能推荐给用户的方案,所述智能增强训练形式和所述智能增强对象属于所述增强训练方案中被智能推荐给用户的方案。
11.根据权利要求10所述的训练装置,其特征在于,所述输出单元在执行所述用户的每一只眼睛对应的训练场景中以增强训练形式呈现增强对象第二时长时,用于:
所述第二时长内,在所述用户的每一只眼睛对应的训练场景中呈现背景,在所述用户的非目标眼睛对应的训练场景中呈现用户操作对象;其中,所述目标眼睛为用户的两只眼睛中视力更好的眼睛;
响应用户通过输入手柄执行的双手操作,在所述用户的每一只眼睛对应的训练场景中呈现所述用户操作对象的操作过程,其中,所述用户操作对象的操作过程对应于所述用户的双手操作。
12.根据权利要求7所述的训练装置,其特征在于,还包括:
第二响应单元,用于若所述选择操作指定的训练模式为手动模式,则响应用户输入的显示方式的调整操作,确定所述调整操作指定的用户的每一只眼睛对应的训练场景的显示方式;
更新单元,用于将所述第一设定单元设定的所述用户的每一只眼睛对应的训练场景的显示方式,更新为所述调整操作指定的用户的每一只眼睛对应的训练场景的显示方式。
13.一种弱视的训练系统,其特征在于,包括:
VR眼镜本体、输入输出模块、无线通信模块、音视频模块、控制芯片、眼动追踪模块、交互模块和手势识别模块;
其中,所述眼动追踪模块用于获取用户的眼球移动数据;
所述手势识别模块用于识别用户双手姿势,得到用户的双手操作的数据;所述控制芯片通过与所述眼动追踪模块、手势识别模块、所述交互模块,执行如权利要求1至6中任意一项所述的弱视的训练方法;所述控制芯片输出的训练场景通过所述VR眼镜本体向用户展示;
所述交互模块用于收集所述控制芯片执行所述弱视的训练方法过程中的所需数据。
14.根据权利要求13所述的训练系统,其特征在于,还包括:设置于所述VR眼镜本体上的瞳距调整机构;其中,所述瞳距调整机构用于调整所述VR眼镜本体的两个镜筒之间的间距。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011520934.XA CN112641610B (zh) | 2020-12-21 | 2020-12-21 | 弱视的训练方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011520934.XA CN112641610B (zh) | 2020-12-21 | 2020-12-21 | 弱视的训练方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112641610A true CN112641610A (zh) | 2021-04-13 |
CN112641610B CN112641610B (zh) | 2023-04-07 |
Family
ID=75358689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011520934.XA Active CN112641610B (zh) | 2020-12-21 | 2020-12-21 | 弱视的训练方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112641610B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113674832A (zh) * | 2021-08-23 | 2021-11-19 | 福建港呗网络科技有限公司 | 一种视力矫正系统及方法 |
CN113741772A (zh) * | 2021-08-30 | 2021-12-03 | 北京乐驾科技有限公司 | 适用于ar眼镜的控制方法及系统 |
CN113786277A (zh) * | 2021-09-15 | 2021-12-14 | 南京云视郎生物科技有限公司 | 一种弱视及斜视恢复训练设备及系统 |
CN116807849A (zh) * | 2023-06-20 | 2023-09-29 | 广州视景医疗软件有限公司 | 一种基于眼动追踪的视觉训练方法及装置 |
WO2024071176A1 (ja) * | 2022-09-27 | 2024-04-04 | InnoJin株式会社 | 視力訓練システム、視力訓練方法及びプログラム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101322666A (zh) * | 2008-07-28 | 2008-12-17 | 北京航空航天大学 | 弱视训练辅助治疗系统和方法 |
CN107669455A (zh) * | 2017-11-17 | 2018-02-09 | 广州视景医疗软件有限公司 | 一种视觉训练方法、装置和设备 |
CN108478401A (zh) * | 2018-03-06 | 2018-09-04 | 大陆视觉(北京)眼镜销售有限公司 | 基于vr技术的弱视训练复健系统及方法 |
CN108852766A (zh) * | 2018-04-03 | 2018-11-23 | 山东省看看视力矫治科技有限公司 | 视力矫正方法 |
CN110236897A (zh) * | 2019-07-19 | 2019-09-17 | 彭伟 | 视觉训练仪及其使用方法 |
CN110856686A (zh) * | 2018-08-25 | 2020-03-03 | 广州联海信息科技有限公司 | 一种vr弱视患者训练系统 |
KR102120112B1 (ko) * | 2020-02-11 | 2020-06-09 | 가천대학교 산학협력단 | 인공지능에 기반한 외사시환자 재활훈련 가상현실 시스템, 방법 및 컴퓨터-판독가능매체 |
-
2020
- 2020-12-21 CN CN202011520934.XA patent/CN112641610B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101322666A (zh) * | 2008-07-28 | 2008-12-17 | 北京航空航天大学 | 弱视训练辅助治疗系统和方法 |
CN107669455A (zh) * | 2017-11-17 | 2018-02-09 | 广州视景医疗软件有限公司 | 一种视觉训练方法、装置和设备 |
CN108478401A (zh) * | 2018-03-06 | 2018-09-04 | 大陆视觉(北京)眼镜销售有限公司 | 基于vr技术的弱视训练复健系统及方法 |
CN108852766A (zh) * | 2018-04-03 | 2018-11-23 | 山东省看看视力矫治科技有限公司 | 视力矫正方法 |
CN110856686A (zh) * | 2018-08-25 | 2020-03-03 | 广州联海信息科技有限公司 | 一种vr弱视患者训练系统 |
CN110236897A (zh) * | 2019-07-19 | 2019-09-17 | 彭伟 | 视觉训练仪及其使用方法 |
KR102120112B1 (ko) * | 2020-02-11 | 2020-06-09 | 가천대학교 산학협력단 | 인공지능에 기반한 외사시환자 재활훈련 가상현실 시스템, 방법 및 컴퓨터-판독가능매체 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113674832A (zh) * | 2021-08-23 | 2021-11-19 | 福建港呗网络科技有限公司 | 一种视力矫正系统及方法 |
CN113741772A (zh) * | 2021-08-30 | 2021-12-03 | 北京乐驾科技有限公司 | 适用于ar眼镜的控制方法及系统 |
CN113786277A (zh) * | 2021-09-15 | 2021-12-14 | 南京云视郎生物科技有限公司 | 一种弱视及斜视恢复训练设备及系统 |
CN113786277B (zh) * | 2021-09-15 | 2024-07-19 | 南京云视郎生物科技有限公司 | 一种弱视及斜视恢复训练设备及系统 |
WO2024071176A1 (ja) * | 2022-09-27 | 2024-04-04 | InnoJin株式会社 | 視力訓練システム、視力訓練方法及びプログラム |
CN116807849A (zh) * | 2023-06-20 | 2023-09-29 | 广州视景医疗软件有限公司 | 一种基于眼动追踪的视觉训练方法及装置 |
CN116807849B (zh) * | 2023-06-20 | 2024-05-03 | 广州视景医疗软件有限公司 | 一种基于眼动追踪的视觉训练方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112641610B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112641610B (zh) | 弱视的训练方法、装置及系统 | |
CN104603673B (zh) | 头戴式系统以及使用头戴式系统计算和渲染数字图像流的方法 | |
CN105182662B (zh) | 具有增强现实效果的投影方法及系统 | |
EP1499229B1 (en) | Device and method for exercising eyes | |
KR101811890B1 (ko) | 입체 깊이 인지 훈련 또는 테스트 방법 | |
CN205015835U (zh) | 头戴式智能交互系统 | |
CN109690633A (zh) | 模拟系统、处理方法以及信息存储介质 | |
JPH0749744A (ja) | 頭部搭載型表示入力装置 | |
CN105068648A (zh) | 头戴式智能交互系统 | |
CN109901710A (zh) | 媒体文件的处理方法和装置、存储介质及终端 | |
US20190392636A1 (en) | Method and apparatus for displaying a bullet | |
CN108491072A (zh) | 一种虚拟现实交互方法及装置 | |
CN108614635A (zh) | 虚拟现实设备、虚拟现实设备的控制方法及装置 | |
CN103947198A (zh) | 基于场景内容的预定三维视频设置的动态调整 | |
CN107260506B (zh) | 基于眼动的3d视觉训练系统、智能终端及头戴设备 | |
DE102018105289A1 (de) | Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm | |
CN108064447A (zh) | 图像显示方法、智能眼镜及存储介质 | |
CN107307981B (zh) | 头戴显示设备的控制方法 | |
US9805612B2 (en) | Interest-attention feedback method for separating cognitive awareness into different left and right sensor displays | |
JP2020137128A (ja) | コンピュータ読取可能な非一過性の記憶媒体、Webサーバ、及び、瞳孔間のキャリブレーション方法 | |
JP2004357760A (ja) | 遊技機 | |
CN103785169A (zh) | 混合现实的竞技场 | |
KR20180034278A (ko) | 시지각 트레이닝을 제공하는 컴퓨팅 장치, 헤드마운트 디스플레이 장치 기반의 시지각 트레이닝 제공방법 및 프로그램 | |
CN107854288A (zh) | 基于数字智能虚拟三维立体影像技术的视觉失调监测及康复训练用眼镜 | |
CN109828663A (zh) | 瞄准区域的确定方法及装置、瞄准目标物的操作方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |