CN109521871B - 一种融合功能的训练方法、装置、设备及存储介质 - Google Patents

一种融合功能的训练方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN109521871B
CN109521871B CN201811231277.XA CN201811231277A CN109521871B CN 109521871 B CN109521871 B CN 109521871B CN 201811231277 A CN201811231277 A CN 201811231277A CN 109521871 B CN109521871 B CN 109521871B
Authority
CN
China
Prior art keywords
virtual reality
fusion
virtual
mode
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811231277.XA
Other languages
English (en)
Other versions
CN109521871A (zh
Inventor
刘虎
周谟圣
吴栩平
唐建文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Shijing Medical Software Co ltd
Original Assignee
Guangzhou Shijing Medical Software Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Shijing Medical Software Co ltd filed Critical Guangzhou Shijing Medical Software Co ltd
Priority to CN201811231277.XA priority Critical patent/CN109521871B/zh
Publication of CN109521871A publication Critical patent/CN109521871A/zh
Application granted granted Critical
Publication of CN109521871B publication Critical patent/CN109521871B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种融合功能的训练装置,其中方法包括:获取虚拟现实设备的融合功能的开始指令,并获取佩戴虚拟现实设备的待训练用户的双眼视融合功能信息;根据双眼视融合功能模式信息和虚拟现实设备的工作模式的预置对应关系,确定虚拟现实设备的待工作模式,根据视力度数信息确定处于待工作模式的虚拟现实设备的两个虚拟相机之间的融合角度,并控制两个虚拟相机按照预置方向转动,使得两个虚拟相机成融合角度的,采集虚拟现实设备呈现的图像信息,两个虚拟相机相隔预置距离;分别发送两个虚拟相机各自采集的图像信息,至虚拟现实设备中对应的显示装置,使得待训练用户通过两个显示装置看到图像信息。

Description

一种融合功能的训练方法、装置、设备及存储介质
技术领域
本申请属于虚拟现实技术领域,尤其涉及一种融合功能的训练装置。
背景技术
双眼视(binocular vision),指双眼协调、准确、均衡地同时工作,使外界物体的影像分别落在双眼视网膜对应点上,神经兴奋沿知觉系统传入大脑,在大脑高级中枢把来自双眼的视觉信号进行分析、整合、加工,综合成一个具有三维空间深度感完整印象的过程。
融合功能(fusion function)属II级双眼视功能,融合功能中的感觉性融合指在双眼具有正常同时知觉的基础上,通过大脑的分析处理,能将同时来自双眼视网膜对应点上有轻微差异的两个影像综合为一个完整的物体影像的功能。外界物体的影像在大脑中形成一个三维空间图像,就说明了双眼是正常同时知觉,反言之,如果双眼不是同时知觉,通过大脑的分析处理的图像不能经融合功能融合物体影像,或者融合后无法形成单一像,此时大脑会抑制一只眼睛的视觉信息输入。
现有技术中针对融合功能的训练方法主要有:同视机和多媒体视觉功能训练软件,但是上述两种方法在进行融合功能训练时,只能呈现出简单的二维静态图像,趣味性差。此外,同视机机器庞大,操作不便,视觉训练软件经过红蓝眼镜呈现的图像颜色过滤不干净,容易出现重影,影响训练准确性,而且红蓝眼镜在在长时间使用后会出现磨损以及老花,同样也会影响训练准确性。
发明内容
本申请提供了一种融合功能的训练装置,用于融合功能的训练,解决了现有融合功能的训练方法趣味性差、操作不便、训练准确性低的技术问题。
有鉴于此,本申请第一方面提供了一种融合功能的训练方法,包括:
获取虚拟现实设备的融合功能的开始指令,并获取佩戴所述虚拟现实设备的待训练用户的双眼视融合功能信息,所述双眼视融合功能信息包括:双眼视融合功能模式信息和视力度数信息;
根据所述双眼视融合功能模式信息和所述虚拟现实设备的工作模式的预置对应关系,确定所述虚拟现实设备的待工作模式,根据所述视力度数信息,确定处于所述待工作模式的所述虚拟现实设备的两个虚拟相机之间的融合角度,并控制所述两个虚拟相机按照预置方向转动,使得所述两个虚拟相机成所述融合角度的,采集所述虚拟现实设备呈现的图像信息,所述两个虚拟相机相隔预置距离;
分别发送两个所述虚拟相机各自采集的所述图像信息,至所述虚拟现实设备中对应的显示装置,使得所述待训练用户通过两个所述显示装置看到所述图像信息。
优选地,所述双眼视融合功能模式信息包括内斜模式,所述视力度数信息具体包括内斜度数;
所述根据所述双眼视融合功能模式信息和所述虚拟现实设备的工作模式的预置对应关系,确定所述虚拟现实设备的待工作模式,根据所述视力度数信息,确定处于所述待工作模式的所述虚拟现实设备的两个虚拟相机之间的融合角度,并控制所述两个虚拟相机按照预置方向转动,使得所述两个虚拟相机成所述融合角度的,采集所述虚拟现实设备呈现的图像信息具体包括:
根据所述内斜模式和所述虚拟现实设备的工作模式的预置对应关系,确定所述虚拟现实设备的待工作模式为分开模式,根据所述内斜度数确定处于分开模式中的所述虚拟现实设备的两个虚拟相机之间的第一融合角度,并控制所述两个虚拟相机按照外旋转动,使得所述两个虚拟相机成所述融合角度的,采集所述虚拟现实设备呈现的图像信息具体包括。
优选地,所述根据所述内斜度数确定处于分开模式中的所述虚拟现实设备的两个虚拟相机之间的第一融合角度,并控制所述两个虚拟相机按照外旋转动,使得所述两个虚拟相机成所述第一融合角度的,采集所述虚拟现实设备呈现的图像信息具体包括:
根据所述内斜度数确定处于分开模式中的所述虚拟现实设备的两个虚拟相机之间的第一融合角度,并分别控制所述两个虚拟相机按照外旋转动所述第一融合角度的一半,使得所述两个虚拟相机成所述第一融合角度的,采集所述虚拟现实设备呈现的图像信息。
优选地,所述双眼视融合功能模式信息具体包括外斜模式,所述视力度数信息具体包括外斜度数;
所述根据所述双眼视融合功能模式信息和所述虚拟现实设备的工作模式的预置对应关系,确定所述虚拟现实设备的待工作模式,根据所述视力度数信息确定处于所述待工作模式的所述虚拟现实设备的两个虚拟相机之间的融合角度,并控制所述两个虚拟相机按照预置方向转动,使得所述两个虚拟相机成所述融合角度的,采集所述虚拟现实设备呈现的图像信息具体包括:
根据所述外斜模式和所述虚拟现实设备的工作模式的预置对应关系,确定所述虚拟现实设备的待工作模式为辐辏模式,根据所述外斜度数确定处于辐辏模式中的所述虚拟现实设备的两个虚拟相机之间的第二融合角度,并控制所述两个虚拟相机按照内旋转动,使得所述两个虚拟相机成所述第二融合角度的,采集所述虚拟现实设备呈现的图像信息。
优选地,所述根据所述外斜度数确定处于辐辏模式中的所述虚拟现实设备的两个虚拟相机之间的第二融合角度,并控制所述两个虚拟相机按照内旋转动,使得所述两个虚拟相机成所述第二融合角度的,采集所述虚拟现实设备呈现的图像信息具体包括:
根据所述外斜度数确定处于辐辏模式中的所述虚拟现实设备的两个虚拟相机之间的第二融合角度,并分别控制所述两个虚拟相机按照外旋转动所述第二融合角度的一半,使得所述两个虚拟相机成所述第二融合角度的,采集所述虚拟现实设备呈现的图像信息。
优选地,所述方法还包括:
当获取到所述待训练用户退出融合功能训练的退出指令时,转动所述两个虚拟相机至平行。
优选地,所述获取佩戴所述虚拟现实设备的待训练用户的双眼视融合功能信息具体包括:
获取佩戴所述虚拟现实设备的待训练用户通过与所述虚拟设备连接的软件录入的双眼视融合功能信息。
本申请第二方面提供一种融合功能的训练装置,包括:
获取单元,获取虚拟现实设备的融合功能的开始指令,并获取佩戴所述虚拟现实设备的待训练用户的双眼视融合功能信息,所述双眼视融合功能信息包括:双眼视融合功能模式信息和视力度数信息;
转动单元,用于根据所述双眼视融合功能模式信息和所述虚拟现实设备的工作模式的预置对应关系,确定所述虚拟现实设备的待工作模式,根据所述视力度数信息确定处于所述待工作模式的所述虚拟现实设备的两个虚拟相机之间的融合角度,并控制所述两个虚拟相机按照预置方向转动,使得所述两个虚拟相机成所述融合角度的,采集所述虚拟现实设备呈现的图像信息,所述两个虚拟相机相隔预置距离;
发送单元,用于分别发送两个所述虚拟相机各自采集的图像信息,至所述虚拟现实设备中对应的显示装置,使得所述待训练用户通过两个所述显示装置看到所述图像信息。
本申请第三方面提供一种融合功能的训练设备,所述设备包括处理器以及存储器;
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行上述第一方面所述的方法。
本申请第四方面提供一种存储介质,所述存储介质用于存储程序代码,所述程序代码用于执行上述第一方面所述的方法。
从以上技术方案可以看出,本申请实施例具有以下优点:
本申请提供了一种虚拟现实设备的控制,包括:获取虚拟现实设备的融合功能的开始指令,并获取佩戴虚拟现实设备的待训练用户的双眼视融合功能信息,双眼视融合功能信息包括:双眼视融合功能模式信息和视力度数信息;根据双眼视融合功能模式信息和虚拟现实设备的工作模式的预置对应关系,确定虚拟现实设备的待工作模式,根据视力度数信息确定处于待工作模式的虚拟现实设备的两个虚拟相机之间的融合角度,并控制两个虚拟相机按照预置方向转动,使得两个虚拟相机成融合角度的,采集虚拟现实设备呈现的图像信息,两个虚拟相机相隔预置距离;分别发送两个虚拟相机各自采集的图像信息,至虚拟现实设备中对应的显示装置,使得待训练用户通过两个显示装置看到图像信息。
本申请中,在获取到融合功能的开始指令后,获取待训练用户的双眼视融合功能信息,根据用户的双眼视融合功能信息调整虚拟现实设备的工作模式,及处于该工作模式的虚拟现实设备的两个虚拟相机的融合角度,调整后的两个虚拟相机各自图像信息与用户的双眼视融合功能信息匹配,然后将成像信息分别在显示装置上进行显示,用户通过显示装置看到图像信息,使得用户通过双眼具有同时知觉,然后就可得到物体的影像,整个过程中,虚拟相机是基于虚拟现实设备的,具有逼真的3D显示环境与良好的交互特性,且虚拟现实设备不同于传统红蓝眼镜等不易老化,解决了现有融合功能的训练方法趣味性差、操作不便、训练准确性低的技术问题。
附图说明
图1为本申请实施例中一种融合功能的训练方法的第一实施例的流程示意图;
图2为本申请实施例中一种融合功能的训练方法的第二实施例的流程示意图;
图3为本申请实施例中一种融合功能的训练方法的第三实施例的应用例的结构示意图;
图4为本申请实施例中一种融合功能的训练方法的第四实施例的流程示意图;
图5为本申请实施例中第二实施例的成像示意图;
图6为本申请实施例中第三实施例的成像示意图;
图7为本申请实施例中一种融合功能的训练装置的实施例的结构示意图。
具体实施方式
本申请实施例提供了一种融合功能的训练方法、装置、设备及存储介质,用于融合功能的训练,解决了现有融合功能的训练方法趣味性差、操作不便、训练准确性低的技术问题。
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参阅图1,本申请实施例中一种融合功能的训练方法的第一实施例的流程示意图,包括:
步骤101、获取虚拟现实设备的融合功能的开始指令,并获取佩戴虚拟现实设备的待训练用户的双眼视融合功能信息。
需要说明的是,首先需要获取虚拟现实设备的融合功能的开始指令,并获取佩戴虚拟现实设备的待训练用户的双眼视融合功能信息,双眼视融合功能信息包括:双眼视融合功能模式信息和视力度数信息。
同时,需要说明的是,虚拟现实设备为虚拟现实头盔、虚拟现实眼镜等。
步骤102、根据双眼视融合功能模式信息和虚拟现实设备的工作模式的预置对应关系,确定虚拟现实设备的待工作模式,根据视力度数信息确定处于待工作模式的虚拟现实设备的两个虚拟相机之间的融合角度,并控制两个虚拟相机按照预置方向转动,使得两个虚拟相机成融合角度的,采集虚拟现实设备呈现的图像信息。
需要说明的是,获取到待训练用户的双眼视融合功能信息后,根据实例信息的双眼视融合功能模式信息和虚拟现实设备的工作模式的预置对应关系,确定虚拟现实设备的待工作模式,根据双眼视融合功能信息的视力度数信息确定该双眼视融合功能信息对应的处于待工作模式的虚拟现实设备的两个虚拟相机之间的融合角度,并控制两个虚拟相机按照预置方向转动,使得两个虚拟相机成融合角度的,采集虚拟现实设备呈现的图像信息。可以理解的是,两个虚拟相机分别模拟待训练人员的左右眼,模拟人眼看虚拟现实设备呈现的图像信息,故两个虚拟相机相隔预置距离,该预置距离即为人眼的瞳距,具体可以根据需要设置,本实施例中,设计该预置距离为63mm。
步骤103、分别发送两个虚拟相机各自采集的图像信息,至虚拟现实设备中对应的显示装置,使得待训练用户通过两个显示装置看到图像信息。
需要说明的是,一个虚拟相机对应一个显示装置,故可分别将虚拟相机采集的图像信息传输至其对应的显示装置进行显示,待训练人员通过观察显示装置即可看到图像信息。
进一步地,为了经融合功能后人员看到的图像信息更准确,可以设置融合角度范围为-45~+45。
本实施例中,在获取到融合功能的开始指令后,获取待训练用户的双眼视融合功能信息,根据用户的双眼视融合功能信息调整虚拟现实设备的工作模式,及处于该工作模式的虚拟现实设备的两个虚拟相机的融合角度,调整后的两个虚拟相机各自图像信息与用户的双眼视融合功能信息匹配,然后将成像信息分别在显示装置上进行显示,用户通过显示装置看到图像信息,使得用户通过双眼具有同时知觉,然后就可得到物体的影像,整个过程中,虚拟相机是基于虚拟现实设备的,具有逼真的3D显示环境与良好的交互特性,且虚拟现实设备不同于传统红蓝眼镜等不易老化,解决了现有融合功能的训练方法趣味性差、操作不便、训练准确性低的技术问题。
以上为本申请实施例提供的一种融合功能的训练方法的第一实施例,以下为本申请实施例提供的一种融合功能的训练方法的第二实施例。
请参阅图2,本申请实施例中一种融合功能的训练方法的第二实施例的流程示意图,包括:
步骤201、获取虚拟现实设备的融合功能的开始指令,并获取佩戴虚拟现实设备的待训练用户的内斜模式和内斜度数。
步骤202、根据内斜模式和虚拟现实设备的工作模式的预置对应关系,确定虚拟现实设备的待工作模式为分开模式,根据内斜度数确定处于分开模式中的虚拟现实设备的两个虚拟相机之间的第一融合角度,并控制两个虚拟相机按照外旋转动,使得两个虚拟相机成第一融合角度的,采集虚拟现实设备呈现的图像信息。
需要说明的是,为了描述的清楚,本实施例中,命名两个虚拟相机为left_cam和right_cam,当待训练用户的双眼视融合功能信息为内斜模式和内斜度数时,此时虚拟现实设备的待工作模式为分开模式,故将此时虚拟现实设备之间的虚拟相机通过外旋的方式进行旋转,可以理解的是,本实施例中,所描述的外旋即两个虚拟相机的转动方向相对反向且向外。
同时,需要说明的是,根据内斜度数确定处于分开模式中的虚拟现实设备的两个虚拟相机之间的第一融合角度,并控制两个虚拟相机按照外旋转动,使得两个虚拟相机成第一融合角度的,采集虚拟现实设备呈现的图像信息具体包括:根据内斜度数确定处于分开模式中的虚拟现实设备的两个虚拟相机之间的第一融合角度(设为a),并分别控制两个虚拟相机按照外旋转动第一融合角度的一半,即left_cam旋转-a/2,right_cam旋转+a/2,使得两个虚拟相机成第一融合角度的,采集虚拟现实设备呈现的图像信息。
步骤203、分别发送两个虚拟相机各自采集的图像信息,至虚拟现实设备中对应的显示装置,使得待训练用户通过两个显示装置看到图像信息。
需要说明的是,如图5所示,通过外旋旋转后的成第一融合角度的两个虚拟相机呈现“内八”的形状,对此时虚拟现实设备的同一物体成像后,left_cam采集的该物体的图像信息相对在左边,right_cam采集的该物体的图像信息相对在右边。
本实施例中,在获取到融合功能的开始指令后,获取待训练用户的双眼视融合功能信息,根据用户的双眼视融合功能信息调整虚拟现实设备的工作模式,及处于该工作模式的虚拟现实设备的两个虚拟相机的融合角度,调整后的两个虚拟相机各自图像信息与用户的双眼视融合功能信息匹配,然后将成像信息分别在显示装置上进行显示,用户通过显示装置看到图像信息,使得用户通过双眼具有同时知觉,然后就可得到物体的影像,整个过程中,虚拟相机是基于虚拟现实设备的,具有逼真的3D显示环境与良好的交互特性,且虚拟现实设备不同于传统红蓝眼镜等不易老化,解决了现有融合功能的训练方法趣味性差、操作不便、训练准确性低的技术问题。
以上为本申请实施例提供的一种融合功能的训练方法的第二实施例,以下为本申请实施例提供的一种融合功能的训练方法的第三实施例,请参阅图3。
步骤301、获取虚拟现实设备的融合功能的开始指令,并获取佩戴虚拟现实设备的待训练用户的外斜模式和外斜度数。
步骤302、根据外斜模式和虚拟现实设备的工作模式的预置对应关系,确定虚拟现实设备的待工作模式为辐辏模式,根据外斜度数确定处于辐辏模式中的虚拟现实设备的两个虚拟相机之间的第二融合角度,并控制两个虚拟相机按照内旋转动,使得两个虚拟相机成第二融合角度的,采集虚拟现实设备呈现的图像信息。
需要说明的是,为了描述的清楚,本实施例中,命名两个虚拟相机为left_cam和right_cam,当待训练用户的双眼视融合功能信息为外斜模式和外斜度数时,此时虚拟现实设备的待工作模式为辐辏模式,故将此时虚拟现实设备之间的虚拟相机通过内旋的方式进行旋转,可以理解的是,本实施例中,所描述的内旋即两个虚拟相机的转动方向相对反向且向内。
同时,需要说明的是,根据外斜度数确定处于辐辏模式中的虚拟现实设备的两个虚拟相机之间的第二融合角度,并控制两个虚拟相机按照内旋转动,使得两个虚拟相机成第二融合角度的,采集虚拟现实设备呈现的图像信息具体包括:根据外斜度数确定处于辐辏模式中的虚拟现实设备的两个虚拟相机之间的第二融合角度(设为b),并分别控制两个虚拟相机按照外旋转动第二融合角度的一半,即left_cam旋转+b/2,right_cam旋转-b/2,使得两个虚拟相机成第二融合角度的,采集虚拟现实设备呈现的图像信息。
步骤303、分别发送两个虚拟相机各自采集的图像信息,至虚拟现实设备中对应的显示装置,使得待训练用户通过两个显示装置看到图像信息。
需要说明的是,如图6所示,命名两个虚拟相机为left_cam和right_cam,通过内旋旋转后的成第一融合角度的两个虚拟相机呈现“外八”的形状,对此时虚拟现实设备的同一物体成像后,left_cam采集的该物体的图像信息相对在左边,right_cam采集的该物体的图像信息相对在右边。
本实施例中,在获取到融合功能的开始指令后,获取待训练用户的双眼视融合功能信息,根据用户的双眼视融合功能信息调整虚拟现实设备的工作模式,及处于该工作模式的虚拟现实设备的两个虚拟相机的融合角度,调整后的两个虚拟相机各自图像信息与用户的双眼视融合功能信息匹配,然后将成像信息分别在显示装置上进行显示,用户通过显示装置看到图像信息,使得用户通过双眼具有同时知觉,然后就可得到物体的影像,整个过程中,虚拟相机是基于虚拟现实设备的,具有逼真的3D显示环境与良好的交互特性,且虚拟现实设备不同于传统红蓝眼镜等不易老化,解决了现有融合功能的训练方法趣味性差、操作不便、训练准确性低的技术问题。
以上为本申请实施例提供的一种融合功能的训练方法的第二实施例,以下为本申请实施例提供的一种融合功能的训练方法的第三实施例,请参阅图3。
步骤401、获取佩戴虚拟现实设备的待训练用户通过与虚拟设备连接的软件录入的外斜模式和外斜度数。
需要说明的是,录入的方式可以为用户提前在该软件中录入,然后用户登录自己的个人账户后,匹配到用户对应的双眼视融合功能信息,即外斜模式和外斜度数。还可以为用户输入的。此处不做具体限定。
步骤402、根据外斜模式和虚拟现实设备的工作模式的预置对应关系,确定虚拟现实设备的待工作模式为辐辏模式,根据外斜度数确定处于辐辏模式中的虚拟现实设备的两个虚拟相机之间的第二融合角度,并控制两个虚拟相机按照内旋转动,使得两个虚拟相机成第二融合角度的,采集虚拟现实设备呈现的图像信息。
需要说明的是,步骤402与本申请第三实施例中步骤302的内容相同,具体描述可以参见第三实施例步骤302的内容,在此不再赘述。
步骤403、分别发送两个虚拟相机各自采集的图像信息,至虚拟现实设备中对应的显示装置,使得待训练用户通过两个显示装置看到图像信息。
需要说明的是,步骤403与本申请第三实施例中步骤303的内容相同,具体描述可以参见第三实施例步骤303的内容,在此不再赘述。
步骤404、当获取到待训练用户退出融合功能训练的退出指令时,转动两个虚拟相机至平行。
需要说明的是,当获取到待训练用户退出融合功能训练的退出指令时,及融合功能训练结束,此时转动两个虚拟相机至平行。
本实施例中,在获取到融合功能的开始指令后,获取待训练用户的双眼视融合功能信息,根据用户的双眼视融合功能信息调整虚拟现实设备的工作模式,及处于该工作模式的虚拟现实设备的两个虚拟相机的融合角度,调整后的两个虚拟相机各自图像信息与用户的双眼视融合功能信息匹配,然后将成像信息分别在显示装置上进行显示,用户通过显示装置看到图像信息,使得用户通过双眼具有同时知觉,然后就可得到物体的影像,整个过程中,虚拟相机是基于虚拟现实设备的,具有逼真的3D显示环境与良好的交互特性,且虚拟现实设备不同于传统红蓝眼镜等不易老化,解决了现有融合功能的训练方法趣味性差、操作不便、训练准确性低的技术问题。
以上为本申请实施例提供的一种融合功能的训练方法的第四实施例,以下为本申请实施例提供的一种融合功能的训练装置的实施例,请参阅图7。
本申请实施例中提供的一种融合功能的训练装置,包括:
获取单元701,获取虚拟现实设备的融合功能的开始指令,并获取佩戴虚拟现实设备的待训练用户的双眼视融合功能信息,双眼视融合功能信息包括:双眼视融合功能模式信息和视力度数信息。
转动单元702,用于根据双眼视融合功能模式信息和虚拟现实设备的工作模式的预置对应关系,确定虚拟现实设备的待工作模式,根据视力度数信息确定处于待工作模式的虚拟现实设备的两个虚拟相机之间的融合角度,并控制两个虚拟相机按照预置方向转动,使得两个虚拟相机成融合角度的,采集虚拟现实设备呈现的图像信息,两个虚拟相机相隔预置距离。
发送单元703,用于分别发送两个虚拟相机各自采集的图像信息,至虚拟现实设备中对应的显示装置,使得待训练用户通过两个显示装置看到图像信息。
进一步地,双眼视融合功能模式信息包括内斜模式,视力度数信息具体包括内斜度数;
则转动单元702具体用于,根据内斜模式和虚拟现实设备的工作模式的预置对应关系,确定虚拟现实设备的待工作模式为分开模式,根据内斜度数确定处于分开模式中的虚拟现实设备的两个虚拟相机之间的第一融合角度,并控制两个虚拟相机按照外旋转动,使得两个虚拟相机成第一融合角度的,采集虚拟现实设备呈现的图像信息。
根据内斜度数确定处于分开模式中的虚拟现实设备的两个虚拟相机之间的第一融合角度,并控制两个虚拟相机按照外旋转动,使得两个虚拟相机成第一融合角度的,采集虚拟现实设备呈现的图像信息具体包括:根据内斜度数确定处于分开模式中的虚拟现实设备的两个虚拟相机之间的第一融合角度,并分别控制两个虚拟相机按照外旋转动第一融合角度的一半,使得两个虚拟相机成第一融合角度的,采集虚拟现实设备呈现的图像信息。
进一步地,双眼视融合功能模式信息具体包括外斜模式,视力度数信息具体包括外斜度数;
则转动单元702具体用于,根据外斜模式和虚拟现实设备的工作模式的预置对应关系,确定虚拟现实设备的待工作模式为辐辏模式,根据外斜度数确定处于辐辏模式中的虚拟现实设备的两个虚拟相机之间的第二融合角度,并控制两个虚拟相机按照内旋转动,使得两个虚拟相机成第二融合角度的,采集虚拟现实设备呈现的图像信息。
进一步地,根据外斜度数确定处于辐辏模式中的虚拟现实设备的两个虚拟相机之间的第二融合角度,并控制两个虚拟相机按照内旋转动,使得两个虚拟相机成第二融合角度的,采集虚拟现实设备呈现的图像信息具体包括:根据外斜度数确定处于辐辏模式中的虚拟现实设备的两个虚拟相机之间的第二融合角度,并分别控制两个虚拟相机按照外旋转动第二融合角度的一半,使得两个虚拟相机成第二融合角度的,采集虚拟现实设备呈现的图像信息。
进一步地,转动单元702还用于,当获取到待训练用户退出融合功能训练的退出指令时,转动两个虚拟相机至平行。
进一步地,获取佩戴虚拟现实设备的待训练用户的双眼视融合功能信息具体包括:获取佩戴虚拟现实设备的待训练用户通过与虚拟设备连接的软件录入的双眼视融合功能信息。
本实施例中,在获取到融合功能的开始指令后,获取待训练用户的双眼视融合功能信息,根据用户的双眼视融合功能信息调整虚拟现实设备的工作模式,及处于该工作模式的虚拟现实设备的两个虚拟相机的融合角度,调整后的两个虚拟相机各自图像信息与用户的双眼视融合功能信息匹配,然后将成像信息分别在显示装置上进行显示,用户通过显示装置看到图像信息,使得用户通过双眼具有同时知觉,然后就可得到物体的影像,整个过程中,虚拟相机是基于虚拟现实设备的,具有逼真的3D显示环境与良好的交互特性,且虚拟现实设备不同于传统红蓝眼镜等不易老化,解决了现有融合功能的训练方法趣味性差、操作不便、训练准确性低的技术问题。
本申请实施例还提供了一种融合功能的训练设备,设备包括处理器以及存储器;存储器用于存储程序代码,并将程序代码传输给处理器;处理器用于根据程序代码中的指令上述实施例的融合功能的训练方法,从而执行的各种功能应用以及数据处理。
本申请实施例还提供了一种存储介质,用于存储程序代码,该程序代码用于执行上述实施例的融合功能的训练方法中的任意一种实施方式。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (1)

1.一种融合功能的训练装置,其特征在于,包括:
获取单元,获取虚拟现实设备的融合功能的开始指令,并获取佩戴所述虚拟现实设备的待训练用户的双眼视融合功能信息,所述双眼视融合功能信息包括:双眼视融合功能模式信息和视力度数信息;其中,所述双眼视融合功能模式信息包括内斜模式,所述视力度数信息具体包括内斜度数;
转动单元,用于根据所述双眼视融合功能模式信息和所述虚拟现实设备的工作模式的预置对应关系,确定所述虚拟现实设备的待工作模式,根据所述视力度数信息确定处于所述待工作模式的所述虚拟现实设备的两个虚拟相机之间的融合角度,并控制所述两个虚拟相机按照预置方向转动,使得所述两个虚拟相机成所述融合角度的,采集所述虚拟现实设备呈现的图像信息,所述两个虚拟相机相隔预置距离;具体包括:
根据所述内斜模式和所述虚拟现实设备的工作模式的预置对应关系,确定所述虚拟现实设备的待工作模式为分开模式,根据所述内斜度数确定处于分开模式中的所述虚拟现实设备的两个虚拟相机之间的第一融合角度,并分别控制所述两个虚拟相机按照外旋转动所述第一融合角度的一半,使得所述两个虚拟相机成所述第一融合角度,采集所述虚拟现实设备呈现的图像信息;
发送单元,用于分别发送两个所述虚拟相机各自采集的图像信息,至所述虚拟现实设备中对应的显示装置,使得所述待训练用户通过两个所述显示装置看到所述图像信息。
CN201811231277.XA 2018-10-22 2018-10-22 一种融合功能的训练方法、装置、设备及存储介质 Active CN109521871B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811231277.XA CN109521871B (zh) 2018-10-22 2018-10-22 一种融合功能的训练方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811231277.XA CN109521871B (zh) 2018-10-22 2018-10-22 一种融合功能的训练方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN109521871A CN109521871A (zh) 2019-03-26
CN109521871B true CN109521871B (zh) 2022-02-01

Family

ID=65773028

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811231277.XA Active CN109521871B (zh) 2018-10-22 2018-10-22 一种融合功能的训练方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN109521871B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110413121B (zh) * 2019-07-29 2022-06-14 Oppo广东移动通信有限公司 一种虚拟现实设备的控制方法、虚拟现实设备和存储介质
CN110652430A (zh) * 2019-10-23 2020-01-07 重庆康萃医药科技有限公司 基于分视控制的斜视与视功能训练阅读器及其调设方法
CN111202663B (zh) * 2019-12-31 2022-12-27 浙江工业大学 一种基于vr技术的视觉训练学习系统
CN111596763B (zh) * 2020-05-15 2023-12-26 京东方科技集团股份有限公司 虚拟现实设备的控制方法及装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101301237A (zh) * 2008-07-08 2008-11-12 北京航空航天大学 视觉融合功能训练器及其训练方法
CN101543451A (zh) * 2009-04-24 2009-09-30 布瑞佛斯有限公司 眼部肌肉锻炼装置和眼部肌肉锻炼方法
CN201929941U (zh) * 2010-11-23 2011-08-17 杭州华泰医疗科技有限公司 半球面刺激的视功能诊疗仪
CN202776260U (zh) * 2012-08-07 2013-03-13 北京嘉铖视欣数字医疗技术有限公司 基于双眼融合知觉矫治和训练系统
CN104382729A (zh) * 2014-11-12 2015-03-04 肇恒伟 视力矫正训练系统及其方法
CN107307842A (zh) * 2017-06-20 2017-11-03 武汉市康本龙医疗器械有限公司 Vr眼部测试治疗装置及其视力自测方法
CN107645921A (zh) * 2015-03-16 2018-01-30 奇跃公司 用于诊断和治疗健康疾病的方法和系统
KR101880386B1 (ko) * 2017-01-12 2018-07-19 고려대학교 산학협력단 Vr 장치를 이용한 시각장애 치료 시스템
CN108478401A (zh) * 2018-03-06 2018-09-04 大陆视觉(北京)眼镜销售有限公司 基于vr技术的弱视训练复健系统及方法
CN108542726A (zh) * 2018-05-25 2018-09-18 刘博韬 一种视觉训练器及配备该视觉训练器的穿戴装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101301237A (zh) * 2008-07-08 2008-11-12 北京航空航天大学 视觉融合功能训练器及其训练方法
CN101543451A (zh) * 2009-04-24 2009-09-30 布瑞佛斯有限公司 眼部肌肉锻炼装置和眼部肌肉锻炼方法
CN201929941U (zh) * 2010-11-23 2011-08-17 杭州华泰医疗科技有限公司 半球面刺激的视功能诊疗仪
CN202776260U (zh) * 2012-08-07 2013-03-13 北京嘉铖视欣数字医疗技术有限公司 基于双眼融合知觉矫治和训练系统
CN104382729A (zh) * 2014-11-12 2015-03-04 肇恒伟 视力矫正训练系统及其方法
CN107645921A (zh) * 2015-03-16 2018-01-30 奇跃公司 用于诊断和治疗健康疾病的方法和系统
KR101880386B1 (ko) * 2017-01-12 2018-07-19 고려대학교 산학협력단 Vr 장치를 이용한 시각장애 치료 시스템
CN107307842A (zh) * 2017-06-20 2017-11-03 武汉市康本龙医疗器械有限公司 Vr眼部测试治疗装置及其视力自测方法
CN108478401A (zh) * 2018-03-06 2018-09-04 大陆视觉(北京)眼镜销售有限公司 基于vr技术的弱视训练复健系统及方法
CN108542726A (zh) * 2018-05-25 2018-09-18 刘博韬 一种视觉训练器及配备该视觉训练器的穿戴装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Comparing a novel virtual reality game of snakes with a conventional clinical therapy.《2017 IEEE Life Sciences Conference (LSC)》.2018, *
Mei Ying Boon等.Vision training *
基于虚拟现实的双眼视功能训练系统设计;刘斯烨;《中国医学教育技术》;20180831;第455-459页 *
虚拟现实技术在弱视治疗中的应用;朱鹏志等;《科技与创新》;20170815;第114-115页 *

Also Published As

Publication number Publication date
CN109521871A (zh) 2019-03-26

Similar Documents

Publication Publication Date Title
CN109521871B (zh) 一种融合功能的训练方法、装置、设备及存储介质
CN106484116B (zh) 媒体文件的处理方法和装置
JP5515301B2 (ja) 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
CN107744451B (zh) 一种双眼视功能的训练装置
CN106681512B (zh) 一种虚拟现实设备及对应显示方法
EP3108292B1 (en) Stereoscopic display responsive to focal-point shift
JP4794678B1 (ja) 映像処理装置、映像処理方法、および映像通信システム
Hoffman et al. Focus information is used to interpret binocular images
JP2012010309A (ja) 立体視映像表示装置、および立体視映像表示装置の動作方法
US11570426B2 (en) Computer-readable non-transitory storage medium, web server, and calibration method for interpupillary distance
CN108064447A (zh) 图像显示方法、智能眼镜及存储介质
Fang et al. An eye tracking database for stereoscopic video
CN112015264B (zh) 虚拟现实显示方法、虚拟现实显示装置及虚拟现实设备
CN106708249B (zh) 交互方法、交互装置及用户设备
CN113101159A (zh) 一种基于vr的立体视觉训练、评估方法和装置
US10255676B2 (en) Methods and systems for simulating the effects of vision defects
Hanhart et al. EYEC3D: 3D video eye tracking dataset
CN104767972B (zh) 一种视觉缺陷帮助系统及方法
US11517195B2 (en) Panum's area measurement method, apparatus, and wearable display device
Wu et al. Depth-disparity calibration for augmented reality on binocular optical see-through displays
JP2018191079A (ja) 多焦点視覚出力方法、多焦点視覚出力装置
CN108234986B (zh) 用于治疗近视或弱视的3d图像管理方法及管理系统和装置
CN109031667A (zh) 一种虚拟现实眼镜图像显示区域横向边界定位方法
CN116850012B (zh) 一种基于双眼分视的视觉训练方法及系统
CN116129047A (zh) 图像处理方法、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A training method, device, device, and storage medium for integrating functions

Effective date of registration: 20230901

Granted publication date: 20220201

Pledgee: Bank of China Limited by Share Ltd. Guangzhou Tianhe branch

Pledgor: GUANGZHOU SHIJING MEDICAL SOFTWARE Co.,Ltd.

Registration number: Y2023980054971

PE01 Entry into force of the registration of the contract for pledge of patent right