CN110215373A - 一种基于沉浸视觉的训练系统和方法 - Google Patents

一种基于沉浸视觉的训练系统和方法 Download PDF

Info

Publication number
CN110215373A
CN110215373A CN201910483948.XA CN201910483948A CN110215373A CN 110215373 A CN110215373 A CN 110215373A CN 201910483948 A CN201910483948 A CN 201910483948A CN 110215373 A CN110215373 A CN 110215373A
Authority
CN
China
Prior art keywords
immerses
immerse
vision glasses
interaction controller
vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910483948.XA
Other languages
English (en)
Inventor
崔磊
赵洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xushi Space Technology Co Ltd
Original Assignee
Beijing Xushi Space Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xushi Space Technology Co Ltd filed Critical Beijing Xushi Space Technology Co Ltd
Priority to CN201910483948.XA priority Critical patent/CN110215373A/zh
Publication of CN110215373A publication Critical patent/CN110215373A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H1/00Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/1604Head
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/165Wearable interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • A61H2201/5043Displays

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Computer Graphics (AREA)
  • Rehabilitation Therapy (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pain & Pain Management (AREA)
  • Veterinary Medicine (AREA)
  • Epidemiology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Rehabilitation Tools (AREA)

Abstract

本发明公开一种基于沉浸视觉的训练系统和方法,该方法应用于包括沉浸图像服务器、第一沉浸视觉眼镜、第一交互控制器、第二沉浸视觉眼镜、第二交互控制器和三维空间定位器的系统,该方法包括以下步骤:所述沉浸图像服务器将第一沉浸视觉图像和第二沉浸视觉图像分别发送至所述第一沉浸视觉眼镜和所述第二沉浸视觉眼镜;所述第一沉浸视觉眼镜和所述第二沉浸视觉眼镜分别显示所述第一沉浸视觉图像和所述第二沉浸视觉图像;所述三维空间定位器通过追踪所述第一沉浸视觉眼镜、所述第一交互控制器、所述第二沉浸视觉眼镜和所述第二交互控制器的运动状态,记录所述指导人员和所述受训人员的训练数据,并将所述训练数据发送至所述沉浸图像服务器。

Description

一种基于沉浸视觉的训练系统和方法
技术领域
本发明涉及计算机技术领域,特别涉及一种基于沉浸视觉的训练系统和方法。
背景技术
自闭症是一种儿童广泛性发育障碍性疾病,往往在3岁以前发病,主要表现为在语言、社会互动、沟通交流以及兴趣行为等多方面的缺陷。大约3/4的患儿合并有精神发育迟滞,半数左右的患儿在青春期可能合并癫痫发作。患儿在社会交往、沟通,尤其是行为方面存在严重的障碍。根据2016年《中国自闭症教育康复行业发展状况报告Ⅱ》蓝皮书公布的数字,我国目前的自闭症人数超过1000万,并以每年十几万的速度激增,由于我国对自闭症的认知较晚,相关政策法规才初步建立,干预体系不健全,干预水平整体低下,缺乏相关专业人员,从而导致了发病率上升,且患儿回归主流社会难度大。
目前,自闭症的常用康复方法有:药物治疗、感觉统合训练、高频音乐疗法、感应疗法、大脑激活教学法、生物疗法、中医及针灸疗法等。近几年随着计算机技术的发展,出现一种利用虚拟现实技术对自闭症患者进行辅助康复训练的方法,该方法的核心步骤是利用头戴式虚拟现实设备与传感器手套采集用户表情信息、体征信息、运动轨迹和训练反馈,再根据用户的各种信息提供不同的训练,根据用户的训练结果确定若干行为权重值,通过权重值评估用户的自闭症康复情况。
然而,上述方法至少存在以下缺陷:
1、由于自闭症患者与普通人在智力水平上的差别,多数自闭症患者智力发展在平均水平线以下,很难在计算机设定好的引导程序下顺利完成训练,因而存在人机交互中的自闭症患者的配合度问题。
2、上述方法通过传感器手套采集训练反馈信息,传感器手套在抓取虚拟物体后并不能对手指的行动进行限制,不能实现真实的抓握反馈,由于自闭症患者本身就在感觉统合上存在问题,因此,通过传感器手套并不能进行有效的训练。
发明内容
本发明提供了一种基于沉浸视觉的训练系统和方法,以解决现有技术存在的受训人员的配合度问题以及训练效果不足的问题。
本发明提供了一种基于沉浸视觉的训练方法,应用于包括沉浸图像服务器、第一沉浸视觉眼镜、第一交互控制器、第二沉浸视觉眼镜、第二交互控制器和三维空间定位器的系统,其中,所述第一沉浸视觉眼镜被受训人员佩戴,所述第一交互控制器被所述受训人员握持,所述第二沉浸视觉眼镜被指导人员佩戴,所述第二交互控制器被所述指导人员握持,所述方法包括以下步骤:
所述沉浸图像服务器将第一沉浸视觉图像和第二沉浸视觉图像分别发送至所述第一沉浸视觉眼镜和所述第二沉浸视觉眼镜;
所述第一沉浸视觉眼镜和所述第二沉浸视觉眼镜分别显示所述第一沉浸视觉图像和所述第二沉浸视觉图像;
所述三维空间定位器通过追踪所述第一沉浸视觉眼镜、所述第一交互控制器、所述第二沉浸视觉眼镜和所述第二交互控制器的运动状态,记录所述指导人员和所述受训人员的训练数据,并将所述训练数据发送至所述沉浸图像服务器。
可选地,所述第一沉浸视觉眼镜和所述第二沉浸视觉眼镜分别显示所述第一沉浸视觉图像和所述第二沉浸视觉图像之后,还包括:
所述第一交互控制器检测到所述受训人员的第一操控时,将与所述第一操控对应的第一交互信息发送至所述沉浸图像服务器;所述第二交互控制器检测到所述指导人员的第二操控时,将与所述第二操控对应的第二交互信息发送至所述沉浸图像服务器;
所述沉浸图像服务器根据所述第一交互信息和所述第二交互信息,继续向所述第一沉浸视觉眼镜和所述第二沉浸视觉眼镜分别发送沉浸视觉图像,并继续接收所述第一交互控制器和所述第二交互控制器返回的交互信息,直至完成或中断训练课程。
可选地,所述三维空间定位器通过追踪所述第一沉浸视觉眼镜、所述第一交互控制器、所述第二沉浸视觉眼镜和所述第二交互控制器的运动状态,记录所述指导人员和所述受训人员的训练数据,包括:
所述三维空间定位器通过追踪所述第一沉浸视觉眼镜、所述第一交互控制器、所述第二沉浸视觉眼镜和所述第二交互控制器的位置、方向和行动轨迹,实时记录所述指导人员和所述受训人员的训练数据。
可选地,所述三维空间定位器将所述训练数据发送至所述沉浸图像服务器之后,还包括:
所述沉浸图像服务器根据所述训练数据,计算所述受训人员的训练结果,将所述训练结果发送至所述第二沉浸视觉眼镜;
所述第二沉浸视觉眼镜显示所述训练结果。
可选地,所述训练数据包括头部位置、视线方向、手部动作和互动结果。
本发明还提供了一种基于沉浸视觉的训练系统,包括沉浸图像服务器、第一沉浸视觉眼镜、第一交互控制器、第二沉浸视觉眼镜、第二交互控制器和三维空间定位器,所述第一沉浸视觉眼镜被受训人员佩戴,所述第一交互控制器被所述受训人员握持,所述第二沉浸视觉眼镜被指导人员佩戴,所述第二交互控制器被所述指导人员握持;
其中,所述沉浸图像服务器,用于将第一沉浸视觉图像和第二沉浸视觉图像分别发送至所述第一沉浸视觉眼镜和所述第二沉浸视觉眼镜;
所述第一沉浸视觉眼镜,用于显示所述第一沉浸视觉图像;
所述第二沉浸视觉眼镜,用于显示所述第二沉浸视觉图像;
所述三维空间定位器,用于通过追踪所述第一沉浸视觉眼镜、所述第一交互控制器、所述第二沉浸视觉眼镜和所述第二交互控制器的运动状态,记录所述指导人员和所述受训人员的训练数据,并将所述训练数据发送至所述沉浸图像服务器。
可选地,所述第一交互控制器,用于检测所述受训人员的第一操控,将与所述第一操控对应的第一交互信息发送至所述沉浸图像服务器;
所述第二交互控制器,用于检测所述指导人员的第二操控,将与所述第二操控对应的第二交互信息发送至所述沉浸图像服务器;
所述沉浸图像服务器,还用于根据所述第一交互信息和所述第二交互信息,继续向所述第一沉浸视觉眼镜和所述第二沉浸视觉眼镜分别发送沉浸视觉图像,并继续接收所述第一交互控制器和所述第二交互控制器返回的交互信息,直至完成或中断训练课程。
可选地,所述三维空间定位器,具体用于通过追踪所述第一沉浸视觉眼镜、所述第一交互控制器、所述第二沉浸视觉眼镜和所述第二交互控制器的位置、方向和行动轨迹,实时记录所述指导人员和所述受训人员的训练数据。
可选地,所述沉浸图像服务器,还用于根据所述训练数据,计算所述受训人员的训练结果,将所述训练结果发送至所述第二沉浸视觉眼镜;
所述第二沉浸视觉眼镜,还用于显示所述训练结果。
可选地,所述训练数据包括头部位置、视线方向、手部动作和互动结果。
本发明通过计算机图形图像和辅助交互的沉浸视觉系统以及高拟真度的画面,对传统的自闭症训练方法进行技术提升,为训练提供相应的场景、人人交互机制、虚拟化身和虚拟道具等内容,给受训人员提供身临其境的感受,并根据受训人员的反馈进行下一步训练,使其通过反复体验和训练,获得记忆部分中的训练成果,从而在接触真实世界场景、事物时,对记忆部分中的训练成果进行最大程度的无缝衔接,能够提高受训人员的配合度,提升训练效率和训练效果,降低训练成本,并减少受训人员的风险。
附图说明
图1为本发明实施例中的一种基于沉浸视觉的训练系统的结构示意图;
图2为本发明实施例中的一种基于沉浸视觉的训练方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供了一种基于沉浸视觉的训练系统,如图1所示,包括沉浸图像服务器101、第一沉浸视觉眼镜102、第一交互控制器103、第二沉浸视觉眼镜104、第二交互控制器105和三维空间定位器106,第一沉浸视觉眼镜102被受训人员佩戴,第一交互控制器103被受训人员握持,第二沉浸视觉眼镜104被指导人员佩戴,第二交互控制器105被指导人员握持。
其中,沉浸图像服务器101,用于将第一沉浸视觉图像和第二沉浸视觉图像分别发送至第一沉浸视觉眼镜102和第二沉浸视觉眼镜104;
具体地,沉浸图像生成服务器101的存储设备上安装有图像生成与互动软件和本地数据库,图像生成与互动软件用于生成第一沉浸视觉图像和第二沉浸视觉图像,本地数据库用于记录受训人员的训练数据。
其中,第一沉浸视觉图像和第二沉浸视觉图像可以是实时渲染的三维图像,表现为高拟真度的三维环境、建筑、动植物、人物角色和三维生成的粒子系统等内容,该内容均符合自然物理属性。
此外,第一沉浸视觉图像和第二沉浸视觉图像还包括全景照片、全景视频、全景动画、图像、文字和照片等内容,或是以上内容的组合。基于训练软件和训练课程的设置,第一沉浸视觉图像和第二沉浸视觉图像可以是相同的图像,也可以是不同的图像。
第一沉浸视觉眼镜102,用于显示第一沉浸视觉图像;
第一交互控制器103,用于检测受训人员的第一操控,将与第一操控对应的第一交互信息发送至沉浸图像服务器101;
第二沉浸视觉眼镜104,用于显示第二沉浸视觉图像;
第二交互控制器105,用于检测指导人员的第二操控,将与第二操控对应的第二交互信息发送至沉浸图像服务器101;
其中,第一交互控制器103和第二交互控制器105上可以设置有多个按键,以供受训人员和指导人员操控。在训练过程中,受训人员可以根据第一沉浸视觉眼镜102显示的沉浸视觉图像,操控第一交互控制器103的按键,相应地,指导人员可以根据第二沉浸视觉眼镜104显示的沉浸视觉图像,操控第二交互控制器105的按键。在受训人员操控不同的按键时,第一交互控制器103向沉浸图像服务器101发送不同的第一交互信息;在指导人员操控不同的按键时,第二交互控制器105向沉浸图像服务器101发送不同的第二交互信息。第一交互控制器103和第二交互控制器105的按键设置方式可以相同,也可以不同。
相应地,上述沉浸图像服务器101,还用于根据第一交互信息和第二交互信息,继续向第一沉浸视觉眼镜102和第二沉浸视觉眼镜104分别发送沉浸视觉图像,并继续接收第一交互控制器103和第二交互控制器105返回的交互信息,直至完成或中断训练课程。
具体地,沉浸图像服务器101接收到第一交互信息和第二交互信息后,可以基于训练软件和训练课程的设置,继续向第一沉浸视觉眼镜102和第二沉浸视觉眼镜104分别发送沉浸视觉图像,相应地,第一沉浸视觉眼镜102和第二沉浸视觉眼镜104分别显示上述沉浸视觉图像,分别为受训人员和指导人员提供互动反馈,并持续上述过程,直至完成或中断训练课程。
三维空间定位器106,用于通过追踪第一沉浸视觉眼镜102、第一交互控制器103、第二沉浸视觉眼镜104和第二交互控制器105的运动状态,记录指导人员和受训人员的训练数据,并将训练数据发送至沉浸图像服务器101。
具体地,三维空间定位器106,具体用于通过追踪第一沉浸视觉眼镜102、第一交互控制器103、第二沉浸视觉眼镜104和第二交互控制器105的位置、方向和行动轨迹,实时记录指导人员和受训人员的训练数据。
本实施例中,三维空间定位器106通过追踪第一沉浸视觉眼镜102、第一交互控制器103、第二沉浸视觉眼镜104和第二交互控制器105的位置、方向和行动轨迹,实时记录指导人员和受训人员的训练数据,并将该训练数据发送至沉浸图像服务器101,记录在沉浸图像服务器101的本地数据库中。
其中,训练数据包括头部位置、视线方向、手部动作和互动结果。
此外,沉浸图像服务器101,还用于根据训练数据,计算受训人员的训练结果,将训练结果发送至第二沉浸视觉眼镜104;
第二沉浸视觉眼镜104,还用于显示训练结果。
本发明实施例通过计算机图形图像和辅助交互的沉浸视觉系统以及高拟真度的画面,对传统的自闭症训练方法进行技术提升,为训练提供相应的场景、人人交互机制、虚拟化身和虚拟道具等内容,给受训人员提供身临其境的感受,并根据受训人员的反馈进行下一步训练,使其通过反复体验和训练,获得记忆部分中的训练成果,从而在接触真实世界场景、事物时,对记忆部分中的训练成果进行最大程度的无缝衔接,能够提高受训人员的配合度,提升训练效率和训练效果,降低训练成本,并减少受训人员的风险。
作为一种优选实施方式,可以根据实际情况,将上述训练系统部署在最小12平方米(3x4米),净高不低于2.5米的空间,空间内无任何构筑物或家具,可靠墙放置一套电脑桌椅。为避免影响三维空间定位器106的信号,上述空间所在的房间最好不大于10x10米,优选无窗户的房间,若有小窗则需要用窗帘遮挡,地面平整,最好铺设地毯,墙面为不反光的乳胶漆或软包墙面。
此外,在上述空间内为沉浸图像生成服务器101提供220V电源插座,在距地2.1-2.4米的墙面安装三维空间定位器106,三维空间定位器106附近设置有220v电源插座,且在房间内对角安装三维空间定位器106,以便信号覆盖整个房间。相应地,在沉浸图像生成服务器101的图像生成与互动软件内设置房间安全区域,使得指导人员和受训人员遵循沉浸式场景内的虚拟安全区域提示,避免与墙面产生碰撞。
上述部署方式,能够解决场地空间和指导人员短缺的问题,提升训练效率。
基于上述训练系统,本发明实施例提供了一种基于沉浸视觉的训练方法,包括以下步骤:
步骤201,沉浸图像服务器将第一沉浸视觉图像和第二沉浸视觉图像分别发送至第一沉浸视觉眼镜和第二沉浸视觉眼镜;
具体地,指导人员开启沉浸图像服务器、三维空间定位器、第一沉浸视觉眼镜、第一交互控制器、第二沉浸视觉眼镜和第二交互控制器后,运行沉浸图像服务器上安装的训练软件,并指导人员根据受训人员的课程进度,从训练软件中选择对应的训练课程。相应地,沉浸图像服务器基于指导人员选择的训练课程,向第一沉浸视觉眼镜和第二沉浸视觉眼镜分别发送与训练课程对应的第一沉浸视觉图像和第二沉浸视觉图像。
本实施例中,沉浸图像生成服务器可以在沉浸视觉眼镜中形成高拟真度、全视野包裹的图像,使指导人员和受训人员有身临其境的效果,指导人员和受训人员在空间中的位移和行为都会真实反映在沉浸视觉图像中。
其中,第一沉浸视觉图像和第二沉浸视觉图像可以是实时渲染的三维图像,表现为高拟真度的三维环境、建筑、动植物、人物角色和三维生成的粒子系统等内容,该内容均符合自然物理属性。
此外,第一沉浸视觉图像和第二沉浸视觉图像还包括全景照片、全景视频、全景动画、图像、文字和照片等内容,或是以上内容的组合。基于训练软件和训练课程的设置,第一沉浸视觉图像和第二沉浸视觉图像可以是相同的图像,也可以是不同的图像。
步骤202,第一沉浸视觉眼镜和第二沉浸视觉眼镜分别显示第一沉浸视觉图像和第二沉浸视觉图像;
其中,第一沉浸视觉眼镜接收到第一沉浸视觉图像后,对第一沉浸视觉图像进行显示,由于第一沉浸视觉眼镜被受训人员佩戴,从而使得受训人员完成从现实空间到沉浸空间的视觉和心理过渡。
此外,指导人员协助受训人员佩戴好第一沉浸视觉眼镜后,让受训人员双手抓握第一交互控制器。指导人员在确认受训人员可以看到画面,听到声音,以及第一交互控制器运动有反应后,佩戴第二沉浸视觉眼镜,手持第二交互控制器,并通过第二沉浸视觉眼镜观看第二沉浸视觉图像。
步骤203,第一交互控制器检测到受训人员的第一操控时,将与第一操控对应的第一交互信息发送至沉浸图像服务器;第二交互控制器检测到指导人员的第二操控时,将与第二操控对应的第二交互信息发送至沉浸图像服务器;
其中,在训练课程的实现过程中,指导人员根据课程中设定的行为和话术与受训人员进行交流。通过第一沉浸视觉眼镜显示的第一沉浸视觉图像和通过第二沉浸视觉眼镜显示的第二沉浸视觉图像,在设定好的范围内分别为受训人员和指导人员提供沉浸视觉中的场景、道具和数字化身,在此过程中,受训人员可以对第一交互控制器执行第一操控,指导人员可以对第二交互控制器执行第二操控,相应地,第一交互控制器将与第一操控对应的第一交互信息发送至沉浸图像服务器,第二交互控制器将与第二操控对应的第二交互信息发送至沉浸图像服务器。
步骤204,沉浸图像服务器根据第一交互信息和第二交互信息,继续向第一沉浸视觉眼镜和第二沉浸视觉眼镜分别发送沉浸视觉图像,并继续接收第一交互控制器和第二交互控制器返回的交互信息,直至完成或中断训练课程;
具体地,沉浸图像服务器接收到第一交互信息和第二交互信息后,可以基于训练软件和训练课程的设置,继续向第一沉浸视觉眼镜和第二沉浸视觉眼镜分别发送沉浸视觉图像,相应地,第一沉浸视觉眼镜和第二沉浸视觉眼镜分别显示上述沉浸视觉图像,分别为受训人员和指导人员提供互动反馈,并持续上述过程,直至完成或中断训练课程。
此外,完成训练课程后,指导人员先摘下自己所佩戴的第二沉浸视觉眼镜,然后协助受训人员摘下所佩戴的第一沉浸视觉眼镜。
步骤205,三维空间定位器通过追踪第一沉浸视觉眼镜、第一交互控制器、第二沉浸视觉眼镜和第二交互控制器的运动状态,记录指导人员和受训人员的训练数据,并将该训练数据发送至沉浸图像服务器。
具体地,三维空间定位器通过追踪第一沉浸视觉眼镜、第一交互控制器、第二沉浸视觉眼镜和第二交互控制器的位置、方向和行动轨迹,实时记录指导人员和受训人员的训练数据,并将该训练数据发送至沉浸图像服务器,记录在沉浸图像服务器的本地数据库中,该训练数据包括头部位置、视线方向、手部动作和互动结果。
步骤206,沉浸图像服务器根据训练数据,计算受训人员的训练结果,将训练结果发送至第二沉浸视觉眼镜;
具体地,在训练课程结束后,沉浸图像服务器可以根据训练数据,通过后台计算出受训人员的训练成绩。由于三维空间定位器可以实时、准确、低延迟地反馈指导人员与受训人员的沉浸视觉眼镜和交互控制器的位置,通过算法即可记录指导人员和受训人员在当前沉浸场景中的行为操作和对话,从而为受训人员训练课程的规划提供详实的数据参考。
步骤207,第二沉浸视觉眼镜显示训练结果。
具体地,第二沉浸视觉眼镜可以通过图形、图表和文字等形式,显示受训人员的训练结果,供指导人员了解受训人员训练成果,并确定下一次训练的内容。
本发明实施例通过计算机图形图像和辅助交互的沉浸视觉系统以及高拟真度的画面,对传统的自闭症训练方法进行技术提升,为训练提供相应的场景、人人交互机制、虚拟化身和虚拟道具等内容,给受训人员提供身临其境的感受,并根据受训人员的反馈进行下一步训练,使其通过反复体验和训练,获得记忆部分中的训练成果,从而在接触真实世界场景、事物时,对记忆部分中的训练成果进行最大程度的无缝衔接,能够提高受训人员的配合度,提升训练效率和训练效果,降低训练成本,并减少受训人员的风险。
结合本文中所公开的实施例描述的方法中的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (10)

1.一种基于沉浸视觉的训练方法,其特征在于,应用于包括沉浸图像服务器、第一沉浸视觉眼镜、第一交互控制器、第二沉浸视觉眼镜、第二交互控制器和三维空间定位器的系统,其中,所述第一沉浸视觉眼镜被受训人员佩戴,所述第一交互控制器被所述受训人员握持,所述第二沉浸视觉眼镜被指导人员佩戴,所述第二交互控制器被所述指导人员握持,所述方法包括以下步骤:
所述沉浸图像服务器将第一沉浸视觉图像和第二沉浸视觉图像分别发送至所述第一沉浸视觉眼镜和所述第二沉浸视觉眼镜;
所述第一沉浸视觉眼镜和所述第二沉浸视觉眼镜分别显示所述第一沉浸视觉图像和所述第二沉浸视觉图像;
所述三维空间定位器通过追踪所述第一沉浸视觉眼镜、所述第一交互控制器、所述第二沉浸视觉眼镜和所述第二交互控制器的运动状态,记录所述指导人员和所述受训人员的训练数据,并将所述训练数据发送至所述沉浸图像服务器。
2.如权利要求1所述的方法,其特征在于,所述第一沉浸视觉眼镜和所述第二沉浸视觉眼镜分别显示所述第一沉浸视觉图像和所述第二沉浸视觉图像之后,还包括:
所述第一交互控制器检测到所述受训人员的第一操控时,将与所述第一操控对应的第一交互信息发送至所述沉浸图像服务器;所述第二交互控制器检测到所述指导人员的第二操控时,将与所述第二操控对应的第二交互信息发送至所述沉浸图像服务器;
所述沉浸图像服务器根据所述第一交互信息和所述第二交互信息,继续向所述第一沉浸视觉眼镜和所述第二沉浸视觉眼镜分别发送沉浸视觉图像,并继续接收所述第一交互控制器和所述第二交互控制器返回的交互信息,直至完成或中断训练课程。
3.如权利要求1所述的方法,其特征在于,所述三维空间定位器通过追踪所述第一沉浸视觉眼镜、所述第一交互控制器、所述第二沉浸视觉眼镜和所述第二交互控制器的运动状态,记录所述指导人员和所述受训人员的训练数据,包括:
所述三维空间定位器通过追踪所述第一沉浸视觉眼镜、所述第一交互控制器、所述第二沉浸视觉眼镜和所述第二交互控制器的位置、方向和行动轨迹,实时记录所述指导人员和所述受训人员的训练数据。
4.如权利要求1所述的方法,其特征在于,所述三维空间定位器将所述训练数据发送至所述沉浸图像服务器之后,还包括:
所述沉浸图像服务器根据所述训练数据,计算所述受训人员的训练结果,将所述训练结果发送至所述第二沉浸视觉眼镜;
所述第二沉浸视觉眼镜显示所述训练结果。
5.如权利要求1所述的方法,其特征在于,所述训练数据包括头部位置、视线方向、手部动作和互动结果。
6.一种基于沉浸视觉的训练系统,其特征在于,包括沉浸图像服务器、第一沉浸视觉眼镜、第一交互控制器、第二沉浸视觉眼镜、第二交互控制器和三维空间定位器,所述第一沉浸视觉眼镜被受训人员佩戴,所述第一交互控制器被所述受训人员握持,所述第二沉浸视觉眼镜被指导人员佩戴,所述第二交互控制器被所述指导人员握持;
其中,所述沉浸图像服务器,用于将第一沉浸视觉图像和第二沉浸视觉图像分别发送至所述第一沉浸视觉眼镜和所述第二沉浸视觉眼镜;
所述第一沉浸视觉眼镜,用于显示所述第一沉浸视觉图像;
所述第二沉浸视觉眼镜,用于显示所述第二沉浸视觉图像;
所述三维空间定位器,用于通过追踪所述第一沉浸视觉眼镜、所述第一交互控制器、所述第二沉浸视觉眼镜和所述第二交互控制器的运动状态,记录所述指导人员和所述受训人员的训练数据,并将所述训练数据发送至所述沉浸图像服务器。
7.如权利要求6所述的系统,其特征在于,
所述第一交互控制器,用于检测所述受训人员的第一操控,将与所述第一操控对应的第一交互信息发送至所述沉浸图像服务器;
所述第二交互控制器,用于检测所述指导人员的第二操控,将与所述第二操控对应的第二交互信息发送至所述沉浸图像服务器;
所述沉浸图像服务器,还用于根据所述第一交互信息和所述第二交互信息,继续向所述第一沉浸视觉眼镜和所述第二沉浸视觉眼镜分别发送沉浸视觉图像,并继续接收所述第一交互控制器和所述第二交互控制器返回的交互信息,直至完成或中断训练课程。
8.如权利要求6所述的系统,其特征在于,
所述三维空间定位器,具体用于通过追踪所述第一沉浸视觉眼镜、所述第一交互控制器、所述第二沉浸视觉眼镜和所述第二交互控制器的位置、方向和行动轨迹,实时记录所述指导人员和所述受训人员的训练数据。
9.如权利要求6所述的系统,其特征在于,
所述沉浸图像服务器,还用于根据所述训练数据,计算所述受训人员的训练结果,将所述训练结果发送至所述第二沉浸视觉眼镜;
所述第二沉浸视觉眼镜,还用于显示所述训练结果。
10.如权利要求6所述的系统,其特征在于,所述训练数据包括头部位置、视线方向、手部动作和互动结果。
CN201910483948.XA 2019-06-04 2019-06-04 一种基于沉浸视觉的训练系统和方法 Pending CN110215373A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910483948.XA CN110215373A (zh) 2019-06-04 2019-06-04 一种基于沉浸视觉的训练系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910483948.XA CN110215373A (zh) 2019-06-04 2019-06-04 一种基于沉浸视觉的训练系统和方法

Publications (1)

Publication Number Publication Date
CN110215373A true CN110215373A (zh) 2019-09-10

Family

ID=67819767

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910483948.XA Pending CN110215373A (zh) 2019-06-04 2019-06-04 一种基于沉浸视觉的训练系统和方法

Country Status (1)

Country Link
CN (1) CN110215373A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106887170A (zh) * 2017-02-21 2017-06-23 戴雨霖 基于虚拟现实和手势检测的乘坐公交车训练系统
CN107168525A (zh) * 2017-04-21 2017-09-15 北京师范大学 一种运用精细手势识别装置辅助自闭症儿童配对训练的系统及方法
CN107340869A (zh) * 2017-07-07 2017-11-10 四川云图瑞科技有限公司 基于虚幻4引擎技术的虚拟现实交互系统
WO2018175675A1 (en) * 2017-03-23 2018-09-27 Siemens Aktiengesellschaft Collaboritive and interactive training in augmented reality
KR20180128733A (ko) * 2017-05-24 2018-12-04 연세대학교 산학협력단 자폐 스펙트럼 장애 치료를 위한 게임 방법 및 이에 관한 기록매체
CN109616179A (zh) * 2018-12-07 2019-04-12 山东大学 自闭症谱系障碍混合现实康复训练系统及方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106887170A (zh) * 2017-02-21 2017-06-23 戴雨霖 基于虚拟现实和手势检测的乘坐公交车训练系统
WO2018175675A1 (en) * 2017-03-23 2018-09-27 Siemens Aktiengesellschaft Collaboritive and interactive training in augmented reality
CN107168525A (zh) * 2017-04-21 2017-09-15 北京师范大学 一种运用精细手势识别装置辅助自闭症儿童配对训练的系统及方法
KR20180128733A (ko) * 2017-05-24 2018-12-04 연세대학교 산학협력단 자폐 스펙트럼 장애 치료를 위한 게임 방법 및 이에 관한 기록매체
CN107340869A (zh) * 2017-07-07 2017-11-10 四川云图瑞科技有限公司 基于虚幻4引擎技术的虚拟现实交互系统
CN109616179A (zh) * 2018-12-07 2019-04-12 山东大学 自闭症谱系障碍混合现实康复训练系统及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李建: "《虚拟现实(VR)技术与应用》", 31 January 2018, 河南大学出版社 *
程辉明: "《先进电子制造技术》", 31 July 2008, 国防工业出版社 *

Similar Documents

Publication Publication Date Title
Ofli et al. Design and evaluation of an interactive exercise coaching system for older adults: lessons learned
US9880621B2 (en) Generating virtual stimulation devices and illusory sensations using tactile display technology
Imam et al. Virtual reality rehabilitation from social cognitive and motor learning theoretical perspectives in stroke population
CN109731292B (zh) 一种基于虚拟现实技术的平衡能力测试与训练系统及方法
US20130069940A1 (en) Systems And Methods For Projecting Images Onto An Object
US11996090B2 (en) System and method for artificial intelligence (AI) assisted activity training
Reiner The role of haptics in immersive telecommunication environments
CN108919950A (zh) 基于Kinect的孤独症儿童互动影像装置及方法
JP2011110215A (ja) リハビリテーション用システム、プログラム、およびプログラムを記録したコンピュータ読み取り可能な記録媒体
WO2013059227A1 (en) Interactive physical therapy
Takacs Special education and rehabilitation: teaching and healing with interactive graphics
Suyanto et al. Overcome acrophobia with the help of virtual reality and kinect technology
KR20180028033A (ko) 사용자 환경 기반 가상현실을 이용한 장애인 일상생활 교육 방법 및 이를 위한 장치
Wellner et al. Virtual competitors influence rowers
Jund et al. Impact of frame of reference on memorization in virtual environments
Blome et al. VReanimate—Non-verbal guidance and learning in virtual reality
WO2022034771A1 (ja) プログラム、方法、情報処理装置
Kizony et al. Immersion without encumbrance: adapting a virtual reality system for the rehabilitation of individuals with stroke and spinal cord injury
CN110215373A (zh) 一种基于沉浸视觉的训练系统和方法
Born et al. Increasing presence in a mixed reality application by integrating a real time tracked full body representation
Zain et al. Integrating digital games based learning environments with eye gaze-based interaction
Ponder et al. Interactive scenario immersion: Health emergency decision training in JUST project
Manganas et al. The just vr tool: An innovative approach to training personnel for emergency situations using virtual reality techniques
Pittarello et al. Design and evaluation of an educational virtual reality application for learning how to perform on a stage
Gutiérrez-Fernández et al. An immersive haptic-enabled training simulation for paramedics

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190910