CN110109542B - 虚拟演练场景中的移动控制方法、装置和虚拟演练系统 - Google Patents
虚拟演练场景中的移动控制方法、装置和虚拟演练系统 Download PDFInfo
- Publication number
- CN110109542B CN110109542B CN201910352866.1A CN201910352866A CN110109542B CN 110109542 B CN110109542 B CN 110109542B CN 201910352866 A CN201910352866 A CN 201910352866A CN 110109542 B CN110109542 B CN 110109542B
- Authority
- CN
- China
- Prior art keywords
- drilling
- user
- virtual
- scene
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请涉及一种虚拟演练场景中的移动控制方法、装置、虚拟演练系统、计算机设备和存储介质。所述方法包括:获取演练用户在现实场景中的腿部位移信息,根据腿部位移信息确定演练用户在虚拟演练场景中的移动速度值;腿部位移信息根据佩戴在演练用户的腿部的位置跟踪器采集得到;获取演练用户在现实场景中的手部方向信息,根据手部方向信息确定演练用户在虚拟演练场景中的移动方向值;手部方向信息由演练用户手持的控制机构采集得到;根据移动速度值以及移动方向值,控制演练用户在虚拟演练场景中的移动。采用本方法,提高了演练用户在虚拟现实的沉浸感,进而提高了虚拟演练过程中的互动灵活性,有利于提高虚拟演练过程中的虚拟演练效率。
Description
技术领域
本申请涉及虚拟现实技术领域,特别是涉及一种虚拟演练场景中的移动控制方法、装置、虚拟演练系统、计算机设备和存储介质。
背景技术
随着科学技术的发展,虚拟现实技术也得到了空前的发展,在医学、娱乐、军事航天、应急推演、房产开发等领域具有十分重要的意义。
现有技术中,在虚拟演练场景中常用的大范围移动控制方式主要包括基于手柄的触控键控制移动方式;通过操控手柄上的触控键来控制对应的虚拟角色在虚拟场景中的移动,以进行相关的演练操作;但是,现实场景中由于操作人员并未真实地移动而造成严重的眩晕感,大大降低了虚拟现实的沉浸感,导致互动灵活性较低,从而造成虚拟演练效率极其低。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高演练效率的虚拟演练场景中的移动控制方法、装置、虚拟演练系统、计算机设备和存储介质。
一种虚拟演练场景中的移动控制方法,所述方法包括:
获取演练用户在现实场景中的腿部位移信息,根据所述腿部位移信息确定所述演练用户在虚拟演练场景中的移动速度值;所述腿部位移信息根据佩戴在所述演练用户的腿部的位置跟踪器采集得到;
获取所述演练用户在所述现实场景中的手部方向信息,根据所述手部方向信息确定所述演练用户在所述虚拟演练场景中的移动方向值;所述手部方向信息由所述演练用户手持的控制机构采集得到;
根据所述移动速度值以及所述移动方向值,控制所述演练用户在所述虚拟演练场景中的移动。
一种虚拟演练场景中的移动控制装置,所述装置包括:
速度值确定模块,用于获取演练用户在现实场景中的腿部位移信息,根据所述腿部位移信息确定所述演练用户在虚拟演练场景中的移动速度值;所述腿部位移信息根据佩戴在所述演练用户的腿部的位置跟踪器采集得到;
方向值确定模块,用于获取所述演练用户在所述现实场景中的手部方向信息,根据所述手部方向信息确定所述演练用户在所述虚拟演练场景中的移动方向值;所述手部方向信息由所述演练用户手持的控制机构采集得到;
移动控制模块,用于根据所述移动速度值以及所述移动方向值,控制所述演练用户在所述虚拟演练场景中的移动。
一种虚拟演练系统,包括:处理器、位置跟踪器、控制机构以及显示装置;所述处理器与所述位置跟踪器、所述控制机构以及所述显示装置分别通信连接;
所述位置跟踪器佩戴在演练用户的腿部,用于采集所述演练用户在现实场景中的腿部位移信息,并将采集到的所述腿部位移信息发送至所述处理器;
所述控制机构供所述演练用户手持,用于采集所述演练用户在所述现实场景中的手部方向信息,并将采集到的手部方向信息发送至所述处理器;
所述处理器,用于执行上述所述方法的步骤;
所述显示装置,用于显示虚拟演练场景的画面。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取演练用户在现实场景中的腿部位移信息,根据所述腿部位移信息确定所述演练用户在虚拟演练场景中的移动速度值;所述腿部位移信息根据佩戴在所述演练用户的腿部的位置跟踪器采集得到;
获取所述演练用户在所述现实场景中的手部方向信息,根据所述手部方向信息确定所述演练用户在所述虚拟演练场景中的移动方向值;所述手部方向信息由所述演练用户手持的控制机构采集得到;
根据所述移动速度值以及所述移动方向值,控制所述演练用户在所述虚拟演练场景中的移动。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取演练用户在现实场景中的腿部位移信息,根据所述腿部位移信息确定所述演练用户在虚拟演练场景中的移动速度值;所述腿部位移信息根据佩戴在所述演练用户的腿部的位置跟踪器采集得到;
获取所述演练用户在所述现实场景中的手部方向信息,根据所述手部方向信息确定所述演练用户在所述虚拟演练场景中的移动方向值;所述手部方向信息由所述演练用户手持的控制机构采集得到;
根据所述移动速度值以及所述移动方向值,控制所述演练用户在所述虚拟演练场景中的移动。
上述虚拟演练场景中的移动控制方法、装置、虚拟演练系统、计算机设备和存储介质,根据演练用户在现实场景中的腿部位移信息以及手部方向信息,确定演练用户在虚拟演练场景中的移动速度值以及移动方向值,并根据移动速度值以及移动方向值控制演练用户在虚拟演练场景中的移动;通过演练用户在现实场景中的腿部运动以及手部运动,控制演练用户在虚拟演练场景中的连续自然移动,可以让演练用户体验到真实的行走方式,避免了演练用户在现实场景中并未真实地移动而造成严重的眩晕感,从而提高了演练用户在虚拟现实的沉浸感,进而提高了虚拟演练过程中的互动灵活性,有利于提高虚拟演练效率。
附图说明
图1为一个实施例中虚拟演练场景中的移动控制方法的应用场景图;
图2为一个实施例中虚拟演练场景中的移动控制方法的流程示意图;
图3为一个实施例中移动速度值以及移动方向值的确定示意图;
图4为一个实施例中虚拟演练场景中的事故主体示意图;
图5为一个实施例中不同包围体之间的碰撞示意图;
图6为一个实施例中对虚拟演练场景的设定事件进行监听的流程示意图;
图7为另一个实施例中虚拟演练场景中的移动控制方法的流程示意图;
图8为一个实施例中虚拟演练场景中的移动控制装置的结构框图;
图9为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的虚拟演练场景中的移动控制方法,可以应用于如图1所示的虚拟演练系统中。其中,虚拟演练系统包括处理器110、位置跟踪器120(比如 120a、120b)、控制机构130(比如130a、130b)以及显示装置140;处理器110 与位置跟踪器120、控制机构130以及显示装置140分别通信连接,可以是有线连接或者无线连接;位置跟踪器120是指用于空间跟踪以及定位的装置,比如磁场式位置跟踪器、超声波式位置跟踪器;一般佩戴在演练用户的腿部,用于采集演练用户在现实场景(比如原地)中的腿部位移信息,并将采集到的腿部位移信息发送至处理器110;控制机构130(比如手柄)供演练用户手持,用于采集演练用户在现实场景的手部方向信息,并将采集到的手部方向信息发送至处理器110;处理器110用于执行本申请任意实施例的虚拟演练场景中的移动控制方法的步骤。显示装置140(比如显示屏)用于显示虚拟演练场景的画面,演练用户可以通过佩戴头戴显示装置(比如VR眼镜)观看相应的画面。
本领域技术人员可以理解,图1中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,如图2所示,提供了一种虚拟演练场景中的移动控制方法,以该方法应用于图1中的处理器为例进行说明,包括以下步骤:
步骤S201,获取演练用户在现实场景中的腿部位移信息,根据腿部位移信息确定演练用户在虚拟演练场景中的移动速度值;腿部位移信息根据佩戴在演练用户的腿部的位置跟踪器采集得到。
在本步骤中,现实场景可以是现实场景中范围较小的固定区域,比如原地;也可以是其他,具体本申请不做限定。腿部位移信息是指演练用户在现实场景中进行原地踏步或者移动的过程中对应的腿部参考点的位置信息。虚拟演练场景用于模拟现实演练过程中的实际场景,比如消防虚拟演练场景、铁路货车事故虚拟演练场景等。移动速度值是用于标识演练用户在虚拟演练场景中的实时移动速度。位置跟踪器是指作用于空间跟踪以及定位的装置,比如磁场式位置跟踪器、超声波式位置跟踪器;一般佩戴在演练用户的腿部上,比如左腿腿部参考点上和/或右腿腿部参考点上。需要说明的是,腿部参考点用于标识位置跟踪器在演练用户的小腿上的佩戴位置。
在虚拟演练过程中,演练用户在现实场景中进行原地踏步,以代替其在虚拟演练场景中的实时位置移动。位置跟踪器对在现实场景中的演练用户的腿部位移信息进行采集,并将采集到的腿部位移信息发送至处理器。在本步骤中,处理器在接收到位置跟踪器发送的腿部位移信息时,对腿部位移信息进行实时分析,得到腿部不同时刻的位置信息,根据腿部不同时刻的位置信息,确定演练用户在虚拟演练场景中对应的移动速度值;比如基于腿部当前时刻的位置信息以及前一时刻的位置信息,确定演练用户在虚拟演练场景中当前时刻的移动速度值。这样,可以让演练用户体验到真实的行走方式,从而提高了演练用户在虚拟现实的沉浸感,同时避免了空间位置瞬移的方式无法模拟演练用户在虚拟演练场景中行走时的工作状态,进而提高了虚拟演练过程中的互动灵活性,进一步提高了虚拟演练效率。
步骤S202,获取演练用户在现实场景中的手部方向信息,根据手部方向信息确定演练用户在虚拟演练场景中的移动方向值;手部方向信息由演练用户手持的控制机构采集得到。
在本步骤中,手部方向信息是指演练用户手持的控制机构移动的单位方向向量;控制机构是一种虚拟现实控制装置,比如手柄、数据手套等;通过操作其按钮等,可以实现对虚拟演练场景中的角色等的控制;一般供演练用户手持,具体包括左手控制机构、右手控制机构。移动方向值用于标识演练用户在虚拟演练场景中的实时移动方向。
在虚拟演练过程中,演练用户在现实场景中通过操控控制机构,以改变控制机构移动的单位方向向量,进而根据控制机构移动的单位方向向量,确定演练用户身体的方向,以代替其在虚拟演练场景中的实时移动方向。控制机构对在现实场景中的演练用户的手部方向信息进行采集,并将采集到的手部方向信息发送至处理器。在本步骤中,处理器在接收到控制机构发送的手部方向信息时,对手部方向信息进行实时分析,得到控制机构移动的单位方向向量,根据控制机构移动的单位方向向量,确定演练用户在虚拟演练场景中的移动方向值;比如基于左手控制机构移动的单位方向向量以及右手控制机构移动的单位方向向量,确定演练用户在虚拟演练场景中的移动方向值。这样,可以让演练用户自由控制移动方向,进一步提高了演练用户在虚拟现实的沉浸感,有利于虚拟演练过程中的灵活互动,从而提高了虚拟演练效率。
步骤S203,根据移动速度值以及移动方向值,控制演练用户在虚拟演练场景中的移动。
在本步骤中,处理器控制演练用户在显示装置(比如显示屏)显示的虚拟演练场景的画面中,按照移动速度值对应的移动速度,朝移动方向值对应的移动方向进行移动;实现了通过演练用户在现实场景中的腿部运动以及手部运动,实时控制演练用户在虚拟演练场景中的移动的目的,避免了演练用户在现实场景中并未真实地移动而造成严重的眩晕感,从而提高了演练用户在虚拟现实的沉浸感,进而提高了虚拟演练过程中的互动灵活性,有利于提高虚拟演练效率。
上述虚拟演练场景的移动控制方法中,根据演练用户在现实场景中的腿部位移信息以及手部方向信息,确定演练用户在虚拟演练场景中的移动速度值以及移动方向值,并根据移动速度值以及移动方向值控制演练用户在虚拟演练场景中的移动;通过演练用户在现实场景中的腿部以及手部运动,控制演练用户在虚拟演练场景中的连续自然移动,可以让演练用户体验到真实的行走方式,避免了演练用户在现实场景中并未真实地移动而造成严重的眩晕感,从而提高了演练用户在虚拟现实的沉浸感,进而提高了虚拟演练过程中的互动灵活性,有利于提高虚拟演练效率。
在一个实施例中,腿部位移信息包括腿部当前时刻的位置信息以及前一时刻的位置信息;那么,上述步骤S201,根据腿部位移信息确定演练用户在虚拟演练场景中的移动速度值,包括:根据腿部当前时刻的位置信息以及前一时刻的位置信息,计算在时间间隔内,演练用户在现实场景中的腿部挥动距离值;时间间隔由当前时刻以及前一时刻之差确定;根据时间间隔以及腿部挥动距离值,计算演练用户在虚拟演练场景中的移动速度值。
参考图3,以演练用户在现实场景中的左腿移动为例子进行说明。如图3所示,腿部前一时刻的位置信息为P1,腿部当前时刻的位置信息为P2,Δs为时间间隔Δt内,演练用户在现实场景中的腿部挥动距离值,具体为
Δs=|P1-P2|;
其中,时间间隔Δt为当前时刻对应的时间以及前一时刻对应的时间之差。需要说明的是,计算机的显示装置是一帧一帧显示画面的,每一帧均有对应的时刻,比如前一时刻、当前时刻。
那么,根据时间间隔Δt以及腿部挥动距离值Δs,计算演练用户在虚拟演练场景中的移动速度值:
通过本实施例,可以让演练用户体验到真实的行走方式,从而提高了演练用户在虚拟现实的沉浸感,进而提高了虚拟演练过程中的互动灵活性,进一步提高了虚拟演练效率。
在一个实施例中,控制机构包括左手控制机构以及右手控制机构,那么,上述步骤S202,获取演练用户在现实场景中的手部方向信息,包括:获取左手控制机构移动的方向向量信息以及右手控制机构移动的方向向量信息,作为演练用户在现实场景中的手部方向信息。
具体实现中,左手控制机构采集左手控制机构移动的方向向量信息,并将左手控制机构移动的方向向量信息发送至处理器;右手控制机构采集右手控制机构移动的方向向量信息,并将右手控制机构移动的方向向量信息发送至处理器;处理器将左手控制机构移动的方向向量信息以及右手控制机构移动的方向向量信息,作为演练用户在现实场景中的手部方向信息。
在一个实施例中,上述步骤S202,根据手部方向信息确定演练用户在虚拟演练场景中的移动方向值,包括:将左手控制机构移动的方向向量信息以及右手控制机构移动的方向向量信息进行相加,得到演练用户在虚拟演练场景中的移动方向值。
通过本实施例,可以让演练用户自由控制移动方向,进一步提高了演练用户在虚拟现实的沉浸感,有利于虚拟演练过程中的灵活互动,从而提高了虚拟演练效率。
在一个实施例中,上述步骤S203,根据移动速度值以及移动方向值,控制演练用户在虚拟演练场景中的移动,包括:根据移动速度值以及移动方向值,确定演练用户在虚拟演练场景中的移动速度向量;根据移动速度向量,控制演练用户在所述虚拟演练场景中的移动。
处理器控制演练用户,按照移动速度向量在虚拟演练场景中进行移动;这样,演练用户可以根据自身需要,调整在虚拟演练场景中的移动速度向量,进一步让演练用户体验到真实的行走方式以及行走时的工作状态,从而提高了虚拟演练过程中的互动灵活性,进一步提高了虚拟演练效率。
那么,处理器还可以根据位移向量控制演练用户在虚拟演练场景中的移动;实现了通过演练用户在现实场景中的腿部运动以及手部运动,实时控制演练用户在虚拟演练场景中的移动的目的,避免了演练用户在现实场景中并未真实地移动而造成严重的眩晕感,从而提高了演练用户在虚拟现实的沉浸感,进而提高了虚拟演练过程中的互动灵活性,有利于提高虚拟演练效率。
在一个实施例中,上述步骤S203,在控制演练用户在虚拟演练场景中的移动之后,还包括:检测演练用户在虚拟演练场景中与事故主体是否存在碰撞;若演练用户与事故主体存在碰撞,获取与事故主体关联的学习内容;在虚拟演练场景的画面之上显示关联的学习内容。
其中,虚拟演练场景为铁路货车事故虚拟演练场景;事故主体包括:火灾、天车挂钩、灭火器、乙炔瓶、电气设备箱、铁轨、机车中的至少一种。学习内容是指与事故主体相关联的内容,比如火灾应急保护措施、灭火器安全使用规范等。
例如,处理器检测到演练用户与铁路货车事故虚拟演练场景中的灭火器存在碰撞,则获取与灭火器关联的学习内容,并在铁路货车事故虚拟演练场景的画面之上显示该关联的学习内容,以供演练用户学习。
本实施例中,将演练用户的学习内容与事故主体所在位置进行绑定,通过时刻跟踪演练用户在铁路货车事故虚拟场景中的漫游位置信息,自动判定演练用户的漫游位置信息与场景中的事故主体的干涉,智能判断应该为演练用户提供的引导学习内容,可使演练用户在虚拟演练场景的任意位置获得准确的学习指导,能够提高演练用户的学习效率,从而降低演练用户与虚拟演练系统交互所需的学习成本和时间,进一步提高了虚拟演练效率。同时,通过位置绑定的引导学习方式,避免了现有的一步接着一步的向导式学习方式,无法适应三维环境下高沉浸感和高临场感的学习方式的缺陷,进一步提高了虚拟演练效率。
在一个实施例中,检测演练用户在虚拟演练场景中与事故主体是否存在碰撞,包括:根据在虚拟演练场景中的演练用户生成对应的人体包围体;根据虚拟演练场景中的事故主体生成对应的物体包围体;计算人体包围体的中心线段与物体包围体的中心或中心线段之间的最小距离;若最小距离小于对应的阈值,确认演练用户与事故主体存在碰撞。
其中,人体包围体为胶囊包围体,物体包围体为圆柱包围体、球形包围体、胶囊包围体、立方体包围体等。具体地,参考图4,P1为圆柱包围体,可以近似演练事故主体火灾等;P2为球形包围体,可以近似演练事故主体天车挂钩等; P3为胶囊包围体,可以近似演练事故主体灭火器,乙炔瓶等;P4为立方体包围体,可以近似演练事故主体电气设备箱、铁轨、机车等。需要说明的是,每种包围体近似演练的事故主体不止上述列举的事故主体,还可以包括其他,具体本申请不做限定。此外,若最小距离大于或等于对应的阈值,则确认演练用户与事故主体不存在碰撞。
具体实现中,当演练用户在虚拟演练场景中接近事故主体,为了便于判断演练用户与事故主体是否存在碰撞,处理器根据在虚拟演练场景中的演练用户生成对应的胶囊包围体,根据事故主体生成对应的物体包围体,比如圆柱包围体、球形包围体、胶囊包围体、立方体包围体等;通过检测胶囊包围体与其他包围体之间的最小距离来检测演练用户在虚拟演练场景中与事故主体之间是否发生了碰撞。具体实现方式如下:
如图5(a)所示,在物体包围体为圆柱包围体的情况下,l1为胶囊包围体的中心线段,l2为圆柱包围体的中心线段,D为圆柱包围体的中心线段到胶囊包围体的中心线段之间的最小距离,R为圆柱包围体的半径,r为胶囊包围体的半径,当D<R+r时,则检测到演练用户与事故主体发生了碰撞;当 D≥R+r时,则检测到演练用户与事故主体没有发生碰撞。
如图5(b)所示,在物体包围体为球形包围体的情况下,D为球形包围体的中心到胶囊包围体的中心线段之间的最小距离,R为球形包围体的半径,当D<R+r时,则检测到演练用户与事故主体发生了碰撞;当D≥R+r时,则检测到演练用户与事故主体没有发生碰撞。
如图5(c)所示,在物体包围体为胶囊包围体的情况下,l2为该胶囊包围体的中心线段,r2为该胶囊包围体的半径,D为该胶囊包围体的中心线段到演练用户对应的胶囊包围体的中心线段之间的最小距离,当D<r2+r时,则检测到演练用户与事故主体发生了碰撞;当D≥r2+r时,则检测到演练用户与事故主体没有发生碰撞。
如图5(d)所示,在物体包围体为立方体包围体的情况下,l2为立方体包围体的中心线段,R为立方体包围体的中心到其侧面的最小距离,D为立方体包围体的中心线段到胶囊包围体的中心线段之间的最小距离,当D<R+r时,则检测到演练用户与事故主体发生了碰撞;当D≥R+r时,则检测到演练用户与事故主体没有发生碰撞。
通过上述实施例,可以快速检测到演练用户与虚拟演练场景中的事故主体是否发生碰撞,从而判断应该为演练用户提供的引导学习内容,可使演练用户在虚拟演练场景的任意位置获得准确的学习指导,能够提高演练用户的学习效率,从而降低演练用户与虚拟演练系统交互所需的学习成本和时间,进一步提高了虚拟演练效率。
在一个实施例中,获取与事故主体关联的学习内容,包括:确认事故主体对应的事故类型;查询预设数据库,得到与事故类型对应的学习内容,作为与事故主体关联的学习内容;预设数据库存储有多个事故类型对应的学习内容。
在本实施例中,处理器基于大数据技术,预先采集多个事故类型对应的学习内容,并将多个事故类型对应的学习内容,按照事故类型分类存储至预设数据库中。具体实现中,处理器对事故主体的类型进行识别,得到事故主体对应的事故类型;根据事故类型查询预设数据库,得到对应的学习内容,并将该学习内容作为与事故主体关联的学习内容。这样,实现了为演练用户提供准确的学习内容的目的,有利于提高演练用户的学习效率,从而降低演练用户与虚拟演练系统交互所需的学习时间,进一步提高了虚拟演练效率。
在一个实施例中,在虚拟演练场景的画面之上显示所述学习内容,包括:确定当前的弹窗显示模式;在虚拟演练场景的画面之上以弹窗显示模式显示学习内容。
在本实施例中,弹窗显示模式用于标识学习内容在虚拟演练场景对应的画面的显示模式。具体实现中,处理器将与事故主体关联的学习内容,以弹窗的形式实时显示在虚拟演练场景的画面之上,便于演练用户在虚拟演练场景中及时了解对应的学习内容,从而提高了演练用户的学习效率,进一步提高了虚拟演练效率。需要说明的是,弹窗一般居中显示在虚拟演练场景对应的画面;当然,也可以根据实际情况进行调整。
在一个实施例中,在虚拟演练场景的画面之上显示学习内容之后,还包括:接收针对虚拟演练场景中显示的学习内容的触发操作指令;根据触发操作指令,控制演练用户在虚拟演练场景中执行相应的演练操作。
例如,当前的虚拟演练场景的画面之上显示的学习内容为“发现明火,请用鼠标或者手柄点击该火源迅速进行处理”,演练用户通过操控手柄,点击虚拟演练场景中的火源,生成对应的触发操作指令,处理器接收该触发操作指令,并根据该触发操作指令,控制演练用户在虚拟演练场景中,执行相应的灭火操作;此外,在演练用户成功执行相应的灭火操作之后,处理器以弹窗的形式在当前的虚拟演练场景的画面之上显示“灭火成功”。这样,实现了根据针对虚拟演练场景中显示的学习内容的触发操作指令,控制演练用户在虚拟演练场景中,执行相应的演练操作的目的,进而提高了虚拟演练过程中的互动灵活性,有利于提高虚拟演练效率。
在一个实施例中,虚拟演练场景的移动控制方法还包括:对虚拟演练场景进行监听;若监听到虚拟演练场景中发生设定事件,查找预设的事件库,得到与设定事件对应的事件类型;事件库存储有多个设定事件及对应的事件类型;查询预设的弹窗库,得到与事件类型对应的弹窗信息;弹窗库存储有多个事件类型对应的弹窗信息;在虚拟演练场景的画面之上显示弹窗信息。
其中,设定事件为火灾发生事件、碰撞发生事件、跌落发生事件、点击发生事件;事件类型用于标识设定事件对应的类型,比如火灾发生事件类型、碰撞发生事件类型等;弹窗信息是指与设定事件相关的提示信息,比如安全警告弹窗信息、操作指南弹窗信息、注意事项弹窗信息、设备说明弹窗信息等。
如图6所示,处理器中的事件监听器根据预设频率对虚拟演练场景进行监听,若监听到虚拟演练场景中发生了设定事件,则会触发响应,并将响应发送至事件触发器;事件触发器对响应进行解析,得到监听到的设定事件,根据设定事件查找预设的事件库,若在事件库中没有查找到该设定事件,则将该设定事件进行抛弃;若在事件库中查找到该设定事件,则获取与该设定事件对应的事件类型,并将事件类型发送至事件分发器;事件分发器根据事件类型查询预设的弹窗库,若在弹窗库中没有查找到对应的弹窗信息,则将该设定事件进行抛弃;若在弹窗库中查找到对应的弹窗信息,则自动激活该弹窗信息对应的弹窗,并以该弹窗的形式,在虚拟演练场景的画面之上显示对应的弹窗信息。
通过本实施例,将与虚拟演练过程中发生的设定事件相关的提示信息,以弹窗的形式自动显示在虚拟演练场景的画面之上,使演练用户在虚拟演练过程中自动获得对应的提示,避免了在虚拟演练过程中获得提示不够的缺陷,从而降低了演练用户与虚拟演练系统交互所需的学习成本和时间,进一步提高了虚拟演练效率;同时提高了虚拟演练系统的可用性。
在一个最具体的实施例中,如图7所示,提供了另一种虚拟演练场景中的移动控制方法,应用于铁路货车事故虚拟演练场景中,具体包括以下步骤:
步骤S701,获取演练用户在现实场景中的腿部位移信息,根据腿部位移信息确定演练用户在虚拟演练场景中的移动速度值;腿部位移信息根据佩戴在演练用户的腿部的位置跟踪器采集得到。
步骤S702,获取演练用户在现实场景中的手部方向信息,根据手部方向信息确定演练用户在虚拟演练场景中的移动方向值;手部方向信息由演练用户手持的控制机构采集得到。
步骤S703,根据移动速度值以及移动方向值,控制演练用户在虚拟演练场景中的移动。
步骤S704,检测演练用户在虚拟演练场景中与事故主体是否存在碰撞;若演练用户与事故主体存在碰撞,获取与事故主体关联的学习内容;在虚拟演练场景的画面之上显示学习内容;其中虚拟演练场景为铁路货车事故虚拟演练场景;事故主体包括:火灾、天车挂钩、灭火器、乙炔瓶、电气设备箱、铁轨、机车中的至少一种。
步骤S705,接收针对虚拟演练场景中显示的学习内容的触发操作指令;根据触发操作指令,控制演练用户在虚拟场景中执行相应的演练操作。
步骤S706,对虚拟演练场景进行监听;若监听到虚拟演练场景中发生设定事件,查找预设的事件库,得到与设定事件对应的事件类型;事件库存储有多个设定事件及对应的事件类型;查询预设的弹窗库,得到与事件类型对应的弹窗信息;弹窗库存储有多个事件类型对应的弹窗信息;在虚拟演练场景的画面之上显示弹窗信息。
在本实施例中,以穿戴智能设备的虚拟漫游式智能互动教学为主要培训方式,在虚拟演练场景中建立整个事故场景,而演练用户可以通过智能设备置身于虚拟演练场景中,并跟随教学流程,逐步学习、实践;实现了通过演练用户在现实场景中的腿部运动以及手部运动,控制演练用户在虚拟演练场景中的连续自然移动,可以让演练用户体验到真实的行走方式,避免了演练用户在现实场景中并未真实地移动而造成严重的眩晕感,从而提高了演练用户在虚拟现实的沉浸感,进而提高了虚拟演练过程中的互动灵活性,有利于提高虚拟演练效率。同时,通过位置绑定的引导学习方式,避免了现有的一步接着一步的向导式学习方式,无法适应三维环境下高沉浸感和高临场感的学习方式的缺陷,进一步提高了虚拟演练效率。并且,将与虚拟演练过程中发生的设定事件相关的提示信息,以弹窗的形式自动显示在虚拟演练场景的画面之上,使演练用户在虚拟演练过程中自动获得对应的提示,避免了在虚拟演练过程中获得提示不够的缺陷,从而降低了演练用户与虚拟演练系统交互所需的学习成本和时间,进一步提高了虚拟演练效率。
应该理解的是,虽然图2、7的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,2、7中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图8所示,提供了一种虚拟演练场景中的移动控制装置,包括:速度值确定模块810、方向值确定模块820和移动控制模块830,其中:
速度值确定模块810,用于获取演练用户在现实场景中的腿部位移信息,根据腿部位移信息确定演练用户在虚拟演练场景中的移动速度值;腿部位移信息根据佩戴在演练用户的腿部的位置跟踪器采集得到。
方向值确定模块820,用于获取演练用户在现实场景中的手部方向信息,根据手部方向信息确定演练用户在虚拟演练场景中的移动方向值;手部方向信息由演练用户手持的控制机构采集得到。
移动控制模块830,用于根据移动速度值以及移动方向值,控制演练用户在虚拟演练场景中的移动。
在一个实施例中,腿部位移信息包括腿部当前时刻的位置信息以及前一时刻的位置信息;速度值确定模块还用于根据腿部当前时刻的位置信息以及前一时刻的位置信息,计算在时间间隔内,演练用户在现实场景中的腿部挥动距离值;时间间隔由当前时刻以及前一时刻之差确定;根据时间间隔以及腿部挥动距离值,计算演练用户在虚拟演练场景中的移动速度值。
在一个实施例中,控制机构包括左手控制机构以及右手控制机构;方向值确定模块还用于获取左手控制机构移动的方向向量信息以及右手控制机构移动的方向向量信息,作为演练用户在现实场景中的手部方向信息。
在一个实施例中,方向值确定模块还用于将左手控制机构移动的方向向量信息以及右手控制机构移动的方向向量信息进行相加,得到演练用户在虚拟演练场景中的移动方向值。
在一个实施例中,移动控制模块还用于根据移动速度值以及移动方向值,确定演练用户在虚拟演练场景中的移动速度向量;根据移动速度向量,控制演练用户在所述虚拟演练场景中的移动。
在一个实施例中,虚拟演练场景中的移动控制装置还包括内容显示模块,用于移动控制模块控制演练用户在虚拟演练场景中的移动之后,检测演练用户在虚拟演练场景中与事故主体是否存在碰撞;其中,虚拟演练场景为铁路货车事故虚拟演练场景;事故主体包括:火灾、天车挂钩、灭火器、乙炔瓶、电气设备箱、铁轨、机车中的至少一种;若演练用户与事故主体存在碰撞,获取与事故主体关联的学习内容;在虚拟演练场景的画面之上显示学习内容。
在一个实施例中,内容显示模块还用于根据在虚拟演练场景中的演练用户生成对应的人体包围体;根据虚拟演练场景中的事故主体生成对应的物体包围体;计算人体包围体的中心线段与物体包围体的中心或中心线段之间的最小距离;若最小距离小于对应的阈值,确认演练用户与事故主体存在碰撞。
在一个实施例中,内容显示模块还用于确认事故主体对应的事故类型;查询预设数据库,得到与事故类型对应的学习内容,作为与事故主体关联的学习内容;预设数据库存储有多个事故类型对应的学习内容。
在一个实施例中,内容显示模块还用于确定当前的弹窗显示模式;在虚拟演练场景的画面之上以弹窗显示模式显示学习内容。
在一个实施例中,虚拟演练场景中的移动控制装置还包括操作执行模块,用于内容显示模块在虚拟演练场景的画面之上显示学习内容之后,接收针对虚拟演练场景中显示的学习内容的触发操作指令;根据触发操作指令,控制演练用户在虚拟演练场景中执行相应的演练操作。
在一个实施例中,虚拟演练场景中的移动控制装置还包括事件监听模块,用于对虚拟演练场景进行监听;若监听到虚拟演练场景中发生设定事件,查找预设的事件库,得到与设定事件对应的事件类型;事件库存储有多个设定事件及对应的事件类型;查询预设的弹窗库,得到与事件类型对应的弹窗信息;弹窗库存储有多个事件类型对应的弹窗信息;在虚拟演练场景的画面之上显示弹窗信息。
上述各个实施例,虚拟演练场景中的移动控制装置根据演练用户在现实场景中的腿部位移信息以及手部方向信息,确定演练用户在所述虚拟演练场景中的移动速度值以及移动方向值,并根据移动速度值以及移动方向值控制演练用户在虚拟演练场景中的移动;通过演练用户在现实场景中的腿部运动以及手部运动,控制演练用户在虚拟演练场景中的连续自然移动,可以让演练用户体验到真实的行走方式,避免了演练用户在现实场景中并未真实地移动而造成严重的眩晕感,从而提高了演练用户在虚拟现实的沉浸感,进而提高了虚拟演练过程中的互动灵活性,有利于提高虚拟演练效率。
关于虚拟演练场景中的移动控制装置的具体限定可以参见上文中对于虚拟演练场景中的移动控制方法的限定,在此不再赘述。上述虚拟演练场景中的移动控制装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,如图1所示,提供了一种虚拟演练系统,包括:处理器 110、位置跟踪器120(比如120a、120b)、控制机构130(比如130a、130b) 以及显示装置140;处理器110与位置跟踪器120、控制机构130以及显示装置 140分别通信连接,可以是有线连接或者无线连接;
位置跟踪器120佩戴在演练用户的腿部(可以是小腿上的任意一个位置),用于采集演练用户在现实场景(比如原地)中的腿部位移信息,并将采集到的腿部位移信息发送至处理器110;
控制机构130(比如手柄)供演练用户手持,用于采集演练用户在现实场景中的手部方向信息,并将采集到的手部方向信息发送至处理器110;
处理器110用于实现本申请任意实施例的虚拟演练场景中的移动控制方法的步骤;
显示装置140(比如显示屏)用于显示虚拟演练场景的画面,供演练用户通过佩戴头戴显示装置(比如VR眼镜)查看。
上述虚拟演练系统,通过演练用户在现实场景中的腿部运动以及手部运动,控制演练用户在虚拟演练场景中的连续自然移动,可以让演练用户体验到真实的行走方式,避免了演练用户在现实场景中并未真实地移动而造成严重的眩晕感,从而提高了演练用户在虚拟现实的沉浸感,进而提高了虚拟演练过程中的互动灵活性,有利于提高虚拟演练效率。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图9所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储演练用户在预设实际位置中的腿部位移信息以及手部方向信息。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种虚拟演练场景中的移动控制方法。
本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取演练用户在现实场景中的腿部位移信息,根据腿部位移信息确定演练用户在虚拟演练场景中的移动速度值;腿部位移信息根据佩戴在演练用户的腿部的位置跟踪器采集得到;
获取演练用户在现实场景中的手部方向信息,根据手部方向信息确定演练用户在虚拟演练场景中的移动方向值;手部方向信息由演练用户手持的控制机构采集得到;
根据移动速度值以及移动方向值,控制演练用户在虚拟演练场景中的移动。
上述实施例,计算机设备通过处理器上运行的计算机程序,实现了通过演练用户在现实场景中的腿部运动以及手部运动,控制演练用户在虚拟演练场景中的连续自然移动的目的,可以让演练用户体验到真实的行走方式,避免了演练用户在现实场景中并未真实地移动而造成严重的眩晕感,从而提高了演练用户在虚拟现实的沉浸感,进而提高了虚拟演练过程中的互动灵活性,有利于提高虚拟演练效率。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取演练用户在现实场景中的腿部位移信息,根据腿部位移信息确定演练用户在虚拟演练场景中的移动速度值;腿部位移信息根据佩戴在演练用户的腿部的位置跟踪器采集得到;
获取演练用户在现实场景中的手部方向信息,根据手部方向信息确定演练用户在虚拟演练场景中的移动方向值;手部方向信息由演练用户手持的控制机构采集得到;
根据移动速度值以及移动方向值,控制演练用户在虚拟演练场景中的移动。
上述实施例,计算机可读存储介质通过其存储的计算机程序,实现了通过演练用户在现实场景中的腿部运动以及手部运动,控制演练用户在虚拟演练场景中的连续自然移动的目的,可以让演练用户体验到真实的行走方式,避免了演练用户在现实场景中并未真实地移动而造成严重的眩晕感,从而提高了演练用户在虚拟现实的沉浸感,进而提高了虚拟演练过程中的互动灵活性,有利于提高虚拟演练效率。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM (EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM (SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM (DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种虚拟演练场景中的移动控制方法,所述方法包括:
获取演练用户在现实场景中的腿部位移信息,根据所述腿部位移信息确定所述演练用户在虚拟演练场景中的移动速度值;所述腿部位移信息根据佩戴在所述演练用户的腿部的位置跟踪器采集得到,所述腿部位移信息包括腿部当前时刻的位置信息以及前一时刻的位置信息;所述根据所述腿部位移信息确定所述演练用户在虚拟演练场景中的移动速度值,包括:根据所述腿部当前时刻的位置信息以及前一时刻的位置信息,计算在时间间隔内,所述演练用户在所述现实场景中的腿部挥动距离值;
获取所述演练用户在所述现实场景中的手部方向信息,根据所述手部方向信息确定所述演练用户在所述虚拟演练场景中的移动方向值;所述手部方向信息由所述演练用户手持的控制机构采集得到;
根据所述移动速度值以及所述移动方向值,确定所述演练用户在所述虚拟演练场景中的移动速度向量,根据所述移动速度向量,控制所述演练用户在所述虚拟演练场景中的移动,或根据所述腿部挥动距离值以及所述移动方向值,确定所述演练用户在所述虚拟演练场景中的位移向量,根据所述位移向量,控制所述演练用户在所述虚拟演练场景中的移动;
检测所述演练用户在所述虚拟演练场景中与事故主体是否存在碰撞,若所述演练用户与事故主体存在碰撞,获取与所述事故主体关联的学习内容,并在所述虚拟演练场景的画面之上显示所述学习内容。
2.根据权利要求1所述的方法,其特征在于,所述时间间隔由所述当前时刻以及前一时刻之差确定;所述根据所述腿部位移信息确定所述演练用户在虚拟演练场景中的移动速度值,还包括:
根据所述时间间隔以及所述腿部挥动距离值,计算所述演练用户在所述虚拟演练场景中的移动速度值。
3.根据权利要求1所述的方法,其特征在于,所述控制机构包括左手控制机构以及右手控制机构;
所述获取所述演练用户在所述现实场景中的手部方向信息,包括:
获取左手控制机构移动的方向向量信息以及右手控制机构移动的方向向量信息,作为所述演练用户在所述现实场景中的手部方向信息;
所述根据所述手部方向信息确定所述演练用户在所述虚拟演练场景中的移动方向值,包括:
将所述左手控制机构移动的方向向量信息以及右手控制机构移动的方向向量信息进行相加,得到所述演练用户在所述虚拟演练场景中的移动方向值。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述虚拟演练场景为铁路货车事故虚拟演练场景;所述事故主体包括:火灾、天车挂钩、灭火器、乙炔瓶、电气设备箱、铁轨、机车中的至少一种。
5.根据权利要求4所述的方法,其特征在于,所述获取与所述事故主体关联的学习内容,包括:
确认所述事故主体对应的事故类型;
查询预设数据库,得到与所述事故类型对应的学习内容,作为与所述事故主体关联的学习内容;所述预设数据库存储有多个事故类型对应的学习内容。
6.根据权利要求4所述的方法,其特征在于,所述在所述虚拟演练场景的画面之上显示所述学习内容,包括:
确定当前的弹窗显示模式;
在所述虚拟演练场景的画面之上以所述弹窗显示模式显示所述学习内容;
在所述虚拟演练场景的画面之上显示所述学习内容之后,还包括:
接收针对所述虚拟演练场景中显示的学习内容的触发操作指令;
根据所述触发操作指令,控制所述演练用户在所述虚拟演练场景中执行相应的演练操作。
7.根据权利要求1至3任一项所述的方法,其特征在于,所述方法还包括:
对所述虚拟演练场景进行监听;
若监听到所述虚拟演练场景中发生设定事件,查找预设的事件库,得到与所述设定事件对应的事件类型;所述事件库存储有多个设定事件及对应的事件类型;
查询预设的弹窗库,得到与所述事件类型对应的弹窗信息;所述弹窗库存储有多个事件类型对应的弹窗信息;
在所述虚拟演练场景的画面之上显示所述弹窗信息。
8.一种虚拟演练场景中的移动控制装置,其特征在于,所述装置包括:
速度值确定模块,用于获取演练用户在现实场景中的腿部位移信息,根据所述腿部位移信息确定所述演练用户在虚拟演练场景中的移动速度值;所述腿部位移信息根据佩戴在所述演练用户的腿部的位置跟踪器采集得到,所述腿部位移信息包括腿部当前时刻的位置信息以及前一时刻的位置信息;所述根据所述腿部位移信息确定所述演练用户在虚拟演练场景中的移动速度值,包括:根据所述腿部当前时刻的位置信息以及前一时刻的位置信息,计算在时间间隔内,所述演练用户在所述现实场景中的腿部挥动距离值;
方向值确定模块,用于获取所述演练用户在所述现实场景中的手部方向信息,根据所述手部方向信息确定所述演练用户在所述虚拟演练场景中的移动方向值;所述手部方向信息由所述演练用户手持的控制机构采集得到;
移动控制模块,用于根据所述移动速度值以及所述移动方向值,确定所述演练用户在所述虚拟演练场景中的移动速度向量,根据所述移动速度向量,控制所述演练用户在所述虚拟演练场景中的移动,或根据所述腿部挥动距离值以及所述移动方向值,确定所述演练用户在所述虚拟演练场景中的位移向量,根据所述位移向量,控制所述演练用户在所述虚拟演练场景中的移动;
内容显示模块,用于检测所述演练用户在所述虚拟演练场景中与事故主体是否存在碰撞,若所述演练用户与事故主体存在碰撞,获取与所述事故主体关联的学习内容,并在所述虚拟演练场景的画面之上显示所述学习内容。
9.一种虚拟演练系统,其特征在于,包括处理器、位置跟踪器、控制机构以及显示装置;所述处理器与所述位置跟踪器、所述控制机构以及所述显示装置分别通信连接;
所述位置跟踪器佩戴在演练用户的腿部,用于采集所述演练用户在现实场景中的腿部位移信息,并将采集到的所述腿部位移信息发送至所述处理器;
所述控制机构供所述演练用户手持,用于采集所述演练用户在所述现实场景中的手部方向信息,并将采集到的手部方向信息发送至所述处理器;
所述处理器,用于执行权利要求1至7中任一项所述方法的步骤;
所述显示装置,用于显示虚拟演练场景的画面。
10.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910352866.1A CN110109542B (zh) | 2019-04-29 | 2019-04-29 | 虚拟演练场景中的移动控制方法、装置和虚拟演练系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910352866.1A CN110109542B (zh) | 2019-04-29 | 2019-04-29 | 虚拟演练场景中的移动控制方法、装置和虚拟演练系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110109542A CN110109542A (zh) | 2019-08-09 |
CN110109542B true CN110109542B (zh) | 2022-09-16 |
Family
ID=67487331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910352866.1A Active CN110109542B (zh) | 2019-04-29 | 2019-04-29 | 虚拟演练场景中的移动控制方法、装置和虚拟演练系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110109542B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112000228B (zh) * | 2020-09-04 | 2024-04-05 | 河北大学 | 一种沉浸式虚拟现实中控制移动的方法及系统 |
CN112331004A (zh) * | 2020-09-30 | 2021-02-05 | 核动力运行研究所 | 核电厂全运行值培训考核系统 |
CN115691255B (zh) * | 2022-10-27 | 2024-05-07 | 新疆原行网智慧文旅有限公司 | 一种vr虚拟旅游观景方法 |
WO2024131842A1 (zh) * | 2022-12-22 | 2024-06-27 | 北京字跳网络技术有限公司 | 虚拟角色的控制方法、装置、设备、介质及其程序产品 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3067783A1 (en) * | 2015-03-11 | 2016-09-14 | ETH Zurich | Method and system to track human locomotion by relative positional tracking of body parts of the human |
WO2017024177A1 (en) * | 2015-08-04 | 2017-02-09 | Board Of Regents Of The Nevada System Of Higher Education,On Behalf Of The University Of Nevada,Reno | Immersive virtual reality locomotion using head-mounted motion sensors |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9067097B2 (en) * | 2009-04-10 | 2015-06-30 | Sovoz, Inc. | Virtual locomotion controller apparatus and methods |
US10145687B2 (en) * | 2016-07-29 | 2018-12-04 | Bionic Power Inc. | Method and system for personal dead-reckoning drift compensation using gait characteristics |
CN106530887B (zh) * | 2016-12-29 | 2020-01-21 | 湖南汇博电子科技股份有限公司 | 模拟火灾现场逃生方法及装置 |
CN108665754A (zh) * | 2017-03-31 | 2018-10-16 | 深圳市掌网科技股份有限公司 | 基于虚拟现实的户外安全演练方法及系统 |
CN107198879B (zh) * | 2017-04-20 | 2020-07-03 | 网易(杭州)网络有限公司 | 虚拟现实场景中的移动控制方法、装置及终端设备 |
CN107024994A (zh) * | 2017-05-24 | 2017-08-08 | 西安热工研究院有限公司 | 一种核电vr影像仿真系统和方法 |
US10751561B2 (en) * | 2017-05-30 | 2020-08-25 | West Virginia University | Systems and methods for controlling a self-paced treadmill using predicted subject velocity |
CN107862930B (zh) * | 2017-12-01 | 2021-01-01 | 大唐国信滨海海上风力发电有限公司 | 一种海上风电厂运维培训考核系统及其风险评估方法 |
CN108180782A (zh) * | 2017-12-28 | 2018-06-19 | 郑州巍瀚信息科技有限公司 | 一种基于虚拟现实的单兵训练系统 |
CN108876046B (zh) * | 2018-06-26 | 2021-09-21 | 石家庄微泽科技有限公司 | 沉浸式虚拟现实灾害求生救援的最优路径选择系统 |
CN109407959B (zh) * | 2018-10-31 | 2020-11-10 | 腾讯科技(深圳)有限公司 | 虚拟场景中的虚拟对象控制方法、设备以及存储介质 |
-
2019
- 2019-04-29 CN CN201910352866.1A patent/CN110109542B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3067783A1 (en) * | 2015-03-11 | 2016-09-14 | ETH Zurich | Method and system to track human locomotion by relative positional tracking of body parts of the human |
WO2017024177A1 (en) * | 2015-08-04 | 2017-02-09 | Board Of Regents Of The Nevada System Of Higher Education,On Behalf Of The University Of Nevada,Reno | Immersive virtual reality locomotion using head-mounted motion sensors |
Non-Patent Citations (2)
Title |
---|
Building Virtual Entertainment Environment with Tiled Display Wall and Motion Tracking;Liangjie Zhang 等;《 2011 International Conference on Virtual Reality and Visualization》;20111201;第283-286页 * |
光学运动捕捉散乱数据处理的一种方法;肖伯祥 等;《系统仿真学报》;20080131;第20卷(第2期);第382-385页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110109542A (zh) | 2019-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110109542B (zh) | 虚拟演练场景中的移动控制方法、装置和虚拟演练系统 | |
JP6744679B2 (ja) | ヒューマンマシンハイブリッド意思決定方法および装置 | |
CN106660208B (zh) | 用于机器人装置的虚拟安全罩 | |
US10303824B2 (en) | Apparatus and method for simulation of dismantling operation of nuclear facility | |
JP6261073B2 (ja) | 救助訓練システム | |
Teixeira et al. | Teleoperation using google glass and ar, drone for structural inspection | |
CN112965466A (zh) | 自动驾驶系统的还原测试方法、装置、设备及程序产品 | |
CN103716324B (zh) | 一种基于多智能体虚拟矿井风险行为实现系统及方法 | |
CN106682572A (zh) | 目标跟踪方法、系统和第一电子设备 | |
US10769855B2 (en) | Personnel movement simulation and control | |
US20190329411A1 (en) | Simulation device for robot | |
WO2015009887A1 (en) | Systems and methods for virtual environment conflict nullification | |
CN108765872B (zh) | 一种受困对象环境参数的推测方法、系统和智能穿戴设备 | |
CN110641468A (zh) | 基于乘客行为控制自主车辆 | |
CN112489425A (zh) | 车辆防撞预警方法、装置、车载终端设备和存储介质 | |
CN111906778A (zh) | 基于多重感知的机器人安全控制方法及装置 | |
CN109878512A (zh) | 自动驾驶控制方法、装置、设备及计算机可读存储介质 | |
CN111346326A (zh) | 机器人协同处理方法、系统、电子设备及可读介质 | |
CN111598273B (zh) | 一种基于vr技术的环控生保系统维修性检测方法及装置 | |
US11900257B2 (en) | Method for representing an environment of a mobile platform | |
CN113077489B (zh) | 一种行人轨迹预测方法、装置、设备及储存介质 | |
CN113312397A (zh) | 轨道交通全自动运行模拟方法及其系统、介质及电子设备 | |
CN112991544A (zh) | 一种基于全景影像建模的群体疏散行为仿真方法 | |
CN112018657A (zh) | 输电线路带电作业安全防护系统及其方法 | |
CN108268050A (zh) | 运动控制装置、头戴显示设备、无人机和飞行系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 419, block C, Shenhua building, 16 ande Road, Dongcheng District, Beijing, 100010 Applicant after: Shenhua Railway Equipment Co.,Ltd. Address before: 100010 Shenhua Building, 16 Ander Road, Dongcheng District, Beijing, 17 Floors, Block C Applicant before: SHENHUA RAIL AND FREIGHT WAGONS TRANSPORT Co.,Ltd. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |