CN111179679B - 射击训练方法、装置、终端设备及存储介质 - Google Patents

射击训练方法、装置、终端设备及存储介质 Download PDF

Info

Publication number
CN111179679B
CN111179679B CN201911412888.9A CN201911412888A CN111179679B CN 111179679 B CN111179679 B CN 111179679B CN 201911412888 A CN201911412888 A CN 201911412888A CN 111179679 B CN111179679 B CN 111179679B
Authority
CN
China
Prior art keywords
virtual
shooting
training
scene
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911412888.9A
Other languages
English (en)
Other versions
CN111179679A (zh
Inventor
吴宜群
贺杰
戴景文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Virtual Reality Technology Co Ltd
Original Assignee
Guangdong Virtual Reality Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Virtual Reality Technology Co Ltd filed Critical Guangdong Virtual Reality Technology Co Ltd
Priority to CN201911412888.9A priority Critical patent/CN111179679B/zh
Publication of CN111179679A publication Critical patent/CN111179679A/zh
Application granted granted Critical
Publication of CN111179679B publication Critical patent/CN111179679B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/003Simulators for teaching or training purposes for military purposes and tactics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种基于增强现实的射击训练方法、装置、终端设备及存储介质,涉及显示技术领域。该基于增强现实的射击训练方法应用于终端设备,终端设备与交互设备通信连接,方法包括:显示用于训练交互设备的虚拟的射击目标;获取交互设备相对终端设备的位置及姿态信息;接收交互设备检测到的操控操作对应的操作数据;根据操作数据以及位置及姿态信息,确定交互设备对应的虚拟射击轨迹;根据虚拟射击轨迹与射击目标在虚拟空间中的空间位置关系,生成虚拟的训练反馈内容。本方法通过增强现实技术以及具有远程武器的外形和结构的交互设备,来模拟实弹射击训练,提高了射击训练的真实感。

Description

射击训练方法、装置、终端设备及存储介质
技术领域
本申请涉及计算机技术领域,更具体地,涉及一种基于增强现实的射击训练方法、装置、终端设备及存储介质。
背景技术
目前的射击训练通常是在靶场上采用真实的远程武器(枪支、弓箭等)射击固定或运动方式单一的靶标,训练场地要求、组织实施费用较高,且训练内容单一。而如果单纯以多媒体课件的形式介绍射击训练要求,又会缺少训练环境的支撑,无法模拟实战,训练效果也会受到限制。故如何利用有限的资源模拟出实战的射击环境是亟待解决的问题。
发明内容
本申请实施例提出了一种基于增强现实的射击训练方法、装置、终端设备及存储介质,可以利用增强现实技术来实现的实战射击环境的模拟,以提高用户真实的射击能力。
第一方面,本申请实施例提供了一种基于增强现实的射击训练方法,应用于终端设备,终端设备与交互设备通信连接,方法包括:显示用于训练交互设备的虚拟的射击目标;获取交互设备相对终端设备的位置及姿态信息;接收交互设备检测到的操控操作对应的操作数据;根据操作数据以及位置及姿态信息,确定交互设备对应的虚拟射击轨迹;根据虚拟射击轨迹与射击目标在虚拟空间中的空间位置关系,生成虚拟的训练反馈内容。
第二方面,本申请实施例提供了一种基于增强现实的射击训练装置,应用于终端设备,终端设备与交互设备通信连接,装置包括:目标显示模块、信息获取模块、操作接收模块、轨迹确定模块以及反馈生成模块。其中,目标显示模块用于显示用于训练交互设备的虚拟的射击目标;信息获取模块用于获取交互设备相对终端设备的位置及姿态信息;操作接收模块用于接收交互设备检测到的操控操作对应的操作数据;轨迹确定模块用于根据操作数据以及位置及姿态信息,确定交互设备对应的虚拟射击轨迹;反馈生成模块用于根据射击轨迹与射击目标在虚拟空间中的空间位置关系,生成虚拟的训练反馈内容。
第三方面,本申请实施例提供了一种终端设备,包括:一个或多个处理器;存储器;一个或多个应用程序,其中一个或多个应用程序被存储在存储器中并被配置为由一个或多个处理器执行,一个或多个应用程序配置用于执行上述第一方面提供的基于增强现实的射击训练方法。
第四方面,本申请实施例提供了一种计算机可读取存储介质,计算机可读取存储介质中存储有程序代码,程序代码可被处理器调用执行上述第一方面提供的基于增强现实的射击训练方法。
本申请实施例提供的方案,通过显示用于训练交互设备的虚拟的射击目标,获取交互设备相对终端设备的位置及姿态信息,接收交互设备检测到的操控操作对应的操作数据,然后根据操作数据以及位置及姿态信息,确定交互设备对应的虚拟射击轨迹,从而根据该虚拟射击轨迹与射击目标在虚拟空间中的空间位置关系,生成虚拟的训练反馈内容。本申请通过增强现实技术来模拟射击训练的射击情况和射击反馈,提高了射击训练的真实感的同时,也提高了用户真实的射击能力。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了一种适用于本申请实施例的应用环境示意图;
图2示出了本申请一个实施例提供的基于增强现实的射击训练方法的流程图;
图3示出了本申请实施例的一种显示效果示意图;
图4示出了本申请另一个实施例提供的基于增强现实的射击训练方法的流程图;
图5示出了本申请另一个实施例提供的基于增强现实的射击训练方法中步骤S210的流程图;
图6示出了本申请另一个实施例提供的基于增强现实的射击训练方法中步骤S212的一种流程图;
图7示出了本申请另一个实施例提供的基于增强现实的射击训练方法中步骤S212的另一种流程图;
图8示出了本申请另一个实施例提供的基于增强现实的射击训练方法中步骤S212的又一种流程图;
图9示出了本申请又一个实施例提供的基于增强现实的射击训练方法的流程图;
图10示出了本申请又一个实施例提供的基于增强现实的射击训练方法中步骤S350的一种流程图;
图11示出了本申请一个实施例提供的基于增强现实的射击训练装置的框图;
图12是本申请实施例的用于执行根据本申请实施例的基于增强现实的射击训练方法的终端设备的框图;
图13是本申请实施例的用于保存或者携带实现根据本申请实施例的基于增强现实的射击训练方法的程序代码的存储单元。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
目前,警用人员或专业人员在使用真实的远程武器(枪支、弓箭等)之前,都会进行射击训练。然而真实的远程武器射击时,即使在射击前已瞄准目标,但由于环境、训练人员、远程武器的后坐力等因素,最终也不一定能准确命中目标。且对于枪支射击训练而言,现有的射击训练因为安全性原因,无法模拟复杂实战情况,因此只能射击静止或移动靶子。即使进行了模拟实战,对训练人员的衣着穿戴也有限制,训练人员无法穿着便装训练,且对训练场地环境也同样有限制。故如何利用有限的资源模拟出实战的射击环境是亟待解决的问题。
发明人经过研究,提出了本申请实施例中的基于增强现实的射击训练方法、装置、终端设备及存储介质,通过增强现实技术可以模拟出实战的实际环境,提高用户的实战射击能力。
下面对本申请实施例提供的基于增强现实的射击训练方法的一种应用场景进行介绍。
请参见图1,本申请实施例提供的一种显示系统,包括终端设备100以及交互设备200。
在一些实施例中,终端设备100为头戴显示装置,例如,为一体式头戴显示装置,或与外置电子设备连接的头戴显示装置。终端设备100也可为与外接式/接入式头戴显示装置连接的手机等智能终端,即终端设备100可作为头戴显示装置的处理和存储设备,插入或者接入外接式头戴显示装置,通过头戴显示装置显示虚拟内容300。
其中,虚拟内容300可以是虚拟界面,也可以是虚拟界面中的窗口,或者是虚拟界面中的某些虚拟物体,而虚拟物体可以是虚拟人物或者是与虚拟人物适配的某些虚拟道具,此处不作限定。
在一些实施例中,用户可通过手持交互设备200与终端设备100显示的虚拟内容300进行交互。其中,交互设备200可以是具有真实的远程武器的外形、结构、重量等属性的模型武器,而远程武器可以是枪支、弓弩等威力大、射程远的武器,此处不作限定。
在一些实施例中,交互设备200上可以设有至少一个交互区域,用户可以通过交互区域对虚拟内容300进行相关控制和交互。其中,交互区域可以是物理按键,也可以是触控板,且触控板下设有压力传感器,此处不作限定。作为一种方式,当交互设备200为与真枪的外形、结构、重量都相似的模型枪支时,可在模型枪支的扳机处对应连接有传感器,从而按下扳机的操作会反馈到终端设备100,使得虚拟内容300根据反馈的信息进行显示。例如,显示的虚拟内容300可以是击倒后的虚拟人物。
在一些实施例中,交互设备200上可设置有标记物,设置于交互设备200上的标记物的数量并不限定,标记物的数量可以为一个或者多个。在使用终端设备100与交互设备200时,可使标记物位于终端设备100上的图像传感器的视觉范围内,以采集到包含标记物的图像,进而通过识别采集到的包含标记物的图像对标记物进行识别追踪,得到标记物相对终端设备100的位置、姿态等空间位置信息,以及标记物的身份信息等识别结果,进而得到交互设备200相对终端设备100的位置、姿态等空间位置信息,即获取到交互设备200的六自由度信息,实现对交互设备200的定位追踪。例如。当交互设备200为与真枪的外形、结构、重量都相似的模型枪支时,可以在模型枪支的枪后座设有标记物,以便被终端设备100进行识别追踪,从而获取到模型枪支的六自由度信息。
请参阅图2,本申请实施例提供了一种基于增强现实的射击训练方法,应用于终端设备,终端设备与交互设备通信连接,交互设备设有交互区域,交互设备可具有远程武器的外形和结构,该方法可以包括:
步骤S110:显示用于训练交互设备的虚拟的射击目标。
在一些实施例中,终端设备可以显示用于训练交互设备的虚拟的射击目标,以根据该射击目标模拟实战。其中,交互设备可以是具有真实的远程武器的外形、结构、重量等属性的模型武器,从而可通过交互设备达到真实的远程武器的训练效果。其中,上述射击目标可以是虚拟靶、虚拟人物等可用于体现交互设备的射击情况的虚拟物体,此处并不对具体的射击目标进行限定。例如,请参阅图1,交互设备200为模型枪支,虚拟内容300为虚拟角色时,用于训练模型枪支的虚拟的射击目标可以是该虚拟角色。
在一些实施例中,终端设备在对虚拟的射击目标进行显示时,可以获取待显示的射击目标的内容数据,以根据该内容数据构建虚拟的射击目标,并根据预设的虚拟的射击目标在现实空间中的显示位置,进行虚拟的射击目标的渲染生成。其中,该内容数据可包括待显示的射击目标的模型数据,模型数据为用于渲染射击目标的数据。例如,模型数据可以包括用于建立射击目标对应的颜色数据、顶点坐标数据、轮廓数据等。其中,待显示的射击目标的模型数据可以存储于终端设备中,也可以从服务器或其他电子设备获取。
在一些实施例中,终端设备构建并渲染出虚拟的射击目标后,可以将渲染后的射击目标转化为显示画面,并获取相应的显示数据,该显示数据可以包括显示画面中各个像素点的RGB值及对应的像素点坐标等。终端设备可根据该显示数据生成显示画面,并将显示画面通过显示屏或投射模组投射到显示镜片上,从而显示出虚拟的射击目标。训练人员通过头戴显示装置的显示镜片,可以看到虚拟的三维立体的射击目标叠加显示于真实世界中,实现增强现实的效果。
在一些实施例中,为了提高模拟真实感,终端设备也可以显示用于训练交互设备的虚拟场景。其中,虚拟场景可以是虚拟野外场景,以提高虚拟人员在野外的射击能力,也可以是模拟各种天气的场景,如起风场景、下雨场景、起雾场景等,还可以是伏击对抗场景、人质解救场景等,此处不作限定。例如,为了提高虚拟场景的真实感,终端设备也可以显示包含有各种虚拟障碍物、虚拟房屋、虚拟街道等的可模拟真实环境的虚拟环境。
步骤S120:获取交互设备相对终端设备的位置及姿态信息。
在一些实施例中,终端设备可以实时获取交互设备相对终端设备的位置及姿态信息,以对交互设备的空间位置进行定位追踪。其中,姿态信息可包括交互设备相对终端设备的旋转方向及旋转角度等。
在一些实施例中,交互设备上可设置有标记物,如在模拟枪支的枪后座设置标记物。其中,标记物可以为具有拓扑结构的图案,拓扑结构是指标记物中的子标记物和特征点等之间连通关系。因此,在需要获取交互设备相对终端设备的位置及姿态信息时,终端设备可以通过识别交互设备上的标记物,来得到交互设备相对终端设备的位置及姿态信息。具体地,终端设备可以通过图像采集装置采集包含标记物的图像,然后对该图像中的标记物进行识别,可以得到标记物相对终端设备的空间位置信息,该空间位置信息可包括标记物相对终端设备的位置信息、旋转方向及旋转角度等。因此,终端设备可根据标记物在交互设备上的具体位置,以及标记物相对终端设备的空间位置信息,获取到交互设备相对终端设备的位置及姿态信息。在一些方式中,也可直接将标记物相对终端设备的空间位置信息作为交互设备相对终端设备的位置及姿态信息。
在一些实施方式,交互设备上可设置有光点和惯性测量单元(Inertialmeasurement unit,IMU),终端设备可以通过图像传感器采集交互设备上的光点图像,并通过惯性测量单元获取测量数据,根据该光点图像和测量数据即可确定交互设备相对终端设备的位置及姿态信息,实现对交互设备的定位及追踪。其中,交互设备上设置的光点可为可见光点或者红外光点,光点的数量可以是一个或者由多个光点组成的光点序列。
当然,具体获取交互设备相对终端设备的位置及姿态信息的方式在本申请实施例中可不作为限定。例如,终端设备也可仅通过交互设备的IMU及运动预测算法,确定交互设备当前相对终端设备的位置及姿态信息。
步骤S130:接收交互设备检测到的操控操作对应的操作数据。
在一些实施例中,交互设备检测到操控操作,可以是交互设备的交互区域检测到操控操作。其中,交互设备的交互区域可以是物理按键区域、传感器区域、触控板或者触控屏等二维触控区域,从而交互区域可以检测到用户在交互区域做出的操控操作。例如,当交互设备为与真枪的外形、结构、重量都相似的模型枪支时,交互区域可以是扳机按键,检测到操控操作可以单指按压、多指按压、长按等;当交互设备为与真实弓箭的外形、结构、重量都相似的模型弓箭时,交互区域可以是拉伸传感器区域,检测到操控操作可以拉弦、放弦等。交互设备的交互区域在检测到用户的触控操作时,交互设备可以根据交互区域检测到的操控操作,生成操作数据。其中,操作数据可以包括交互区域检测到的操控操作的操作参数。
在一些实施方式中,上述操作参数可以至少包括操控操作的类型(点击、滑动、长按、拉弦等)、手指按压压力以及触控操作的持续时间等参数。当然,具体的操作数据可以在本申请实施例中不作为限定,操作数据也可以包括其他操作参数,例如,按压操作的按压频率等。
在一些实施方式中,交互设备在根据交互区域检测到的操控操作生成操作数据后,可以将操作数据发送至终端设备。相应的,终端设备可以接收到交互设备发送的上述操作数据,以便终端设备可根据上述操作数据,确定交互设备是否被使用或者被使用的频率等。
步骤S140:根据操作数据以及位置及姿态信息,确定交互设备对应的虚拟射击轨迹。
在一些实施例中,终端设备可根据接收到的操作数据,确定交互设备射击时的时间点,从而终端设备可根据交互设备在该时间点的位置及姿态信息,确定交互设备的虚拟射击轨迹的起点,然后终端设备可根据交互设备的预设虚拟射击轨迹以及该起点,实时确定交互设备射击时的对应的虚拟射击轨迹。其中,预设射击轨迹可以是正常情况下,无外在因素影响时交互设备的射击轨迹。
在一些实施例中,上述预设虚拟射击轨迹可根据具体的交互设备预先确定,也就是说交互设备不同,对应的预设虚拟射击轨迹也不同。例如,当交互设备为与真枪的外形、结构、重量都相似的模型枪支时,射击轨迹可以是子弹的虚拟射击轨迹;当交互设备为与真实弓箭的外形、结构、重量都相似的模型弓箭时,射击轨迹可以是弓箭的虚拟射击轨迹。进一步地,当交互设备为同一类型的设备,但交互设备的型号不同时,其对应的预设虚拟射击轨迹也不同。例如,同为枪支的手枪和狙击枪,其对应的虚拟射击轨迹是不同的。
在一些实施例中,终端设备也可以根据交互设备在现实空间中的位置及姿态信息,并利用空间坐标转换,得到交互设备在虚拟空间中的空间位置,从而终端设备可根据该空间位置在虚拟空间中显示出对应的虚拟武器。其中,虚拟空间中的虚拟武器的位置及姿态,可与现实空间中的交互设备的位置及姿态保持一致。终端设备可以根据交互设备射击时的时间点,确定虚拟武器在虚拟空间中的位置及姿态,并根据该位置及姿态,确定虚拟射击轨迹的起点。终端设备可根据交互设备的预设虚拟射击轨迹以及该起点,实时确定交互设备射击时在虚拟空间中的对应的虚拟射击轨迹。
步骤S150:根据虚拟射击轨迹与射击目标在虚拟空间中的空间位置关系,生成虚拟的训练反馈内容。
在一些实施例中,终端设备可根据交互设备的虚拟射击轨迹以及射击目标在虚拟空间中的空间位置关系,生成虚拟的训练反馈内容,以使训练人员可及时获知当前的射击结果。
作为一种实施方式,终端设备可以根据虚拟射击轨迹在虚拟空间中的空间位置坐标,以及射击目标轮廓的各个顶点在虚拟空间中构成的坐标范围,确定虚拟射击轨迹的空间位置坐标是否落入该坐标范围。如果落入,可认为交互设备的虚拟射击轨迹与射击目标在虚拟空间中的空间位置发生交叉;如果未落入,可认为交互设备的虚拟射击轨迹与射击目标在虚拟空间中的空间位置未发生交叉。
在一些实施方式中,当交互设备的虚拟射击轨迹与射击目标在虚拟空间中的空间位置发生交叉时,可认为当前已成功射中射击目标,终端设备可生成成功击中的训练反馈内容,也可生成具体的击中位置的训练反馈内容,如“成功击中人物头部”,从而训练人员可根据训练反馈内容对自身的射击状态进行调整。例如,请参阅图3,交互设备200为模拟枪支,虚拟内容300为虚拟歹徒时,用户按下模拟枪支的扳机时,终端设备可确定其子弹的虚拟射击轨迹400,并根据该虚拟射击轨迹400确定是否击中虚拟歹徒。由图可见,可确定已成功击中虚拟歹徒,终端设备可生成虚拟的虚拟的训练反馈内容500,如“您已成功击中歹徒A的大腿处”。实现了枪支的实战模拟。
在一些实施方式中,当交互设备的虚拟射击轨迹与射击目标在虚拟空间中的空间位置未发生交叉时,可认为当前未射中射击目标,终端设备可生成一个击中失败的训练反馈内容,也可生成一个具体击中位置的训练反馈内容,如“击中障碍物”,从而训练人员可根据训练反馈内容对自身的射击状态进行调制。
需要说明的是,上述训练反馈内容仅为举例,在本申请实施例中并不作限定,仅需终端设备可根据射击结果生成训练反馈内容即可。
在一些实施例中,终端设备未接收到交互设备发送的操作数据时,也可以根据交互设备的位置及姿态信息,生成相应的虚拟内容。作为一种方式,当根据交互设备的位置及姿态信息,确定交互设备处于射击瞄准状态时,可生成相应的虚拟内容。该相应的虚拟内容可以包括交互设备的型号、配件信息(如子弹口径、弓箭长度等)、交互设备的姿态、环境信息、虚拟的瞄准器等。
本申请实施例提供的基于增强现实的射击训练方法中,通过显示用于训练交互设备的虚拟的射击目标,获取交互设备相对终端设备的位置及姿态信息,接收交互设备检测到的操控操作对应的操作数据,然后根据操作数据以及位置及姿态信息,确定交互设备对应的虚拟射击轨迹,从而根据该虚拟射击轨迹与射击目标在虚拟空间中的空间位置关系,生成虚拟的训练反馈内容。本申请可利用与真实的远程武器的外形和结构都相同的交互设备,通过增强现实技术来模拟射击训练的射击情况和射击反馈,提高了射击训练的真实感的同时,也提高了用户真实的射击能力。
请参阅图4,本申请另一实施例提供了一种基于增强现实的射击训练方法,应用于终端设备,该方法可以包括:步骤S210~S260。
步骤S210:显示用于训练交互设备的虚拟的射击目标。
在本申请实施例中,步骤S210可参考上述步骤S110中的相关描述,此处不再赘述。
在一些实施例中,终端设备可配置有多种训练场景,以提高训练人员在不同场景中的射击能力,提高训练效果。具体地,请参阅图5,步骤S210也可以包括:
步骤S211:获取用于训练交互设备的虚拟场景。
其中,用于训练交互设备的虚拟场景可以是单人训练场景,也可以是多人训练场景,可以是训练难度简单的场景,也可以是训练难度复杂的场景,此处不作限定。在一些实施例中,可以是训练人员根据具体的训练需求选取合适虚拟场景进行训练,也可以是从所有用于训练远程武器的虚拟场景中随机获取用于当前进行训练的场景,以提高用户的场景应变能力。
在一些实施方式中,终端设备可以从本地存储中读取到该虚拟场景,也可以是终端设备从服务器处下载该虚拟场景,还可以是终端设备从其他电子设备处获取到该虚拟场景。此处不作限定。
步骤S212:基于虚拟场景,显示与虚拟场景对应的虚拟的射击目标。
终端设备获取到上述虚拟场景后,可基于虚拟场景,显示与虚拟场景对应的虚拟的射击目标。也就是说,虚拟场景不同时,待显示的虚拟的射击目标也可能不同。因此,终端设备可根据当前获取到的用于训练的虚拟场景,确定并显示当前用于训练的射击目标。
在一些实施例中,当终端设备获取到的虚拟场景为打靶场景时,待显示的射击目标可以包括虚拟靶,训练人员可通过射击虚拟靶,获知到自身射击的准确精度。具体地,请参阅图6,步骤S212可以包括:
步骤S2121a:获取当前的训练等级。
在一些实施例中,在同一类型的虚拟场景下,终端设备也可进行不同训练等级的配置。其中,训练等级越高,训练难度越大。这样既能适应初学者需求,也能适应专业人员的需求。
在一些实施例中,进入到虚拟打靶场景时,训练人员可以自行选择训练等级,从而终端设备通过获取当前的训练等级,来确定虚拟靶的显示策略。其中,显示策略可以包括显示个数、显示时长、显示频率、移动速度、移动轨迹等,此处不作限定。当然,在一些实施例中,训练等级也可以是终端设备根据训练人员的历史训练记录自动确认,例如,当训练人员通过当前训练等级时,终端设备自动选取下一训练等级;又例如,当训练人员的历史训练效果不够好时,可为训练人员自动匹配合适的训练等级。
步骤S2122a:根据训练等级,确定虚拟靶的移动速度和移动轨迹。
终端设备在获取到用户选取的训练等级后,可根据该训练等级,确定虚拟靶的移动速度和移动轨迹。可以理解的是,训练等级越大,难度越高时,虚拟靶的移动速度可以越快,虚拟靶的移动轨迹可以越复杂,可提高训练人员的反应能力。
在一些实施例中,当前训练等级改变时,移动速度和移动轨迹可同时改变,也可以仅改变移动速度,也可以是仅改变移动轨迹,此处不作限定。根据具体的训练情况合理设置即可。
步骤S2123a:根据移动速度和移动轨迹,确定虚拟靶在虚拟场景中的第一显示位置。
在一些实施例中,可以在虚拟场景中随机选取一位置作为虚拟靶的初始显示位置,从而终端设备可根据该初始显示位置以及移动轨迹,确定虚拟靶在虚拟场景中移动时不断改变的第一显示位置,同时终端设备可根据上述确定的虚拟靶的移动速度,从确定的不断改变的第一显示位置中,实时确定虚拟靶当前在虚拟场景中的第一显示位置。
步骤S2124a:基于第一显示位置,渲染虚拟靶。
在一些实施例中,终端设备可根据打靶场景在虚拟空间中的场景渲染位置,以及虚拟靶在虚拟场景中的第一显示位置,确定虚拟靶在虚拟空间中的渲染位置,然后终端设备可根据该渲染位置,在虚拟空间的该渲染位置处渲染出虚拟靶,从而虚拟靶可在虚拟场景中的第一显示位置处显示。其中,渲染位置可用作虚拟靶的渲染坐标,以实现虚拟靶渲染于渲染位置处。作为一种方式,上述渲染坐标可以是虚拟靶在虚拟空间中以虚拟摄像头为原点(也可看作是以人眼为原点)的三维空间坐标。
在另一些实施例中,虚拟靶也可以是静止靶,可根据训练难度的增大,逐渐拉开与终端设备之间的距离。
在另一些实施例中,当交互设备为与真枪的外形、结构、重量都相似的模型枪支时,终端设备也可以在虚拟场景中对虚拟角色机械能构造,以模拟成现实中的歹徒等场景,从而训练人员可通过模型枪支实现人质解救。具体地,请参阅图7,当终端设备获取到的虚拟场景为人质解救场景时,射击目标可以包括虚拟歹徒,步骤S212也可以包括:
步骤S2121b:获取终端设备在人质解救场景中的第一位置信息。
步骤S2122b:当检测到第一位置信息处于指定区域时,获取虚拟歹徒在人质解救场景中的第二显示位置,第二显示位置与指定区域对应。
步骤S2123b:基于第二显示位置,渲染虚拟歹徒。
在一些实施例中,虚拟歹徒的显示位置和显示时间可以与终端设备的位置相关联。因此,可实时获取终端设备在人质解救场景中的第一位置信息,以根据第一位置信息,确定虚拟歹徒在人质解救场景的显示时间和显示方位。
作为一种方式,可以是当检测到终端设备的第一位置信息处于指定区域时,可以确定虚拟歹徒在人质解救场景中的第二显示位置,该第二显示位置与指定区域对应。从而终端设备可根据该第二显示位置在虚拟空间中渲染虚拟歹徒。其中,指定区域可以理解为用于激活虚拟歹徒在人质解救场景中显示的区域,可预先进行设定。若终端设备未处于该指定区域,虚拟歹徒可以不进行显示。在一些实施例中,第二显示位置与指定区域可具有多种对应关系,当终端设备的第一位置信息多次处于指定区域时,虚拟歹徒的第二显示位置与指定区域的对应关系可不同,也可以虚拟歹徒每次显示的位置可以不同。从而提高训练人员的场景应变能力,提高了模拟实战的真实感。
作为另一种方式,也可以是当检测到终端设备的第一位置信息逐渐靠近该指定区域时,可以确定虚拟歹徒在人质解救场景中的第二显示位置。例如,当训练人员佩戴头戴显示装置靠近破旧楼栋,可在破旧楼栋里显示虚拟歹徒。
在一些实施例中,当虚拟歹徒挟持虚拟人质时,终端设备也可以根据虚拟歹徒在人质解救场景的第二显示位置,确定虚拟人质的显示位置。其中,虚拟人质的显示位置可在虚拟歹徒附近。进一步地,为了避免误伤虚拟人质,可以根据虚拟人质的显示位置,确定非射击区域。该非射击区域中无法利用交互设备进行射击。也即,当终端设备处于该非射击区域时,如果接收到交互设备发送的操作数据,终端设备可生成提示信息,以提示训练人员当前区域不允许射击操作。
在一些实施例中,进入到人质解救场景时,训练人员也可以自行选择训练等级,从而终端设备通过获取当前的训练等级,来确定虚拟歹徒的显示策略。其中,显示策略可以包括显示位置、显示时间、显示个数、移动速度、移动轨迹等,此处不作限定。
在一些实施例中,请继续参阅图7,当上述虚拟歹徒为多个时,虚拟歹徒方的侦查范围扩大,从而可以增加训练人员拯救人质的难度,也体现了场景的灵活多变性。因此,在步骤S2123b之后,本申请的射击训练方法还可以包括:
步骤S2124b:基于第二显示位置以及虚拟歹徒的朝向,获取多个虚拟歹徒在人质解救场景中的视野范围区域,其中,朝向以预设时长为周期进行调整。
步骤S2125b:当检测到第一位置信息处于视野范围区域时,生成虚拟提示信息,虚拟提示信息用于提示位置暴露。
在一些实施例中,终端设备确定虚拟歹徒的第二显示位置后,可以实时根据虚拟歹徒的朝向,确定虚拟歹徒的可视范围。其中,该可视范围可以是固定区域大小的视野范围区域,也可以是根据不同的虚拟歹徒确定不同区域大小的视野范围区域。例如,身高差不同的虚拟歹徒、戴眼镜和没戴眼镜的虚拟歹徒等。
在一些实施方式中,终端设备可以预设时长为周期调整多个虚拟歹徒的朝向。其中,预设时长可以预存于终端设备,可以是根据训练难度进行对应调整,也即训练难度越大,虚拟歹徒的朝向调整时间越短。作为一种方式,可以统一方式进行调整,如对每个虚拟歹徒的朝向进行顺时针旋转45°。也可以是以各自的规律进行调整。此处不作限定。
终端设备可根据每个虚拟歹徒当前的显示位置以及当前的朝向,确定每个虚拟歹徒的在人质解救场景中的视野范围区域。当检测到终端设备的第一位置信息处于该视野范围区域时,可认为训练人员以出现在虚拟歹徒方的可视范围内,也即虚拟歹徒方已发现训练人员。终端设备可生成虚拟提示信息,虚拟提示信息用于提示训练人员其位置已暴露。
在又一些实施例中,请参阅图8,当终端设备获取到的虚拟场景为伏击对抗场景时,步骤S212也可以包括:
步骤S2121c:获取终端设备在伏击对抗场景中的第二位置信息。
步骤S2122c:获取终端设备与虚拟的射击目标之间的多个预设位置关系。
步骤S2123c:从多个预设位置关系中随机选取一个目标位置关系。
步骤S2124c:根据第二位置信息以及目标位置关系,确定射击目标在伏击对抗场景中的第三显示位置。
步骤S2125c:基于第三显示位置,渲染射击目标。
在一些实施例中,训练场景为伏击对抗场景时,射击目标的显示位置可以根据终端设备的位置动态显示,也即训练人员在真实世界的移动会使相应的射击目标在虚拟场景中移动,有利于提高训练人员的反应能力,提高训练人员在实战中的射击能力。因此,可实时获取终端设备在伏击对抗场景中的第二位置信息,以根据第二位置信息,确定射击目标在伏击对抗场景中的第三显示位置。作为一种方式,可预先配置有终端设备与虚拟的射击目标之间的多个预设位置关系,终端设备可从多个预设位置关系中随机选取一个目标位置关系,作为当前射击目标与终端设备之间的位置关系。从而终端设备可根据终端设备当前在伏击对抗场景中的第二位置信息,以及该目标位置关系,确定射击目标当前在伏击对抗场景中的第三显示位置。从而终端设备可根据该第三显示位置下,在虚拟空间中渲染出射击目标。这样,通过随机选取一个位置关系,来实现射击目标的随机显示,可提高训练人员的反应能力,提高训练效果。
在本申请实施例中,步骤S220至步骤S240可参考上述步骤S120至步骤S140中的相关描述,此处不再赘述。
在一些实施例中,为了提高模拟的真实感,在根据操作数据以及位置及姿态信息,确定交互设备的射击轨迹之后,也可以根据具体的环境、武器调整射击轨迹,以模拟出真实的射击环境,提高训练人员真实的射击能力。具体地,请继续参阅图4,在步骤S240之后,本申请的射击训练方法还可以包括:
步骤S250:获取偏移参数,偏移参数包括环境参数及交互设备对应的虚拟武器的后坐力参数中的至少一种。
其中,环境参数可包括风速、重力、天气(雾、雨、雪)等环境中可影响交互设备射击的相关参数,此处不作限定。后坐力是指交互设备发射时,由于发射威力产生的一定的反作用力,这种作用力会使手持交互设备不稳。可以理解的是,不同的远程武器,其对应的后坐力参数可不同。如手枪的后坐力是小于狙击枪的后坐力的。
在一些实施例中,上述环境参数可以是,终端设备从服务器或其他电子设备处获取到的当前真实环境中的环境参数,也可以是训练人员自行设定的环境参数,此处不作限定。上述后坐力参数可以是终端设备根据当前训练人员手持的交互设备,识别到该交互设备对应的虚拟武器(也就是交互设备模拟的武器),从而可确定该虚拟武器的后坐力参数。其中,虚拟武器可以是枪支、弓弩等虚拟的远程武器,
在一些实施例中,终端设备获取偏移参数,可以仅获取上述环境参数,也可仅获取远程武器的后坐力参数,还可以同时获取环境参数及远程武器的后坐力参数,此处不作限定。
步骤S260:根据偏移参数,对虚拟射击轨迹进行偏移,得到偏移射击轨迹,以使虚拟的训练反馈内容根据偏移射击轨迹与射击目标在虚拟空间中的空间位置关系而生成。
为了保证交互设备的虚拟射击轨迹符合真实环境下的射击轨迹,终端设备获取到上述偏移参数后,可以对之前确定的虚拟射击轨迹进行偏移,从而得到符合真实环境的偏移射击轨迹。从而终端设备可根据偏移射击轨迹与射击目标在虚拟空间中的位置关系,生成虚拟的训练反馈内容。其中,根据虚拟射击轨迹生成训练反馈内容的具体描述,可参阅前述实施例中的内容,此处不再赘述。
本申请实施例提供的基于增强现实的射击训练方法中,通过获取用于训练交互设备的虚拟场景,以基于虚拟场景,显示与虚拟场景对应的虚拟的射击目标。然后获取交互设备相对终端设备的位置及姿态信息,接收交互设备检测到的操控操作对应的操作数据,然后根据操作数据以及位置及姿态信息,确定交互设备对应的虚拟射击轨迹,并获取偏移参数,偏移参数包括环境参数及交互设备对应的虚拟武器的后坐力参数中的至少一种,以根据偏移参数,对虚拟射击轨迹进行偏移,得到偏移射击轨迹。从而根据偏移射击轨迹与射击目标在虚拟空间中的空间位置关系,生成虚拟的训练反馈内容。本申请利用与真实的远程武器的外形和结构都相同的交互设备,通过增强现实技术来模拟射击训练的多种训练场景,并结合环境参数及后坐力参数等对射击轨迹进行偏移,以得到符合真实环境的射击情况和射击反馈,提高了射击训练的真实感的同时,也提高了用户真实的射击能力。
请参阅图9,本申请又一实施例提供了一种基于增强现实的射击训练方法,应用于终端设备,该方法可以包括:步骤S310~S380。
在本申请实施例中,步骤S310至步骤S340可参考上述步骤S210至步骤S240中的相关描述,此处不再赘述。
在一些实施例中,为了提高模拟的真实感,在根据操作数据以及位置及姿态信息,确定交互设备的射击轨迹之后,还可以根据不同的用户操作调整子弹轨迹。具体地,在步骤S340之后,本申请的射击训练方法还可以包括:
步骤S350:获取校正参数,校正参数包括握持力度、虚拟武器的重量以及握持交互设备时的握持姿态中的至少一种。
可以理解的是,当训练人员以较大力量握持交互设备时,可在一定程度上减小远程武器带来的后坐力。因此,可通过获取训练人员握持交互设备的握持力度,来对射击轨迹进行调整。由于不同的训练人员的手部力量不同,导致不同训练人员的射击效果也可能不同。因此,作为一种方式,可提前采集训练人员的手部力量,以根据该手部力量确定握持交互设备的握持力度。作为另一种方式,也可以在交互设备上设置压力传感器,实时采集训练人员的握持力度。
在一些实施例中,交互设备可具有对应的虚拟武器的重量,也即交互设备可具有真实的远程武器的重量。由于交互设备具有对应的虚拟武器的重量,训练人员握持交互设备的握持力度中可能需要考虑虚拟武器的重量,因此,可通过获取训练人员握持交互设备的握持力度以及虚拟武器的重量,来对射击轨迹进行调整。其中,虚拟武器的重量可以与虚拟武器的类型建立联系并提前存入终端设备中,从而终端设备在根据交互设备识别出其对应的虚拟武器时,可以获知其重量。
在一些实施例中,当训练人员以一定握持姿势握持交互设备时,也可在一定程度上减小远程武器带来的后坐力。因此,可通过获取训练人员握持交互设备时的握持姿态,来对射击轨迹进行调整。
在一些实施例中,终端设备获取校正参数时,可以仅获取上述握持力度,也可以仅获取上述握持姿态,还可以同时获取上述握持力度和重量,此处并不作限定。例如,还可以是上述握持力度、上述握持力度和重量都获取。
在一些实施例中,请参阅图10,当校正参数为上述握持姿态时,步骤S350可以包括:
步骤S351:获取握持交互设备时的身体图像。
步骤S352:对身体图像进行识别,确定身体图像中关节点的位置,并根据关节点的位置获取骨骼信息。
步骤S353:根据骨骼信息,确定握持交互设备时的握持姿态。
在一些实施例中,终端设备可以通过图像采集装置采集得到训练人员握持交互设备时的身体图像。然后终端设备对该身体图像进行识别分析,以得到训练人员的骨骼信息,从而终端设备可根据骨骼信息,确定训练人员握持交互设备时的握持姿态。其中,对该身体图像进行识别分析,可以是确定身体图像中各个关节点的位置,并根据各个关节点的位置获取骨骼信息。
在一些实施例中,也可以是通过外置的图像采集装置采集训练人员握持交互设备时的身体图像,然后由该图像采集装置进行识别分析,以得到训练人员的骨骼信息。从而图像采集装置可将该骨骼信息发送给终端设备,由终端设备进一步利用骨骼信息得到训练人员握持交互设备时的身体姿态。
步骤S360:根据校正参数,对虚拟射击轨迹进行校正,得到校正射击轨迹,以使虚拟的训练反馈内容根据校正射击轨迹与射击目标在虚拟空间中的空间位置关系而生成。
为了保证交互设备的射击轨迹符合训练人员真实使用时的射击轨迹,终端设备获取到上述校正参数后,可以对之前确定的射击轨迹进行校正,从而得到符合真实使用时的校正射击轨迹。从而终端设备可根据校正射击轨迹与射击目标在虚拟空间中的位置关系,生成虚拟的训练反馈内容。其中,根据射击轨迹生成训练反馈内容的具体描述,可参阅前述实施例中的内容,此处不再赘述。
在一些实施例中,请继续参阅图9,当校正参数为上述握持姿态时,终端设备也可以验证训练人员的握持姿态是否准确。具体地,本申请的射击训练方法还可以包括:
步骤S370:当校正射击轨迹与射击目标在虚拟空间中的位置未发生交叉时,判断握持姿态是否与标准握持姿态对应。
在一些实施例中,当校正射击轨迹与射击目标在虚拟空间中的位置未发生交叉时,可认为当前未射中射击目标,终端设备可以判断握持姿态是否与标准握持姿态对应。已确定握持姿态是否是导致目标未射中的原因之一。从而可辅助训练人员查找击中失败的原因。
其中,标准握持姿态可以是训练人员能够成功射中射击目标时所保持的身体姿态,也可以是既能成功射中目标又能降低对训练人员的拉伤时训练人员所保持的身体姿态,此处不作限定。
在一些实施例中,终端设备可根据射击目标在虚拟空间中的显示位置,以及交互设备的位置及姿态信息,可构建出训练用户的标准握持姿态。从而当校正射击轨迹与射击目标在虚拟空间中的位置未发生交叉时,终端设备可将训练人员真实的握持姿态与标准握持姿态进行比对,以确定握持姿态是否与标准握持姿态对应。如果对应,可认为训练人员的握持姿态没问题,可认为是由于其他原因导致目标未射中。如果不对应,可认为训练人员的握持姿态存在问题,可认为握持姿态是导致目标未射中的原因之一。从而训练人员可纠正自身握持姿态
步骤S380:当握持姿态与标准握持姿态不对应时,生成虚拟的姿态反馈内容,姿态反馈内容包括握持姿态的调整方式。
在一些实施例中,当握持姿态与标准握持姿态不对应时,可认为训练人员的握持姿态存在问题,终端设备可生成虚拟的姿态反馈内容,姿态反馈内容包括握持姿态的调整方式。从而训练人员可通过姿态反馈内容纠正自身握持姿态,以提高射击命中率。其中,握持姿态的调整方式可以根据训练人员的真实的握持姿态与标准握持姿态之间的差异进行确定。如握持姿态的调整方式可以包括指出握持姿态存在问题的点,以及如果调整才可以达到标准握持姿态。
在一些实施例中,步骤S350至步骤S380也可适用于其他实施例,例如,在上述根据偏移参数对射击轨迹进行调整后,也可以上述校正参数对射击轨迹进行校正。
本申请实施例提供的基于增强现实的射击训练方法中,通过获取用于训练交互设备的虚拟场景,以基于虚拟场景,显示与虚拟场景对应的虚拟的射击目标。然后获取交互设备相对终端设备的位置及姿态信息,接收交互设备检测到的操控操作对应的操作数据,然后根据操作数据以及位置及姿态信息,确定交互设备对应的虚拟射击轨迹,并获取校正参数,校正参数包括握持力度、虚拟武器的重量以及握持交互设备时的握持姿态中的至少一种,以根据校正参数,对虚拟射击轨迹进行校正,得到校正射击轨迹。从而根据校正射击轨迹与射击目标在虚拟空间中的位置关系,生成虚拟的训练反馈内容。本申请利用与真实的远程武器的外形和结构都相同的交互设备,通过增强现实技术来模拟射击训练的多种训练场景,并结合握持力度、武器重量及握持姿态等对射击轨迹进行校正,以得到符合真实使用时的射击情况和射击反馈,提高了射击训练的真实感的同时,也提高了用户真实的射击能力。
请参阅图11,本申请实施例提供的一种基于增强现实的射击训练装置400的结构框图,应用于终端设备,终端设备与交互设备通信连接,该装置可以包括:目标显示模块410、信息获取模块420、操作接收模块430、轨迹确定模块440以及反馈生成模块450。其中,目标显示模块410用于显示用于训练交互设备的虚拟的射击目标;信息获取模块420用于获取交互设备相对终端设备的位置及姿态信息;操作接收模块430用于接收交互设备检测到的操控操作对应的操作数据;轨迹确定模块440用于根据操作数据以及位置及姿态信息,确定交互设备对应的虚拟射击轨迹;反馈生成模块450用于根据虚拟射击轨迹与射击目标在虚拟空间中的空间位置关系,生成虚拟的训练反馈内容。
在一些实施例中,上述射击训练装置400还可以包括:偏移获取模块和轨迹偏移模块。其中,偏移获取模块用于获取偏移参数,偏移参数包括环境参数及交互设备对应的虚拟武器的后坐力参数中的至少一种;轨迹偏移模块用于根据偏移参数,对虚拟射击轨迹进行偏移,得到偏移射击轨迹,以使虚拟的训练反馈内容根据偏移射击轨迹与射击目标在虚拟空间中的空间位置关系而生成。
在一些实施例中,交互设备可具有对应的虚拟武器的重量,上述操作数据可包括握持交互设备的握持力度,上述射击训练装置400可以包括:校正获取模块和轨迹校正模块。其中,校正获取模块用于获取校正参数,校正参数包括握持力度、虚拟武器的重量以及握持交互设备时的握持姿态中的至少一种;轨迹校正模块用于根据校正参数,对虚拟射击轨迹进行校正,得到校正射击轨迹,以使虚拟的训练反馈内容根据校正射击轨迹与射击目标在虚拟空间中的空间位置关系而生成。
在一些实施例中,当校正参数为握持姿态时,校正获取模块可具体用于:获取握持交互设备时的身体图像;对身体图像进行识别,确定身体图像中关节点的位置,并根据关节点的位置获取骨骼信息;根据骨骼信息,确定握持交互设备时的握持姿态。
在一些实施例中,当校正参数为握持姿态时,射击训练装置400还可以包括:姿态判断模块,用于当校正射击轨迹与射击目标在虚拟空间中的位置未发生交叉时,判断握持姿态是否与标准握持姿态对应;姿态反馈模块,用于当握持姿态与标准握持姿态不对应时,生成虚拟的姿态反馈内容,姿态反馈内容包括握持姿态的调整方式。
在一些实施例中,目标显示模块410可包括:场景获取单元及场景目标显示单元。其中,场景获取单元用于获取用于训练交互设备的虚拟场景;场景目标显示单元用于基于虚拟场景,显示与虚拟场景对应的虚拟的射击目标。
在一些实施例中,虚拟场景可以为打靶场景,射击目标可包括虚拟靶,场景目标显示单元可具体用于:获取当前的训练等级根据训练等级,确定虚拟靶的移动速度和移动轨迹;根据移动速度和移动轨迹,确定虚拟靶在虚拟场景中的第一显示位置;基于第一显示位置,渲染虚拟靶。
在一些实施例中,虚拟场景可以为人质解救场景,射击目标包括虚拟歹徒,场景目标显示单元可具体用于:获取终端设备在人质解救场景中的第一位置信息;当检测到第一位置信息处于指定区域时,获取虚拟歹徒在人质解救场景中的第二显示位置,第二显示位置与指定区域对应;基于第二显示位置,渲染虚拟歹徒。
在该实施例下,当虚拟歹徒为多个时,在渲染虚拟歹徒之后,上述射击训练装置400还可以包括:歹徒视野获取模块及提示生成模块。其中,歹徒视野获取模块用于基于第二显示位置以及虚拟歹徒的朝向,获取多个虚拟歹徒在人质解救场景中的视野范围区域,其中,朝向以预设时长为周期进行调整;提示生成模块用于当检测到第一位置信息处于视野范围区域时,生成虚拟提示信息,虚拟提示信息用于提示位置暴露。
在一些实施例中,虚拟场景可以为伏击对抗场景,场景目标显示单元可具体用于:获取终端设备在伏击对抗场景中的第二位置信息;获取终端设备与虚拟的射击目标之间的多个预设位置关系;从多个预设位置关系中随机选取一个目标位置关系;根据第二位置信息以及目标位置关系,确定射击目标在伏击对抗场景中的第三显示位置;基于第三显示位置,渲染射击目标。
本申请实施例提供的基于增强现实的射击训练装置中,通过显示用于训练交互设备的虚拟的射击目标,获取交互设备相对终端设备的位置及姿态信息,接收交互设备检测到的操控操作对应的操作数据,然后根据操作数据以及位置及姿态信息,确定交互设备对应的虚拟射击轨迹,从而根据虚拟射击轨迹与射击目标在虚拟空间中的空间位置关系,生成虚拟的训练反馈内容。本申请利用与真实的远程武器的外形和结构都相同的交互设备,通过增强现实技术来模拟射击训练的射击情况和射击反馈,提高了射击训练的真实感的同时,也提高了用户真实的射击能力。
请参考图12,其示出了本申请实施例提供的一种终端设备的结构框图。该终端设备100可以是头戴显示装置等能够运行应用程序的终端设备。本申请中的终端设备100可以包括一个或多个如下部件:处理器110、存储器120,其中存储器120中存储有一个或多个应用程序,一个或多个应用程序被配置为由一个或多个处理器110执行,一个或多个程序配置用于执行如前述方法实施例所描述的方法。
处理器110可以包括一个或者多个处理核。处理器110利用各种接口和线路连接整个终端设备100内的各个部分,通过运行或执行存储在存储器120内的指令、程序、代码集或指令集,以及调用存储在存储器120内的数据,执行终端设备100的各种功能和处理数据。可选地,处理器110可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable LogicArray,PLA)中的至少一种硬件形式来实现。处理器110可集成中央处理器(CentralProcessing Unit,CPU)、图像处理器(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器110中,单独通过一块通信芯片进行实现。
存储器120可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。存储器120可用于存储指令、程序、代码、代码集或指令集。存储器120可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等。存储数据区还可以存储终端设备100在使用中所创建的数据等。
在一些实施例中,终端设备100还可以包括图像传感器130,用于采集现实物体的图像以及采集目标场景的场景图像。图像传感器130可以为红外相机,也可以是可见光相机,具体类型在本申请实施例中并不作为限定。
在一个实施例中,终端设备为头戴显示装置,除了包括上述的处理器、存储器及图像采集装置外,还可包括如下一个或多个部件:图像采集装置、显示模组、光学模组、通信模块以及电源。
图像采集装置,用于采集现实物体的图像以及采集目标场景的场景图像。图像采集装置可以为红外相机,也可以是可见光相机,具体类型在本申请实施例中并不作为限定。
显示模组可包括显示控制单元。显示控制单元用于接收处理器渲染后的虚拟内容的显示图像,然后将该显示图像显示并投射至光学模组上,使用户能够通过光学模组观看到虚拟内容。其中,显示模组可以是显示屏或投射装置等,可用于显示图像。
光学模组可采用离轴光学系统或波导光学系统,显示模组显示的显示图像经光学模组后,能够被投射至用户的眼睛。用户在通过光学模组看到显示模组投射的显示图像的同时。在一些实施方式中,用户还能够透过光学模组观察到现实环境,感受虚拟内容与现实环境叠加后的增强现实效果。
通信模块可以是蓝牙、WiFi(Wireless-Fidelity,无线保真)、ZigBEE(紫峰技术)等模块,头戴显示装置可通过通信模块与终端设备建立通信连接。与终端设备通信连接的头戴显示装置,可以与终端设备进行信息以及指令的交互。例如,头戴显示装置可以通过通信模块接收终端设备的发送的图像数据,根据所接收的图像数据生成虚拟世界的虚拟内容进行显示。
电源可为整个头戴显示装置进行供电,保证头戴显示装置各个部件的正常运行。
请参考图13,其示出了本申请实施例提供的一种计算机可读存储介质的结构框图。该计算机可读存储介质900中存储有程序代码,程序代码可被处理器调用执行上述方法实施例中所描述的方法。
该计算机可读存储介质900可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。可选地,计算机可读存储介质900包括非易失性计算机可读介质(non-transitory computer-readable storage medium)。计算机可读存储介质900具有执行上述方法中的任何方法步骤的程序代码910的存储空间。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。程序代码910可以例如以适当形式进行压缩。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (9)

1.一种基于增强现实的射击训练方法,其特征在于,应用于终端设备,所述终端设备与交互设备通信连接,所述方法包括:
显示用于训练所述交互设备的虚拟的射击目标,所述交互设备具有对应的虚拟武器的重量;
获取所述交互设备相对所述终端设备的位置及姿态信息;
接收所述交互设备检测到的操控操作对应的操作数据,所述操作数据包括握持所述交互设备的握持力度;
根据所述操作数据以及所述位置及姿态信息,确定所述交互设备对应的虚拟射击轨迹;
获取校正参数,所述校正参数包括所述握持力度、所述虚拟武器的重量以及握持所述交互设备时的握持姿态中的至少一种;
根据所述校正参数,对所述虚拟射击轨迹进行校正,得到校正射击轨迹;
根据所述校正射击轨迹与所述射击目标在虚拟空间中的空间位置关系,生成虚拟的训练反馈内容;
其中,当所述校正参数为所述握持姿态时,所述获取校正参数,包括:
获取握持所述交互设备时的身体图像;
对所述身体图像进行识别,确定所述身体图像中关节点的位置,并根据所述关节点的位置获取骨骼信息;
根据所述骨骼信息,确定握持所述交互设备时的握持姿态。
2.根据权利要求1所述的方法,其特征在于,在所述根据所述操作数据以及所述位置及姿态信息,确定所述交互设备对应的虚拟射击轨迹之后,所述方法还包括:
获取偏移参数,所述偏移参数包括环境参数及所述交互设备对应的虚拟武器的后坐力参数中的至少一种;
根据所述偏移参数,对所述虚拟射击轨迹进行偏移,得到偏移射击轨迹,以使所述虚拟的训练反馈内容根据所述偏移射击轨迹与所述射击目标在虚拟空间中的空间位置关系而生成。
3.根据权利要求1所述的方法,其特征在于,所述校正参数包括所述握持姿态,所述方法还包括:
当所述校正射击轨迹与所述射击目标在虚拟空间中的空间位置未发生交叉时,判断所述握持姿态是否与标准握持姿态对应;
当所述握持姿态与所述标准握持姿态不对应时,生成虚拟的姿态反馈内容,所述姿态反馈内容包括所述握持姿态的调整方式。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述显示用于训练所述交互设备的虚拟的射击目标,包括:
获取用于训练所述交互设备的虚拟场景;
基于所述虚拟场景,显示与所述虚拟场景对应的虚拟的射击目标。
5.根据权利要求4所述的方法,其特征在于,所述虚拟场景为打靶场景,所述射击目标包括虚拟靶,所述显示与所述虚拟场景对应的虚拟的射击目标,包括:
获取当前的训练等级;
根据所述训练等级,确定所述虚拟靶的移动速度和移动轨迹;
根据所述移动速度和移动轨迹,确定所述虚拟靶在所述打靶场景中的第一显示位置;
基于所述第一显示位置,渲染所述虚拟靶。
6.根据权利要求4所述的方法,其特征在于,所述虚拟场景为人质解救场景,所述射击目标包括虚拟歹徒,所述显示与所述虚拟场景对应的虚拟的射击目标,包括:
获取所述终端设备在所述人质解救场景中的第一位置信息;
当检测到所述第一位置信息处于指定区域时,获取所述虚拟歹徒在所述人质解救场景中的第二显示位置,所述第二显示位置与所述指定区域对应;
基于所述第二显示位置,渲染所述虚拟歹徒;
所述虚拟歹徒为多个时,在所述渲染所述虚拟歹徒之后,所述方法还包括:
基于所述第二显示位置以及所述虚拟歹徒的朝向,获取所述多个虚拟歹徒在所述人质解救场景中的视野范围区域,其中,所述朝向以预设时长为周期进行调整;
当检测到所述第一位置信息处于所述视野范围区域时,生成虚拟提示信息,所述虚拟提示信息用于提示位置暴露。
7.根据权利要求4所述的方法,其特征在于,所述虚拟场景为伏击对抗场景,所述显示与所述虚拟场景对应的虚拟的射击目标,包括:
获取所述终端设备在所述伏击对抗场景中的第二位置信息;
获取所述终端设备与虚拟的射击目标之间的多个预设位置关系;
从所述多个预设位置关系中随机选取一个目标位置关系;
根据所述第二位置信息以及所述目标位置关系,确定所述射击目标在所述伏击对抗场景中的第三显示位置;
基于所述第三显示位置,渲染所述射击目标。
8.一种终端设备,其特征在于,包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个应用程序配置用于执行如权利要求1-7任一项所述的方法。
9.一种计算机可读取存储介质,其特征在于,所述计算机可读取存储介质中存储有程序代码,所述程序代码可被处理器调用执行如权利要求1-7任一项所述的方法。
CN201911412888.9A 2019-12-31 2019-12-31 射击训练方法、装置、终端设备及存储介质 Active CN111179679B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911412888.9A CN111179679B (zh) 2019-12-31 2019-12-31 射击训练方法、装置、终端设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911412888.9A CN111179679B (zh) 2019-12-31 2019-12-31 射击训练方法、装置、终端设备及存储介质

Publications (2)

Publication Number Publication Date
CN111179679A CN111179679A (zh) 2020-05-19
CN111179679B true CN111179679B (zh) 2022-01-28

Family

ID=70655967

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911412888.9A Active CN111179679B (zh) 2019-12-31 2019-12-31 射击训练方法、装置、终端设备及存储介质

Country Status (1)

Country Link
CN (1) CN111179679B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112258922B (zh) * 2020-11-19 2022-07-08 成都颖创科技有限公司 一种单兵武器模拟训练系统
CN113077674B (zh) * 2021-03-12 2023-09-15 广东虚拟现实科技有限公司 基于虚拟训练场景的训练方法、装置及存储介质
CN113413596B (zh) * 2021-05-14 2024-03-15 中国美术学院 一种适用于盲人与常人公平射箭竞技的实现方法
CN114220312B (zh) * 2022-01-21 2024-05-07 北京京东方显示技术有限公司 虚拟训练方法、装置以及虚拟训练系统
CN115756231A (zh) * 2022-12-06 2023-03-07 北京字跳网络技术有限公司 特效处理方法、装置、设备、计算机可读存储介质及产品
CN116531765B (zh) * 2023-05-16 2023-12-08 成都航天凯特机电科技有限公司 靶场射击训练射击结果生成方法、装置及可读存储介质
CN117371874B (zh) * 2023-12-06 2024-03-29 江苏军盾特种装备有限公司 一种刺杀格斗训练用综合考评系统及工作方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102735100A (zh) * 2012-06-08 2012-10-17 重庆邮电大学 一种采用增强现实技术的单兵轻武器射击训练的方法和系统
CN106440948A (zh) * 2015-08-13 2017-02-22 株式会社理光 一种射击训练系统及射击训练方法
CN106621312A (zh) * 2016-12-30 2017-05-10 深圳游视虚拟现实技术有限公司 一种基于虚拟现实的模拟射击方法和系统
CN107152887A (zh) * 2017-05-14 2017-09-12 深圳游视虚拟现实技术有限公司 一种基于虚拟现实技术的模拟火箭筒操作训练方法和系统
CN107316528A (zh) * 2017-07-14 2017-11-03 中国人民解放军镇江船艇学院 一种适用于基座式射击武器的模拟训练系统
CN107803025A (zh) * 2017-11-05 2018-03-16 北京度量科技有限公司 一种3d高精度实时瞄准及触发模拟方法
CN108043032A (zh) * 2017-12-29 2018-05-18 武汉艺术先生数码科技有限公司 基于ar的射击游戏系统
CN207895727U (zh) * 2017-08-25 2018-09-21 北京卓华信息技术股份有限公司 作训系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5824942A (en) * 1996-01-22 1998-10-20 Raytheon Company Method and device for fire control of a high apogee trajectory weapon
JP6814196B2 (ja) * 2015-07-16 2021-01-13 ブラスト モーション インコーポレイテッドBlast Motion Inc. 統合されたセンサおよびビデオモーション解析方法
KR101938257B1 (ko) * 2017-04-10 2019-04-11 주식회사 제이콥시스템 영상 사격 훈련 시스템
CN108733206B (zh) * 2017-04-25 2020-10-30 广东虚拟现实科技有限公司 一种坐标对齐方法、系统和虚拟现实系统
CN110119194A (zh) * 2018-02-06 2019-08-13 广东虚拟现实科技有限公司 虚拟场景处理方法、装置、交互系统、头戴显示装置、视觉交互装置及计算机可读介质
CN109637623A (zh) * 2018-11-21 2019-04-16 佛山市第人民医院(中山大学附属佛山医院) 一种基于动作捕捉的前庭康复方法及系统
CN109529317B (zh) * 2018-12-19 2022-05-31 广州方硅信息技术有限公司 游戏交互方法、装置及移动终端
CN110162172A (zh) * 2019-04-29 2019-08-23 太平洋未来科技(深圳)有限公司 一种识别运动姿态的设备
CN110162735B (zh) * 2019-07-04 2023-07-14 北京缔科新技术研究院(有限合伙) 一种基于激光测距望远镜的弹道轨迹计算方法及系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102735100A (zh) * 2012-06-08 2012-10-17 重庆邮电大学 一种采用增强现实技术的单兵轻武器射击训练的方法和系统
CN106440948A (zh) * 2015-08-13 2017-02-22 株式会社理光 一种射击训练系统及射击训练方法
CN106621312A (zh) * 2016-12-30 2017-05-10 深圳游视虚拟现实技术有限公司 一种基于虚拟现实的模拟射击方法和系统
CN107152887A (zh) * 2017-05-14 2017-09-12 深圳游视虚拟现实技术有限公司 一种基于虚拟现实技术的模拟火箭筒操作训练方法和系统
CN107316528A (zh) * 2017-07-14 2017-11-03 中国人民解放军镇江船艇学院 一种适用于基座式射击武器的模拟训练系统
CN207895727U (zh) * 2017-08-25 2018-09-21 北京卓华信息技术股份有限公司 作训系统
CN107803025A (zh) * 2017-11-05 2018-03-16 北京度量科技有限公司 一种3d高精度实时瞄准及触发模拟方法
CN108043032A (zh) * 2017-12-29 2018-05-18 武汉艺术先生数码科技有限公司 基于ar的射击游戏系统

Also Published As

Publication number Publication date
CN111179679A (zh) 2020-05-19

Similar Documents

Publication Publication Date Title
CN111179679B (zh) 射击训练方法、装置、终端设备及存储介质
US11325036B2 (en) Interface display method and apparatus, electronic device, and computer-readable storage medium
US10584940B2 (en) System and method for marksmanship training
US10030937B2 (en) System and method for marksmanship training
US10274287B2 (en) System and method for marksmanship training
US10234240B2 (en) System and method for marksmanship training
US7722465B2 (en) Image generation device, image display method and program product
CN110917623B (zh) 互动信息显示方法、装置、终端及存储介质
CN111330278B (zh) 基于虚拟环境的动画播放方法、装置、设备及介质
KR101470805B1 (ko) 실내 훈련용 곡사화기 사격술 모의 훈련 시스템 및 이의 제어방법
CN209541534U (zh) 一种兼容模拟弹和实弹的影像对抗训练系统
CN111228791A (zh) 真人ar射击游戏装备、基于ar技术的射击对战系统及方法
CN114432701A (zh) 基于虚拟场景的射线显示方法、装置、设备以及存储介质
CN109579612A (zh) 一种兼容模拟弹和实弹的对抗训练系统
WO2011028008A2 (ko) 실 방향 동적 사격 훈련 시스템
KR102490842B1 (ko) 가상전투시스템 및 기록매체
KR101617357B1 (ko) 실내 훈련용 곡사화기 사격술 모의 훈련 시스템 및 이의 제어방법
KR101117404B1 (ko) 실 방향 동적 사격 훈련 시스템
KR20140112117A (ko) 무선 실내 사격 시뮬레이션 시스템
CN111656764B (zh) 云台控制方法和移动平台
CN109806594B (zh) 虚拟环境中的弹道显示方法、装置及设备
JP2003240494A (ja) 訓練システム
CN110631411A (zh) 一种虚拟射击训练控制方法及系统
Pinheiro et al. RealShooting: Expanding the experience of point-and-click target shooting games
JP2005319189A (ja) プログラム、情報記憶媒体、及び画像生成システム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Shooting training method, device, terminal equipment and storage medium

Effective date of registration: 20221223

Granted publication date: 20220128

Pledgee: Shanghai Pudong Development Bank Limited by Share Ltd. Guangzhou branch

Pledgor: GUANGDONG VIRTUAL REALITY TECHNOLOGY Co.,Ltd.

Registration number: Y2022980028733