CN112650391A - 基于虚拟现实的人机交互方法、装置、设备及存储介质 - Google Patents

基于虚拟现实的人机交互方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN112650391A
CN112650391A CN202011541335.6A CN202011541335A CN112650391A CN 112650391 A CN112650391 A CN 112650391A CN 202011541335 A CN202011541335 A CN 202011541335A CN 112650391 A CN112650391 A CN 112650391A
Authority
CN
China
Prior art keywords
virtual
trigger
handle
space
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011541335.6A
Other languages
English (en)
Inventor
刘悦怡
傅思齐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Netease Hangzhou Network Co Ltd
Original Assignee
Netease Hangzhou Network Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Netease Hangzhou Network Co Ltd filed Critical Netease Hangzhou Network Co Ltd
Priority to CN202011541335.6A priority Critical patent/CN112650391A/zh
Publication of CN112650391A publication Critical patent/CN112650391A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例提供一种基于虚拟现实的人机交互方法、装置、设备及存储介质,通过获取虚拟现实手柄在现实空间中的定位信息;若根据定位信息在虚拟空间中确定虚拟手柄标识移动至设置于虚拟人物模型之上的触发区域时,则在虚拟空间中触发与触发区域对应的操作指令。由于预设操作指令的触发区域设置在虚拟人物模型上,因此,当需要执行该操作指令时,VR手柄需要移动至该与触发区域对应的用户身体的目标区域以进行操作指令的触发,而用户身体的表面能够给予VR手柄真实的物理反馈,并且不需要视觉支持,避免了由于VR手柄没有真实的物理反馈而导致的移动超范围和误触问题,提高了操作真实性和准确性。

Description

基于虚拟现实的人机交互方法、装置、设备及存储介质
技术领域
本申请涉及虚拟现实技术领域,尤其涉及一种基于虚拟现实的人机交互方法、装置、设备及存储介质。
背景技术
本部分旨在为权利要求书中陈述的本申请的实施方式提供背景或上下文。此处的描述不因为包括在本部分中而被认为是现有技术。
传统媒体场景下,可以通过鼠标、键盘等方式进行人机交互,可以获得相应的物理反馈,以提高人机交互的交互精度。但在虚拟现实(Virtual Reality,VR)场景中,则无法通过传统的交互方式而获得物理反馈。
现有技术中,为了实现在VR场景中,人机交互过程中的物理反馈,通常是通过设置VR手柄振动来模拟物理反馈,但是由于振动过程并不会限制VR手柄的移动范围,因此,常会造成在交互过程中,VR手柄的移动超出预设范围而导致误触、操作不精准的问题。
发明内容
本申请提供一种基于虚拟现实的人机交互方法、装置、设备及存储介质,用以解决VR人机交互过程中,由于手柄移动超出预设范围而导致误触、操作不精准的问题。
根据本申请实施例的第一方面,本申请提供了一种基于虚拟现实的人机交互方法,通过终端设备提供一虚拟空间,所述虚拟空间中包括一虚拟人物模型,所述虚拟人物模型与现实空间中的用户身体相对应,所述虚拟空间中还包括一虚拟手柄标识,所述虚拟手柄标识与现实空间中的虚拟现实手柄相对应,所述方法包括:实时获取虚拟现实手柄在现实空间中的定位信息,所述定位信息用于表征在现实空间中所述虚拟现实手柄与所述用户身体的位置关系;若根据所述定位信息在虚拟空间中确定所述虚拟手柄标识移动至设置于所述虚拟人物模型之上的触发区域时,则在虚拟空间中触发与所述触发区域对应的操作指令。
在一种可能的实现方式中,若根据所述定位信息在虚拟空间中确定所述虚拟手柄标识移动至设置于所述虚拟人物模型之上的触发区域时,则在虚拟空间中触发与所述触发区域对应的操作指令,包括:根据所述定位信息,在虚拟空间中确定虚拟手柄标识,所述虚拟手柄标识为所述虚拟现实手柄在虚拟空间的投影;根据预设的对应关系,在所述虚拟空间中确定所述触发区域对应的虚拟触发点,其中,所述虚拟触发点设置在虚拟人物模型上,所述虚拟人物模型用于在所述虚拟空间实时模拟所述用户身体的轮廓;若所述虚拟手柄标识移动至所述虚拟触发点,则在虚拟空间中触发与所述触发区域对应的操作指令。
在一种可能的实现方式中,若所述虚拟手柄标识移动至所述虚拟触发点,则在虚拟空间中触发与所述触发区域对应的操作指令,包括:获取预设的触发轨迹信息,所述触发轨迹信息用于表征在所述虚拟空间中,所述虚拟手柄标识移动至所述虚拟触发点的过程中,能够触发所述操作指令的运动轨迹;若所述虚拟手柄标识移动至所述虚拟触发点的运动轨迹与所述触发轨迹信息相匹配,则在虚拟空间中触发与所述触发区域对应的操作指令。
在一种可能的实现方式中,所述触发轨迹信息对应的运动轨迹与所述虚拟触发点所在平面成预设夹角。
在一种可能的实现方式中,所述方法还包括:根据所述虚拟手柄标识,判断所述虚拟现实手柄是否处于触发激活状态;若所述虚拟手柄标识移动至所述虚拟触发点的运动轨迹与所述触发轨迹信息相匹配,则在虚拟空间中触发与所述虚拟触发点对应的操作指令,包括:若所述虚拟现实手柄处于激活状态,且在所述虚拟空间中所述虚拟手柄标识移动至所述虚拟触发点的运动轨迹与所述触发轨迹信息相匹配,则在虚拟空间中触发与所述虚拟触发点对应的操作指令。
在一种可能的实现方式中,根据所述虚拟手柄标识,判断所述虚拟现实手柄是否处于触发激活状态,包括:获取预设的所述虚拟空间中的圆柱形触发区域,所述圆柱形触发区域在所述虚拟空间中沿所述触发轨迹信息对应的运动轨迹设置,且所述虚拟触发点位于所述圆柱形触发区域的一个底面;若所述虚拟手柄标识位于所述圆柱形触发区域内,则所述虚拟现实手柄处于触发激活状态。
在一种可能的实现方式中,若所述虚拟现实手柄处于激活状态,且在所述虚拟空间中所述虚拟手柄标识移动至所述虚拟触发点的运动轨迹与所述触发轨迹信息相匹配,则在虚拟空间中触发与所述虚拟触发点对应的操作指令,包括:获取预设的所述虚拟空间中的待触发距离;若所述虚拟空间中的所述虚拟手柄标识位于所述圆柱形触发区域内,且所述虚拟手柄标识沿所述触发轨迹信息对应的运动轨迹移动至距离所述虚拟触发点所述待触发距离的范围内,则在虚拟空间中触发与所述虚拟触发点对应的操作指令。
在一种可能的实现方式中,所述方法还包括:接收用户输入的触发区域设置指令;根据所述触发区域设置指令,在所述虚拟空间中设置与所述触发区域对应的虚拟触发点,所述虚拟触发点用于在被触发时执行所述操作指令。
在一种可能的实现方式中,所述方法还包括:在虚拟现实交互界面以第一视角显示所述虚拟空间中的虚拟人物模型,所述虚拟人物模型用于在所述虚拟现实空间实时模拟用户身体的轮廓;根据所述触发区域设置指令,在所述虚拟空间中设置与所述触发区域对应的虚拟触发点,包括:根据所述触发区域设置指令,在所述虚拟空间中的所述虚拟人物模型上设置与所述触发区域对应的虚拟触发点。
在一种可能的实现方式中,虚拟人物模型是根据所述虚拟现实手柄的定位信息,和/或虚拟现实头盔的定位信息生成的。
根据本申请实施例的第二方面,本申请提供了一种基于虚拟现实的人机交互装置,应用于终端设备,所述终端设备提供一虚拟空间,所述虚拟空间中包括一虚拟人物模型,所述虚拟人物模型与现实空间中的用户身体相对应,所述虚拟空间中还包括一虚拟手柄标识,所述虚拟手柄标识与现实空间中的虚拟现实手柄相对应;所述装置包括:
获取模块,用于实时获取虚拟现实手柄在现实空间中的定位信息,所述定位信息用于表征在现实空间中所述虚拟现实手柄与所述用户身体的位置关系;
触发模块,用于若根据所述定位信息在虚拟空间中确定所述虚拟手柄标识移动至设置于所述虚拟人物模型之上的触发区域时,则在虚拟空间中触发与所述触发区域对应的操作指令。
在一种可能的实现方式中,所述触发模块,具体用于:根据所述定位信息,在虚拟空间中确定虚拟手柄标识,所述虚拟手柄标识为所述虚拟现实手柄在虚拟空间的投影;根据预设的对应关系,在所述虚拟空间中确定所述触发区域对应的虚拟触发点,其中,所述虚拟触发点设置在虚拟人物模型上,所述虚拟人物模型用于在所述虚拟空间实时模拟所述用户身体的轮廓;若所述虚拟手柄标识移动至所述虚拟触发点,则在虚拟空间中触发与所述触发区域对应的操作指令。
在一种可能的实现方式中,若所述虚拟手柄标识移动至所述虚拟触发点,则所述触发模块在虚拟空间中触发与所述触发区域对应的操作指令时,具体用于:获取预设的触发轨迹信息,所述触发轨迹信息用于表征在所述虚拟空间中,所述虚拟手柄标识移动至所述虚拟触发点的过程中,能够触发所述操作指令的运动轨迹;若所述虚拟手柄标识移动至所述虚拟触发点的运动轨迹与所述触发轨迹信息相匹配,则在虚拟空间中触发与所述触发区域对应的操作指令。
在一种可能的实现方式中,所述触发轨迹信息对应的运动轨迹与所述虚拟触发点所在平面成预设夹角。
在一种可能的实现方式中,所述触发模块还用于:根据所述虚拟手柄标识,判断所述虚拟现实手柄是否处于触发激活状态;若所述虚拟手柄标识移动至所述虚拟触发点的运动轨迹与所述触发轨迹信息相匹配,则所述触发模块在虚拟空间中触发与所述虚拟触发点对应的操作指令时,具体用于:若所述虚拟现实手柄处于激活状态,且在所述虚拟空间中所述虚拟手柄标识移动至所述虚拟触发点的运动轨迹与所述触发轨迹信息相匹配,则在虚拟空间中触发与所述虚拟触发点对应的操作指令。
在一种可能的实现方式中,所述触发模块在根据所述虚拟手柄标识,判断所述虚拟现实手柄是否处于触发激活状态时,具体用于:获取预设的所述虚拟空间中的圆柱形触发区域,所述圆柱形触发区域在所述虚拟空间中沿所述触发轨迹信息对应的运动轨迹设置,且所述虚拟触发点位于所述圆柱形触发区域的一个底面;若所述虚拟手柄标识位于所述圆柱形触发区域内,则所述虚拟现实手柄处于触发激活状态。
在一种可能的实现方式中,若所述虚拟现实手柄处于激活状态,且在所述虚拟空间中所述虚拟手柄标识移动至所述虚拟触发点的运动轨迹与所述触发轨迹信息相匹配,则所述触发模块在虚拟空间中触发与所述虚拟触发点对应的操作指令时,具体用于:获取预设的所述虚拟空间中的待触发距离;若所述虚拟空间中的所述虚拟手柄标识位于所述圆柱形触发区域内,且所述虚拟手柄标识沿所述触发轨迹信息对应的运动轨迹移动至距离所述虚拟触发点所述待触发距离的范围内,则在虚拟空间中触发与所述虚拟触发点对应的操作指令。
在一种可能的实现方式中,所述装置还包括设置模块,用于:接收用户输入的触发区域设置指令;根据所述触发区域设置指令,在所述虚拟空间中设置与所述触发区域对应的虚拟触发点,所述虚拟触发点用于在被触发时执行所述操作指令。
在一种可能的实现方式中,所述设置模块还用于:在虚拟现实交互界面以第一视角显示所述虚拟空间中的虚拟人物模型,所述虚拟人物模型用于在所述虚拟现实空间实时模拟用户身体的轮廓;所述设置模块在根据所述触发区域设置指令,在所述虚拟空间中设置与所述触发区域对应的虚拟触发点时,具体用于:根据所述触发区域设置指令,在所述虚拟空间中的所述虚拟人物模型上设置与所述触发区域对应的虚拟触发点。
在一种可能的实现方式中,虚拟人物模型是根据所述虚拟现实手柄的定位信息,和/或虚拟现实头盔的定位信息生成的。
根据本申请实施例的第三方面,本申请提供了一种电子设备,包括:存储器,处理器以及计算机程序;
其中,所述计算机程序存储在所述存储器中,并被配置为由所述处理器执行如本申请实施例第一方面任一项所述的基于虚拟现实的人机交互方法。
根据本申请实施例的第四方面,本申请提供了一种虚拟现实系统,包括:虚拟现实主机、虚拟现实手柄和虚拟现实头盔;所述虚拟现实手柄用于获取定位信息,和/或,接受用户操作指令;所述虚拟现实头盔用于显示虚拟现实图像;所述虚拟现实主机用于执行预设的计算机程序以实现如本申请实施例第一方面任一项所述的基于虚拟现实的人机交互方法。
根据本申请实施例的第五方面,本申请提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如本申请实施例第一方面任一项所述的基于虚拟现实的人机交互方法。
本申请提供的基于虚拟现实的人机交互方法、装置、设备及存储介质,通过实时获取虚拟现实手柄在现实空间中的定位信息,所述定位信息用于表征在现实空间中所述虚拟现实手柄与所述用户身体的位置关系;若根据所述定位信息在虚拟空间中确定所述虚拟手柄标识移动至设置于所述虚拟人物模型之上的触发区域时,则在虚拟空间中触发与所述触发区域对应的操作指令。由于能够触发预设的操作指令的触发区域设置在虚拟人物模型上,因此,当需要执行该操作指令时,VR手柄需要移动至该与触发区域对应的用户身体的目标区域以进行操作指令的触发,而用户身体的表面能够给予VR手柄真实的物理反馈,并且不需要视觉支持,避免了由于VR手柄没有真实的物理反馈而导致的移动超范围和误触问题,提高了操作真实性和准确性。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1为本申请实施例提供的一种VR人机交互应用场景图;
图2为现有技术中由VR头盔显示的VR交互界面的示意图;
图3为本申请一个实施例提供的基于VR的人机交互方法的流程图;
图4为本申请实施例提供的一种触发区域对应用户身体区域的示意图;
图5为本申请另一个实施例提供的基于VR的人机交互方法的流程图;
图6为图5所示实施例中步骤S203的流程图;
图7A为本申请实施例提供的一种VR手柄沿特定轨迹移动至触发区域的示意图;
图7B为本申请实施例提供的另一种VR手柄沿特定轨迹移动至触发区域的示意图;
图8为本申请实施例提供的一种圆柱形触发区域示意图;
图9A为本申请实施例提供的一种通过虚拟手柄标识判断VR手柄移动至触发区域的过程示意图之一;
图9B为本申请实施例提供的一种通过虚拟手柄标识判断VR手柄移动至触发区域的过程示意图之二;
图9C为本申请实施例提供的一种通过虚拟手柄标识判断VR手柄移动至触发区域的过程示意图之三;
图10为本申请一个实施例提供的基于虚拟现实的人机交互装置的结构示意图;
图11为本申请另一个实施例提供的基于虚拟现实的人机交互装置的结构示意图;
图12为本申请一个实施例提供的电子设备的示意图;
图13为本申请一个实施例提供的虚拟现实系统的示意图。
通过上述附图,已示出本申请明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本申请构思的范围,而是通过参考特定实施例为本领域技术人员说明本申请的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
首先对本申请所涉及的名词进行解释:
虚拟现实(Virtual Reality,VR):虚拟现实技术,又称灵境技术,是通过实模拟虚拟环境从而给人以环境沉浸感的显示技术,用户通过VR头盔、VR眼镜等交互设备对计算机模拟生成的虚拟现实环境进行沉浸式感知,同时通过VR手柄等传感设备,实现用户在虚拟环境中与设备的交互,使用户能够得到接近真实世界的体验,实现各种各样的虚拟现实应用场景。
下面对本申请实施例的应用场景进行解释:
图1为本申请实施例提供的一种VR人机交互应用场景图,参考图1,在VR游戏场景下,用户通过穿戴式VR设备进行人机交互,VR设备能够向用户提供一个虚拟空间,从而实现用户在游戏中的互动操作和沉浸式体验。其中,穿戴式VR设备可以包括VR头盔和VR手柄。其中,VR头盔中包括显示屏,或者其他用于展示VR图像内容的图像投射单元,VR头盔用于向佩戴用户显示VR图像内容,或者,VR头盔还可以同时通过内置或外接的发声单元,例如耳机,向佩戴用户输出声音内容。当然,可以理解的是,本实施例中的VR头盔也可以由VR眼镜等用于显示的类似设备替换,不影响本申请提供的实施例的实现。VR手柄中包括用于空间定位和感知空间移动的传感器,例如陀螺仪传感器,用户通过手持VR手柄进行移动,实现向VR交互界面中输入坐标,以模拟用户在VR交互界面中的对标识的操作。VR手柄可以包括一个单手持握的手持设备,也可以包括2个由用户左右手分别持握的手持设备。可选地,穿戴式VR设备与VR主机连接,VR主机为能够运行基于VR的应用程序的终端设备,例如游戏主机、电脑、智能手机等。
图2为现有技术中由VR头盔显示的VR交互界面的示意图,如图2所示,在该VR交互界面中,显示有虚拟的触发按钮,当用户通过操作VR手柄,使VR手柄操作标识移动至该触发按钮时,会模拟用户的“按下按钮”动作,对该触发按钮进行触发,以执行对应的操作指令。然而,由于在由VR头盔所显示的图像形成的VR交互界面,是一个虚拟的三维空间,即虚拟空间。当用户操作VR手柄移动标识触发该触发按钮时,标识在触碰到虚拟按钮后,不会像触碰真实的物理按钮,得到物理反馈,仅通过视觉进行定位,很难在虚拟空间中完成准确的触发操作,进而造成操作动作过大、过快、不准确等问题,导致标识穿过该虚拟的触发按钮,无法准确的对其进行触发。同时,在触发按钮较多,距离较近时,还会导致误触的问题,影响了用户与设备之间的交互效率和交互精度。
因此,在进行基于VR的人机交互时,如何使用户在操作VR手柄移动标识时,能够使标识准确的移动并停止在触发按钮上,是解决上述问题的关键。本申请实施例中,通过将触发操作指令的区域,设置在用户身体表面的指定位置,当VR手柄移动至该区域时,能够触发对应的操作指令,同时由于用户身体能够形成物理的障碍,阻止VR手柄继续移动,因此,通过真实的物理反馈,使与VR手柄对应的标识准确的停留在触发点,标识移动和停止不准确的问题。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
图3为本申请一个实施例提供的基于VR的人机交互方法的流程图,本申请实施例提供的基于虚拟现实的人机交互方法,可以应用在如图1所示的穿戴式VR设备中,由VR头盔或VR手柄作为执行主体实施上述方法;也可以应用在与穿戴式VR设备连接的VR主机中,由VR主机作为执行主体实施上述方法,此处不进行具体限定,本实施例中,以VR主机为执行主体进行实例性说明,其中,VR主机提供一虚拟空间,虚拟空间中包括一虚拟人物模型,虚拟人物模型与现实空间中的用户身体相对应,虚拟空间中还包括一虚拟手柄标识,虚拟手柄标识与现实空间中的虚拟现实手柄相对应。
如图3所示,本实施例提供的基于VR的人机交互方法包括以下几个步骤:
步骤S101,实时获取虚拟现实手柄在现实空间中的定位信息,定位信息用于表征在现实空间中虚拟现实手柄与用户身体的位置关系。
示例性地,定位信息是用于表征VR手柄在现实空间中位置的数据信息,该定位信息可以是由VR手柄中的陀螺仪传感器提供的定位数据。当用户穿戴上VR手柄、VR头盔等设备后,通过此类设备的定位功能,以及执行相应的校准程序,可以确定VR手柄与用户身体之间的位置关系。具体地,由于VR手柄是握持在用户手中的,VR头盔是穿戴在用户头部的,因此,VR主机根据预设的人体模型,利用VR手柄和VR头盔的定位功能,通过执行校准程序,可以实现对用户身体轮廓的定位,生成一个用于模拟用户身体轮廓的虚拟人物模型,该过程为本领域现有技术,此处不再赘述。由于该虚拟人物模型是根据VR手柄提供的定位数据生成的,因此,VR手柄的定位信息能够表征VR手柄与用户身体之间的位置关系。
进一步地,由于VR手柄是由用户手持进行操作的交互设备,因此,当VR手柄移动时,由于其空间位置发生移动,其对应的定位信息也发生变化。VR主机通过实时的获取手柄的定位信息,并里该定位信息,将手柄的移动映射为在由VR图像内容组成的VR空间中标识的移动,实现预设的操作指令,同时,还可以通过VR交互界面显示该标识,从而实现用户与VR设备之间的人机交互过程。
步骤S102,若根据定位信息在虚拟空间中确定虚拟手柄标识移动至设置于虚拟人物模型之上的触发区域时,则在虚拟空间中触发与触发区域对应的操作指令。
示例性地,触发区域是虚拟空间中虚拟人物模型上能够触发操作指令的区域,当用户操作VR手柄移动时,虚拟空间中的虚拟手柄标识也会同步移动,当该虚拟空间中的虚拟手柄标识到达虚拟人物模型上的目标位置时,触发对应的操作指令,例如调出游戏中的“菜单选项”,或者执行“发送信息”的操作。图4为本申请实施例提供的一种触发区域对应用户身体区域的示意图,如图4所示,具体地,例如用户的腹部位置为目标区域,在虚拟空间中对应设置于虚拟人物模型上的触发区域a,用于触发对应的操作指令,当用户操作VR手柄移动至腹部位置时,VR主机根据VR手柄的定位信息,判断虚拟手柄标识已经移动到了触发区域a,进而,执行对应的操作指令,例如调出游戏中的“菜单选项”。此时,用户的VR手柄抵在用户的腹部位置,因此,在该VR手柄到的触发区域后,由于用户腹部提供的物体阻挡,使VR手柄无法进一步移动,同时通过向用户提供物理反馈,使用户通过触感,停止继续移动VR手柄,从而使VR手柄能够在移动至目标区域后,随之准确的停留在该触发位置,实现对操作指令的精确触发。
其中,由于定位信息能够确定VR手柄与用户身体之间的位置关系,因此,根据定位信息,可以确定VR手柄是否到达了触发区域对应的目标区域。若确定VR手柄移动至该与触发区域对应的目标区域,则执行上述与触发区域对应的操作指令。
进一步地,在一种可能的实现方式中,VR主机通过VR头盔的显示单元,在VR交互界面中显示上述虚拟人物模型,并在虚拟人物模型上显示触发区域,用户通过控制VR手柄移动,可以通过VR头盔实时感知与VR手柄对应的,显示在VR交互界面上标识,通过控制标识去触发不同的触发区域,实现不同的操作功能。本实施例中,通过显示虚拟手柄标识,使用户可以通过VR手柄控制虚拟手柄标识移动至虚拟空间中虚拟人物模型的不同的触发区域,而实现多种操作指令,以实现复杂的组合操作指令,提高交互效率。
在另一种可能的实现方式中,与VR主机连接的VR头盔中,不对虚拟人物模型及设置在虚拟人物模型上的触发区域进行显示,而只显示具体的VR应用对应的VR内容。此时,当用户需要执行某些常用指令是,例如,退出程序、唤起菜单,用户可以直接控制VR手柄移动至对应的触发区域,由于用户感知自己的身体不需要视觉支持,因此,可以实现在VR交互过程中的盲操作,以提高VR交互效率。
本实施例中,通过实时获取虚拟现实手柄在现实空间中的定位信息,定位信息用于表征在现实空间中虚拟现实手柄与用户身体的位置关系;若根据定位信息在虚拟空间中确定虚拟手柄标识移动至设置于虚拟人物模型之上的触发区域时,则在虚拟空间中触发与触发区域对应的操作指令。由于能够触发预设的操作指令的触发区域设置在虚拟人物模型上,因此,当需要执行该操作指令时,VR手柄需要移动至该与触发区域对应的用户身体的目标区域以进行操作指令的触发,而用户身体的表面能够给予VR手柄真实的物理反馈,并且不需要视觉支持,避免了由于VR手柄没有真实的物理反馈而导致的移动超范围和误触问题,提高了操作真实性和准确性。
图5为本申请另一个实施例提供的基于VR的人机交互方法的流程图,如图5所示,本实施例提供的基于VR的人机交互方法在图3所示实施例提供的基于VR的人机交互方法的基础上,对步骤S102进一步细化,并增加了设置虚拟触发点的步骤,则本实施例提供的的基于VR的人机交互方法包括以下几个步骤:
步骤S201,实时获取VR手柄的定位信息,并根据定位信息,确定虚拟手柄标识。
步骤S202,根据预设的对应关系,确定触发区域对应的虚拟触发点,其中,虚拟触发点设置在虚拟人物模型上,虚拟人物模型用于实时模拟用户身体轮廓。
示例性地,定位信息中包括VR手柄相对用户身体的空间坐标,根据该空间坐标,向由VR图像组成的VR空间中进行投影变换,能够生成一个与该空间坐标对应的在虚拟空间中的坐标,该坐标即为真实环境中的VR手柄对应的虚拟手柄标识在VR空间的坐标。当VR手柄在真实环境中移动时,对应的在VR空间中虚拟手柄标识发生改变,示例性地,该虚拟手柄标识可以在VR交互界面中显示,也可以不再VR交互界面中显示,当该标识在VR交互界面中显示时,表现为虚拟手柄标识在VR交互界面中,随着真实环境中的VR手柄的移动而移动。
进一步地,虚拟触发点是触发区域的一种实现方式,虚拟触发点与定位在用户身体某个位置的目标区域相对应,该虚拟触发点在被触发时,VR主机执行对应的操作指令。虚拟触发点设置在虚拟人物模型上,虚拟人物模型用于实时模拟用户身体轮廓。根据预设的对应关系,可以确定触发区域对应的虚拟触发点,具体地,触发区域包括多个虚拟触发点,预设的对应关系用于指定触发区域中的虚拟触发点。由于虚拟人物模型是根据VR手柄、VR头盔等带有定位功能的设备对用户人体进行建模而生成的,因此,虚拟人物模型能够实时的模拟用户身体轮廓并进行定位。进而,预设在虚拟人物模型上的虚拟触发点,能够映射真实环境中定位在用户身体表面上的目标区域。预设的对应关系即为表征该虚拟触发点与目标区域映射关系的信息,根据该预设的对应关系,可以确定不同的虚拟触发点。
步骤S203,若虚拟手柄标识移动至虚拟触发点,则在虚拟空间中触发与触发区域对应的操作指令。
由于虚拟人物模型是对真实环境中用户身体轮廓位置的模拟,因此,当VR空间中的虚拟手柄标识移动至虚拟人物模型上的虚拟触发点时,则可以确定在真实环境中,用户操作的VR手柄也移动至用户身体表面的目标区域。为了实现更好的触发精度和触发反馈效果,可选地,如图6所示,步骤S203包括步骤以下几个具体的实现步骤:
步骤S2031,获取预设的触发轨迹信息,触发轨迹信息用于表征在虚拟空间中,虚拟手柄标识移动至虚拟触发点的过程中,能够触发操作指令的运动轨迹。
在用户操作VR手柄,在真实环境下做动作时,为了减少误触,设置VR手柄只有以特定的轨迹进行移动至目标区域时,才会触发操作指令,图7A为本申请实施例提供的一种VR手柄沿特定轨迹移动至目标区域的示意图,如图7A所示,例如,目标区域为用户身体的腹部,则当VR手柄垂直于用户腹部表面移动至腹部区域时,才会触发对应的操作指令。相应的,此时,在虚拟空间中,虚拟手柄标识也沿触发轨迹信息对应的运动轨迹移动至触发区域,以触发操指令。以图7B为本申请实施例提供的另一种VR手柄沿特定轨迹移动至目标区域的示意图,如图7B所示,而VR手柄若平行的扫过腹部区域,VR手柄对应的虚拟手柄标识不匹配触发轨迹信息对应的运动轨迹,则不会触发对应的操作指令。类似的,此时,在虚拟空间中,虚拟手柄标识未沿触发轨迹信息对应的运动轨迹移动至触发区域,因此无法触发操指令。
具体地,触发轨迹信息包括描述运动轨迹的信息,在一种可能的实现方式中,VR主机根据虚拟手柄标识的移动,判断VR手柄是否按照指定的运动轨迹进行运动,当虚拟手柄标识移动至虚拟触发点的轨迹,与触发轨迹信息对应的运动轨迹相匹配时,则VR主机可以判断VR手柄是按照特定运动轨迹移动的,例如垂直移动至用户腹部的出发区域。
在一种可能的实现方式中,触发轨迹信息对应的运动轨迹为一条直线段,该直线段与虚拟触发点所在平面成预设夹角,该夹角可以根据需要进行设置,以使用户能够以一个舒适的姿势去操作VR手柄的移动,提高用户使用体验。
步骤S2032,根据虚拟手柄标识,判断虚拟现实手柄是否处于触发激活状态。
进一步地,当虚拟手柄标识移动至触发区域之前,即在VR手柄向目标区域移动的过程中,由于没有物理约束,因此,用户时无法通过物理回馈确定VR手柄距离目标区域的距离的,影响触发操作的真实感,以及操作精准性。因此,在根据虚拟手柄标识,判断VR手柄标识是否移动至触发区域之前,先判断虚拟现实手柄是否处于触发激活状态,可选地,若VR手柄处于触发激活状态,则控制VR手柄进行提示,例如,控制VR手柄振动。
示例性地,具体地,根据虚拟手柄标识,判断VR手柄是否处于触发激活状态的步骤包括:
获取预设的虚拟空间中的圆柱形触发区域,圆柱形触发区域沿触发轨迹信息对应的运动轨迹设置,且虚拟触发点位于圆柱形触发区域的一个底面;若虚拟手柄标识位于圆柱形触发区域内,则虚拟现实手柄处于触发激活状态。
图8为本申请实施例提供的一种圆柱形触发区域示意图,如图8所示,圆柱形触发区域为虚拟空间中用于表示空间位置的信息,可以是一种矩阵、序列或其他数据形式,此处出于示例性目的,展示该圆柱形触发区域,在实际的VR交互界面中,不对该圆柱形触发区域进行显示。示例性地,该圆柱形触发区域沿触发轨迹信息对应的运动轨迹设置,该圆柱形触发区域具有入口侧和出口侧,示例性地,其中出口侧与虚拟触发点重合,虚拟手柄标识自入口侧进入该圆柱形触发区域后,即判定VR手柄处于触发激活状态;当虚拟手柄标识从任意方向离开该圆柱形触发区域后,则判定VR手柄处于非激活状态。进一步地,示例性地,当虚拟手柄标识离开圆柱形触发区域后,需要从入口侧重新进入该圆柱形触发区域后,才会将VR手柄判定为触发激活状态,以降低操作误判。
在一种可能的实现方式中,该圆柱形触发区域对应的数据,即为触发轨迹信息。当虚拟手柄坐标沿着该圆柱形触发区域的轴线方向移动,且该虚拟手柄坐标在移动过程中,始终处于该圆柱形触发区域内,则为能够触发操作指令的运动轨迹。
示例性地,该圆柱形触发区域具有预设的配置参数,例如,圆柱形触发区域的高度、圆柱形触发区域的半径等,通过设置不同的高度,可以调整VR手柄移动过程中,进入触发激活状态并进行振动提示的行程长度;通过设置不同的半径,可以调整VR手柄移动过程中的识别率,提高容错率或者提高精确度,以适应不同的应用场景,提高使用灵活性。
步骤S2033,获取预设的待触发距离。
待触发距离是用于表征虚拟手柄标识距离虚拟触发点的最长触发距离。例如,待触发距离为a,对应真实环境中VR手柄与目标区域的真实触发距离为1厘米,当虚拟手柄标识距离虚拟触发点的距离为a,或小于a时,对虚拟触发点进行触发。此处,对应真实环境中VR手柄与目标区域的真实触发距离也等于或小于1厘米。通过设置待触发距离,可以提高VR手柄获得用户身体提供的物理反馈的力度,并提高容错率,提高操作指令的触发准确性。
步骤S2034,若VR手柄处于触发激活状态,且虚拟手柄标识沿触发轨迹信息对应的运动轨迹移动至距离虚拟触发点待触发距离的范围内,则确定VR手柄标识移动至虚拟触发点,并在虚拟空间中触发与虚拟触发点对应的操作指令。
图9A、图9B、图9C为本申请实施例提供的通过虚拟手柄标识判断VR手柄标识移动至触发区域的过程示意图,参考图9A、图9B、图9C,下面以一个完整的实施例对步骤S203的实现方式进行说明。
示例性地,随着现实空间中VR手柄的移动,虚拟手柄标识在VR空间同步移动,其中,现实环境中目标区域为用户的腹部,VR空间中的触发区域的虚拟触发点为一个圆形区域,设置在虚拟人物模型对应的腹部区域,VR主机根据VR手柄提供的空间信息,实时确定虚拟手柄标识的坐标值,当判断虚拟手柄标识在圆柱形触发区域外时,判断VR手柄处于准备状态;当判断虚拟手柄标识从与虚拟触发点垂直的圆柱形触发区域的入口侧进入该圆柱形触发区域后,确定VR手柄进入触发激活状态,并控制VR手柄进行振动;随着现实空间中VR手柄继续向目标区域移动,虚拟手柄标识也在圆柱形触发区域内继续向虚拟触发点移动,可选地,该过程中可以控制VR手柄的振动强度逐渐变大;当虚拟手柄标识移动至距离触发点等于或小于待触发距离时,确定虚拟手柄标识移动至触发区域对应的虚拟触发点,同时,真实空间中VR手柄已移动至用户腹部的目标区域,处于触发状态。
本实施例中,步骤S201中实时获取VR手柄的定位信息的实现方式与步骤S204的实现方式分别与本申请图2所示实施例中的步骤S101,以及步骤S102中触发操作指令的实现方式相同,在此不再一一赘述。
可选地,在上述技术方案的基础上,本实施例提供的方法,还可以包括:
步骤S200,接收用户输入的触发区域设置指令;根据触发区域设置指令,设置与触发区域对应的虚拟触发点,虚拟触发点用于在被触发时执行操作指令。
示例性地,触发区域的设置可以是根据用户的需要进行设置的。触发区域设置指令即为用户输入的,用户设置出发区域的指令信息。具体地,由于虚拟人物模型可以实时模拟用户身体的轮廓,因此,根据触发区域设置指令,在虚拟人物模型上设置对应的虚拟触发点,并为该虚拟触发点映射对应的操作指令,即可实现对触发区域的设置。
下面以一个具体的实施例对设置虚拟触发点的过程进行说明。设置虚拟触发点的过程的具体过程包括:
S200A,在VR交互界面以第一视角显示虚拟人物模型,虚拟人物模型用于在虚拟现实空间实时模拟用户身体的轮廓。
S200B,根据触发区域设置指令,虚拟人物模型上设置与触发区域对应的虚拟触发点。
示例性地,VR主机通过VR头盔,以第一视角显示虚拟人物模型,在一种可能的实现方式中,虚拟人物模型是根据虚拟现实手柄的定位信息,和/或虚拟现实头盔的定位信息生成的模拟用户上半身的虚拟模型,并通过第一人称视角显示在VR头盔中,用户可以通过显示在VR头盔中虚拟人物模型,在不同区域设置虚拟触发点。更加具体地,虚拟人物模型上,显示有可用于设置虚拟触发点的多个区域,用户可通过输入用户选择和确定的出发区域设置指令,在虚拟人物模型上设置虚拟触发点。由于虚拟人物模型可以实时模拟用户身体的轮廓,设置在虚拟人物模型上的虚拟触发点,对应现实空间中用户身体的对应区域。
本实施例步骤中,通过接收用户输入的触发区域设置指令,可以实现触发区域的自定义设置,使本实施例提供的方法可以应用在不同的场景下,提高适用范围。
图10为本申请一个实施例提供的基于虚拟现实的人机交互装置的结构示意图,应用于终端设备,终端设备提供一虚拟空间,虚拟空间中包括一虚拟人物模型,虚拟人物模型与现实空间中的用户身体相对应,虚拟空间中还包括一虚拟手柄标识,虚拟手柄标识与现实空间中的虚拟现实手柄相对应;如图10所示,本实施例提供的基于虚拟现实的人机交互装置3包括:
获取模块31,用于实时获取虚拟现实手柄在现实空间中的定位信息,定位信息用于表征在现实空间中虚拟现实手柄与用户身体的位置关系。
触发模块32,用于若根据定位信息在虚拟空间中确定虚拟手柄标识移动至设置于虚拟人物模型之上的触发区域时,则在虚拟空间中触发与触发区域对应的操作指令。
其中,获取模块31、触发模块32依次连接。本实施例提供的基于虚拟现实的人机交互装置3可以执行如图3所示的方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图11为本申请另一个实施例提供的基于虚拟现实的人机交互装置的结构示意图,如图11所示,本实施例提供的基于虚拟现实的人机交互装置4在图10所示实施例提供的基于虚拟现实的人机交互装置3的基础上,增加了设置模块41;
在一种可能的实现方式中,触发模块32,具体用于:根据定位信息,在虚拟空间中确定虚拟手柄标识,虚拟手柄标识为虚拟现实手柄在虚拟空间的投影;根据预设的对应关系,在虚拟空间中确定触发区域对应的虚拟触发点,其中,虚拟触发点设置在虚拟人物模型上,虚拟人物模型用于在虚拟空间实时模拟用户身体的轮廓;若虚拟手柄标识移动至虚拟触发点,则在虚拟空间中触发与触发区域对应的操作指令。
在一种可能的实现方式中,若虚拟手柄标识移动至虚拟触发点,则触发模块32在虚拟空间中触发与触发区域对应的操作指令时,具体用于:获取预设的触发轨迹信息,触发轨迹信息用于表征在虚拟空间中,虚拟手柄标识移动至虚拟触发点的过程中,能够触发操作指令的运动轨迹;若虚拟手柄标识移动至虚拟触发点的运动轨迹与触发轨迹信息相匹配,则在虚拟空间中触发与触发区域对应的操作指令。
在一种可能的实现方式中,触发轨迹信息对应的运动轨迹与虚拟触发点所在平面成预设夹角。
在一种可能的实现方式中,触发模块32还用于:根据虚拟手柄标识,判断虚拟现实手柄是否处于触发激活状态;若虚拟手柄标识移动至虚拟触发点的运动轨迹与触发轨迹信息相匹配,则触发模32块在虚拟空间中触发与虚拟触发点对应的操作指令时,具体用于:若虚拟现实手柄处于激活状态,且在虚拟空间中虚拟手柄标识移动至虚拟触发点的运动轨迹与触发轨迹信息相匹配,则在虚拟空间中触发与虚拟触发点对应的操作指令。
在一种可能的实现方式中,触发模块32在根据虚拟手柄标识,判断虚拟现实手柄是否处于触发激活状态时,具体用于:获取预设的虚拟空间中的圆柱形触发区域,圆柱形触发区域在虚拟空间中沿触发轨迹信息对应的运动轨迹设置,且虚拟触发点位于圆柱形触发区域的一个底面;若虚拟手柄标识位于圆柱形触发区域内,则虚拟现实手柄处于触发激活状态。
在一种可能的实现方式中,若虚拟现实手柄处于激活状态,且在虚拟空间中虚拟手柄标识移动至虚拟触发点的运动轨迹与触发轨迹信息相匹配,则触发模块32在虚拟空间中触发与虚拟触发点对应的操作指令时,具体用于:获取预设的虚拟空间中的待触发距离;若虚拟空间中的虚拟手柄标识位于圆柱形触发区域内,且虚拟手柄标识沿触发轨迹信息对应的运动轨迹移动至距离虚拟触发点待触发距离的范围内,则在虚拟空间中触发与虚拟触发点对应的操作指令。
在一种可能的实现方式中,装置还包括设置模块41,用于:接收用户输入的触发区域设置指令;根据触发区域设置指令,在虚拟空间中设置与触发区域对应的虚拟触发点,虚拟触发点用于在被触发时执行操作指令。
在一种可能的实现方式中,设置模块41还用于:在虚拟现实交互界面以第一视角显示虚拟空间中的虚拟人物模型,虚拟人物模型用于在虚拟现实空间实时模拟用户身体的轮廓;设置模块41在根据触发区域设置指令,在虚拟空间中设置与触发区域对应的虚拟触发点时,具体用于:根据触发区域设置指令,在虚拟空间中的虚拟人物模型上设置与触发区域对应的虚拟触发点。
其中,获取模块31、触发模块32、设置模块41依次连接。本实施例提供的基于虚拟现实的人机交互装置4可以执行如图3、图5所示的方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图12为本申请一个实施例提供的电子设备的示意图,如图12所示,本实施例提供的电子设备5包括:存储器51,处理器52以及计算机程序。
其中,计算机程序存储在存储器51中,并被配置为由处理器52执行以实现本申请图3、图5所对应的实施例中任一实施例提供的基于虚拟现实的人机交互方法。
其中,存储器51和处理器52通过总线53连接。
相关说明可以对应参见图3、图5所对应的实施例中的步骤所对应的相关描述和效果进行理解,此处不做过多赘述。
图13为本申请一个实施例提供的虚拟现实系统的示意图,如图13所示,本实施例提供的虚拟现实系统6包括:VR主机61、VR手柄62和VR头盔63,VR主机61分别与VR手柄62和VR头盔63连接。
VR手柄62用于获取定位信息,和/或,接受用户操作指令。
VR头盔63用于显示虚拟现实图像。
VR主机61用于执行预设的计算机程序以实现本申请图3、图5所对应的实施例中任一实施例提供的基于虚拟现实的人机交互方法。
本申请一个实施例提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行以实现本申请图3、图5所对应的实施例中任一实施例提供的基于虚拟现实的人机交互方法。
其中,计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
本领域技术人员在考虑说明书及实践这里公开的申请后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求书指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求书来限制。

Claims (14)

1.一种基于虚拟现实的人机交互方法,其特征在于,通过终端设备提供一虚拟空间,所述虚拟空间中包括一虚拟人物模型,所述虚拟人物模型与现实空间中的用户身体相对应,所述虚拟空间中还包括一虚拟手柄标识,所述虚拟手柄标识与现实空间中的虚拟现实手柄相对应,所述方法包括:
实时获取虚拟现实手柄在现实空间中的定位信息,所述定位信息用于表征在现实空间中所述虚拟现实手柄与所述用户身体的位置关系;
若根据所述定位信息在虚拟空间中确定所述虚拟手柄标识移动至设置于所述虚拟人物模型之上的触发区域时,则在虚拟空间中触发与所述触发区域对应的操作指令。
2.根据权利要求1所述的方法,其特征在于,若根据所述定位信息在虚拟空间中确定所述虚拟手柄标识移动至设置于所述虚拟人物模型之上的触发区域时,则在虚拟空间中触发与所述触发区域对应的操作指令,包括:
根据所述定位信息,在虚拟空间中确定虚拟手柄标识,所述虚拟手柄标识为所述虚拟现实手柄在虚拟空间的投影;
根据预设的对应关系,在所述虚拟空间中确定所述触发区域对应的虚拟触发点,其中,所述虚拟触发点设置在虚拟人物模型上,所述虚拟人物模型用于在所述虚拟空间实时模拟所述用户身体的轮廓;
若所述虚拟手柄标识移动至所述虚拟触发点,则在虚拟空间中触发与所述触发区域对应的操作指令。
3.根据权利要求2所述的方法,其特征在于,若所述虚拟手柄标识移动至所述虚拟触发点,则在虚拟空间中触发与所述触发区域对应的操作指令,包括:
获取预设的触发轨迹信息,所述触发轨迹信息用于表征在所述虚拟空间中,所述虚拟手柄标识移动至所述虚拟触发点的过程中,能够触发所述操作指令的运动轨迹;
若所述虚拟手柄标识移动至所述虚拟触发点的运动轨迹与所述触发轨迹信息相匹配,则在虚拟空间中触发与所述触发区域对应的操作指令。
4.根据权利要求3所述的方法,其特征在于,所述触发轨迹信息对应的运动轨迹与所述虚拟触发点所在平面成预设夹角。
5.根据权利要求3所述的方法,其特征在于,所述方法还包括:
根据所述虚拟手柄标识,判断所述虚拟现实手柄是否处于触发激活状态;
若所述虚拟手柄标识移动至所述虚拟触发点的运动轨迹与所述触发轨迹信息相匹配,则在虚拟空间中触发与所述虚拟触发点对应的操作指令,包括:
若所述虚拟现实手柄处于激活状态,且在所述虚拟空间中所述虚拟手柄标识移动至所述虚拟触发点的运动轨迹与所述触发轨迹信息相匹配,则在虚拟空间中触发与所述虚拟触发点对应的操作指令。
6.根据权利要求5所述的方法,其特征在于,根据所述虚拟手柄标识,判断所述虚拟现实手柄是否处于触发激活状态,包括:
获取预设的所述虚拟空间中的圆柱形触发区域,所述圆柱形触发区域在所述虚拟空间中沿所述触发轨迹信息对应的运动轨迹设置,且所述虚拟触发点位于所述圆柱形触发区域的一个底面;
若所述虚拟手柄标识位于所述圆柱形触发区域内,则所述虚拟现实手柄处于触发激活状态。
7.根据权利要求6所述的方法,其特征在于,若所述虚拟现实手柄处于激活状态,且在所述虚拟空间中所述虚拟手柄标识移动至所述虚拟触发点的运动轨迹与所述触发轨迹信息相匹配,则在虚拟空间中触发与所述虚拟触发点对应的操作指令,包括:
获取预设的所述虚拟空间中的待触发距离;
若所述虚拟空间中的所述虚拟手柄标识位于所述圆柱形触发区域内,且所述虚拟手柄标识沿所述触发轨迹信息对应的运动轨迹移动至距离所述虚拟触发点所述待触发距离的范围内,则在虚拟空间中触发与所述虚拟触发点对应的操作指令。
8.根据权利要求1-7任一项所述的方法,其特征在于,所述方法还包括:
接收用户输入的触发区域设置指令;
根据所述触发区域设置指令,在所述虚拟空间中设置与所述触发区域对应的虚拟触发点,所述虚拟触发点用于在被触发时执行所述操作指令。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括:
在虚拟现实交互界面以第一视角显示所述虚拟空间中的虚拟人物模型,所述虚拟人物模型用于在所述虚拟现实空间实时模拟用户身体的轮廓;
根据所述触发区域设置指令,在所述虚拟空间中设置与所述触发区域对应的虚拟触发点,包括:
根据所述触发区域设置指令,在所述虚拟空间中的所述虚拟人物模型上设置与所述触发区域对应的虚拟触发点。
10.根据权利要求9所述的方法,其特征在于,虚拟人物模型是根据所述虚拟现实手柄的定位信息,和/或虚拟现实头盔的定位信息生成的。
11.一种基于虚拟现实的人机交互装置,其特征在于,应用于终端设备,所述终端设备提供一虚拟空间,所述虚拟空间中包括一虚拟人物模型,所述虚拟人物模型与现实空间中的用户身体相对应,所述虚拟空间中还包括一虚拟手柄标识,所述虚拟手柄标识与现实空间中的虚拟现实手柄相对应;所述装置包括:
获取模块,用于实时获取虚拟现实手柄在现实空间中的定位信息,所述定位信息用于表征在现实空间中所述虚拟现实手柄与所述用户身体的位置关系;
触发模块,用于若根据所述定位信息在虚拟空间中确定所述虚拟手柄标识移动至设置于所述虚拟人物模型之上的触发区域时,则在虚拟空间中触发与所述触发区域对应的操作指令。
12.一种电子设备,其特征在于,包括:存储器,处理器以及计算机程序;
其中,所述计算机程序存储在所述存储器中,并被配置为由所述处理器执行以实现如权利要求1至10中任一项所述的虚拟现实交互方法。
13.一种虚拟现实系统,其特征在于,包括:虚拟现实主机、虚拟现实手柄和虚拟现实头盔;
所述虚拟现实手柄用于获取定位信息,和/或,接受用户操作指令;
所述虚拟现实头盔用于显示虚拟现实图像;
所述虚拟现实主机用于执行预设的计算机程序以实现如权利要求1至10中任一项所述的虚拟现实交互方法。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如权利要求1至10任一项所述的虚拟现实交互方法。
CN202011541335.6A 2020-12-23 2020-12-23 基于虚拟现实的人机交互方法、装置、设备及存储介质 Pending CN112650391A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011541335.6A CN112650391A (zh) 2020-12-23 2020-12-23 基于虚拟现实的人机交互方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011541335.6A CN112650391A (zh) 2020-12-23 2020-12-23 基于虚拟现实的人机交互方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN112650391A true CN112650391A (zh) 2021-04-13

Family

ID=75359802

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011541335.6A Pending CN112650391A (zh) 2020-12-23 2020-12-23 基于虚拟现实的人机交互方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN112650391A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113703571A (zh) * 2021-08-24 2021-11-26 梁枫 一种虚拟现实人机交互的方法、装置、设备和介质
CN115996357A (zh) * 2023-03-23 2023-04-21 南昌龙旗智能科技有限公司 虚拟位置处理方法及虚拟设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002082751A (ja) * 2000-09-08 2002-03-22 Mitsubishi Electric Corp 仮想空間とのインタラクション装置およびこれを応用した仮想空間システム
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
JP2013228959A (ja) * 2012-04-26 2013-11-07 Bandai Co Ltd 携帯端末装置、端末プログラム、拡張現実感システム、および玩具
CN108073285A (zh) * 2018-01-02 2018-05-25 联想(北京)有限公司 一种电子设备及控制方法
CN109032339A (zh) * 2018-06-29 2018-12-18 贵州威爱教育科技有限公司 一种实时智能体感同步的方法及系统
WO2019150430A1 (ja) * 2018-01-30 2019-08-08 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
WO2020223859A1 (zh) * 2019-05-05 2020-11-12 华为技术有限公司 一种检测倾斜文字的方法、装置及设备
US20200387286A1 (en) * 2019-06-07 2020-12-10 Facebook Technologies, Llc Arm gaze-driven user interface element gating for artificial reality systems

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002082751A (ja) * 2000-09-08 2002-03-22 Mitsubishi Electric Corp 仮想空間とのインタラクション装置およびこれを応用した仮想空間システム
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
JP2013228959A (ja) * 2012-04-26 2013-11-07 Bandai Co Ltd 携帯端末装置、端末プログラム、拡張現実感システム、および玩具
CN108073285A (zh) * 2018-01-02 2018-05-25 联想(北京)有限公司 一种电子设备及控制方法
WO2019150430A1 (ja) * 2018-01-30 2019-08-08 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
CN109032339A (zh) * 2018-06-29 2018-12-18 贵州威爱教育科技有限公司 一种实时智能体感同步的方法及系统
WO2020223859A1 (zh) * 2019-05-05 2020-11-12 华为技术有限公司 一种检测倾斜文字的方法、装置及设备
US20200387286A1 (en) * 2019-06-07 2020-12-10 Facebook Technologies, Llc Arm gaze-driven user interface element gating for artificial reality systems

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113703571A (zh) * 2021-08-24 2021-11-26 梁枫 一种虚拟现实人机交互的方法、装置、设备和介质
CN113703571B (zh) * 2021-08-24 2024-02-06 梁枫 一种虚拟现实人机交互的方法、装置、设备和介质
CN115996357A (zh) * 2023-03-23 2023-04-21 南昌龙旗智能科技有限公司 虚拟位置处理方法及虚拟设备
CN115996357B (zh) * 2023-03-23 2023-10-31 南昌龙旗智能科技有限公司 虚拟位置处理方法及虚拟设备

Similar Documents

Publication Publication Date Title
EP2755194B1 (en) 3d virtual training system and method
EP4123425A1 (en) Eye tracking calibration techniques
CN117120962A (zh) 用于控制虚拟和图形元素的映射手部区域之间的双手交互
JP6288372B2 (ja) インタフェース制御システム、インタフェース制御装置、インタフェース制御方法、及びプログラム
CN116348836A (zh) 增强现实中用于交互式游戏控制的手势跟踪
CN110603509A (zh) 计算机介导的现实环境中直接和间接交互的联合
JP2020513618A (ja) 複合現実環境における仮想ユーザ入力制御
TW201814438A (zh) 基於虛擬實境場景的輸入方法及裝置
JPWO2017134886A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
US20120135803A1 (en) Game device utilizing stereoscopic display, method of providing game, recording medium storing game program, and game system
EP3364272A1 (en) Automatic localized haptics generation system
JP2009069918A (ja) 情報処理装置、情報処理方法
US9013396B2 (en) System and method for controlling a virtual reality environment by an actor in the virtual reality environment
TWI530858B (zh) 一種立體交互系統和立體交互方法
KR20120068253A (ko) 사용자 인터페이스의 반응 제공 방법 및 장치
CN107918482B (zh) 沉浸式vr系统中避免过度刺激的方法与系统
CN112650391A (zh) 基于虚拟现实的人机交互方法、装置、设备及存储介质
CN109992175B (zh) 用于模拟盲人感受的物体显示方法、装置及存储介质
CN110968190B (zh) 用于触摸检测的imu
CN110716685B (zh) 图像显示方法,图像显示装置、系统及其实体对象
WO2019166005A1 (zh) 智能终端及其感控方法、具有存储功能的装置
CN114026606A (zh) 用于动态遮挡的快速手部网格划分
CN109144598A (zh) 基于手势的电子面罩人机交互方法与系统
CN114167997B (zh) 一种模型显示方法、装置、设备和存储介质
WO2019127325A1 (zh) 信息处理方法、装置、云处理设备及计算机程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210413