CN106951069A - 一种虚拟现实界面的控制方法及虚拟现实设备 - Google Patents
一种虚拟现实界面的控制方法及虚拟现实设备 Download PDFInfo
- Publication number
- CN106951069A CN106951069A CN201710101626.5A CN201710101626A CN106951069A CN 106951069 A CN106951069 A CN 106951069A CN 201710101626 A CN201710101626 A CN 201710101626A CN 106951069 A CN106951069 A CN 106951069A
- Authority
- CN
- China
- Prior art keywords
- virtual reality
- kinematic parameter
- spatial interaction
- interaction gesture
- identified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明实施例提供了一种虚拟现实界面的控制方法及虚拟现实设备,其中,所述虚拟现实界面的控制方法包括:获取用户在预设空间内产生的待识别的运动参数;识别所述待识别的运动参数对应的空间交互手势;确定所述空间交互手势对应的控制指令;显示所述控制指令对应的虚拟现实画面。本发明实施例用户不需要借助外设就能与虚拟现实设备进行人机交互,能够使用户通过真实世界的交互动作操控虚拟现实设备,增强虚拟现实沉浸式体验。
Description
技术领域
本发明涉及虚拟现实技术领域,尤其涉及一种虚拟现实界面的控制方法及虚拟现实设备。
背景技术
虚拟现实(Virtual Reality,VR)技术是一种可以创建和体验虚拟世界的计算机仿真系统,利用计算机生成一种模拟环境,用户借助特殊的输入/输出设备,与虚拟世界中的物体进行自然的交互,从而通过视觉、听觉和触觉获得与真实世界相同的感受。
现有技术中,用户通常需要通过手柄或手套等外设与虚拟现实设备建立通信连接,进行人机交互。例如,通过手柄向虚拟现实设备发送控制指令,以通过该控制指令切换虚拟现实显示界面。
然而,当通过手柄与虚拟现实设备进行交互时,由于手柄具有一定的重量,不便于用户长时间操控,手柄定义的交互动作与用户在真实世界的交互动作不同,影响用户体验。
发明内容
本发明实施例提供一种虚拟现实界面的控制方法及虚拟现实设备,用户不需要借助外设就能与虚拟现实设备进行人机交互,能够使用户通过真实世界的交互动作操控虚拟现实设备,增强虚拟现实沉浸式体验。
第一方面,本发明实施例提供了一种虚拟现实界面的控制方法,该虚拟现实界面的控制方法包括:
获取用户在预设空间内产生的待识别的运动参数;
识别所述待识别的运动参数对应的空间交互手势;
确定所述空间交互手势对应的控制指令;
显示所述控制指令对应的虚拟现实画面。
另一方面,本发明实施例提供了一种虚拟现实设备,该虚拟现实设备包括:
获取单元,用于获取用户在预设空间内产生的待识别的运动参数;
识别单元,用于识别所述待识别的运动参数对应的空间交互手势;
确定单元,用于确定所述空间交互手势对应的控制指令;
显示单元,用于显示所述控制指令对应的虚拟现实画面。
本发明实施例获取用户在预设空间内产生的待识别的运动参数;识别所述待识别的运动参数对应的空间交互手势;确定所述空间交互手势对应的控制指令;显示所述控制指令对应的虚拟现实画面,用户不需要借助外设就能与虚拟现实设备进行人机交互,能够使用户通过真实世界的交互动作操控虚拟现实设备,增强虚拟现实沉浸式体验。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明虚拟现实设备中感知传感器的位置示意图;
图2是本发明实施例提供的一种虚拟现实界面的控制方法的示意流程图;
图3是本发明另一实施例提供的一种虚拟现实界面的控制方法的示意流程图;
图4是本发明实施例提供的发射的微电磁波信号与反射信号的示意图;
图5是本发明实施例提供的距离-多普勒映射图的示意图;
图6是本发明实施例提供的一种虚拟现实设备的示意性框图;
图7是本发明另一实施例提供的一种虚拟现实设备示意性框图;
图8是本发明再一实施例提供的一种虚拟现实设备示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
具体实现中,本发明实施例中描述的终端包括但不限于诸如具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的移动电话、膝上型计算机或平板计算机之类的其它便携式设备。还应当理解的是,在某些实施例中,所述设备并非便携式通信设备,而是具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的台式计算机。
在接下来的讨论中,描述了包括显示器和触摸敏感表面的终端。然而,应当理解的是,终端可以包括诸如物理键盘、鼠标和/或控制杆的一个或多个其它物理用户接口设备。
终端支持各种应用程序,例如以下中的一个或多个:绘图应用程序、演示应用程序、文字处理应用程序、网站创建应用程序、盘刻录应用程序、电子表格应用程序、游戏应用程序、电话应用程序、视频会议应用程序、电子邮件应用程序、即时消息收发应用程序、锻炼支持应用程序、照片管理应用程序、数码相机应用程序、数字摄影机应用程序、web浏览应用程序、数字音乐播放器应用程序和/或数字视频播放器应用程序。
可以在终端上执行的各种应用程序可以使用诸如触摸敏感表面的至少一个公共物理用户接口设备。可以在应用程序之间和/或相应应用程序内调整和/或改变触摸敏感表面的一个或多个功能以及终端上显示的相应信息。这样,终端的公共物理架构(例如,触摸敏感表面)可以支持具有对用户而言直观且透明的用户界面的各种应用程序。
本发明实施例中所述的虚拟现实设备可以包括但不限于虚拟现实眼镜或虚拟现实头盔等。虚拟现实设备设有感知传感器。
请参阅图1,图1是本发明虚拟现实设备中感知传感器的位置示意图。具体地,如图1所示,可以在虚拟现实设备的顶部、底部、左侧、右侧分别设置感知传感器。
其中,设置于虚拟现实设备顶部的感知传感器用于感知虚拟现实设备顶部空间的交互事件,设置于虚拟现实设备底部的感知传感器用于感知虚拟现实设备底部空间的交互事件,设置于虚拟现实设备左侧的感知传感器用于感知虚拟现实设备左侧空间的交互事件,设置于虚拟现实设备右侧空间的感知传感器用于感知虚拟现实设备右侧空间的交互事件。
感知传感器可同时测量用户肢体部位的三维运动轨迹以及运动速度,水平视角为±50°,垂直视角为±50°,检测速度1m/s,检测精度可以达到毫米级。感知传感器设有4个射频天线,其中3条接收天线,1条发射天线。发射天线用于发射微电磁波,接收天线用于接收反射回来的微电磁波。
请参见图2,图2是本发明实施例提供的一种虚拟现实界面的控制方法的示意流程图。本实施例中虚拟现实界面的控制方法的执行主体为虚拟现实设备,如图2所示虚拟现实界面的控制方法可包括以下步骤:
S101:获取用户在预设空间内产生的待识别的运动参数。
虚拟现实设备在正常工作时,通过内置的感知传感器检测用户手部或其他肢体部位在预设空间内产生的运动数据,感知传感器对获取到的运动数据进行分析,获得该运动数据对应的待识别的运动参数。其中,运动数据可以包括运动轨迹、还可以包括运动速度。预设空间对应于感知传感器的监测空间。
虚拟现实设备可以获取感知传感器获得的待识别的运动参数。
S102:识别所述待识别的运动参数对应的空间交互手势。
虚拟现实设备可以提取待识别的运动参数的特征信息,并根据提取的特征信息确定与其匹配的空间交互手势。特征信息可以为波峰、波谷、运动趋势信息等。
虚拟现实设备也可以根据运动参数与空间交互手势的预设对应关系,确定获取到的待识别的运动参数所对应的空间交互手势。空间交互手势可以为点击手势、拍打手势、挥拳手势、向左手势或向右手势等。
S103:确定所述空间交互手势对应的控制指令。
虚拟现实设备获取与运动参数对应的空间交互手势匹配的控制指令。
例如,当空间交互手势为点击手势时,点击手势对应的控制指令为点击指令;当空间交互手势为拍打手势时,拍打手势对应的控制指令为拍打指令;当空间交互手势为挥拳手势时,挥拳手势对应控制指令为挥拳指令。
具体地,S103包括:根据空间交互手势信息与控制指令的预设对应关系,确定所述空间交互手势对应的控制指令。
虚拟现实设备的数据库中预先存储了多个空间交互手势信息,并为每个空间手势定义了控制指令,以形成空间交互手势信息与控制指令的预设对应关系。虚拟现实设备可以从数据库中获取与运动参数对应的空间交互手势相匹配的空间交互手势信息,并根据空间交互手势信息与控制指令的预设对应关系,获取该匹配的空间交互手势信息对应的控制指令。
虚拟现实设备还可以确定空间交互手势对应的作用位置或作用范围,以能够根据该作用位置或作用范围、该空间交互手势对应的控制指令确定待显示的虚拟现实显示画面。
S104:显示所述控制指令对应的虚拟现实画面。
虚拟现实设备根据空间交互手势对应的作用位置或作用范围、空间交互手势对应的控制指令确定待显示的虚拟现实显示画面,并将待显示的虚拟现实显示画面替换当前的虚拟现实显示画面。
例如,当前的虚拟现实显示界面为游戏界面,虚拟现实设备确定的控制指令为挥拳指令,且识别出的空间交互手势对应的作用位置为游戏人物A所处的位置时,显示游戏人物A被拍打的虚拟现实游戏界面。
上述方案,虚拟现实设备获取用户在预设空间内产生的待识别的运动参数;识别所述待识别的运动参数对应的空间交互手势;确定所述空间交互手势对应的控制指令;显示所述控制指令对应的虚拟现实画面,用户不需要借助外设就能与虚拟现实设备进行人机交互,能够使用户通过真实世界的交互动作操控虚拟现实设备,增强虚拟现实沉浸式体验。
请参见图3,图3是本发明另一实施例提供的一种虚拟现实界面的控制方法的示意流程图。本实施例中虚拟现实界面的控制方法的执行主体为虚拟现实设备。如图3所示虚拟现实界面的控制方法可包括以下步骤:
S201:获取用户在预设空间内产生的待识别的运动参数。
虚拟现实设备在正常工作时,通过内置的感知传感器检测用户手部或其他肢体部位在预设空间内产生的运动数据,感知传感器对获取到的运动数据进行分析,获得该运动数据对应的待识别的运动参数。其中,运动数据可以包括运动轨迹、还可以包括运动速度。预设空间对应于感知传感器的监测空间。
虚拟现实设备可以获取感知传感器获得的待识别的运动参数。
进一步地,S201可以包括:发射微电磁波信号,其中,所述微电磁波信号覆盖预设空间;获取用户在所述预设空间内运动产生的反射信号;根据所述微电磁波信号以及所述反射信号确定所述用户的待识别的运动参数。
具体地,虚拟现实设备控制感知传感器发射微电磁波信号,其中,发射的电磁波覆盖感知传感器对应的预设监测空间。虚拟现实设备检测到预设空间有运动物体(用户手部或其他肢体部位)时,控制感知传感器获取发射的微电磁波信号因遇到运动物体发生反射而得到的反射信号。
请一并参阅图4,图4是本发明实施例提供的发射的微电磁波信号与反射信号的示意图。
反射信号因为多普勒效应,与发射的微电磁波信号会产生时间和频率上的差异。时间差异体现为时间延时τ,τ也是微电磁波往返的时间,频率上的差异fd是物体运动产生的多普勒效应。不同的运动动作会产生完全不同波形的被反射的微电磁波。微电磁波可以计算相移(Phase shift)和多普勒效应(Doppler Effect),从而以很低的计算量获取物体的运动轨迹与运动方向。
由于感知传感器根据微电磁波信号以及反射信号确定用户的运动参数,虚拟现实设备可直接获取各感知传感器根据微电磁波信号以及反射信号输出的运动参数,以得到空间运动参数。
进一步地,所述根据所述微电磁波信号以及所述反射信号确定所述用户的待识别的运动参数包括:根据所述微电磁波信号以及所述反射信号确定所述用户的待识别的运动轨迹以及运动速度。
虚拟现实设备控制感知传感器根据提取的处于运动状态的相应数据以及反射信号确定用户手部或其他肢体部位对应的运动轨迹以及运动速度。
虚拟现实设备可以根据设置于多方位的感知传感器确定的运动轨迹得到三维运动轨迹。
具体地,发射的微电磁波信号(原始信号)与反射信号是不同的,虚拟现实设备中的感知传感器可以将接收的反射信号与发射的微电磁波信号相乘,然后在模拟信号领域进行低通滤波,从而产生一个明显的差频信号,然后把二维的时序信号各自做快速傅里叶变换(fast Fourier transform,FFT),通过减法运算去除静止不变的背景环境数据,即可以得到如图5所示的距离-多普勒映射图(Range Doppler Map,RDM)。
RDM的每一格都对应着目标的目前的距离和运动速度。因为不同的物体可以在不同距离或者在相似的距离但是各自有不同的速度,RDM便实现了同时追踪多个物体的效果,获取运动物体的运动轨迹以及运动速度。
由于每个感知传感器均具有一个接收天线,当虚拟现实设备具备多个感知传感器时,其具有多个接收天线,虚拟现实设备可以通过比较每个天线之间RDM的相位差,计算出每个物体的到达角度(Angle of Arrival),配合上之前算出的距离,这样就实现了对物体的空间定位。如果跟传统的深度感应器进行校准之后,则可以获得三维深度图。
虚拟现实设备可以把四维的矢量信号(三维空间位置加上径向速度)映射到一个手掌模型上,以能够通过预设学习算法进行识别。
S202:根据预设学习算法建立运动参数与空间交互手势之间的对应关系。
虚拟现实设备可以获取用户的运动参数,并根据预设学习算法建立运动参数与空间交互手势之间的对应关系。
预设学习算法可以为y=h(x)=W0+W1x+W2x2+……+Wnxn。其中,h(x)为关于x与y的函数表达式,x为用户输入的动作对应的运动参数,y为输出的空间交互手势,W为预设的向量参数,W0、W1、W2、……、Wn为线性函数,通过误差函数(error function)来衡量一个任意给定的W值。在此不对误差函数进行限制。其中,相对于第一时刻的运动参数而言,第二时刻用户输入的动作对应的运动参数x,在空间中可能高了,可能速度慢了,但是其特征满足运动轨迹曲线的趋势,h(x)为拟合运动轨迹曲线的函数。
可以理解的是,运动参数与空间交互手势之间的对应关系是动态变化的,可以随着运动参数的变化不断调整。
可以理解的是,S201与S202不分先后顺序执行。
S203:根据所述运动参数与空间交互手势之间的对应关系识别所述待识别的运动参数对应的空间交互手势。
虚拟现实设备根据运动参数与空间交互手势的预设对应关系,确定获取到的待识别的运动参数所对应的空间交互手势。空间交互手势可以为点击手势、拍打手势、挥拳手势、向左手势或向右手势等。
进一步地,当S201中得到待识别的运动轨迹以及运动速度时,S203包括:根据所述运动轨迹以及所述运动速度确定空间交互手势。
具体地,终端还可以提取运动参数中包含的运动轨迹的特征参数,根据提取的特征参数确定运动趋势,并根据运动参数与空间交互手势的预设对应关系、运动趋势以及运动参数中包含的运动速度,确定该运动参数对应的空间交互手势。其中,同一空间交互手势对应的运动速度可以相同,也可以不同。终端可以通过不同的颜色标识不同的运动速度,但并不限于此,还可以采用其他方式标识运动速度,此处不做限制。
S204:确定所述空间交互手势对应的控制指令。
虚拟现实设备获取与运动参数对应的空间交互手势匹配的控制指令。
例如,当空间交互手势为点击手势时,点击手势对应的控制指令为点击指令;当空间交互手势为拍打手势时,拍打手势对应的控制指令为拍打指令;当空间交互手势为挥拳手势时,挥拳手势对应控制指令为挥拳指令。
具体地,S204包括:根据空间交互手势信息与控制指令的预设对应关系,确定所述空间交互手势对应的控制指令。
虚拟现实设备的数据库中预先存储了多个空间交互手势信息,并为每个空间手势定义了控制指令,以形成空间交互手势信息与控制指令的预设对应关系。虚拟现实设备可以从数据库中获取与运动参数对应的空间交互手势相匹配的空间交互手势信息,并根据空间交互手势信息与控制指令的预设对应关系,获取该匹配的空间交互手势信息对应的控制指令。
虚拟现实设备还可以确定空间交互手势对应的作用位置或作用范围,以能够根据该作用位置或作用范围、该空间交互手势对应的控制指令确定待显示的虚拟现实显示画面。
S205:显示所述控制指令对应的虚拟现实画面。
虚拟现实设备根据空间交互手势对应的作用位置或作用范围、空间交互手势对应的控制指令确定待显示的虚拟现实显示画面,并将待显示的虚拟现实显示画面替换当前的虚拟现实显示画面。
例如,当前的虚拟现实显示界面为游戏界面,虚拟现实设备确定的控制指令为挥拳指令,且识别出的空间交互手势对应的作用位置为游戏人物A所处的位置时,显示游戏人物A被拍打的虚拟现实游戏界面。
上述方案,虚拟现实设备获取用户在预设空间内产生的待识别的运动参数;识别所述待识别的运动参数对应的空间交互手势;确定所述空间交互手势对应的控制指令;显示所述控制指令对应的虚拟现实画面,用户不需要借助外设就能与虚拟现实设备进行人机交互,能够使用户通过真实世界的交互动作操控虚拟现实设备,增强虚拟现实沉浸式体验,并且虚拟现实设备能够准确识别空间交互手势,提高控制准确度。
通过发射的微电磁波及其反射信号确定用户的运动参数,由于微电磁波的特性,能够检测毫米级的运动轨迹,提高运动参数的提取精度。
虚拟现实设备根据预设学习算法建立运动参数与空间交互手势之间的对应关系,并动态调整该对应关系,能够提高识别空间手势的准确度。
参见图6,图6是本发明实施例提供的一种虚拟现实设备的示意性框图。本实施例的虚拟现实设备600包括的各单元用于执行图2对应的实施例中的各步骤,具体请参阅图2以及图2对应的实施例中的相关描述,此处不赘述。本实施例的虚拟现实设备包括:获取单元610、识别单元620、确定单元630以及显示单元640。
获取单元610用于获取用户在预设空间内产生的待识别的运动参数。获取单元610将待识别的运动参数向识别单元620发送。
识别单元620用于接收获取单元610发送的待识别的运动参数,识别所述待识别的运动参数对应的空间交互手势。识别单元620将空间交互手势信息向确定单元630发送。
确定单元630用于接收识别单元620发送的空间交互手势信息,确定所述空间交互手势对应的控制指令。确定单元630将控制指令向显示单元640发送。
显示单元640用于接收确定单元630发送的控制指令,显示所述控制指令对应的虚拟现实画面。
上述方案,虚拟现实设备获取用户在预设空间内产生的待识别的运动参数;识别所述待识别的运动参数对应的空间交互手势;确定所述空间交互手势对应的控制指令;显示所述控制指令对应的虚拟现实画面,用户不需要借助外设就能与虚拟现实设备进行人机交互,能够使用户通过真实世界的交互动作操控虚拟现实设备,增强虚拟现实沉浸式体验,并且虚拟现实设备能够准确识别空间交互手势,提高控制准确度。
请参见图7,图7是本发明另一实施例提供的一种虚拟现实设备的示意性框图。本实施例的虚拟现实设备700包括的各单元用于执行图3对应的实施例中的各步骤,具体请参阅图3以及图3对应的实施例中的相关描述,此处不赘述。本实施例的虚拟现实设备包括:获取单元710、建立单元720、识别单元730、确定单元740以及显示单元750。其中,获取单元710可以包括发射单元711、接收单元712以及运动参数确定单元713。
获取单元710用于获取用户在预设空间内产生的待识别的运动参数。
进一步地,获取单元710包括发射单元711、接收单元712以及运动参数确定单元713,发射单元711用于发射微电磁波信号,其中,所述微电磁波信号覆盖预设空间;接收单元712用于获取用户在所述预设空间内运动产生的反射信号;运动参数确定单元713用于根据所述微电磁波信号以及所述反射信号确定所述用户的待识别的运动参数。
进一步地,运动参数确定单元713具体用于根据所述微电磁波信号以及所述反射信号确定所述用户的待识别的运动轨迹以及运动速度。
获取单元710将待识别的运动参数向识别单元730发送。
建立单元720用于根据预设学习算法建立运动参数与空间交互手势之间的对应关系。建立单元720将运动参数与空间交互手势之间的对应关系向识别单元730发送。
识别单元730用于接收获取单元710发送的待识别的运动参数,识别所述待识别的运动参数对应的空间交互手势。
进一步地,当获取单元710的运动参数确定单元713确定所述用户的待识别的运动轨迹以及运动速度时,识别单元730用于根据所述运动轨迹以及所述运动速度确定空间交互手势。
进一步地,识别单元730还用于接收建立单元720发送的运动参数与空间交互手势之间的对应关系,根据所述运动参数与空间交互手势之间的对应关系识别所述待识别的运动参数对应的空间交互手势。
识别单元730将空间交互手势信息向确定单元740发送。
确定单元740用于接收识别单元730发送的空间交互手势信息,确定所述空间交互手势对应的控制指令。
进一步地,确定单元740用于根据空间交互手势信息与控制指令的预设对应关系,确定所述空间交互手势对应的控制指令。
确定单元740将控制指令向显示单元750发送。
显示单元750用于接收确定单元740发送的控制指令,显示所述控制指令对应的虚拟现实画面。
上述方案,虚拟现实设备获取用户在预设空间内产生的待识别的运动参数;识别所述待识别的运动参数对应的空间交互手势;确定所述空间交互手势对应的控制指令;显示所述控制指令对应的虚拟现实画面,用户不需要借助外设就能与虚拟现实设备进行人机交互,能够使用户通过真实世界的交互动作操控虚拟现实设备,增强虚拟现实沉浸式体验,并且虚拟现实设备能够准确识别空间交互手势,提高控制准确度。
通过发射的微电磁波及其反射信号确定用户的运动参数,由于微电磁波的特性,能够检测毫米级的运动轨迹,提高运动参数的提取精度。
虚拟现实设备根据预设学习算法建立运动参数与空间交互手势之间的对应关系,并动态调整该对应关系,能够提高识别空间手势的准确度。
参见图8,图8是本发明再一实施例提供的一种虚拟现实设备示意性框图。如图所示的本实施例中的虚拟现实设备800可以包括:一个或多个处理器810;一个或多个输入设备820,一个或多个输出设备830和存储器840。上述处理器810、输入设备820、输出设备830和存储器840通过总线850连接。
存储器840用于存储程序指令。
处理器810用于根据存储器840存储的程序指令执行以下操作:
处理器810用于获取用户在预设空间内产生的待识别的运动参数。
处理器810还用于识别所述待识别的运动参数对应的空间交互手势。
处理器810还用于确定所述空间交互手势对应的控制指令。
处理器810还用于控制输出设备830显示所述控制指令对应的虚拟现实画面。
可选地,处理器810还用于发射微电磁波信号,其中,所述微电磁波信号覆盖预设空间;获取用户在所述预设空间内运动产生的反射信号;根据所述微电磁波信号以及所述反射信号确定所述用户的待识别的运动参数。
可选地,处理器810具体用于根据所述微电磁波信号以及所述反射信号确定所述用户的待识别的运动轨迹以及运动速度;以及用于根据所述运动轨迹以及所述运动速度确定空间交互手势。
可选地,处理器810具体用于根据空间交互手势信息与控制指令的预设对应关系,确定所述空间交互手势对应的控制指令。
可选地,处理器810还用于根据预设学习算法建立运动参数与空间交互手势之间的对应关系;以及用于根据所述运动参数与空间交互手势之间的对应关系识别所述待识别的运动参数对应的空间交互手势。
上述方案,虚拟现实设备获取用户在预设空间内产生的待识别的运动参数;识别所述待识别的运动参数对应的空间交互手势;确定所述空间交互手势对应的控制指令;显示所述控制指令对应的虚拟现实画面,用户不需要借助外设就能与虚拟现实设备进行人机交互,能够使用户通过真实世界的交互动作操控虚拟现实设备,增强虚拟现实沉浸式体验,并且虚拟现实设备能够准确识别空间交互手势,提高控制准确度。
通过发射的微电磁波及其反射信号确定用户的运动参数,由于微电磁波的特性,能够检测毫米级的运动轨迹,提高运动参数的提取精度。
虚拟现实设备根据预设学习算法建立运动参数与空间交互手势之间的对应关系,并动态调整该对应关系,能够提高识别空间手势的准确度。
应当理解,在本发明实施例中,所称处理器810可以是中央处理单元(CentralProcessing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
输入设备820可以包括触控板、指纹采传感器(用于采集用户的指纹信息和指纹的方向信息)、麦克风等,输出设备830可以包括显示器(LCD等)、扬声器等。
该存储器840可以包括只读存储器和随机存取存储器,并向处理器810提供指令和数据。存储器840的一部分还可以包括非易失性随机存取存储器。例如,存储器840还可以存储设备类型的信息。
具体实现中,本发明实施例中所描述的处理器810、输入设备820、输出设备830可执行本发明实施例提供的虚拟现实界面的控制方法的第一实施例和第二实施例中所描述的实现方式,也可执行本发明实施例所描述的虚拟现实设备的实现方式,在此不再赘述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的终端和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的终端和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
本发明实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减。
本发明实施例终端中的单元可以根据实际需要进行合并、划分和删减。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种虚拟现实界面的控制方法,其特征在于,所述方法包括:
获取用户在预设空间内产生的待识别的运动参数;
识别所述待识别的运动参数对应的空间交互手势;
确定所述空间交互手势对应的控制指令;
显示所述控制指令对应的虚拟现实画面。
2.根据权利要求1所述的虚拟现实界面的控制方法,其特征在于,所述获取用户在预设空间内产生的待识别的运动参数包括:
发射微电磁波信号,其中,所述微电磁波信号覆盖预设空间;
获取用户在所述预设空间内运动产生的反射信号;
根据所述微电磁波信号以及所述反射信号确定所述用户的待识别的运动参数。
3.根据权利要求2所述的虚拟现实界面的控制方法,其特征在于,所述根据所述微电磁波信号以及所述反射信号确定所述用户的待识别的运动参数包括:
根据所述微电磁波信号以及所述反射信号确定所述用户的待识别的运动轨迹以及运动速度;
所述识别所述待识别的运动参数对应的空间交互手势包括:
根据所述运动轨迹以及所述运动速度确定空间交互手势。
4.根据权利要求1所述的虚拟现实界面的控制方法,其特征在于,所述确定所述空间交互手势对应的控制指令包括:
根据空间交互手势信息与控制指令的预设对应关系,确定所述空间交互手势对应的控制指令。
5.根据权利要求1至4任一项所述的虚拟现实界面的控制方法,其特征在于,所述的虚拟现实界面的控制方法还包括:
根据预设学习算法建立运动参数与空间交互手势之间的对应关系;
所述识别所述待识别的运动参数对应的空间交互手势包括:
根据所述运动参数与空间交互手势之间的对应关系识别所述待识别的运动参数对应的空间交互手势。
6.一种虚拟现实设备,其特征在于,所述虚拟现实设备包括:
获取单元,用于获取用户在预设空间内产生的待识别的运动参数;
识别单元,用于识别所述待识别的运动参数对应的空间交互手势;
确定单元,用于确定所述空间交互手势对应的控制指令;
显示单元,用于显示所述控制指令对应的虚拟现实画面。
7.根据权利要求6所述的虚拟现实设备,其特征在于,所述获取单元包括:
发射单元,用于发射微电磁波信号,其中,所述微电磁波信号覆盖预设空间;
接收单元,用于获取用户在所述预设空间内运动产生的反射信号;
运动参数确定单元,用于根据所述微电磁波信号以及所述反射信号确定所述用户的待识别的运动参数。
8.根据权利要求7所述的虚拟现实设备,其特征在于,所述运动参数确定单元具体用于根据所述微电磁波信号以及所述反射信号确定所述用户的待识别的运动轨迹以及运动速度;
所述识别单元用于根据所述运动轨迹以及所述运动速度确定空间交互手势。
9.根据权利要求6所述的虚拟现实设备,其特征在于,所述确定单元根据空间交互手势信息与控制指令的预设对应关系,确定所述空间交互手势对应的控制指令。
10.根据权利要求6至9任一项所述的虚拟现实设备,其特征在于,所述虚拟现实设备还包括:
建立单元,用于根据预设学习算法建立运动参数与空间交互手势之间的对应关系;
所述识别单元具体用于根据所述运动参数与空间交互手势之间的对应关系识别所述待识别的运动参数对应的空间交互手势。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710101626.5A CN106951069A (zh) | 2017-02-23 | 2017-02-23 | 一种虚拟现实界面的控制方法及虚拟现实设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710101626.5A CN106951069A (zh) | 2017-02-23 | 2017-02-23 | 一种虚拟现实界面的控制方法及虚拟现实设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106951069A true CN106951069A (zh) | 2017-07-14 |
Family
ID=59467582
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710101626.5A Pending CN106951069A (zh) | 2017-02-23 | 2017-02-23 | 一种虚拟现实界面的控制方法及虚拟现实设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106951069A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107967089A (zh) * | 2017-12-20 | 2018-04-27 | 浙江煮艺文化科技有限公司 | 一种虚拟现实界面显示方法 |
CN108108018A (zh) * | 2017-12-12 | 2018-06-01 | 歌尔科技有限公司 | 基于虚拟现实的指挥训练方法、设备及系统 |
CN109224437A (zh) * | 2018-08-28 | 2019-01-18 | 腾讯科技(深圳)有限公司 | 一种应用场景的交互方法和终端以及存储介质 |
CN109257085A (zh) * | 2018-03-30 | 2019-01-22 | 北京润科通用技术有限公司 | 人造卫星与飞行设备间多普勒频移的获得方法及装置 |
CN110780734A (zh) * | 2019-09-25 | 2020-02-11 | 苏州联游信息技术有限公司 | 一种基于雷达的手势交互ar投影方法及装置 |
CN110780735A (zh) * | 2019-09-25 | 2020-02-11 | 苏州联游信息技术有限公司 | 一种手势交互ar投影方法及装置 |
CN111052043A (zh) * | 2017-09-29 | 2020-04-21 | 苹果公司 | 使用现实界面控制外部设备 |
CN111309153A (zh) * | 2020-03-25 | 2020-06-19 | 北京百度网讯科技有限公司 | 人机交互的控制方法和装置、电子设备和存储介质 |
CN112312979A (zh) * | 2018-02-02 | 2021-02-02 | 索尼互动娱乐股份有限公司 | 电磁场上的头戴式显示器与控制器的时钟同步 |
US11314396B2 (en) | 2018-05-09 | 2022-04-26 | Apple Inc. | Selecting a text input field using eye gaze |
CN115129164A (zh) * | 2022-08-31 | 2022-09-30 | 江西科技学院 | 基于虚拟现实的交互控制方法、系统及虚拟现实设备 |
US12099773B2 (en) | 2023-08-01 | 2024-09-24 | Apple Inc. | Accessing functions of external devices using reality interfaces |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102469206A (zh) * | 2010-11-18 | 2012-05-23 | 西安龙飞软件有限公司 | 一种利用手势对手机实现控制的方法 |
CN102769802A (zh) * | 2012-06-11 | 2012-11-07 | 西安交通大学 | 一种智能电视机的人机交互系统及其交互方法 |
CN105446481A (zh) * | 2015-11-11 | 2016-03-30 | 周谆 | 基于手势的虚拟现实人机交互方法和系统 |
CN105677019A (zh) * | 2015-12-29 | 2016-06-15 | 大连楼兰科技股份有限公司 | 一种手势识别传感器及其工作方法 |
CN105892633A (zh) * | 2015-11-18 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 手势识别方法及虚拟现实显示输出设备 |
CN106293099A (zh) * | 2016-08-19 | 2017-01-04 | 北京暴风魔镜科技有限公司 | 手势识别方法及系统 |
CN106354205A (zh) * | 2016-08-25 | 2017-01-25 | 安徽协创物联网技术有限公司 | 一种可穿戴虚拟现实实现系统 |
-
2017
- 2017-02-23 CN CN201710101626.5A patent/CN106951069A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102469206A (zh) * | 2010-11-18 | 2012-05-23 | 西安龙飞软件有限公司 | 一种利用手势对手机实现控制的方法 |
CN102769802A (zh) * | 2012-06-11 | 2012-11-07 | 西安交通大学 | 一种智能电视机的人机交互系统及其交互方法 |
CN105446481A (zh) * | 2015-11-11 | 2016-03-30 | 周谆 | 基于手势的虚拟现实人机交互方法和系统 |
CN105892633A (zh) * | 2015-11-18 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 手势识别方法及虚拟现实显示输出设备 |
CN105677019A (zh) * | 2015-12-29 | 2016-06-15 | 大连楼兰科技股份有限公司 | 一种手势识别传感器及其工作方法 |
CN106293099A (zh) * | 2016-08-19 | 2017-01-04 | 北京暴风魔镜科技有限公司 | 手势识别方法及系统 |
CN106354205A (zh) * | 2016-08-25 | 2017-01-25 | 安徽协创物联网技术有限公司 | 一种可穿戴虚拟现实实现系统 |
Non-Patent Citations (1)
Title |
---|
张毅等: "《移动机器人技术基础与制作》", 31 January 2013 * |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11762620B2 (en) | 2017-09-29 | 2023-09-19 | Apple Inc. | Accessing functions of external devices using reality interfaces |
US11762619B2 (en) | 2017-09-29 | 2023-09-19 | Apple Inc. | Controlling external devices using reality interfaces |
CN111052043A (zh) * | 2017-09-29 | 2020-04-21 | 苹果公司 | 使用现实界面控制外部设备 |
US11714592B2 (en) | 2017-09-29 | 2023-08-01 | Apple Inc. | Gaze-based user interactions |
CN111052043B (zh) * | 2017-09-29 | 2022-04-12 | 苹果公司 | 使用现实界面控制外部设备 |
CN108108018A (zh) * | 2017-12-12 | 2018-06-01 | 歌尔科技有限公司 | 基于虚拟现实的指挥训练方法、设备及系统 |
CN107967089A (zh) * | 2017-12-20 | 2018-04-27 | 浙江煮艺文化科技有限公司 | 一种虚拟现实界面显示方法 |
CN112312979B (zh) * | 2018-02-02 | 2024-05-17 | 索尼互动娱乐股份有限公司 | 电磁场上的头戴式显示器与控制器的时钟同步 |
CN112312979A (zh) * | 2018-02-02 | 2021-02-02 | 索尼互动娱乐股份有限公司 | 电磁场上的头戴式显示器与控制器的时钟同步 |
CN109257085A (zh) * | 2018-03-30 | 2019-01-22 | 北京润科通用技术有限公司 | 人造卫星与飞行设备间多普勒频移的获得方法及装置 |
US11314396B2 (en) | 2018-05-09 | 2022-04-26 | Apple Inc. | Selecting a text input field using eye gaze |
US11383166B2 (en) | 2018-08-28 | 2022-07-12 | Tencent Technology (Shenzhen) Company Limited | Interaction method of application scene, mobile terminal, and storage medium |
CN109224437A (zh) * | 2018-08-28 | 2019-01-18 | 腾讯科技(深圳)有限公司 | 一种应用场景的交互方法和终端以及存储介质 |
CN110780735A (zh) * | 2019-09-25 | 2020-02-11 | 苏州联游信息技术有限公司 | 一种手势交互ar投影方法及装置 |
CN110780734A (zh) * | 2019-09-25 | 2020-02-11 | 苏州联游信息技术有限公司 | 一种基于雷达的手势交互ar投影方法及装置 |
CN110780734B (zh) * | 2019-09-25 | 2023-11-03 | 深圳清元文化科技有限公司 | 一种基于雷达的手势交互ar投影方法及装置 |
CN111309153A (zh) * | 2020-03-25 | 2020-06-19 | 北京百度网讯科技有限公司 | 人机交互的控制方法和装置、电子设备和存储介质 |
CN111309153B (zh) * | 2020-03-25 | 2024-04-09 | 北京百度网讯科技有限公司 | 人机交互的控制方法和装置、电子设备和存储介质 |
CN115129164A (zh) * | 2022-08-31 | 2022-09-30 | 江西科技学院 | 基于虚拟现实的交互控制方法、系统及虚拟现实设备 |
CN115129164B (zh) * | 2022-08-31 | 2022-12-09 | 江西科技学院 | 基于虚拟现实的交互控制方法、系统及虚拟现实设备 |
US12099773B2 (en) | 2023-08-01 | 2024-09-24 | Apple Inc. | Accessing functions of external devices using reality interfaces |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106951069A (zh) | 一种虚拟现实界面的控制方法及虚拟现实设备 | |
US20190362562A1 (en) | Throwable Interface for Augmented Reality and Virtual Reality Environments | |
RU2644520C2 (ru) | Бесконтактный ввод | |
US6891527B1 (en) | Processing signals to determine spatial positions | |
CN105446481A (zh) | 基于手势的虚拟现实人机交互方法和系统 | |
CN108681402A (zh) | 识别交互方法、装置、存储介质及终端设备 | |
CN110389659A (zh) | 针对增强或虚拟现实环境提供动态触觉回放的系统和方法 | |
CN108694073A (zh) | 虚拟场景的控制方法、装置、设备及存储介质 | |
US9262012B2 (en) | Hover angle | |
CN108776544A (zh) | 增强现实中的交互方法及装置、存储介质、电子设备 | |
RU2667720C1 (ru) | Способ имитационного моделирования и управления виртуальной сферой в мобильном устройстве | |
EP3367216A1 (en) | Systems and methods for virtual affective touch | |
Alshaal et al. | Enhancing virtual reality systems with smart wearable devices | |
CN111475080A (zh) | 误操作提示方法及电子设备 | |
CN110413183A (zh) | 一种呈现页面的方法与设备 | |
CN110215686A (zh) | 游戏场景中的显示控制方法及装置、存储介质及电子设备 | |
US10665067B2 (en) | Systems and methods for integrating haptics overlay in augmented reality | |
KR101688193B1 (ko) | 인간-컴퓨터 간 실감 및 제스처 상호작용을 위한 데이터 입력장치 및 그 방법 | |
CN110908568B (zh) | 一种虚拟对象的控制方法和装置 | |
CN117716322A (zh) | 增强现实(ar)笔/手跟踪 | |
US11782548B1 (en) | Speed adapted touch detection | |
US20220111290A1 (en) | Haptic engine for spatial computing | |
CN104750905B (zh) | 用于设计三维建模对象的计算机实现的方法 | |
CN107977071B (zh) | 一种适用于空间系统的操作方法及装置 | |
US20200286298A1 (en) | Systems and methods for a user interaction proxy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170714 |