CN113467625A - 虚拟现实的控制设备、头盔和交互方法 - Google Patents

虚拟现实的控制设备、头盔和交互方法 Download PDF

Info

Publication number
CN113467625A
CN113467625A CN202010246509.XA CN202010246509A CN113467625A CN 113467625 A CN113467625 A CN 113467625A CN 202010246509 A CN202010246509 A CN 202010246509A CN 113467625 A CN113467625 A CN 113467625A
Authority
CN
China
Prior art keywords
interface
information
touch
helmet
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010246509.XA
Other languages
English (en)
Inventor
王冉冉
刘帅
赵玉峰
杨宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hisense Visual Technology Co Ltd
Original Assignee
Hisense Visual Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hisense Visual Technology Co Ltd filed Critical Hisense Visual Technology Co Ltd
Priority to CN202010246509.XA priority Critical patent/CN113467625A/zh
Priority to PCT/CN2021/081910 priority patent/WO2021190421A1/zh
Publication of CN113467625A publication Critical patent/CN113467625A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例提供一种虚拟现实的控制设备、头盔和交互方法。该控制设备,包括:触控界面,用于接收用户的触控操作信息;控制器,连接至触控界面,用于基于触控操作信息,确定用户的触控操作和在触控界面上的操作位置信息;通信器,连接至控制器,用于将触控操作和操作位置信息发送至头盔的处理器,以使头盔的处理器根据控制设备和VR界面上位置点的预设映射关系,以及操作位置信息,确定VR界面中的对应位置,并在对应位置处进行与触控操作行为相应的操作行为。本申请实施例能够为用户提供操作方便且安全性高的交互。

Description

虚拟现实的控制设备、头盔和交互方法
技术领域
本申请实施例涉及虚拟现实技术领域,尤其涉及一种虚拟现实的控制设备、头盔和交互方法。
背景技术
虚拟现实头盔VR显示,在各行各业如教育培训、消防演练、虚拟驾驶、房地产等项目中具有广泛的应用。在VR场景中,用户经常需要输入一些信息实现VR交互。例如,输入账号、密码;或者在观看音频、视频的过程中,调节音量,调节画面大小等等。目前,VR领域内现有的交互方式主要有:
1)通过VR自带的触摸板进行交互,但由于在佩戴VR头盔时是进行盲操作,因此触摸板的位置不好确定,再者用户需要高举手臂操作,时间久了会感觉很累,特别是在冬季穿衣较多时尤其不便。
2)头部运动悬停,外壳式虚拟现实头戴式显示设备的输入方式多依赖手机内的惯性传感单元,用户通过转动头部控制光标位置移动,当光标移动到欲选择的在选项上(如确定、返回、音乐、视频)悬停一定的时间(如3s或5s)作为选择确定操作,此方式虽然简单但有时无响应且时间的长短不好定义。若时间定义过短容易引起误操作,若时间定义过长操作效率低且易引起用户的误解、反感和不耐烦,用户体验很差。
3)语音识别,此方式可简单有效的实现交互,但有时会出现歧义,语音语义识别效果差,特别是地域上的人文不同,每个地方的方言和标准话可能会存在一定的差异。而且此方式不适合聋哑人,有一定的局限性。
4)借助控制键盘、鼠标等传统外设,这是目前VR设备进行文字输入运用较多的方式,但是键盘外设需要用户随时携带,若不在身边时需中断体验摘下头盔寻找,相当于给用户增加了负担,影响了体验。
5)通过传统的双目识别手势技术交互,此方式可视为一较好的交互方式,但手势操作有一定的限制,交互过程中有较强的针对性,而且该技术应用的还不够成熟,要想熟练操作VR系统非常困难,精度和灵活度比较差。同时,手臂要在Camera视野范围内长时间举着会非常累,用户体验差。
6)在虚拟场景中玩游戏时,若有其它的操作需求调出菜单,如返回主界面想看看其它资源,需要当前游戏结束后才能返回。甚至有的玩家在玩游戏时不能很快直观的找到退出方式,不能一键直达调出主界面。
当前的VR交互输入方式普遍存在灵敏度低、准确度低、响应差和操作不便的问题。
发明内容
本申请实施例提供一种虚拟现实的控制设备、头盔和交互方法,以解决当前的VR交互输入方式普遍存在灵敏度低、准确度低、响应差和操作不便的问题。
第一方面,本申请实施例提供一种虚拟现实的控制设备,包括:触控界面,用于接收用户的触控操作信息;控制器,连接至触控界面,用于基于触控操作信息,确定用户的触控操作和在触控界面上的操作位置信息;通信器,连接至控制器,用于将触控操作和操作位置信息发送至头盔的处理器,以使头盔的处理器根据控制设备和头盔的处理器渲染的VR界面上位置点的预设映射关系,以及操作位置信息,确定VR界面中的对应位置,并在对应位置处进行与触控操作行为相应的操作行为。
第二方面,本申请实施例提供一种头盔,包括:处理器,连接至控制设备,用于渲染VR界面,并在接收到用户在控制设备上的触控操作和操作位置信息的情况下,根据控制设备和VR界面上位置点的预设映射关系,以及接收到的控制设备上的操作位置信息,确定VR界面中的对应位置,并在对应位置处进行与触控操作行为相应的操作行为。
第三方面,本申请实施例提供一种虚拟现实的交互系统,包括第一方面的一种虚拟现实的控制设备,以及如第二方面的一种头盔。
第四方面,本申请实施例提供一种虚拟现实的交互方法,包括:接收用户的触控操作信息;基于触控操作信息,确定用户的触控操作和在控制设备上的操作位置信息;将触控操作和操作位置信息发送至头盔的处理器,以使头盔的处理器根据控制设备和头盔的处理器渲染的VR界面上位置点的预设映射关系,以及操作位置信息,确定VR界面中的对应位置,并在对应位置处进行与触控操作行为相应的操作行为。
第五方面,本申请实施例提供一种虚拟现实的交互方法,包括:渲染VR界面;在接收到用户在控制设备上的触控操作和操作位置信息的情况下,根据控制设备和VR界面上位置点的预设映射关系,以及接收到的控制设备上的操作位置信息,确定VR界面中的对应位置;在对应位置处进行与触控操作行为相应的操作行为。
第六方面,本申请实施例提供一种虚拟现实的控制设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第四方面的方法。
第七方面,本申请实施例提供一种头盔,包括:一个或多个处理器;存储器,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第五方面的方法。
第八方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现如第四方面的方法。
第九方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现如第五方面的方法。
本申请实施例提供的虚拟现实的控制设备、头盔和交互方法,通过将控制设备上的位置点与VR头盔渲染的VR界面上的位置点对应起来,形成预设的映射关系,用户在该控制设备上进行触控操作的过程中,用户的触控操作具有位置信息,根据该触控位置信息以及预设的映射关系,就可以确定用户在VR界面中的操作位置,这对于用户来说,用户可以像平时操作电脑屏幕或者手机屏幕一样,操作很方便。
附图说明
图1为现有技术提供的虚拟现实的交互的场景图;
图2为本申请实施例提供的虚拟现实的控制设备的控制逻辑图;
图3为本申请一示例提供的触控示意图;
图4为本申请另一示例提供的触控示意图;
图5为本申请另一实施例提供的虚拟现实的控制设备的控制逻辑图;
图6为本申请实施例提供的姿态角的示意图;
图7为本申请实施例提供的第一控制模式下的触控主界面的示意图;
图8为本申请实施例提供的第一控制模式下的触控原理示意图;
图9为本申请实施例提供的第二控制模式下的触控原理示意图;
图10为本申请实施例提供的红外触控的结构示意图;
图11为本申请实施例提供的红外触控的原理示意图;
图12为本申请实施例提供的头盔的控制逻辑示意图;
图13为本申请实施例提供的虚拟现实的交互系统的示意图;
图14为本申请实施例提供的虚拟现实的交互方法的流程图;
图15为本申请另一实施例提供的虚拟现实的交互方法的流程图;
图16为本申请实施例提供的虚拟现实的控制设备的框图;
图17为本申请实施例提供的头盔的框图。
通过上述附图,已示出本公开明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本公开构思的范围,而是通过参考特定实施例为本领域技术人员说明本公开的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
图1是现有技术提供的一种虚拟现实交互的场景图。在VR场景中,用户经常需要输入一些信息实现VR交互。如图1所示,该应用场景包括头盔11和外设设备12;其中,用户头戴头盔11,头盔11可以在虚拟场景中渲染出VR界面,用户通过外设设备12可以与头盔11中显示的VR界面进行交互。例如,输入账号、密码;或者在观看音频、视频的过程中,调节音量,调节画面大小;或者在游戏过程中,外设设备在VR界面中相当于游戏中的一个道具,例如剑、枪等,用户通过外设设备输入信息给VR游戏界面,从而对VR游戏界面中的道具进行控制。
在另外一些场景中,用户还可以通过VR自带的触摸板、头部运动悬停、语音识别以及双目识别手势的方式来进行VR交互,但这些VR输入方式普遍存在操作不便,以及灵敏度不好、准确度不高、响应不好的问题。尤其是在支付、输入文字或登陆账号时输入密码操作不便。
针对上述问题,本申请实施例提供了一种虚拟现实的控制设备,该控制设备上的位置点与VR头盔渲染的VR界面上的位置点之间具有预设的映射关系,用户可以在该控制设备上进行触控操作,用户的触控操作具有位置信息,根据该触控位置信息以及预设的映射关系,就可以确定用户在VR界面中的操作位置,这对于用户来说,用户可以像平时操作电脑屏幕或者手机屏幕一样,操作很方便。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
图2为本申请实施例提供的一种虚拟现实的控制设备的控制逻辑图。本申请实施例针对现有技术的如上技术问题,提供了虚拟现实的控制设备,如图2所示,该虚拟现实的控制设备包括:触控界面21、控制器22和通信器23;
其中,触控界面21,用于接收用户的触控操作信息。
控制器22,连接至触控界面21,用于基于触控操作信息,确定用户的触控操作和在触控界面上的操作位置信息。
通信器23,连接至控制器22,用于将触控操作和操作位置信息发送至头盔的处理器,以使头盔的处理器根据控制设备和头盔的处理器渲染的VR界面上位置点的预设映射关系,以及操作位置信息,确定VR界面中的对应位置,并在对应位置处进行与触控操作相应的操作行为。其中,通信器的通信方式可以是有线通信,也可以是无线通信,本实施例对此不做具体限定。
本实施例中,可以理解为控制设备上设置有触控界面,触控界面上具有多个触控位置点,并且头盔的处理器渲染的VR界面上也具有多个VR位置点,通过控制设备上的位置点与VR界面上的位置点之间的预设的映射关系,可以将触控界面上的位置点对应到VR界面中,并且根据用户在触控界面上的操作行为,使VR头盔在VR界面中对应的位置处进行相应的操作。例如,如图3所示,触控界面21上的A位置点和VR界面上的B位置点对应,则若用户在A位置点进行了选中操作,那么VR界面上的B位置点也会执行选中操作。再例如,如图4所示,用户从触控界面21上的A1位置点沿着轨迹a1(如图4中触控界面中的弧线所示)移动到了A2位置点,若VR界面上的B1位置点与A1位置点对应,B2位置点与A2位置点对应,轨迹v1(如图4中VR界面中的弧线所示)对应a1,那么VR界面上也会执行从B1位置点沿着轨迹v1移动至B2位置点的操作。
在一些场景下,本申请实施例还可以将控制设备在虚拟现实场景中渲染出来。此种情况下,由于控制设备的姿态信息可能随时发生变化,为了实现对控制设备的姿态追踪,还可以在上述实施例的基础上,在控制设备中增加惯性测量单元24。如图5所示,惯性测量单元24连接至控制器22,惯性测量单元24用于测量控制设备的角速度信息,并发送至控制器;控制器22,还用于基于角速度信息计算得到控制设备的姿态信息;并将姿态信息发送至头盔的处理器,以使头盔的处理器基于姿态信息调整渲染的VR界面的姿态信息。
在一些场景下,控制设备的位置信息也可能随时发生变化,为了实现对控制设备的位置追踪,还可以使惯性测量单元24,用于测量控制设备的加速度信息,并发送至控制器22;以及使控制器22基于加速度信息计算得到控制设备的位置信息,之后将位置信息发送至头盔的处理器,以使头盔的处理器基于位置信息调整渲染的VR界面的位置信息。
可选的,惯性测量单元24还可以同时采集控制设备的加速度信息和角速度信息,并发送至控制器22;以及使控制器22基于加速度信息计算得到控制设备的位置信息,和基于角速度信息计算得到控制设备的姿态信息;之后将位置信息和姿态信息共同发送至头盔的处理器,以使头盔的处理器基于位置信息调整渲染的VR界面的位置信息,并基于姿态信息调整渲染的VR界面的姿态。
对于惯性测量单元24而言,能够测量控制设备的姿态角,姿态角包括横滚角(roll)、俯仰角(pitch)和偏航角(yaw)。其中,如图6所示,以飞机为例,以飞机上一点为原点,并以飞机机身长度所在方向为Y轴,在水平面内与Y轴垂直的为X轴,重力方向为Z轴,建立XYZ坐标系,则pitch角是指围绕X轴旋转产生的角度,yaw是指围绕Y轴旋转产生的角度,roll是指围绕Z轴旋转产生的角度。惯性测量单元包括陀螺仪、加速度计和磁力计;其中,陀螺仪,用于测量角速度,通过对角速度积分能够得到姿态角。然而由于积分过程中会产生误差,随着时间的增加,误差也会累积,最终导致出现姿态角偏差。因此,还可以通过加速度计测量控制设备的加速度和重力信息,因此,进而通过加速度信息矫正与重力方向相关的姿态角偏差,即利用加速度信息可矫正横滚角(roll)、俯仰角(pitch)的角度偏差。而磁力计的测量数据可计算得到偏航角(yaw),进而矫正姿态信息。
本申请实施例的控制设备可以提供多种控制模式,在不同的控制模式下,用户可以进行不同的交互体验。
在一种可选的实施方式中,控制设备对应有第一控制模式;则控制设备,还可以用于在检测到用户选择第一控制模式的情况下,获取用户在触控界面21上的触摸位置信息,并发送至头盔的处理器,以使头盔的处理器基于触摸位置信息,以及控制设备和头盔的处理器渲染的VR界面的位置点的预设映射关系,确定VR界面的对应位置,并将在虚拟场景中渲染出的VR界面上的光标移动至对应位置处。该实施方式中,头盔的处理器在虚拟场景中渲染出VR界面,用户可以在触控界面上进行触摸,就像是手指在手机屏幕上触摸,用户在触控界面上的触摸动作会产生触摸位置信息,用于表示用户在触控界面上的触摸位置点,根据该触摸位置点,以及触控界面的触控界面上的位置点和VR界面的位置点之间的预设映射关系,就可以确定出VR界面的对应位置点。
如图7所示,触控界面上具有多个触控位置点(如图中虚线方框所示)。如图8所示,当用户在多个触控位置点上触摸时,就可以形成触控操作信息发送至头盔,头盔根据该触控操作信息以及预设的映射关系,就可以确定出VR主界面上的对应位置。
在上述实施例的基础上,用户还可以在触摸操作之后进行确认操作。此种情况下,则控制设备,还可以用于获取用户在触控界面上的确认按键信息,并发送至头盔的处理器,以使头盔的处理器对VR界面上的当前对象执行确认操作。可选的,确认操作可以是点击操作。例如,用户在触控界面上触摸,并停留在某一位置点处进行点击操作,则可以视为用户在触控界面上输入了确认按键信息。
在第一控制模式下,头盔的处理器可以将待显示的VR界面渲染在虚拟场景中,此种情况下,触控界面与VR界面之间具有预设比例关系。其中,预设比例关系可以是1:1,可以是大于1:1,还可以小于1:1,本实施例对此不做具体限定。无论是哪种预设比例关系,都可以根据用户在控制设备上的触摸位置点坐标,以及该预设比例关系,将其映射到VR界面的对应位置处。
第一控制模式对于用户而言,控制设备就像是一个鼠标一样,与鼠标的不同之处在于,用户是通过在控制设备上的触摸移动来实现VR界面位置点的移动,可以理解为用户在控制设备上的触摸移动相当于使用鼠标在移动一样。
在另一种可选的实施方式中,控制设备对应有第二控制模式;则控制设备,还可以用于在检测到用户选择第二控制模式的情况下,获取用户在触控界面上的触控操作,并发送至头盔的处理器,以使头盔的处理器基于用户的触控操作,对对应位置处进行相应操作。
在该实施方式中,如图9所示,头盔的处理器渲染的VR界面位于触控界面上,当用户在触控界面上触控时,就像是在手机屏幕上触控一样。对于用户而言,就相当于直接在VR界面上进行操作一样,与第一控制模式不同之处在于,用户可以直接在任一触摸位置处进行点击操作,从而实现确认操作。对于佩戴VR头盔的其余用户而言,在控制设备上渲染的VR界面是不可见的,仅对佩戴VR头盔的用户可见,用户在输入账号、密码时,就会很安全。
在第二控制模式下,为了使用户达到所见即所得的体验效果,可以使触控界面与VR界面呈1:1的预设比例关系。
在第二控制模式下,由于VR界面是渲染在触控界面上,因此,为了保证VR界面能够随着触控界面位姿的变化而进行适应性变化,可以通过实时获取基于惯性测量单元测量的数据得到的位置信息和姿态信息,并基于控制设备的位置信息和姿态信息适应性调整VR界面的位置信息和姿态信息,使VR界面能够随着触控界面位姿的变化而进行相应变化。
为了进一步提升用户体验,还可以在上述两种控制模式下,设计首点触控操作,也就是说当检测到用户的触控操作时,在VR界面上显示出对应的光标,如箭头、圆圈、移动操作等,对于用户而言,具有很好的可视化效果。
在上述两种控制模式的基础上,还可以对用户提供模式选择功能,例如,用户可以自由选择是使用第一控制模式还是第二控制模式。在一种可选的实施方式中,可以在控制设备上设置模式按键,用户通过对模式按键的操作选择使用第一控制模式或者第二控制模式。
在用户通过对模式按键的操作选择使用第一控制模式或者第二控制模式的实施方式中,可以有以下几种可选的实施方式:
在第一种可选的实施方式中,可以在控制设备上分别设置第一模式按键和第二模式按键,当用户按下第一模式按键,则表示用户选择使用第一控制模式;当用户按下第二模式按键,则表示用户选择使用第二控制模式。
在第二种可选的实施方式中,可以在控制设备上设置一个模式按键,用户可以通过对该模式按键进行不同的操作来选择使用第一控制模式或者第二控制模式。示例性地,通过设定对模式按键的按下时间来确定用户是选择使用第一控制模式或者第二控制模式。例如,当用户长按该模式按键的情况下,则代表用户选择使用第一控制模式,当用户短按该模式按键的情况下,则代表用户选择使用第二控制模式。其中,长按和短按是相对而言,也就是说,短按的时间短于长按。举例来说,若用户按下该模式按键,并随即松开,则代表用户选择第一控制模式,若用户长按模式按键超过5s,则代表用户选择第二控制模式。
在第三种可选的实施方式中,还可以采用语音控制的方式来选择使用第一控制模式或者第二控制模式。例如,用户通过发出语音指令“进入第一控制模式”,或者“进入第二控制模式”的形式进行语音控制。
在第四种可选的实施方式中,还可以采用手势控制的方式来选择使用第一控制模式或者第二控制模式。例如,从下至上的提拉手势为打开第一控制模式;从左向右的提拉手势为打开第二控制模式。当然,也可以设置其他的手势来选择使用第一控制模式或者第二控制模式。本实施例再此不再一一赘述。
在上述实施例的基础上,为了对用户提供输入反馈,使用户有更好的触感,还可以在控制设备内设置一马达。该实施例中,控制器,还用于在接收到用户的触控操作信息的情况下,发送震动指令至马达;马达,连接至控制器,用于基于震动指令进行震动。在该实施例中,可以理解为当用户在触控界面上有输入操作的情况下,控制器给用户的输入以回馈,类似于在手机屏幕上进行点击操作的情况下进行震动的方式。这样,能够在虚拟场景下为用户提供很好的触感。
在上述两种控制模式中,触控界面可以采用电容触摸或红外触摸的方式。其中,电容触摸可以参见已有的电容触摸技术,此处不再赘述。对于红外触摸,如图10所示,在控制设备的一侧设置相间排列的红外发光二极管和光电二极管,控制设备还包括控制单元。图中的正方形或长方形虚线框所示的区域为可触摸区域。其中,发光二极管用于发射红外光,当有触摸物体在可触摸区域内触摸时,例如手指,则光电二极管就会接收到触摸物体的反射光,从而形成光网,根据红外光的发射与接收,以及控制单元内预先设置的算法进行计算来确定触摸点的位置。
如图11所示,控制单元会不断地扫描红外发射管和红外接收管,当人手在可触摸区域内触摸时,红外发光二极管发射的红外光遇到人手时,会有一部分光进行反射,此时采用一定角度的光电二极管接收由人手反射的红外光,然后根据发射部分和接收部分信号的变化,由控制单元分析计算来定位触摸点的位置。
本申请实施例中,头盔的处理器能够根据用户对触摸界面上触点的操作作出与之对应的同步响应。例如当用户在VR主界面选择观看的可带来沉浸感的视频,通过控制设备来调节音量的大小和进度的快慢等。在玩游戏时,调用投射界面选择资源等。对于用户而言,就如同在手机触屏上输入信息一样,符合用户自然习惯,并且无需训练可直接上手应用。
在上述实施例提供的两种控制模式的基础上,本申请实施例还可以包括:检测是否退出控制模式,若检测到用于欲退出控制模式,可再次长按模式按键退出控制模式。或者在控制模式状态下,长时间无触控操作可自动退出控制模式。
上述实施例介绍了一种用于虚拟现实场景下进行VR交互的控制设备,以下将介绍一种用于虚拟现实场景下进行VR交互的头盔。
图12是本申请实施例提供的一种头盔的控制逻辑示意图。
如图12所示,本申请实施例提供的头盔包括:处理器121,连接至控制设备,用于渲染VR界面,并在接收到用户在控制设备上的触控操作和操作位置信息的情况下,根据控制设备和VR界面上位置点的预设映射关系,以及接收到的控制设备上的操作位置信息,确定VR界面中的对应位置,并在对应位置处进行与触控操作行为相应的操作行为。
在上述实施例的基础上,本申请实施例的处理器121,还用于获取控制设备的位置信息和姿态信息,基于位置信息和姿态信息,确定待显示的VR主界面的投射位置和姿态信息,以及基于待显示的VR主界面的投射位置和姿态信息,将待显示的VR主界面以确定的姿态信息投射至对应位置。
本申请实施例中,对于控制设备的位姿追踪,可以采用如下至少两种实施方式:
在一种可选的实施方式中,请继续参阅图12,本申请实施例的头盔还包括:摄像头122,用于采集包括控制设备的图像;处理器121,连接至摄像头122,用于基于图像,确定控制设备的位置信息。本实施例中,控制设备的位置信息是指控制设备在世界坐标系下的位置信息,处理器基于摄像头采集的图像确定控制设备的位置信息,具体是采用图像处理的方式,首先确定控制设备在图像坐标系中的位置信息,然后基于图像坐标系和世界坐标系之间的转换关系,将图像坐标系中的位置信息转换至世界坐标系中,从而得到控制设备的位置信息。对于图像坐标系和世界坐标系之间的转换关系如何确定,可以参见现有技术的介绍,本实施例在此不再赘述。
在另一种可选的实施方式中,处理器121,还用于从控制设备获取控制设备的位置信息和姿态信息;控制设备的位置信息和姿态信息是分别基于控制设备的加速度信息和角速度信息计算得到。本实施例中,是由控制设备的惯性测量单元测量得到的加速度信息和角速度信息分别进行积分得到位置信息和姿态信息,然后通过控制设备的通信器发送至头盔的处理器。
对应于控制设备的第一控制模式,处理器121,还用于在虚拟场景中渲染VR界面,并在接收到用户在控制设备上的触摸位置信息的情况下,基于触摸位置信息,以及控制设备和处理器121渲染的VR界面的位置点的预设映射关系,确定VR界面的对应位置,和将在虚拟场景中渲染出的VR界面上的光标移动至对应位置处。
在第一控制模式的基础上,处理器121,还用于在接收用户在控制设备上的确认按键信息的情况下,对VR界面上的当前对象执行确认操作。
对应于控制设备的第二控制模式,处理器121,还用于将VR界面渲染在触控界面上,并在接收到用户在触控界面上的触控操作的情况下,根据用户的触控操作,在VR界面上的相应位置进行相应操作。
对于第一控制模式和第二控制模式的具体实施方式可以参见控制设备部分的介绍,此处不再赘述。此外,控制设备部分对头盔的功能的介绍,同样可以适用于本实施例的头盔,本实施例在此不再赘述。
在本申请的另一实施例中,还可以提供一种虚拟现实的交互系统,如图13所示,该交互系统包括一种虚拟现实的控制设备131和一种头盔132,其中,控制设备131和头盔132可以参见前述实施例的介绍,此处不再赘述。
图14为本申请实施例提供的虚拟现实的交互方法流程图。在上述实施例的基础上,如图14所示,本实施例提供的虚拟现实的交互方法具体包括如下步骤:
步骤1401、接收用户的触控操作信息。
本实施例的执行主体可以是上述实施例中的控制设备。其中,用户的触控操作信息是指在控制设备上的触控操作信息。
步骤1402、基于触控操作信息,确定用户的触控操作和在控制设备上的操作位置信息。
其中,触控操作是指触控动作,例如移动、滑动、触摸、点击等操作行为,操作位置信息是指触控动作在控制设备上的位置信息。
步骤1403、将触控操作和操作位置信息发送至头盔的处理器,以使头盔的处理器根据控制设备和VR界面上位置点的预设映射关系,以及操作位置信息,确定VR界面中的对应位置,并在对应位置处进行与触控操作行为相应的操作行为。
可选的,本申请实施例的方法还包括:测量控制设备的角速度信息;基于角速度信息计算得到控制设备的姿态信息;将姿态信息发送至头盔的处理器,以使头盔的处理器基于姿态信息调整渲染的VR界面的姿态信息。
可选的,本申请实施例的方法还包括:测量控制设备的加速度信息;基于加速度信息计算得到控制设备的位置信息;将位置信息发送至头盔的处理器,以使头盔的处理器基于位置信息调整渲染的VR界面的位置信息。
可选的,控制设备对应有第一控制模式;本申请实施例的方法还包括:在检测到用户选择第一控制模式的情况下,获取用户在触控界面上的触摸位置信息,并发送至头盔的处理器,以使头盔的处理器基于触摸位置信息,以及控制设备和头盔的处理器渲染的VR界面的位置点的预设映射关系,确定VR界面的对应位置,并将在虚拟场景中渲染出的VR界面上的光标移动至对应位置处。
可选的,本申请实施例的方法还包括:在检测到用户选择第一控制模式的情况下,获取用户在触控界面上的确认按键信息,并发送至头盔的处理器,以使头盔的处理器对VR界面上的当前对象执行确认操作。
可选的,在第一控制模式下,触控界面与VR界面呈预设比例关系。
可选的,控制设备对应有第二控制模式;本申请实施例的方法还包括:在检测到用户选择第二控制模式的情况下,获取用户在触控界面上的触控操作,并发送至头盔的处理器,以使头盔的处理器基于用户的触控操作,对对应位置处进行相应操作。
可选的,在第二控制模式下,触控界面与VR界面呈预设比例关系,预设比例关系为1:1。
可选的,控制设备对应有多种控制模式;本申请实施例的方法还包括:接收用户对多种控制模式的选择信息,并基于选择信息开启对应的控制模式;选择信息至少包括如下中至少一项:模式按键选择、语音指令选择和手势选择。
可选的,本申请实施例的方法还包括:在接收到用户的触控操作信息的情况下,发送震动指令至马达,控制马达基于震动指令进行震动。
图14所示实施例的虚拟现实的交互方法可用于执行上述控制设备实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图15为本申请另一实施例提供的虚拟现实的交互方法流程图。在上述实施例的基础上,如图15所示,本实施例提供的虚拟现实的交互方法具体包括如下步骤:
步骤1501、渲染VR界面。
本实施例的执行主体可以为上述实施例的头盔。其中,由头盔渲染VR界面。
步骤1502、在接收到用户在控制设备上的触控操作和操作位置信息的情况下,根据控制设备和VR界面上位置点的预设映射关系,以及接收到的控制设备上的操作位置信息,确定VR界面中的对应位置。
步骤1503、在对应位置处进行与触控操作行为相应的操作行为。
其中,对于步骤1502和步骤1503的具体实施过程可以参见前述实施例的介绍,此处不再赘述。
可选的,本申请实施例的方法还包括:获取控制设备的位置信息和姿态信息;基于位置信息和姿态信息,确定待显示的VR主界面的投射位置和姿态信息;基于待显示的VR主界面的投射位置和姿态信息,将待显示的VR主界面以确定的姿态信息投射至对应位置。
可选的,本申请实施例的方法还包括:采集包括控制设备的图像;基于图像,确定控制设备的位置信息。
可选的,本申请实施例的方法还包括:从控制设备获取控制设备的位置信息和姿态信息;控制设备的位置信息和姿态信息是分别基于控制设备的加速度信息和角速度信息计算得到。
可选的,本申请实施例的方法还包括:在虚拟场景中渲染VR界面,并在接收到用户在控制设备上的触摸位置信息的情况下,基于触摸位置信息,以及控制设备和头盔的处理器渲染的VR界面的位置点的预设映射关系,确定VR界面的对应位置,和将在虚拟场景中渲染出的VR界面上的光标移动至对应位置处。
可选的,本申请实施例的方法还包括:在接收用户在控制设备上的确认按键信息的情况下,对VR界面上的当前对象执行确认操作。
可选的,本申请实施例的方法还包括:将VR界面渲染在触控界面上,并在接收到用户在触摸界面上的触控操作的情况下,根据用户的触控操作,在VR界面上的相应位置进行相应操作。
图15所示实施例的虚拟现实的交互方法可用于执行上述头盔实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图16为本申请实施例提供的一种虚拟现实的控制设备的结构示意图。本申请实施例提供的一种虚拟现实的控制设备可以执行如图14所示的一种虚拟现实的控制方法实施例提供的处理流程,如图16所示,一种虚拟现实的控制设备160包括:存储器161、处理器162、计算机程序和通讯接口163;其中,计算机程序存储在存储器161中,并被配置为由处理器162执行以上图14所示的虚拟现实的控制方法实施例提供的处理流程。
图16所示实施例的虚拟现实的控制设备可用于执行上述方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图17为本申请实施例提供的一种虚拟现实的控制设备的结构示意图。本申请实施例提供的一种虚拟现实的控制设备可以执行如图15所示的一种虚拟现实的控制方法实施例提供的处理流程,如图17所示,一种虚拟现实的控制设备170包括:存储器171、处理器172、计算机程序和通讯接口173;其中,计算机程序存储在存储器171中,并被配置为由处理器172执行以上图15所示的虚拟现实的控制方法实施例提供的处理流程。
图17所示实施例的虚拟现实的控制设备可用于执行上述方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
另外,本申请实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行以实现上述图14所示实施例的虚拟现实的交互方法。
另外,本申请实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行以实现上述图15所示实施例的虚拟现实的交互方法。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施例方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。上述描述的装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。

Claims (13)

1.一种虚拟现实的控制设备,其特征在于,包括:
触控界面,用于接收用户的触控操作信息;
控制器,连接至所述触控界面,用于基于所述触控操作信息,确定用户的触控操作和在所述触控界面上的操作位置信息;
通信器,连接至所述控制器,用于将所述触控操作和所述操作位置信息发送至头盔的处理器,以使所述头盔的处理器根据所述控制设备和所述头盔的处理器渲染的VR界面上位置点的预设映射关系,以及所述操作位置信息,确定所述VR界面中的对应位置,并在对应位置处进行与所述触控操作行为相应的操作行为。
2.根据权利要求1所述的控制设备,其特征在于,所述控制设备还包括:
惯性测量单元,连接至所述控制器,用于测量所述控制设备的角速度信息,并发送至所述控制器;
所述控制器,还用于基于角速度信息计算得到所述控制设备的姿态信息,并将所述姿态信息发送至所述头盔的处理器,以使所述头盔的处理器基于所述姿态信息调整所述VR界面的姿态信息;
和/或,所述控制设备还包括:
惯性测量单元,连接至所述控制器,用于测量所述控制设备的加速度信息,并发送至所述控制器;
所述控制器,还用于基于加速度信息计算得到所述控制设备的位置信息,并将所述位置信息发送至所述头盔的处理器,以使所述头盔的处理器基于所述位置信息调整所述VR界面的位置信息。
3.根据权利要求1或2所述的控制设备,其特征在于,所述控制设备对应有第一控制模式;
所述控制设备,还用于在检测到用户选择第一控制模式的情况下,获取用户在所述触控界面上的触摸位置信息,并发送至所述头盔的处理器,以使所述头盔的处理器基于所述触摸位置信息,以及所述控制设备和所述VR界面的位置点的预设映射关系,确定所述VR界面的对应位置,并将在虚拟场景中渲染出的所述VR界面上的光标移动至对应位置处。
4.根据权利要求3所述的控制设备,其特征在于,所述控制设备,还用于在检测到用户选择第一控制模式的情况下,获取用户在所述触控界面上的确认按键信息,并发送至所述头盔的处理器,以使所述头盔的处理器对所述VR界面上的当前对象执行确认操作。
5.根据权利要求1或2所述的控制设备,其特征在于,所述控制设备对应有第二控制模式;
所述控制设备,还用于在检测到用户选择第二控制模式的情况下,获取用户在所述触控界面上的触控操作,并发送至所述头盔的处理器,以使所述头盔的处理器基于用户的触控操作,对对应位置处进行相应操作。
6.根据权利要求3或5所述的控制设备,其特征在于,在第一控制模式或第二控制模式下,所述触控界面与所述VR界面呈预设比例关系。
7.一种头盔,其特征在于,包括:
处理器,连接至控制设备,用于渲染VR界面,并在接收到用户在所述控制设备上的触控操作和操作位置信息的情况下,根据所述控制设备和VR界面上位置点的预设映射关系,以及接收到的所述控制设备上的操作位置信息,确定VR界面中的对应位置,并在对应位置处进行与所述触控操作行为相应的操作行为。
8.根据权利要求7所述的头盔,其特征在于,所述处理器还用于:
获取所述控制设备的位置信息和姿态信息;
基于所述位置信息和所述姿态信息,确定待显示的VR主界面的投射位置和姿态信息;
基于所述待显示的VR主界面的投射位置和姿态信息,将待显示的VR主界面以确定的姿态信息投射至对应位置。
9.根据权利要求7或8所述的头盔,其特征在于,
所述处理器,还用于在虚拟场景中渲染VR界面,并在接收到用户在控制设备上的触摸位置信息的情况下,基于所述触摸位置信息,以及所述控制设备和所述VR界面的位置点的预设映射关系,确定所述VR界面的对应位置,和将在虚拟场景中渲染出的VR界面上的光标移动至对应位置处。
10.根据权利要求9所述的头盔,其特征在于,
所述处理器,还用于在接收用户在所述控制设备上的确认按键信息的情况下,对所述VR界面上的当前对象执行确认操作。
11.根据权利要求7-10任一项所述的头盔,其特征在于,
所述处理器,还用于将所述VR界面渲染在所述控制设备的触控界面上,并在接收到用户在所述触摸界面上的触控操作的情况下,根据所述用户的所述触控操作,在所述VR界面上的相应位置进行相应操作。
12.一种虚拟现实的交互方法,其特征在于,包括:
接收用户的触控操作信息;
基于所述触控操作信息,确定用户的触控操作和在控制设备上的操作位置信息;
将所述触控操作和所述操作位置信息发送至头盔的处理器,以使所述头盔的处理器根据所述控制设备和所述头盔的处理器渲染的VR界面上位置点的预设映射关系,以及操作位置信息,确定VR界面中的对应位置,并在对应位置处进行与触控操作行为相应的操作行为。
13.一种虚拟现实的交互方法,其特征在于,包括:
渲染VR界面;
在接收到用户在控制设备上的触控操作和操作位置信息的情况下,根据所述控制设备和VR界面上位置点的预设映射关系,以及接收到的控制设备上的所述操作位置信息,确定VR界面中的对应位置;
在对应位置处进行与所述触控操作相应的操作行为。
CN202010246509.XA 2020-03-27 2020-03-31 虚拟现实的控制设备、头盔和交互方法 Pending CN113467625A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010246509.XA CN113467625A (zh) 2020-03-31 2020-03-31 虚拟现实的控制设备、头盔和交互方法
PCT/CN2021/081910 WO2021190421A1 (zh) 2020-03-27 2021-03-19 基于虚拟现实的控制器光球追踪方法和虚拟现实设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010246509.XA CN113467625A (zh) 2020-03-31 2020-03-31 虚拟现实的控制设备、头盔和交互方法

Publications (1)

Publication Number Publication Date
CN113467625A true CN113467625A (zh) 2021-10-01

Family

ID=77865684

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010246509.XA Pending CN113467625A (zh) 2020-03-27 2020-03-31 虚拟现实的控制设备、头盔和交互方法

Country Status (1)

Country Link
CN (1) CN113467625A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114237456A (zh) * 2021-12-16 2022-03-25 深圳市优必选科技股份有限公司 控制设备的运行方法、装置、控制设备及介质
TWI813485B (zh) * 2022-02-16 2023-08-21 宏達國際電子股份有限公司 控制方法、行動裝置以及頭戴式顯示裝置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114237456A (zh) * 2021-12-16 2022-03-25 深圳市优必选科技股份有限公司 控制设备的运行方法、装置、控制设备及介质
CN114237456B (zh) * 2021-12-16 2023-09-01 深圳市优必选科技股份有限公司 控制设备的运行方法、装置、控制设备及介质
TWI813485B (zh) * 2022-02-16 2023-08-21 宏達國際電子股份有限公司 控制方法、行動裝置以及頭戴式顯示裝置
US11927752B2 (en) 2022-02-16 2024-03-12 Htc Corporation Control method and mobile device in immersive system

Similar Documents

Publication Publication Date Title
US11221730B2 (en) Input device for VR/AR applications
US11983326B2 (en) Hand gesture input for wearable system
EP3250983B1 (en) Method and system for receiving gesture input via virtual control objects
CN107533373B (zh) 虚拟现实中经由手与对象的场境敏感碰撞的输入
CN106873767B (zh) 一种虚拟现实应用的运行控制方法和装置
TWI528227B (zh) 一種指環式無線指感控制器、控制方法及控制系統
AU2022224790A1 (en) Interactions with 3D virtual objects using poses and multiple-DOF controllers
US11194400B2 (en) Gesture display method and apparatus for virtual reality scene
US20190187876A1 (en) Three dimensional digital content editing in virtual reality
EP3688563A1 (en) Rendering of virtual hand pose based on detected hand input
JP2023531728A (ja) 人工現実感対話モードの統合
EP2538309A2 (en) Remote control with motion sensitive devices
CN113467625A (zh) 虚拟现实的控制设备、头盔和交互方法
EP2538308A2 (en) Motion-based control of a controllled device
CN108803862B (zh) 用于虚拟现实场景中的账号关系建立方法及装置
Lee et al. Tunnelslice: Freehand subspace acquisition using an egocentric tunnel for wearable augmented reality
JP5658286B2 (ja) 3次元仮想環境におけるオブジェクトの動きの制御方法
WO2021190421A1 (zh) 基于虚拟现实的控制器光球追踪方法和虚拟现实设备
CN107977071B (zh) 一种适用于空间系统的操作方法及装置
WO2024131405A1 (zh) 对象移动控制方法、装置、设备及介质
EP4321974A1 (en) Gesture locomotion in an artifical reality environment
WO2023235647A1 (en) Extend the game controller functionality with virtual buttons using hand tracking
CN117075725A (zh) 一种基于增强现实的人—集群交互方法及系统
CN111766959A (zh) 虚拟现实交互方法和虚拟现实交互装置
Alam Rpen: A New 3D Pointing Device

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination