CN106598277B - 虚拟现实交互系统 - Google Patents

虚拟现实交互系统 Download PDF

Info

Publication number
CN106598277B
CN106598277B CN201611176745.9A CN201611176745A CN106598277B CN 106598277 B CN106598277 B CN 106598277B CN 201611176745 A CN201611176745 A CN 201611176745A CN 106598277 B CN106598277 B CN 106598277B
Authority
CN
China
Prior art keywords
virtual
virtual reality
module
interactive
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611176745.9A
Other languages
English (en)
Other versions
CN106598277A (zh
Inventor
程险峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Netease Hangzhou Network Co Ltd
Original Assignee
Netease Hangzhou Network Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Netease Hangzhou Network Co Ltd filed Critical Netease Hangzhou Network Co Ltd
Priority to CN201611176745.9A priority Critical patent/CN106598277B/zh
Publication of CN106598277A publication Critical patent/CN106598277A/zh
Application granted granted Critical
Publication of CN106598277B publication Critical patent/CN106598277B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开涉及虚拟现实技术领域,尤其涉及一种虚拟现实交互系统。该交互系统包括:指环状的安装载体,所述安装载体上设有位移检测模块、动作输入模块、中央处理器和信号输出模块;还包括设于一虚拟现实系统的信号接收模块、位置投影模块和动作转换模块。该虚拟现实交互系统能够将安装载体的动作信息转换为一虚拟控制器在虚拟交互平面上的动作,并且具有较高的交互效率以及交互操作的准确性。

Description

虚拟现实交互系统
技术领域
本公开涉及虚拟现实技术领域,尤其涉及一种虚拟现实交互系统。
背景技术
虚拟现实(Virtual Reality,VR)技术是一种新兴的、数字化的人机接口技术。在虚拟现实技术中,可以通过光学结构、显示系统以及虚拟现实引擎等部分共同为用户提供一个以视觉感受为主,包括听觉、触觉等综合感知的虚拟现实场景,使用户沉浸在虚拟现实场景中。而且,用户不但可以通过视觉、听觉、触觉和加速度等多种感觉通道感知虚拟现实场景,还可以通过手柄、遥控器、语音、动作、表情、手势以及视线等方式和虚拟现实场景进行交互,从而产生身临其境的体验。目前,虚拟现实技术已经在游戏、医疗、教育、工程训练等领域得到的广泛应用。
现有虚拟现实技术一般采用如:头盔、手套、手柄或遥控器等辅助设备,在使用过程中,一般通过头盔检测头部运动或语音指令,通过手套检测手势或手部动作实现,或通过手柄或遥控器对虚拟角色进行控制从而实现交互操作。然而,头盔、手套等辅助设备在使用过程中其使用场景相对固定,其交互过程往往具有较强的使用针对性,并且其相对应的交互系统和方法也比较复杂,成本较高。而手柄等辅助设备虽然成本较低,但在使用过程中往往存在交互准确性和效率较低的情况。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种虚拟现实交互系统,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的一个或者多个问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的第一方面,提供一种虚拟现实交互系统,包括:
安装载体,所述安装载体为指环状;
位移检测模块,设于所述安装载体,用于检测所述安装载体的位移信息;
动作输入模块,设于所述安装载体,用于检测作用于所述安装载体的动作信息;
中央处理器,设于所述安装载体且与所述位移检测模块以及动作输入模块通信连接,用于对所述位移信息以及动作信息转换为操作信息;
信号输出模块,设于所述安装载体且与所述中央处理器连接,用于发送所述操作信息;
信号接收模块,设于一虚拟现实系统,用于与所述信号输出模块通信连接以接收所述信号输出模块发送的所述操作信息;
位置投影模块,设于所述虚拟现实系统,用于将所述虚拟现实系统提供的虚拟现实场景中预设范围内的可交互对象投影至一虚拟交互平面内;
动作转换模块,设于所述虚拟现实系统,用于根据所述信号接收模块接收的所述操作信息控制一虚拟控制器在所述虚拟交互平面上的动作。
在本公开的一种示例性实施例中,所述将虚拟现实系统提供的虚拟现实场景中预设范围内的可交互对象投影至一虚拟交互平面内,包括:
获取虚拟角色在所述虚拟现实场景中的坐标为第一坐标;
检测以所述虚拟角色为中心的预设范围内的可交互对象,并获取各所述可交互对象在所述虚拟现实场景中的坐标为第二坐标;
根据所述第二坐标与所述第一坐标的相对关系确定各所述可交互对象在一虚拟交互平面中的投影位置,并以所述投影位置作为第三坐标;
根据所述第三坐标将各所述可交互对象排布在所述虚拟交互平面,并且在所述虚拟现实场景向所述虚拟角色呈现所述虚拟交互平面。
在本公开的一种示例性实施例中,所述确定各所述可交互对象在一虚拟交互平面中的投影位置包括:
分别将各所述第二坐标与所述第一坐标连接,得到以所述第一坐标为起点,以所述第二坐标为终点的多个向量;
在所述虚拟交互平面中以所述第一坐标的投影位置为原点建立平面直角坐标系,并将各所述向量在所述平面直角坐标系中投影的终点确定为各所述可交互对象在所述虚拟交互平面中的投影位置。
在本公开的一种示例性实施例中,所述虚拟现实系统还包括:
映射模块,设于所述虚拟现实系统,用于将所述虚拟控制器在所述虚拟交互平面上的动作映射至虚拟现实场景中对应的所述可交互对象。
在本公开的一种示例性实施例中,所述的将所述虚拟控制器在所述虚拟交互平面上的动作映射至虚拟现实场景中对应的所述可交互对象,包括:
检测所述虚拟控制器在所述虚拟交互平面的交互操作,并根据所述第三坐标和第二坐标的对应关系,将所述虚拟控制器在所述虚拟交互平面上的交互操作作用于所述虚拟现实场景中的所述可交互对象。
在本公开的一种示例性实施例中,所述虚拟现实交互系统包括:
触摸感应模块,设于所述安装载体并与所述中央处理器相连接,用于检测作用于所述安装载体的触摸信息;
检测激活模块,用于在所述触摸感应模块检测到一作用于所述安装载体的所述触摸信息时,使所述中央处理器控制所述位移检测模块开始检测所述安装载体的位移信息。
在本公开的一种示例性实施例中,所述触摸感应模块包括:电容触摸传感器。
在本公开的一种示例性实施例中,所述动作输入模块包括微动开关。
在本公开的一种示例性实施例中,根据所述信号接收模块接收的所述操作信息控制一虚拟控制器在所述虚拟交互平面上的动作包括:
在所述操作信息为第一操作信息时,控制所述虚拟控制器在所述虚拟交互平面上进行点击操作;所述第一操作信息对应所述动作输入模块检测到所述微动开关的一次开关动作信息;
在所述操作信息为第二操作信息时,控制所述虚拟控制器在所述虚拟交互平面上移动;所述第二操作信息对应所述位移检测模块检测到的所述位移信息;
在所述操作信息为第三操作信息时,控制所述虚拟控制器在所述虚拟交互平面上进行拖动操作;所述第三操作信息对应所述动作的输入模块检测到所述微动开关的一次开关动作信息与所述移检测模块检测到的所述位移信息的组合信息。
在本公开的一种示例性实施例中,所述安装载体为闭合或未闭合的圆环结构。
在本公开的一种示例性实施例中,所述安装载体可以放置在食指、中指、无名指或小拇指上,所述动作输入模块设置在安装载体上朝向大拇指的一侧。
在本公开的一种示例性实施例中,所述信号输出模块包括:蓝牙模块或WiFi模块。
在本公开的一种示例性实施例中,所述安装载体采用柔性材料。
本公开提供的虚拟虚拟现实交互系统,可以通过设在安装载体上的信号输出模块,将所述安装载体的位移信息和动作信息在转换为操作信息后发送至虚拟现实系统,所述的虚拟现实系统通过位置投影模块将可交互对象投影至一虚拟交互平面内,并通过动作转换模块将接收到的操作信息转换为一虚拟控制器在虚拟交互平面内对可交互对象的交互操作,这样能够有效的降低交互操作的复杂程度,并且可以适用于多种虚拟现实系统的交互场景中。同时,由于能够将可交互对象投影至虚拟交互平面内,并通过一虚拟控制器在该虚拟交互平面内对可交互对象进行交互操作,实现将立体空间内的操作转换为在二维平面内的操作,使其具有较高的交互效率以及交互操作的准确性。同时由于所述安装载体为指环状,使用时将其放在手指上即可,可以适用于多种虚拟现实系统的交互场景中,使用方便,并且具有较低的成本。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出本公开示例性实施例中一种虚拟现实交互系统框图;
图2示意性示出本公开示例性实施例中一种安装载体的模块框图;
图3示意性示出本公开示例性实施例中一种虚拟现实系统的模块框图;
图4示意性示出本公开示例性实施例中一种虚拟现实场景示意图;
图5示意性示出本公开示例性实施例中一种虚拟交互平面示意图;
图6示意性示出本公开示例性实施例中一种虚拟现实场景示意图;
图7示意性示出本公开示例性实施例中一种呈圆环状的安装载体结构示意图;
图8示意性示出本公开示例性实施例中一种呈半圆环状的安装载体结构示意图;
图9示意性示出本公开示例性实施例中一种安装载体的佩戴方式。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本示例实施方式中提供了一种虚拟现实交互系统,参考图1中所示,所述的虚拟现实交互系统可以包括:安装载体100以及虚拟现实系统200,其中:
所述安装载体100为指环状。所述的安装载体100上设有:位移检测模块102、动作输入模块103、中央处理器101以及信号输出模块104。其中:
位移检测模块102,可以用于检测所述安装载体100的位移信息。
动作输入模块103,可以用于检测作用于所述安装载体100的动作信息。
中央处理器101,与所述位移检测模块102以及动作输入模块103通信连接,可以用于对所述位移信息以及动作信息转换为操作信息。
信号输出模块104,与所述中央处理器101连接,可以用于发送所述操作信息。
该虚拟现实交互系统中,所述的虚拟现实系统200例如可以由光学结构和显示系统组成,其中显示系统与外部虚拟现实引擎连接,以接收外部虚拟现实引擎处理后的显示内容,再通过光学结构为用户呈现出一个虚拟现实场景;也可以仅包括光学结构,而显示系统和虚拟现实引擎由智能手机等外部设备提供;即本示例实施方式中对于应用的虚拟现实系统并不进行特殊限定。
上述的虚拟现实系统200可以包括设于所述虚拟现实系统的信号接收模块203、位置投影模块201以及动作转换模块202。其中:
所述信号接收模块203可以用于与所述信号输出模块104通信连接以接收所述信号输出模块104发送的所述操作信息。
所述位置投影模块201可以用于将所述虚拟现实系统200提供的虚拟现实场景中预设范围内的可交互对象投影至一虚拟交互平面内。
所述动作转换模块202可以用于根据所述信号接收模块接收的所述操作信息控制一虚拟控制器在所述虚拟交互平面上的动作。
在上述的虚拟现实交互系统中,可以通过设在安装载体100上的信号输出模块104,将所述安装载体100的位移信息和动作信息在转换为操作信息后发送至虚拟现实系统,所述的虚拟现实系统200通过位置投影模块201将可交互对象投影至一虚拟交互平面内,并通过动作转换模块202将接收到的操作信息转换为一虚拟控制器在虚拟交互平面内对可交互对象的交互操作,这样能够有效的降低交互操作的复杂程度,并且可以适用于多种虚拟现实系统200的交互场景中。同时,由于能够将可交互对象投影至虚拟交互平面内,并通过一虚拟控制器在该虚拟交互平面内对可交互对象进行交互操作,实现将立体空间内的操作转换为在二维平面内的操作,使其具有较高的交互效率以及交互操作的准确性。同时由于所述安装载体100为指环状,使用时将其放在手指上即可,可以适用于多种虚拟现实系统200的交互场景中,使用方便,并且具有较低的成本。
下面,参考图2~图9,将对本示例实施方式中的虚拟现实交互系统的各个部分进行更详细的说明。
在本示例所提供的虚拟现实交互系统中,上述设置在所述安装载体100上的位移检测模块102可以采用位置传感器,在所述位置传感器检测到位移信息后,将检测到的位移信息转换成可用的位移信息输出信号,并将该位移信息输出信号发送至中央处理器101。上述的位移信息可以是用户在现实空间内对所述安装载体100的移动信息;例如用户通过移动安装载体100控制在虚拟现实场景中的虚拟控制器或虚拟光标等虚拟控件时产生的位移信息。上述的安装载体100上设置的动作输入模块103,用于检测用户作用在安装载体100上的动作信息,当动作输入模块103检测到动作信息时,将检测到的所述动作信息发送至中央处理器101。
举例而言,上述的动作输入模块103可以包括:设置在安装载体100上的微动开关。用户可以通过控制微动开关的开闭来实现对虚拟现实场景中虚拟控件的控制和操作。当动作输入模块103检测到微动开关的开关动作后执行相对应的操作。当然,所述的动作输入模块也可以采用其他开关模块,例如:光电开关或轻触开关等电子开关,或者采用开关电路。
在本示例实施方式所提供的虚拟现实交互系统中,上述的中央处理器101在接收到位移检测模块102的位移信息和动作输入模块103的动作信息后,将其转换为相对应的操作信息,并将该操作信息通过信号输出模块104发送至虚拟现实系统200。其中,上述的信号输出模块104可以采用蓝牙模块或WiFi模块;对应的,所述虚拟现实系统200中的信号接收模块203应为与之相匹配的蓝牙模块或WiFi模块,实现对所述操作信息的接收。上述的信号输出模块104与信号接收模块203同样也可以采用ZigBee模块或其他通讯装置实现通信功能;即本示例实施方式中对于信号输出模块104和信号接收模块203并不进行特殊限定。
在本示例性实施方式所提供的虚拟现实交互系统中,参考图2所示,上述的安装载体100可以设有触摸感应模块105和检测激活模块106。其中:
所述的触摸感应模块105与所述中央处理器101相连接,可以用于检测作用于所述安装载体100的触摸信息。
所述的检测激活模块106可以用于在所述触摸感应模块105检测到一作用于所述安装载体100的所述触摸信息时,使所述中央处理器101控制所述位移检测模块102开始检测所述安装载体100的位移信息。
举例而言,所述的触摸感应模块105可以采用电容触摸传感器,并将所述电容触摸传感器设置在所述安装载体100的表面上。用户在使用时触摸安装载体100的表面,当电容触摸传感器检测到用户的触摸信息时,通过上述的检测激活模块106向中央处理器101发送一控制信息,使中央处理器101控制所述的位移检测模块102开始检测所述安装载体100的位移信息。所述中央处理器101可以通过一个激活模块激活所述位移检测模块102开始工作。上述的激活模块可以采用一个激活电路,或一个独立的激活单元实现。
在本公开的一种示例性实施例中,参考图9所示,用户可以将安装载体100可以放置在食指、中指、无名指或小拇指上,所述动作输入模块103设置在安装载体上朝向大拇指的一侧。在使用时,用户可以将安装载体100佩戴在食指或中指上,并可以转动安装载体100至合适位置,使上述的动作输入模块103和触摸感应模块105朝向大拇指的一侧,便于用户使用大拇指进行操作。
在本公开的一种示例性实施例中,参考图7或图8所示,所述安装载体100可以为闭合的完整圆环结构或的未闭合的半圆环结构。
上述呈圆环或半圆环结构的安装载体可以根据用户要求设置其为一定的尺寸。在设置安装载体100为半圆环结构时,半圆环结构能够具有一定的柔韧性,可以使用户佩戴更加方便;同时,也能够节省材料,降低生产成本。
进一步的,为了更加优化所述安装载体100的结构,在本公开的一种示例性实施例中,所述安装载体100可以采用柔性材料制备。通过使用柔性材料制备安装载体100的主体结构,可以使用户在佩戴和使用时更加舒适;同时,用户可以根据个人的使用习惯或个人手指的粗细,对安装载体100的尺寸进行一定的调整。
在本公开的一种示例性实施例中,参考图7或图8所示,上述的安装载体上还可以设置有一电源模块110,电源模块110可以采用充电电池、纽扣电池或锂电池作为蓄电装备,为安装载体100上的各模块提供电能。上述的电源模块110还可以连接一充电接口。还可以在所述安装载体100上设置一核心工作按键区111,可以将上述的微动开关以及电容触摸传感器设置在该区域内,方便用户操作。
在本公开的一种示例性实施例中,参考图1、图3所示,上述的虚拟现实系统200可以包括信号接收模块203、位置投影模块201以及动作转换模块202。
所述虚拟现实系统200利用所述信号接收模块203接收上述安装载体100上信号发送模块104发送的操作信息。虚拟现实系统200通过位置投影模块201将用户所控虚拟角色在虚拟现实场景中预设范围内的可交互对象的位置投影至一个虚拟交互平面上;通过所述动作转换模块202将上述的操作信息转化为在虚拟交互平面内一虚拟控制器的交互动作,从而实现将用户在现实空间对安装载体100的控制动作转化为所述虚拟控制器在虚拟交互平面内的交互操作。
在本公开的一种示例性实施例中,上述的位置投影模块201,将虚拟现实系统200提供的虚拟现实场景中预设范围内的可交互对象投影至一虚拟交互平面内,具体可以包括以下步骤:
步骤S1.获取虚拟角色在所述虚拟现实场景中的坐标为第一坐标。
为了增强用户的沉浸感,使用户有身临其境的感觉,目前多数虚拟现实应用是第一人称视角;在该类虚拟现实应用中,用户所控制的虚拟角色的视角通常即为用户自身的视角。在当前的虚拟现实场景中,将用户所控虚拟角色的在虚拟现实场景中的坐标位置作为第一坐标,在这里可以将虚拟角色的坐标作为原点或坐标系内的任一坐标位置。
举例而言,本示例实施方式中可以为虚拟现实空间设定一个包含X轴,Y轴,Z轴的空间直角坐标系,例如,在空间直角坐标系中,XY轴平面与虚拟现实空间中的水平面平行,Z轴与该水平面垂直。根据虚拟角色当前在虚拟现实空间中的位置,确定虚拟角色的坐标O=(x0,y0,z0)。但容易理解的是,在本公开的其他示例性实施例中,也可以建立其他类型的坐标系,本示例性实施例中对此不做特殊限定。
步骤S2.检测以所述虚拟角色为中心的预设范围内的可交互对象,并获取各所述可交互对象在所述虚拟现实场景中的坐标为第二坐标。
在确定虚拟角色的第一坐标之后,检测以虚拟角色为中心的预设范围内的各可交互对象,并确定各可交互对象的位置坐标为第二坐标。上述可交互对象可以为虚拟现实空间中的虚拟游戏对象,例如可交互对象为虚拟现实游戏应用中的NPC(Non-PlayerCharacter,非玩家控制角色),如剧情NPC或者功能性NPC等,也可以为其他用户控制的虚拟角色或者可交互虚拟物件等虚拟现实应用中的其他可交互对象。在本公开的其他示例性实施例中,上述可交互对象也可以为虚拟现实应用中的虚拟交互控件;例如可交互对象为虚拟游戏应用中的虚拟面板控件、虚拟道具控件等UI控件。由上可知,本示例实施方式中对于可交互对象的类型并不进行特殊限定。
上述预设范围的大小以及类型可以由用户或者开发者根据需要设定;举例而言,预设范围可以为以虚拟角色为中心的特定长宽的立方体区域,也可以为以虚拟角色为中心的特定半径的球形区域。此外,可以是检测以所述虚拟角色为中心的预设范围内的所有可交互对象,也可以是由用户或者开发者选择特定的一类或者多类可交互对象为需要检测的可交互对象,本示例实施方式中对此均不做特殊限定。参考图4中所示,例如检测到虚拟角色为中心的预设范围内的可交互对象A、B、C、D,并分别获取各所述可交互对象在虚拟现实空间中的坐标为第二坐标,例如获取可交互对象A、B、C、D的坐标分别为(x1,y1,z1)、(x2,y2,z2)、(x3,y3,z3)、(x4,y4,z4)。
步骤S3.根据所述第二坐标与所述第一坐标的相对关系确定各所述可交互对象在一虚拟交互平面中的投影位置,并以所述投影位置作为第三坐标。
具体而言,上述的确定各所述可交互对象在一虚拟交互平面中的投影位置包括:
分别将各所述第二坐标与所述第一坐标连接,得到以所述第一坐标为起点,以所述第二坐标为终点的多个向量;在所述虚拟交互平面中以所述第一坐标的投影位置为原点建立平面直角坐标系,并将各所述向量在所述平面直角坐标系中投影的终点确定为各所述可交互对象在所述虚拟交互平面中的投影位置。
所述虚拟交互平面例如可以为垂直于虚拟现实空间中上述空间直角坐标系的Z轴的平面;举例而言,虚拟交互平面与该Z轴的交点坐标为(0,0,m)。在确定虚拟交互平面后,可以分别将各所述第二坐标与所述第一坐标连接,得到以所述第一坐标为起点,以所述第二坐标为终点的多个向量;并且,在所述虚拟交互平面中以所述第一坐标的投影位置为原点建立平面直角坐标系,并将各所述向量在所述平面直角坐标系中投影的终点确定为各所述可交互对象在所述预设交互平面中的投影位置。举例而言:
参考图4中所示,可以将各可交互对象A、B、C、D在虚拟现实空间中的坐标分别与虚拟角色在虚拟现实空间中的坐标连接,从而得到向量 参考图5中所示,在预设交互平面中以虚拟角色的投影位置为原点O’建立平面直角坐标系,并将向量在平面直角坐标系进行投影,向量在平面直角坐标系中投影的终点A’、B’、C’、D’即为可交互对象A、B、C、D在预设交互平面中的投影位置。本示例实施方式中,通过向量映射的方式,可以减少映射位置计算所需要的计算量以及提升运算速度,从而进一步提升用户体验。
此外,本领域技术人员容易理解的是,在本公开的其他示例性实施例中,也可以选择其他平面作为上述预设交互平面,例如选择与不垂直于上述Z轴的平面等;而且,也可以采用其他方式确定各所述可交互对象在预设交互平面中的投影位置,例如直接进行坐标变换等,这些均同样属于本公开的保护范围。
步骤S4.根据所述第三坐标将各所述可交互对象排布在所述虚拟交互平面,并且在所述虚拟现实场景向所述虚拟角色呈现所述虚拟交互平面。
在通过上述步骤S3确定各可交互对象在预设交互平面中的投影位置后,可以将各可交互对象按照其对应的投影位置排布在预设交互平面。本示例实施方式中,可以在所述虚拟现实空间向所述虚拟角色呈现所述预设交互平面。举例而言,参考图6中所示,可以在所述虚拟角色正前方与上述Z轴平行的平面向所述虚拟角色呈现所述预设交互平面。此外,为了便于用户更好的理解可交互对象的映射原理以及可交互对象映射前后的位置关系,本示例实施方式中可以在向所述虚拟角色呈现所述预设交互平面时,将可交互对象以动画的方式变换到所述预设交互平面相应的位置上。此外,为了避免遮挡用户的视线,在本公开的其他示例性实施例中,也可以将所述预设交互平面呈现在所述虚拟角色偏左或者偏右的位置,或者也可以将预设交互平面进行一定幅度的倾斜等等,本示例性实施例中对此不做特殊限定。
在本公开的一种示例性实施例中,在本示例所提供的虚拟现实交互系统中,上述的动作转换模块202可以包括微动开关,其根据所述信号接收模块203接收的所述操作信息控制一虚拟控制器在所述虚拟交互平面上的动作具体可以包括:
在所述操作信息为第一操作信息时,控制所述虚拟控制器在所述虚拟交互平面上进行点击操作;所述第一操作信息对应所述动作输入模块103检测到所述微动开关的一次开关动作信息。
在所述操作信息为第二操作信息时,控制所述虚拟控制器在所述虚拟交互平面上移动;所述第二操作信息对应所述位移检测模块201检测到的所述位移信息。
在所述操作信息为第三操作信息时,控制所述虚拟控制器在所述虚拟交互平面上进行拖动操作;所述第三操作信息对应所述动作的输入模块102检测到所述微动开关的一次开关动作信息与所述移检测模块201检测到的所述位移信息的组合信息。
举例而言,当动作输入模块202检测到微动开关的一次开关动作时,即检测到第一操作信息时,则对应的控制所述虚拟控制器在所述虚拟交互平面内执行点击操作,其功能等同于普通鼠标的单击操作,此时可以对虚拟交互平面的可交互对象的投影进行点击或选中等操作。
当只有位移检测模块检测到位移信息而动作输入模块没有检测到微动开关的动作信息时,即检测到第二操作信息时,则对应的控制所述虚拟控制器在所述虚拟交互平面内进行移动操作。
当动作输入模块检测到微动开关的动作信息,同时位移检测模块检测到位移信息,即检测到第三操作信息时,则对应的控制所述虚拟控制器在所述虚拟交互平面内对所述可交互对象执行选中并按照上述的位移信息进行拖动的操作,但容易理解的是,在本公开的其他示例性实施例中,类似的,用户可以预先设定操作信息及其相对应的执行动作,例如:设定在检测到连续的多次微动开关的开关动作时,执行对可交互对象的打开或关闭等等,本示例性实施例中对此不做特殊限定。
在本公开的一种示例性实施例中,参考图3所示,上述的虚拟现实系统还可以包括:映射模块204。
所述映射模块204设于所述虚拟现实系统200,可以用于将所述虚拟控制器在所述虚拟交互平面上的动作映射至虚拟现实场景中对应的所述可交互对象。
本示例实施方式中所提供的虚拟现实交互系统不仅可以便于用户查看周边一定范围内的可交互对象,而且也可以提升用户与这些可交互对象进行交互操作的便捷性。例如,本示例实施方式中,上述的将所述虚拟控制器在所述虚拟交互平面上的动作映射至虚拟现实场景中对应的所述可交互对象还可以包括:
步骤S5.检测所述虚拟控制器在所述虚拟交互平面的交互操作,并根据所述第三坐标和第二坐标的对应关系,将所述虚拟控制器在所述虚拟交互平面上的交互操作作用于所述虚拟现实场景中的所述可交互对象。
举例而言,参考图6中所示,用户可以直接对预设交互平面中的可交互对象C’进行交互操作,则该交互操作将会作用于虚拟现实空间中的可交互对象C。在游戏应用中,以可交互对象C为用户身后的NPC对象为例,用户如果需要与该NPC对象进行对话等交互操作,则可以将视线在预设交互平面中的可交互对象C’上停留预设时长(如3秒至5秒等),即可触发与虚拟现实空间中的可交互对象C进行对话等交互操作,而无需回头走到可交互对象C处进行交互操作。因此,通过本示例实施方式中的虚拟现实交互方法还可以大幅度提升用户与虚拟现实空间中的可交互对象进行交互操作的便捷性;而且,相比于在立体空间中进行交互操作,在预设交互平面中进行交互操作可以实现更高的准确性。
综上所述,本示例实施方式中的虚拟现实交互系统,可以检测用户对安装载体100的操作信息,并根据该操作信息实现利用虚拟控制器在虚拟交互平面内对可交互对象进行交互操作,并且依据可交互对象在虚拟交互平面与虚拟现实场景内的投影对应关系,将在虚拟交互平面上的交互操作执行至虚拟现实场景中。因此,一方面,通过本公开的技术方案,能够减小用户在虚拟现实场景中对交互对象操作的复杂程度,使用户可以更便捷的进行交互操作;另一方面,也能够有效的提高交互操作的效率和准确率,进一步的提升用户体验;同时,能够降低成本。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、电子设备、或者网络设备等)执行根据本发明实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。

Claims (12)

1.一种虚拟现实交互系统,其特征在于,包括:
安装载体,所述安装载体为指环状;
位移检测模块,设于所述安装载体,用于检测所述安装载体的位移信息;
动作输入模块,设于所述安装载体,用于检测作用于所述安装载体的动作信息;
中央处理器,设于所述安装载体且与所述位移检测模块以及动作输入模块通信连接,用于对所述位移信息以及动作信息转换为操作信息;
信号输出模块,设于所述安装载体且与所述中央处理器连接,用于发送所述操作信息;
信号接收模块,设于一虚拟现实系统,用于与所述信号输出模块通信连接以接收所述信号输出模块发送的所述操作信息;
位置投影模块,设于所述虚拟现实系统,用于将所述虚拟现实系统提供的虚拟现实场景中预设范围内的可交互对象投影至一虚拟交互平面内;
动作转换模块,设于所述虚拟现实系统,用于根据所述信号接收模块接收的所述操作信息控制一虚拟控制器在所述虚拟交互平面上的动作;
映射模块,设于所述虚拟现实系统,用于将所述虚拟控制器在所述虚拟交互平面上的动作映射至虚拟现实场景中对应的所述可交互对象。
2.根据权利要求1所述的虚拟现实交互系统,其特征在于,所述将虚拟现实系统提供的虚拟现实场景中预设范围内的可交互对象投影至一虚拟交互平面内,包括:
获取虚拟角色在所述虚拟现实场景中的坐标为第一坐标;
检测以所述虚拟角色为中心的预设范围内的可交互对象,并获取各所述可交互对象在所述虚拟现实场景中的坐标为第二坐标;
根据所述第二坐标与所述第一坐标的相对关系确定各所述可交互对象在一虚拟交互平面中的投影位置,并以所述投影位置作为第三坐标;
根据所述第三坐标将各所述可交互对象排布在所述虚拟交互平面,并且在所述虚拟现实场景向所述虚拟角色呈现所述虚拟交互平面。
3.根据权利要求2所述的虚拟现实交互系统,其特征在于,所述确定各所述可交互对象在一虚拟交互平面中的投影位置包括:
分别将各所述第二坐标与所述第一坐标连接,得到以所述第一坐标为起点,以所述第二坐标为终点的多个向量;
在所述虚拟交互平面中以所述第一坐标的投影位置为原点建立平面直角坐标系,并将各所述向量在所述平面直角坐标系中投影的终点确定为各所述可交互对象在所述虚拟交互平面中的投影位置。
4.根据权利要求2或3所述的虚拟现实交互系统,其特征在于,所述的将所述虚拟控制器在所述虚拟交互平面上的动作映射至虚拟现实场景中对应的所述可交互对象,包括:
检测所述虚拟控制器在所述虚拟交互平面的交互操作,并根据所述第三坐标和第二坐标的对应关系,将所述虚拟控制器在所述虚拟交互平面上的交互操作作用于所述虚拟现实场景中的所述可交互对象。
5.根据权利要求1所述的虚拟现实交互系统,其特征在于,所述虚拟现实交互系统包括:
触摸感应模块,设于所述安装载体并与所述中央处理器相连接,用于检测作用于所述安装载体的触摸信息;
检测激活模块,用于在所述触摸感应模块检测到一作用于所述安装载体的所述触摸信息时,使所述中央处理器控制所述位移检测模块开始检测所述安装载体的位移信息。
6.根据权利要求5所述的虚拟现实交互系统,其特征在于,所述触摸感应模块包括:电容触摸传感器。
7.根据权利要求1所述的虚拟现实交互系统,其特征在于,所述动作输入模块包括微动开关。
8.根据权利要求7所述的虚拟现实交互系统,其特征在于,根据所述信号接收模块接收的所述操作信息控制一虚拟控制器在所述虚拟交互平面上的动作包括:
在所述操作信息为第一操作信息时,控制所述虚拟控制器在所述虚拟交互平面上进行点击操作;所述第一操作信息对应所述动作输入模块检测到所述微动开关的一次开关动作信息;
在所述操作信息为第二操作信息时,控制所述虚拟控制器在所述虚拟交互平面上移动;所述第二操作信息对应所述位移检测模块检测到的所述位移信息;
在所述操作信息为第三操作信息时,控制所述虚拟控制器在所述虚拟交互平面上进行拖动操作;所述第三操作信息对应所述动作的输入模块检测到所述微动开关的一次开关动作信息与所述移检测模块检测到的所述位移信息的组合信息。
9.根据权利要求1所述的虚拟现实交互系统,其特征在于,所述安装载体为闭合或未闭合的圆环结构。
10.根据权利要求1或9所述的虚拟现实交互系统,其特征在于,所述安装载体可以放置在食指、中指、无名指或小拇指上,所述动作输入模块设置在安装载体上朝向大拇指的一侧。
11.根据权利要求1所述的虚拟现实交互系统,其特征在于,所述信号输出模块包括:蓝牙模块或WiFi模块。
12.根据权利要求1所述的虚拟现实交互系统,其特征在于,所述安装载体采用柔性材料。
CN201611176745.9A 2016-12-19 2016-12-19 虚拟现实交互系统 Active CN106598277B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611176745.9A CN106598277B (zh) 2016-12-19 2016-12-19 虚拟现实交互系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611176745.9A CN106598277B (zh) 2016-12-19 2016-12-19 虚拟现实交互系统

Publications (2)

Publication Number Publication Date
CN106598277A CN106598277A (zh) 2017-04-26
CN106598277B true CN106598277B (zh) 2019-09-17

Family

ID=58601366

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611176745.9A Active CN106598277B (zh) 2016-12-19 2016-12-19 虚拟现实交互系统

Country Status (1)

Country Link
CN (1) CN106598277B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108958573B (zh) * 2017-05-26 2021-06-29 创新先进技术有限公司 基于虚拟现实场景的身份认证方法及装置
CN107308639A (zh) * 2017-06-16 2017-11-03 苏州蜗牛数字科技股份有限公司 一种vr游戏中实现玩家与智能载具之间互动的方法
WO2018232742A1 (en) * 2017-06-23 2018-12-27 Tencent Technology (Shenzhen) Company Limited METHOD AND DEVICE FOR POINTING AN OBJECT IN A VIRTUAL REALITY (VR) SCENE, AND VR APPARATUS
CN107678542B (zh) * 2017-09-23 2021-04-02 武汉市烨震科技有限公司 一种指环类可穿戴设备及人机交互方法
CN110727344B (zh) * 2019-09-18 2022-05-17 Oppo广东移动通信有限公司 虚拟现实系统、交互控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103699219A (zh) * 2013-12-06 2014-04-02 中国科学院深圳先进技术研究院 一种智能眼镜交互系统及智能交互方法
CN105354820A (zh) * 2015-09-30 2016-02-24 深圳多新哆技术有限责任公司 调整虚拟现实图像的方法及装置
CN105867599A (zh) * 2015-08-17 2016-08-17 乐视致新电子科技(天津)有限公司 一种手势操控方法及装置
CN105929933A (zh) * 2015-12-22 2016-09-07 北京蚁视科技有限公司 一种用于三维显示环境中的交互识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130053466A (ko) * 2011-11-14 2013-05-24 한국전자통신연구원 인터랙티브 증강공간 제공을 위한 콘텐츠 재생 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103699219A (zh) * 2013-12-06 2014-04-02 中国科学院深圳先进技术研究院 一种智能眼镜交互系统及智能交互方法
CN105867599A (zh) * 2015-08-17 2016-08-17 乐视致新电子科技(天津)有限公司 一种手势操控方法及装置
CN105354820A (zh) * 2015-09-30 2016-02-24 深圳多新哆技术有限责任公司 调整虚拟现实图像的方法及装置
CN105929933A (zh) * 2015-12-22 2016-09-07 北京蚁视科技有限公司 一种用于三维显示环境中的交互识别方法

Also Published As

Publication number Publication date
CN106598277A (zh) 2017-04-26

Similar Documents

Publication Publication Date Title
CN106598277B (zh) 虚拟现实交互系统
US10838495B2 (en) Devices for controlling computers based on motions and positions of hands
CN210573659U (zh) 计算机系统、头戴式设备、手指设备和电子设备
CN107533373B (zh) 虚拟现实中经由手与对象的场境敏感碰撞的输入
CN107678542B (zh) 一种指环类可穿戴设备及人机交互方法
TWI528227B (zh) 一種指環式無線指感控制器、控制方法及控制系統
CN106445118B (zh) 虚拟现实交互方法及装置
CN102779000B (zh) 一种用户交互系统和方法
JP2015507803A (ja) 高められたジェスチャ・ベースの対話のためのシステム及び方法
CN102955580B (zh) 鼠标及其模拟触控操作的方法
US20170045977A1 (en) Mobile Terminal
CN110493018B (zh) 一种群聊创建方法和装置
CN110389659A (zh) 针对增强或虚拟现实环境提供动态触觉回放的系统和方法
CN102622083A (zh) 一种手势识别方法及手势识别装置
KR102021851B1 (ko) 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법
CN102707799A (zh) 一种手势识别方法及手势识别装置
CN106774824A (zh) 虚拟现实交互方法及装置
CN105138136A (zh) 手势识别装置、手势识别方法及手势识别系统
CN108245889A (zh) 自由视角朝向切换方法及装置、存储介质、电子设备
Zhang et al. Evaluation of hand-based interaction for near-field mixed reality with optical see-through head-mounted displays
Rissanen et al. Subtle, Natural and Socially Acceptable Interaction Techniques for Ringterfaces—Finger-Ring Shaped User Interfaces
CN108803862B (zh) 用于虚拟现实场景中的账号关系建立方法及装置
WO2018042923A1 (ja) 情報処理システム、情報処理方法、およびプログラム
CN109643182A (zh) 信息处理方法、装置、云处理设备及计算机程序产品
CN104484117B (zh) 人机交互方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant