CN109557998A - 信息交互方法、装置、存储介质和电子装置 - Google Patents
信息交互方法、装置、存储介质和电子装置 Download PDFInfo
- Publication number
- CN109557998A CN109557998A CN201710873684.XA CN201710873684A CN109557998A CN 109557998 A CN109557998 A CN 109557998A CN 201710873684 A CN201710873684 A CN 201710873684A CN 109557998 A CN109557998 A CN 109557998A
- Authority
- CN
- China
- Prior art keywords
- interactive
- virtual
- reality scenario
- virtual reality
- panel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/533—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/23—Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1025—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/30—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
- A63F2300/308—Details of the user interface
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种信息交互方法、装置、存储介质和电子装置。其中,该方法包括:在虚拟现实场景中获取第一目标操作指令;从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板,其中,多个虚拟操作面板之间相互独立显示,并且分别用于显示不同的交互对象;获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令,其中,交互设备与虚拟现实场景相关联;响应交互操作指令,在虚拟现实场景中执行与目标交互对象对应的目标事件。本发明解决了相关技术中信息交互的灵活性低的技术问题。
Description
技术领域
本发明涉及计算机领域,具体而言,涉及一种信息交互方法、装置、存储介质和电子装置。
背景技术
目前,在2D显示器环境下的游戏,比如,主机游戏、手机游戏等,通常采用独立于场景之外的面向显示器的2D面板实现菜单的制作。由于在游戏的最终显示为2D显示器的情况下,菜单并非为3D游戏场景中所应该存在的内容,而是作为游戏玩家和游戏内容之间的连接媒介,使用独立于游戏场景的2D面板来制作菜单,就可以直接使得2D面板面向显示器显示方向,从而满足用户更加快速、方便地选择的目的,并且不会影响到虚拟世界的游戏逻辑,菜单的制作相对独立。因而,在所有3D游戏场景中并不涉及菜单的制作。另外,在鼠标操作的前提下,通过鼠标直接点击游戏的菜单是非常直观的一种操作,基本不涉及复杂交互操作的可能性。
在虚拟现实(Virtual Reality,简称为VR)环境下,由于用户可以感知到3D空间的变化和感受,交互操作的方式可以不再是鼠标点击这样的操作,也不再是通过2D界面的位置变化来反向映射到3D空间去操作虚拟世界,而是直接获取用户在真实3D空间的位置,这个位置可以直接对应到虚拟空间的3D位置,因而就不存在原来的鼠标操作(2D屏幕空间到3D虚拟空间的对应关系),原来利用2D面板的菜单,更加适合通过3D的方式进行展示,将菜单作为虚拟世界的3D对象直接融入到虚拟世界场景里,可以更加方便用户的操作。
VR环境下的交互是通过交互设备发出的射线与3D空间的2D菜单面板进行交互来实现。
图1是根据相关技术中的一种VR环境下的界面交互的示意图。如图1所示,该界面为Steam VR的菜单交互界面,Steam VR实现了一个功能完整的360°房型空间的虚拟现实体验。在3D空间中,一根射线从手柄射出,射线指向3D空间中的2D面板,与2D面板的交点为用户所希望与2D面板交互的位置,该位置类似于在鼠标操作时,鼠标所指示的位置,手柄的按键类似于鼠标的按键。通过手柄的按键与3D空间中的2D菜单面板做交互操作和响应。
图2是根据相关技术中的另一种VR环境下的界面交互的示意图。如图2所示,该界面为Oculus Home的菜单交互界面,与图1所示的SteamVR主菜单界面的操作过程是一样的。Oculus是一间美国虚拟实境科技公司,首件产品Oculus Rift是一款逼真的虚拟实境头戴式显示器。
上述图1和图2所示的界面交互为目前常用的交互方案,主要参考鼠标的操作,将原来的2D面板转换成3D平面内的一块菜单面板,然后直接使用射线进行操作。这种操作方式的特点如下:首先,整个菜单界面为一块菜单面板,所有的菜单内容都简单地集中在这一块菜单面板上面,这样导致各个重要菜单系统的内容都叠加在这个菜单面板内,也即,没有充分利用3D虚拟空间去展示信息;其次,菜单面板在场景中比较远的地方,远离操作者,导致在很空旷的场景中才能容下这样的菜单面板,而不是适合游戏中的任何场景中;再次,由于菜单面板远离用户,导致必须采用采用射线操作这种方式,而不是非常直观去触碰;最后,菜单面板的位置在场景中是固定的,导致菜单面板的使用缺乏灵活性,很难在不暂停游戏的情况下也能使用菜单面板上的各个菜单选项,导致信息交互的灵活性低的问题。
针对上述相关技术中信息交互的灵活性低的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种信息交互方法、装置、存储介质和电子装置,以至少解决相关技术中信息交互的灵活性低的技术问题。
根据本发明实施例的一个方面,提供了一种信息交互方法。该信息交互方法包括:在虚拟现实场景中获取第一目标操作指令;从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板,其中,多个虚拟操作面板之间相互独立显示,并且分别用于显示不同的交互对象;获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令,其中,交互设备与虚拟现实场景相关联;响应交互操作指令,在虚拟现实场景中执行与目标交互对象对应的目标事件。
根据本发明实施例的另一方面,还提供了一种信息交互装置。该信息交互装置包括:第一获取单元,用于在虚拟现实场景中获取第一目标操作指令;显示单元,用于从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板,其中,多个虚拟操作面板之间相互独立显示,并且分别用于显示不同的交互对象;第二获取单元,用于获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令,其中,交互设备与虚拟现实场景相关联;处理单元,用于响应交互操作指令,在虚拟现实场景中执行与目标交互对象对应的目标事件。
在本发明实施例中,在虚拟现实场景中获取第一目标操作指令;从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板,其中,多个虚拟操作面板之间相互独立显示,并且分别用于显示不同的交互对象;获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令,其中,交互设备与虚拟现实场景相关联;响应交互操作指令,在虚拟现实场景中执行与目标交互对象对应的目标事件。由于通过在虚拟现实场景中,存在多个相互独立的虚拟操作面板,分别用于显示不同的交互信息,以实现不同的功能,达到了对虚拟操作面板进行操作的目的,从而提高了虚拟操作面板操作的灵活性,进而解决了相关技术中信息交互的灵活性低的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据相关技术中的一种VR环境下的界面交互的示意图;
图2是根据相关技术中的另一种VR环境下的界面交互的示意图;
图3是根据本发明实施例的一种信息交互方法的硬件环境的示意图;
图4是根据本发明实施例的一种信息交互方法的流程图;
图5是根据本发明实施例的一种在虚拟现实场景中执行与目标交互对象对应的目标事件的方法的流程图;
图6是根据本发明实施例的一种获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令的方法的流程图;
图7是根据本发明实施例的另一种在虚拟现实场景中执行与目标交互对象对应的目标事件的方法的流程图;
图8是根据本发明实施例的另一种信息交互的方法的流程图;
图9是根据本发明实施例的另一种信息交互方法的流程图;
图10是根据本发明实施例的另一种信息交互方法的流程图;
图11是根据本发明实施例的一种单个面板的实现结构的示意图;
图12是根据本发明实施例的另一种信息交互方法的流程图;
图13是根据本发明实施例的一种虚拟现实场景下的菜单面板显示的示意图;
图14是根据本发明实施例的一种虚拟现实场景下的与菜单面板进行交互的示意图;
图15是根据本发明实施例的另一种虚拟现实场景下的与菜单面板进行交互的示意图;
图16是根据本发明实施例的一种信息交互装置的示意图;以及
图17是根据本发明实施例的一种电子装置的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本发明实施例,提供了一种信息交互方法的实施例。
可选地,在本实施例中,上述信息交互方法可以应用于如图3所示的由服务器302和交互设备304所构成的硬件环境中,或者,也可以应用在仅由交互设备304构成的硬件环境中。图3是根据本发明实施例的一种信息交互方法的硬件环境的示意图。如图3所示,服务器302通过网络与交互设备304进行连接,上述网络包括但不限于:广域网、城域网或局域网,交互设备304并不限定虚拟现实设备等,支持3D空间位置的交互设备都可以支持,例如,双手分离式手柄。本发明实施例的信息交互方法可以由服务器302来执行,也可以由交互设备304来执行,还可以是由服务器302和交互设备304共同执行。其中,交互设备304执行本发明实施例的信息交互方法也可以是由安装在其上的客户端来执行。
图4是根据本发明实施例的一种信息交互方法的流程图。如图4所示,该方法可以包括以下步骤:
步骤S402,在虚拟现实场景中获取第一目标操作指令。
在本申请上述步骤S402提供的技术方案中,在虚拟现实场景中获取第一目标操作指令。
虚拟现实,也即,虚拟实境,虚拟环境,采用虚拟技术,也称虚拟环境,是利用电脑模拟产生一个三维空间的虚拟世界,向用户提供关于视觉等感官的模拟,从而让用户感觉到仿佛身临其境,可以及时地、没有限制地观察到三维空间内的事物。
该实施例的虚拟现实场景为采用上述虚拟现实技术对现实场景进行模拟,得到的适用于具体应用的场景,比如,虚拟现实场景为通过虚拟现实技术将现实空间完全匹配到虚拟空间中,得到的适用于游戏应用的场景,其中,游戏应用为VR游戏应用。在该虚拟现实场景中,用户与虚拟控制角色相匹配,可选地,用户的操作与虚拟场景中的表现行为相匹配,比如,用户按下交互设备上的按键时,则触发选中虚拟操作面板中显示的交互对象,当用户松开交互设备上的按键时,则取消选中虚拟操作面板中显示的交互对象。另外,该虚拟现实场景可以向用户提供关于视觉等感官的模拟场景,从而可以使用户及时地、无限制地通过虚拟角色观察到该场景内的事物,使用户具有如同身处现实场景中一样的感受。
需要说明的是,上述虚拟现实场景仅为本发明实施例中的优选实施方式,并不代表本发明实施例的虚拟现实场景的表现仅限上述方式,任何可以实现信息交互方法,并且可以提高了虚拟操作面板操作的灵活性的表现形式都在本发明的保护范围之内,此处不再一一举例说明。
在虚拟现实场景中获取第一目标操作指令,该第一目标操作指令可以为在虚拟现实场景中用于选择待操作的虚拟操作面板的指令,其中,虚拟操作面板为虚拟现实场景中用于显示交互对象的虚拟界面,比如,显示菜单,将各种游戏操作融合到菜单里面进行使用,通过选择不同的菜单实现虚拟现实场景中不同的交互功能。用户可以通过对交互设备进行操作,产生该第一目标操作指令,比如,移动交互设备上的摇杆,控制虚拟现实场景中的虚拟对象移动,在确定待操作的虚拟操作面板之后,按下手柄上的按钮,控制虚拟对象点击虚拟操作面板,从而产生上述第一目标操作指令。其中,虚拟对象用于指示对虚拟现实场景中的对象执行操作,可以为虚拟手部,也可以通过其它图标进行指示,此处不做限制。
步骤S404,从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板。
在本申请上述步骤S404提供的技术方案中,从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板,其中,多个虚拟操作面板之间相互独立显示,并且分别用于显示不同的交互对象。
该实施例在虚拟现实场景中设置了多个虚拟操作面板,多个虚拟操作面板之间独立显示,可以显示不同的内容。比如,虚拟操作面板为用于进行设置的虚拟操作面板,用于显示个人信息的虚拟操作面板,用于进行信息通知的虚拟操作面板,用于收发邮件的虚拟操作面板,用于好友通讯、管理的虚拟操作面板等,此处不做限制。该多个虚拟操作面板的尺寸可以由显示的内容确定,比如,当虚拟操作操作面板需要显示的内容越多时,虚拟操作面板的尺寸就越大,当虚拟操作操作面板需要显示的内容越少时,虚拟操作面板的尺寸就越小。
可选地,虚拟操作面板在虚拟现实场景中以2D形式现实,可以完全兼容当前游戏制作的方式,只要制作好2D菜单界面,然后将该2D菜单界面通过组件贴到虚拟操作面板上的实体网格模型上,比如,将该2D菜单通过WidgetComponent组件贴到虚拟操作面板上的实体网格模型上,就可以在游戏中显示虚拟操作面板,并且实现交互设备与虚拟操作面板的交互。
可选地,多个虚拟操作面板的视觉表现形式可以为多种多样,此处不做限制;多个虚拟操作面板具有的交互功能可以不同,也可以具有一定的关联关系,此处不做限制,从而充分地利用了虚拟现实环境带来的空间扩展的优势,避免了整个菜单界面只简单地通过一块面板实现,所有内容都集中在一块面板上,导致重要的菜单内容都是叠加在这一块面板上的缺陷。
可选地,当用户主动开启虚拟现实场景中的界面时,显示多个虚拟操作面板,该多个虚拟操作面板可以在虚拟现实场景中可以随意摆放。其中,多个虚拟操作面板的数量和种类可以预先设置好,比如,显示三块虚拟操作面板,三块虚拟操作面板分别用于播放信息、选择表情、设置音量,此处不做限制。
在获取第一目标操作指令之后,从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板,可以在通过交互设备产生第一目标操作指令之后,响应该第一目标操作指令,进而从多个虚拟操作面板中选中并显示与第一目标操作指令对应的第一虚拟操作面板。可选地,当通过交互设备控制虚拟对象触碰到虚拟操作面板上时,则确定选中了多个虚拟操作面板中的第一虚拟操作面板,也可以通过交互设备控制虚拟对象触碰到虚拟操作面板上的预设选中按钮时,则确定选中了多个虚拟操作面板中的第一虚拟操作面板,并对第一虚拟操作面板进行显示,显示第一虚拟操作面板的内容。
可选地,多个虚拟操作设备对应用于指示多个虚拟操作面板的指示信息,该多个虚拟操作面板的指示信息可以以列表、菜单等形式显示,此处不做限制。当用户通过交互设备控制虚拟对象点击某个虚拟操作面板的指示信息时,产生第一目标操作指令,进而将点击的虚拟操作面板确定为第一虚拟操作面板。
步骤S406,获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令。
在本申请上述步骤S406提供的技术方案中,获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令,其中,交互设备与虚拟现实场景相关联。
该实施例的交互设备用于在虚拟现实场景中产生交互操作指令,用于用户与虚拟现实场景进行交互,可以获得3D空间的位置。该交互设备可以为用于动作捕捉的手柄,可以用于配合空间定位系统使用,允许摄像机对用户的手部进行追踪,传感器也可以追踪手指运动,同时还为用户带来便利的抓握方式。比如,Vive设备,Oculus Touch设备,可以为双手分离式的手柄,用于获取虚拟现实场景中的位置信息。
第一虚拟操作面板中显示交互对象,该交互对象可以用于指示第一虚拟操作面板可以实现的功能,比如,选择表情的功能。第一虚拟操作面板可以显示多个交互对象,多个交互对象包括用户期望选择的目标交互对象,该目标交互对象可以用于实现用户在虚拟现实场景中期望实现的功能。
在交互设备从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板之后,确定第一虚拟操作面板中显示的交互对象中的目标交互对象,获取交互设备对目标交互对象执行的交互操作产生的交互操作指令,比如,获取交互设备在虚拟现实场景中的虚拟对象对第一虚拟操作面板中的关闭按钮执行的点击操作,产生的关闭第一虚拟操作面板的交互操作指令。可选地,交互设备对目标交互对象执行的交互操作可以通过虚拟现实场景中的虚拟对象进行指示。对目标交互对象执行的交互操作指令可以为交互设备通过虚拟对象对第一虚拟操作面板中的2D菜单进行触碰的交互操作指令;可以是用于关闭第一虚拟操作面板的交互操作指令,该关闭第一虚拟操作面板的功能可以由组件进行封装,比如,OptExitComponent组件;也可以是用于对第一虚拟操作面板的位置进行变换的交互操作指令等,可以通过交互设备控制虚拟对象在虚拟现实场景中的姿势的变化,来控制第一虚拟操作面板在虚拟现实场景中的位置的变化。
可选地,该实施例可以通过组件标记虚拟现实场景中的哪些空间,可以和交互设备在虚拟现实场景中的虚拟对象进行触碰,比如,组件为OptInteractiveComponent组件。标记过的虚拟现实场景中的区域可以作为交互设备与虚拟现实场景进行交互的区域。
步骤S408,响应交互操作指令,在虚拟现实场景中执行与目标交互对象对应的目标事件。
在本申请上述步骤S408提供的技术方案中,响应交互操作指令,在虚拟现实场景中执行与目标交互对象对应的目标事件。
在获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令之后,对交互操作指令进行响应,得到针对交互操作指令的交互结果。比如,当交互操作指令为用于交互设备通过虚拟对象对第一虚拟操作面板中的2D菜单进行触碰的交互操作指令时,响应交互操作指令得到的交互结果为与2D菜单进行交互的交互结果;当交互操作指令为用于关闭第一虚拟操作面板的交互操作指令时,响应交互操作指令得到的交互结果为关闭第一虚拟操作面部的交互结果;当交互操作指令为用于对第一虚拟操作面板的位置进行变换的交互操作指令时,响应交互操作指令得到的交互结果为移动第一虚拟操作面板的位置至新位置的交互结果。
需要说明的是,该实施例可以支持多个虚拟操作面板显示在虚拟现实场景中,使得虚拟操作面板之间的组合使用和快捷切换也成为了可能,从而提高了虚拟操作面板操作的灵活性,方便了用户操作,提升了用户体验。
通过上述步骤S402至步骤S408,在虚拟现实场景中获取第一目标操作指令;从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板,其中,多个虚拟操作面板之间相互独立显示,并且分别用于显示不同的交互对象;获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令,其中,交互设备与虚拟现实场景相关联;响应交互操作指令,在虚拟现实场景中执行与目标交互对象对应的目标事件。由于通过在虚拟现实场景中,存在多个相互独立的虚拟操作面板,分别用于显示不同的交互信息,以实现不同的功能,达到了对虚拟操作面板进行操作的目的,从而提高了虚拟操作面板操作的灵活性,进而解决了相关技术中信息交互的灵活性低的技术问题。
作为一种可选的实施例,步骤S406,获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令包括:获取交互设备对目标交互对象执行的触碰操作所产生的触碰操作指令,其中,交互操作指令包括触碰操作指令,触碰操作指令用于触发与目标交互对象对应的目标事件。
在该实施例中,交互设备对目标交互对象执行的交互操作包括触碰操作,触碰操作可以为交互设备使在虚拟现实场景中的虚拟对象触碰目标交互对象的操作,比如,交互设备使虚拟对象对目标交互对象进行点击、双击等操作。获取交互设备对目标交互对象在执行触碰操作时产生的触碰操作指令,通过该触碰操作指令触发与目标交互对象对应的目标事件。比如,目标交互对象为音量设置对象,获取交互设备在虚拟现实场景中的虚拟手部对音量设置对象在执行触碰操作时产生的触碰操作指令,通过该触碰操作指令触发与音量设置对象对应的调整音量事件。
作为一种可选的实施例,步骤S408,响应交互操作指令,在虚拟现实场景中执行与目标交互对象对应的目标事件包括:获取在产生触碰操作指令时交互设备的第一位置信息;在虚拟现实场景中执行触碰操作指令触发的与目标交互对象对应的目标事件。
图5是根据本发明实施例的一种在虚拟现实场景中执行与目标交互对象对应的目标事件的方法的流程图。如图5所示,该方法包括以下步骤:
步骤S501,获取在产生触碰操作指令时交互设备的第一位置信息。
在本申请上述步骤S501提供的技术方案中,获取在产生触碰操作指令时交互设备的第一位置信息,其中,第一位置信息用于指示交互设备在虚拟现实场景中的虚拟对象在第一虚拟操作面板上的第一位置。
交互设备在虚拟现实场景中具有对应的虚拟对象,该虚拟对象可以用于指示交互设备执行的操作,其中,虚拟对象在虚拟现实场景中的位置可以用于指示交互设备在虚拟现实场景中执行交互操作的位置,可以为虚拟手部,也可以为其它图标,此处不做限制。
在获取交互设备对目标交互对象,执行的交互操作所产生的交互操作指令之后,获取虚拟现实场景中在产生触碰操作指令时交互设备对应的第一位置信息,该第一位置信息用于指示交互设备对应的虚拟对象在第一虚拟操作面板上执行触碰操作时的第一位置,该第一位置也即为交互设备在第一虚拟操作面板上执行操作的位置,可以对应具体的交互对象。
步骤S502,在第一位置信息符合预设条件的情况下,在虚拟现实场景中执行触碰操作指令触发的与目标交互对象对应的目标事件。
在本申请上述步骤S502提供的技术方案中,在第一位置信息符合预设条件的情况下,在虚拟现实场景中执行触碰操作指令触发的与目标交互对象对应的目标事件。
在获取在产生触碰操作指令时交互设备的第一位置信息之后,判断第一位置信息是否符合预设条件,其中,在第一位置信息所指示的第一位置包含于目标交互对象对应的交互区域时,确定第一位置信息符合预设条件,在第一位置信息所指示的第一位置不包含于目标交互对象对应的交互区域时,确定第一位置信息不符合预设条件。在第一位置信息符合预设条件的情况下,在虚拟现实场景中执行触碰操作指令触发的与目标交互对象对应的目标事件,比如,在第一位置信息所指示的第一位置包含于音量设置对象的音量设置按钮时,确定第一位置信息符合预设条件,在虚拟现实场景中执行触碰操作指令触发的与音量设置对象对应的音量设置事件。
该实施例通过在产生触碰操作指令时,获取用于指示交互设备在虚拟现实场景中的虚拟对象在第一虚拟操作面板上的第一位置的第一位置信息,在第一位置信息符合预设条件的情况下,在虚拟现实场景中执行触碰操作指令触发的与目标交互对象对应的目标事件,从而实现了响应交互操作指令,在虚拟现实场景中执行与目标交互对象对应的目标事件的目的,避免了交互设备通过射线操作实现的不直观的操作方式,使用户可以直观地通过交互设备在虚拟现实场景中的虚拟对象触碰交互对象,提高了虚拟操作面板操作的灵活性。
作为一种可选的实施例,在获取交互设备对目标交互对象执行的触碰操作所产生的触碰操作指令之后,该方法还包括:在虚拟现实场景中显示第一反馈信息;和/或向交互设备输出第二反馈信息,其中,第二反馈信息用于指示交互设备进行目标操作。
该实施例在执行交互操作时,可以为用户带来信息反馈。在获取交互设备对目标交互对象执行的触碰操作所产生的触碰操作指令之后,在虚拟现实场景中显示第一反馈信息,该第一反馈信息用于触发用户的视觉,比如,触碰操作指令使得虚拟对象所在的交互区域的颜色变深,或者变浅,以和其它未进行交互操作的区域进行区分。还可以向交互设备输出第二反馈信息,该第二反馈信息用于指示交互设备进行目标操作。优选地,该目标操作为振动操作,使用户感受到交互设备的振动反馈,进而确定交互设备对目标交互对象执行了触碰操作,且产生了触碰操作指令;可选地,该实施例的目标操作还可以为交互设备通过音频信息所进行的提示操作,比如,为语音提示操作,提示音操作等,此处不做限制。其中,语音提示操作可以使用户通过语音内容了解当前所进行的触碰操作的情况,比如,目标交互对象为音量设置对象,当通过该触碰操作指令触发与音量设置对象对应的调整音量事件时,交互设备可以输出提示语音“您当前所进行的操作为调整音量操作”等;提示音操作可以使交互设备输出提示音,该提示音可以为单一的提示信,在交互设备对目标交互对象执行了触碰操作且产生了触碰操作指令时,交互设备输出提示音,以使用户快速感知当前执行了触碰操作,且产生了触碰操作指令,从而通过上述方式使用户体验到交互设备在虚拟现实场景中的虚拟对象对目标交互对象执行的触碰操作,达到了充分利用VR带来的更加自然、灵活的交互方式的效果。
作为一种可选的实施例,步骤S406,获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令包括:在检测到交互设备在虚拟现实场景中的虚拟对象对第一目标交互对象执行的第一手势为第一预设手势的情况下,获取对第一目标交互对象执行的第一操作所产生的第一交互操作指令,以准备移动第一虚拟操作面板;在响应第一交互操作指令之后,获取对第一虚拟操作面板执行的第二操作所产生的第二交互操作指令,以使第一虚拟操作面板随着交互设备在虚拟现实场景中的虚拟对象的移动而移动;在检测到交互设备在虚拟现实场景中的虚拟对象由第一手势变化到第二手势,且第二手势为第二预设手势的情况下,获取对第一目标交互对象执行的第三操作所产生的第三交互操作指令,以停止移动第一虚拟操作面板。
图6是根据本发明实施例的一种获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令的方法的流程图。如图6所示,该方法包括以下步骤:
步骤S601,在检测到交互设备在虚拟现实场景中的虚拟对象对第一目标交互对象执行的第一手势为第一预设手势的情况下,获取对第一目标交互对象执行的第一操作所产生的第一交互操作指令。
在本申请上述步骤S601提供的技术方案中,在检测到交互设备在虚拟现实场景中的虚拟对象对第一目标交互对象执行的第一手势为第一预设手势的情况下,获取对第一目标交互对象执行的第一操作所产生的第一交互操作指令,其中,交互操作指令包括第一交互操作指令,第一交互操作指令用于触发准备移动第一虚拟操作面板的目标事件,目标交互对象包括第一目标交互对象。
在从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板之后,虚拟对象的碰撞体进入面板碰撞体。检测虚拟对象对第一目标交互对象执行的第一手势是否为第一预设手势,其中,第一目标交互对象可以为第一虚拟操作面板中的任意交互区域,第一预设手势可以为抓取手势,也即,只要虚拟对象在第一虚拟操作面板进行触碰操作,则检测第一手势是否为抓取手势。在第一手势为第一预设手势的情况下,获取对第一目标对象执行的第一操作所产生的第一操作指令,其中,第一操作为虚拟对象的抓取操作,用户可以通过按住交互设备上设置的抓取按钮来控制虚拟对象对第一虚拟操作面板执行抓取操作。响应第一交互操作指令,在虚拟现实场景中执行准备移动第一虚拟操作面板的目标事件,也即,使第一虚拟操作面板在虚拟现实场景中处于可移动状态,而并非为固定在虚拟现实场景中。
步骤S602,在响应第一交互操作指令之后,获取对第一虚拟操作面板执行的第二操作所产生的第二交互操作指令。
在本申请上述步骤S602提供的技术方案中,在响应第一交互操作指令之后,获取对第一虚拟操作面板执行的第二操作所产生的第二交互操作指令,其中,交互操作指令包括第二交互操作指令,第二交互操作指令用于触发第一虚拟操作面板随着交互设备在虚拟现实场景中的虚拟对象的移动而移动的目标事件。
在响应第一交互操作指令之后,第一虚拟操作面板在虚拟现实场景中可以移动。获取对第一虚拟操作面板执行的第二操作所产生的第二交互操作指令,其中,第二操作为虚拟对象的移动操作,用户可以通过一直按住交互设备上设置的抓取按钮来控制虚拟对象对第一虚拟操作面板执行移动操作。响应第二操作指令,在虚拟现实场景中执行第二操作指令触发的第一虚拟操作面板随着交互设备在虚拟现实场景中的虚拟对象的移动而移动的目标事件,也即,使得第一虚拟操作面板在虚拟现实场景中根据用户对交互设备的操作而进行移动,而并非固定在虚拟现实场景中。
步骤S603,在检测到交互设备在虚拟现实场景中的虚拟对象对第一目标交互对象执行的手势,由第一手势变化到第二手势,且第二手势为第二预设手势的情况下,获取对第一目标交互对象执行的第三操作所产生的第三交互操作指令。
在本申请上述步骤S603提供的技术方案中,在检测到交互设备在虚拟现实场景中的虚拟对象对第一目标交互对象执行的手势,由第一手势变化到第二手势,且第二手势为第二预设手势的情况下,获取对第一目标交互对象执行的第三操作所产生的第三交互操作指令,其中,交互操作指令包括第三交互操作指令,第三交互操作指令用于触发交互设备在虚拟现实场景中的虚拟对象停止移动第一虚拟操作面板的目标事件。
在第一虚拟操作面板在虚拟现实场景中移动的过程中,检测虚拟对象对第一目标交互对象执行的手势是否有变化,且由第一手势是否变化到第二手势,该第二手势为第二预设手势,比如,第二预设手势为目标对象的松开手势。如果由第一手势变化到第二预设手势,获取对第一目标交互对象执行的第三操作所产生的第三交互操作指令,其中,第三操作可以为松开操作,也即,对第一虚拟操作面板的释放操作,用户可以通过一直松开交互设备上设置的抓取按钮来控制虚拟对象对第一虚拟操作面板执行释放操作。响应第三交互指令,在虚拟现实场景中执行第三交互操作指令触发的交互设备在虚拟现实场景中的虚拟对象停止移动第一虚拟操作面板的目标事件,也即,使得第一虚拟操作面板停留在虚拟对象对第一目标交互对象执行的手势为第二手势时的位置。
该实施例通过在检测到交互设备在虚拟现实场景中的虚拟对象对第一目标交互对象执行的第一手势为第一预设手势的情况下,获取对第一目标交互对象执行的第一操作所产生的第一交互操作指令,以触发准备移动第一虚拟操作面板的目标事件;获取对第一虚拟操作面板执行的第二操作所产生的第二交互操作指令,以触发第一虚拟操作面板随着交互设备在虚拟现实场景中的虚拟对象的移动而移动的目标事件;在检测到交互设备在虚拟现实场景中的虚拟对象对第一目标交互对象执行的手势,由第一手势变化到第二预设手势的情况下,获取对第一目标交互对象执行的第三操作所产生的第三交互操作指令,触发交互设备在虚拟现实场景中的虚拟对象停止移动第一虚拟操作面板的目标事件,使得第一虚拟操作面板可以按照用户的需要设置在虚拟现实场景中的可交互区域,可以防止第一虚拟操作面板遮挡用户的视线,也方便用户养成自己的操作习惯,从而提高了虚拟操作面板操作的灵活性。
作为一种可选的实施例,步骤S408,响应交互操作指令,在虚拟现实场景中执行与目标交互对象对应的目标事件包括:获取在产生第三交互操作指令时交互设备的第二位置信息;将虚拟现实场景中包括第二位置的区域确定为第一虚拟操作面板的目标显示区域;在目标显示区域中显示第一虚拟操作面板。
图7是根据本发明实施例的另一种在虚拟现实场景中执行与目标交互对象对应的目标事件的方法的流程图。如图7所示,该方法包括以下步骤:
步骤S701,获取在产生第三交互操作指令时交互设备的第二位置信息。
在本申请上述步骤S701提供的技术方案中,获取在产生第三交互操作指令时交互设备的第二位置信息,其中,第二位置信息用于指示交互设备在虚拟现实场景中的虚拟对象所处的第二位置。
在获取对第一目标交互对象执行的第三操作所产生的第三交互操作指令之后,获取在产生第三交互操作指令时交互设备的第二位置信息,该第二位置信息用于指示交互设备对应的虚拟对象在虚拟现实场景中所处的第二位置。比如,在获取对第一虚拟操作面板执行释放操作所产生的释放操作指令之后,获取在产生释放操作指令时交互设备对应的虚拟手部所处的第二位置。
步骤S702,将虚拟现实场景中包括第二位置的区域确定为第一虚拟操作面板的目标显示区域。
在本申请上述步骤S702提供的技术方案中,将虚拟现实场景中包括第二位置的区域确定为第一虚拟操作面板的目标显示区域。
在获取第二位置信息之后,确定虚拟现实场景中包括第二位置的区域,该区域即为第一虚拟操作面板的目标显示区域,其中,目标显示区域的尺寸比第一虚拟操作面板的尺寸大,从而可以完全显示第一虚拟操作面板上的内容。
步骤S703,在目标显示区域中显示第一虚拟操作面板。
在本申请上述步骤S703提供的技术方案中,在确定第一虚拟操作面板的目标显示区域之后,在目标显示区域中显示第一虚拟操作面板,其中,目标事件包括在目标显示区域中显示第一虚拟操作面板的事件。
该实施例通过获取在产生第三交互操作指令时交互设备的第二位置信息,其中,第二位置信息用于指示交互设备在虚拟现实场景中的虚拟对象所处的第二位置;将虚拟现实场景中包括第二位置的区域确定为第一虚拟操作面板的目标显示区域;在目标显示区域中显示第一虚拟操作面板,实现了响应交互操作指令,在虚拟现实场景中执行与目标交互对象对应的目标事件的目的。
作为一种可选的实施例,在步骤S602,获取对第一虚拟操作面板执行的第二操作所产生的第二交互操作指令时,该方法还包括:控制第一虚拟操作面板在虚拟现实场景中移动的过程中朝向预设方向。
在该实施例中,在获取对第一虚拟操作面板执行的第二操作所产生的第二交互操作指令时,也即,在第一虚拟操作面板随着交互设备在虚拟现实场景中的虚拟对象的移动而移动时,控制第一虚拟操作面板在虚拟现实场景中移动的过程中朝向预设方向。可选地,第一虚拟操作面板在移动过程中,始终朝着用户头部的方向,可以让用户一直看清楚第一虚拟操作面板上展示的内容,直到用户通过交互设备控制虚拟对象释放第一虚拟操作面板,则第一虚拟操作面板就停留在释放时所停留的新的空间位置,进而结束。
作为一种可选的实施例,在步骤S408,响应交互操作指令之前,该方法还包括:在虚拟现实场景中获取第二目标操作指令;从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第二目标操作指令对应的至少一个第二虚拟操作面板;获取交互设备对第一虚拟操作面板和至少一个第二虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令。
图8是根据本发明实施例的另一种信息交互的方法的流程图。如图8所示,该方法还包括以下步骤:
步骤S801,在虚拟现实场景中获取第二目标操作指令。
在本申请上述步骤S801提供的技术方案中,在虚拟现实场景中获取第二目标操作指令。
该实施例支持多虚拟操作面板的同时显示。在响应交互操作指令之前,在虚拟现实场景中获取第二目标操作指令。该第二目标操作指令可以为在虚拟现实场景中用于选择除第一虚拟操作面板之外的待操作的虚拟操作面板的指令。用户可以通过对交互设备进行操作,产生该第二目标操作指令,比如,移动交互设备上的摇杆,控制虚拟现实场景中的虚拟对象移动,在确定待操作的虚拟操作面板之后,按下手柄上的按钮,控制虚拟对象点击虚拟操作面板,从而产生上述第二目标操作指令。
步骤S802,从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第二目标操作指令对应的至少一个第二虚拟操作面板。
在本申请上述步骤S802提供的技术方案中,从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第二目标操作指令对应的至少一个第二虚拟操作面板。
该实施例在虚拟现实场景中设置了多个虚拟操作面板,多个虚拟操作面板之间独立显示,可以显示不同的内容。
在获取第二目标操作指令之后,从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第二目标操作指令对应的至少一个第二虚拟操作面板,可以在通过交互设备产生第二目标操作指令之后,响应该第二目标操作指令,进而从多个虚拟操作面板中选中并显示与第二目标操作指令对应的至少一个第二虚拟操作面板。可选地,当通过交互设备控制虚拟对象触碰到虚拟操作面板上时,则确定选中了多个虚拟操作面板中的第二虚拟操作面板,也可以通过交互设备控制虚拟对象触碰到虚拟操作面板上的预设选中按钮时,则确定选中了多个虚拟操作面板中的第二虚拟操作面板,并对第二虚拟操作面板进行显示,显示第二虚拟操作面板的内容。
可选地,上述第一虚拟操作面板和至少一个第二虚拟操作面板可以为具有关联关系的虚拟操作面板,可以为同一类虚拟操作面板,比如,为社交类虚拟操作面板,包括邮件系统的虚拟操作面板、好友系统的虚拟操作面板以及用于通讯的虚拟操作面板等。
步骤S803,获取交互设备对第一虚拟操作面板和至少一个第二虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令。
在本申请上述步骤S803提供的技术方案中,获取交互设备对第一虚拟操作面板和至少一个第二虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令。
在从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第二目标操作指令对应的至少一个第二虚拟操作面板之后,获取交互设备对第一虚拟操作面板和至少一个第二虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令。由于上述第一虚拟操作面板和至少一个第二虚拟操作面板具有关联关系,多个虚拟操作面板可以相互组合,可以随时满足用户在交互操作过程中需要实现的交互操作,以增强用户在交互操作过程中的交互体验,从而方便用户灵活选择虚拟操作面板,进而在不同虚拟操作面板和不同交互操作功能中进行切换,提高了虚拟操作面板操作的灵活性。
该实施例在响应交互操作指令之前,在虚拟现实场景中获取第二目标操作指令;从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第二目标操作指令对应的至少一个第二虚拟操作面板;获取交互设备对第一虚拟操作面板和至少一个第二虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令,提高了虚拟操作面板操作的灵活性。
作为一种可选的实施例,步骤S406,获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令包括:获取交互设备对第一虚拟操作面板中显示的第三目标交互对象执行的交互操作所产生的第四交互操作指令;步骤S408,响应交互操作指令,在虚拟现实场景中执行与目标交互对象对应的目标事件包括:响应第四交互操作指令,在虚拟现实场景中执行第四交互操作指令触发的关闭第一虚拟操作面板的目标事件。
图9是根据本发明实施例的另一种信息交互方法的流程图。如图9所示,该方法包括以下步骤:
步骤S901,获取交互设备对第一虚拟操作面板中显示的第三目标交互对象执行的交互操作所产生的第四交互操作指令。
在本申请上述步骤S901提供的技术方案中,获取交互设备对第一虚拟操作面板中显示的第三目标交互对象执行的交互操作所产生的第四交互操作指令,其中,目标交互对象包括第三目标交互对象,交互操作指令包括第四交互操作指令,第四交互操作指令用于触发关闭第一虚拟操作面板的目标事件。
第一虚拟操作面板上包括第三目标交互对象,可以为具有“×”标记的目标交互对象,以指示该第一虚拟操作面板可以通过交互设备在虚拟现实场景中的虚拟对象(如:虚拟手部)进行关闭,比如,虚拟对象对第一虚拟操作面板右上角中的“×”标记进行触碰操作,产生第四交互操作指令,以触发关闭第一虚拟操作面板的目标事件。
步骤S902,响应第四交互操作指令,在虚拟现实场景中执行第四交互操作指令触发的关闭第一虚拟操作面板的目标事件。
在本申请上述步骤S902提供的技术方案中,响应第四交互操作指令,在虚拟现实场景中执行第四交互操作指令触发的关闭第一虚拟操作面板的目标事件。
在获取交互设备对第三目标交互对象执行的交互操作所产生的第四交互操作指令之后,响应第四交互操作指令,在虚拟现实场景中执行第四交互操作指令触发的关闭第一虚拟操作面板的目标事件,实现了对第一虚拟操作面板的关闭。
可选地,OptExitComponent组件封装了虚拟操作面板的关闭功能,用户通过交互设备在虚拟现实场景中的虚拟对象点击OptExitComponent组件,就会实现整个虚拟操作面板在虚拟现实场景中的销毁。
该实施例通过获取交互设备对第一虚拟操作面板中显示的第三目标交互对象执行的交互操作所产生的第四交互操作指令,通过响应第四交互操作指令,在虚拟现实场景中执行第四交互操作指令触发的关闭第一虚拟操作面板的目标事件,从而实现了对第一虚拟操作面板的关闭。
作为一种可选的实施例,在步骤S404,从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板之前,该方法还包括:获取包括交互对象的二维界面;将二维界面与虚拟现实场景中的网格模型进行结合,得到第一虚拟操作面板。
图10是根据本发明实施例的另一种信息交互方法的流程图。如图10所示,该方法还包括以下步骤:
步骤S1001,获取包括交互对象的二维界面。
在本申请上述步骤S1001提供的技术方案中,在从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板之前,获取包括交互对象的二维界面。
在从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板之前,获取包括交互对象的2D UI(UMG Widget)。
步骤S1002,将二维界面与虚拟现实场景中的网格模型进行结合,得到第一虚拟操作面板。
在本申请上述步骤S1002提供的技术方案中,将二维界面与虚拟现实场景中的网格模型进行结合,得到第一虚拟操作面板,其中,网格模型用于标记虚拟现实场景中用于执行交互操作的区域。
在获取包括交互对象的二维界面之后,可以通过预设组件将二维界面与虚拟现实场景中的网格模型进行结合,得到第一虚拟操作面板,比如,预设组件为WidgetComponent组件,网格模型为3D Mesh,通过WidgetComponent组件实现将2D UI(UMG Widget)界面贴到3D Mesh上面。在包括交互对象的2D UI贴到3D Mesh之后,用户可以通过交互设备控制虚拟场景中的虚拟对象与2D UI进行交互,而且3D Mesh的大小是由2D UI界面的大小进行确定。
该实施例通过从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板之前,获取包括交互对象的二维界面;将二维界面与虚拟现实场景中的网格模型进行结合,实现在虚拟现实场景中用于进行交互操作的第一虚拟操作面板,达到了将原本的2D UI界面完美地融合到了场景里面的实体网格模型上面的效果。
作为一种可选的实施例,步骤S406,获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令包括:在第一虚拟操作面板的碰撞体与交互设备在虚拟现实场景中的虚拟对象的碰撞体相交的情况下,获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象执行的交互操作指令。
交互操作指令都是在第一虚拟操作面板的碰撞体与交互设备在虚拟现实场景中的虚拟对象的碰撞体相交的情况下产生,每一帧都会去检测以下交互操作:第一种,虚拟对象点击了3D mesh上面挂载的2D UI界面,这时候会根据检测到虚拟对象点击到的位置去判断是否触发UI的某些逻辑事件,比如,触发了按钮按下这样的事件;第二种,虚拟对象点击了关闭按钮,这时候触发的是面板的销毁逻辑,在完成这个步骤之后,则整个与此面板交互的逻辑就截止了;第三种,用户想要调整面板的位置,这时候触发了虚拟对象的抓取操作,会让虚拟操作面板跟随虚拟对象在空间位置的移动而移动,虚拟操作面板的旋转则是始终朝着用户头的方向,也即,使用户一直看清楚虚拟操作面板上展示的内容,直到控制虚拟对象释放虚拟操作面板,则虚拟操作面面板停留在新的空间位置。第四种,控制虚拟对象离开了虚拟操作面板的交互区域,这时候交互操作逻辑也就不再执行了。
在该实施例中,OptInteractiveComponent组件也是一个3D Mesh,用于标记虚拟现实场景中的哪些相对空间是可以与交互设备在虚拟现实场景中的虚拟对象(如:虚拟手部)发生碰撞的,而具体的碰撞事件实现逻辑可以通过InteractiveBaseComponent组件里面实现。
作为一种可选的实施例,多个虚拟操作面板中的每个虚拟操作面板的尺寸,由每个虚拟操作面板上显示的目标交互对象确定,也即,虚拟现实场景中的每一块虚拟操作面板的大小是随着内容的多少来确定的。
该实施例使得在游戏进行的过程中,不暂停游戏的情况下也能使用菜单的各个选项,提高了菜单面板操作的灵活性,从而方便了用户养成自己的操作习惯。
下面结合优选的实施例对本发明的技术方案进行说明。具体以交互设备在虚拟现实场景中的虚拟对象为虚拟手部进行举例说明。
图11是根据本发明实施例的一种单个面板的实现结构的示意图。如图11所示,为INFORMATION面板的实现结构。该面板组件为左边Components一列,从上到下依次主要包括:RootComponent组件、WidgetComponent组件、OptInteractiveComponent组件、InteractiveBaseComponent组件、OptExitComponent组件和SolarMeshWidget组件。
RootComponent组件为是根结点,未被赋予逻辑;WidgetComponent(inherited)组件是该实施例实现的用于将传统的2D UI(采用UMG Widget)界面贴到实体网格模型(3DMesh)上面的组件,在2D UI界面贴到3D网格上去之后,用户通过交互设备可以与2D UI界面进行交互,而且实体网格模型(3D Mesh)的大小可以由2D UI界面的大小进行确定;OptInteractiveComponent组件也是一个3D Mesh,用于标记VR场景下哪些相对空间是可以与交互设备发生碰撞的,而具体的碰撞事件的实现逻辑则可以在InteractiveBaseComponent组件中进行实现;OptExitComponent用于封装菜单面板的关闭功能,当用户通过交互设备点击这个组件时,就会销毁整个菜单面板上的对象;SolarMeshWidget组件则是额外的组件,也即,菜单面板上可以在上述组件的基础上根据需要添加一些额外的组件,从而使得菜单面的功能更加强大,但是WidgetComponent(inherited)组件标记的必须是基础功能,从而满足菜单面板上的基本显示(2D UI展示)和实现基础功能的交互,其中,基础功能的交互可以为UI界面上的点击操作功能、关闭操作功能、位置调整操作功能等,此处不做限制。
该实施例还将原本的2D UI界面完美地融合到了虚拟现实场景中的实体网格模型上面,同时为用户带来了触碰感的交互体验,为用户增加身临其境的沉浸感。
需要说明的是,在该实施例的单个面板的实现结构中,除上述信息之外的其它信息仅作示意,并不代表其对本发明实施例的方案造成了限定。
下面对菜单面板的操作逻辑进行介绍。
图12是根据本发明实施例的另一种信息交互方法的流程图。如图12所示,该方法包括以下步骤:
步骤S1201,虚拟手部的碰撞体通过交互设备控制进入面板碰撞体。
该实施例展示的是用户通过交互设备进行操作的逻辑实现方法,所有的逻辑检测都是在用户通过交互设备控制虚拟手部的碰撞体和菜单面板的碰撞体相交的时候进行的,其中,虚拟手部为交互设备在虚拟现实场景中的虚拟对象。虚拟手部的碰撞体通过交互设备进入面板碰撞体。
步骤S1202,虚拟手部的动作通过交互设备切换为点击姿势。
在手部碰撞体通过交互设备进入面板碰撞体之后,用户通过交互设备上的用于执行点击姿势的按键将虚拟手部的动作切换为点击姿势。
步骤S1203,检测虚拟手部的点击姿势对应的操作。
在虚拟手部的动作通过交互设备切换为点击姿势之后,检测虚拟手部的点击姿势对应的操作。
步骤S1204,通过交互设备点击2D UI界面。
用于通过交互设备点击了3D mesh上面贴合的2D UI界面。
步骤S1205,获取点击位置。
在通过交互设备点击2D UI界面之后,获取点击位置。
步骤S1206,通过交互设备确认点击对象,执行逻辑。
在获取点击位置之后,根据检测到的点击位置确认点击对象,判断是否触发了UI的某些逻辑事件,比如,判断是否触发了按钮按下这样的事件,执行逻辑。在通过交互设备确认点击对象,执行逻辑之后,可以再次执行步骤S1203,检测虚拟手部的点击姿势对应的操作。
步骤S1207,通过交互设备控制虚拟手部点击菜单面板上的关闭按钮。
步骤S1208,通过交互设备销毁菜单面板。
在通过交互设备关闭按钮之后,这时触发的是菜单面板的销毁逻辑对应的操作指令,在响应该操作指令之后,整个与此菜单面板的交互逻辑也就结束,销毁菜单面板。在销毁菜单面板之后,可以再次执行步骤S1203,检测虚拟手部的点击姿势对应的操作。
步骤S1209,通过交互设备控制虚拟手部接收抓取操作指令。
在检测虚拟手部的点击姿势对应的操作之后,在用户通过交互设备想要调整菜单面板在虚拟现实场景中的位置时,通过交互设备控制虚拟手部触发用于抓取菜单面板的操作指令。
步骤S1210,通过交互设备将虚拟手部的动作切换为抓取手势。
在通过交互设备接收抓取操作指令之后,响应该操作指令,将虚拟手部的动作切换为抓取手势。
步骤S1211,通过交互设备控制菜单面板的位置进行移动,菜单的面板方向始终面向用户的头部位置。
在通过交互设备将虚拟手部的动作切换为抓取手势之后,通过交互设备控制菜单面板的位置进行移动,使得菜单面板随着交互设备在虚拟场景中的虚拟手部的移动而移动,并且菜单面板的方向始终朝向用户的头部位置,也即,用户永远能看清楚菜单面板上展示的内容。
步骤S1212,用户通过交互设备触发了释放操作的指令。
步骤S1213,通过交互设备控制菜单面板停留在手释放的位置。
在用户通过交互设备触发了释放操作的指令,则菜单面板停留在虚拟现实场景中新的空间位置,该空间位置为用户期望菜单面板在虚拟现实场景中停留的位置。
步骤S1214,通过交互设备控制手部动作切换为点击手势。
在通过交互设备控制菜单面板停留在手释放的位置之后,可以通过交互设备控制手部动作切换为点击手势。在通过交互设备控制手部动作切换为点击手势之后,可以再次执行步骤S1203,检测虚拟手部的点击姿势对应的操作。
步骤S1215,通过交互设备控制虚拟手部的碰撞体离开菜单面板的碰撞体。
在检测虚拟手部的点击姿势对应的操作之后,通过交互设备控制虚拟手部的碰撞体离开菜单面板的碰撞体,虚拟手部离开了菜单面板的交互区域,从而使得对菜单面板的操作不再执行。
步骤S1216,通过交互设备控制虚拟手部的动作切换为自由姿势。
在通过交互设备控制手部的碰撞体离开菜单面板的碰撞体之后,通过交互设备控制虚拟手部的碰撞体离开菜单面板的碰撞体。在通过交互设备控制虚拟手部的动作切换为自由姿势之后,可以再次执行步骤S1203,检测虚拟手部的点击姿势对应的操作。
需要说明的是,上述逻辑检测都是在用户通过交互设备的虚拟对象碰撞体和菜单面板的碰撞体相交的时候进行,这时每一帧都会去检测是否出现上述四种情况。在步骤S1203,检测虚拟手部的点击姿势对应的操作之后,如果上述四种情况都没发生,则继续执行步骤S1203。
在该实施例中,将具有不同内容,独立显示的菜单面板设置在虚拟现实场景中,从而充分地利用了虚拟现实环境所具有的空间扩展的优势,避免了在2D空间中使用折叠菜单内容的显示方式来显示菜单。并且该实施例的菜单面板可以设置在用户周围可以触及的位置,用户可以通过交互设备抓起任何菜单面板将其放置到自己想要放置的地方,从而将菜单面板和游戏场景进行融合,防止菜单面板遮挡用户的视线,也方便了用户养成自己的操作习惯。另外,菜单面板上的内容可以通过交互设备的触碰操作指令进行触发,同时还向用户带来视觉和触觉的震动反馈,从而充分地利用了VR带来的更加自然的交互方式,提升了用户体验。该实施例还支持了多菜单面板的同时存在,实现了菜单面板之间的组合使用和快捷切换的目的。
本发明实施例的应用环境可以但不限于参照上述实施例中的应用环境,本实施例中对此不再赘述。本发明实施例提供了用于实施信息交互方法的一种可选的具体应用。
图13是根据本发明实施例的一种虚拟现实场景下的菜单面板显示的示意图。如图13所示,该菜单面板为用户通过交互设备主动开启界面时显示的菜单面板。可选地,开启界面时显示的菜单面板为默认菜单面板,该默认菜单面板的种类和数量可以预先设置,比如,预先设置信息显示面板(INFORMATION),可以用于设置显示的信息;表情面板(EXPRESSION),包括多种不同的表情,以供用户选择;设置面板(SETTINGS),可以用于设置声音的音量。在设置之后,用户通过交互设备开启界面时,独立显示上述信息显示面板、表情面板和设置面板,以供用户在通过交互设备执行交互操作时使用,从而充分地利用了虚拟现实环境下带来的空间的扩展优势,不再是在2D空间折叠菜单内容了。当用户通过交互设备控制虚拟手部点击其中一块菜单面板上的“×”按钮时,则点击的该菜单面板在虚拟现实场景中销毁,其中,虚拟手部显示在虚拟现实场景中,且用于指示交互设备的操作。
图14是根据本发明实施例的一种虚拟现实场景下的与菜单面板进行交互的示意图。如图14所示,为菜单面板的基本操作,每一块菜单面板的大小是随着内容的大小来确定的。菜单面板上面显示的菜单面板为2D,可以为3D游戏当中常用的UMG Widget(小部件),也即,该实施例的菜单面板完全兼容了当前游戏制作的方式,只要制作2D的菜单界面,就可以将它贴到该实施例的菜单面板上面,用户可以在游戏中看到如图14所示的菜单面板以及通过虚拟手部与其交互。2D菜单界面的按钮等用于交互的物件可以通过交互设备控制虚拟手部的手指进行点击,以实现按钮对应的功能。
图15是根据本发明实施例的另一种虚拟现实场景下的与菜单面板进行交互的示意图。如图15所示,菜单面板可以设置在用户周围任何可以触达的地方。当用户想要调整菜单面板在虚拟现实场景中的位置的时候,用户通过按住交互设备上的抓取按钮,则控制虚拟对象抓住菜单面板,此时虚拟菜单面板随着交互设备控制虚拟对象在虚拟现实场景中移动而移动。用户通过释放交互设备上的抓取按钮,就将菜单面板停留在了虚拟现实场景中的新位置,该新位置为用户期望菜单面板停留的位置,从而实现了菜单面板的位置变换,解决了菜单面板和游戏场景之间的融合问题,使得菜单面板在虚拟现实场景中方便用户通过交互设备触碰,避免菜单面板遮挡用户的视线,使得在游戏进行的过程中,不暂停游戏的情况下也能使用菜单的各个选项,提高了菜单面板操作的灵活性,从而方便了用户养成自己的操作习惯。
另外,该实施例的所有菜单面板上的内容都是可以通过交互设备控制虚拟对象进行触碰的方式触发,同时为用户带来视觉和触觉的震动反馈,充分利用了VR带来的更加自然的交互操作方式。并且还支持多菜单面板同时存在,使得面板之间组合使用和快捷切换也成为了可能,增强了用户身临其境的沉浸感。
该实施例在硬件上可以支持Vive,Oculus Touch,任何采用双手分离式,并且可以获得3D空间的位置的手柄都可以支持。
需要说明的是,该实施例的菜单面板的内容不限制,菜单面板的视觉表现形式也可以是多样的,不受限制。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
根据本发明实施例,还提供了一种用于实施上述信息交互方法的信息交互装置。图16是根据本发明实施例的一种信息交互装置的示意图。如图16所示,该装置可以包括:第一获取单元10、显示单元20、第二获取单元30和响应单元40。
第一获取单元10,用于在虚拟现实场景中获取第一目标操作指令。
显示单元20,用于从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板,其中,多个虚拟操作面板之间相互独立显示,并且分别用于显示不同的交互对象。
第二获取单元30,用于获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令,其中,交互设备与虚拟现实场景相关联。
响应单元40,用于响应交互操作指令,在虚拟现实场景中执行与目标交互对象对应的目标事件。
需要说明的是,该实施例中的第一获取单元10可以用于执行本申请实施例中的步骤S402,该实施例中的显示单元20可以用于执行本申请实施例中的步骤S404,该实施例中的第二获取单元30可以用于执行本申请实施例中的步骤S406,该实施例中的响应单元40可以用于执行本申请实施例中的步骤S408。
此处需要说明的是,上述单元与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在如图1所示的硬件环境中,可以通过软件实现,也可以通过硬件实现。
在该实施例中,通过第一获取单元10在虚拟现实场景中获取第一目标操作指令;通过显示单元20从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板,其中,多个虚拟操作面板之间相互独立显示,并且分别用于显示不同的交互对象;通过第二获取单元30获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令,其中,交互设备与虚拟现实场景相关联;通过响应单元40响应交互操作指令,在虚拟现实场景中执行与目标交互对象对应的目标事件。由于通过在虚拟现实场景中,存在多个相互独立的虚拟操作面板,分别用于显示不同的交互信息,以实现不同的功能,达到了对虚拟操作面板进行操作的目的,从而提高了虚拟操作面板操作的灵活性,进而解决了相关技术中信息交互的灵活性低的技术问题。
此处需要说明的是,上述单元与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在如图1所示的硬件环境中,可以通过软件实现,也可以通过硬件实现,其中,硬件环境包括网络环境。
根据本发明实施例,还提供了一种用于实施上述信息交互方法的电子装置。
图17是根据本发明实施例的一种电子装置的结构框图。如图17所示,该的电子装置可以包括:一个或多个(图中仅示出一个)处理器171、存储器173。可选地,如图17所示,该电子装置还可以包括传输装置175、输入输出设备177。
其中,存储器173可用于存储软件程序以及模块,如本发明实施例中的信息交互方法和装置对应的程序指令/模块,处理器171通过运行存储在存储器173内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的信息交互方法。存储器173可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器173可进一步包括相对于处理器171远程设置的存储器,这些远程存储器可以通过网络连接至电子装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
上述的传输装置175用于经由一个网络接收或者发送数据,还可以用于处理器与存储器之间的数据传输。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置175包括一个网络适配器(Network Interface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置175为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
其中,具体地,存储器173用于存储应用程序。
处理器171可以通过传输装置175调用存储器173存储的应用程序,以执行下述步骤:
在虚拟现实场景中获取第一目标操作指令;
从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板,其中,多个虚拟操作面板之间相互独立显示,并且分别用于显示不同的交互对象;
获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令,其中,交互设备与虚拟现实场景相关联;
响应交互操作指令,在虚拟现实场景中执行与目标交互对象对应的目标事件。
处理器171还用于执行下述步骤:获取交互设备对目标交互对象执行的触碰操作所产生的触碰操作指令,其中,交互操作指令包括触碰操作指令,触碰操作指令用于触发与目标交互对象对应的目标事件。
处理器171还用于执行下述步骤:获取在产生触碰操作指令时交互设备的第一位置信息,其中,第一位置信息用于指示交互设备在虚拟现实场景中的虚拟对象在第一虚拟操作面板上的第一位置;在第一位置信息符合预设条件的情况下,在虚拟现实场景中执行触碰操作指令触发的与目标交互对象对应的目标事件。
处理器171还用于执行下述步骤:在获取交互设备对目标交互对象执行的触碰操作所产生的触碰操作指令之后,在虚拟现实场景中显示第一反馈信息;和/或向交互设备输出第二反馈信息,其中,第二反馈信息用于指示交互设备进行目标操作。
处理器171还用于执行下述步骤:在交互设备在虚拟现实场景中的虚拟对象对第一目标交互对象,执行的第一手势为第一预设手势的情况下,获取第一交互操作指令,其中,交互操作指令包括第一交互操作指令,第一交互操作指令用于触发准备移动第一虚拟操作面板的目标事件,目标交互对象包括第一目标交互对象;在响应第一交互操作指令之后,获取第二交互操作指令,其中,交互操作指令包括第二交互操作指令,第二交互操作指令用于触发第一虚拟操作面板随着虚拟对象的移动而移动的目标事件;在第一手势变化到第二手势,且第二手势为第二预设手势的情况下,获取第三交互操作指令,其中,交互操作指令包括第三交互操作指令,第三交互操作指令用于触发虚拟对象停止移动第一虚拟操作面板的目标事件。
处理器171还用于执行下述步骤:获取在产生第三交互操作指令时交互设备的第二位置信息,其中,第二位置信息用于指示交互设备在虚拟现实场景中的虚拟对象所处的第二位置;将虚拟现实场景中包括第二位置的区域确定为第一虚拟操作面板的目标显示区域;在目标显示区域中显示第一虚拟操作面板。
处理器171还用于执行下述步骤:在获取对第一虚拟操作面板执行的第二操作所产生的第二交互操作指令时,控制第一虚拟操作面板在虚拟现实场景中移动的过程中朝向预设方向。
处理器171还用于执行下述步骤:在响应交互操作指令之前,在虚拟现实场景中获取第二目标操作指令;从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第二目标操作指令对应的至少一个第二虚拟操作面板;获取交互设备对第一虚拟操作面板和至少一个第二虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令。
处理器171还用于执行下述步骤:获取交互设备对第一虚拟操作面板中显示的第三目标交互对象执行的交互操作所产生的第四交互操作指令,其中,目标交互对象包括第三目标交互对象,交互操作指令包括第四交互操作指令,第四交互操作指令用于触发关闭第一虚拟操作面板的目标事件;响应第四交互操作指令,在虚拟现实场景中执行第四交互操作指令触发的关闭第一虚拟操作面板的目标事件。
处理器171还用于执行下述步骤:在从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板之前,获取包括交互对象的二维界面;将二维界面与虚拟现实场景中的网格模型进行结合,得到第一虚拟操作面板,其中,网格模型用于标记虚拟现实场景中用于执行交互操作的区域。
处理器171还用于执行下述步骤:在第一虚拟操作面板的碰撞体与交互设备在虚拟现实场景中的虚拟对象的碰撞体相交的情况下,获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象执行的交互操作指令。
采用本发明实施例,提供了一种信息交互方法的方案。在虚拟现实场景中获取第一目标操作指令;从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板,其中,多个虚拟操作面板之间相互独立显示,并且分别用于显示不同的交互对象;获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令,其中,交互设备与虚拟现实场景相关联;响应交互操作指令,在虚拟现实场景中执行与目标交互对象对应的目标事件。由于通过在虚拟现实场景中,存在多个相互独立的虚拟操作面板,分别用于显示不同的交互信息,以实现不同的功能,达到了对虚拟操作面板进行操作的目的,从而提高了虚拟操作面板操作的灵活性,进而解决了相关技术中信息交互的灵活性低的技术问题。
可选地,本实施例中的具体示例可以参考上述实施例中所描述的示例,本实施例在此不再赘述。
本领域普通技术人员可以理解,图17所示的结构仅为示意,电子装置可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(MobileInternet Devices,MID)、PAD等电子装置。图17其并不对上述电子装置的结构造成限定。例如,电子装置还可包括比图17中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图17所示不同的配置。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令电子装置相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(RandomAccess Memory,RAM)、磁盘或光盘等。
本发明的实施例还提供了一种存储介质。可选地,在本实施例中,上述存储介质可以用于执行信息交互方法的程序代码。
可选地,在本实施例中,上述存储介质可以位于上述实施例所示的网络中的多个网络设备中的至少一个网络设备上。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:
在虚拟现实场景中获取第一目标操作指令;
从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板,其中,多个虚拟操作面板之间相互独立显示,并且分别用于显示不同的交互对象;
获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令,其中,交互设备与虚拟现实场景相关联;
响应交互操作指令,在虚拟现实场景中执行与目标交互对象对应的目标事件。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:获取交互设备对目标交互对象执行的触碰操作所产生的触碰操作指令,其中,交互操作指令包括触碰操作指令,触碰操作指令用于触发与目标交互对象对应的目标事件。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:获取在产生触碰操作指令时交互设备的第一位置信息,其中,第一位置信息用于指示交互设备在虚拟现实场景中的虚拟对象在第一虚拟操作面板上的第一位置;在第一位置信息符合预设条件的情况下,在虚拟现实场景中执行触碰操作指令触发的与目标交互对象对应的目标事件。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:在获取交互设备对目标交互对象执行的触碰操作所产生的触碰操作指令之后,在虚拟现实场景中显示第一反馈信息;和/或向交互设备输出第二反馈信息,其中,第二反馈信息用于指示交互设备进行目标操作。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:在交互设备在虚拟现实场景中的虚拟对象对第一目标交互对象,执行的第一手势为第一预设手势的情况下,获取对第一交互操作指令,其中,交互操作指令包括第一交互操作指令,第一交互操作指令用于触发准备移动第一虚拟操作面板的目标事件,目标交互对象包括第一目标交互对象;在响应第一交互操作指令之后,获取第二交互操作指令,其中,交互操作指令包括第二交互操作指令,第二交互操作指令用于触发虚拟对象的移动而移动的目标事件;在第一手势变化到第二手势,且第二手势为第二预设手势的情况下,获取第三交互操作指令,其中,交互操作指令包括第三交互操作指令,第三交互操作指令用于触发虚拟对象停止移动第一虚拟操作面板的目标事件。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:获取在产生第三交互操作指令时交互设备的第二位置信息,其中,第二位置信息用于指示交互设备在虚拟现实场景中的虚拟对象所处的第二位置;将虚拟现实场景中包括第二位置的区域确定为第一虚拟操作面板的目标显示区域;在目标显示区域中显示第一虚拟操作面板。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:在获取对第一虚拟操作面板执行的第二操作所产生的第二交互操作指令时,控制第一虚拟操作面板在虚拟现实场景中移动的过程中朝向预设方向。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:在响应交互操作指令之前,在虚拟现实场景中获取第二目标操作指令;从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第二目标操作指令对应的至少一个第二虚拟操作面板;获取交互设备对第一虚拟操作面板和至少一个第二虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:获取交互设备对第一虚拟操作面板中显示的第三目标交互对象执行的交互操作所产生的第四交互操作指令,其中,目标交互对象包括第三目标交互对象,交互操作指令包括第四交互操作指令,第四交互操作指令用于触发关闭第一虚拟操作面板的目标事件;响应第四交互操作指令,在虚拟现实场景中执行第四交互操作指令触发的关闭第一虚拟操作面板的目标事件。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:在从虚拟现实场景中的多个虚拟操作面板中,选中并显示与第一目标操作指令对应的第一虚拟操作面板之前,获取包括交互对象的二维界面;将二维界面与虚拟现实场景中的网格模型进行结合,得到第一虚拟操作面板,其中,网格模型用于标记虚拟现实场景中用于执行交互操作的区域。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:在第一虚拟操作面板的碰撞体与交互设备在虚拟现实场景中的虚拟对象的碰撞体相交的情况下,获取交互设备对第一虚拟操作面板中显示的交互对象中的目标交互对象执行的交互操作指令。
可选地,本实施例中的具体示例可以参考上述实施例中所描述的示例,本实施例在此不再赘述。
可选地,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (15)
1.一种信息交互方法,其特征在于,包括:
在虚拟现实场景中获取第一目标操作指令;
从所述虚拟现实场景中的多个虚拟操作面板中,选中并显示与所述第一目标操作指令对应的第一虚拟操作面板,其中,所述多个虚拟操作面板之间相互独立显示,并且分别用于显示不同的交互对象;
获取交互设备对所述第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令,其中,所述交互设备与所述虚拟现实场景相关联;
响应所述交互操作指令,在所述虚拟现实场景中执行与所述目标交互对象对应的目标事件。
2.根据权利要求1所述的方法,其特征在于,获取所述交互设备对所述第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令包括:
获取所述交互设备对所述目标交互对象执行的触碰操作所产生的触碰操作指令,其中,所述交互操作指令包括所述触碰操作指令,所述触碰操作指令用于触发与所述目标交互对象对应的所述目标事件。
3.根据权利要求2所述的方法,其特征在于,响应所述交互操作指令,
在所述虚拟现实场景中执行与所述目标交互对象对应的目标事件包括:
获取在产生所述触碰操作指令时所述交互设备的第一位置信息,其中,所述第一位置信息用于指示所述交互设备在所述虚拟现实场景中的虚拟对象在所述第一虚拟操作面板上的第一位置;
在所述第一位置信息符合预设条件的情况下,在所述虚拟现实场景中执行所述触碰操作指令触发的与所述目标交互对象对应的所述目标事件。
4.根据权利要求2所述的方法,其特征在于,在获取所述交互设备对所述目标交互对象执行的触碰操作所产生的触碰操作指令之后,所述方法还包括:
在所述虚拟现实场景中显示第一反馈信息;和/或
向所述交互设备输出第二反馈信息,其中,所述第二反馈信息用于指示所述交互设备进行目标操作。
5.根据权利要求1所述的方法,其特征在于,获取所述交互设备对所述第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令包括:
在所述交互设备在所述虚拟现实场景中的虚拟对象,对第一目标交互对象执行的第一手势为第一预设手势的情况下,获取第一交互操作指令,其中,所述交互操作指令包括所述第一交互操作指令,所述第一交互操作指令用于触发准备移动所述第一虚拟操作面板的目标事件,所述目标交互对象包括所述第一目标交互对象;
在响应所述第一交互操作指令之后,获取第二交互操作指令,其中,所述交互操作指令包括所述第二交互操作指令,所述第二交互操作指令用于触发所述第一虚拟操作面板随着所述虚拟对象的移动而移动的目标事件;
在所述第一手势变化到第二手势,且所述第二手势为第二预设手势的情况下,获取第三交互操作指令,其中,所述交互操作指令包括所述第三交互操作指令,所述第三交互操作指令用于触发所述虚拟对象停止移动所述第一虚拟操作面板的目标事件。
6.根据权利要求5所述的方法,其特征在于,响应所述交互操作指令,
在所述虚拟现实场景中执行与所述目标交互对象对应的目标事件包括:
获取在产生所述第三交互操作指令时所述交互设备的第二位置信息,其中,所述第二位置信息用于指示所述交互设备在所述虚拟现实场景中的所述虚拟对象所处的第二位置;
将所述虚拟现实场景中包括所述第二位置的区域确定为所述第一虚拟操作面板的目标显示区域;
在所述目标显示区域中显示所述第一虚拟操作面板,其中,所述目标事件包括在所述目标显示区域中显示所述第一虚拟操作面板的事件。
7.根据权利要求5所述的方法,其特征在于,在获取对所述第一虚拟操作面板执行的所述第二交互操作指令时,所述方法还包括:
控制所述第一虚拟操作面板在所述虚拟现实场景中移动的过程中朝向预设方向。
8.根据权利要求1所述的方法,其特征在于,在响应所述交互操作指令之前,所述方法还包括:
在所述虚拟现实场景中获取第二目标操作指令;
从所述虚拟现实场景中的多个虚拟操作面板中,选中并显示与所述第二目标操作对应的至少一个第二虚拟操作面板;
获取所述交互设备对所述第一虚拟操作面板和所述至少一个第二虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令。
9.根据权利要求1所述的方法,其特征在于,
获取所述交互设备对所述第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令包括:获取所述交互设备对所述第一虚拟操作面板中显示的第三目标交互对象执行的交互操作所产生的第四交互操作指令,其中,所述目标交互对象包括所述第三目标交互对象,所述交互操作指令包括所述第四交互操作指令,所述第四交互操作指令用于触发关闭所述第一虚拟操作面板的目标事件;
响应所述交互操作指令,在所述虚拟现实场景中执行与所述目标交互对象对应的目标事件包括:响应所述第四交互操作指令,在所述虚拟现实场景中执行所述第四交互操作指令触发的关闭所述第一虚拟操作面板的目标事件。
10.根据权利要求1至9中任意一项所述的方法,在从所述虚拟现实场景中的多个虚拟操作面板中,选中并显示与所述第一目标操作指令对应的第一虚拟操作面板之前,所述方法还包括:
获取包括所述交互对象的二维界面;
将所述二维界面与所述虚拟现实场景中的网格模型进行结合,得到所述第一虚拟操作面板,其中,所述网格模型用于标记所述虚拟现实场景中用于执行交互操作的区域。
11.根据权利要求1至9中任意一项所述的方法,其特征在于,获取所述交互设备对所述第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令包括:
在所述第一虚拟操作面板的碰撞体与所述交互设备在所述虚拟现实场景中的虚拟对象的碰撞体相交的情况下,获取所述交互设备对所述第一虚拟操作面板中显示的交互对象中的目标交互对象执行的所述交互操作指令。
12.根据权利要求1至9中任意一项所述的方法,其特征在于,所述多个虚拟操作面板中的每个虚拟操作面板的尺寸,由所述每个虚拟操作面板上显示的目标交互对象确定。
13.一种信息交互装置,其特征在于,包括:
第一获取单元,用于在虚拟现实场景中获取第一目标操作指令;
显示单元,用于从所述虚拟现实场景中的多个虚拟操作面板中,选中并显示与所述第一目标操作指令对应的第一虚拟操作面板,其中,所述多个虚拟操作面板之间相互独立显示,并且分别用于显示不同的交互对象;
第二获取单元,用于获取交互设备对所述第一虚拟操作面板中显示的交互对象中的目标交互对象,执行的交互操作所产生的交互操作指令,其中,所述交互设备与所述虚拟现实场景相关联;
处理单元,用于响应所述交互操作指令,在所述虚拟现实场景中执行与所述目标交互对象对应的目标事件。
14.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,所述程序运行时执行所述权利要求1至12任一项中所述的信息交互方法。
15.一种电子装置,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器通过所述计算机程序执行所述权利要求1至12任一项中所述的信息交互方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710873684.XA CN109557998B (zh) | 2017-09-25 | 2017-09-25 | 信息交互方法、装置、存储介质和电子装置 |
PCT/CN2018/106936 WO2019057150A1 (zh) | 2017-09-25 | 2018-09-21 | 信息交互方法、装置、存储介质和电子装置 |
US16/561,388 US11226722B2 (en) | 2017-09-25 | 2019-09-05 | Information interaction method and apparatus, storage medium, and electronic apparatus |
US17/546,836 US11809685B2 (en) | 2017-09-25 | 2021-12-09 | Information interaction method and apparatus, storage medium, and electronic apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710873684.XA CN109557998B (zh) | 2017-09-25 | 2017-09-25 | 信息交互方法、装置、存储介质和电子装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109557998A true CN109557998A (zh) | 2019-04-02 |
CN109557998B CN109557998B (zh) | 2021-10-15 |
Family
ID=65809659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710873684.XA Active CN109557998B (zh) | 2017-09-25 | 2017-09-25 | 信息交互方法、装置、存储介质和电子装置 |
Country Status (3)
Country | Link |
---|---|
US (2) | US11226722B2 (zh) |
CN (1) | CN109557998B (zh) |
WO (1) | WO2019057150A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110377150A (zh) * | 2019-06-11 | 2019-10-25 | 中新软件(上海)有限公司 | 虚拟场景中操作实体部件的方法、装置及计算机设备 |
CN110841288A (zh) * | 2019-11-07 | 2020-02-28 | 腾讯科技(深圳)有限公司 | 提示标识的消除方法、装置、终端及存储介质 |
CN110860082A (zh) * | 2019-11-20 | 2020-03-06 | 网易(杭州)网络有限公司 | 识别方法、装置、电子设备及存储介质 |
CN111683281A (zh) * | 2020-06-04 | 2020-09-18 | 腾讯科技(深圳)有限公司 | 视频播放方法、装置、电子设备及存储介质 |
US11226722B2 (en) | 2017-09-25 | 2022-01-18 | Tencent Technology (Shenzhen) Company Limited | Information interaction method and apparatus, storage medium, and electronic apparatus |
CN115509361A (zh) * | 2022-10-12 | 2022-12-23 | 北京字跳网络技术有限公司 | 虚拟空间交互方法、装置、设备和介质 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111641859B (zh) * | 2020-05-22 | 2023-08-25 | 腾讯科技(深圳)有限公司 | 显示信息方法和装置、计算机可读的存储介质及电子装置 |
CN111821691A (zh) * | 2020-07-24 | 2020-10-27 | 腾讯科技(深圳)有限公司 | 界面显示方法、装置、终端及存储介质 |
CN113391865B (zh) * | 2021-06-10 | 2024-03-05 | 广州繁星互娱信息科技有限公司 | 剧情聊天方法、装置、终端、服务器及存储介质 |
CN114077375B (zh) * | 2021-11-25 | 2023-05-05 | 北京字跳网络技术有限公司 | 目标对象的展示方法及装置、电子设备及存储介质 |
CN114245099B (zh) * | 2021-12-13 | 2023-02-21 | 北京百度网讯科技有限公司 | 视频生成方法、装置、电子设备以及存储介质 |
CN114385053A (zh) * | 2022-01-18 | 2022-04-22 | 阿里巴巴(中国)有限公司 | 交互处理方法、装置、电子设备及计算机存储介质 |
CN114721562B (zh) * | 2022-04-15 | 2024-01-16 | 北京百度网讯科技有限公司 | 用于数字对象的处理方法、装置、设备、介质及产品 |
CN115834754B (zh) * | 2022-09-29 | 2024-05-28 | 歌尔科技有限公司 | 交互控制方法、装置、头戴显示设备及介质 |
CN116036595A (zh) * | 2022-12-23 | 2023-05-02 | 网易(杭州)网络有限公司 | 游戏技能处理方法和装置、计算机存储介质、电子设备 |
US20240265656A1 (en) * | 2023-02-08 | 2024-08-08 | Meta Platforms Technologies, Llc | Facilitating System User Interface (UI) Interactions in an Artificial Reality (XR) Environment |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2624238A1 (en) * | 2012-02-02 | 2013-08-07 | Eurocopter España, S.A. | Virtual mock up with haptic hand held aid |
US20150058102A1 (en) * | 2013-08-21 | 2015-02-26 | Jaunt Inc. | Generating content for a virtual reality system |
US20150241959A1 (en) * | 2013-07-12 | 2015-08-27 | Magic Leap, Inc. | Method and system for updating a virtual world |
CN105898359A (zh) * | 2016-04-27 | 2016-08-24 | 乐视控股(北京)有限公司 | 虚拟现实终端及其视频的处理方法和装置 |
US20170038850A1 (en) * | 2012-04-09 | 2017-02-09 | Shahar Fleishman | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
CN106919270A (zh) * | 2015-12-28 | 2017-07-04 | 宏达国际电子股份有限公司 | 虚拟实境装置及虚拟实境方法 |
CN107168530A (zh) * | 2017-04-26 | 2017-09-15 | 腾讯科技(深圳)有限公司 | 虚拟场景中的对象处理方法和装置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8381122B2 (en) * | 2007-06-08 | 2013-02-19 | Apple Inc. | Multi-dimensional application environment |
US8681952B2 (en) * | 2007-06-18 | 2014-03-25 | Ingenio Llc | Systems and methods to selectively provide telephonic connections |
KR101390383B1 (ko) * | 2010-11-16 | 2014-04-29 | 한국전자통신연구원 | 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 관리 장치 |
US20130290907A1 (en) * | 2012-04-30 | 2013-10-31 | Chandar Kumar Oddiraju | Creating an object group including object information for interface objects identified in a group selection mode |
CN103064514A (zh) * | 2012-12-13 | 2013-04-24 | 航天科工仿真技术有限责任公司 | 沉浸式虚拟现实系统中的空间菜单的实现方法 |
US20160012160A1 (en) * | 2014-07-11 | 2016-01-14 | Graphisoft | Building model user interface and method of use |
US20190347865A1 (en) * | 2014-09-18 | 2019-11-14 | Google Inc. | Three-dimensional drawing inside virtual reality environment |
KR102444920B1 (ko) * | 2014-11-20 | 2022-09-19 | 삼성전자주식회사 | 윈도우의 크기를 변경하는 디바이스 및 그 제어 방법 |
CN105159450B (zh) * | 2015-08-25 | 2018-01-05 | 中国运载火箭技术研究院 | 一种便携式可交互桌面级虚拟现实系统 |
US9298283B1 (en) * | 2015-09-10 | 2016-03-29 | Connectivity Labs Inc. | Sedentary virtual reality method and systems |
WO2017156112A1 (en) * | 2016-03-10 | 2017-09-14 | FlyInside, Inc. | Contextual virtual reality interaction |
US20170285863A1 (en) * | 2016-03-31 | 2017-10-05 | Google Inc. | Conductive contacts for alignment of portable user device in vr viewer |
US10545584B2 (en) * | 2016-05-17 | 2020-01-28 | Google Llc | Virtual/augmented reality input device |
US10127715B2 (en) * | 2016-11-18 | 2018-11-13 | Zspace, Inc. | 3D user interface—non-native stereoscopic image conversion |
US11263165B2 (en) * | 2016-12-31 | 2022-03-01 | Intel Corporation | Apparatuses for periodic universal serial bus (USB) transaction scheduling at fractional bus intervals |
US11054894B2 (en) * | 2017-05-05 | 2021-07-06 | Microsoft Technology Licensing, Llc | Integrated mixed-input system |
US10521096B2 (en) * | 2017-07-24 | 2019-12-31 | Disney Enterprises, Inc. | Virtual reality experience control system |
CN109557998B (zh) | 2017-09-25 | 2021-10-15 | 腾讯科技(深圳)有限公司 | 信息交互方法、装置、存储介质和电子装置 |
-
2017
- 2017-09-25 CN CN201710873684.XA patent/CN109557998B/zh active Active
-
2018
- 2018-09-21 WO PCT/CN2018/106936 patent/WO2019057150A1/zh active Application Filing
-
2019
- 2019-09-05 US US16/561,388 patent/US11226722B2/en active Active
-
2021
- 2021-12-09 US US17/546,836 patent/US11809685B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2624238A1 (en) * | 2012-02-02 | 2013-08-07 | Eurocopter España, S.A. | Virtual mock up with haptic hand held aid |
US20170038850A1 (en) * | 2012-04-09 | 2017-02-09 | Shahar Fleishman | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
US20150241959A1 (en) * | 2013-07-12 | 2015-08-27 | Magic Leap, Inc. | Method and system for updating a virtual world |
US20150058102A1 (en) * | 2013-08-21 | 2015-02-26 | Jaunt Inc. | Generating content for a virtual reality system |
CN106919270A (zh) * | 2015-12-28 | 2017-07-04 | 宏达国际电子股份有限公司 | 虚拟实境装置及虚拟实境方法 |
CN105898359A (zh) * | 2016-04-27 | 2016-08-24 | 乐视控股(北京)有限公司 | 虚拟现实终端及其视频的处理方法和装置 |
CN107168530A (zh) * | 2017-04-26 | 2017-09-15 | 腾讯科技(深圳)有限公司 | 虚拟场景中的对象处理方法和装置 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11226722B2 (en) | 2017-09-25 | 2022-01-18 | Tencent Technology (Shenzhen) Company Limited | Information interaction method and apparatus, storage medium, and electronic apparatus |
US11809685B2 (en) | 2017-09-25 | 2023-11-07 | Tencent Technology (Shenzhen) Company Limited | Information interaction method and apparatus, storage medium, and electronic apparatus |
CN110377150A (zh) * | 2019-06-11 | 2019-10-25 | 中新软件(上海)有限公司 | 虚拟场景中操作实体部件的方法、装置及计算机设备 |
CN110377150B (zh) * | 2019-06-11 | 2023-01-24 | 中新软件(上海)有限公司 | 虚拟场景中操作实体部件的方法、装置及计算机设备 |
CN110841288A (zh) * | 2019-11-07 | 2020-02-28 | 腾讯科技(深圳)有限公司 | 提示标识的消除方法、装置、终端及存储介质 |
CN110860082A (zh) * | 2019-11-20 | 2020-03-06 | 网易(杭州)网络有限公司 | 识别方法、装置、电子设备及存储介质 |
CN110860082B (zh) * | 2019-11-20 | 2023-04-07 | 网易(杭州)网络有限公司 | 识别方法、装置、电子设备及存储介质 |
CN111683281A (zh) * | 2020-06-04 | 2020-09-18 | 腾讯科技(深圳)有限公司 | 视频播放方法、装置、电子设备及存储介质 |
CN115509361A (zh) * | 2022-10-12 | 2022-12-23 | 北京字跳网络技术有限公司 | 虚拟空间交互方法、装置、设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
US11226722B2 (en) | 2022-01-18 |
US20220100334A1 (en) | 2022-03-31 |
US11809685B2 (en) | 2023-11-07 |
WO2019057150A1 (zh) | 2019-03-28 |
US20190391710A1 (en) | 2019-12-26 |
CN109557998B (zh) | 2021-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109557998A (zh) | 信息交互方法、装置、存储介质和电子装置 | |
JP7411133B2 (ja) | 仮想現実ディスプレイシステム、拡張現実ディスプレイシステム、および複合現実ディスプレイシステムのためのキーボード | |
CN107132917B (zh) | 用于虚拟现实场景中的手型显示方法及装置 | |
EP3425481B1 (en) | Control device | |
US10592079B2 (en) | Three dimensional human-computer interface | |
US10661171B2 (en) | Information processing method, terminal, and computer storage medium | |
US10732721B1 (en) | Mixed reality glasses used to operate a device touch freely | |
CN107168530A (zh) | 虚拟场景中的对象处理方法和装置 | |
CN108646997A (zh) | 一种虚拟及增强现实设备与其他无线设备进行交互的方法 | |
US11194400B2 (en) | Gesture display method and apparatus for virtual reality scene | |
CN107422949A (zh) | 投影触控的图像选取方法 | |
EP2624238A1 (en) | Virtual mock up with haptic hand held aid | |
CN108536288A (zh) | 虚拟现实中交互操作的处理方法和装置 | |
KR102021851B1 (ko) | 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법 | |
US11334165B1 (en) | Augmented reality glasses images in midair having a feel when touched | |
AU2001258539A1 (en) | Three dimensional human-computer interface | |
CN110389659A (zh) | 针对增强或虚拟现实环境提供动态触觉回放的系统和方法 | |
CN106730819B (zh) | 一种基于移动终端的数据处理方法及移动终端 | |
CN106527710A (zh) | 虚拟现实交互方法及装置 | |
CN106598277A (zh) | 虚拟现实交互系统 | |
CN115337634A (zh) | 一种应用于餐食游戏类的vr系统及方法 | |
CN206863691U (zh) | 一种基于增强现实和虚拟现实的智能交互演示系统 | |
CN108196771A (zh) | 虚拟对象操作方法及电子设备 | |
CN109697001A (zh) | 交互界面的显示方法和装置、存储介质、电子装置 | |
Wonnacott | Feasibility and effect of low-cost haptics on user immersion in virtual environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |