CN115509361A - 虚拟空间交互方法、装置、设备和介质 - Google Patents
虚拟空间交互方法、装置、设备和介质 Download PDFInfo
- Publication number
- CN115509361A CN115509361A CN202211248830.7A CN202211248830A CN115509361A CN 115509361 A CN115509361 A CN 115509361A CN 202211248830 A CN202211248830 A CN 202211248830A CN 115509361 A CN115509361 A CN 115509361A
- Authority
- CN
- China
- Prior art keywords
- panel
- interactive
- interaction
- virtual space
- close
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 272
- 238000000034 method Methods 0.000 title claims abstract description 98
- 230000002452 interceptive effect Effects 0.000 claims abstract description 526
- 230000004044 response Effects 0.000 claims abstract description 43
- 230000001960 triggered effect Effects 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims description 20
- 238000012790 confirmation Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 8
- 238000003860 storage Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 5
- 238000009877 rendering Methods 0.000 claims description 3
- 230000000763 evoking effect Effects 0.000 abstract description 14
- 230000006870 function Effects 0.000 description 37
- 238000010586 diagram Methods 0.000 description 24
- 230000001976 improved effect Effects 0.000 description 22
- 230000008569 process Effects 0.000 description 15
- 230000000694 effects Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000008447 perception Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 5
- 230000001953 sensory effect Effects 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 238000003825 pressing Methods 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000008093 supporting effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000016776 visual perception Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000008786 sensory perception of smell Effects 0.000 description 1
- 230000014860 sensory perception of taste Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000699 topical effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供了一种虚拟空间交互方法、装置、设备和介质,其中方法包括:响应于虚拟空间的唤起指令,在虚拟空间内呈现交互导航面板,交互导航面板包括至少两个交互对象;响应于对任一交互对象的触发操作,确定交互对象关联的交互页面的目标显示面板;如果目标显示面板为近景面板,则唤起虚拟空间内的近景面板,在近景面板上显示交互对象关联的交互页面;如果目标显示面板为远景面板,则唤起虚拟空间内的远景面板,在远景面板上显示交互对象关联的交互页面;其中,近景面板和远景面板独立显示,且显示于不同位置。本申请能够提高用户与虚拟空间交互时的互动性和灵活性。
Description
技术领域
本申请实施例涉及人机交互技术领域,尤其涉及一种虚拟空间交互方法、装置、设备和介质。
背景技术
随着扩展现实(Extended Reality,XR)技术的发展,XR设备逐渐应用于各行各业,比如影视行业、教育行业以及电子商务行业等等。其中,XR设备是指通过计算机技术和可穿戴设备产生的一个真实与虚拟组合、可人机交互的环境,是增强现实(Augmented Reality,AR)、虚拟现实(Virtual Reality,VR),以及混合现实(Mixed Reality,MR)等多种形式的统称。
在实际使用过程中,用户常常需要与虚拟空间呈现的交互面板进行各种交互。但因为目前虚拟空间仅向用户呈现一个交互面板,使得用户使用不同类型的交互对象时,需要不断切换交互面板呈现的交互页面,导致互动性和灵活性较差。
发明内容
本申请实施例提供一种虚拟空间交互方法、装置、设备和介质,能够提高用户与虚拟空间交互时的互动性和灵活性。
第一方面,本申请实施例提供了一种虚拟空间交互方法,包括:
响应于虚拟空间的唤起指令,在所述虚拟空间内呈现交互导航面板,所述交互导航面板包括至少两个交互对象;
响应于对任一交互对象的触发操作,确定所述交互对象关联的交互页面的目标显示面板;
如果所述目标显示面板为近景面板,则唤起所述虚拟空间内的近景面板,在所述近景面板上显示所述交互对象关联的交互页面;
如果所述目标显示面板为远景面板,则唤起所述虚拟空间内的远景面板,在所述远景面板上显示所述交互对象关联的交互页面;
其中,所述近景面板和所述远景面板独立显示,且显示于不同位置。
第二方面,本申请实施例提供了一种虚拟空间交互装置,包括:
第一响应模块,用于响应于虚拟空间的唤起指令,在所述虚拟空间内呈现交互导航面板,所述交互导航面板包括至少两个交互对象;
第二响应模块,用于响应于对任一交互对象的触发操作,确定所述交互对象关联的交互页面的目标显示面板;
第一显示模块,用于如果所述目标显示面板为近景面板,则唤起所述虚拟空间内的近景面板,在所述近景面板上显示所述交互对象关联的交互页面;
第二显示模块,用于如果所述目标显示面板为远景面板,则唤起所述虚拟空间内的远景面板,在所述远景面板上显示所述交互对象关联的交互页面;
其中,所述近景面板和所述远景面板独立显示,且显示于不同位置。
第三方面,本申请实施例提供了一种电子设备,包括:
处理器和存储器,所述存储器用于存储计算机程序,所述处理器用于调用并运行所述存储器中存储的计算机程序,以执行第一方面实施例或其各实现方式中所述的虚拟空间交互方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,用于存储计算机程序,所述计算机程序使得计算机执行如第一方面实施例或其各实现方式中所述的虚拟空间交互方法。
第五方面,本申请实施例提供了一种包含程序指令的计算机程序产品,当所述程序指令在电子设备上运行时,使得所述电子设备执行如第一方面实施例或其各实现方式中所述的虚拟空间交互方法。
本申请实施例公开的技术方案,至少具有如下有益效果:
通过响应于虚拟空间的唤起指令,在虚拟空间内呈现包括至少两个交互对象的交互导航面板,当检测到交互导航面板中的任一交互对象被触发时,响应于对该任一交互对象的触发操作,确定交互对象关联的交互页面的目标显示面板;如果确定目标显示面板为近景面板,则唤起虚拟空间内的近景面板,并在近景面板上显示交互对象关联的交互页面,如果确定目标显示面板为远景面板,则唤起虚拟空间内的远景面板,并在远景面板上显示交互对象关联的交互页面,其中远景面板和近景面板是相互独立显示的,并且显示于不同位置。本申请通过在虚拟空间内设置远景面板、近景面板以及交互导航面板,使得用户与虚拟空间进行交互时,通过利用呈现在交互导航面板上的交互对象进行不同交互操作。并且,在交互时通过确定交互对象关联的交互页面的目标显示面板是远景面板还是近景面板,将交互对象关联的交互页面显示于对应的目标显示面板上,由此通过向用户呈现不同的交互面板,能够满足用户不同使用场景下交互需求,从而提高了用户与虚拟空间交互时的互动性和灵活性,改善了用户的使用体验。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的第一种虚拟空间交互方法的流程示意图;
图2a是本申请实施例提供的一种交互导航面板示意图;
图2b是本申请实施例提供的另一种交互导航面板示意图;
图2c是本申请实施例提供的再一种交互导航面板示意图;
图2d是本申请实施例提供的又一种交互导航面板示意图;
图3a是本申请实施例提供的一种在远景面板上显示视频播放页面的示意图;
图3b是本申请实施例提供的一种在近景面板上显示即时通信页面的示意图;
图3c是本申请实施例提供的一种在远景面板和近景面板上显示不同交互页面的示意图;
图4是本申请实施例提供的第二种虚拟空间交互方法的流程示意图;
图5a是本申请实施例提供的一种在虚拟空间中呈现近景面板以及近景虚拟输入模型的示意图;
图5b是本申请实施例提供的一种在虚拟空间中呈现远景面板以及远景虚拟输入模型的示意图;
图5c是本申请实施例提供的一种与远景面板和近景面板上显示的交互页面进行交互的示意图;
图5d是本申请实施例提供的一种与视频播放页面进行互动的示意图;
图6a是本申请实施例提供的一种对虚拟输入模型进行放大调整的示意图;
图6b是本申请实施例提供的一种对虚拟手持设备进行缩小调整的示意图;
图6c是本申请实施例提供的一种利用虚拟输入模型输入互动信息的示意图;
图7是本申请实施例提供的第三种虚拟空间交互方法的流程示意图;
图8是本申请实施例提供的一种在虚拟空间中显示购买提示弹窗的示意图;
图9是本申请实施例提供的第四种虚拟空间交互方法的流程示意图;
图10a是本申请实施例提供的一种在虚拟空间内呈现安全区域设置提示弹窗的示意图;
图10b是本申请实施例提供的一种在虚拟空间内呈现密码输入提示弹窗的示意图;
图11是本申请实施例提供的第五种虚拟空间交互方法的流程示意图;
图12a是本申请实施例提供的一种对交互导航面板进行放大调整的示意图;
图12b是本申请实施例提供的一种对交互导航面板进行缩小调整的示意图;
图13是本申请实施例提供的一种虚拟空间交互装置的示意性框图;
图14是本申请实施例提供的一种电子设备的示意性框图;
图15是本申请实施例提供的一种电子设备为HMD的示意性框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。根据本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或服务器不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请适用于人机交互场景,随着扩展现实(Extended Reality,XR)设备在各行各业的逐步应用,用户能够实现与XR设备提供的虚拟空间呈现的交互面板进行各种交互。但因为目前虚拟空间仅向用户呈现一个交互面板,使得用户使用不同类型的交互对象时,需要不断切换交互面板呈现的交互页面,导致整体互动性和灵活性较差。基于此,本申请设计了一种虚拟空间交互方案,基于该方案能够提高用户与虚拟空间交互时的互动性和灵活性,从而提升用户的使用体验。
为了便于理解本申请实施例,在描述本申请各个实施例之前,首先对本申请所有实施例中所涉及到的一些概念进行适当的解释说明,具体如下:
1)虚拟现实(Virtual Reality,简称为VR),创建和体验虚拟世界的技术,计算生成一种虚拟环境,是一种多源信息(本文中提到的虚拟现实至少包括视觉感知,此外还可以包括听觉感知、触觉感知、运动感知,甚至还包括味觉感知、嗅觉感知等),实现虚拟环境的融合的、交互式的三维动态视景和实体行为的仿真,使用户沉浸到模拟的虚拟现实环境中,实现在诸如地图、游戏、视频、教育、医疗、模拟、协同训练、销售、协助制造、维护和修复等多种虚拟环境的应用。
2)虚拟现实设备(VR设备),实现虚拟现实效果的终端,通常可以提供为眼镜、头盔式显示器(Head Mount Display,简称为HMD)、隐形眼镜的形态,以用于实现视觉感知和其他形式的感知,当然虚拟现实设备实现的形态不限于此,根据实际需要可以进一步小型化或大型化。
可选的,本申请实施例中记载的虚拟现实设备可以包括但不限于如下几个类型:
2.1)电脑端虚拟现实(PCVR)设备,利用PC端进行虚拟现实功能的相关计算以及数据输出,外接的电脑端虚拟现实设备利用PC端输出的数据实现虚拟现实的效果。
2.2)移动虚拟现实设备,支持以各种方式(如设置有专门的卡槽的头戴式显示器)设置移动终端(如智能手机),通过与移动终端有线或无线方式的连接,由移动终端进行虚拟现实功能的相关计算,并输出数据至移动虚拟现实设备,例如通过移动终端的APP观看虚拟现实视频。
2.3)一体机虚拟现实设备,具备用于进行虚拟功能的相关计算的处理器,因而具备独立的虚拟现实输入和输出的功能,不需要与PC端或移动终端连接,使用自由度高。
3)增强现实(Augmented Reality,AR):一种在相机采集图像的过程中,实时地计算相机在现实世界(或称三维世界、真实世界)中的相机姿态参数,根据该相机姿态参数在相机采集的图像上添加虚拟元素的技术。虚拟元素包括但不限于:图像、视频和三维模型。AR技术的目标是在屏幕上把虚拟世界套接在现实世界上进行互动。
4)混合现实(Mixed Reality,简称为:MR):将计算机创建的感官输入(例如,虚拟对象)与来自物理布景的感官输入或其表示集成的模拟布景,一些MR布景中,计算机创建的感官输入可以适应于来自物理布景的感官输入的变化。另外,用于呈现MR布景的一些电子系统可以监测相对于物理布景的取向和/或位置,以使虚拟对象能够与真实对象(即来自物理布景的物理元素或其表示)交互。例如,系统可监测运动,使得虚拟植物相对于物理建筑物看起来是静止的。
5)扩展现实(Extended Reality,简称XR)是指由计算机技术和可穿戴设备生成的所有真实和虚拟组合环境以及人机交互,其包含了虚拟现实(VR)、增强现实(AR)以及混合现实(MR)等多种形式。
6)虚拟场景,是应用程序在电子设备上运行时显示(或提供)的虚拟场景。该虚拟场景可以是对真实世界的仿真环境,也可以是半仿真半虚构的虚拟场景,还可以是纯虚构的虚拟场景。虚拟场景可以是二维虚拟场景、2.5维虚拟场景或者三维虚拟场景中的任意一种,本申请实施例对虚拟场景的维度不加以限定。例如,虚拟场景可以包括天空、陆地、海洋等,该陆地可以包括沙漠、城市等环境元素,用户可以控制虚拟对象在该虚拟场景中进行移动。
7)虚拟对象,是虚拟场景中进行交互的对象,受到用户或机器人程序(例如,基于人工智能的机器人程序)的控制,能够在虚拟场景中静止、移动以及进行各种行为的对象,例如游戏中的各种角色等。
在介绍了本申请实施例涉及到的一些概念之后,下面结合附图对本申请实施例提供的一种虚拟空间交互方法进行详细说明。
图1是本申请实施例提供的一种虚拟空间交互方法的流程示意图。本申请实施例适用于人机交互场景,该虚拟空间交互方法可由虚拟空间交互装置来执行。该虚拟空间交互装置可由硬件和/或软件组成,并可集成于电子设备中。
在本申请实施例中,电子设备可以是任意能够向用户提供虚拟空间的硬件设备。例如,电子设备可选为XR设备或者其他设备等。其中该XR设备可以为VR设备、AR设备或者MR设备等,本申请对其不做具体限制。需要说明的,本申请主要以电子设备为XR设备为例进行展开说明。
如图1所示,该方法可以包括以下步骤:
S101,响应于虚拟空间的唤起指令,在虚拟空间内呈现交互导航面板,交互导航面板包括至少两个交互对象。
在本申请实施例中,虚拟空间是XR设备向用户提供的一种虚实结合环境。并且,该虚实结合环境是针对任一用户选择的某一真实互动场景模拟出来的虚拟环境(虚拟空间)。其中,真实互动场景可以是任意真实环境,比如演唱会或者直播环境等,此处对其不做具体限制。
而虚拟空间内呈现的交互导航面板,是用于向用户提供多个交互对象的一个交互面板。进而,用户可利用该交互导航面板提供的各种交互对象,寻找到不同使用场景下所需要的目标交互对象。并且,还能与该目标交互对象进行交互操作,甚至基于该目标交互对象与虚拟空间进行交互操作。
需要说明的是,本申请中交互导航面板上的交互对象,包括不同类型的应用程序(软件,又称APP)和各种交互功能。其中,应用程序的类型可以是但不限于:社交类、音视频类、生活实用类和购物类等;各种交互功能可以是但不限于:个人中心功能和设置功能等,此处对其不做具体限制。
示例性的,如图2a所示,该交互导航面板上的交互对象可包括:应用程序资源库和设置功能。其中,应用程序资源库中包括XR设备上安装的所有应用程序。比如,系统自带的应用程序、用户下载的第三方应用程度,等等。从而当用户触发了该应用程序资源库之后,可在虚拟空间中显示位于该应用程序资源库内的所有应用程序,使得用户可从显示的所有应用程序中选取需要的目标应用程序,并使用该目标应用程序。
应理解的是,本申请通过这种最简单的显示方式,使得虚拟空间中呈现的交互导航面板更为简洁、小巧。
如图2b所示,该交互导航面板上的交互对象可包括:热门应用程序、应用程序资源库和设置功能。其中,热门应用程序可以是XR设备通过分析用户的历史使用数据,确定出的用户喜爱或者经常使用的至少一个应用程序;或者,通过对应用程序进行社会调研,确定大众经常使用的至少一个应用程序,等等。
需要说明的是,在本实施例中可选热门应用程序的数量小于预设值,以避免因交互导航面板的尺寸过大,而造成虚拟空间中呈现的其他物体被遮挡。其中,其他物体可以是显示于虚拟空间内且有别于交互导航面板的任意物体。并且,预设值可选为小于或等于5,具体可根据实际应用需求进行灵活设置,此处对其不做具体限定。
如图2c所示,该交互导航面板上的交互对象可包括:热门应用程序、最近一次使用的应用程序、应用程序资源库和设置功能。通过在交互导航面板上显示最近一次使用的应用程序,使得用户再次使用该应用程序时,无需重复寻找即可找到所需应用程序,从而提高用户使用效率。
如图2d所示,该交互导航面板上的交互对象可包括:个人中心功能、热门应用程序、最近一次使用的应用程序、应用程序资源库和设置功能。其中,个人中心功能是指能够支持用户设置账户信息,以及设置账户图像等个人属性信息的功能。本申请通过在交互导航面板上显示个人中心功能,使得用户能够设置专属自己的账号和图像等信息,从而满足用户的个性化使用需求,提升用户的使用满足度。
具体的,用户使用XR设备时,可通过任意一种唤起方式向XR设备发送虚拟空间唤起指令。当检测到用户发送的虚拟空间唤起指令时,XR设备基于该唤起指令唤起虚拟空间,并在唤起的该虚拟空间内显示交互导航面板。其中,在虚拟空间内显示交互导航面板,具体是将交互导航面板从隐藏状态下唤醒,使得用户可以看见唤醒后的交互导航面板。进而,基于该交互导航面板与虚拟空间进行互动操作。
需要说明的是,本申请交互导航面板在虚拟空间内的显示位置可以靠近用户侧的任一位置处。可选的,可为与用户人眼之间的距离为0.6m至0.8m之间的任意位置处。比如,交互导航面板的显示位置为与用户人眼之间的距离为0.7m的位置处,等等,具体可根据使用需求进行灵活设置,此处对其不做具体限制。
其中,本申请向XR设备发送虚拟空间唤起指令,可以通过如下方式实现:
方式一,在启动该XR设备后,用户可利用手持设备,比如手柄或者手部控制器等,控制光标悬停于XR设备显示屏的唤起区域处。然后,按压手持设备上的确认键,比如扳机键或者握持键等,向XR设备发送确认指令。从而向XR设备发送虚拟空间唤起指令。
其中,唤起区域可以是显示屏的任意区域,具体可以根据实际应用需要进行灵活设置,比如中心区域,左上顶点区域等。并且,该唤醒区域的大小也可以是任意尺寸,此处对其不做具体限制。
方式二,当XR设备具备眼动追踪功能时,用户在启动XR设备后可通过注视XR设备显示屏的唤起区域,使得XR设备确定用户注视唤起区域的时长达到第一预设时长时,确定用户需要唤起并进入虚拟空间。
其中,第一预设时长可根据眼动追踪功能的使用需求进行灵活设置,比如2秒(s)或者3s等,此处对其不做具体限制。
方式三,在启动XR设备后用户通过语音控制方式,向XR设备发送虚拟空间唤起指令。
方式四,在启动XR设备后,用户利用真实手部按压手持设备上的唤起按键,向XR设备发送虚拟空间唤起指令。
其中,唤起按键可以是XR设备上任意物理按键,比如起始键等,此处对其不做具体限制。
方式五,用户通过真实手部按压XR设备上的唤起按键。
其中,唤起按键可以是XR设备上的任意物理按键,比如开机键等,此处对其不做具体限制。
需要说明的是,上述几种方式向XR设备发送虚拟空间唤起指令的方式仅为示例性的,不作为对本申请的具体限制。
S102,响应于对任一交互对象的触发操作,确定交互对象关联的交互页面的目标显示面板。
其中,目标显示面板包括:远景面板和近景面板。并且,远景面板和近景面板之间是独立显示的,且显示于虚拟空间的不同位置。
可选的,近景面板的显示位置可为位于人眼看物体时最舒服的位置处,比如位于用户人眼正前方(垂直与人眼)、且与用户人眼之间的距离为0.8米(m)至1.2m之间的任意位置处。在本申请中优选近景面板的显示位置是与用户人眼之间的距离为1m位置处。
此外,远景面板的显示位置则选择为位于用户人眼正前方、且与用户人眼之间的距离为2.2m至2.6m之间的任意位置处。在本申请中优选远景面板的显示位置是与用户人眼之间的距离为2.4m位置处。通过在距离人眼2.4m的位置处显示远景面板,以达到类似现实空间中观看激光大电视的使用体验。
具体的,在虚拟空间内呈现出交互导航面板后,用户可根据交互需求,利用任意触发方式从交互导航面板中选取并触发任一交互对象(即触发目标交互对象)。进而,当XR设备检测到用户对目标交互对象的触发操作时,响应于该触发操作,确定目标交互对象关联的交互页面的目标显示面板。
其中,从交互导航面板中选取并触发目标交互对象,包括如下情况:
第一种情况
通过利用手持设备,控制光标移动到交互导航面板的任一交互对象上,并触发确认按键向XR设备发送该交互对象的触发操作。
其中,如果光标移动到交互导航面板上的应用程序资源库这一交互对象,且检测到用户触发确认按键,则打开该应用程序资源库,并在该应用程序资源库对应界面上显示所有应用程序。进而,用户利用手持设备控制光标选择应用程序资源库对应界面上的任一目标应用程序作为目标交互对象,并发送该目标交互对象的触发操作。
第二种情况
通过语音控制方式向XR设备发送打开任一交互对象的触发指令。
比如,向XR设备发送“打开XX软件”等语音信息。
第三种情况
当XR设备支持头控功能时,用户可通过转动头部控制与XR设备对应的光标移动到交互导航面板的任一交互对象上,向XR设备发送该交互对象的触发操作。
考虑到虚拟空间中除了呈现交互导航面板之外,可选的还会呈现手部模型和/或手持设备模型。因此,本申请从交互导航面板中选取并触发目标交互对象,向XR设备发送交互对象的触发操作时,可选的还包括如下:用户利用手持设备控制手部模型对应的光标,移动到交互导航面板的任一交互对象上,并触发确认按键向XR设备发送该交互对象的触发操作;或者,用户利用手持设备控制手持设备模型对应的光标,移动到交互导航面板的任一交互对象上,并触发确认按键向XR设备发送该交互对象的触发操作;又或者,用户利用手持设备控制手部模型握持手持设备模型移动,以控制手持设备模型对应的光标移动到交互导航面板的任一交互对象上,并触发确认按键向XR设备发送该交互对象的触发操作,等等。
进一步的,本申请虚拟空间除了向用户呈现交互导航面板之外,还可向用户呈现其他面板,比如近景面板和远景面板,使得用户可以使用不同面板进行人机交互,从而提升互动性和灵活性。因此,本申请响应于对任一交互对象的触发操作,确定触发的目标交互对象关联的交互页面的目标显示面板,具体包括如下:确定目标交互对象的类型,根据目标交互对象的类型,确定目标交互对象关联的交互页面的目标显示面板。
作为一种可选的实现方式,确定目标交互对象的类型时,可通过获取目标对象的标识信息。进而,根据目标交互对象的标识信息,确定交互对象的类型。考虑到交互导航面板上呈现的交互对象均具有各自的标识信息,比如名称信息或者图标信息等。其中,标识信息是指能够唯一确定交互对象身份的信息。因此,本申请获取目标对象的标识信息,可以是获取目标对象的名称信息或者图标信息。进而,根据获取到的名称信息或者图标信息,从预先构建的标识信息和类型的映射关系中,查找与该目标交互对象的标识信息存在映射关系的目标类型。然后,将该目标类型,确定为目标交互对象的类型。或者,本申请还可基于获取到的标识信息进行大数据分析,确定与该目标交互对象的目标类型等,此处对其不做具体限制。
其中,预先构建的标识信息和类型的映射关系,可以是包括XR设备上所有应用程序以及所有交互功能的数据资源库,并且该数据资源库可以为本领域的现有资源库;或者也可以是厂商根据不同型号XR设备单独配置的数据资源库等,此处对其不做具体限制。
进而,本申请可基于目标交互对象的类型,在交互对象类型和显示面板的映射关系中查找目标交互对象关联的交互页面的目标显示面板。其中,交互对象类型和显示面板的映射关系,是根据交互对象的类型确定的显示属性来构建。
具体的,如果基于交互对象的类型,确定该交互对象的显示属性为偏浏览性质,则确定该交互对象关联的交互页面需要在较大较开阔的远景面板上显示。如果基于交互对象的类型,确定该交互对象的显示属性为非浏览性质,则确定该交互对象关联的交互页面可以在普通的近景面板上进行显示。其中,偏浏览性质可以理解为用户长时间观看而无需进行多次操作的性质。
示例性的,本申请中交互对象类型和显示面板的映射关系,可如下表1所示:
表1
举例说明,如果检测到用户触发的目标交互对象为应用程序A1,并且该应用程序A1的类型为视频类,则基于该视频类确定应用程序A1为偏浏览性质的交互对象。因此,基于上述表1可确定该应用程序A1关联的交互页面的目标显示面板为远景面板。
又例如,如果检测到用户触发的目标交互对象为应用程序A2,并且该应用程序A2的类型为社交类,则基于该类型确定应用程序A2为非浏览性质的交互对象。因此,基于上述表1可确定该应用程序A2关联的交互页面的目标显示面板为近景面板。
再例如,如果检测到用户触发的目标交互对象为设置功能,并且确定该设置功能的类型为工具类,则基于该类型确定设置功能为非浏览性质的交互对象。因此,基于上述表1可确定该设置功能关联的交互页面的目标显示面板为近景面板。
在实际使用过程中,用户可以在XR设备上随时安装新的应用程序,或者对XR设备系统进行更新操作,以增加新的交互功能。即,对交互导航面板上的交互对象进行新增操作。但考虑到预设的交互对象类型和显示面板的映射关系可能并未及时更新。那么,当用户触发的目标交互对象为新的交互对象时,本申请基于上述交互对象类型和显示面板的映射关系,可能无法寻找到与该目标交互对象关联的交互页面的目标显示面板。
为此,本申请在交互对象类型和显示面板的映射关系中,未查找到目标交互对象关联的交互页面的目标显示面板时,可选的按照预设显示规则,将远景面板确定为目标交互对象关联的交互页面的目标显示面板。从而可以保证任意一个交互对象关联的交互页面均能正常显示于虚拟空间内。其中,预设显示规则可以是XR设备默认的一种显示方式。
也就是说,当无法从交互对象类型和显示面板的映射关系中,查找到任意交互对象关联的交互页面的目标显示面板时,本申请自动按照默认的显示方式,将远景面板确定为该交互对象关联的交互页面的目标显示面板。由此,使得任意交互对象关联的交互页面均可正常显示在虚拟空间内,进而用户基于显示的交互页面进行互动操作。
S103,如果目标显示面板为近景面板,则唤起虚拟空间内的近景面板,在近景面板上显示交互对象关联的交互页面。
S104,如果目标显示面板为远景面板,则唤起虚拟空间内的远景面板,在远景面板上显示所述交互对象关联的交互页面。
具体的,当确定目标交互对象关联的交互页面的目标显示面板为近景面板时,本申请通过唤醒虚拟空间内处于隐藏状态的近景面板。进而,在唤醒的近景面板上显示目标交互对象关联的交互页面。
或者,当确定目标交互对象关联的交互页面的目标显示面板为远景面板时,本申请通过唤醒虚拟空间内处于隐藏状态的远景面板。进而,在唤醒的远景面板上显示目标交互对象关联的交互页面。
示例性的,如图3a所示,假设目标交互对象为应用程序X1,且该应用程序X1关联的交互页面为视频播放页面。那么当该视频播放页面的目标显示面板为远景面板时,将虚拟空间中处于隐藏状态的远景面板唤醒。然后,在该远景面板上显示该视频播放页面。
如图3b所示,假设目标交互对象为应用程序X2,且该应用程序X2关联的交互页面为即时通信页面。那么当该即时通信页面的目标显示面板为近景面板时,将虚拟空间中处于隐藏状态的近景面板唤醒。然后,在该近景面板上显示该即时通信页面。
本申请实施例提供的虚拟空间交互方法,通过响应于虚拟空间的唤起指令,在虚拟空间内呈现包括至少两个交互对象的交互导航面板,当检测到交互导航面板中的任一交互对象被触发时,响应于对该任一交互对象的触发操作,确定交互对象关联的交互页面的目标显示面板;如果确定目标显示面板为近景面板,则唤起虚拟空间内的近景面板,并在近景面板上显示交互对象关联的交互页面,如果确定目标显示面板为远景面板,则唤起虚拟空间内的远景面板,并在远景面板上显示交互对象关联的交互页面,其中远景面板和近景面板是相互独立显示的,并且显示于不同位置。本申请通过在虚拟空间内设置远景面板、近景面板以及交互导航面板,使得用户与虚拟空间进行交互时,通过利用呈现在交互导航面板上的交互对象进行不同交互操作。并且,在交互时通过确定交互对象关联的交互页面的目标显示面板是远景面板还是近景面板,将交互对象关联的交互页面显示于对应的目标显示面板上,由此通过向用户呈现不同的交互面板,能够满足用户不同使用场景下交互需求,从而提高了用户与虚拟空间交互时的互动性和灵活性,改善了用户的使用体验。
在上述实施例的基础上,考虑到虚拟空间能够向用户显示不同显示属性的面板,具体为远景面板和近景面板。那么在近景面板上显示目标交互对象关联的交互页面之后,本申请还包括:如果检测到交互导航面板内的任一其他交互对象被触发,且其他交互对象关联的交互页面的目标显示面板为远景面板,则唤起虚拟空间内的远景面板,在远景面板上显示其他交互对象关联的交互页面。
或者,在远景面板上显示交互对象关联的交互页面之后,本申请还包括:如果检测到交互导航面板内的任一其他交互对象被触发,且其他交互对象关联的交互页面的目标显示面板为近景面板,则唤起虚拟空间内的近景面板,在近景面板上显示所述其他交互对象关联的交互页面。
示例性的,如图3c所示,在远景面板上显示第一交互对象关联的交互页面1之后,可在近景面板上显示第二交互对象关联的交互页面2。
也就是说,本申请可在虚拟空间内同时显示远景面板和近景面板,以利用远景面板向用户显示偏浏览性质的交互页面,利用近景面板向用户显示非浏览性质的交互页面,从而满足用户同时利用不同面板显示不同显示属性交互页面的使用需求。例如,在远景面板内浏览视频类应用程序对应交互页面播放的视频画面,同时在社交类应用程序内向好友回复消息,等等。并且,由于近景面板更靠近与用户,那么用户基于近景面板上显示的交互页面可以更高效便捷的与交互页面进行交互操作,从而实现近身交互效果。另外,由于远景面板远离用户,那么用户观看远景面板上显示的交互页面可以具有更为开阔的视野,从而能够满足用户不同场景下的使用需求,进一步提升用户视觉体验。
作为一种可选的实现方式,考虑到显示于近景面板或者远景面板上的交互页面可以包括各种交互控件,比如输入控件、点赞控件或者其他类型控件等。因此,在近景面板或者远景面板上显示交互对象关联的交互页面之后,用户可通过该交互页面上的各种交互控件与交互页面进行交互操作。下面结合图4,对本申请中基于交互页面上的第一交互控件进行交互进行具体说明。
如图4所示,该方法可以包括以下步骤:
S201,响应于虚拟空间的唤起指令,在虚拟空间内呈现交互导航面板,交互导航面板包括至少两个交互对象。
S202,响应于对任一交互对象的触发操作,确定交互对象关联的交互页面的目标显示面板。
S203,如果目标显示面板为近景面板,则唤起虚拟空间内的近景面板,在近景面板上显示交互对象关联的交互页面,交互页面包括:第一交互控件。
S204,如果目标显示面板为远景面板,则唤起虚拟空间内的远景面板,在远景面板上显示交互对象关联的交互页面,交互页面包括:第一交互控件。
其中,近景面板和远景面板独立显示,且显示于不同位置。
S205,响应于对第一交互控件的触发操作,在虚拟空间内呈现虚拟输入模型。
其中,第一交互控件具体为输入控件。此处,输入控件为信息输入控件。
需要说明的是,本申请中虚拟输入模型可选为任意类型的输入模型,且该输入模型是基于真实输入设备,在虚拟空间中构建的虚拟模型。示例性的,当真实输入设备为键盘时,该虚拟输入模型相应为虚拟键盘,等等。
考虑到用户观看近景面板或者远景面板上显示的交互页面过程中,可能需要与交互页面进行互动。比如,观看视频画面时可能需要发送评论信息,或者观看商品时可能需要搜索喜欢的商品等。
因此,用户可通过任意一种方式触发位于交互页面中的第一交互控件。并且,当检测到用户针对第一交互控件执行的触发操作时,确定用户需要执行信息输入操作。此时,响应于该第一交互控件的触发操作,将处于隐藏状态的虚拟输入模型唤醒,并在虚拟空间内呈现虚拟输入模型。
其中,在虚拟空间内呈现虚拟输入模型的方式可以是直接弹出该虚拟输入模型,或者也可以是采用预设的动画效果来呈现等,本申请对此不做限制。
本申请实施例中,用户针对第一交互控件执行的触发操作,可通过利用手持设备、手持设备模型、手部模型、眼动追踪以及语音中的任意一种方式实现,除此之外还可以采用其他方式实现,此处对其不做具体限制。
考虑到本申请显示交互页面的面板为远景面板或者近景面板,那么响应于对第一交互控件的触发操作,在虚拟空间内呈现虚拟输入模型,具体包括:如果交互界面显示于近景面板上,则在虚拟空间中呈现与近景面板对应的近景虚拟输入模型;如果交互界面显示于远景面板上,则在虚拟空间中呈现与远景面板对应的远景虚拟输入模型;其中,近景虚拟输入模型和远景虚拟输入模型相互独立显示,且显示于不同位置。
在本申请实施例中,由于近景面板和远景面板分属于不同的显示体系。那么,在虚拟空间中呈现与近景面板对应的近景虚拟输入模型时,可根据近景面板的显示位置确定近景虚拟输入模型的目标显示位置。进而,在近景虚拟输入模型的目标显示位置处显示近景虚拟输入模型;同样的,在虚拟空间中呈现与远景面板对应的远景虚拟输入模型时,可根据远景面板的显示位置确定远景虚拟输入模型的目标显示位置。进而,在远景虚拟输入模型的目标显示位置处显示远景虚拟输入模型。
在一些可实现的方式中,本申请可将近景虚拟输入模型的目标显示位置设置在用户人眼与近景面板之间,且与用户人眼之间的距离为0.8m位置处;相应的,可将远景虚拟输入模型的目标显示位置设置在用户人眼与远景面板之间,且与人眼之间的距离为2.2m位置处。
应理解的是,本申请中近景虚拟输入模型的目标显示位置,可根据近景面板的显示位置进行灵活调整;同样的,远景虚拟输入模型的目标显示位置,可根据远景面板的显示位置进行灵活调整,此处对其不做具体限制。
进而,用户可基于虚拟空间内呈现的虚拟输入模型,与对应交互页面进行交互。比如,利用虚拟输入模型进行互动信息输入,以实现信息互动目的。
又因为在虚拟空间内呈现近景虚拟输入模型或者远景虚拟输入模型时,虚拟空间内呈现的交互导航面板可能会被近景虚拟输入模型遮挡,或者远景虚拟输入模型可能会被交互导航面板遮挡。因此,本申请响应于对第一交互控件的触发操作,在虚拟空间内呈现近景虚拟输入模型或者远景虚拟输入模型之前,可选的对虚拟空间内呈现的交互导航面板进行隐藏处理。
也就是说,本申请通过将处于唤醒状态的交互导航面板调整成隐藏状态。由此,能够避免处于显示状态的交互导航面板遮挡远景虚拟输入模型,或者显示的近景虚拟输入模型遮挡交互导航面板,从而确保了近景面板与近景虚拟输入模型,或者远景面板与远景虚拟输入模型之间显示位置关系的正确性。
示例性的,将交互导航面板隐藏处理后,在虚拟空间内呈现近景面板以及近景虚拟输入模型,或者在虚拟空间内呈现远景面板以及远景虚拟输入模型的示意图,具体可参见图5a和5b。其中,图5a是在虚拟空间中呈现近景面板以及近景虚拟输入模型的示意图;图5b是在虚拟空间中呈现远景面板以及远景虚拟输入模型的示意图。
在一些可实现方式中,如果远景面板和近景面板同时显示有不同的交互页面,并且每个交互面板上均包括第一交互控件。那么,当用户需要与显示的交互页面交互时,本申请只允许用户与远景面板和近景面板显示的交互页面中的一个进行交互。由此,避免系统显示出现混乱,导致系统崩溃异常退出。
例如,如图5c所示,如果远景面板上显示着直播页面,近景面板上显示着聊天页面,则用户需要与直播页面和聊天页面进行互动时,可通过如下步骤实现:
步骤一,用户在第一时间t1触发直播页面上的第一交互控件Y1,以唤醒虚拟空间内处于隐藏状态的远景虚拟输入模型。进而,基于该远景虚拟输入模型与直播页面进行信息输入互动。其中,唤醒远景虚拟输入模型时,可控制近景面板处于隐藏状态,以避免对远景面板对应的远景虚拟输入模型造成遮挡。
步骤二,当与直播页面互动结束之后,用户在第二时间t2触发聊天页面上的第一交互控件Y2,以唤醒虚拟空间内处于隐藏状态的近景虚拟输入模型。进而,基于该近景虚拟输入模型与聊天页面中的任一用户进行信息互动。其中,唤醒近景虚拟输入模型时,可控制远景虚拟输入模型处于隐藏状态,以避免远景虚拟输入模型被近景面板遮挡。
步骤三,当与聊天页面互动结束之后,用户可通过触发近景虚拟输入模型上的关闭控件,将显示于虚拟空间内的近景虚拟输入模型切换为隐藏状态,以避免遮挡交互页面等内容。
在另一种实现方式中,除了触发近景虚拟输入模型上的关闭控件来关系近景虚拟输入模型之外,本申请还可通过监测近景虚拟输入模型的显示时长,对近景虚拟输入模型进行自动关闭操作。比如,当监测到近景虚拟输入模型的显示时长达到预设显示时长,并且未接收到用户输入操作时,自动将处于显示状态的近景虚拟输入模型切换为隐藏状态。
S206,根据作用于虚拟输入模型上的用户输入操作,在交互页面内呈现对应的输入互动信息。
当虚拟空间内呈现了虚拟输入模型之后,用户可利用手持设备控制光标,手部模型、或者眼动追踪等方式,在虚拟输入模型上执行输入操作。比如,利用手持设备控制光标悬停于目标按键上,并按压确认键输入该目标按键对应的信息;或者,用户利用眼睛注视虚拟输入模型上目标按键达到指定时长,确定用户输入该目标按键对应的信息。其中,指定时长可根据实际应用需要进行灵活设置,比如2s、3s或者5s等,此处对其不做具体限制。进而,本申请根据作用于虚拟输入模型上的用户输入操作,在交互页面中呈现对应的输入互动信息。
在一些可实现方式中,本申请根据作用于虚拟输入模型上的用户输入操作,在交互页面中呈现对应的输入互动信息,可包括如下情况:
情况一
根据作用于虚拟输入模型上的文本和/或表情输入操作,在交互页面中的交互区域显示对应的文本和/或表情互动信息。
其中,交互区域可以是交互页面上任意能够支持信息输入的区域,比如评论区或者搜索框等。
例如,如图5d所示,如果交互页面为视频播放页面,交互区域为评论区,那么用户利用手部模型在虚拟输入模型上进行信息输入操作,从而在视频播放页面的评论输入接口中输入评论信息“好喜欢张XX”,并将该评论信息“好喜欢张XX”发送至评论区。进而,在评论区中显示用户输入的评论信息“好喜欢张XX”。
情况二
根据作用于虚拟输入模型上的缩放操作,对虚拟空间内呈现的虚拟输入模型进行缩放处理。
其中,虚拟输入模型为远景虚拟输入模型和近景虚拟输入模型。
考虑到虚拟空间内显示的虚拟输入模型尺寸,通常为默认值。而默认尺寸可能不符合用户个人使用习惯,比如用户习惯使用大尺寸的虚拟输入模型,使得用户能够看清楚虚拟输入模型上的各个按键,从而方便信息输入。因此,用户可根据使用习惯,对虚拟输入模型进行缩放调整。比如,放大虚拟输入模型,或者缩小虚拟输入模型。
本申请中作用于虚拟输入模型上的缩放操作,可以是利用手持设备控制光标处于虚拟输入模型的可操作性位置上。然后,沿着拉伸或者收拢方向,对虚拟输入模型的尺寸进行缩放调整。当然,用户也可以利用手部模型或者其他方式对虚拟输入模型的尺寸进行缩放调整,此处对其不做具体限制。
示例性的,如图6a所示,用户可控制手部模型握持虚拟输入模型,并沿着第一方向拉伸该虚拟输入模型,以对虚拟输入模型进行放大调整;或者,如图6b所示,用户可控制手部模型握持虚拟输入模型,并沿着第一方向收拢虚拟输入模型,以对虚拟手持设备进行缩小调整。由此,通过对虚拟输入模型进行放大或缩小处理,使得用户能够获取到符合自身使用习惯的虚拟输入模型,从而使得用户可以轻松看清楚虚拟输入模型上的按键信息,从而为提高信息输入的正确性提供条件。
进一步的,考虑到用户利用虚拟输入模型进行信息输入时,可能会出现误操作,使得输入的互动信息存在多余信息或者错误信息等情况。因此,本申请可将虚拟输入模型设置成包括输入区域和显示区域的模型。
进而,本申请根据作用于虚拟输入模型上的用户输入操作,在交互页面内呈现对应的输入互动信息,包括:根据作用于输入区域上的用户输入操作,在显示区域中显示对应的输入互动信息;响应于对输入区域中发送按键的触发操作,将输入互动信息显示于交互页面内。这样设置的好处在于,当用户基于显示区域中显示的输入互动信息,可以对存在的多余信息或者错误信息进行修改操作,避免了当互动信息发送至交互页面之后,对互动信息进行撤销并重新编辑的操作,从而能够简化信息输入步骤,改善用户信息输入的体验。
示例性的,如图6c所示,如果用户想要输入的互动信息为“好喜欢张XX”,那么当虚拟输入模型的显示区域内显示的输入互动信息为“好喜混张XX”,说明显示区域内显示的输入互动信息存在错误。此时,用户可通过触发(按压)虚拟输入模型输入区域上的删除按键,比如点击4次删除按键,将“好喜混张XX”中的“混张XX”删除。进而,重新输入“欢张XX”。然后通过触发(按压)虚拟输入模型输入区域上的发送按键,以将正确的输入互动信息“好喜欢张XX”发送至交互页面,并在交互页面内呈现该输入互动信息“好喜欢张XX”。
本申请实施例提供的虚拟空间交互方法,通过在虚拟空间内设置远景面板、近景面板以及交互导航面板,使得用户与虚拟空间进行交互时,通过利用呈现在交互导航面板上的交互对象进行不同交互操作。并且,在交互时通过确定交互对象关联的交互页面的目标显示面板是远景面板还是近景面板,将交互对象关联的交互页面显示于对应的目标显示面板上,由此通过向用户呈现不同的交互面板,能够满足用户不同使用场景下交互需求,从而提高了用户与虚拟空间交互时的互动性和灵活性,改善了用户的使用体验。此外,通过响应于用户对交互页面上的第一交互控件的触发操作,在虚拟空间内呈现虚拟输入模型,使得用户基于该虚拟输入模型向交互页面发送输入互动信息,以利用输入互动信息与交互页面进行交互操作,从而实现与现实空间中相同的输入操作体验,以提高人机交互效果。
在前述实施例的基础上,对本申请中基于交互页面上的第二交互控件与交互页面进行交互进行进一步说明,具体参见图7。
如图7所示,该方法可以包括以下步骤:
S301,响应于虚拟空间的唤起指令,在虚拟空间内呈现交互导航面板,交互导航面板包括至少两个交互对象。
S302,响应于对任一交互对象的触发操作,确定交互对象关联的交互页面的目标显示面板。
S303,如果目标显示面板为近景面板,则唤起虚拟空间内的近景面板,在近景面板上显示所述交互对象关联的交互页面,其中交互页面包括:至少一个第二交互控件。
S304,如果目标显示面板为远景面板,则唤起虚拟空间内的远景面板,在远景面板上显示所述交互对象关联的交互页面,其中交互页面包括:至少一个第二交互控件。
其中,近景面板和远景面板独立显示,且显示于不同位置。
需要说明的是,本申请中显示于近景面板或者远景面板上的第二交互控件可以是除第一交互控件之外的任意需用户确认操作的其他交互控件。比如,购买控件、更新控件以及录音控件等。
此外,本申请中每个第二交互控件对应不同交互功能。比如,当第二交互控件为购买控件时,该购买控件对应购买交互功能;当第二交互控件为更新控件,则该更新控件对应更新交互功能,等等,此处对其不做具体限制。
S305,响应于对任一第二交互控件的触发操作,在虚拟空间内呈现与第二交互控件关联的第一提示弹窗,其中第一提示弹窗至少包括:确认子控件和取消子控件。
具体的,用户观看近景面板或者远景面板上显示的交互页面过程中,可能需要与交互页面进行互动。比如,观看购物页面时需要购买某一商品,或者观看视频时需要切换视频显示模式等。
因此,用户可通过任意一种方式触发位于交互页面中的任意第二交互控件,以在交互页面上执行与该第二交互控件对应的交互功能。进而,当检测到用户针对任意第二交互控件执行的触发操作时,确定用户需要执行交互操作。比如触发购买控件时,确定用户需要执行购买操作等。此时,响应于对触发的第二交互控件的触发操作,在虚拟空间内呈现与第二交互控件关联的第一提示弹窗。
本申请实施例中,第一提示弹窗可以直接弹出,也可以采用预设动画效果进行显示,本申请对此不做限制。
示例性的,如图8所示,如果检测到用户触发了购物页面上的购买控件,则在虚拟空间中显示与该购买控件关联的购买提示弹窗。其中,该购买提示弹窗中显示“是否继续进行购买操作”的提示信息,确认购买子控件以及取消购买子控件。
考虑到本申请显示交互页面的面板为远景面板或者近景面板,因此本申请响应于对任一第二交互控件的触发操作,在虚拟空间内呈现与第二交互控件关联的第一提示弹窗,具体包括:
如果交互页面显示于近景面板上,则响应于对任一第二交互控件的触发操作,在虚拟空间内呈现的近景面板和交互导航面板间的第一预设位置处,显示与第二交互控件关联的第一提示弹窗。如果交互页面显示于远景面板上,则响应于对任一第二交互控件的触发操作,在虚拟空间内呈现的远景面板和交互导航面板间的第二预设位置处,显示与第二交互控件关联的第一提示弹窗。
在本申请实施例中,由于近景面板和远景面板分属于不同的显示体系。那么,在虚拟空间内呈现的近景面板和交互导航面板间的第一预设位置处,显示与第二交互控件关联的第一提示弹窗时,可在近景面板附近的任一位置处,显示第一提示弹窗;同样的,在虚拟空间内呈现的远景面板和交互导航面板间的第二预设位置处,显示与第二交互控件关联的第一提示弹窗,可在远景面板附近的任一位置处,显示第一提示弹窗。
在一些可实现的方式中,本申请可将第一预设位置设置在用户人眼与近景面板之间、且与用户人眼之间的距离为0.9m位置处;相应的,可将第二预设位置设置在用户人眼与远景面板之间、且与用户人眼之间的距离为2.3m位置处。
当然第一预设位置和第二预设位置也可以是其他位置处,具体根据实际应用需求进行灵活设置,此处对其不做具体限制。比如,第一预设位置为用户人眼与近景面板之间、且与用户人眼之间的距离为0.95m位置处;第二预设位置为用户人眼与远景面板之间、且与用户人眼之间的距离为2.35m位置处,等等。
S306,响应于对确认子控件的触发操作,执行与第二交互控件关联的交互操作。
S307,响应于对取消子控件的触发操作,取消执行与第二交互控件关联的交互操作。
基于图8所示的示例继续进行说明,在虚拟空间内呈现购买控件关联的购买提示弹窗后,如果用户需要进行购买操作,则可利用手持设备控制光标悬停于确认购买子控件上,并按压确认按键比如扳机键向XR设备发送确认指令。进而,XR设备根据接收到的确认指令,切换购物页面为付款页面,使得用户进行付款操作。如果用户不想进行购买操作,则利用手持设备控制光标悬停于取消购买子控件上,并按压确认按键向XR设备发送取消指令。进而,XR设备根据接收到的取消指令,隐藏购物提示弹窗。
在一些可选的实现方式,向用户显示与第二交互控件关联的第一提示弹窗之后,如果确定第一提示弹窗的显示时长达到时长阈值,但未检测到用户触发的任何操作,则确定用户继续执行与该第二交互控件关联的交互功能。其中,显示时长可根据弹窗显示需求进行灵活设置,此处对其不做限制,比如10s或者15s等。
比如,向用户显示购买提示弹窗,并且该购买提示弹窗的显示时长达到时长阈值15s时,没有检测到用户触发的确认购买操作或者取消购买操作时,默认用户需要执行购买操作。此时,切换购物页面为付款页面,使得用户进行付款操作。
本申请实施例提供的虚拟空间交互方法,通过在虚拟空间内设置远景面板、近景面板以及交互导航面板,使得用户与虚拟空间进行交互时,通过利用呈现在交互导航面板上的交互对象进行不同交互操作。并且,在交互时通过确定交互对象关联的交互页面的目标显示面板是远景面板还是近景面板,将交互对象关联的交互页面显示于对应的目标显示面板上,由此通过向用户呈现不同的交互面板,能够满足用户不同使用场景下交互需求,从而提高了用户与虚拟空间交互时的互动性和灵活性,改善了用户的使用体验。此外,通过响应于用户对交互页面上的任意第二交互控件的触发操作,在虚拟空间内呈现与第二交互控件关联的第一提示弹窗,使得用户基于该第一提示弹窗提供的提示信息,确认是否需要继续执行与该第二交互控件对应的交互功能,避免了因用户误操作导致误触发任意交互操作,从而能够减少误操作给用户带来的困扰。
在另一种可选的实现方案中,考虑到XR设备在使用过程中,设备上的系统会根据用户操作或者预设的检测机制,在虚拟空间内显示系统侧的提示弹窗。进而,用户基于系统测的提示弹窗执行相应操作,以确保XR设备能够正常使用。下面结合图9,对本申请实施例提供的在虚拟空间内显示系统侧的提示弹窗的过程进行说明。
如图9所示,该方法可以包括以下步骤:
S401,响应于虚拟空间的唤起指令,在虚拟空间内呈现交互导航面板,交互导航面板包括至少两个交互对象。
S402,响应于对任一交互对象的触发操作,确定交互对象关联的交互页面的目标显示面板。
S403,如果目标显示面板为近景面板,则唤起虚拟空间内的近景面板,在近景面板上显示交互对象关联的交互页面。
S404,如果目标显示面板为远景面板,则唤起虚拟空间内的远景面板,在远景面板上显示交互对象关联的交互页面。
其中,近景面板和远景面板独立显示,且显示于不同位置。
S405,在虚拟空间内显示第二提示弹窗。
其中,第二提示弹窗的显示位置位于近景面板之前。也就是说,该第二提示弹窗的显示位置可以是交互导航面板与用户人眼之间的任意位置。示例性的,假设交互导航面板的显示位置为0.7m,那么第二提示弹窗的显示位置可以是小于0.7m的任一位置处。
考虑到第二提示弹窗的显示位置与用户人眼之间的距离过于靠近时,可能导致用户无法看清楚第二提示弹窗的整个显示内容。因此,本申请可选择第二提示弹窗的显示位置为交互导航面板与用户人眼之间,且用户人眼能够完整、清楚的看到整个第二提示弹窗位置处。可选的,第二提示弹窗的显示位置为0.6m或者0.65m等,此处对其不做具体限制。即,本申请优选的将第二提示弹窗信息设置于靠近交互导航面板侧的任一位置处,从而保证用户能够看清楚以及看完整第二提示弹窗上的整个显示内容。
应理解的是,本申请实施例中第二提示弹窗,是指系统侧基于用户操作或者预设的检测机制,向用户主动发送的系统提示信息。该系统提示信息可理解为全局提示信息(全局弹窗)。
通常,用户在使用XR设备过程中,XR设备的系统侧会自动执行一系列检测机制;或者,判断用户触发的不同操作。然后,根据检测或判断结果,确定是否需要向用户发送系统提示信息。其中,检测机制可以是检测XR设的剩余电量、检测用户是否设置了安全区,或者检测用户的身份是否合法等。具体检测机制可根据实际使用需求进行灵活设置,此处对其不做限制。
当检测到需要向用户发送系统提示信息时,通过采用第二提示弹窗形式在虚拟空间内显示系统提示信息。进而,使得用户基于该系统提示信息执行相应的操作。比如,系统提示信息为“电量过低,请及时充电”时,用户能够基于该“电量过低,请及时充电”,对XR设备进行充电操作,等等。
具体的,本申请在虚拟空间内显示第二提示弹窗,可包括下述至少一项:
响应于检测到安全区设置指令,在虚拟空间内显示安全区域设置提示弹窗;
响应于检测到身份认证指令,在虚拟空间内显示身份认证提示弹窗;
当检测到电池电量低于预设阈值时,在虚拟空间内显示电量提示弹窗。
当然除了上述几项之外,还可以包括其他项,此处对其不做限制。
示例性的,如图10a所示,当用户启动XR设备并进入虚拟空间之后,XR设备可基于该进入虚拟空间操作,确定检测到安全区域设置指令。然后,在虚拟空间内显示安全区域设置提示弹窗“请设置安全区”等提示信息。如果检测到用户触发了安全区域设置提示弹窗上的确认控件,则进入安全区设置功能。
如图10b所示,当用户触发了XR设备的解锁键,XR设备可基于该触发操作确定检测到身份认证指令。此时,在虚拟空间内显示密码输入提示弹窗。如果接收到用户输入的认证密码,且验证该密码正确,则执行解锁操作。
本申请实施例提供的虚拟空间交互方法,通过在虚拟空间内设置远景面板、近景面板以及交互导航面板,使得用户与虚拟空间进行交互时,通过利用呈现在交互导航面板上的交互对象进行不同交互操作。并且,在交互时通过确定交互对象关联的交互页面的目标显示面板是远景面板还是近景面板,将交互对象关联的交互页面显示于对应的目标显示面板上,由此通过向用户呈现不同的交互面板,能够满足用户不同使用场景下交互需求,从而提高了用户与虚拟空间交互时的互动性和灵活性,改善了用户的使用体验。此外,通过在虚拟空间内显示第二提示弹窗,使得用户基于该第二提示弹窗执行相应操作,以确保用户能够正常使用电子设备,从而为用户正常使用电子设备提供条件。
在再一种可选的实现方案中,考虑到虚拟空间内呈现的交互导航面板、近景面板和/或远景面板可能不符合用户的使用需求。因此,本申请还可根据用户触发的调整操作,对虚拟空间内呈现的交互导航面板、近景面板和/或远景面板进行个性化调整,以满足用户个性化需求。下面结合图11,对本申请实施例提供的对虚拟空间内呈现的交互导航面板、近景面板和/或远景面板进行调整过程进行说明。
如图11所示,该方法可以包括以下步骤:
S501,响应于虚拟空间的唤起指令,在虚拟空间内呈现交互导航面板,交互导航面板包括至少两个交互对象。
S502,响应于对任一交互对象的触发操作,确定交互对象关联的交互页面的目标显示面板。
S503,如果目标显示面板为近景面板,则唤起虚拟空间内的近景面板,在近景面板上显示交互对象关联的交互页面。
S504,如果目标显示面板为远景面板,则唤起虚拟空间内的远景面板,在远景面板上显示交互对象关联的交互页面。
其中,近景面板和远景面板独立显示,且显示于不同位置。
S505,响应于对交互导航面板、近景面板和/或远景面板的调整操作,对虚拟空间内呈现的交互导航面板、近景面板和/或远景面板进行调整。
可选的,考虑到虚拟空间内呈现的交互导航面板、近景面板和/或远景面板的显示尺寸过小或过大,会导致用户无法看清交互导航面板上的交互对象,无法看清近景面板上显示的交互页面,或者远景面板上显示的交互页面。所以,需要对呈现的交互导航面板、近景面板和/或远景面板进行调整,使得用户能够获取到符合自身使用需求的交互导航面板、近景面板和/或远景面板。
具体的,用户可通过执行调整操作,对呈现的交互导航面板、近景面板和/或远景面板进行调整。其中,调整操作可以是通过手持设备、手部模型、手持设备模型或者其他方式触发,此处对其不做限制。
在本申请实施例中,对交互导航面板、近景面板和/或远景面板的调整操作,包括以下至少一项:缩放调整操作,方位调整操作,以及区域调整操作。
其中,缩放调整操作,是指对交互导航面板、近景面板和/或远景面板的大小进行调整,比如缩小或者放大操作。
方位调整操作,是指在交互导航面板的显示位置基础上,对交互导航面板的显示方位、近景面板的显示方位和/或远景面板的显示方位进行调整的操作。比如将交互导航面板以自身当前显示位置为基础,向东方位移动预设距离;或者,将远景面板以自身当前显示位置为基础,向北方位移动预设距离,等等。其中,预设距离可根据用户使用需求进行灵活设置,比如0.5m等,此处对其不做具体限制。
区域调整操作,是指对交互导航面板、近景面板和/或远景面板上各个显示模块的显示区域进行大小或者位置调整的操作。比如,将前述图2a所示的交互导航面板上的应用程序资源库对应显示区域和设置功能对应显示区域进行位置调整,将应用程序资源库对应的显示区域调整在设置功能对应显示区域之前,等等。
当然除了上述调整操作之外,还可以包括其他调整操作,比如调整显示模式等,此处对其不做具体限制。
相应的,响应于对交互导航面板、近景面板和/或远景面板的调整操作,对虚拟空间内呈现的所述交互导航面板、近景面板和/或远景面板进行调整,具体包括以下至少一项:
如果所述调整操作为缩放调整操作,则根据所述缩放调整操作,对所述交互导航面板、所述近景面板和/或所述远景面板进行缩放调整;
如果所述调整操作为方位调整操作,则根据所述方位调整操作,对所述交互导航面板、所述近景面板和/或所述远景面板进行方位调整;
如果所述调整操作为区域调整操作,则根据所述区域调整操作,对所述交互导航面板、所述近景面板和/或所述远景面板进行区域调整。
示例性的,如图12a所示,用户可控制手部模型抓取交互导航面板的左下顶角,并沿着第二方向拉伸该交互导航面板,以对交互导航面板进行放大调整;或者,如图12b所示,用户可控制手部模型抓取交互导航面板的左上顶角,并沿着第二方向收拢该交互导航面板,以对该交互导航面板进行缩小调整。由此,通过对该交互导航面板进行放大或缩小处理,使得用户能够获取到符合自身使用习惯的交互导航面板,从而满足用户个性化需求。
需要说明的是,对虚拟空间内呈现的交互导航面板、近景面板和/或远景面板进行调整之后,本申请可选的可存储调整后的交互导航面板、近景面板和/或远景面板,使得后续用户再次使用交互导航面板、近景面板和/或远景面板时,可在虚拟场景中显示调整后的交互导航面板、近景面板和/或远景面板,以便于用户基于调整后的交互导航面板、近景面板和/或远景面板进行人机交互操作;当然可选的后续用户再次使用该交互导航面板、近景面板和/或远景面板时,也可以直接使用默认模式的交互导航面板、近景面板和/或远景面板,具体可根据用户使用需求进行选择,此处对其不作具体限制。
应注意的是,当显示的是调整后的交互导航面板、近景面板和/或远景面板时,用户还可以对调整后的交互导航面板、近景面板和/或远景面板进行再次调整,具体调整过程与前述调整过程类似,此处对其不做过多赘述。
本申请实施例提供的虚拟空间交互方法,通过在虚拟空间内设置远景面板、近景面板以及交互导航面板,使得用户与虚拟空间进行交互时,通过利用呈现在交互导航面板上的交互对象进行不同交互操作。并且,在交互时通过确定交互对象关联的交互页面的目标显示面板是远景面板还是近景面板,将交互对象关联的交互页面显示于对应的目标显示面板上,由此通过向用户呈现不同的交互面板,能够满足用户不同使用场景下交互需求,从而提高了用户与虚拟空间交互时的互动性和灵活性,改善了用户的使用体验。此外,通过响应于用户触发的调整操作,对虚拟空间内呈现的各面板进行调整,以满足用户个性化需求,进一步提升人机交互体验。
下面参照附图13,对本申请实施例提出的一种虚拟空间交互装置进行描述。图13是本申请实施例提供的一种虚拟空间交互装置的示意性框图。
如图13所示,该虚拟空间交互装置600包括:第一响应模块610、第二响应模块620、第一显示模块630和第二显示模块640。
其中,第一响应模块610,用于响应于虚拟空间的唤起指令,在所述虚拟空间内呈现交互导航面板,所述交互导航面板包括至少两个交互对象;
第二响应模块620,用于响应于对任一交互对象的触发操作,确定所述交互对象关联的交互页面的目标显示面板;
第一显示模块630,用于如果所述目标显示面板为近景面板,则唤起所述虚拟空间内的近景面板,在所述近景面板上显示所述交互对象关联的交互页面;
第二显示模块640,用于如果所述目标显示面板为远景面板,则唤起所述虚拟空间内的远景面板,在所述远景面板上显示所述交互对象关联的交互页面;
其中,所述近景面板和所述远景面板独立显示,且显示于不同位置。
本申请实施例的一种可选实现方式,第二响应模块620,包括:
类型确定单元,用于确定所述交互对象的类型;
面板确定单元,用于根据所述交互对象的类型,确定所述交互对象关联的交互页面的目标显示面板。
本申请实施例的一种可选实现方式,类型确定单元,具体用于:
获取所述交互对象的标识信息;
根据所述标识信息,确定所述交互对象的类型。
本申请实施例的一种可选实现方式,面板确定单元,具体用于:
根据所述交互对象的类型,在交互对象类型和显示面板的映射关系中查找所述交互对象关联的交互页面的目标显示面板。
本申请实施例的一种可选实现方式,面板确定单元,还用于:
如果未查找到所述目标显示面板,则按照预设显示规则,将远景面板确定为所述交互对象关联的交互页面的所述目标显示面板。
本申请实施例的一种可选实现方式,所述交互页面包括:第一交互控件;
相应的,装置600还包括:
第三响应模块,用于响应于对所述第一交互控件的触发操作,在所述虚拟空间内呈现虚拟输入模型;
信息呈现模块,用于根据作用于所述虚拟输入模型上的用户输入操作,在所述交互页面内呈现对应的输入互动信息。
本申请实施例的一种可选实现方式,第三响应模块,具体用于:
如果所述交互界面显示于近景面板上,则在所述虚拟空间中呈现与所述近景面板对应的近景虚拟输入模型;
如果所述交互界面显示于远景面板上,则在所述虚拟空间中呈现与所述远景面板对应的远景虚拟输入模型;
其中,所述近景虚拟输入模型和所述远景虚拟输入模型相互独立显示,且显示于不同位置。
本申请实施例的一种可选实现方式,信息呈现模块,具体用于:
根据作用于所述虚拟输入模型上的文本和/或表情输入操作,在所述交互页面中的交互区域显示对应的文本和/或表情互动信息;
或者,
根据作用于所述虚拟输入模型上的缩放操作,对所述虚拟空间内呈现的所述虚拟输入模型进行缩放处理。
本申请实施例的一种可选实现方式,所述虚拟输入模型包括:输入区域和显示区域;
相应的,信息呈现模块,还用于:
根据作用于所述输入区域上的用户输入操作,在所述显示区域中显示对应的输入互动信息;
响应于对所述输入区域中发送按键的触发操作,将所述输入互动信息显示于所述交互页面内。
本申请实施例的一种可选实现方式,装置600,还包括:
隐藏模块,用于对所述虚拟空间内呈现的交互导航面板进行隐藏处理。
本申请实施例的一种可选实现方式,所述交互页面还包括:至少一个第二交互控件;
相应的,装置600,还包括:
第四响应模块,用于响应于对任一第二交互控件的触发操作,在所述虚拟空间内呈现与所述第二交互控件关联的第一提示弹窗,其中所述第一提示弹窗至少包括:确认子控件和取消子控件;
第五响应模块,用于响应于对所述确认子控件的触发操作,执行与所述第二交互控件关联的交互操作;
第六响应模块,用于响应于对所述取消子控件的触发操作,取消执行与所述第二交互控件关联的交互操作。
本申请实施例的一种可选实现方式,如果所述交互页面显示于近景面板上,则第四响应模块,具体用于:
在所述虚拟空间内呈现的所述近景面板和交互导航面板间的第一预设位置处,显示与所述第二交互控件关联的第一提示弹窗。
本申请实施例的一种可选实现方式,如果所述交互页面显示于远景面板上,则第四响应模块,具体用于:
在所述虚拟空间内呈现的所述远景面板和交互导航面板间的第二预设位置处,显示与所述第二交互控件关联的第一提示弹窗。
本申请实施例的一种可选实现方式,装置600,还包括:
第一显示模块,用于如果检测到交互导航面板内的任一其他交互对象被触发,且所述其他交互对象关联的交互页面的目标显示面板为远景面板,则唤起所述虚拟空间内的远景面板,在所述远景面板上显示所述其他交互对象关联的交互页面。
本申请实施例的一种可选实现方式,装置600,还包括:
第二显示模块,用于如果检测到交互导航面板内的任一其他交互对象被触发,且所述其他交互对象关联的交互页面的目标显示面板为近景面板,则唤起所述虚拟空间内的近景面板,在所述近景面板上显示所述其他交互对象关联的交互页面。
本申请实施例的一种可选实现方式,装置600,还包括:
第三显示模块,用于在虚拟空间内显示第二提示弹窗;
其中,所述第二提示弹窗的显示位置位于近景面板之前。
本申请实施例的一种可选实现方式,第三显示模块,用于执行下述至少一项:
响应于检测到安全区设置指令,在所述虚拟空间内显示安全区域设置提示弹窗;
响应于检测到身份认证指令,在所述虚拟空间内显示身份认证提示弹窗;
当检测到电池电量低于预设阈值时,在所述虚拟空间内显示电量提示弹窗。
本申请实施例的一种可选实现方式,装置600,还包括:
第七响应模块,用于响应于对交互导航面板、近景面板和/或远景面板的调整操作,对所述虚拟空间内呈现的所述交互导航面板、近景面板和/或远景面板进行调整。
本申请实施例的一种可选实现方式,第七响应模块,具体用于:
如果所述调整操作为缩放调整操作,则根据所述缩放调整操作,对所述交互导航面板、所述近景面板和/或所述远景面板进行缩放调整;
如果所述调整操作为方位调整操作,则根据所述方位调整操作,对所述交互导航面板、所述近景面板和/或所述远景面板进行方位调整;
如果所述调整操作为区域调整操作,则根据所述区域调整操作,对所述交互导航面板、所述近景面板和/或所述远景面板进行区域调整。
本申请实施例提供的虚拟空间交互装置,通过在虚拟空间内设置远景面板、近景面板以及交互导航面板,使得用户与虚拟空间进行交互时,通过利用呈现在交互导航面板上的交互对象进行不同交互操作。并且,在交互时通过确定交互对象关联的交互页面的目标显示面板是远景面板还是近景面板,将交互对象关联的交互页面显示于对应的目标显示面板上,由此通过向用户呈现不同的交互面板,能够满足用户不同使用场景下交互需求,从而提高了用户与虚拟空间交互时的互动性和灵活性,改善了用户的使用体验。
应理解的是,装置实施例与前述方法实施例可以相互对应,类似的描述可以参照方法实施例。为避免重复,此处不再赘述。具体地,图13所示的装置600可以执行图1对应的方法实施例,并且装置600中的各个模块的前述和其它操作和/或功能分别为了实现图1中的各个方法中的相应流程,为了简洁,在此不再赘述。
上文中结合附图从功能模块的角度描述了本申请实施例的装置600。应理解,该功能模块可以通过硬件形式实现,也可以通过软件形式的指令实现,还可以通过硬件和软件模块组合实现。具体地,本申请实施例中的第一方面方法实施例的各步骤可以通过处理器中的硬件的集成逻辑电路和/或软件形式的指令完成,结合本申请实施例公开的第一方面方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。可选地,软件模块可以位于随机存储器,闪存、只读存储器、可编程只读存储器、电可擦写可编程存储器、寄存器等本领域的成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述第一方面方法实施例中的步骤。
图14是本申请实施例提供的一种电子设备的示意性框图。如图14所示,该电子设备700可包括:
存储器710和处理器720,该存储器710用于存储计算机程序,并将该程序代码传输给该处理器720。换言之,该处理器720可以从存储器710中调用并运行计算机程序,以实现本申请实施例中的虚拟空间交互方法。
例如,该处理器720可用于根据该计算机程序中的指令执行上述虚拟空间交互方法实施例。
在本申请的一些实施例中,该处理器720可以包括但不限于:
通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(FieldProgrammable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等等。
在本申请的一些实施例中,该存储器710包括但不限于:
易失性存储器和/或非易失性存储器。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double DataRate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synch link DRAM,SLDRAM)和直接内存总线随机存取存储器(Direct Rambus RAM,DR RAM)。
在本申请的一些实施例中,该计算机程序可以被分割成一个或多个模块,该一个或者多个模块被存储在该存储器710中,并由该处理器720执行,以完成本申请提供的虚拟空间交互方法。该一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述该计算机程序在该电子设备中的执行过程。
如图14所示,该电子设备700还可包括:
收发器730,该收发器730可连接至该处理器720或存储器710。
其中,处理器720可以控制该收发器730与其他设备进行通信,具体地,可以向其他设备发送信息或数据,或接收其他设备发送的信息或数据。收发器730可以包括发射机和接收机。收发器730还可以进一步包括天线,天线的数量可以为一个或多个。
应当理解,该电子设备中的各个组件通过总线系统相连,其中,总线系统除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。
本申请实施例中的,当电子设备为HMD时,本申请实施例提供了一种HMD的示意性框图,如图15所示。
如图15所示,该HMD800的主要功能模块可以包括但不限于以下:检测模块810、反馈模块820、传感器830、控制模块840、建模模块850。
其中,检测模块810被配置为使用各种传感器检测用户的操作命令,并作用于虚拟环境,如跟随用户的视线而不断更新在显示屏上显示的影像,实现用户与虚拟场景的交互。
反馈模块820被配置为接收来自传感器的数据,为用户提供实时反馈。例如,反馈模块820可以根据用户操作数据生成反馈指令,并输出该反馈指令。
传感器830一方面被配置为接受来自用户的操作命令,并将其作用于虚拟环境;另一方面被配置为将操作后产生的结果以各种反馈的形式提供给用户。
控制模块840被配置为对传感器和各种输入/输出装置进行控制,包括获得用户的数据如动作、语音等和输出感知数据,如图像、振动、温度和声音等,对用户、虚拟环境和现实世界产生作用。例如,控制模块640可以获取用户手势、语音等。
建模模块850被配置为构造虚拟环境的三维模型,还可以包括三维模型中的声音、触感等各种反馈机制。
应当理解,该HMD800中的各个功能模块通过总线系统相连,其中,总线系统除包括数据总线之外,还包括电源总线、控制总线和状态信号总线等。
本申请还提供了一种计算机存储介质,其上存储有计算机程序,该计算机程序被计算机执行时使得该计算机能够执行上述方法实施例的虚拟空间交互方法。
本申请实施例还提供一种包含程序指令的计算机程序产品,当所述程序指令在电子设备上运行时,使得所述电子设备执行上述方法实施例的虚拟空间交互方法。
当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行该计算机程序指令时,全部或部分地产生按照本申请实施例该的流程或功能。该计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。该计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,该计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriber line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。该计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。该可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如数字视频光盘(digital video disc,DVD))、或者半导体介质(例如固态硬盘(solid state disk,SSD))等。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的模块及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,该模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。例如,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以该权利要求的保护范围为准。
Claims (23)
1.一种虚拟空间交互方法,其特征在于,包括:
响应于虚拟空间的唤起指令,在所述虚拟空间内呈现交互导航面板,所述交互导航面板包括至少两个交互对象;
响应于对任一交互对象的触发操作,确定所述交互对象关联的交互页面的目标显示面板;
如果所述目标显示面板为近景面板,则唤起所述虚拟空间内的近景面板,在所述近景面板上显示所述交互对象关联的交互页面;
如果所述目标显示面板为远景面板,则唤起所述虚拟空间内的远景面板,在所述远景面板上显示所述交互对象关联的交互页面;
其中,所述近景面板和所述远景面板独立显示,且显示于不同位置。
2.根据权利要求1所述的方法,其特征在于,确定所述交互对象关联的交互页面的目标显示面板,包括:
确定所述交互对象的类型;
根据所述交互对象的类型,确定所述交互对象关联的交互页面的目标显示面板。
3.根据权利要求2所述的方法,其特征在于,确定所述交互对象的类型,包括:
获取所述交互对象的标识信息;
根据所述标识信息,确定所述交互对象的类型。
4.根据权利要求2所述的方法,其特征在于,根据所述交互对象的类型,确定所述交互对象关联的交互页面的目标显示面板,包括:
根据所述交互对象的类型,在交互对象类型和显示面板的映射关系中查找所述交互对象关联的交互页面的目标显示面板。
5.根据权利要求4所述的方法,其特征在于,还包括:
如果未查找到所述目标显示面板,则按照预设显示规则,将远景面板确定为所述交互对象关联的交互页面的所述目标显示面板。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述交互页面包括:第一交互控件;
相应的,所述方法还包括:
响应于对所述第一交互控件的触发操作,在所述虚拟空间内呈现虚拟输入模型;
根据作用于所述虚拟输入模型上的用户输入操作,在所述交互页面内呈现对应的输入互动信息。
7.根据权利要求6所述的方法,其特征在于,在所述虚拟空间中呈现虚拟输入模型,包括:
如果所述交互界面显示于近景面板上,则在所述虚拟空间中呈现与所述近景面板对应的近景虚拟输入模型;
如果所述交互界面显示于远景面板上,则在所述虚拟空间中呈现与所述远景面板对应的远景虚拟输入模型;
其中,所述近景虚拟输入模型和所述远景虚拟输入模型相互独立显示,且显示于不同位置。
8.根据权利要求6所述的方法,其特征在于,根据作用于所述虚拟输入模型上的用户输入操作,在所述交互页面中呈现对应的输入互动信息,包括:
根据作用于所述虚拟输入模型上的文本和/或表情输入操作,在所述交互页面中的交互区域显示对应的文本和/或表情互动信息;
或者,
根据作用于所述虚拟输入模型上的缩放操作,对所述虚拟空间内呈现的所述虚拟输入模型进行缩放处理。
9.根据权利要求6所述的方法,其特征在于,所述虚拟输入模型包括:输入区域和显示区域;
相应的,根据作用于所述虚拟输入模型上的用户输入操作,在所述交互页面内呈现对应的输入互动信息,包括:
根据作用于所述输入区域上的用户输入操作,在所述显示区域中显示对应的输入互动信息;
响应于对所述输入区域中发送按键的触发操作,将所述输入互动信息显示于所述交互页面内。
10.根据权利要求6所述的方法,其特征在于,在所述虚拟空间内呈现虚拟输入模型之前,还包括:
对所述虚拟空间内呈现的交互导航面板进行隐藏处理。
11.根据权利要求1-5任一项所述的方法,其特征在于,所述交互页面还包括:至少一个第二交互控件;
相应的,所述方法还包括:
响应于对任一第二交互控件的触发操作,在所述虚拟空间内呈现与所述第二交互控件关联的第一提示弹窗,其中所述第一提示弹窗至少包括:确认子控件和取消子控件;
响应于对所述确认子控件的触发操作,执行与所述第二交互控件关联的交互操作;
响应于对所述取消子控件的触发操作,取消执行与所述第二交互控件关联的交互操作。
12.根据权利要求11所述的方法,其特征在于,如果所述交互页面显示于近景面板上,则在所述虚拟空间内呈现与所述第二交互控件关联的第一提示弹窗,包括:
在所述虚拟空间内呈现的所述近景面板和交互导航面板间的第一预设位置处,显示与所述第二交互控件关联的第一提示弹窗。
13.根据权利要求11所述的方法,其特征在于,如果所述交互页面显示于远景面板上,则在所述虚拟空间内呈现与所述第二交互控件关联的第一提示弹窗,包括:
在所述虚拟空间内呈现的所述远景面板和交互导航面板间的第二预设位置处,显示与所述第二交互控件关联的第一提示弹窗。
14.根据权利要求1-5任一项所述的方法,其特征在于,在近景面板上显示所述交互对象关联的交互页面之后,还包括:
如果检测到交互导航面板内的任一其他交互对象被触发,且所述其他交互对象关联的交互页面的目标显示面板为远景面板,则唤起所述虚拟空间内的远景面板,在所述远景面板上显示所述其他交互对象关联的交互页面。
15.根据权利要求1-5任一项所述的方法,其特征在于,在远景面板上显示所述交互对象关联的交互页面之后,还包括:
如果检测到交互导航面板内的任一其他交互对象被触发,且所述其他交互对象关联的交互页面的目标显示面板为近景面板,则唤起所述虚拟空间内的近景面板,在所述近景面板上显示所述其他交互对象关联的交互页面。
16.根据权利要求1-5任一项所述的方法,其特征在于,还包括:
在虚拟空间内显示第二提示弹窗;
其中,所述第二提示弹窗的显示位置位于近景面板之前。
17.根据权利要求16所述的方法,其特征在于,在虚拟空间内显示第二提示弹窗,包括下述至少一项:
响应于检测到安全区设置指令,在所述虚拟空间内显示安全区域设置提示弹窗;
响应于检测到身份认证指令,在所述虚拟空间内显示身份认证提示弹窗;
当检测到电池电量低于预设阈值时,在所述虚拟空间内显示电量提示弹窗。
18.根据权利要求1-5任一项所述的方法,其特征在于,还包括:
响应于对交互导航面板、近景面板和/或远景面板的调整操作,对所述虚拟空间内呈现的所述交互导航面板、近景面板和/或远景面板进行调整。
19.根据权利要求18所述的方法,其特征在于,对所述虚拟空间内呈现的所述交互导航面板、近景面板和/或远景面板进行调整,包括:
如果所述调整操作为缩放调整操作,则根据所述缩放调整操作,对所述交互导航面板、所述近景面板和/或所述远景面板进行缩放调整;
如果所述调整操作为方位调整操作,则根据所述方位调整操作,对所述交互导航面板、所述近景面板和/或所述远景面板进行方位调整;
如果所述调整操作为区域调整操作,则根据所述区域调整操作,对所述交互导航面板、所述近景面板和/或所述远景面板进行区域调整。
20.一种虚拟空间交互装置,其特征在于,包括:
第一响应模块,用于响应于虚拟空间的唤起指令,在所述虚拟空间内呈现交互导航面板,所述交互导航面板包括至少两个交互对象;
第二响应模块,用于响应于对任一交互对象的触发操作,确定所述交互对象关联的交互页面的目标显示面板;
第一显示模块,用于如果所述目标显示面板为近景面板,则唤起所述虚拟空间内的近景面板,在所述近景面板上显示所述交互对象关联的交互页面;
第二显示模块,用于如果所述目标显示面板为远景面板,则唤起所述虚拟空间内的远景面板,在所述远景面板上显示所述交互对象关联的交互页面;
其中,所述近景面板和所述远景面板独立显示,且显示于不同位置。
21.一种电子设备,其特征在于,包括:
处理器和存储器,所述存储器用于存储计算机程序,所述处理器用于调用并运行所述存储器中存储的计算机程序,以执行如权利要求1至19中任一项所述的虚拟空间交互方法。
22.一种计算机可读存储介质,其特征在于,用于存储计算机程序,所述计算机程序使得计算机执行如权利要求1至19中任一项所述的虚拟空间交互方法。
23.一种包含程序指令的计算机程序产品,其特征在于,当所述程序指令在电子设备上运行时,使得所述电子设备执行如权利要求1至19中任一项所述的虚拟空间交互方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211248830.7A CN115509361A (zh) | 2022-10-12 | 2022-10-12 | 虚拟空间交互方法、装置、设备和介质 |
US18/463,135 US20240127564A1 (en) | 2022-10-12 | 2023-09-07 | Interaction method and apparatus of virtual space, device, and medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211248830.7A CN115509361A (zh) | 2022-10-12 | 2022-10-12 | 虚拟空间交互方法、装置、设备和介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115509361A true CN115509361A (zh) | 2022-12-23 |
Family
ID=84510903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211248830.7A Pending CN115509361A (zh) | 2022-10-12 | 2022-10-12 | 虚拟空间交互方法、装置、设备和介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20240127564A1 (zh) |
CN (1) | CN115509361A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117131555A (zh) * | 2023-04-28 | 2023-11-28 | 荣耀终端有限公司 | 一种信息显示方法及电子设备 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070279483A1 (en) * | 2006-05-31 | 2007-12-06 | Beers Ted W | Blended Space For Aligning Video Streams |
KR101955478B1 (ko) * | 2018-07-19 | 2019-03-08 | 주식회사 테크노블러드코리아 | 가상현실 장비의 콘텐츠 표시방법 |
CN109557998A (zh) * | 2017-09-25 | 2019-04-02 | 腾讯科技(深圳)有限公司 | 信息交互方法、装置、存储介质和电子装置 |
US20200090401A1 (en) * | 2018-09-14 | 2020-03-19 | Facebook Technologies, Llc | Display opacity control for preventing view occlusion in artificial reality |
JP2020086630A (ja) * | 2018-11-19 | 2020-06-04 | 株式会社ポケット・クエリーズ | 作業補助システム、及びプログラム |
US20200225737A1 (en) * | 2017-07-11 | 2020-07-16 | Interdigital Ce Patent Holdings, Sas | Method, apparatus and system providing alternative reality environment |
US20210019946A1 (en) * | 2019-07-15 | 2021-01-21 | Samsung Electronics Co., Ltd. | System and method for augmented reality scenes |
CN112711458A (zh) * | 2021-01-15 | 2021-04-27 | 腾讯科技(深圳)有限公司 | 虚拟场景中道具资源的展示方法及装置 |
US20220080313A1 (en) * | 2020-09-04 | 2022-03-17 | Tencent Technology (Shenzhen) Company Limited | Virtual item control method and apparatus, terminal, and storage medium |
CN114247141A (zh) * | 2021-11-09 | 2022-03-29 | 腾讯科技(深圳)有限公司 | 虚拟场景中任务引导方法、装置、设备、介质及程序产品 |
CN115175004A (zh) * | 2022-07-04 | 2022-10-11 | 闪耀现实(无锡)科技有限公司 | 用于视频播放的方法、装置、可穿戴设备及电子设备 |
-
2022
- 2022-10-12 CN CN202211248830.7A patent/CN115509361A/zh active Pending
-
2023
- 2023-09-07 US US18/463,135 patent/US20240127564A1/en active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070279483A1 (en) * | 2006-05-31 | 2007-12-06 | Beers Ted W | Blended Space For Aligning Video Streams |
US20200225737A1 (en) * | 2017-07-11 | 2020-07-16 | Interdigital Ce Patent Holdings, Sas | Method, apparatus and system providing alternative reality environment |
CN109557998A (zh) * | 2017-09-25 | 2019-04-02 | 腾讯科技(深圳)有限公司 | 信息交互方法、装置、存储介质和电子装置 |
KR101955478B1 (ko) * | 2018-07-19 | 2019-03-08 | 주식회사 테크노블러드코리아 | 가상현실 장비의 콘텐츠 표시방법 |
US20200090401A1 (en) * | 2018-09-14 | 2020-03-19 | Facebook Technologies, Llc | Display opacity control for preventing view occlusion in artificial reality |
JP2020086630A (ja) * | 2018-11-19 | 2020-06-04 | 株式会社ポケット・クエリーズ | 作業補助システム、及びプログラム |
US20210019946A1 (en) * | 2019-07-15 | 2021-01-21 | Samsung Electronics Co., Ltd. | System and method for augmented reality scenes |
US20220080313A1 (en) * | 2020-09-04 | 2022-03-17 | Tencent Technology (Shenzhen) Company Limited | Virtual item control method and apparatus, terminal, and storage medium |
CN112711458A (zh) * | 2021-01-15 | 2021-04-27 | 腾讯科技(深圳)有限公司 | 虚拟场景中道具资源的展示方法及装置 |
CN114247141A (zh) * | 2021-11-09 | 2022-03-29 | 腾讯科技(深圳)有限公司 | 虚拟场景中任务引导方法、装置、设备、介质及程序产品 |
CN115175004A (zh) * | 2022-07-04 | 2022-10-11 | 闪耀现实(无锡)科技有限公司 | 用于视频播放的方法、装置、可穿戴设备及电子设备 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117131555A (zh) * | 2023-04-28 | 2023-11-28 | 荣耀终端有限公司 | 一种信息显示方法及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
US20240127564A1 (en) | 2024-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11231845B2 (en) | Display adaptation method and apparatus for application, and storage medium | |
CN109618212B (zh) | 信息显示方法、装置、终端及存储介质 | |
CN112068762B (zh) | 应用程序的界面显示方法、装置、设备及介质 | |
CN106791893A (zh) | 视频直播方法及装置 | |
US20140282204A1 (en) | Key input method and apparatus using random number in virtual keyboard | |
US11954464B2 (en) | Mini program production method and apparatus, terminal, and storage medium | |
KR102546510B1 (ko) | 복수의 입력 간에 매핑된 정보 제공 방법 및 이를 지원하는 전자 장치 | |
CN112416485A (zh) | 信息引导方法、装置、终端及存储介质 | |
KR20140061161A (ko) | 이동 단말기 및 이의 제어 방법 | |
CN112416207A (zh) | 信息内容显示方法、装置、设备及介质 | |
US20240127564A1 (en) | Interaction method and apparatus of virtual space, device, and medium | |
CN106464976B (zh) | 显示设备、用户终端设备、服务器及其控制方法 | |
KR20140102386A (ko) | 디스플레이장치 및 그 제어방법 | |
CN107979701B (zh) | 控制终端显示的方法及装置 | |
CN112965773A (zh) | 用于信息显示的方法、装置、设备和存储介质 | |
CN112416486A (zh) | 信息引导方法、装置、终端及存储介质 | |
KR20200125514A (ko) | 터치 패드 입력을 갖는 게임 컨트롤러 | |
CN115643445A (zh) | 交互处理方法、装置、电子设备及存储介质 | |
CN114371781A (zh) | 房产营销中的用户画像生成方法和系统 | |
CN106951171B (zh) | 虚拟现实头盔的控制方法和装置 | |
KR20170045101A (ko) | 콘텐트를 외부 장치와 공유하는 전자 장치 및 이의 콘텐트 공유 방법 | |
CN117742555A (zh) | 控件交互方法、装置、设备和介质 | |
CN117850655A (zh) | 信息输入方法、装置、设备和介质 | |
CN116088684A (zh) | 房产模型的浏览方法、装置、电子设备和可读存储介质 | |
CN117785344A (zh) | 提示信息的显示方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |