CN118038772A - 基于扩展现实的显示控制方法、装置、终端和存储介质 - Google Patents
基于扩展现实的显示控制方法、装置、终端和存储介质 Download PDFInfo
- Publication number
- CN118038772A CN118038772A CN202211369275.3A CN202211369275A CN118038772A CN 118038772 A CN118038772 A CN 118038772A CN 202211369275 A CN202211369275 A CN 202211369275A CN 118038772 A CN118038772 A CN 118038772A
- Authority
- CN
- China
- Prior art keywords
- node
- finger
- determining
- movement
- node position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 69
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000000007 visual effect Effects 0.000 claims abstract description 58
- 238000000926 separation method Methods 0.000 claims description 35
- 210000000988 bone and bone Anatomy 0.000 claims description 33
- 230000007423 decrease Effects 0.000 claims description 9
- 239000000758 substrate Substances 0.000 claims 1
- 210000003811 finger Anatomy 0.000 description 108
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 4
- 210000003813 thumb Anatomy 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000008602 contraction Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 210000000236 metacarpal bone Anatomy 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000003997 social interaction Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/30—Clipping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开提供基于扩展现实的显示控制方法、装置、终端和存储介质。本公开提供一种基于扩展现实的显示控制方法,包括:确定现实空间中用户的至少两个骨骼节点的节点位置;确定移动方向并基于至少两个所述骨骼节点的节点位置确定起始位置和移动距离;在扩展现实空间中,从所述起始位置沿所述移动方向移动所述移动距离作为最终位置;在扩展现实空间中的所述最终位置显示视觉元素。本公开实施例能够避免视觉元素与用户的身体重合。
Description
技术领域
本公开涉及扩展现实技术领域,尤其涉及一种基于扩展现实的显示控制方法、装置、终端和存储介质。
背景技术
扩展现实是指通过计算机将真实与虚拟相结合,打造一个可人机交互的虚拟环境,其可以包括虚拟现实、增强现实、混合现实等多种技术。在扩展现实中能够显示跟随用户的视觉元素。
发明内容
本公开提供一种基于扩展现实的显示控制方法、装置、终端和存储介质。
本公开采用以下的技术方案。
在一些实施例中,本公开提供一种基于扩展现实的显示控制方法,包括:
确定现实空间中用户的至少两个骨骼节点的节点位置;
确定移动方向并基于至少两个所述骨骼节点的节点位置确定起始位置和移动距离;
在扩展现实空间中,从所述起始位置沿所述移动方向移动所述移动距离作为最终位置;
在扩展现实空间中的所述最终位置显示视觉元素。
在一些实施例中,本公开提供一种基于扩展现实的显示控制装置,包括:
确定单元,用于确定现实空间中用户的至少两个骨骼节点的节点位置;
所述确定单元,还用于确定移动方向并基于至少两个所述骨骼节点的节点位置确定起始位置和移动距离;
所述确定单元,还用于在扩展现实空间中,从所述起始位置沿所述移动方向移动所述移动距离作为最终位置;
显示单元,用于在扩展现实空间中的所述最终位置显示视觉元素。。
在一些实施例中,本公开提供一种终端,包括:至少一个存储器和至少一个处理器;
其中,存储器用于存储程序代码,处理器用于调用所述存储器所存储的程序代码执行上述的方法。
在一些实施例中,本公开提供一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码在被计算机运行时,促使所述计算机执行上述中任一项所述的方法。
本公开提供一种基于扩展现实的显示控制方法,包括:确定现实空间中用户的至少两个骨骼节点的节点位置;确定移动方向并基于至少两个所述骨骼节点的节点位置确定起始位置和移动距离;在扩展现实空间中,从所述起始位置沿所述移动方向移动所述移动距离作为最终位置;在扩展现实空间中的所述最终位置显示视觉元素。本公开实施例能够避免视觉元素与用户的身体重合。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,元件和元素不一定按照比例绘制。
图1是本公开实施例的一种使用扩展现实设备的示意图。
图2是本公开实施例的一种基于扩展现实的显示控制方法流程图。
图3至图6是本公开实施例的骨骼节点的节点位置的示意图。
图7是本公开实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
以下将结合附图,对本申请实施例提供的方案进行详细描述。
扩展现实可以是虚拟现实、增强现实或混合现实中的至少一种。以扩展现实为虚拟现实为例,如图1所示,用户可以通过例如头戴式VR眼镜等智能终端设备进入虚拟现实空间,并在虚拟现实空间中控制自己的虚拟角色(Avatar)与其他用户控制的虚拟角色进行社交互动、娱乐、学习、远程办公等。
其中,虚拟现实空间可以是对真实世界的仿真环境,也可以是半仿真半虚构的虚拟场景,还可以是纯虚构的虚拟场景。虚拟场景可以是二维虚拟场景、2.5维虚拟场景或者三维虚拟场景中的任意一种,本申请实施例对虚拟场景的维度不加以限定。例如,虚拟场景可以包括天空、陆地、海洋等,该陆地可以包括沙漠、城市等环境元素,用户可以控制虚拟对象在该虚拟场景中进行移动。
在一个实施例中,在虚拟现实空间中,用户可以通过操作设备来实现相关的交互操作,该操作设备可以为手柄,例如用户通过对手柄的按键的操作来进行相关的操作控制。当然在另外的实施例中,也可以不使用控制器而使用手势或者语音或者多模态控制方式来对虚拟现实设备中的目标对象进行控制。
在本公开的一些实施例中,提出的控制方法可以用于虚拟现实设备,虚拟现实设备是实现虚拟现实效果的终端,通常可以提供为眼镜、头盔式显示器(Head MountDisplay,HMD)、隐形眼镜的形态,以用于实现视觉感知和其他形式的感知,当然虚拟现实设备实现的形态不限于此,根据需要可以进一步小型化或大型化。
本公开实施例记载的虚拟现实设备可以包括但不限于如下几个类型:
电脑端虚拟现实(PCVR)设备,利用PC端进行虚拟现实功能的相关计算以及数据输出,外接的电脑端虚拟现实设备利用PC端输出的数据实现虚拟现实的效果。
移动虚拟现实设备,支持以各种方式(如设置有专门的卡槽的头戴式显示器)设置移动终端(如智能手机),通过与移动终端有线或无线方式的连接,由移动终端进行虚拟现实功能的相关计算,并输出数据至移动虚拟现实设备,例如通过移动终端的APP观看虚拟现实视频。
一体机虚拟现实设备,具备用于进行虚拟功能的相关计算的处理器,因而具备独立的虚拟现实输入和输出的功能,不需要与PC端或移动终端连接,使用自由度高。
在虚拟现实设备能够呈现虚拟现实空间中的虚拟现实图像,虚拟现实设备的底层往往时使用安卓、IOS等操作系统,而显示的虚拟现实图像是无法直接进行触控操作的,因此通过虚拟现实图像所进行的操作事件无法被底层的系统直接执行。
本公开一些实施例中的扩展现实可以是AR(Augmented Reality,增强现实):AR布景是指至少一个虚拟对象叠加在物理布景或其表示之上的模拟布景。例如,电子系统可具有不透明显示器和至少一个成像传感器,成像传感器用于捕获物理布景的图像或视频,这些图像或视频是物理布景的表示。系统将图像或视频与虚拟对象组合,并在不透明显示器上显示该组合。个体使用系统经由物理布景的图像或视频间接地查看物理布景,并且观察叠加在物理布景之上的虚拟对象。当系统使用一个或多个图像传感器捕获物理布景的图像,并且使用那些图像在不透明显示器上呈现AR布景时,所显示的图像被称为视频透传。另选地,用于显示AR布景的电子系统可具有透明或半透明显示器,个体可通过该显示器直接查看物理布景。该系统可在透明或半透明显示器上显示虚拟对象,使得个体使用该系统观察叠加在物理布景之上的虚拟对象。又如,系统可包括将虚拟对象投影到物理布景中的投影系统。虚拟对象可例如在物理表面上或作为全息图被投影,使得个体使用该系统观察叠加在物理布景之上的虚拟对象。具体的,一种在相机采集图像的过程中,实时地计算相机在现实世界(或称三维世界、真实世界)中的相机姿态参数,根据该相机姿态参数在相机采集的图像上添加虚拟元素的技术。虚拟元素包括但不限于:图像、视频和三维模型。AR技术的目标是在屏幕上把虚拟世界套接在现实世界上进行互动。
本公开一些实施例中的扩展现实可以是MR(Mixed Reality,混合现实):通过在现实场景呈现虚拟场景信息,在现实世界、虚拟世界和用户之间搭起一个交互反馈的信息回路,以增强用户体验的真实感。例如,将计算机创建的感官输入(例如,虚拟对象)与来自物理布景的感官输入或其表示集成在模拟布景中,一些MR布景中,计算机创建的感官输入可以适应于来自物理布景的感官输入的变化。另外,用于呈现MR布景的一些电子系统可以监测相对于物理布景的取向和/或位置,以使虚拟对象能够与真实对象(即来自物理布景的物理元素或其表示)交互。例如,系统可监测运动,使得虚拟植物相对于物理建筑物看起来是静止的。
如图2所示,图2是本公开实施例的一种基于扩展现实的显示控制方法的流程图,可以用于扩展现实设备,例如虚拟现实设备,包括如下步骤。
S11:确定现实空间中用户的至少两个骨骼节点的节点位置。
一些实施例中,用户在使用扩展现实设备时执行本公开实施例中提出的方法。扩展现实空间中显示有视觉元素,例如控制面板,虚拟物件等。在扩展现实空间中显示的视觉元素的显示位置依赖于现实空间中用户的骨骼节点的位置,因此先获取至少两个骨骼节点的节点位置。骨骼节点例如可以是用户手部(包括手掌和手指)的骨骼节点。节点位置可以采用坐标确定。
S12:确定移动方向并基于至少两个骨骼节点的节点位置确定起始位置和移动距离。
一些实施例中,移动方向可以为预设方向,或者移动方向为基于至少两个骨骼节点的节点位置确定的方向;例如可以设置移动方向为垂直于用户的手掌的方向。一些实施例中,起始位置和移动距离为与至少两个骨骼节点的节点位置相关的,因此不同的骨骼节点对应的起始位置和移动距离可以是不同的。起始位置可以是预先与骨骼节点的节点位置绑定的。
S13:在扩展现实空间中,从起始位置沿移动方向移动移动距离作为最终位置。
S14:在扩展现实空间中的最终位置显示视觉元素。
一些实施例中,扩展现实空间中显示有视觉元素,视觉元素可以是与用户的骨骼节点的节点位置相关的。但是,如果仅仅只依赖于用户的骨骼节点的节点位置确定视觉元素的显示位置,例如,如果是将视觉元素的显示位置设定为从骨骼节点的节点位置叠加一定的偏移值,那么,视觉元素可能会与用户的其他肢体部分发生重叠,例如视觉元素的显示位置如果依赖于用户手部的骨骼节点,在手部握持张开等动作的情况下,可能会导致扩展现实空间中视觉元素与手部模型(可以是显示的真实手部或者用户对应的虚拟角色的手部)相互重叠穿插,为了避免出现视觉元素与手部模型相互重叠穿插。本公开实施例中,视觉元素的显示位置是依赖于至少两个骨骼节点的,在确定了起始位置后,特别的,确定了移动方向和移动距离,这样,视觉元素的显示位置是会随着至少两个骨骼节点的节点位置变化的,在起始位置的基础上,叠加上述的移动距离,这样,当有骨骼节点要与视觉元素重合时,视觉元素会随着移动距离调整其最终位置,最终位置与用户的身体不重叠。具体的,一些实施例中,结合力反馈原理,移动距离是与至少两个骨骼节点的间隔距离成反比的,至少两个骨骼节点的间隔距离越小,既至少两个骨骼节点相互靠近,则移动距离越大,从而将视觉元素移动到远离至少两个骨骼节点的位置,以避免视觉元素与至少两个骨骼节点相互重叠。
相关技术中,视觉元素绘制通常以固定的手部骨骼节点叠加偏移值作为显示位置,固定的显示位置绘制视觉元素无法规避手部骨骼变化带来的重叠问题,这种情况发生会导致视觉元素与手部模型叠加穿插。本公开一些实施例中,通过两个或多个骨骼节点(例如手部骨骼节点)的节点位置作为数据源,结合力反馈原理,计算获得一个区间为0%至100%的移动距离,视觉元素绘制在原固定位置(起始位置)的基础上叠加上述移动距离,这样当有骨骼节点要重合叠加时,视觉元素会随移动距离调整位置,使得视觉元素与用户的身体不重叠,进而解决重叠穿插问题。
在本公开的一些实施例中宏,基于至少两个骨骼节点的节点位置确定起始位置,包括:对至少两个骨骼节点的节点位置进行差值运算,基于差值运算的运算结果得到起始位置。
相关技术中,以骨骼节点叠加一定的偏移距离作为显示位置,这种技术存在的问题在于当追踪算法提供的位置不准确或者交互操作骨骼节点的节点位置不够稳定时,视觉元素会呈现出一种抖动状态,因此,本公开一些实施例为中检测了至少两个骨骼节点,并其采用了差值算法,从而使得两个骨骼节点的抖动产生的影响能够至少部分抵消,减少了视觉元素抖动的问题。
在本公开的一些实施例中,对至少两个骨骼节点的节点位置进行差值运算,基于至少两个骨骼节点的节点位置确定起始位置,包括:确定第一节点位置和第二节点位置连线上的第一中点作为起始位置,其中,至少两个骨骼节点的节点位置包括第一节点位置和第二节点位置。
一些实施例中,可以直接用第一节点位置和第二节点位置的中点作为视觉元素的起始位置,以减少由于检测精度导致的视觉元素抖动问题。
在本公开的一些实施例中,对至少两个骨骼节点的节点位置进行差值运算,基于至少两个骨骼节点的节点位置确定起始位置,包括:确定第一节点位置和第二节点位置连线上的第一中点,以及第三节点位置和第四节点位置连线上的第二中点,用第一中点和第二中点连线上的第三中点作为起始位置,其中,至少两个骨骼节点的节点位置包括第一节点位置、第二节点位置、第三节点位置和第四节点位置。
一些实施例中,骨骼节点为四个,此时用四个骨骼节点的中心位置作为起始位置,起始位置的抖动幅度可以明显得到减小,稳定的显示视觉元素。
在本公开的一些实施例中,至少两个骨骼节点为用户手部的骨骼节点,例如可以包括手掌骨骼节点和/或手指骨骼节点,一些实施例中,在扩展现实空间中,视觉元素跟随用户的手部,随着用户的手部的移动,视觉元素也会对应移动。
一些实施例中,至少两个骨骼节点的节点位置包括:手部上第一手指的第一节点位置和第二手指的第二节点位置;移动方向为从手部指向外侧的预设方向基于至少两个骨骼节点的节点位置确定移动距离,包括:确定第一节点位置和第二节点位置之间的第一间隔距离;基于第一间隔距离确定移动距离;其中,移动距离随第一间隔距离的减小而增大。
一些实施例中,请参考图3,如图3所示,食指上顶部为第一节点位置①,拇指顶部为第二节点位置②,移动方向可以是垂直于手掌的手掌朝向的方向,在检测到用户的第一节点位置和第二节点位置之后,确定两者之间的第一间隔距离,然后确定移动距离,具体的,可以预先确定第一间隔距离的最大值和最小值,并确定移动距离的最大值,在第一间隔距离为其最大值时,移动距离为0,在第一间隔距离为其最小值时,移动距离为最大值。一些实施例中,可以用第一间隔距离的最大值作为移动距离的最大值,此时,第一间隔距离每减小一定距离,则移动距离对应增加该一定距离。从而使得第一间隔距离与移动距离的和等于第一间隔距离的最大值。由于第一节点位置和第二节点位置之间的第一间隔距离减小时,视觉元素会向远离手掌的方向移动,因此视觉元素不会与手部重叠。
在本公开的一些实施例中,至少两个骨骼节点的节点位置包括:手部上第一手指的第一指部节点位置、第二手指的第二指部节点位置和掌部的掌部节点位置;确定移动方向,包括:确定第一指部节点位置和第二指部节点位置之间的第一中点,确定从掌部节点位置指向第一中点的方向为移动方向;基于至少两个骨骼节点的节点位置确定移动距离,包括:确定第一指部节点位置和第二指部节点位置之间的第一间隔距离;基于第一间隔距离确定移动距离;其中,移动距离随第一间隔距离的减小而增大。
一些实施例中,如图4所示,至少两个骨骼节点的节点位置包括图4中食指顶部的第一指部节点位置①、拇指顶部的第二指部节点位置②、手掌掌心的掌部节点位置④,连接第一指部节点位置①和第二指部节点位置②的连线,得到位于连线中点的第一中点③,连接掌部节点位置④与第一中点③的连线作为移动方向,根据第一指部节点位置①和第二指部节点位置②之间的第一间隔距离确定移动距离,第一中点③可以作为起始位置,在手掌张开的情况下,视觉元素位于第一中点③,在第一间隔距离减小时,视觉元素会沿着掌部节点位置④到第一中点③的方向移动,从而使得视觉元素不会与手部重叠,需要注意的是,第一中点③的位置是由当前手部的第一指部节点位置①和第二指部节点位置②确定的,因此第一中点③的位置是实时变化的,在握拳时,第一中点③与掌心之间具有垂直于掌心方向的高度差,因此视觉元素不会被手掌握住。
在本公开的一些实施例中,至少两个骨骼节点的节点位置包括:手部上第一手指的第一指部节点位置、第二手指的第二指部节点位置、第三手指的第三指部节点位置、第四手指的第四指部节点位置、第五手部的第五指部节点位置和掌部的掌部节点位置;移动方向包括平行于手掌的第一移动方向和垂直于手掌的第二移动方向;基于至少两个骨骼节点的节点位置确定移动距离,包括:基于第一指部节点位置、第二指部节点位置、第三指部节点位置、第四指部节点位置和第五指部节点位置分别与掌部节点位置的在第一方向的间隔距离确定第一移动距离,基于第一指部节点位置、第二指部节点位置、第三指部节点位置、第四指部节点位置和第五指部节点位置分别与掌部节点位置的在第二方向的间隔距离确定第二移动距离;在扩展现实空间中,从起始位置沿第一移动方向移动第一移动距离,沿第二移动方向移动第二移动距离作为最终位置。
一些实施例中,如图5所示,各个手指的顶部分别为第一指部节点位置①、第二手指的第二指部节点位置②、第三手指的第三指部节点位置③、第四手指的第四指部节点位置④、第五指部节点位置⑤和位于掌心的掌部节点位置⑥,分别确定各个指部节点到掌部节点位置⑥在第一移动方向(平行于手掌方向)的间隔距离,确定在第一移动方向的第一移动距离,具体的,间隔距离越小,第一移动距离越大,第一移动距离的最大值和最小值可以是预先决定的,第一移动距离的最大值和最小值是根据各个指部节点到掌部节点位置⑥在第一移动方向上的最小值和最大值确定的。分别确定各个指部节点到掌部节点位置⑥在第二移动方向(垂直于手掌方向,图5中点A到⑥的方向)间隔距离,确定在第二移动方向的第二移动距离,具体的,间隔距离越小,第二移动距离越大,第二移动距离的最大值和最小值可以是预先决定的,第二移动距离的最大值和最小值是根据各个指部节点到掌部节点位置⑥在第二移动方向上的最小值和最大值确定的。起始位置可以设置在掌心位置⑥在第二移动方向加上一定距离的位置,第一移动方向可以是第一到第五指部节点位置指向掌部节点位置的连线所确定的,例如第一移动方向可以是以下各个连线:①到⑥、②到⑥、③到⑥、④到⑥、⑤到⑥的连线所确定的,当指部节点位置沿第一方向靠近掌心节点位置时,视觉元素会沿第一方向远离掌心节点位置从而远离指部节点位置,同样的,当指部节点位置沿第二方向靠近掌心节点位置时,视觉元素会沿第二方向远离掌心节点位置从而远离指部节点位置,从而使得视觉元素不会与手部重叠。从起始位置沿第一移动方向移动第一移动距离,并沿第二移动方向移动第二移动距离作为最终位置。由此获得,移动方向为垂直掌面和平行掌面共同作用得到,视觉元素的显示位置的伸缩范围为0到100%的曲线变化的伸缩范围。
在本公开的一些实施例中,至少两个骨骼节点的节点位置包括:手部上第一手指的第一指部节点位置、第二手指的第二指部节点位置和掌部的第一掌部节点位置、第二掌部节点位置和第三掌部节点位置;确定移动方向,包括:确定第一指部节点位置和第二指部节点位置之间的第一中点,确定第一掌部节点位置和第二掌部节点位置之间的第二中点,确定第一中点和第二中点之间的第三中点,确定从第二中点指向第一中点的方向为第三移动方向,从第三掌部节点指向第三中点的方向为第四移动方向;基于至少两个骨骼节点的节点位置确定移动距离,包括:确定第一指部节点位置和第二指部节点位置之间的第一间隔距离;基于第一间隔距离确定移动距离;其中,移动距离随第一间隔距离的减小而增大;在扩展现实空间中,从起始位置沿第三移动方向移动移动距离,沿第四移动方向移动移动距离作为最终位置。
一些实施例中,如图6所示,食指顶部为第一指部节点位置①,拇指顶部为第二指部节点位置②,第一掌部节点位置③和第四掌部节点位置④可以分别是掌骨与拇指和小拇指连接的节点,第一中点⑤和第二中点⑥的连线中点为第三中点⑦,第二中点⑥到第一中点⑤的方向为第三移动方向,掌心为第三掌部节点位置⑧,第三掌部节点位置⑧指向第三中点⑦的方向为第四移动方向,由为第一指部节点位置①和第二指部节点位置②之间的第一间隔距离确定移动距离,从起始位置沿第三移动方向移动上述移动距离,并沿第四移动方向移动上述移动距离,从而到达最终位置。由此获得一个延展方向为⑥到⑤与⑧到⑦叠加,伸缩范围为0至100%的弧面伸缩范围。
相关技术中,视觉元素抖动问题的主要原因为固定位置变化过度依赖数据源精度,本公开一些在使用数据源过程增加差值运算,使得视觉元素绘制位置过程形成过渡变化,进而优化减少抖动问题。
相关技术中,在固定位置绘制视觉元素无法规避手部骨骼变化带来的重叠问题。本公开通过两个或多个手部骨骼节点的节点位置作为数据源,结合力反馈原理,计算获得一个区间为0~100%的伸缩范围,视觉元素绘制在起始位置的基础上叠加上述伸缩区间,这样当有骨骼节点要重合叠加时,视觉元素会随伸缩区间调整位置,进而解决重叠穿插问题。
本公开一些实施例中提出一种基于扩展现实的显示控制装置,包括:
确定单元,用于确定现实空间中用户的至少两个骨骼节点的节点位置;
确定单元,还用于确定移动方向并基于至少两个骨骼节点的节点位置确定起始位置和移动距离;
确定单元,还用于在扩展现实空间中,从起始位置沿移动方向移动移动距离作为最终位置;
显示单元,用于在扩展现实空间中的最终位置显示视觉元素。
对于装置的实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离模块说明的模块可以是或者也可以不是分开的。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上,基于实施例和应用例说明了本公开的方法及装置。此外,本公开还提供一种终端及存储介质,以下说明这些终端和存储介质。
下面参考图7,其示出了适于用来实现本公开实施例的电子设备(例如终端设备或服务器)800的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图中示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,电子设备800可以包括处理装置(例如中央处理器、图形处理器等)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储装置808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM803中,还存储有电子设备800操作所需的各种程序和数据。处理装置801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
通常,以下装置可以连接至I/O接口805:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置806;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置807;包括例如磁带、硬盘等的存储装置808;以及通信装置809。通信装置809可以允许电子设备800与其他设备进行无线或有线通信以交换数据。虽然图中示出了具有各种装置的电子设备800,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置809从网络上被下载和安装,或者从存储装置808被安装,或者从ROM 802被安装。在该计算机程序被处理装置801执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备执行上述的本公开的方法。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,提供了一种基于扩展现实的显示控制方法,包括:
确定现实空间中用户的至少两个骨骼节点的节点位置;
确定移动方向并基于至少两个所述骨骼节点的节点位置确定起始位置和移动距离;
在扩展现实空间中,从所述起始位置沿所述移动方向移动所述移动距离作为最终位置;
在扩展现实空间中的所述最终位置显示视觉元素。
根据本公开的一个或多个实施例,提供了一种基于扩展现实的显示控制方法,基于至少两个所述骨骼节点的节点位置确定起始位置,包括:
对所述至少两个骨骼节点的节点位置进行差值运算,基于所述差值运算的运算结果得到所述起始位置。
根据本公开的一个或多个实施例,提供了一种基于扩展现实的显示控制方法,对所述至少两个骨骼节点的节点位置进行差值运算,基于至少两个所述骨骼节点的节点位置确定起始位置,包括:
确定所述第一节点位置和第二节点位置连线上的第一中点作为所述起始位置,其中,所述至少两个骨骼节点的节点位置包括所述第一节点位置和第二节点位置;
或者,
确定所述第一节点位置和第二节点位置连线上的第一中点,以及第三节点位置和第四节点位置连线上的第二中点,用所述第一中点和第二中点连线上的第三中点作为所述起始位置,其中,所述至少两个骨骼节点的节点位置包括所述第一节点位置、第二节点位置、第三节点位置和第四节点位置。
根据本公开的一个或多个实施例,提供了一种基于扩展现实的显示控制方法,满足如下的至少一项:
所述移动方向为预设方向,或者所述移动方向为基于至少两个所述骨骼节点的节点位置确定的方向;
所述最终位置与所述用户的身体不重叠;
所述至少两个骨骼节点为用户手部的骨骼节点;
在所述扩展现实空间中,所述视觉元素跟随所述用户的手部。
根据本公开的一个或多个实施例,提供了一种基于扩展现实的显示控制方法,至少两个骨骼节点的节点位置包括:手部上第一手指的第一节点位置和第二手指的第二节点位置;
所述移动方向为从手部指向外侧的预设方向
基于至少两个所述骨骼节点的节点位置确定移动距离,包括:确定所述第一节点位置和所述第二节点位置之间的第一间隔距离;基于所述第一间隔距离确定所述移动距离;其中,所述移动距离随所述第一间隔距离的减小而增大。
根据本公开的一个或多个实施例,提供了一种基于扩展现实的显示控制方法,至少两个骨骼节点的节点位置包括:手部上第一手指的第一指部节点位置、第二手指的第二指部节点位置和掌部的掌部节点位置;
确定移动方向,包括:确定所述第一指部节点位置和第二指部节点位置之间的第一中点,确定从所述掌部节点位置指向所述第一中点的方向为移动方向;
基于至少两个所述骨骼节点的节点位置确定移动距离,包括:确定所述第一指部节点位置和所述第二指部节点位置之间的第一间隔距离;基于所述第一间隔距离确定所述移动距离;其中,所述移动距离随所述第一间隔距离的减小而增大。
根据本公开的一个或多个实施例,提供了一种基于扩展现实的显示控制方法,至少两个骨骼节点的节点位置包括:手部上第一手指的第一指部节点位置、第二手指的第二指部节点位置、第三手指的第三指部节点位置、第四手指的第四指部节点位置、第五手指的第五指部节点位置和掌部的掌部节点位置;
所述移动方向包括平行于手掌的第一移动方向和垂直于手掌的第二移动方向;
基于至少两个所述骨骼节点的节点位置确定移动距离,包括:基于第一指部节点位置、第二指部节点位置、第三指部节点位置、第四指部节点位置和第五指部节点位置分别与所述掌部节点位置的在第一方向的间隔距离确定第一移动距离,基于第一指部节点位置、第二指部节点位置、第三指部节点位置、第四指部节点位置和第五指部节点位置分别与所述掌部节点位置的在第二方向的间隔距离确定第二移动距离;
在扩展现实空间中,从所述起始位置沿所述第一移动方向移动第一移动距离,沿所述第二移动方向移动所述第二移动距离作为最终位置。
根据本公开的一个或多个实施例,提供了一种基于扩展现实的显示控制方法,至少两个骨骼节点的节点位置包括:手部上第一手指的第一指部节点位置、第二手指的第二指部节点位置和掌部的第一掌部节点位置、第二掌部节点位置和第三掌部节点位置;
确定移动方向,包括:确定所述第一指部节点位置和第二指部节点位置之间的第一中点,确定所述第一掌部节点位置和所述第二掌部节点位置之间的第二中点,确定所述第一中点和第二中点之间的第三中点,确定从所述第二中点指向所述第一中点的方向为第三移动方向,从所述第三掌部节点指向所述第三中点的方向为第四移动方向;
基于至少两个所述骨骼节点的节点位置确定移动距离,包括:确定所述第一指部节点位置和所述第二指部节点位置之间的第一间隔距离;基于所述第一间隔距离确定所述移动距离;其中,所述移动距离随所述第一间隔距离的减小而增大;
在扩展现实空间中,从所述起始位置沿所述第三移动方向移动所述移动距离,沿所述第四移动方向移动所述移动距离作为最终位置。
根据本公开的一个或多个实施例,提供了一种基于扩展现实的显示控制装置,包括:
确定单元,用于确定现实空间中用户的至少两个骨骼节点的节点位置;
所述确定单元,还用于确定移动方向并基于至少两个所述骨骼节点的节点位置确定起始位置和移动距离;
所述确定单元,还用于在扩展现实空间中,从所述起始位置沿所述移动方向移动所述移动距离作为最终位置;
显示单元,用于在扩展现实空间中的所述最终位置显示视觉元素。
根据本公开的一个或多个实施例,提供了一种终端,包括:至少一个存储器和至少一个处理器;
其中,所述至少一个存储器用于存储程序代码,所述至少一个处理器用于调用所述至少一个存储器所存储的程序代码执行上述中任一项所述的方法。
根据本公开的一个或多个实施例,提供了一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码在被计算机运行时,促使所述计算机执行上述中任一项所述的方法。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
Claims (11)
1.一种基于扩展现实的显示控制方法,其特征在于,包括:
确定现实空间中用户的至少两个骨骼节点的节点位置;
确定移动方向并基于至少两个所述骨骼节点的节点位置确定起始位置和移动距离;
在扩展现实空间中,从所述起始位置沿所述移动方向移动所述移动距离作为最终位置;
在扩展现实空间中的所述最终位置显示视觉元素。
2.根据权利要求1所述的方法,其特征在于,基于至少两个所述骨骼节点的节点位置确定起始位置,包括:
对所述至少两个骨骼节点的节点位置进行差值运算,基于所述差值运算的运算结果得到所述起始位置。
3.根据权利要求2所述的方法,其特征在于,对所述至少两个骨骼节点的节点位置进行差值运算,基于至少两个所述骨骼节点的节点位置确定起始位置,包括:
确定第一节点位置和第二节点位置连线上的第一中点作为所述起始位置,其中,所述至少两个骨骼节点的节点位置包括所述第一节点位置和第二节点位置;
或者,
确定所述第一节点位置和第二节点位置连线上的第一中点,以及第三节点位置和第四节点位置连线上的第二中点,用所述第一中点和第二中点连线上的第三中点作为所述起始位置,其中,所述至少两个骨骼节点的节点位置包括所述第一节点位置、第二节点位置、第三节点位置和第四节点位置。
4.根据权利要求1所述的方法,其特征在于,满足如下的至少一项:
所述移动方向为预设方向,或者所述移动方向为基于至少两个所述骨骼节点的节点位置确定的方向;
所述最终位置与所述用户的身体不重叠;
所述至少两个骨骼节点为用户手部的骨骼节点;
在所述扩展现实空间中,所述视觉元素跟随所述用户的手部。
5.根据权利要求1所述的方法,其特征在于,
至少两个骨骼节点的节点位置包括:手部上第一手指的第一节点位置和第二手指的第二节点位置;
所述移动方向为从手部指向外侧的预设方向
基于至少两个所述骨骼节点的节点位置确定移动距离,包括:确定所述第一节点位置和所述第二节点位置之间的第一间隔距离;基于所述第一间隔距离确定所述移动距离;其中,所述移动距离随所述第一间隔距离的减小而增大。
6.根据权利要求1所述的方法,其特征在于,至少两个骨骼节点的节点位置包括:手部上第一手指的第一指部节点位置、第二手指的第二指部节点位置和掌部的掌部节点位置;
确定移动方向,包括:确定所述第一指部节点位置和第二指部节点位置之间的第一中点,确定从所述掌部节点位置指向所述第一中点的方向为移动方向;
基于至少两个所述骨骼节点的节点位置确定移动距离,包括:确定所述第一指部节点位置和所述第二指部节点位置之间的第一间隔距离;基于所述第一间隔距离确定所述移动距离;其中,所述移动距离随所述第一间隔距离的减小而增大。
7.根据权利要求1所述的方法,其特征在于,至少两个骨骼节点的节点位置包括:手部上第一手指的第一指部节点位置、第二手指的第二指部节点位置、第三手指的第三指部节点位置、第四手指的第四指部节点位置、第五手指的第五指部节点位置和掌部的掌部节点位置;
所述移动方向包括平行于手掌的第一移动方向和垂直于手掌的第二移动方向;
基于至少两个所述骨骼节点的节点位置确定移动距离,包括:基于第一指部节点位置、第二指部节点位置、第三指部节点位置、第四指部节点位置和第五指部节点位置分别与所述掌部节点位置的在第一方向的间隔距离确定第一移动距离,基于第一指部节点位置、第二指部节点位置、第三指部节点位置、第四指部节点位置和第五指部节点位置分别与所述掌部节点位置的在第二方向的间隔距离确定第二移动距离;
在扩展现实空间中,从所述起始位置沿所述第一移动方向移动第一移动距离,沿所述第二移动方向移动所述第二移动距离作为最终位置。
8.根据权利要求1所述的方法,其特征在于,至少两个骨骼节点的节点位置包括:手部上第一手指的第一指部节点位置、第二手指的第二指部节点位置和掌部的第一掌部节点位置、第二掌部节点位置和第三掌部节点位置;
确定移动方向,包括:确定所述第一指部节点位置和第二指部节点位置之间的第一中点,确定所述第一掌部节点位置和所述第二掌部节点位置之间的第二中点,确定所述第一中点和第二中点之间的第三中点,确定从所述第二中点指向所述第一中点的方向为第三移动方向,从所述第三掌部节点指向所述第三中点的方向为第四移动方向;
基于至少两个所述骨骼节点的节点位置确定移动距离,包括:确定所述第一指部节点位置和所述第二指部节点位置之间的第一间隔距离;基于所述第一间隔距离确定所述移动距离;其中,所述移动距离随所述第一间隔距离的减小而增大;
在扩展现实空间中,从所述起始位置沿所述第三移动方向移动所述移动距离,沿所述第四移动方向移动所述移动距离作为最终位置。
9.一种基于扩展现实的显示控制装置,包括:
确定单元,用于确定现实空间中用户的至少两个骨骼节点的节点位置;
所述确定单元,还用于确定移动方向并基于至少两个所述骨骼节点的节点位置确定起始位置和移动距离;
所述确定单元,还用于在扩展现实空间中,从所述起始位置沿所述移动方向移动所述移动距离作为最终位置;
显示单元,用于在扩展现实空间中的所述最终位置显示视觉元素。
10.一种终端,包括:
至少一个存储器和至少一个处理器;
其中,所述至少一个存储器用于存储程序代码,所述至少一个处理器用于调用所述至少一个存储器所存储的程序代码执行权利要求1至8中任一项所述的方法。
11.一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码在被计算机运行时,促使所述计算机执行权利要求1至8中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211369275.3A CN118038772A (zh) | 2022-11-03 | 2022-11-03 | 基于扩展现实的显示控制方法、装置、终端和存储介质 |
US18/501,322 US20240153211A1 (en) | 2022-11-03 | 2023-11-03 | Methods, apparatuses, terminals and storage media for display control based on extended reality |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211369275.3A CN118038772A (zh) | 2022-11-03 | 2022-11-03 | 基于扩展现实的显示控制方法、装置、终端和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118038772A true CN118038772A (zh) | 2024-05-14 |
Family
ID=90927954
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211369275.3A Pending CN118038772A (zh) | 2022-11-03 | 2022-11-03 | 基于扩展现实的显示控制方法、装置、终端和存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20240153211A1 (zh) |
CN (1) | CN118038772A (zh) |
-
2022
- 2022-11-03 CN CN202211369275.3A patent/CN118038772A/zh active Pending
-
2023
- 2023-11-03 US US18/501,322 patent/US20240153211A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20240153211A1 (en) | 2024-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111488056A (zh) | 使用被跟踪的物理对象来操纵虚拟对象 | |
CN110717993A (zh) | 一种分体式ar眼镜系统的交互方法、系统及介质 | |
CN114116081B (zh) | 交互式动态流体效果处理方法、装置及电子设备 | |
CN118038772A (zh) | 基于扩展现实的显示控制方法、装置、终端和存储介质 | |
CN118057466A (zh) | 基于扩展现实的控制方法、装置、电子设备和存储介质 | |
US20240028130A1 (en) | Object movement control method, apparatus, and device | |
CN118244879A (zh) | 对象移动控制方法、装置、设备及介质 | |
WO2024131405A1 (zh) | 对象移动控制方法、装置、设备及介质 | |
US20240078734A1 (en) | Information interaction method and apparatus, electronic device and storage medium | |
CN117991889A (zh) | 信息交互方法、装置、电子设备和存储介质 | |
US20240046588A1 (en) | Virtual reality-based control method, apparatus, terminal, and storage medium | |
CN115981544A (zh) | 基于扩展现实的交互方法、装置、电子设备和存储介质 | |
CN117994284A (zh) | 碰撞检测方法、装置、电子设备和存储介质 | |
CN117331432A (zh) | 基于虚拟现实的控制方法、装置、终端和存储介质 | |
CN117806448A (zh) | 一种数据处理方法、装置、设备及介质 | |
CN117075770A (zh) | 基于扩展现实的交互控制方法、装置、电子设备和存储介质 | |
CN117640919A (zh) | 基于虚拟现实空间的图片显示方法、装置、设备及介质 | |
CN114757815A (zh) | 动态流体显示方法、装置、电子设备和可读介质 | |
CN117572994A (zh) | 虚拟对象的显示处理方法、装置、设备及介质 | |
CN117631810A (zh) | 基于虚拟现实空间的操作处理方法、装置、设备及介质 | |
CN117899456A (zh) | 二维组件的显示处理方法、装置、设备及介质 | |
CN117641026A (zh) | 基于虚拟现实空间的模型显示方法、装置、设备及介质 | |
CN117641025A (zh) | 基于虚拟现实空间的模型显示方法、装置、设备及介质 | |
CN117687499A (zh) | 虚拟对象交互处理方法、装置、设备及介质 | |
CN117636528A (zh) | 基于虚拟现实空间的投票处理方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |