CN117572994A - 虚拟对象的显示处理方法、装置、设备及介质 - Google Patents
虚拟对象的显示处理方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN117572994A CN117572994A CN202210946284.8A CN202210946284A CN117572994A CN 117572994 A CN117572994 A CN 117572994A CN 202210946284 A CN202210946284 A CN 202210946284A CN 117572994 A CN117572994 A CN 117572994A
- Authority
- CN
- China
- Prior art keywords
- model
- indication
- virtual
- current
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 15
- 238000000034 method Methods 0.000 claims abstract description 31
- 230000004044 response Effects 0.000 claims abstract description 22
- 238000012790 confirmation Methods 0.000 claims abstract description 16
- 238000012545 processing Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 11
- 230000003993 interaction Effects 0.000 description 32
- 230000002452 interceptive effect Effects 0.000 description 32
- 230000006870 function Effects 0.000 description 26
- 238000010586 diagram Methods 0.000 description 11
- 238000009877 rendering Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 230000009471 action Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 239000000725 suspension Substances 0.000 description 4
- 230000000763 evoking effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开实施例涉及一种虚拟对象的显示处理方法、装置、设备及介质,其中该方法包括:响应于接收到移动开启操作,在虚拟现实空间中显示位置指示模型,其中,位置指示模型用于指示在当前虚拟场景中的指示位置;响应于接收到移动确认操作,确定位置指示模型的当前指示位置;在当前指示位置位于当前虚拟场景对应的观看区域时,控制对应的虚拟对象在当前指示位置显示。本公开的实施例中,实现了在虚拟现实空间中模拟现实中观看位置的切换,提升了虚拟显示空间中的真实体验感。
Description
技术领域
本公开涉及虚拟现实技术领域,尤其涉及一种虚拟对象的显示处理方法、装置、设备及介质。
背景技术
虚拟现实(Virtual Reality,VR)技术,又称虚拟环境、灵境或人工环境,是指利用计算机生成一种可对参与者直接施加视觉、听觉和触觉感受,并允许其交互地观察和操作的虚拟世界的技术。提升VR真实感以使得虚拟现实空间和真实物理空间的体验感相似,成为一种主流。
相关技术中,可基于虚拟现实技术实现线上演唱会等直播内容的观看,在虚拟空间中用户可以观看到如现实现场会一般的演唱会。
然而,现有技术无法满足用户在观看VR视频过程中的观看位置的切换需求,影响了用户的VR使用体验。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本公开提供了一种虚拟对象的显示处理方法、装置、设备及介质,实现了在虚拟现实空间中模拟现实中观看位置的切换,提升了虚拟现实空间中的真实体验感。
本公开实施例提供了一种虚拟对象的显示处理方法,所述方法包括以下步骤:响应于接收到移动开启操作,在虚拟现实空间中显示位置指示模型,其中,所述位置指示模型用于指示在当前虚拟场景中的指示位置;响应于接收到移动确认操作,确定所述位置指示模型的当前指示位置;在所述当前指示位置位于所述当前虚拟场景对应的观看区域时,控制对应的虚拟对象在所述当前指示位置显示。
本公开实施例还提供了一种虚拟对象的显示处理装置,所述装置包括:第一显示模块,用于响应于接收到移动开启操作,在虚拟现实空间中显示位置指示模型,其中,所述位置指示模型用于指示在当前虚拟场景中的指示位置;确定模块,用于响应于接收到移动确认操作,确定所述位置指示模型的当前指示位置;第二显示模块,用于在所述当前指示位置位于所述当前虚拟场景对应的观看区域时,控制对应的虚拟对象在所述当前指示位置显示。
本公开实施例还提供了一种电子设备,所述电子设备包括:处理器;用于存储所述处理器可执行指令的存储器;所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现如本公开实施例提供的虚拟对象的显示处理方法。
本公开实施例还提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行如本公开实施例提供的虚拟对象的显示处理方法。
本公开实施例提供的技术方案与现有技术相比具有如下优点:
本公开实施例提供的虚拟对象的显示处理方案,响应于接收到移动开启操作,在虚拟现实空间中显示位置指示模型,其中,位置指示模型用于指示在当前虚拟场景中的指示位置,响应于接收到移动确认操作,确定位置指示模型的当前指示位置,进而,在当前指示位置位于当前虚拟场景对应的观看区域时,控制对应的虚拟对象在当前指示位置显示。本公开的实施例中,实现了在虚拟现实空间中模拟现实中观看位置的切换,提升了虚拟显示空间中的真实体验感。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1为本公开实施例提供的一种虚拟现实设备的应用场景示意图;
图2为本公开实施例提供的一种虚拟对象的显示处理方法的流程示意图;
图3为本公开实施例提供的一种位置指示模型的示意图;
图4为本公开实施例提供的另一种位置指示模型的示意图;
图5为本公开实施例提供的一种虚拟对象的显示交互场景;
图6为本公开实施例提供的一种位置指示模型的显示场景示意图;
图7为本公开实施例提供的一种虚拟对象的显示处理装置的结构示意图;
图8为本公开实施例提供的一种区域范围标识的场景示意图;
图9为本公开实施例提供的一种虚拟对象的显示处理装置;
图10为本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
对本文中涉及到的一些技术概念或者名词概念进行相关说明:
虚拟现实设备,实现虚拟现实效果的终端,通常可以提供为眼镜、头盔式显示器(Head Mount Display,HMD)、隐形眼镜的形态,以用于实现视觉感知和其他形式的感知,当然虚拟现实设备实现的形态不限于此,根据需要可以进一步小型化或大型化。
本公开实施例记载的虚拟现实设备可以包括但不限于如下几个类型:
电脑端虚拟现实(PCVR)设备,利用PC端进行虚拟现实功能的相关计算以及数据输出,外接的电脑端虚拟现实设备利用PC端输出的数据实现虚拟现实的效果。
移动虚拟现实设备,支持以各种方式(如设置有专门的卡槽的头戴式显示器)设置移动终端(如智能手机),通过与移动终端有线或无线方式的连接,由移动终端进行虚拟现实功能的相关计算,并输出数据至移动虚拟现实设备,例如通过移动终端的APP观看虚拟现实视频。
一体机虚拟现实设备,具备用于进行虚拟功能的相关计算的处理器,因而具备独立的虚拟现实输入和输出的功能,不需要与PC端或移动终端连接,使用自由度高。
虚拟对象,虚拟场景中进行交互的对象,受到用户或机器人程序(例如,基于人工智能的机器人程序)的控制,能够在虚拟场景中静止、移动以及进行各种行为的对象,例如直播场景下的用户对应的虚拟人。
如图1所示,HMD为相对较轻的、在人体工程学上舒适的,并且提供具有低延迟的高分辨率内容。虚拟现实设备中设置有姿态检测的传感器(如九轴传感器),用于实时检测虚拟现实设备的姿态变化,如果用户佩戴了虚拟现实设备,那么当用户头部姿态发生变化时,会将头部的实时姿态传给处理器,以此计算用户的视线在虚拟环境中的注视点,根据注视点计算虚拟环境的三维模型中处于用户注视范围(即虚拟视场)的图像,并在显示屏上显示,使人仿佛在置身于现实环境中观看一样的沉浸式体验。
本实施例中,当用户佩戴HMD设备并打开预定的应用程序时,如视频直播应用程序时,HMD设备会运行相应的虚拟场景,该虚拟场景可以是对真实世界的仿真环境,也可以是半仿真半虚构的虚拟场景,还可以是纯虚构的虚拟场景。虚拟场景可以是二维虚拟场景、2.5维虚拟场景或者三维虚拟场景中的任意一种,本申请实施例对虚拟场景的维度不加以限定。例如,虚拟场景可以包括人物、天空、陆地、海洋等,该陆地可以包括沙漠、城市等环境元素,用户可以控制虚拟对象在该虚拟场景中进行移动,还可以通过手柄设备、裸手手势等方式来对虚拟场景中的控件、模型、展示内容、人物等等进行交互控制。
正如以上提到的,在虚拟现实空间中,若是用户具有观看位置切换需求,比如,用户在观看虚拟现实空间的演唱会时,若是具有从舞台左侧切换到右侧观看的需求,则无法得到满足。
为了解决上述问题,本公开实施例提供了一种虚拟对象的显示处理方法,下面结合具体的实施例对该方法进行介绍。
图2为本公开实施例提供的一种虚拟对象的显示处理方法的流程示意图,该方法可以由虚拟对象的显示处理装置执行,其中该装置可以采用软件和/或硬件实现,一般可集成在电子设备中。如图2所示,该方法包括:
步骤201,响应于接收到移动开启操作,在虚拟现实空间中显示位置指示模型,其中,位置指示模型用于指示在当前虚拟场景中的指示位置。
其中,移动开启操作用于调用移动虚拟对象的功能,其中,虚拟对象为观看虚拟现实空间的用户在虚拟空间中的映射模型,虚拟对象可以为任意样式,在此不一一列举。每个佩戴虚拟现实设备的用户在虚拟现实空间中具有对应的虚拟对象。
需要说明的是,在不同的应用场景中,移动开启操作的操作方式不同,示例如下:
在一些可能的实施例中,用户可通过操控设备(如手柄设备等)上的预置按钮执行移动开启操作。
在一些可能的实施例中,可监测摄像头对用户拍摄的图像信息,然后根据图像信息中的用户手部或用户手持设备(如手柄),判断是否符合显示交互组件模型(用于交互的组件模型,交互组件模型各自预先绑定有交互功能事件)的预设条件,若判定符合显示交互组件模型的预设条件,则在虚拟现实空间中显示至少一交互组件模型,最后通过识别用户手部或用户手持设备的动作信息,执行用户所选的交互组件模型预先绑定的交互功能事件。
例如,可利用摄像头拍摄用户手部图像或用户手持设备图像,并基于图像识别技术对该图像中的用户手部手势或手持设备位置变化进行判断,若判定用户手部或用户手持设备抬起一定幅度,使得在虚拟现实空间中映射的用户虚拟手部或虚拟手持设备进入到用户当前的视角范围内,则可在虚拟现实空间中唤起显示交互组件模型。
在唤出如悬浮球形式的交互组件模型后,根据后续监测到的用户手部图像或用户手持设备图像,通过识别用户手部或用户手持设备的位置,映射到虚拟现实空间中,确定相应点击标志的空间位置,如果该点击标志的空间位置与显示的这些交互组件模型中的目标交互组件模型的空间位置匹配,则确定目标交互组件模型为用户所选的交互组件模型;最后执行目标交互组件模型预先绑定的交互功能事件。
用户可通过左手的手柄抬起来唤起显示如悬浮球形式的交互组件模型,然后通过移动右手的手柄位置选择点击其中的交互组件。在VR设备侧,会根据用户的手柄图像,通过识别右手手柄的位置,映射到虚拟现实空间中,确定相应点击标志的空间位置,如果该点击标志的空间位置与“开启移动”的交互组件模型的空间位置匹配,则用户点击了“开启移动”,执行“开启移动”的交互组件模型预先绑定的交互功能事件,即相当于执行了移动开启操作。
在本公开的一个实施例中,为了便于直观的指示虚拟对象可能的切换位置,在虚拟现实空间中显示位置指示模型,其中,位置指示模型用于指示在当前虚拟场景中的指示位置。
需要说明的是,位置指示模型可以为任意可实现指示位置提示的模型样式,下面示例说明:
在一些可能的实施例中,如图3所示,位置指示模型为射线轨迹模型,射线轨迹模型的起点可以为用户手部或用户手持设备(如手柄)在虚拟现实空间中对应的位置,通过射线轨迹模型的轨迹终点指示在当前虚拟场景中的指示位置。
在一些可能的实施例中,如图4所示,位置指示模型为提示图标,通过提示图标来指示位置指示模型的当前指示位置,其中,图中的提示图标以圆形为示例,在实际执行过程中,提示图标可以为任意样式。
需要强调的是,本公开实施例中的显示位置指示模型的指示位置是可调节的,因此,用户通过调节显示位置指示模型即可实现对指示位置的调节,从而,便于后续将虚拟对象切换到对应的指示位置显示。
在本公开的一个实施例中,接收对位置指示模型的指示位置调节操作,其中,在不同的应用场景中,对位置指示模型的指示位置调节操作的方式不同,示例如下:
在一些可能的示例中,若是通过操控设备(如手柄设备等)来控制位置指示模型的指示位置,比如,通过操控设备有控件的操作,实现控制位置指示模型的指示位置“前后左右”移动等,其中,由于控制位置指示模型是可视化的,因此整个移动过程比较直观,便于用户根据需求选择虚拟对象的移动位置。
在一些可能的示例中,可提出无需借助实体设备按钮进行VR操控的改进方案,可改善由于实体设备按钮容易损坏,进而会容易影响到用户操控的技术问题。
在本示例中,可监测摄像头对用户拍摄的图像信息,然后根据图像信息中的用户手部或用户手持设备(如手柄),判断是否符合显示交互组件模型(用于交互的组件模型,交互组件模型各自预先绑定有交互功能事件)的预设条件,若判定符合显示交互组件模型的预设条件,则在虚拟现实空间中显示至少一交互组件模型,最后通过识别用户手部或用户手持设备的动作信息,执行用户所选的交互组件模型预先绑定的交互功能事件。
例如,可利用摄像头拍摄用户手部图像或用户手持设备图像,并基于图像识别技术对该图像中的用户手部手势或手持设备位置变化进行判断,若判定用户手部或用户手持设备抬起一定幅度,使得在虚拟现实空间中映射的用户虚拟手部或虚拟手持设备进入到用户当前的视角范围内,则可在虚拟现实空间中唤起显示交互组件模型。如图5所示,基于图像识别技术,用户抬起手持设备可唤出如悬浮球形式的交互组件模型,其中,每个悬浮球各自代表一种操控功能,用户可基于悬浮球功能进行交互。继续如图5所示,这些悬浮球1、2、3、4具体可对应:“向前移动”、“向后移动”、“向左移动”、“向右移动”等交互组件模型。
在唤出如悬浮球形式的交互组件模型后,根据后续监测到的用户手部图像或用户手持设备图像,通过识别用户手部或用户手持设备的位置,映射到虚拟现实空间中,确定相应点击标志的空间位置,如果该点击标志的空间位置与显示的这些交互组件模型中的目标交互组件模型的空间位置匹配,则确定目标交互组件模型为用户所选的交互组件模型;最后执行目标交互组件模型预先绑定的交互功能事件。比如,控制位置指示模型的指示位置向前移动等,每次点击“向前移动”的交互组件模型,则控制位置指示模型的指示位置在虚拟现实空间中向前移动单位距离等。
在一些可选的实施例中,可获取在虚拟现实空间中对位置指示模型的选中操作,在识别到选中操作后,根据用户手部或者是用户手持设备(如手柄)的移动动作控制位置指示模型跟随移动,在检测到释放操作后,将位置指示模型在当前释放位置显示,以实现指示位置的改变等。其中,跟随移动可以包括“上下左右”移动等,具体跟随移动的实现过程可以是识别用户手持设备(如手柄)的移动位移,将该移动位移归一化处理后,映射到虚拟现实空间中,以根据归一化处理后的位移控制位置指示模型的指示位置的调节等。
在实际执行过程中,为了进一步保证虚拟对象进行显示位置切换时的直观性,在位置指示模型的实时指示位置上,实时显示指示位置标识,其中,实时显示指示位置标识用于在视觉上进一步强调实时指示位置,指示位置标识包括但不限于颜色、动画、形状、图案等中的一种或多种的组合。
在一些可能的实施例中,如图6所示,在如图3所示的场景下,指示位置标识可以为射线轨迹模型终点的“圆点”,由此,基于“圆点”强调出射线轨迹模型的实时指示位置。
步骤202,响应于接收到移动确认操作,确定位置指示模型的当前指示位置。
可以理解的是,在接收到移动确认操作后,则认为接收到虚拟对象的移动确认指令,从而,响应于接收到移动确认操作,确定位置指示模型的当前指示位置,以便于后续判断是否将虚拟对象移动到当前指示位置。
需要说明的是,在不同的应用场景中,移动确认操作的操作方式不同,示例说明如下:
在一些可能的实施例中,用户可通过操控设备(如手柄设备等)上的预置按钮执行移动确认操。
在一些可能的实施例中,可监测摄像头对用户拍摄的图像信息,然后根据图像信息中的用户手部或用户手持设备(如手柄),判断是否符合显示交互组件模型(用于交互的组件模型,交互组件模型各自预先绑定有交互功能事件)的预设条件,若判定符合显示交互组件模型的预设条件,则在虚拟现实空间中显示至少一交互组件模型,最后通过识别用户手部或用户手持设备的动作信息,执行用户所选的交互组件模型预先绑定的交互功能事件。
例如,可利用摄像头拍摄用户手部图像或用户手持设备图像,并基于图像识别技术对该图像中的用户手部手势或手持设备位置变化进行判断,若判定用户手部或用户手持设备抬起一定幅度,使得在虚拟现实空间中映射的用户虚拟手部或虚拟手持设备进入到用户当前的视角范围内,则可在虚拟现实空间中唤起显示交互组件模型。
在唤出如悬浮球形式的交互组件模型后,根据后续监测到的用户手部图像或用户手持设备图像,通过识别用户手部或用户手持设备的位置,映射到虚拟现实空间中,确定相应点击标志的空间位置,如果该点击标志的空间位置与显示的这些交互组件模型中的目标交互组件模型的空间位置匹配,则确定目标交互组件模型为用户所选的交互组件模型;最后执行目标交互组件模型预先绑定的交互功能事件。
用户可通过左手的手柄抬起来唤起显示如悬浮球形式的交互组件模型,然后通过移动右手的手柄位置选择点击其中的交互组件。在VR设备侧,会根据用户的手柄图像,通过识别右手手柄的位置,映射到虚拟现实空间中,确定相应点击标志的空间位置,如果该点击标志的空间位置与“确定移动”的交互组件模型的空间位置匹配,则用户点击了“确定移动”,执行“确定移动”的交互组件模型预先绑定的交互功能事件,即相当于执行了移动确认操作。
步骤203,在当前指示位置位于当前虚拟场景对应的观看区域时,控制对应的虚拟对象在当前指示位置显示。
在本公开的一个实施例中,可以理解的是,当前虚拟场景中包含了至少一个观看区域,虚拟对象位于观看区域时可以观看到当前虚拟场景中的有关视频流等,其中,在不同的应用场景中,对应的观看区域的位置或者范围可能稍有不同,具体可根据场景设定,具体确定方式参见后续实施例,若是当前虚拟场景为线上演唱会场景,则对应的观看区域可以理解为在虚拟现实空间中观看线上演唱会的观看席位等。
在本实施例中,为了提升观看位置切换的真实感,只有在当前指示位置位于当前虚拟场景对应的观看区域时,才认为这次移动是有效的,以控制对应的虚拟对象在当前指示位置显示。以模拟在现实世界中用户只能在规定好的观看席上观看等。
其中,控制虚拟对象在当前指示位置显示时,对应的用户基于虚拟现实设备可以看到虚拟对象在当前指示位置观看到的虚拟画面,即确定当前指示位置下的视场范围,在虚拟现实设备中实时显示视场范围内的虚拟画面等。其他佩戴虚拟现实设备的用户可以看到位于当前指示位置下的虚拟对象,本虚拟对象对应的佩戴虚拟现实设备的用户,可以通过改变佩戴虚拟现实设备的观看角度看到本虚拟对象的部分的,以模拟真实世界中的真实观看效果。
综上,本公开实施例的虚拟对象的显示处理方法,响应于接收到移动开启操作,在虚拟现实空间中显示位置指示模型,其中,位置指示模型用于指示在当前虚拟场景中的指示位置,响应于接收到移动确认操作,确定位置指示模型的当前指示位置,进而,在当前指示位置位于当前虚拟场景对应的观看区域时,控制对应的虚拟对象在当前指示位置显示。本公开的实施例中,实现了在虚拟现实空间中模拟现实中观看位置的切换,提升了虚拟显示空间中的真实体验感。
基于上述实施例,在实际执行过程中,为了在不同的角度渲染虚拟现实场景中的视频流画面,预先在显示视频流的舞台模型的预设方位搭建渲染画布,以对应方位的渲染画布上渲染对应的视频流画面,舞台模型中也搭建了画布,在对应的画布上渲染“主机位”拍摄的视频流画面,预设方位下的画布提供“副机位”视频流画面。即如图7所示,可以在舞台模型的周围的预设方位下设置多个观看区域,每个观看区域可基于对应的渲染画布观看到对应角度下的视频流画面,以实现“主机位”和“副机位”观看效果。
通常在搭建渲染虚拟场景时,“主机位”和“副机位”的位置是固定的,即对舞台模型中的视频流拍摄的角度是不变的,观看区域在“副机位”的渲染画布所在方位设置,以保证对应的观看区域内的虚拟对象可以观看到对应视角下的视频流画面。
然而,“副机位”的渲染画布所在方位下,在不同虚拟场景中存在的场景元素模型可能不同,其中,场景元素模型是当前虚拟场景中的构建元素,比如,有的时候场景元素模型为“楼房”,有的时候场景元素模型为“山”等,而显然在“楼房”可站立观看区域和在“山”上可站立观看区域是有区别的。
因此,在本公开的一个实施例中,确定与当前虚拟场景对应的观看区域,该观看区域与当前虚拟场景对应,其中,可直接查询预设数据库确定对应的观看区域,也可以在当前虚拟场景中确定满足预设观看条件的场景元素模型,进而,在场景元素模型上确定观看区域,即根据具体地场景元素模型来确定观看区域,进一步提升真实感,避免虚拟对象显示在“楼顶”之外等脱离真实感的观看场景的存在。
需要说明的是,在不同的应用场景中,在当前虚拟场景中确定满足预设观看条件的场景元素模型的方式不同,示例如下:
在一些可能的实施例中,预先存储每个虚拟场景对应的观看场景元素标识,该观看场景元素标识为观看区域的场景元素模型的标识信息,获取当前虚拟场景中每个场景元素模型的元素标识,以确定与预先存储的观看场景元素标识匹配的元素标识对应的场景元素模型,为满足预设观看条件的场景元素模型。
在一些可能的实施例中,当在虚拟现实场景中,包含当前虚拟场景中播放对应的视频流的舞台模型时,确定位于舞台模型的预设方位的场景元素模型,即确定位于“副机位”的渲染画布对应的观看席位所在方位的场景元素模型为满足预设观看条件的场景元素模型,该预设方位包括距离舞台模型的距离和角度等。
在本实施例中,可识别场景元素模型的元素类型,确定与预设方位对应的观看视场角,该观看视场角可理解为对应的“副机位”的渲染画布可被观看到的视场角范围,在场景元素模型中确定与观看视场角对应的观看区域,由此,保证观看区域位于“副机位”的渲染画布可被观看到的视场角范围内,且在场景元素模型上,在保证观看效果的基础上,提升了虚拟对象的观看真实感。
在本实施例中,考虑到有些场景元素模型即使位于观看视场角的范围内,但是也不能看作观看区域的一部分,比如,若是场景元素模型为“楼房”,则观看区域应当位于“楼顶”,而不是在“楼体表面”,虚拟对象若是在“楼体表面”上显示,则显然较为违和,观看区域只能位于“楼顶”。
在本公开的一个实施例中,在对应的场景元素模型中确定参考观看模型区域,即确定符合现实的“观看区域”,比如,若是场景元素模型为“山”,则观看区域为“山顶”等。其中,可将场景元素模型输入预先学习到的深度学习模型,以得到深度学习模型输出的参考观看模型区域,进而,在参考观看模型区域中确定与观看视场角对应的观看区域。
进一步地,在确定观看区域后,在当前虚拟场景中显示对应的观看区域的区域范围标识,其中,区域范围标识用于指示观看区域的区域范围,区域范围标识包括形状、文字、动画、颜色等中的一种或多种的组合。
在一些可能的实施例中,如图8所示,区域范围标识可以为多个圆环组成的动画模型,用户可基于区域范围标识快速调节虚拟对象的位置。
其中,在上述实施例中,虚拟场景类型切换可以是响应于接收到的场景切换指令后切换的,也可以是在识别到当前虚拟场景中播放的视频流的类型发生变化时,根据变化后的视频流切换的,由此,可根据播放视频流适应性的切换虚拟现实场景,提升了虚拟显示场景的智能感。比如,在线上演唱会时,若是当前播放的视频流对应的歌曲为A,则显示的虚拟场景为与A的曲风符合的虚拟场景,若是歌曲切换为B,则显示的虚拟场景切换为与B的曲风符合的虚拟场景等。
综上,本公开实施例的虚拟对象的显示处理方法,可在虚拟现实空间中显示观看区域的区域范围标识,以通过区域范围标识指示观看区域的区域范围,提升了虚拟对象位置切换的效率,保证了虚拟对象显示位置与真实世界中显示位置的一致性,提升了显示真实感。
为了实现上述实施例,本公开还提出了一种虚拟对象的显示处理装置。
图9为本公开实施例提供的一种虚拟对象的显示处理装置的结构示意图,该装置可由软件和/或硬件实现,一般可集成在电子设备中进行虚拟对象的显示处理。如图9所示,该装置包括:第一显示模块910、确定模块920和第二显示模块930,其中,
第一显示模块910,用于响应于接收到移动开启操作,在虚拟现实空间中显示位置指示模型,其中,位置指示模型用于指示在当前虚拟场景中的指示位置;
确定模块920,用于响应于接收到移动确认操作,确定位置指示模型的当前指示位置;
第二显示模块930,用于在当前指示位置位于当前虚拟场景对应的观看区域时,控制对应的虚拟对象在当前指示位置显示。
本公开实施例所提供的虚拟对象的显示处理装置可执行本公开任意实施例所提供的虚拟对象的显示处理方法,具备执行方法相应的功能模块和有益效果,在此不再赘述。
为了实现上述实施例,本公开还提出一种计算机程序产品,包括计算机程序/指令,该计算机程序/指令被处理器执行时实现上述实施例中的虚拟对象的显示处理方法。
图10为本公开实施例提供的一种电子设备的结构示意图。
下面具体参考图10,其示出了适于用来实现本公开实施例中的电子设备1000的结构示意图。本公开实施例中的电子设备1000可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图10示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图10所示,电子设备1000可以包括处理器(例如中央处理器、图形处理器等)1001,其可以根据存储在只读存储器(ROM)1002中的程序或者从存储器1008加载到随机访问存储器(RAM)1003中的程序而执行各种适当的动作和处理。在RAM 1003中,还存储有电子设备1000操作所需的各种程序和数据。处理器1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
通常,以下装置可以连接至I/O接口1005:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置1006;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置1007;包括例如磁带、硬盘等的存储器1008;以及通信装置1009。通信装置1009可以允许电子设备1000与其他设备进行无线或有线通信以交换数据。虽然图10示出了具有各种装置的电子设备1000,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置1009从网络上被下载和安装,或者从存储器1008被安装,或者从ROM 1002被安装。在该计算机程序被处理器1001执行时,执行本公开实施例的虚拟对象的显示处理方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:
响应于接收到移动开启操作,在虚拟现实空间中显示位置指示模型,其中,位置指示模型用于指示在当前虚拟场景中的指示位置,响应于接收到移动确认操作,确定位置指示模型的当前指示位置,进而,在当前指示位置位于当前虚拟场景对应的观看区域时,控制对应的虚拟对象在当前指示位置显示。本公开的实施例中,实现了在虚拟现实空间中模拟现实中观看位置的切换,提升了虚拟显示空间中的真实体验感。
电子设备可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
Claims (11)
1.一种虚拟对象的显示处理方法,其特征在于,包括以下步骤:
响应于接收到移动开启操作,在虚拟现实空间中显示位置指示模型,其中,所述位置指示模型用于指示在当前虚拟场景中的指示位置;
响应于接收到移动确认操作,确定所述位置指示模型的当前指示位置;
在所述当前指示位置位于所述当前虚拟场景对应的观看区域时,控制对应的虚拟对象在所述当前指示位置显示。
2.如权利要求1所述的方法,其特征在于,在所述响应于接收到移动开启操作之后,还包括:
确定与所述当前虚拟场景对应的观看区域;
在所述当前虚拟场景中显示所述对应的观看区域的区域范围标识,其中,所述区域范围标识用于指示所述观看区域的区域范围。
3.如权利要求2所述的方法,其特征在于,所述确定与所述当前虚拟场景对应的观看区域,包括:
在所述当前虚拟场景中确定满足预设观看条件的场景元素模型;
在所述场景元素模型上确定所述观看区域。
4.如权利要求3所述的方法,其特征在于,所述当前虚拟场景中满足预设观看条件的场景元素模型,包括:
位于舞台模型的预设方位的场景元素模型,其中所述舞台模型用于在所述当前虚拟场景中播放对应的视频流。
5.如权利要求4所述的方法,其特征在于,所述在所述场景元素模型上确定所述观看区域,包括:
确定与所述预设方位对应的观看视场角;
在对应的场景元素模型中确定参考观看模型区域;
在所述参考观看模型区域中确定与所述观看视场角对应的观看区域。
6.如权利要求1所述的方法,其特征在于,所述位置指示模型包括:
射线轨迹模型,其中,通过所述射线轨迹模型的轨迹终点指示在所述当前虚拟场景中的指示位置。
7.如权利要求1-6任一所述的方法,其特征在于,在虚拟现实空间中显示位置指示模型之后,还包括:
响应于接收到对所述位置指示模型的指示位置调节操作,调整所述位置指示模型的指示位置。
8.如权利要求1-6任一所述的方法,其特征在于,在虚拟现实空间中显示位置指示模型之后,还包括:
跟随所述位置指示模型的实时指示位置上,实时显示指示位置标识。
9.一种虚拟对象的显示处理装置,其特征在于,包括:
第一显示模块,用于响应于接收到移动开启操作,在虚拟现实空间中显示位置指示模型,其中,所述位置指示模型用于指示在当前虚拟场景中的指示位置;
确定模块,用于响应于接收到移动确认操作,确定所述位置指示模型的当前指示位置;
第二显示模块,用于在所述当前指示位置位于所述当前虚拟场景对应的观看区域时,控制对应的虚拟对象在所述当前指示位置显示。
10.一种电子设备,其特征在于,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述可执行指令以实现上述权利要求1-8中任一所述的虚拟对象的显示处理方法。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1-8中任一所述的虚拟对象的显示处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210946284.8A CN117572994A (zh) | 2022-08-08 | 2022-08-08 | 虚拟对象的显示处理方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210946284.8A CN117572994A (zh) | 2022-08-08 | 2022-08-08 | 虚拟对象的显示处理方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117572994A true CN117572994A (zh) | 2024-02-20 |
Family
ID=89863021
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210946284.8A Pending CN117572994A (zh) | 2022-08-08 | 2022-08-08 | 虚拟对象的显示处理方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117572994A (zh) |
-
2022
- 2022-08-08 CN CN202210946284.8A patent/CN117572994A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3396511B1 (en) | Information processing device and operation reception method | |
US10620791B2 (en) | Information processing apparatus and operation reception method | |
CN110717993A (zh) | 一种分体式ar眼镜系统的交互方法、系统及介质 | |
CN115191006B (zh) | 用于所显示的2d元素的3d模型 | |
KR20200066962A (ko) | 사용자의 움직임에 기반하여 콘텐트를 제공하기 위한 전자 장치 및 방법 | |
CN117572994A (zh) | 虚拟对象的显示处理方法、装置、设备及介质 | |
US20240078734A1 (en) | Information interaction method and apparatus, electronic device and storage medium | |
US20240028130A1 (en) | Object movement control method, apparatus, and device | |
US20230405475A1 (en) | Shooting method, apparatus, device and medium based on virtual reality space | |
US20230377248A1 (en) | Display control method and apparatus, terminal, and storage medium | |
CN117376591A (zh) | 基于虚拟现实的场景切换处理方法、装置、设备及介质 | |
CN117631810A (zh) | 基于虚拟现实空间的操作处理方法、装置、设备及介质 | |
WO2024131405A1 (zh) | 对象移动控制方法、装置、设备及介质 | |
CN117641025A (zh) | 基于虚拟现实空间的模型显示方法、装置、设备及介质 | |
CN117354484A (zh) | 基于虚拟现实的拍摄处理方法、装置、设备及介质 | |
CN117641026A (zh) | 基于虚拟现实空间的模型显示方法、装置、设备及介质 | |
CN117640919A (zh) | 基于虚拟现实空间的图片显示方法、装置、设备及介质 | |
CN110807826B (zh) | 虚拟场景中的地图显示方法、装置、设备及存储介质 | |
US20240161390A1 (en) | Method, apparatus, electronic device and storage medium for control based on extended reality | |
CN117765207A (zh) | 虚拟界面的显示方法、装置、设备及介质 | |
CN116206090A (zh) | 基于虚拟现实空间的拍摄方法、装置、设备及介质 | |
CN117632391A (zh) | 基于虚拟现实空间的应用控制方法、装置、设备及介质 | |
CN117899456A (zh) | 二维组件的显示处理方法、装置、设备及介质 | |
CN117806448A (zh) | 一种数据处理方法、装置、设备及介质 | |
CN117075771A (zh) | 基于虚拟现实空间的画面显示方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |