CN116206090A - 基于虚拟现实空间的拍摄方法、装置、设备及介质 - Google Patents

基于虚拟现实空间的拍摄方法、装置、设备及介质 Download PDF

Info

Publication number
CN116206090A
CN116206090A CN202310215094.3A CN202310215094A CN116206090A CN 116206090 A CN116206090 A CN 116206090A CN 202310215094 A CN202310215094 A CN 202310215094A CN 116206090 A CN116206090 A CN 116206090A
Authority
CN
China
Prior art keywords
preset
shooting
model
space
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310215094.3A
Other languages
English (en)
Inventor
黄栗辰
黄翔宇
汪圣杰
冀利悦
李梓宁
杨帆
孙宜欣
付平非
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zitiao Network Technology Co Ltd
Original Assignee
Beijing Zitiao Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zitiao Network Technology Co Ltd filed Critical Beijing Zitiao Network Technology Co Ltd
Priority to CN202310215094.3A priority Critical patent/CN116206090A/zh
Publication of CN116206090A publication Critical patent/CN116206090A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开实施例涉及一种基于虚拟现实空间的拍摄方法、装置、设备及介质,其中该方法包括:在虚拟现实空间中显示预设合拍子空间,其中,预设合拍子空间中包括预设表演者模型;响应于获取到对预设合拍子空间的进入指令,将进入指令对应的虚拟人物模型移动至预设合拍子空间;显示预设合拍子空间的合拍屏幕,并在合拍屏幕中显示虚拟人物模型和预设表演者模型的实时合拍画面;响应于合拍确认指令,确定合拍屏幕中的实时合拍画面为拍摄图像信息。由此,实现了在虚拟空间中的合拍,扩展了在虚拟空间中的拍摄方式,提升了在虚拟空间中的拍摄真实感。

Description

基于虚拟现实空间的拍摄方法、装置、设备及介质
技术领域
本公开涉及虚拟现实技术领域,尤其涉及一种基于虚拟现实空间的拍摄方法、装置、设备及介质。
背景技术
虚拟现实(Virtual Reality,VR)技术,又称虚拟环境、灵境或人工环境,是指利用计算机生成一种可对参与者直接施加视觉、听觉和触觉感受,并允许其交互地观察和操作的虚拟世界的技术。提升VR真实感以使得虚拟现实空间和真实物理空间的体验感相似,成为一种主流。
相关技术中,可基于虚拟现实技术实现线上演唱会等直播内容的观看,在虚拟空间中用户可以观看到如现实现场会一般的演唱会。
然而,现有技术无法满足用户在观看VR视频过程中的与表演者的合拍需求,影响了用户的VR使用体验。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本公开提供了一种基于虚拟现实空间的拍摄方法、装置、设备及介质,实现了在虚拟空间中的合拍,扩展了在虚拟空间中的拍摄方式,提升了在虚拟空间中的拍摄真实感。
本公开实施例提供了一种基于虚拟现实空间的拍摄方法,所述方法包括:在虚拟现实空间中显示预设合拍子空间,其中,所述预设合拍子空间中包括预设表演者模型;响应于获取到对所述预设合拍子空间的进入指令,将所述进入指令对应的虚拟人物模型移动至所述预设合拍子空间;显示所述预设合拍子空间的合拍屏幕,并在所述合拍屏幕中显示所述虚拟人物模型和所述预设表演者模型的实时合拍画面;响应于合拍确认指令,确定所述合拍屏幕中的实时合拍画面为拍摄图像信息。
本公开实施例还提供了一种基于虚拟现实空间的拍摄装置,所述装置包括:第一显示模块,用于在虚拟现实空间中显示预设合拍子空间,其中,所述预设合拍子空间中包括预设表演者模型;移动模块,用于响应于获取到对所述预设合拍子空间的进入指令,将所述进入指令对应的虚拟人物模型移动至所述预设合拍子空间;第二显示模块,用于显示所述预设合拍子空间的合拍屏幕,并在所述合拍屏幕中显示所述虚拟人物模型和所述预设表演者模型的实时合拍画面;确定模块,用于响应于合拍确认指令,确定所述合拍屏幕中的实时合拍画面为拍摄图像信息。
本公开实施例还提供了一种电子设备,所述电子设备包括:处理器;用于存储所述处理器可执行指令的存储器;所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现如本公开实施例提供的基于虚拟现实空间的拍摄方法。
本公开实施例还提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行如本公开实施例提供的基于虚拟现实空间的拍摄方法。
本公开实施例提供的技术方案与现有技术相比具有如下优点:
本公开实施例提供的基于虚拟现实空间的拍摄方案,在虚拟现实空间中显示预设合拍子空间,其中,预设合拍子空间中包括预设表演者模型,响应于获取到对预设合拍子空间的进入指令,将进入指令对应的虚拟人物模型移动至预设合拍子空间,显示预设合拍子空间的合拍屏幕,并在合拍屏幕中显示虚拟人物模型和预设表演者模型的实时合拍画面,进而,响应于合拍确认指令,确定合拍屏幕中的实时合拍画面为拍摄图像信息。实现了在虚拟空间中的合拍,扩展了在虚拟空间中的拍摄方式,提升了在虚拟空间中的拍摄真实感。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1为本公开实施例提供的一种虚拟现实设备的应用场景示意图;
图2为本公开实施例提供的一种基于虚拟现实空间的拍摄方法的流程示意图;
图3为本公开实施例提供的一种悬浮球形式的交互组件模型的显示示例效果的示意图;
图4为本公开实施例提供的一种虚拟操控设备的操控场景示意图;
图5为本公开实施例提供的一种基于虚拟现实空间的拍摄场景示意图;
图6为本公开实施例提供的另一种基于虚拟现实空间的拍摄场景示意图;
图7为本公开实施例提供的另一种基于虚拟现实空间的拍摄方法的流程示意图;
图8为本公开实施例提供的另一种基于虚拟现实空间的拍摄场景示意图;
图9为本公开实施例提供的另一种基于虚拟现实空间的拍摄场景示意图;
图10为本公开实施例提供的另一种基于虚拟现实空间的拍摄场景示意图;
图11为本公开实施例提供的一种基于虚拟现实空间的拍摄装置的结构示意图;
图12为本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
对本文中涉及到的一些技术概念或者名词概念进行相关说明:
虚拟现实设备,实现虚拟现实效果的终端,通常可以提供为眼镜、头盔式显示器(Head Mount Display,HMD)、隐形眼镜的形态,以用于实现视觉感知和其他形式的感知,当然虚拟现实设备实现的形态不限于此,根据需要可以进一步小型化或大型化。
本发明实施例记载的虚拟现实设备可以包括但不限于如下几个类型:
电脑端虚拟现实(PCVR)设备,利用PC端进行虚拟现实功能的相关计算以及数据输出,外接的电脑端虚拟现实设备利用PC端输出的数据实现虚拟现实的效果。
移动虚拟现实设备,支持以各种方式(如设置有专门的卡槽的头戴式显示器)设置移动终端(如智能手机),通过与移动终端有线或无线方式的连接,由移动终端进行虚拟现实功能的相关计算,并输出数据至移动虚拟现实设备,例如通过移动终端的APP观看虚拟现实视频。
一体机虚拟现实设备,具备用于进行虚拟功能的相关计算的处理器,因而具备独立的虚拟现实输入和输出的功能,不需要与PC端或移动终端连接,使用自由度高。
虚拟现实对象,虚拟场景中进行交互的对象,受到用户或机器人程序(例如,基于人工智能的机器人程序)的控制,能够在虚拟场景中静止、移动以及进行各种行为的对象,例如直播场景下的用户对应的虚拟人。
如图1所示,HMD为相对较轻的、在人体工程学上舒适的,并且提供具有低延迟的高分辨率内容。虚拟现实设备中设置有姿态检测的传感器(如九轴传感器),用于实时检测虚拟现实设备的姿态变化,如果用户佩戴了虚拟现实设备,那么当用户头部姿态发生变化时,会将头部的实时姿态传给处理器,以此计算用户的视线在虚拟环境中的注视点,根据注视点计算虚拟环境的三维模型中处于用户注视范围(即虚拟视场)的图像,并在显示屏上显示,使人仿佛在置身于现实环境中观看一样的沉浸式体验。
本实施例中,当用户佩戴HMD设备并打开预定的应用程序时,如视频直播应用程序时,HMD设备会运行相应的虚拟场景,该虚拟场景可以是对真实世界的仿真环境,也可以是半仿真半虚构的虚拟场景,还可以是纯虚构的虚拟场景。虚拟场景可以是二维虚拟场景、2.5维虚拟场景或者三维虚拟场景中的任意一种,本公开实施例对虚拟场景的维度不加以限定。例如,虚拟场景可以包括表演者模型、观众模型,舞台灯、舞台架子等环境元素,用户可以控制与其对应的虚拟人物模型在该虚拟场景中进行移动,还可以通过手柄设备、裸手手势等方式来对虚拟场景中的虚拟人物模型等等进行交互控制。其中,虚拟人物模型为映射现实中的人物的虚拟人物模型,该虚拟人物模型的具体模型形态可根据场景需要设置,在此不作限制。
正如以上提到的,在虚拟现实空间中,若是用户具有合拍需求,比如,用户在观看虚拟现实空间的演唱会时,若是具有和表演者的合拍需求,则无法得到满足。
为了解决上述问题,本公开实施例提供了一种基于虚拟现实空间的拍摄方法,下面结合具体的实施例对该方法进行介绍。
图2为本公开实施例提供的一种基于虚拟现实空间的拍摄方法的流程示意图,该方法可以由基于虚拟现实空间的拍摄装置执行,其中该装置可以采用软件和/或硬件实现,一般可集成在电子设备中。如图2所示,该方法包括:
步骤201,在虚拟现实空间中显示预设合拍子空间,其中,预设合拍子空间中包括预设表演者模型。
步骤202,响应于获取到对预设合拍子空间的进入指令,将进入指令对应的虚拟人物模型移动至预设合拍子空间。
其中,预设合拍子空间可以理解为预先设置在虚拟现实空间中,用来满足用户与表演者合拍需求的空间区域,其中,在视觉上预设合拍子空间可以“光柱”等动效显示,以便于用户直观获知预设合拍子空间的位置,其中,预设合拍子空间的形状和上述提到的显示动效等均可以根据实际场景需要进行设置。
在实际执行过程中,为了提示用户尤其是提示新手用户预设合拍子空间,还可以提示用户预设合拍子空间,比如,在用户佩戴手环时,检测用户所对应的虚拟人物模型在虚拟现实空间中的位置,若是虚拟人物模型所在的位置与预设合拍子空间的位置的距离小于预设距离阈值,则可以在手环中提示对应的预设合拍子空间可以进入合拍,其中,可通过手环震动的方式,提示用户查看对应的提示,还可以在检测到虚拟人物模型触碰到预设合拍子空间时,触发显示预设合拍子空间的动效,和/或,振动虚拟手环等方式来提示预设合拍子空间的存在。
还可以在虚拟现实空间中现实去往预设合拍子空间的引导信息,比如,在虚拟现实空间中以地标的形式显示去往预设合拍子空间的文字信息和箭头指引信息等,用户可根据该引导信息控制对应的虚拟人物模型进入对应的预设合拍子空间。其中,引导箭头可以前后移动的动画效果显示,以进一步提升提示引导的直观性,该引导箭头可以不随着虚拟人物模型的移动而移动,以进一步提升提示的真实感。
其中,在不同的应用场景中,控制虚拟人物模型进入对应的预设合拍子空间的方式不同,示例如下:
在一些可能的实施例中,可以确定预设合拍子空间中预设合拍位置,并获取进入指令对应的进入模式,在一些可选的方式中,可监测摄像头对用户拍摄的图像信息,然后根据图像信息中的用户手部或用户手持设备(如手柄),判断是否符合显示交互组件模型(用于交互的组件模型,交互组件模型各自预先绑定有交互功能事件)的预设条件,若判定符合显示交互组件模型的预设条件,则在虚拟现实空间中显示至少一交互组件模型,最后通过识别用户手部或用户手持设备的动作信息,执行用户所选的交互组件模型预先绑定的交互功能事件。
例如,可利用摄像头拍摄用户手部图像或用户手持设备图像,并基于图像识别技术对该图像中的用户手部手势或手持设备位置变化进行判断,若判定用户手部或用户手持设备抬起一定幅度,使得在虚拟现实空间中映射的用户虚拟手部或虚拟手持设备进入到用户当前的视角范围内,则可在虚拟现实空间中唤起显示交互组件模型。如图3所示,基于图像识别技术,用户抬起手持设备可唤出如悬浮球形式的交互组件模型,其中,每个悬浮球各自代表一种操控功能,用户可基于悬浮球功能进行交互。如图3所示,这些悬浮球1、2、3、4具体可对应:“第一进入模式”、“第二进入模式”、“第三进入模式”、“取消”、等交互组件模型。
在唤出如悬浮球形式的交互组件模型后,根据后续监测到的用户手部图像或用户手持设备图像,通过识别用户手部或用户手持设备的位置,映射到虚拟现实空间中,确定相应点击标志的空间位置,如果该点击标志的空间位置与显示的这些交互组件模型中的目标交互组件模型的空间位置匹配,则确定目标交互组件模型为用户所选的交互组件模型;最后执行目标交互组件模型预先绑定的交互功能事件。
用户可通过左手的手柄抬起来唤起显示如悬浮球形式的交互组件模型,然后通过移动右手的手柄位置选择点击其中的交互组件。在VR设备侧,会根据用户的手柄图像,通过识别右手手柄的位置,映射到虚拟现实空间中,确定相应点击标志的空间位置,如果该点击标志的空间位置与“第一进入模式”的交互组件模型的空间位置匹配,则最后执行该“第一进入模式”的交互组件模型预先绑定的交互功能事件,即确定虚拟人物模型进入预设合拍子空间的方式为第一进入模式。
在一些可选的实施例中,也可以在虚拟操控设备中实现对进入模式的选择,比如,可以在虚拟现实空间中显示对应的操作方向引导模型,其中,该操作方向引导模型可以为图4所示的抛物线轨迹模型,用户可将虚拟操控设备的操作方向引导模型的操作位置移动至预设合拍子空间中,当检测到移动确认指令,则当前进入模式为第一进入模式。若是用户并不通过操作方向引导模型进入预设合拍子空间,而是操作虚拟人物模型连续移动至预设合拍子空间,则预设进入模式为第二进入模式。
也可以理解,上述第一进入模式为“瞬移进入”,第二进入模式为“连续移动”,在进入模式为第一进入模式时,将虚拟人物模型直接切换到预设合拍位置显示,在进入模式为第二进入模式时,确定虚拟人物模型在虚拟现实空间中的当前位置,该当前位置可以理解为获取到进入指令时虚拟任务模型的位置,根据当前位置和预设合拍位置生成移动路径,控制虚拟人物模型根据移动路径由当前位置移动至预设合拍位置。其中,移动路径可以是系统生成的,也可以是用户设置的,当然,在实际执行过程中,也可以由上述实施例中提到的在第二进入模式下由用户操作虚拟人物模型逐步移动到对应的预设合拍子空间中。
其中,预设合拍子空间中包括预设表演者模型,当虚拟人物模型进入对应的合拍子空间中,可以针对预设表演者模型和虚拟人物模型进一步实现合拍。预设的表演者模型与在舞台场景中的表演者的妆造等一致,由于在演唱会等表演场景下,对应的演唱者可能会有多个表演者场景,每个表演场景对应的表演者造型等不同等,因此,为了进一步提升合拍的真实性,该表演者模型可以有多个,分别与每个表演者场景对应。
为了满足用户与不同的表演场景下的表演者模型的合拍需求,预先设置多个候选表演者模型,其中,候选表演者模型可以对应不同的表演场景,比如,在演唱会场景下,设置5个候选表演者模型,其中,第一个候选表演者模型与候场场景对应,其他四个分别与4首歌曲的表演场景对应,在本公开的一个实施例中,可在预设的多个候选表演者模型中确定预设表演者模型,根据预设表演者模型在预设合拍子空间显示位置显示预设合拍子空间。其中,不同的预设表演者模型对应的预设合拍子空间显示位置可以相同,也可以不同。
其中,在一些可选的实施例中,可确定虚拟现实空间中的当前舞台表演场景,根据当前舞台表演场景在预设的多个候选表演者模型中确定预设表演者模型,即在本实施例中,将每个候选表演者模型与对应的当前舞台表演场景对应起来,从而适配当前舞台表演场景确定显示在合拍子空间中的预设表演者模型,满足了用户在不同表演时机的合拍需求。
在一些可选的实施例中,可以由用户主动选择预设表演者模型,响应于获取到表演者模型的选择请求指令,在虚拟现实空间中显示预设的多个候选表演者模型,或者,可以在用户进入预设合拍子空间中,执行表演者模型的切换事件,则在预设合拍子空间中现实多个候选表演者模型,响应于获取到对表演者模型的选择确认指令,确定选择确认指令对应的候选表演者模型为预设表演者模型。
步骤203,显示预设合拍子空间的合拍屏幕,并在合拍屏幕中显示虚拟人物模型和预设表演者模型的实时合拍画面。
在本公开的一个实施例中,如图5所示,在进入预设合拍子空间中,可以在用户的当前视线方向显示合拍屏幕,在合拍屏幕上显示虚拟人物模型和预设表演者模型的实时合拍画面。
其中,在一些可能的实施例中,距离表演者模型附近的预设初始位置为进入预设合拍子空间的默认位置,用户可以操作虚拟人物模型进行移动,从而,实时合拍画面同步移动显示虚拟人物模型。
其中,实时合拍画面包括合拍视场范围内的虚拟人物模型和所述预设表演者模型,因此满足了合拍需求。
另外,在上述进入预设合拍子空间时还可以显示转场动效,在转场动效播放完成后,显示合拍屏幕等。
步骤204,响应于合拍确认指令,确定合拍屏幕中的实时合拍画面为拍摄图像信息。
在本公开的一个实施例中,响应于合拍确认指令,确定合拍屏幕中的实时合拍画面为拍摄图像信息,其中,拍摄图像信息可包括:合拍的照片信息(即图片信息)或合拍的录像信息(即录制的视频信息),其中,在合拍模式下,可显示倒计时动效等,例如出现倒计时3秒内的数字动画,并在数字动画播放完毕后拍摄对应的拍摄图像信息并伴随拍摄的声音动效等。
在一些可能的实施例中,可在合拍的录像模式下,输出录像中相关的提示信息,或在合拍屏幕内显示起到拍照闪烁效果的画面;在确认得到拍摄图像信息之后,可输出拍摄记录成功的提示信息。
例如,针对录像服务,在录像过程中可显示代表录像中的文字或图标信息等,并且还可一并输出录像中的语音提示等。针对照相服务,在用户点击拍照时,可在取景框区域内迅速显示一张空白的过渡图片然后再迅速切换回贴图信息,进而起到拍照闪烁的效果,增加用户更加贴近真实的拍摄感受。在拍照成功后,如图6所示,可显示拍摄图像信息的保存控件模型,重拍控件模型以及分享控件模型等,用户可根据需求进行拍摄图像信息的重拍、分享或者是保存等。
举例而言,当用户触发分享控件模型时,则响应于分享指令,将拍摄图像信息分享至目标平台(如社交平台,用户或其他用户可访问这些拍摄的图像信息),或通过服务端分享给联系人列表中的指定用户(如将拍摄图像信息通过服务端分享给用户指定的好友),或分享给在同一虚拟现实空间中其他虚拟对象所对应的用户。
例如,用户可查看当前进入同一合拍子空间的其他用户,然后选择其中的用户将拍摄图像信息分享给他;或者通过用户焦点、手柄射线等方式,在同一VR场景中选择其他虚拟人物模型,将拍摄的图像信息分享给该虚拟人物模型,系统可根据其他虚拟人物模型的标识,查找到对应的目标用户,将用户分享的拍摄图像信息转发给该目标用户,实现拍摄照片或视频的分享目的。
综上,本公开实施例的基于虚拟现实空间的拍摄方法,在虚拟现实空间中显示预设合拍子空间,其中,预设合拍子空间中包括预设表演者模型,响应于获取到对预设合拍子空间的进入指令,将进入指令对应的虚拟人物模型移动至预设合拍子空间,显示预设合拍子空间的合拍屏幕,并在合拍屏幕中显示虚拟人物模型和预设表演者模型的实时合拍画面,进而,响应于合拍确认指令,确定合拍屏幕中的实时合拍画面为拍摄图像信息。实现了在虚拟空间中的合拍,扩展了在虚拟空间中的拍摄方式,提升了在虚拟空间中的拍摄真实感。
下面结合具体实施例描述如何在合拍屏幕中显示虚拟人物模型和所述预设表演者模型的实时合拍画面。
在本公开的一个实施例中,如图7所示,在合拍屏幕中显示虚拟人物模型和预设表演者模型的实时合拍画面,包括:
步骤701,在预设合拍子空间中显示多个候选拍摄距离控件模型。
其中,候选拍摄距离控件模型可以悬浮模型的形式显示,也可以控件模型的形式显示在合拍屏幕的菜单区域,其中,不同的候选拍摄距离控件模型对应的拍摄距离不同,在一些可能的实施例中,为了便于理解,继续如图6所示,多个候选拍摄距离控件模型分别为“大头拍摄”、“半身拍摄”以及“全景拍摄”等,其中,“大头拍摄”、“半身拍摄”以及“全景拍摄”对应的拍摄距离逐渐增大。
在一些可能的实施例中,如果用户需要拍摄自己所期望的拍摄范围内的合拍图像信息,可通过输入拍摄范围的调整指令,对合拍屏幕的合拍视场范围进行动态调整。
用户输入合拍功能的调用指令可存在多种可选方式,作为其中一种可选方式,可通过用户手势进行输入合拍功能的调用指令,相应的,在VR设备侧,可首先识别摄像头对用户拍摄的图像信息,得到用户手势信息;然后将该用户手势信息与预设手势信息进行匹配,其中,不同的预设手势信息均有各自对应的预设调整指令(用于调整拍摄器的合拍视场范围);进而可获取匹配到的预设手势信息所对应的预设调整指令,作为合拍视场范围的调整指令。
例如,用户手部向前、或向后等移动,可触发合拍视场范围均跟随变化;用户手部转动,可触发合拍视场范围跟随变化。通过这种可选方式,可方便用户进行拍摄操控,提高了拍摄效率。
其中,合拍屏幕上初始显示的实时合拍画面的初始拍摄距离可以为默认拍摄距离,在该默认拍的距离下拍摄得到的实时合拍画面通常可以呈现表演者模型以及虚拟人物模型。其中,实时合拍画面可以参照以下描述的与不同的拍摄距离对应的实时面通常可以呈现表演者模型以及虚拟人物模型。其中,实时的获取方式。
步骤702,响应于获取到对多个候选拍摄距离控件模型中目标拍摄距离控件模型的选择指令,根据目标拍摄距离控件模型确定目标拍摄距离。
在本公开的实施例中,响应于获取到对多个候选拍摄距离控件模型中目标拍摄距离控件模型的选择指令,根据目标拍摄距离控件模型确定目标拍摄距离,其中,可以预先设置与每个候选拍摄距离控件对应的拍摄距离的对应关系,从而查询该对应关系即可获取与目标拍摄距离控件模型对应的目标拍摄距离。
步骤703,在合拍屏幕中显示与目标拍摄距离对应的实时合拍画面。
由于本公开实施例是为了满足用户的合拍需求,因此拍摄角度是面对虚拟人物模型的,在本实施例中,根据面对虚拟人物模型的拍摄角度和对应的目标拍摄距离,可以确定对应的拍摄视场范围,拍摄视场范围内的实时合拍画面。
在本公开的一个实施例中,可确定与目标拍摄距离对应的合拍视场范围,确定预设合拍子空间中与合拍视场范围匹配的合拍场景画面信息,其中,合拍场景画面信息中包括合拍视场范围内的虚拟人物模型和预设表演者模型,在合拍屏幕中渲染与合拍场景画面信息对应的贴图信息。
在本实施例中的合拍视场范围是指用户在观看VR视频过程中对预设合拍子空间内所要拍摄的范围,对于本实施例,针对控制拍摄器的拍摄范围的相关参数可预先设置等。
其中,合拍场景画面信息可利用Unity的相机(Camera)工具,在虚拟现实场景中,选择与合拍视场范围所对应的场景信息渲染到纹理(Render To Texture,RTT)。然后将渲染得到的纹理贴图放置在合拍屏幕内,进而实现在合拍屏幕内显示合拍场景画面信息。
合拍屏幕可根据实际需求预先设置,目的是为了让用户在确认拍摄之前,对所选合拍场景画面信息的效果预览。
与现有拍摄的方式不同,本实施例方案这种虚拟拍摄方式是对所选范围内的VR合拍场景画面信息实时渲染到纹理,然后再贴到合拍屏幕内,无需借助实体相机模块的那些传感器,因此可保证拍摄图像信息的画面质量。并且在拍摄距离变化或者是虚拟人物模型的移动过程中,能够实时将动态移动拍摄范围内的VR合拍场景画面信息呈现在预设的合拍屏幕内,合拍场景画面信息展示效果不会受到拍摄器摆动等因素的影响,可很好地模拟出用户真实拍摄的感受,进而可提升用户的VR使用体验。
如果用户选择拍照服务,可在接收到用户确认拍摄的指令时,将合拍屏幕内实时的单张贴图信息作为用户所拍摄的照片信息。而如果用户选择录像服务,可在接收到用户确认拍摄的指令时,记录取景框区域内实时的贴图信息作为视频帧数据,并在用户确认拍摄完成时,停止录制,依据这段时间内记录的视频帧数据生成得到录制的视频信息。
举例而言,如图8所示,继续以图6所示场景为例,“半身拍摄”以及“全景拍摄”下,对应的拍摄距离下的实时合拍画面呈现出的合拍视场范围不同,用户可在合拍屏幕上清晰的看到合拍视场范围的变化。
综上,本公开实施例的基于虚拟现实空间的拍摄方法,在合拍视场范围内呈现实时合拍场景画面信息,便于用户通过合拍确定操作,确定合拍屏幕内实时的合拍场景画面信息为拍摄图像信息,使得在虚拟现实环境下的用户能够体验到犹如真实环境中使用相机合拍的感受,提升了用户的VR使用体验。
基于上述实施例,由于用户在合拍场景下可能具有其他一些合拍需求,比如,退出合拍子空间等等,在本公开的实施例中,还可基于虚拟现实空间的空间特点,满足用户更多的合拍需求。
在本公开的一个实施例中,考虑到进入合拍子空间的除了包含用户本人对应的虚拟人物模型之外,还可能包含其他用户对应的虚拟人物模型,而由于合拍屏幕呈现在合拍视场范围内的虚拟人物模型和表演者模型等,因此,实时合拍画面中还有可能包含其他用户对应的虚拟人物模型,而用户可能仅仅相与表演者模型合拍。
因此,在本公开实施例中,还可获取对其他虚拟人物模型的屏蔽操作,比如,可以继续如图6所示,显示“屏蔽其他人”的虚拟功能控件,当检测到该控件被触发时,则获取到该屏蔽操作;比如,可以预先设置屏蔽操作对应的手势操作信息等,拍摄用户的手部图像,根据手部图像识别手势动作,当手势动作为预设的“屏蔽其他人”对应的手势操作,则获取到对其他虚拟人物模型的屏蔽指令等,当然,在其他可选的实现方式中,也可采用其他方式来进行对其他虚拟人物模型的屏蔽等。
在本公开的一个实施例中,为了满足用户还可以对显示的虚拟人物模型的模型造型等进行灵活设置,在本实施例中,在虚拟现实空间中显示至少一个候选道具模型,其中,候选道具模型可以包括眼镜等饰品模型、衣服等装备模型等,本实施例中显示候选道具模型的样式可以根据场景需要来设置,比如,以图9中气泡悬浮的形式来显示候选道具模型,每个候选道具模型包含一个候选道具模型。
在本实施例中,获取对至少一个候选道具模型中目标道具模型的使用指令,比如,获取对包含候选道具模型的任意一个气泡的选中操作时则获取到对目标道具模型的使用指令,其中,对应选中的目标道具使用模型不再显示在气泡中,以直观的指示该目标道具模型被使用,响应于获取到对至少一个候选道具模型中目标道具模型的使用指令,确定所述目标候选道具在所述虚拟人物模型中的道具显示位置,其中,在道具显示位置显示目标道具模型。
比如,继续以图9所示的场景为例,当选中的道具为眼镜,则确定虚拟人物模型的眼睛部位为道具显示位置等,其中,在道具显示位置显示目标道具模型时,合拍屏幕的实时合拍画面由于是包含了虚拟人物模型的合拍画面,因此,在实施合拍画面中也同步在虚拟人物模型上显示对应的实时合拍道具。
在实际执行过程中,用户也可以随时去除其所使用的目标道具模型,比如,响应于获取到对虚拟人物模型上某个目标道具模型的取消操作,则将目标道具模型从虚拟人物模型上删除,并且将目标道具模型显示在其初始显示位置,其中,将目标道具模型恢复到初始显示位置可以采用由无到有的预设动效来显示等,以直观的指示用户对应的魔表道具模型取消使用,比如,将删除后的目标道具模型恢复至对应的气泡中进行显示。其中,道具取消操作可以是用户触发目标道具模型对应的初始显示位置操作,也可以为在获取到与当前目标使用道具冲突的其他目标使用模型的使用指令后,获取到当前目标使用道具的取消操作。
需要说明的是,在本实施例中,由于选中的目标道具模型是显示在虚拟人物模型的道具显示位置上,因此,若是不执行目标道具模型的取消操作,则对应的目标道具模型始终显示在虚拟人物模型上,当虚拟人物模型退出合拍子空间后也可继续显示对应的目标道具模型。
在本公开的一个实施例中,用户可以根据需要随时退出合拍子空间,在本实施例中,获取合拍子空间的退出指令,比如,可以在合拍子控件的预设位置显示退出合拍子空间的退出控件模型,当检测到触发该退出控件模型后,则获取到合拍子控件的退出指令,和/或,由于虚拟人物模型可以在合拍子空间内自由移动,当检测到虚拟人物模型移动至预设的退出拍摄区域时,其中,该预设的退出拍摄区域可以为合拍子空间的边缘区域等任意区域,则弹出显示退出控件模型,当检测到触发该退出控件模型后,则获取到合拍子空间的退出指令。
在本实施例中,响应于获取到合拍子空间退出指令,确定虚拟人物模型在进入预设合拍子空间之前的初始位置,控制虚拟人物模型移动至初始位置,否则,如没有获取到合拍子空间的退出指令,则虚拟人物模型继续在合拍子空间显示。
在本公开的一个实施例中,为了进一步提升合拍体验,获取虚拟人物模型的人物签名信息和预设表演者模型的表演者签名信息,其中,表演者签名信息可以是预先设置的与真实表演者签名格式一致的签名,以进一步提升签名真实感,虚拟人物的签名信息可以是虚拟人物模型的昵称信息等,当然,在实际执行过程中,还可以对人物签名信息进行更改,比如,可以将人物签名信息更改为用户的座右铭等任意文字信息。
在一些可选的实施例中,可以在虚拟现实空间中可显示签名更改控件模型,响应于对签名更改控件模型的触发指令,显示签名输入区域,响应于获取到在签名输入区域中输入的更改签名,根据更改签名修改拍摄图像信息中的人物签名信息。
继续以图6所示场景为例,可以在合拍屏幕的菜单需要显示签名更改控件模型,当检测到签名更改控件模型被触发后,则如图10所示,在虚拟现实空间中显示操作键盘模型,可通过虚拟操控设备点选对应的键盘(图中未示出),以实现更改签名的输入,进而,根据获取的更改签名修改对应的任务签名信息,图中将人物签名信息由“小A”更改为“开心的一天”,表演者签名为“B”等。
综上,本公开实施例的基于虚拟现实空间的拍摄方法,可基于虚拟现实空间的空间特点,满足用户对虚拟人物模型的装扮,退出合拍子空间等各种需求,进一步提升了合拍的用户体验。
为了实现上述实施例,本公开还提出了一种基于虚拟现实空间的拍摄装置。
图11为本公开实施例提供的一种基于虚拟现实空间的拍摄装置的结构示意图,该装置可由软件和/或硬件实现,一般可集成在电子设备中进行基于虚拟现实空间的拍摄。如图11所示,该装置包括:第一显示模块1110、移动模块1120、第二显示模块1130、确定模块1140,其中,
第一显示模块1110,用于在虚拟现实空间中显示预设合拍子空间,其中,所述预设合拍子空间中包括预设表演者模型;
移动模块1120,用于响应于获取到对所述预设合拍子空间的进入指令,将所述进入指令对应的虚拟人物模型移动至所述预设合拍子空间;
第二显示模块1130,用于显示所述预设合拍子空间的合拍屏幕,并在所述合拍屏幕中显示所述虚拟人物模型和所述预设表演者模型的实时合拍画面;
确定模块1140,用于响应于合拍确认指令,确定所述合拍屏幕中的实时合拍画面为拍摄图像信息。
本公开实施例所提供的基于虚拟现实空间的拍摄装置可执行本公开任意实施例所提供的基于虚拟现实空间的拍摄方法,具备执行方法相应的功能模块和有益效果,其实现原理类似,在此不再赘述。
为了实现上述实施例,本公开还提出一种计算机程序产品,包括计算机程序/指令,该计算机程序/指令被处理器执行时实现上述实施例中的基于虚拟现实空间的拍摄方法。
图12为本公开实施例提供的一种电子设备的结构示意图。
下面具体参考图12,其示出了适于用来实现本公开实施例中的电子设备1100的结构示意图。本公开实施例中的电子设备1100可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图12示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图12所示,电子设备1100可以包括处理器(例如中央处理器、图形处理器等)1101,其可以根据存储在只读存储器(ROM)1102中的程序或者从存储器1108加载到随机访问存储器(RAM)1103中的程序而执行各种适当的动作和处理。在RAM 1103中,还存储有电子设备1100操作所需的各种程序和数据。处理器1101、ROM 1102以及RAM 1103通过总线1104彼此相连。输入/输出(I/O)接口1105也连接至总线1104。
通常,以下装置可以连接至I/O接口1105:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置1106;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置1107;包括例如磁带、硬盘等的存储器1108;以及通信装置1109。通信装置1109可以允许电子设备1100与其他设备进行无线或有线通信以交换数据。虽然图12示出了具有各种装置的电子设备1100,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置1109从网络上被下载和安装,或者从存储器1108被安装,或者从ROM 1102被安装。在该计算机程序被处理器1101执行时,执行本公开实施例的基于虚拟现实空间的拍摄方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:
在虚拟现实空间中显示预设合拍子空间,其中,预设合拍子空间中包括预设表演者模型,响应于获取到对预设合拍子空间的进入指令,将进入指令对应的虚拟人物模型移动至预设合拍子空间,显示预设合拍子空间的合拍屏幕,并在合拍屏幕中显示虚拟人物模型和预设表演者模型的实时合拍画面,进而,响应于合拍确认指令,确定合拍屏幕中的实时合拍画面为拍摄图像信息。实现了在虚拟空间中的合拍,扩展了在虚拟空间中的拍摄方式,提升了在虚拟空间中的拍摄真实感。
电子设备可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (15)

1.一种基于虚拟现实空间的拍摄方法,其特征在于,包括以下步骤:
在虚拟现实空间中显示预设合拍子空间,其中,所述预设合拍子空间中包括预设表演者模型;
响应于获取到对所述预设合拍子空间的进入指令,将所述进入指令对应的虚拟人物模型移动至所述预设合拍子空间;
显示所述预设合拍子空间的合拍屏幕,并在所述合拍屏幕中显示所述虚拟人物模型和所述预设表演者模型的实时合拍画面;
响应于合拍确认指令,确定所述合拍屏幕中的实时合拍画面为拍摄图像信息。
2.如权利要求1所述的方法,其特征在于,所述在虚拟现实空间中显示预设合拍子空间,包括:
在预设的多个候选表演者模型中确定预设表演者模型;
根据所述预设表演者模型在预设合拍子空间显示位置显示所述预设合拍子空间。
3.如权利要求2所述的方法,其特征在于,所述在预设的多个候选表演者模型中确定预设表演者模型,包括:
确定所述虚拟现实空间中的当前舞台表演场景,根据所述当前舞台表演场景在所述预设的多个候选表演者模型中确定所述预设表演者模型;或者,
响应于获取到表演者模型的选择请求指令,在所述虚拟现实空间中显示预设的多个候选表演者模型,
响应于获取到对表演者模型的选择确认指令,确定所述选择确认指令对应的候选表演者模型为所述预设表演者模型。
4.如权利要求1所述的方法,其特征在于,所述响应于获取到对所述预设合拍子空间的进入指令,将所述进入指令对应的虚拟人物模型移动至所述预设合拍子空间,包括:
确定所述预设合拍子空间中预设合拍位置,并获取所述进入指令对应的进入模式;
在所述进入模式为预设第一进入模式时,将所述虚拟人物模型切换到所述预设合拍位置显示;
在所述进入模式为预设第二进入模式时,确定所述虚拟人物模型在所述虚拟现实空间中的当前位置,
根据所述当前位置和所述预设合拍位置生成移动路径,控制所述虚拟人物模型根据所述移动路径由所述当前位置移动至所述预设合拍位置。
5.如权利要求1所述的方法,其特征在于,所述在所述合拍屏幕中显示所述虚拟人物模型和所述预设表演者模型的实时合拍画面,包括:
在所述预设合拍子空间中显示多个候选拍摄距离控件模型;
响应于获取到对所述多个候选拍摄距离控件模型中目标拍摄距离控件模型的选择指令,根据所述目标拍摄距离控件模型确定目标拍摄距离;
在所述合拍屏幕中显示与所述目标拍摄距离对应的实时合拍画面。
6.如权利要求5所述的方法,其特征在于,所述在所述合拍屏幕中显示与所述目标拍摄距离对应的实时合拍画面,包括:
确定与所述目标拍摄距离对应的合拍视场范围;
确定所述预设合拍子空间中与所述合拍视场范围匹配的合拍场景画面信息,其中,所述合拍场景画面信息中包括所述合拍视场范围内的虚拟人物模型和所述预设表演者模型;
在所述合拍屏幕中渲染与所述合拍场景画面信息对应的贴图信息。
7.如权利要求6所述的方法,其特征在于,所述确定所述合拍屏幕中的实时合拍画面为拍摄图像信息,包括:
确定所述合拍屏幕内实时的贴图信息为所述拍摄图像信息。
8.如权利要求1所述的方法,其特征在于,在所述合拍屏幕中显示所述虚拟人物模型和所述预设表演者模型的实时合拍画面时,还包括:
响应于获取到对其他虚拟人物模型的屏蔽指令,不显示所述实时合拍画面中的其他虚拟人物模型。
9.如权利要求1所述的方法,其特征在于,在所述合拍屏幕中显示所述虚拟人物模型和所述预设表演者模型的实时合拍画面时,还包括:
在所述虚拟现实空间中显示至少一个候选道具模型;
响应于获取到对所述至少一个候选道具模型中目标道具模型的使用指令,确定所述目标候选道具在所述虚拟人物模型中的道具显示位置;
在所述道具显示位置显示所述目标道具模型。
10.如权利要求1-9任一所述的方法,其特征在于,还包括:
响应于获取到合拍子空间退出指令,确定所述虚拟人物模型在进入所述预设合拍子空间之前的初始位置;
控制所述虚拟人物模型移动至所述初始位置。
11.如权利要求1-9任一所述的方法,其特征在于,还包括:
获取所述虚拟人物模型的人物签名信息和所述预设表演者模型的表演者签名信息;
在所述拍摄图像信息中显示所述人物签名信息和所述表演者签名信息。
12.如权利要求11所述的方法,其特征在于,还包括:
在所述虚拟现实空间中显示签名更改控件模型;
响应于对所述签名更改控件模型的触发指令,获取更改签名;
根据所述更改签名修改所述拍摄图像信息中的人物签名信息。
13.一种基于虚拟现实空间的拍摄装置,其特征在于,包括:
第一显示模块,用于在虚拟现实空间中显示预设合拍子空间,其中,所述预设合拍子空间中包括预设表演者模型;
移动模块,用于响应于获取到对所述预设合拍子空间的进入指令,将所述进入指令对应的虚拟人物模型移动至所述预设合拍子空间;
第二显示模块,用于显示所述预设合拍子空间的合拍屏幕,并在所述合拍屏幕中显示所述虚拟人物模型和所述预设表演者模型的实时合拍画面;
确定模块,用于响应于合拍确认指令,确定所述合拍屏幕中的实时合拍画面为拍摄图像信息。
14.一种电子设备,其特征在于,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述可执行指令以实现上述权利要求1-12中任一所述的基于虚拟现实空间的拍摄方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1-12中任一所述的基于虚拟现实空间的拍摄方法。
CN202310215094.3A 2023-02-28 2023-02-28 基于虚拟现实空间的拍摄方法、装置、设备及介质 Pending CN116206090A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310215094.3A CN116206090A (zh) 2023-02-28 2023-02-28 基于虚拟现实空间的拍摄方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310215094.3A CN116206090A (zh) 2023-02-28 2023-02-28 基于虚拟现实空间的拍摄方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
CN116206090A true CN116206090A (zh) 2023-06-02

Family

ID=86507585

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310215094.3A Pending CN116206090A (zh) 2023-02-28 2023-02-28 基于虚拟现实空间的拍摄方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN116206090A (zh)

Similar Documents

Publication Publication Date Title
US20220283632A1 (en) Iinformation processing apparatus, image generation method, and computer program
WO2015188614A1 (zh) 操作虚拟世界里的电脑和手机的方法、装置以及使用其的眼镜
WO2020186988A1 (zh) 资讯的展示方法、装置、终端及存储介质
JP2019510321A (ja) 仮想現実用パススルーカメラのユーザインターフェイス要素
CN112533017B (zh) 直播方法、装置、终端及存储介质
CN111970456B (zh) 拍摄控制方法、装置、设备及存储介质
CN112105983A (zh) 增强的视觉能力
CN113646731A (zh) 用于参与共享布景的技术
CN113194329B (zh) 直播互动方法、装置、终端及存储介质
CN116490250A (zh) 环境的非对称呈现
CN116206090A (zh) 基于虚拟现实空间的拍摄方法、装置、设备及介质
CN115280261A (zh) 用于在多用户通信会话期间调用公共或私有交互的方法和设备
US20230405475A1 (en) Shooting method, apparatus, device and medium based on virtual reality space
US20240078734A1 (en) Information interaction method and apparatus, electronic device and storage medium
CN117354484A (zh) 基于虚拟现实的拍摄处理方法、装置、设备及介质
CN117376591A (zh) 基于虚拟现实的场景切换处理方法、装置、设备及介质
WO2024016880A1 (zh) 信息交互方法、装置、电子设备和存储介质
WO2024012106A1 (zh) 信息交互方法、装置、电子设备和存储介质
US20230377248A1 (en) Display control method and apparatus, terminal, and storage medium
CN117519456A (zh) 信息交互方法、装置、电子设备和存储介质
CN117572994A (zh) 虚拟对象的显示处理方法、装置、设备及介质
CN117631904A (zh) 信息交互方法、装置、电子设备和存储介质
CN117991889A (zh) 信息交互方法、装置、电子设备和存储介质
CN117075770A (zh) 基于扩展现实的交互控制方法、装置、电子设备和存储介质
CN117519457A (zh) 信息交互方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination