CN112929627B - 虚拟现实场景实现方法、装置、存储介质及电子设备 - Google Patents
虚拟现实场景实现方法、装置、存储介质及电子设备 Download PDFInfo
- Publication number
- CN112929627B CN112929627B CN202110199040.3A CN202110199040A CN112929627B CN 112929627 B CN112929627 B CN 112929627B CN 202110199040 A CN202110199040 A CN 202110199040A CN 112929627 B CN112929627 B CN 112929627B
- Authority
- CN
- China
- Prior art keywords
- virtual
- data
- camera
- video data
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/293—Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开涉及虚拟现实领域,具体涉及一种虚拟现实场景实现方法、装置、存储介质及电子设备。虚拟现实场景实现方法包括获取现实视频数据,并根据所述现实视频数据得到第一摄像机数据;将所述第一摄像机数据转换为第二摄像机数据;利用虚拟引擎根据所述第二摄像机数据进行虚拟拍摄,得到虚拟视频数据;将所述现实视频数据和所述虚拟视频数据进行视频合成,得到虚拟现实混合视频数据。本公开提供的虚拟现实场景实现方法能够提供一种相较于现有技术更轻便快捷、成本较低的虚拟现实融合方案。
Description
技术领域
本公开涉及虚拟现实领域,具体涉及一种虚拟现实场景实现方法、装置、存储介质及电子设备。
背景技术
增强现实(Augmented Reality)就是把把虚拟世界叠加到现实世界。现有的AR技术中,可以利用AR设备实时计算摄影机的位置和角度,再结合图像技术就能够得到虚拟和现实同步的画面。这项技术在电影和电视节目中得到大量应用,比如春晚的AR舞台效果,天气预报,军事解说节目,竞技比赛等等。
但这种技术通常需要使用硬件追踪设备,不仅硬件设备价格昂贵,对使用场地也有一定的要求。因此,需要为实现虚拟现实融合提供一种轻便快捷、成本较低的技术方案。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种虚拟现实场景实现方法、装置、存储介质及电子设备,旨在提供一种轻便快捷、成本较低的虚拟现实融合方案。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开实施例的一个方面,提供了一种虚拟现实场景实现方法,包括:获取现实视频数据,并根据所述现实视频数据得到第一摄像机数据;将所述第一摄像机数据转换为第二摄像机数据;利用虚拟引擎根据所述第二摄像机数据进行虚拟拍摄,得到虚拟视频数据;将所述现实视频数据和所述虚拟视频数据进行视频合成,得到虚拟现实混合视频数据。
根据本公开的一些实施例,基于前述方案,在所述根据所述现实视频数据得到第一摄像机数据之前,所述方法还包括:配置反求运算中视频跟踪的帧速率;基于所述帧速率将所述现实视频数据转换为图片序列帧,以用于得到所述第一摄像机数据。
根据本公开的一些实施例,基于前述方案,所述根据所述现实视频数据得到第一摄像机数据,包括:在第一三维虚拟场景坐标系中创建第一虚拟摄像机,并建立所述图片序列帧与所述第一虚拟摄像机的关联关系;按照所述帧速率跟踪所述图片序列帧中的固定跟踪点,以识别所述固定跟踪点在所述图片序列帧中不同帧的跟踪点位置信息;根据所述跟踪点位置信息进行反求运算得到所述第一虚拟摄像机的运动轨迹数据;将所述第一虚拟摄像机、跟踪点位置信息、运动轨迹数据输出为目标格式的第一摄像机数据。
根据本公开的一些实施例,基于前述方案,在输出所述第一摄像机数据之前,所述方法还包括:根据所述第一三维虚拟场景坐标系和第二三维虚拟场景坐标系的比例配置输出比例;基于所述输出比例调整所述跟踪点位置信息和运动轨迹数据。
根据本公开的一些实施例,基于前述方案,所述将所述第一摄像机数据转换为第二摄像机数据,包括:解析所述第一摄像机数据得到第二三维虚拟场景坐标系中的第一虚拟摄像机、跟踪点位置信息和运动轨迹数据;提取所述第一虚拟摄像机和运动轨迹数据;对所述第一虚拟摄像机和运动轨迹数据进行格式转换,以输出目标格式的第二摄像机数据。
根据本公开的一些实施例,基于前述方案,所述利用虚拟引擎根据所述第二摄像机数据进行虚拟拍摄,得到虚拟视频数据,包括:在所述虚拟引擎中创建第二虚拟摄像机,以及解析所述第二摄像机数据得到运动轨迹数据;将所述运动轨迹数据配置为所述第二虚拟摄像机的运动轨迹数据;基于所述第二虚拟摄像机的运动轨迹数据对预先创建的虚拟对象进行虚拟拍摄,以得到虚拟视频数据。
根据本公开的一些实施例,基于前述方案,所述将所述现实视频数据和所述虚拟视频数据进行视频合成,得到虚拟现实混合视频数据,包括:将所述现实视频数据放在下层通道,将所述虚拟视频数据放在上层通道;利用视频合成模型对上、下层通道的视频数据从起始帧开始逐帧渲染,得到同一通道的虚拟现实混合视频数据。
根据本公开实施例的第二个方面,提供了一种虚拟现实场景实现装置,包括:反求模块,用于获取现实视频数据,并根据所述现实视频数据得到第一摄像机数据;转换模块,用于将所述第一摄像机数据转换为第二摄像机数据;渲染模块,用于利用虚拟引擎根据所述第二摄像机数据进行虚拟拍摄,得到虚拟视频数据;合成模块,用于将所述现实视频数据和所述虚拟视频数据进行视频合成,得到虚拟现实混合视频数据。
根据本公开实施例的第三个方面,提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如上述实施例中的虚拟现实场景实现方法。
根据本公开实施例的第四个方面,提供了一种电子设备,其特征在于,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上述实施例中的虚拟现实场景实现方法。
本公开示例性实施例可以具有以下部分或全部有益效果:
在本公开的一些实施例所提供的技术方案中,首先对现实视频数据处理得到第一摄像机数据,避免使用大型且昂贵的硬件拍摄设备才可以追踪到摄像机数据,拍摄灵活性更高,制作成本更低;其次将摄像机数据转换得到第二摄像机数据用于虚拟引擎渲染,避免对现实视频数据直接处理得到的第一摄像机数据不能直接用于虚拟引擎,拥有虚拟引擎适配性;然后利用虚拟引擎对第二摄像机数据进行虚拟拍摄得到虚拟视频,可以减少渲染时间并实时显示渲染效果,拓展了虚拟引擎的应用范围;最后再把现实视频和虚拟视频进行合成,得到虚拟现实混合视频数据。基于上述方法,提供了一种利用虚拟引擎对处理的软件追踪数据渲染的技术方案,实现虚拟现实视频的融合,拓展了虚拟引擎的应用范围。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示意性示出本公开示例性实施例中一种虚拟现实场景实现方法的流程示意图;
图2示意性示出本公开示例性实施例中一种反求运算方法的流程示意图;
图3示意性示出本公开示例性实施例中一种生成第二摄像机数据方法的流程示意图;
图4示意性示出本公开示例性实施例中一种虚拟现实场景实现装置的组成示意图;
图5示意性示出本公开示例性实施例中一种计算机可读存储介质的示意图;
图6示意性示出本公开示例性实施例中一种电子设备的计算机系统的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本公开的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
虚拟引擎在游戏制作领域中应用广泛,虚幻的编辑器(UnrealEd)是一个以“所见即所得”为设计理念的操作工具,可以很好地运用于游戏开发中去。例如,数据属性编辑工具,可以让关卡设计人员自由地对游戏中的物件进行设置或是由程序人员通过脚本编写的形式直接进行优化设置;地图编辑工具,可以让游戏的美术开发人员自由地对地形进行升降的高度调节,或是通过带有alpha通道的笔刷直接对地图层进行融合和修饰,直接生成碰撞数据和位移贴图;图形化的材质编辑工具,可以使开发人员对材质中的色彩,alpha通道及贴图坐标进行自由的调解,定义所需要的材质内容。
本公开提供一种虚拟现实场景实现方法,将视频数据反求得到摄像机数据,并将其转化为可输入至虚拟引擎的格式数据,利用虚拟引擎实时显示虚拟视频效果,最终得到具有虚拟现实场景的视频数据,提供一种轻便快捷、成本较低的虚拟现实融合方案的同时,也拓展了虚拟引擎的应用范围。
以下对本公开实施例的技术方案的实现细节进行详细阐述。
图1示意性示出本公开示例性实施例中一种虚拟现实场景实现方法的流程示意图。如图1所示,该虚拟现实场景实现方法包括步骤S101至步骤S104:
S101,获取现实视频数据,并根据所述现实视频数据得到第一摄像机数据;
S102,将所述第一摄像机数据转换为第二摄像机数据;
S103,利用虚拟引擎根据所述第二摄像机数据进行虚拟拍摄,得到虚拟视频数据;
S104,将所述现实视频数据和所述虚拟视频数据进行视频合成,得到虚拟现实混合视频数据。
在本公开的一些实施例所提供的技术方案中,首先对现实视频数据处理得到第一摄像机数据,避免使用大型且昂贵的硬件拍摄设备才可以追踪到摄像机数据,拍摄灵活性更高,制作成本更低;其次将摄像机数据转换得到第二摄像机数据用于虚拟引擎渲染,避免对现实视频数据直接处理得到的第一摄像机数据不能直接用于虚拟引擎,拥有虚拟引擎适配性;然后利用虚拟引擎对第二摄像机数据进行虚拟拍摄得到虚拟视频,可以减少渲染时间并实时显示渲染效果,拓展了虚拟引擎的应用范围;最后再把现实视频和虚拟视频进行合成,得到虚拟现实混合视频数据。基于上述方法,提供了一种利用虚拟引擎对处理的软件追踪数据渲染的技术方案,实现虚拟现实视频的融合,拓展了虚拟引擎的应用范围。
下面,将结合附图及实施例对本示例实施方式中的虚拟现实场景实现方法的各个步骤进行更详细的说明。
在步骤S101中,获取现实视频数据,并根据所述现实视频数据得到第一摄像机数据。
在本公开的一个实施例中,现实视频数据可以是由现实摄像机拍摄得到的。在拍摄过程中,为了便于后期的反求运算,需要在拍摄的场景中放置或设置一些标记点,标记点之间可以具有规律的间隔距离,其一可以帮助在反求过程中矫正计算误差,以获得更精确地摄像机的运动轨迹,其二有记录的标记距离可以还原拍摄空间的尺寸。
需要说明的是,在拍摄过程中,对于现实摄像机没有具体要求,可以是手机、相机或无人机等。这是因为在获取现实视频数据的同时不需要获取摄像机的运动轨迹,所以可以不使用数字化机械臂摄像机这类昂贵的拍摄设备,拍摄场地的限制更小,拍摄更加自由和便捷,同时成本也较低。
在本公开的一个实施例中,对现实视频数据进行反求运算可以使用CINEMA 4D(C4D)、Adobe After Effects(AE)、Boujou、PF Track等软件,利用透视原理进行反求运算。反求运算可以通过现有技术实现,因此本公开对此不做过多描述。
在本公开的一个实施例中,在所述根据所述现实视频数据得到第一摄像机数据之前,所述方法还包括:配置反求运算中视频跟踪的帧速率;基于所述帧速率将所述视频数据转换为图片序列帧,以用于得到所述第一摄像机数据。
具体而言,为了获取与拍摄的现实摄像机一致的摄像机数据,视频跟踪的帧速率要与拍摄的现实视频帧速率相同。因此需要在反求软件中预先配置视频跟踪的帧速率,例如25、50等,再基于帧速率将视频数据转换为图片序列帧。也可以根据视频跟踪默认的帧速率进行图片序列帧的转换。
具体地,可以把mov格式的现实视频渲染成PNG格式的图片序列帧。例如将现实视频素材导入后期处理软件Adobe After Effects中,设置图片尺寸为1920*1080,帧速率与跟踪帧速率相同为25,输出格式为PNG序列帧,渲染输出。
图2示意性示出本公开示例性实施例中一种反求运算方法的流程示意图。如图2所示,在反求运算中,以利用Boujou软件进行反求为例,所述对所述现实视频数据反求得到第一摄像机数据,包括:
步骤S201,在第一三维虚拟场景坐标系中创建第一虚拟摄像机,并建立所述图片序列帧与所述第一虚拟摄像机的关联关系。
在本公开的一个实施例中,第一三维虚拟场景坐标系为Boujou软件配置的虚拟环境。在第一三维虚拟场景坐标系中创建第一虚拟摄像机,并将现实视频数据转化的图片序列帧传入Boujou软件中,将图片序列帧作为第一虚拟摄像机的视频数据。
步骤S202,按照所述帧速率跟踪所述图片序列帧中的固定跟踪点,以识别所述固定跟踪点在所述图片序列帧中不同帧的跟踪点位置信息。
在本公开的一个实施例中,由于事先在拍摄场景中设置有标记点,所以序列帧中的每一张图片就有固定跟踪点。Boujou软件利用跟踪组件识别每一帧图片中的跟踪点,并记录图片帧数和对应的跟踪点位置坐标,进而得到跟踪点位置信息。
步骤S203,根据所述跟踪点位置信息进行反求运算得到所述第一虚拟摄像机的运动轨迹数据。
在本公开的一个实施例中,由于在现实场景中跟踪点的位置是不变的,因此Boujou软件利用透视原理和跟踪点的位置信息可以反求出摄像机的运动轨迹,并将摄像机的运动轨迹配置为第一虚拟摄像机的运动轨迹数据,也就是现实视频数据对应的现实摄像机的运动轨迹数据。
步骤S204,将所述第一虚拟摄像机、跟踪点位置信息、运动轨迹数据输出为目标格式的第一摄像机数据。
在本公开的一个实施例中,由于后续要将第一摄像机数据进行处理,以得到第二摄像机数据,因此在输出时要考虑后续处理的兼容性。具体而言,第一摄像机数据处于第一三维虚拟场景坐标系中,第二摄像机数据处于第二三维虚拟场景坐标系中,所以还需要对比例和格式进行调整。
其一,调整比例。在本公开的一个实施例中,包括:根据所述第一三维虚拟场景坐标系和第二三维虚拟场景坐标系的比例配置输出比例;基于所述输出比例调整所述跟踪点位置信息和运动轨迹数据。其中,输出比例为第二三维虚拟场景坐标系单位和第一三维虚拟场景坐标系单位的比例。以利用Maya软件得到第二摄像机数据为例,Maya软件中坐标系单位为1厘米,而Boujou软件中坐标系单位为1毫米,因此需要配置输出比例为10:1,根据输出比例对、跟踪点位置信息、运动轨迹数据进行调整。
其二,转换格式。在本公开的一个实施例中,以利用Maya软件得到第二摄像机数据为例,第一摄像机数据必须是可以输入Maya软件的格式数据,所以需要转化为MA文件输出。其中MA文件包括第一虚拟摄像机,以及第一虚拟摄像机对应的跟踪点位置信息和第一虚拟摄像机的运动轨迹数据。
在本公开的一个实施例中,还可以使用Adobe After Effects软件进行反求运算得到第一摄像机数据。利用Adobe After Effects自带灯光点光源设置及Trapcode-particular粒子插件将发射器类型选择为灯光,粒子灯光命名与图层外灯光命名保持一致。进行反求计算得到跟踪点位置信息,根据标记点之间的实际距离为跟踪点赋予粒子控制的灯光达到点连线生成不同长度、颜色准确位置的线位,最终得到第一摄像机数据。
基于上述方法,可以通过对视频数据进行摄像机反求,以得到现实摄像机的真实运动轨迹,避免使用大型且昂贵的硬件拍摄设备才可以追踪到摄像机数据,拍摄灵活性更高,制作成本更低,进而使得虚拟现实融合的使用场景更加广泛。
在步骤S102中,将所述第一摄像机数据转换为第二摄像机数据。
图3示意性示出本公开示例性实施例中一种生成第二摄像机数据方法的流程示意图。如图3所示,所述将所述第一摄像机数据转换为第二摄像机数据,包括:
步骤S301,解析所述第一摄像机数据得到第二三维虚拟场景坐标系中的第一虚拟摄像机、跟踪点位置信息和运动轨迹数据。
在本公开的一个实施例中,将第一摄像机数据传入第二三维虚拟场景中,虚拟场景对第一摄像机数据进行解析,读取第一虚拟摄像机、跟踪点位置信息和运动轨迹数据。
优选地,使用Maya软件创建第二三维虚拟场景,将第一摄像机数据传入Maya软件,得到第二三维虚拟场景的第一虚拟摄像机组件、第一虚拟摄像机对应的跟踪点位置信息和第一虚拟摄像机运动轨迹数据。Maya软件为解析的数据创建一个组文件用于数据存储。
步骤S302,提取所述第一虚拟摄像机和运动轨迹数据。
在本公开的一个实施例中,可以通过用户的点击操作,选中Maya软件第二三维虚拟场景中的第一虚拟摄像机组件,就可以提取到第一虚拟摄像机和运动轨迹数据。也可以由Maya软件自动将跟踪点位置信息过滤,得到第一虚拟摄像机和运动轨迹数据。
步骤S303,对所述第一虚拟摄像机和运动轨迹数据进行格式转换,以输出目标格式的第二摄像机数据。
在本公开的一个实施例中,提取到第一虚拟摄像机和运动轨迹数据后,Maya软件需要创建一个新的组别,并将第一虚拟摄像机和运动轨迹数据存储在新的组别中,也就是将第一虚拟摄像机和运动轨迹数据从默认的组文件中脱离出来单独存在。
由于Maya软件默认会将同一个组别中的数据导出,而虚拟引擎并不需要跟踪点位置信息,因此需要在Maya软件创建一个新的组别用于存储第一虚拟摄像机和运动轨迹数据,再将这个组别的数据导出,就可以成功接入虚拟引擎中。
在本公开的一个实施例中,将单独存在的第一虚拟摄像机和运动轨迹数据利用格式转换组件进行格式转换,输出为与虚拟引擎匹配的目标格式的第二摄像机数据。举例而言,若虚拟引擎为Unreal Engine 4,则输出为Unreal Engine 4支持的FBX格式的第二摄像机数据,以用于接入虚拟引擎中。
在本公开的一个实施例中,需要转换的第一摄像机数据也可以是反求运算得到的不具有跟踪点数据的摄像机数据,其中只包括第一虚拟摄像机和运动轨迹数据。因此步骤S102中具体包括:解析第一摄像机数据得到第二三维虚拟场景坐标系中的第一虚拟摄像机和运动轨迹数据;对第一虚拟摄像机和运动轨迹数据进行格式转换,以输出目标格式的第二摄像机数据。因此可以省略提取数据的步骤,操作更加简单。
在步骤S103中,利用虚拟引擎根据所述第二摄像机数据进行虚拟拍摄,得到虚拟视频数据。
在本公开的一个实施例中,所述基于所述第二摄像机数据利用虚拟引擎进行虚拟拍摄,以得到虚拟视频数据,包括:在虚拟引擎中创建第二虚拟摄像机,以及解析所述第二摄像机数据得到运动轨迹数据;将所述运动轨迹数据配置为所述第二虚拟摄像机的运动轨迹数据;基于所述第二虚拟摄像机的运动轨迹数据对预先创建的虚拟对象进行虚拟拍摄,以得到虚拟视频数据。
在渲染得到虚拟视频数据之前,还需要预先在虚拟引擎中创建虚拟对象。虚拟对象可例如绘制的静态的角色特效、虚拟场景等一些添加在现实视频上的元素,可以通过贴图绘制软件制虚拟对象,例如Photoshop、Substance Painter等,再将其导入虚拟引擎中。
其中,虚拟引擎可以是Unreal Engine 4引擎,Unity 3D引擎或者是自身研发的引擎。
具体而言,在虚拟引擎中创建第二虚拟摄像机;将第二摄像机数据接入虚拟引擎以得到虚拟引擎中的第二摄像机数据;将第二摄像机数据与第二虚拟摄像机建立关联关系,进而将运动轨迹数据配置为第二虚拟摄像机的运动轨迹数据。
在虚拟引擎中,根据第二虚拟摄像机的运动轨迹数据,渲染器考虑场景中的灯光照明,利用物理引擎中的透视原理,基于粒子系统从起始帧开始逐帧计算虚拟对象在每一运动轨迹处的图片信息,进而通过渲染引擎渲染得到虚拟视频数据的图片序列帧,将绘制的静态虚拟对象转变为虚拟视频数据。
在渲染时,可以根据需求从预设的帧数开始渲染得到虚拟视频数据,即只为现实视频的某一段视频叠加虚拟视频。在虚拟引擎中选定预设帧对应的第二虚拟摄像机的运动轨迹,从该运动轨迹处向后渲染。
基于上述方法,将数据转化为可输入虚拟引擎的视频数据文件,进而利用虚拟引擎高性能的灯光照明系统、专业的物理引擎、逼真的粒子系统、强大的渲染引擎渲染得到虚拟视频数据,相比于传统的三维软件,减少了渲染时间,同时,在可视化的编辑窗口操作人员可以对虚拟对象、光源进行自由的摆放和属性的控制,并且可以实时显示渲染的虚拟视频画面,使用更加轻便快捷。
在步骤S104中,将所述现实视频数据和所述虚拟视频数据进行视频合成,得到虚拟现实混合视频数据。
在本公开的一个实施例中,所述将所述现实视频数据和所述虚拟视频数据进行视频合成,得到虚拟现实混合视频数据,包括:将所述现实视频数据放在下层通道,将所述虚拟视频数据放在上层通道;利用视频合成模型对上、下层通道的视频数据从起始帧开始逐帧渲染,得到同一通道的虚拟现实混合视频数据。
在本公开的一个实施例中,可以使用合成软件实现虚拟现实画面的合成,例如Adobe After Effects、3DMax、Side Houdini、Fusion等。
在本公开的一个实施例中,首先,可以将现实视频数据和虚拟视频数据分别放在不同的通道中进行合成,进而将虚拟视频数据叠加至现实视频数据进行合成。具体地,可以将现实视频数据放在下层通道,将虚拟视频数据放在上层通道。
然后,可以将位于不同通道的现实视频数据和虚拟视频数据的合成起始帧对齐,即将虚拟视频数据从预设的合适的地方开始合成。如果虚拟引擎渲染是从起始帧开始渲染,则将现实视频数据的起始帧和虚拟视频数据的起始帧对齐,如果虚拟引擎渲染是从预设帧开始渲染,则将现实视频数据的预设帧和虚拟视频数据的起始帧对齐。
另外,拍摄的现实视频数据可以是多段视频,从虚拟引擎中渲染的虚拟视频数据也可以是多段视频。因此,在合成过程中,可以根据需求将现实视频数据和虚拟视频数据进行拼接剪辑之后再合成,只需要保证渲染的现实视频数据对应的摄像机运动轨迹和虚拟视频数据对应的摄像机运动轨迹是相同的。
最后,对视频从起始帧开始逐帧渲染进行合成。视频合成还包括色彩校正、提取通道合成、视频剪辑等步骤。举例来说,色彩校正主要调整场景中的实景拍摄的现实视频以及渲染的虚拟视频的主体颜色,通过调节光线的色温,能够使CG与实拍视频更好融合,协调合成视频的整体色调。提取通道合成主要用于实现虚拟现实合成视频的模型阴影、模型环绕光和景深细节效果,通过提取图片的图层,使用色阶滤镜,能够模拟真实阴影衰减的效果,增强画面的真实感。视频剪辑可以包括对虚拟现实视频进行主题鲜明的剪辑、添加符合要求的背景音乐、字幕等。
基于上述方法,可以在没有AR类硬件追踪设备的情况下通过软件追踪异步制作的方法同样得到现实画面和虚拟画面同步,提供了一种利用虚拟引擎对处理的软件追踪数据渲染,以实现虚拟现实视频融合的技术方案,具有拍摄灵活性高,制作成本低,拥有虚拟引擎适配性,并且虚拟画面渲染效果好等优点。同时,对虚拟引擎的应用场景进行了拓展,不仅可以运用于游戏开发场景中,还可以结合虚拟现实技术应用于影视、综艺以及虚拟制片中。
图4示意性示出本公开示例性实施例中一种虚拟现实场景实现装置的组成示意图,如图4所示,该虚拟现实场景实现装置可以包括反求模块401、转换模块402、渲染模块403和合成模块404。其中:
反求模块401,用于获取现实视频数据,并根据所述现实视频数据得到第一摄像机数据;
转换模块402,用于将所述第一摄像机数据转换为第二摄像机数据;
渲染模块403,用于利用虚拟引擎根据所述第二摄像机数据进行虚拟拍摄,得到虚拟视频数据;
合成模块404,用于将所述现实视频数据和所述虚拟视频数据进行视频合成,得到虚拟现实混合视频数据。
根据本公开的示例性实施例,所述反求模块401还包括视频数据转换单元,用于在所述根据所述现实视频数据得到第一摄像机数据之前,所述方法还包括:配置反求运算中视频跟踪的帧速率;基于所述帧速率将所述现实视频数据转换为图片序列帧,以用于得到所述第一摄像机数据。。
根据本公开的示例性实施例,所述反求模块401包括第一摄像机单元、视频跟踪单元、视频反求单元和视频输出单元。所述第一摄像机单元用于在第一三维虚拟场景坐标系中创建第一虚拟摄像机,并建立所述图片序列帧与所述第一虚拟摄像机的关联关系;所述视频跟踪单元用于按照所述帧速率跟踪所述图片序列帧中的固定跟踪点,以识别所述固定跟踪点在所述图片序列帧中不同帧的跟踪点位置信息;所述视频反求单元用于根据所述跟踪点位置信息进行反求运算得到所述第一虚拟摄像机的运动轨迹数据;所述视频输出单元用于将所述第一虚拟摄像机、跟踪点位置信息、运动轨迹数据输出为目标格式的第一摄像机数据。
根据本公开的示例性实施例,所述视频输出单元还用于根据所述第一三维虚拟场景坐标系和第二三维虚拟场景坐标系的比例配置输出比例;基于所述输出比例调整所述跟踪点位置信息和运动轨迹数据。
根据本公开的示例性实施例,所述转换模块402包括数据解析单元、数据提取单元和格式转换单元。所述数据解析单元用于解析所述第一摄像机数据得到第二三维虚拟场景坐标系中的第一虚拟摄像机、跟踪点位置信息和运动轨迹数据;所述数据提取单元用于提取所述第一虚拟摄像机和运动轨迹数据;所述格式转换单元用于对所述第一虚拟摄像机和运动轨迹数据进行格式转换,以输出目标格式的第二摄像机数据。
根据本公开的示例性实施例,所述渲染模块403包括第二摄像机单元、数据配置单元和渲染单元。所述第二摄像机单元用于在虚拟引擎中创建第二虚拟摄像机,以及解析所述第二摄像机数据得到运动轨迹数据;所述数据配置单元用于将所述运动轨迹数据配置为所述第二虚拟摄像机的运动轨迹数据;所述渲染单元用于基于所述第二虚拟摄像机的运动轨迹数据对预先创建的虚拟对象进行虚拟拍摄,以得到虚拟视频数据。
根据本公开的示例性实施例,所述合成模块404包括视频通道单元和视频合成单元。所述视频通道单元用于将所述现实视频数据放在下层通道,将所述虚拟视频数据放在上层通道;所述视频合成单元用于利用视频合成模型对上、下层通道的视频数据从起始帧开始逐帧渲染,得到同一通道的虚拟现实混合视频数据。
上述的虚拟现实场景实现装置400中各模块的具体细节已经在对应的虚拟现实场景实现方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
在本公开的示例性实施例中,还提供了一种能够实现上述方法的存储介质。图5示意性示出本公开示例性实施例中一种计算机可读存储介质的示意图,如图5所示,描述了根据本公开的实施方式的用于实现上述方法的程序产品500,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如手机上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。图6示意性示出本公开示例性实施例中一种电子设备的计算机系统的结构示意图。
需要说明的是,图6示出的电子设备的计算机系统600仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(Central Processing Unit,CPU)601,其可以根据存储在只读存储器(Read-Only Memory,ROM)602中的程序或者从存储部分608加载到随机访问存储器(Random Access Memory,RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(Input/Output,I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(Cathode Ray Tube,CRT)、液晶显示器(Liquid Crystal Display,LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN(Local Area Network,局域网)卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本公开的系统中限定的各种功能。
需要说明的是,本公开实施例所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、闪存、光纤、便携式紧凑磁盘只读存储器(Compact Disc Read-Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本公开还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现上述实施例中所述的方法。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、触控终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (9)
1.一种虚拟现实场景实现方法,其特征在于,包括:
获取现实视频数据,并根据所述现实视频数据得到处于第一三维虚拟场景坐标系中的第一摄像机数据,以及基于所述第一摄像机数据所处的第一三维虚拟场景坐标系和第二摄像机数据所处的第二三维虚拟场景坐标系对所述第一摄像机数据进行比例调整和格式调整;
解析所述第一摄像机数据得到第二三维虚拟场景坐标系中的第一虚拟摄像机组件、第一虚拟摄像机对应的跟踪点位置信息和第一虚拟摄像机的运动轨迹数据;提取所述第一虚拟摄像机组件和第一虚拟摄像机的运动轨迹数据;对所述第一虚拟摄像机组件和第一虚拟摄像机的运动轨迹数据进行格式转换,以输出目标格式的处于第二三维虚拟场景坐标系中的第二摄像机数据;
在虚拟引擎中创建虚拟对象,并利用所述虚拟引擎根据所述第二摄像机数据对所述虚拟对象进行虚拟拍摄,得到虚拟视频数据;
将所述现实视频数据和所述虚拟视频数据进行视频合成,得到虚拟现实混合视频数据。
2.根据权利要求1所述的虚拟现实场景实现方法,其特征在于,在所述根据所述现实视频数据得到处于第一三维虚拟场景坐标系中的第一摄像机数据之前,所述方法还包括:
配置反求运算中视频跟踪的帧速率;
基于所述帧速率将所述现实视频数据转换为图片序列帧,以用于得到所述第一摄像机数据。
3.根据权利要求2所述的虚拟现实场景实现方法,其特征在于,所述根据所述现实视频数据得到处于第一三维虚拟场景坐标系中的第一摄像机数据,包括:
在第一三维虚拟场景坐标系中创建第一虚拟摄像机,并建立所述图片序列帧与所述第一虚拟摄像机的关联关系;
按照所述帧速率跟踪所述图片序列帧中的固定跟踪点,以识别所述固定跟踪点在所述图片序列帧中不同帧的跟踪点位置信息;
根据所述跟踪点位置信息进行反求运算得到所述第一虚拟摄像机的运动轨迹数据;
将所述第一虚拟摄像机组件、所述第一虚拟摄像机对应的所述跟踪点位置信息和所述第一虚拟摄像机的运动轨迹数据输出为目标格式的第一摄像机数据。
4.根据权利要求3所述的虚拟现实场景实现方法,其特征在于,在输出所述第一摄像机数据之前,所述方法还包括:
根据所述第一三维虚拟场景坐标系和第二三维虚拟场景坐标系的比例配置输出比例;
基于所述输出比例调整所述第一虚拟摄像机对应的跟踪点位置信息和所述第一虚拟摄像机的运动轨迹数据。
5.根据权利要求1所述的虚拟现实场景实现方法,其特征在于,所述利用所述虚拟引擎根据所述第二摄像机数据进行虚拟拍摄,得到虚拟视频数据,包括:
在所述虚拟引擎中创建第二虚拟摄像机;
将所述第一虚拟摄像机的运动轨迹数据配置为所述第二虚拟摄像机的运动轨迹数据;
基于所述第二虚拟摄像机的运动轨迹数据对所述虚拟对象进行虚拟拍摄,以得到虚拟视频数据。
6.根据权利要求1所述的虚拟现实场景实现方法,其特征在于,所述将所述现实视频数据和所述虚拟视频数据进行视频合成,得到虚拟现实混合视频数据,包括:
将所述现实视频数据放在下层通道,将所述虚拟视频数据放在上层通道;
利用视频合成模型对上、下层通道的视频数据从起始帧开始逐帧渲染,得到同一通道的虚拟现实混合视频数据。
7.一种虚拟现实场景实现装置,其特征在于,包括:
反求模块,用于获取现实视频数据,并根据所述现实视频数据得到处于第一三维虚拟场景坐标系中的第一摄像机数据,以及基于所述第一摄像机数据所处的第一三维虚拟场景坐标系和第二摄像机数据所处的第二三维虚拟场景坐标系对所述第一摄像机数据进行比例调整和格式调整;
转换模块,用于解析所述第一摄像机数据得到第二三维虚拟场景坐标系中的第一虚拟摄像机组件、第一虚拟摄像机对应的跟踪点位置信息和第一虚拟摄像机的运动轨迹数据;提取所述第一虚拟摄像机组件和第一虚拟摄像机的运动轨迹数据;对所述第一虚拟摄像机组件和第一虚拟摄像机的运动轨迹数据进行格式转换,以输出目标格式的处于第二三维虚拟场景坐标系中的第二摄像机数据;
渲染模块,用于利用虚拟引擎根据所述第二摄像机数据进行虚拟拍摄,得到虚拟视频数据;
合成模块,用于将所述现实视频数据和所述虚拟视频数据进行视频合成,得到虚拟现实混合视频数据。
8.一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如权利要求1至6任一项所述的虚拟现实场景实现方法。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至6任一项所述的虚拟现实场景实现方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110199040.3A CN112929627B (zh) | 2021-02-22 | 2021-02-22 | 虚拟现实场景实现方法、装置、存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110199040.3A CN112929627B (zh) | 2021-02-22 | 2021-02-22 | 虚拟现实场景实现方法、装置、存储介质及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112929627A CN112929627A (zh) | 2021-06-08 |
CN112929627B true CN112929627B (zh) | 2023-02-07 |
Family
ID=76170188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110199040.3A Active CN112929627B (zh) | 2021-02-22 | 2021-02-22 | 虚拟现实场景实现方法、装置、存储介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112929627B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113426117B (zh) * | 2021-06-23 | 2024-03-01 | 网易(杭州)网络有限公司 | 虚拟相机拍摄参数获取方法、装置、电子设备和存储介质 |
CN114339405B (zh) * | 2022-01-04 | 2023-11-17 | 广州博冠信息科技有限公司 | Ar视频数据流远程制作方法及装置、设备、存储介质 |
CN114598824B (zh) * | 2022-03-09 | 2024-03-19 | 北京字跳网络技术有限公司 | 特效视频的生成方法、装置、设备及存储介质 |
CN116527863A (zh) * | 2022-04-28 | 2023-08-01 | 腾讯科技(深圳)有限公司 | 基于虚拟现实的视频生成方法、装置、设备及介质 |
CN115174993B (zh) * | 2022-08-09 | 2024-02-13 | 北京字跳网络技术有限公司 | 用于视频制作的方法、装置、设备和存储介质 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9299184B2 (en) * | 2009-04-07 | 2016-03-29 | Sony Computer Entertainment America Llc | Simulating performance of virtual camera |
CN102857701B (zh) * | 2012-09-14 | 2015-07-15 | 北京东方艾迪普科技发展有限公司 | 一种三维场景中虚拟摄像机的跟踪方法 |
CN106408515A (zh) * | 2016-08-31 | 2017-02-15 | 郑州捷安高科股份有限公司 | 一种增强现实的视景合成系统 |
US10497182B2 (en) * | 2017-10-03 | 2019-12-03 | Blueprint Reality Inc. | Mixed reality cinematography using remote activity stations |
CN109688343A (zh) * | 2017-10-18 | 2019-04-26 | 深圳市掌网科技股份有限公司 | 增强现实演播室的实现方法和装置 |
US20190156579A1 (en) * | 2017-11-23 | 2019-05-23 | Blueprint Reality Inc. | Mixed reality video production with detached camera |
CN111080704B (zh) * | 2018-10-22 | 2023-09-15 | 浙江宇视科技有限公司 | 视频增强现实的方法及装置 |
CN110691175B (zh) * | 2019-08-19 | 2021-08-24 | 深圳市励得数码科技有限公司 | 演播室中模拟摄像机运动跟踪的视频处理方法及装置 |
CN110866978A (zh) * | 2019-11-07 | 2020-03-06 | 辽宁东智威视科技有限公司 | 一种实时混合现实视频拍摄中的相机同步方法 |
-
2021
- 2021-02-22 CN CN202110199040.3A patent/CN112929627B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112929627A (zh) | 2021-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112929627B (zh) | 虚拟现实场景实现方法、装置、存储介质及电子设备 | |
US10499035B2 (en) | Method and system of displaying a popping-screen | |
CN106157359B (zh) | 一种虚拟场景体验系统的设计方法 | |
CN111698390A (zh) | 虚拟摄像机控制方法及装置、虚拟演播厅实现方法及系统 | |
CN113436343B (zh) | 用于虚拟演播厅的画面生成方法及装置、介质及电子设备 | |
CN105635712A (zh) | 基于增强现实的视频实时录制方法及录制设备 | |
CN106033333A (zh) | 一种可视化的增强现实场景制作系统及方法 | |
CN106303289A (zh) | 一种将真实对象与虚拟场景融合显示的方法、装置及系统 | |
CN112237739A (zh) | 游戏角色渲染方法、装置、电子设备及计算机可读介质 | |
CN112053370A (zh) | 基于增强现实的显示方法、设备及存储介质 | |
CN113806306B (zh) | 媒体文件处理方法、装置、设备、可读存储介质及产品 | |
JP2024502407A (ja) | 拡張現実に基づく表示方法、装置、機器及び記憶媒体 | |
CN112891946B (zh) | 游戏场景生成方法和装置、可读存储介质、电子设备 | |
CN110134300A (zh) | 一种图片编辑方法及装置 | |
CN110572717A (zh) | 视频编辑方法和装置 | |
CN111045586B (zh) | 基于三维场景的界面切换方法、车机设备及车辆 | |
CN112153472A (zh) | 一种画面特效的生成方法及装置、存储介质及电子设备 | |
CN112017261B (zh) | 贴纸生成方法、装置、电子设备及计算机可读存储介质 | |
JP2023550970A (ja) | 画面の中の背景を変更する方法、機器、記憶媒体、及びプログラム製品 | |
CN116962748A (zh) | 连麦直播的视频图像渲染方法、装置及视频直播系统 | |
CN116847147A (zh) | 特效视频确定方法、装置、电子设备及存储介质 | |
CN113947671A (zh) | 全景360度图像分割合成方法、系统及介质 | |
CN114003331A (zh) | Led环幕虚拟现实合成方法、装置、存储介质及电子设备 | |
CN115250335A (zh) | 视频处理方法、装置、设备及存储介质 | |
CN115174993B (zh) | 用于视频制作的方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |