CN115761064A - 一种视频生成方法、装置、计算机设备及存储介质 - Google Patents
一种视频生成方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN115761064A CN115761064A CN202211409819.4A CN202211409819A CN115761064A CN 115761064 A CN115761064 A CN 115761064A CN 202211409819 A CN202211409819 A CN 202211409819A CN 115761064 A CN115761064 A CN 115761064A
- Authority
- CN
- China
- Prior art keywords
- event
- virtual
- target object
- node
- dimensional scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 230000009471 action Effects 0.000 claims abstract description 98
- 239000000463 material Substances 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 claims description 10
- 238000007499 fusion processing Methods 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 6
- 230000000694 effects Effects 0.000 description 37
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000001795 light effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开提供了一种视频生成方法、装置、计算机设备及存储介质,其中,该方法包括:生成虚拟三维场景;所述虚拟三维场景中包括至少一个目标对象;响应于对所述目标对象进行事件编辑操作,生成与所述目标对象对应的事件流;所述事件流中包括:多个节点分别对应的事件信息;其中,所述事件信息是基于所述事件编辑操作确定的,用于描述所述目标对象执行的事件动作;基于所述事件流中的多个节点分别对应的事件信息,控制所述目标对象在所述虚拟三维场景中执行与所述事件信息对应的事件动作,并在控制所述目标对象执行所述事件动作时,获取目标对象的第一目标视频。
Description
技术领域
本公开涉及计算机图像处理技术领域,具体而言,涉及一种视频生成方法、装置、计算机设备及存储介质。
背景技术
目前,制作一段3D动画往往需要多个专业的软件参与,例如3D模型的动画采用Maya、3Dmax等、灯光渲染采用katana、Maya、合成剪辑采用nuke、Premiere Pro等,使得制作一段3D动画的过程过于繁琐,用户掌握这些专业的软件需要大量的学习成本,导致用户单独的完成一段3D动画较为困难。
发明内容
本公开实施例至少提供一种视频生成方法、装置、计算机设备及存储介质。
第一方面,本公开实施例提供了一种视频生成方法,包括:
生成虚拟三维场景;所述虚拟三维场景中包括至少一个目标对象;
响应于对所述目标对象进行事件编辑操作,生成与所述目标对象对应的事件流;所述事件流中包括:多个节点分别对应的事件信息;其中,所述事件信息是基于所述事件编辑操作确定的,用于描述所述目标对象执行的事件动作;
基于所述事件流中的多个节点分别对应的事件信息,控制所述目标对象在所述虚拟三维场景中执行与所述事件信息对应的事件动作,并在控制所述目标对象执行所述事件动作时,获取目标对象的第一目标视频。
一种可选的实施方式中,还包括:
获取现实场景的第二目标视频;
将所述第一目标视频和所述第二目标视频进行融合处理,得到包括所述目标对象以及所述现实场景的目标视频。
一种可选的实施方式中,所述生成虚拟三维场景,包括:
生成与所述虚拟三维场景对应的虚拟三维空间;
确定至少一种目标对象在所述虚拟三维空间中的坐标值;
基于所述目标对象在所述虚拟三维空间中的坐标值,将所述目标对象对应的三维模型添加至所述虚拟三维空间中,构成所述虚拟三维场景;
一种可选的实施方式中,还包括:
响应于将所述目标对象添加至所述虚拟三维场景中的添加操作,确定所述目标对象在所述虚拟三维场景中的初始特征;所述初始特征包括下述至少一种:初始位姿、初始动画、初始光影类型、以及初始镜头视角;
基于所述初始特征,将与所述目标对象对应的三维模型添加至所述虚拟三维场景中。
一种可选的实施方式中,所述对所述目标对象进行事件编辑操作,包括:
生成所述节点,并接收与生成的所述节点对应的基础事件素材;
基于所述基础事件素材,生成与生成的所述节点对应的事件信息。
一种可选的实施方式中,所述节点包括:时间节点,所述生成所述节点,包括:
在时间轴上确定事件执行时间,并基于该事件执行时间,生成与该事件执行时间对应的时间节点。
一种可选的实施方式中,所述基于所述事件流,控制所述目标对象在所述虚拟三维场景中执行对应的事件动作,包括:
针对所述事件流中的每个时间节点,控制所述目标对象在所述虚拟三维场景中执行与该时间节点对应的事件动作;
响应于与该时间节点对应的事件动作执行完毕后,与该时间节点对应的下一时间节点并未到达,重复执行与该时间节点对应的事件动作。
一种可选的实施方式中,所述节点包括:事件节点;所述基于所述事件流,控制所述目标对象在所述虚拟三维场景中执行对应的事件动作,包括:
针对所述事件流中的每个事件节点,控制所述目标对象在所述虚拟三维场景中执行与该事件节点对应的事件动作,并在将该事件节点对应的事件动作执行完毕后,执行下一事件节点对应的事件动作。
一种可选的实施方式中,所述目标对象有多个;所述基于所述事件流中的多个节点分别对应的事件信息,控制所述目标对象在所述虚拟三维场景中执行与所述事件信息对应的事件动作,包括:
基于多个目标对象分别关联的事件流的多个节点的事件执行时间,对多个所述目标对象分别关联的事件流中的事件信息进行合并操作,得到事件执行脚本;
基于所述事件执行脚本,控制多个所述目标对象在所述虚拟三维场景中执行与多个所述目标对象分别对应的事件动作。
第二方面,本公开实施例还提供一种视频生成装置,包括:
第一生成模块,用于生成虚拟三维场景;所述虚拟三维场景中包括至少一个目标对象;
第二生成模块,用于响应于对所述目标对象进行事件编辑操作,生成与所述目标对象对应的事件流;所述事件流中包括:多个节点分别对应的事件信息;其中,所述事件信息是基于所述事件编辑操作确定的,用于描述所述目标对象执行的事件动作;
第一获取模块,用于基于所述事件流中的多个节点分别对应的事件信息,控制所述目标对象在所述虚拟三维场景中执行与所述事件信息对应的事件动作,并在控制所述目标对象执行所述事件动作时,获取目标对象的第一目标视频。
一种可选的实施方式中,所述装置还包括第二获取模块,用于:
获取现实场景的第二目标视频;
将所述第一目标视频和所述第二目标视频进行融合处理,得到包括所述目标对象以及所述现实场景的目标视频。
一种可选的实施方式中,第一生成模块还用于:
生成与所述虚拟三维场景对应的虚拟三维空间;
确定至少一种目标对象在所述虚拟三维空间中的坐标值;
基于所述目标对象在所述虚拟三维空间中的坐标值,将所述目标对象对应的三维模型添加至所述虚拟三维空间中,构成所述虚拟三维场景;
一种可选的实施方式中,所述装置还包括第三生成模块,用于:
响应于将所述目标对象添加至所述虚拟三维场景中的添加操作,确定所述目标对象在所述虚拟三维场景中的初始特征;所述初始特征包括下述至少一种:初始位姿、初始动画、初始光影类型、以及初始镜头视角;
基于所述初始特征,将与所述目标对象对应的三维模型添加至所述虚拟三维场景中。
一种可选的实施方式中,第二生成模块在对所述目标对象进行编辑操作时,还用于:
生成所述节点,并接收与生成的所述节点对应的基础事件素材;
基于所述基础事件素材,生成与生成的所述节点对应的事件信息。
一种可选的实施方式中,所述第二生成模块还用于:
在时间轴上确定事件执行时间,并基于该事件执行时间,生成与该事件执行时间对应的时间节点。
一种可选的实施方式中,所述第二生成模块在基于所述事件流,控制所述目标对象在所述虚拟三维场景中执行对应的事件动作时,用于:
针对所述事件流中的每个时间节点,控制所述目标对象在所述虚拟三维场景中执行与该时间节点对应的事件动作;
响应于与该时间节点对应的事件动作执行完毕后,与该时间节点对应的下一时间节点并未到达,重复执行与该时间节点对应的事件动作。
一种可选的实施方式,所述第二生成模块在基于所述事件流,控制所述目标对象在所述虚拟三维场景中执行对应的事件动作时,还用于:
针对所述事件流中的每个事件节点,控制所述目标对象在所述虚拟三维场景中执行与该事件节点对应的事件动作,并在将该事件节点对应的事件动作执行完毕后,执行下一事件节点对应的事件动作。
一种可选的实施方式中,所述第二生成模块在基于所述事件流中的多个节点分别对应的事件信息,控制所述目标对象在所述虚拟三维场景中执行与所述事件信息对应的事件动作时,用于:
基于多个目标对象分别关联的事件流的多个节点的事件执行时间,对多个所述目标对象分别关联的事件流中的事件信息进行合并操作,得到事件执行脚本;
基于所述事件执行脚本,控制多个所述目标对象在所述虚拟三维场景中执行与多个所述目标对象分别对应的事件动作。
第三方面,本公开可选实现方式还提供一种计算机设备,处理器、存储器,所述存储器存储有所述处理器可执行的机器可读指令,所述处理器用于执行所述存储器中存储的机器可读指令,所述机器可读指令被所述处理器执行时,所述机器可读指令被所述处理器执行时执行上述第一方面,或第一方面中任一种可能的实施方式中的步骤。
第四方面,本公开可选实现方式还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被运行时执行上述第一方面,或第一方面中任一种可能的实施方式中的步骤。
本公开实施例提供的视频生成方法,通过响应对目标对象进行事件编辑操作,确定由多个节点分别对应的事件信息构成的事件流,并利用事件流来自动控制目标对象执行事件动作,得到第一目标视频,从而降低生成视频的难度。
另外,在进行事件编辑操作时,可以通过对事件流中各个节点的控制来改变节点在事件流中的位置,从而调整目标对象执行与事件信息对应的事件动作的时机,实现对事件动作在执行顺序、时间上的编辑;通过不同的事件编辑操作,生成与事件编辑操作对应的事件信息,实现对事件动作执行内容的编辑;并通过目标对象执行事件动作时获取目标对象的第一目标视频,实现3D动画的输出,从而一站式完成3D动画的制作,降低3D动画的制作难度。
为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书中的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。应当理解,以下附图仅示出了本公开的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本公开一些实施例所提供的一种视频生成方法的流程图;
图2示出了本公开一些实施例所提供的一种添加动画的示例图;
图3a示出了本公开一些实施例所提供的一种对目标对象进行事件编辑操作的示例图之一;
图3b示出了本公开一些实施例所提供的一种一种对目标对象进行事件编辑操作的示例图之二;
图4示出了本公开一些实施例所提供的一种在总时间轴上进行合并操作的示例图;
图5示出了本公开一些实施例所提供的另一种视频生成方法的流程图;
图6示出了本公开一些实施例所提供的一种视频生成装置的示意图;
图7示出了本公开一些实施例所提供的一种计算机设备的示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。通常在此处描述和示出的本公开实施例的组件可以以各种不同的配置来布置和设计。因此,以下对本公开的实施例的详细描述并非旨在限制要求保护的本公开的范围,而是仅仅表示本公开的选定实施例。基于本公开的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
经研究发现,一段3D动画的制作简单来看需要经过三个步骤,步骤一:3D模型的制作、贴图、材质等;步骤二:增加叙事性互动元素,如3D模型的动作、说话、场景灯光、运镜特效等;步骤三:调整3D模型的动作、说话、与场景灯光、运镜特效之间的配合等;最终生成3D动画。
目前,制作一段3D动画往往需要多个专业的软件参与,例如3D模型的动画采用Maya、3Dmax等、灯光渲染采用katana、Maya、合成剪辑采用nuke、Premiere Pro等,使得制作一段3D动画的过程过于繁琐,用户掌握这些软件需要大量的学习成本,导致用户单独的完成一段3D动画较为困难。
基于上述研究,本公开提供了一种视频生成方法,通过响应对目标对象进行事件编辑操作,确定由多个节点分别对应的事件信息构成的事件流,并利用事件流来自动控制目标对象执行事件动作,得到第一目标视频,从而降低生成视频的难度。
针对以上方案所存在的缺陷,均是发明人在经过实践并仔细研究后得出的结果,因此,上述问题的发现过程以及下文中本公开针对上述问题所提出的解决方案,都应该是发明人在本公开过程中对本公开做出的贡献。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
为便于对本实施例进行理解,首先对本公开实施例所公开的一种视频生成方法进行详细介绍,本公开实施例所提供的视频生成方法的执行主体一般为具有一定计算能力的计算机设备,该计算机设备例如包括:终端设备或服务器或其它处理设备,终端设备可以为用户设备(User Equipment,UE)、移动设备、用户终端、终端、蜂窝电话、无绳电话、个人数字助理(Personal Digital Assistant,PDA)、手持设备、计算设备、车载设备、可穿戴设备等。在一些可能的实现方式中,该视频生成方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
下面对本公开实施例提供的一种视频生成方法加以说明。
参见图1所示,为本公开实施例提供的视频生成方法的流程图,所述方法包括步骤S101~S103,其中:
S101:生成虚拟三维场景;所述虚拟三维场景中包括至少一个目标对象;
S102:响应于对所述目标对象进行事件编辑操作,生成与所述目标对象对应的事件流;所述事件流中包括:多个节点分别对应的事件信息;其中,所述事件信息是基于所述事件编辑操作确定的,用于描述所述目标对象执行的事件动作;
S103:基于所述事件流中的多个节点分别对应的事件信息,控制所述目标对象在所述虚拟三维场景中执行与所述事件信息对应的事件动作,并在控制所述目标对象执行所述事件动作时,获取目标对象的第一目标视频。
下面对本公开上述步骤分别加以详细说明。
针对上述步骤S101,所述虚拟三维场景,例如可以是通过计算机技术生成的虚拟场景;该虚拟三维场景基于虚拟摄像机的拍摄视角呈现在计算机的屏幕上,可以通过变换虚拟摄像机的拍摄视角得到不同视角下的虚拟三维场景;在该虚拟三维场景中包括了至少一个目标对象,所述目标对象例如可以是由用户控制的、呈现在虚拟三维场景中的虚拟人物、动物等虚拟角色,或者是帽子、武器、卷轴、树木、植被等虚拟物品。
除此之外,也可以是一些将场景特效呈现在虚拟三维场景中的虚拟光源、虚拟摄像机等。通常而言,虚拟光源和虚拟摄像机在进行事件流的编辑过程中,对用户可见,编辑结束后进入特效预览阶段时,对用户不可见。
在本公开提供的一个实施例中,生成虚拟三维场景例如可以包括:生成与所述虚拟三维场景对应的虚拟三维空间;确定至少一种目标对象在所述虚拟三维空间中的坐标值;基于所述目标对象在所述虚拟三维空间中的坐标值,将所述目标对象对应的三维模型添加至所述虚拟三维空间中,构成所述虚拟三维场景。
此处,虚拟三维空间包括三维坐标系,三维坐标系上的任意坐标位置都对应有其坐标值,三维坐标系上的任意坐标值均可以映射在虚拟三维场景中对应的空间位置。
示例性的,可以根据用户控制目标对象在虚拟三维空间中的最终停留位置确定目标对象在虚拟三维空间中的坐标值。例如,用户从虚拟三维空间外的资源库中选中目标对象,并将其拖动至虚拟三维空间,根据目标对象在虚拟三维空间中的最终停留位置,确定目标对象在虚拟三维空间中的坐标值。这里的最终停留位置表示为用户触发释放操作时目标对象所在虚拟三维空间中的位置。
在本公开提供的另一个实施例中,响应于将所述目标对象添加至所述虚拟三维场景中的添加操作,确定所述目标对象在所述虚拟三维场景中的初始特征;基于所述初始特征,将与所述目标对象对应的三维模型添加至所述虚拟三维场景中。
示例性的,当目标对象在被添加到虚拟三维场景中时,可以在计算机的显示界面中弹出一个初始特征选项,初始特征选项中包括调整目标对象的初始位姿、初始动画、初始光影类型、以及初始镜头视角等功能选项;这些功能选项均可以具有默认设置,用户可以对默认设置进行调整,或者接受默认设置。
例如,可以在当用户将一个目标对象放置在虚拟三维场景中的任一位置时,确定其初始位置,此时用户可以在初始位姿功能选项中调整目标对象的初始朝向,进而确定目标对象的在虚拟场景中的初始位姿。
此处,当目标对象为虚拟角色时,可以规定虚拟角色的面部朝向为朝向调整的基础,确定虚拟角色的初始朝向;当目标对象为虚拟物品时,可以规定虚拟物品的正面为朝向调整的基础,确定虚拟物品的初始朝向。
此外,当用户选择接受默认设置时,目标对象会以预设的初始位姿添加到虚拟三维场景中。
又例如,在初始动画功能选项中确定目标对象的初始动画。
此处,当目标对象为虚拟角色时,可以为虚拟角色添加例如招手、微笑、眨眼等初始动画;当目标对象为虚拟植被时,可以为其添加随风摆动的初始动画。
此外,当用户选择接受默认设置时,目标对象会以预设的初始动画添加到虚拟三维场景中,预设的初始动画可能设定为无动画,即目标对象不做任何动作,具体根据实际情况而设定。
又例如,当目标对象为虚拟光源时,在将虚拟光源添加到虚拟三维场景时,可以在初始光影类型功能选项中确定虚拟三维场景的初始光影类型,初始光影类型例如包括:场景光、环境光等。
又例如,当目标对象为虚拟角色时,可以在初始镜头视角功能选项中确定初始镜头视角,初始镜头视角例如包括:面部特写、全身特写、以及全景视角等。
针对上述步骤S102,对目标对象进行事件编辑操作至少可以包括对目标对象的动作、动画、语言、光影特效、以及运镜特效中的至少一种事件进行编辑。
在本公开提供的一个实施例中,根据对所述目标对象进行事件编辑操作,生成所述节点,并接收与生成的所述节点对应的基础事件素材;基于所述基础事件素材,生成与生成的所述节点对应的事件信息。
此处,节点可以表示为一个事件信息的标记,目标对象的事件流由多个节点分别对应的事件信息构成,基础事件素材可以表示为一个事件信息的内容,如下述中至少一种:一组动作、一段语音、一段光影特效、一段运镜特效等。
示例性的,可以在资源库中添加目标对象、以及添加一组动作、一段语音、一段光影特效等。资源库可以是由软件开发人员预设的,也可以是由资源发布者通过其他模型制作软件,例如3D MAX建模并上传到搭载本方法的目标应用上,资源库包括:动作、表情、角色模型、光影、声音等特效的资源。
资源发布者包括用户本人以及其他用户,将制作好的声音、光影特效、模型、动画等资源上传到资源服务器,用户通过资源服务器获取资源列表并下载相关资源。此处,若是用户本人制作的资源,可以直接将资源导入到目标应用中,供自己使用;若是想分享给其他用户使用,也可以选择上传到资源服务器。
示例性的,在虚拟三维场景的角色资源库中添加一个虚拟角色,对该虚拟角色进行事件编辑操作,生成节点;进入事件编辑阶段,在该阶段中,事件编辑操作为控制虚拟角色在虚拟三维场景中移动一段距离,具体的,在虚拟三维场景中确定一个目标位置,确定目标位置后;进入特效预览阶段,虚拟角色从当前位置移动到目标位置,此时,接收虚拟角色从当前位置移动到目标位置并生成基础事件素材。
又例如,参见图2所示的一种添加动画的示例图,在图2中,事件编辑操作为对该虚拟角色添加一段动作和面部表情时,在虚拟三维场景中加载动作资源库A21和表情资源库A22,用户可以在动作资源库A21中选择相应的动作,在表情资源库A22中选择针对虚拟角色五官变化的表情,在确定了虚拟角色的动作和表情后,进入特效预览节点,虚拟角色执行动作和表情,此时,接收虚拟角色动作变化和表情变化并生成基础事件素材。
又例如,事件编辑操作为控制虚拟摄像机围绕虚拟角色拍摄,具体的,在虚拟三维场景中生成一个虚拟摄像机,此时用户可以拖动虚拟摄像机确定其拍摄轨迹;进入特效预览阶段,虚拟三维场景切换为在虚拟三维场景中生成的虚拟摄像机的视角并跟随拍摄轨迹进行移动,此时,接收虚拟摄像机按照拍摄轨迹拍摄得到的虚拟三维场景的显示画面并生成基础事件素材。
这里,需要说明的是,在事件编辑阶段,虚拟摄像机位于虚拟三维场景外拍摄得到虚拟三维场景,用户可以通过控制按钮或者滑动屏幕等控制虚拟三维场景的显示画面,当用户需要添加运镜特效时,则在虚拟三维场景中添加一个虚拟摄像机,用户可以通过拖动该虚拟摄像机、并配合控制按钮控制虚拟三维场景的显示画面,确定虚拟摄像机的拍摄轨迹,在进入特效预览阶段时,就按照虚拟三维场景中添加的虚拟摄像机的拍摄轨迹显示虚拟三维场景的显示画面。
在一个可能的实施方式中,参见图3a所示的一种对目标对象进行事件编辑操作的示例图之一,在图3a中包括虚拟场景和多个控件,虚拟场景中包括虚拟角色S,多个控件包括用于在事件编辑阶段控制虚拟摄像机镜头视角的摇杆A31和摇杆A32、用于进入特效预览阶段的预览控件B31、用于生成第一目标视频的输出视频控件B32、用于设置例如各个节点对应的事件执行时间、执行顺序等选项控件B33、以及在事件编辑阶段用于生成节点和对虚拟角色S进行事件编辑操作的事件编辑控件C31。用户点击事件编辑控件C31弹出三个子控件,分别为用于编辑虚拟角色S移动的移动子控件C311、用于编辑虚拟角色S执行动画的动画子控件C312、以及用于编辑镜头角度的镜头子控件C313,用户点击任意一个子控件生成与该子控件对应的节点,并进入事件编辑阶段,如图3b所示的一种对目标对象进行事件编辑操作的示例图之二,用户点击移动子控件C311,生成移动节点,进入事件编辑阶段,此时,隐藏虚拟三维场景中的预览控件B31、输出视频控件B32、以及选项控件B33,用户可以通过拖动摇杆A31实现拉近、推远、左横移、右横移镜头视角、通过拖动摇杆A32实现上旋转、下旋转、左旋转、右旋转镜头视角,以改变虚拟三维场景的显示画面,用户通过点击操作在虚拟三维场景中确定一个目标位置D1,用于指示在进入特效预览阶段时虚拟角色S移动的位置。这里,在确定了一个或多个目标位置后,用户再次点击事件编辑控件C31,结束事件编辑阶段。此时用户可以通过点击预览控件B31,进入特效预览阶段,此时,虚拟角色S会根据事件编辑阶段确定的目标位置D1,接收并生成基础事件素材,根据基础事件素材和节点生成事件信息,根据事件信息控制虚拟角色S从当前位置移动到目标位置D1。
这里,生成的基础事件素材,可以是由用户确定是否保存这段基础事件素材;或者是当用户触发下一个事件编辑操作时,自动保存当前的基础事件素材。
除此之外,用户还可以点击选项控件B33,设置虚拟角色S的移动速度、动作幅度、镜头移动速度、以及动作循环次数等。具体根据实际情况而定,本公开对此不做任何限制。
针对上述S103,一个目标对象的事件流中可能存在多个节点分别对应的事件信息,在对目标对象进行事件编辑操作后生成事件信息,可以控制目标对象执行事件信息对应的事件动作。
此处,节点包括:时间节点和事件节点,根据节点的不同控制所述目标对象在所述虚拟三维场景中执行对应的事件动作,至少包括下述M1、M2中至少一种:
M1:针对时间节点,在时间轴上确定事件执行时间,并基于该事件执行时间,生成与该事件执行时间对应的时间节点。
示例性的,可以在用户触发事件编辑操作时,在虚拟三维场景中添加一个目标对象对应的时间轴,拖动时间轴上的光标可以在时间轴的任意时刻添加时间节点,并在该任意时刻开始进行事件编辑,当结束事件编辑对目标对象进行特效预览时,会从时间轴的起始时刻开始生成基础事件素材,直至执行完最后一个时间节点对应的事件信息所包括的基础事件素材。
进一步地,在本公开提供的一个实施例中,针对所述事件流中的每个时间节点,控制所述目标对象在所述虚拟三维场景中执行与该时间节点对应的事件动作;响应于与该时间节点对应的事件动作执行完毕后,与该时间节点对应的下一时间节点并未到达,重复执行与该时间节点对应的事件动作。
示例性的,以目标对象为虚拟角色为例,针对虚拟角色存在多个时间节点时,可以根据多个时间节点对应的事件信息按照先后顺序生成事件流,例如,虚拟角色的事件流中包括与三个时间节点分别对应的事件信息,分别为虚拟角色做出“挥手”的动画对应的事件A、虚拟角色“从D1点移动到D2点”的事件B、以及虚拟角色“微笑”的动画对应的事件C;这里三个事件按照事件A、事件B、事件C的节点顺序生成事件流,其中事件A的时间节点为时间轴上第0s,事件执行时间为1s;事件B的时间节点为时间轴上第3s,事件执行时间为2s;事件C的时间节点为第5秒,事件执行时间为1s。此时,进入特效预览阶段时,控制虚拟角色按照时间轴上各个时间节点的顺序开始执行对应的事件动作,例如,开始时控制虚拟角色执行事件A做挥手动作,根据事件A的事件执行时间以及下一个事件B的时间节点,重复执行3次挥手动作,然后开始执行事件B控制虚拟角色从D1点移动到D2点,这里,根据事件B的事件执行时间以及下一个事件C的时间节点只需要做一次移动的事件动作即可,若需要移动多次时,则可以在第一次移动到D2点时停止移动并保持移动的动作,等待事件C的时间节点;或者也可以在第一次移动到D2点时停止移动等待事件C的时间节点;还可以是通过一些检测手段当出现类似的移动到目标位置时还没有触发下一个事件的情况时,认为此时出现动作不流畅现象,弹出提示信息,提醒用户对此处进行调整,或者是自动调整。
在另一个可能想到的实施例中,用户想实现“边挥手边移动”的事件动作,需要将两个或者两个以上的时间节点对应的事件信息在时间轴上重叠。例如,虚拟角色的事件流中包括与两个时间节点分别对应的事件信息,分别为虚拟角色做出“挥手”的动画对应的事件A、以及虚拟角色“从D1点移动到D2点”的事件B,这可以使这两个事件在时间轴上重叠,也即,在事件A的事件执行时间的区间中插入了事件B的时间节点。这里,事件A和事件B可以严格同步,例如,事件A和事件B的时间节点相同,事件执行时间也相同,这样,就可以得到一个在开始移动时挥手,停止移动时停止挥手的“边挥手边移动”的效果。也可以错开执行,例如,事件A的时间节点为时间轴上的第0s,事件执行时间为3s;事件B的时间节点为时间轴上的第1s,事件执行时间为2s,这样,得到一个虚拟角色在一个地点挥手一秒后边挥手边移动到下一个地点,在到达下一个地点后停止挥手的效果。
M2:针对事件节点;针对所述事件流中的每个事件节点,控制所述目标对象在所述虚拟三维场景中执行与该事件节点对应的事件动作,并在将该事件节点对应的事件动作执行完毕后,执行下一事件节点对应的事件动作。
示例性的,事件节点仅确定与其他事件节点的前后顺序,从事件轴的第一个事件开始,例如,一个事件流按照事件节点的先后顺序,执行事件A、事件B和事件C,用户可以通过调整事件节点与事件流中的其他事件节点的位置,改变目标对象执行的事件动作,例如,以目标对象为虚拟角色为例,事件A为“挥手”的动画;事件B为“鼓掌”的动画;事件C为“鞠躬”的动画,按照调整前的事件流,虚拟角色执行先挥手然后鼓掌最后鞠躬的事件动作,此时,用户将事件B调整在事件A的前面,得到调整后的事件流为事件B、事件A和事件C,此时,按照调整后的事件流,虚拟角色执行先鼓掌然后挥手最后鞠躬的事件动作。
这里,也可以按照事件类型在事件流中划分多个事件轴,执行事件动作时多个事件轴同时执行。
在本公开提供的一个实施例中,所述目标对象有多个;基于多个目标对象分别关联的事件流的多个节点的事件执行时间,对多个所述目标对象分别关联的事件流中的事件信息进行合并操作,得到事件执行脚本;基于所述事件执行脚本,控制多个所述目标对象在所述虚拟三维场景中执行与多个所述目标对象分别对应的事件动作。
示例性的,在虚拟三维场景中,可以添加多个目标对象,例如,在虚拟三维场景中,添加一个虚拟人物对应的目标对象A1、一个跟随虚拟人物飞行的虚拟宠物对应的目标对象A2,以及一个跟随虚拟人物运动产生“舞台光”特效的虚拟光源对应的目标对象A3、一个虚拟舞台对应的目标对象A4、以及一个跟随拍摄虚拟人物运动的虚拟摄像机对应的目标对象A5;分别对这些目标对象进行独立的事件编辑操作,各自生成对应的事件流,在将这些事件流在一个总时间轴上进行合并操作,得到事件执行脚本。
示例性的,在虚拟三维场景中放置目标对象A41、以及目标对象A42,目标对象A41的事件流包括事件信息a411、事件信息a412、事件信息a413,目标对象A42的事件流包括事件信息a421、事件信息a422;在对目标对象A41的事件流、和目标对象A42的事件流进行合并操作时,可以根据各自事件流中的事件信息包括的时间节点和事件执行事件进行合并。参见图4所示的一种在总时间轴上进行合并操作的示例图,在图4中,事件信息a411的时间节点为第0s,事件执行时间为1s;事件信息a412的时间节点为第1s,事件执行时间为3s;事件信息a413的时间节点为第4s,事件执行时间为2s;事件信息a421的时间节点为第0s,事件执行时间为2s;事件信息a422的时间节点为第3s,事件执行时间为3s。根据各自事件流中的事件信息包括的时间节点和事件执行时间得到在总时间轴T上的事件执行顺序为:[(a411,a421)、a412、a422、a413],其中(a411,a421)表示为同时执行。
此处,可以通过调整事件信息中的时间节点以及事件执行时间改变事件执行脚本的事件执行顺序。具体根据实际情况而定,本公开不做任何限制。
此外,在控制目标对象执行所述事件动作时,获取目标对象的第一目标视频。
在本公开提供的一个实施例中,获取现实场景的第二目标视频;将所述第一目标视频和所述第二目标视频进行融合处理,得到包括所述目标对象以及所述现实场景的目标视频。
示例性的,根据第一目标视频中的内容生成目标特效,添加到目标应用中,用户在通过目标应用的拍摄功能对现实场景进行拍摄之前,可以选择添加此目标特效,此时,在拍摄画面中生成第一目标视频中包括的虚拟角色,虚拟物品、虚拟特效等组成的目标特效,在这些目标特效的区域外生成由用户终端设备的摄像头采集到的现实场景,当用户开始录制时,第一目标视频同步播放,第一目标视频中的虚拟角色、虚拟物品、虚拟特效按照事件执行脚本开始执行事件动作,也即目标特效,用户可以根据目标特效做出相应的合拍动作,得到目标视频。
又一示例中,第二目标视频包括用户已经拍摄好的视频,可以根据第一目标视频中呈现的目标特效与第二目标视频中的现实场景进行融合处理,例如,调整第一目标视频和/或第二目标视频的倍速、模型大小、模型位置等。这些调整可以是用户手动调整、也可以是通过神经网络算法识别出第一目标视频中的各个模型的位置、以及第二目标视频中的与模型合拍的目标合拍对象,通过预设的算法调整模型与目标合拍对象的大小,相对位置等,最终得到目标视频。
另外,参见图5所示,本公开还提供另一种视频生成方法的流程图,包括步骤S501~S505。
步骤S501,添加目标对象。
在虚拟三维场景中添加目标对象A、目标对象B、以及目标对象C,目标对象可以包括虚拟人物、虚拟动物、虚拟物品等。
步骤S502,生成事件流。
点击虚拟三维场景中的事件添加按钮,在弹出的事件类型中选择添加移动事件、动画事件、光影特效事件、以及运镜特效事件,生成针对目标对象A生成的事件流A、针对目标对象B生成的事件流B、以及针对目标对象C生成的事件流C,每个事件流中可以包括多个事件信息。
步骤S503,生成绿幕视频。
将事件流A、事件流B、以及事件流C进行合并处理,得到绿幕视频,也即第一目标视频,这里的绿幕区域为在虚拟三维场景中,除目标对象占据的区域以外的区域。
步骤S504,与用户视频合拍。
将用户视频与绿幕视频进行合拍处理,绿幕视频中的目标对象浮现在用户视频上,绿幕区域由用户视频的内容填充。
这里,光影特效根据其光影的透明度,确定用户视频是否可以与光影特效作用的区域重叠显示,透明度越低表示用户视频中的内容越难以呈现在光影特效作用的区域上。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
基于同一发明构思,本公开实施例中还提供了与视频生成方法对应的视频生成装置,由于本公开实施例中的装置解决问题的原理与本公开实施例上述视频生成方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
参照图6所示,为本公开实施例提供的一种视频生成装置的示意图,所述装置包括:第一生成模块61、第二生成模块62、第一获取模块63;其中,
本公开实施例还提供一种视频生成装置,包括:
第一生成模块61,用于生成虚拟三维场景;所述虚拟三维场景中包括至少一个目标对象;
第二生成模块62,用于响应于对所述目标对象进行事件编辑操作,生成与所述目标对象对应的事件流;所述事件流中包括:多个节点分别对应的事件信息;其中,所述事件信息是基于所述事件编辑操作确定的,用于描述所述目标对象执行的事件动作;
第一获取模块63,用于基于所述事件流中的多个节点分别对应的事件信息,控制所述目标对象在所述虚拟三维场景中执行与所述事件信息对应的事件动作,并在控制所述目标对象执行所述事件动作时,获取目标对象的第一目标视频。
一种可选的实施方式中,所述装置还包括第二获取模块64,用于:
获取现实场景的第二目标视频;
将所述第一目标视频和所述第二目标视频进行融合处理,得到包括所述目标对象以及所述现实场景的目标视频。
一种可选的实施方式中,第一生成模块61还用于:
生成与所述虚拟三维场景对应的虚拟三维空间;
确定至少一种目标对象在所述虚拟三维空间中的坐标值;
基于所述目标对象在所述虚拟三维空间中的坐标值,将所述目标对象对应的三维模型添加至所述虚拟三维空间中,构成所述虚拟三维场景;
一种可选的实施方式中,所述装置还包括第三生成模块65,用于:
响应于将所述目标对象添加至所述虚拟三维场景中的添加操作,确定所述目标对象在所述虚拟三维场景中的初始特征;所述初始特征包括下述至少一种:初始位姿、初始动画、初始光影类型、以及初始镜头视角;
基于所述初始特征,将与所述目标对象对应的三维模型添加至所述虚拟三维场景中。
一种可选的实施方式中,第二生成模块62在对所述目标对象进行编辑操作时,还用于:
生成所述节点,并接收与生成的所述节点对应的基础事件素材;
基于所述基础事件素材,生成与生成的所述节点对应的事件信息。
一种可选的实施方式中,所述第二生成模块62还用于:
在时间轴上确定事件执行时间,并基于该事件执行时间,生成与该事件执行时间对应的时间节点。
一种可选的实施方式中,所述第二生成模块62在基于所述事件流,控制所述目标对象在所述虚拟三维场景中执行对应的事件动作时,用于:
针对所述事件流中的每个时间节点,控制所述目标对象在所述虚拟三维场景中执行与该时间节点对应的事件动作;
响应于与该时间节点对应的事件动作执行完毕后,与该时间节点对应的下一时间节点并未到达,重复执行与该时间节点对应的事件动作。
一种可选的实施方式,所述第二生成模块62在基于所述事件流,控制所述目标对象在所述虚拟三维场景中执行对应的事件动作时,还用于:
针对所述事件流中的每个事件节点,控制所述目标对象在所述虚拟三维场景中执行与该事件节点对应的事件动作,并在将该事件节点对应的事件动作执行完毕后,执行下一事件节点对应的事件动作。
一种可选的实施方式中,所述第二生成模块62在基于所述事件流中的多个节点分别对应的事件信息,控制所述目标对象在所述虚拟三维场景中执行与所述事件信息对应的事件动作时,用于:
基于多个目标对象分别关联的事件流的多个节点的事件执行时间,对多个所述目标对象分别关联的事件流中的事件信息进行合并操作,得到事件执行脚本;
基于所述事件执行脚本,控制多个所述目标对象在所述虚拟三维场景中执行与多个所述目标对象分别对应的事件动作。
关于装置中的各模块的处理流程、以及各模块之间的交互流程的描述可以参照上述方法实施例中的相关说明,这里不再详述。
本公开实施例还提供了一种计算机设备,如图7所示,为本公开实施例提供的计算机设备结构示意图,包括:
处理器71和存储器72;所述存储器72存储有处理器71可执行的机器可读指令,处理器71用于执行存储器72中存储的机器可读指令,所述机器可读指令被处理器71执行时,处理器71执行下述步骤:
生成虚拟三维场景;所述虚拟三维场景中包括至少一个目标对象;
响应于对所述目标对象进行事件编辑操作,生成与所述目标对象对应的事件流;所述事件流中包括:多个节点分别对应的事件信息;其中,所述事件信息是基于所述事件编辑操作确定的,用于描述所述目标对象执行的事件动作;
基于所述事件流中的多个节点分别对应的事件信息,控制所述目标对象在所述虚拟三维场景中执行与所述事件信息对应的事件动作,并在控制所述目标对象执行所述事件动作时,获取目标对象的第一目标视频。
上述存储器72包括内存721和外部存储器722;这里的内存721也称内存储器,用于暂时存放处理器71中的运算数据,以及与硬盘等外部存储器722交换的数据,处理器71通过内存721与外部存储器722进行数据交换。
上述指令的具体执行过程可以参考本公开实施例中所述的视频生成方法的步骤,此处不再赘述。
本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的视频生成方法的步骤。其中,该存储介质可以是易失性或非易失的计算机可读取存储介质。
本公开实施例还提供一种计算机程序产品,该计算机程序产品承载有程序代码,所述程序代码包括的指令可用于执行上述方法实施例中所述的视频生成方法的步骤,具体可参见上述方法实施例,在此不再赘述。
其中,上述计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software Development Kit,SDK)等等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本公开所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本公开的具体实施方式,用以说明本公开的技术方案,而非对其限制,本公开的保护范围并不局限于此,尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本公开实施例技术方案的精神和范围,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应所述以权利要求的保护范围为准。
Claims (12)
1.一种视频生成方法,其特征在于,包括:
生成虚拟三维场景;所述虚拟三维场景中包括至少一个目标对象;
响应于对所述目标对象进行事件编辑操作,生成与所述目标对象对应的事件流;所述事件流中包括:多个节点分别对应的事件信息;其中,所述事件信息是基于所述事件编辑操作确定的,用于描述所述目标对象执行的事件动作;
基于所述事件流中的多个节点分别对应的事件信息,控制所述目标对象在所述虚拟三维场景中执行与所述事件信息对应的事件动作,并在控制所述目标对象执行所述事件动作时,获取目标对象的第一目标视频。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取现实场景的第二目标视频;
将所述第一目标视频和所述第二目标视频进行融合处理,得到包括所述目标对象以及所述现实场景的目标视频。
3.根据权利要求1所述的方法,其特征在于,所述生成虚拟三维场景,包括:
生成与所述虚拟三维场景对应的虚拟三维空间;
确定至少一种目标对象在所述虚拟三维空间中的坐标值;
基于所述目标对象在所述虚拟三维空间中的坐标值,将所述目标对象对应的三维模型添加至所述虚拟三维空间中,构成所述虚拟三维场景。
4.根据权利要求1-3任一项所述的方法,其特征在于,还包括:
响应于将所述目标对象添加至所述虚拟三维场景中的添加操作,确定所述目标对象在所述虚拟三维场景中的初始特征;所述初始特征包括下述至少一种:初始位姿、初始动画、初始光影类型、以及初始镜头视角;
基于所述初始特征,将与所述目标对象对应的三维模型添加至所述虚拟三维场景中。
5.根据权利要求1所述的方法,其特征在于,所述对所述目标对象进行事件编辑操作,包括:
生成所述节点,并接收与生成的所述节点对应的基础事件素材;
基于所述基础事件素材,生成与生成的所述节点对应的事件信息。
6.根据权利要求5所述的方法,其特征在于,所述节点包括:时间节点,所述生成所述节点,包括:
在时间轴上确定事件执行时间,并基于该事件执行时间,生成与该事件执行时间对应的时间节点。
7.根据权利要求6所述的方法,其特征在于,所述基于所述事件流,控制所述目标对象在所述虚拟三维场景中执行对应的事件动作,包括:
针对所述事件流中的每个时间节点,控制所述目标对象在所述虚拟三维场景中执行与该时间节点对应的事件动作;
响应于与该时间节点对应的事件动作执行完毕后,与该时间节点对应的下一时间节点并未到达,重复执行与该时间节点对应的事件动作。
8.根据权利要求5所述的方法,其特征在于,所述节点包括:事件节点;所述基于所述事件流,控制所述目标对象在所述虚拟三维场景中执行对应的事件动作,包括:
针对所述事件流中的每个事件节点,控制所述目标对象在所述虚拟三维场景中执行与该事件节点对应的事件动作,并在将该事件节点对应的事件动作执行完毕后,执行下一事件节点对应的事件动作。
9.根据权利要求1所述的方法,其特征在于,所述目标对象有多个;所述基于所述事件流中的多个节点分别对应的事件信息,控制所述目标对象在所述虚拟三维场景中执行与所述事件信息对应的事件动作,包括:
基于多个目标对象分别关联的事件流的多个节点的事件执行时间,对多个所述目标对象分别关联的事件流中的事件信息进行合并操作,得到事件执行脚本;
基于所述事件执行脚本,控制多个所述目标对象在所述虚拟三维场景中执行与多个所述目标对象分别对应的事件动作。
10.一种视频生成装置,其特征在于,所述装置包括:
第一生成模块,用于生成虚拟三维场景;所述虚拟三维场景中包括至少一个目标对象;
第二生成模块,用于响应于对所述目标对象进行事件编辑操作,生成与所述目标对象对应的事件流;所述事件流中包括:多个节点分别对应的事件信息;其中,所述事件信息是基于所述事件编辑操作确定的,用于描述所述目标对象执行的事件动作;
第一获取模块,用于基于所述事件流中的多个节点分别对应的事件信息,控制所述目标对象在所述虚拟三维场景中执行与所述事件信息对应的事件动作,并在控制所述目标对象执行所述事件动作时,获取目标对象的第一目标视频。
11.一种计算机设备,其特征在于,包括:处理器、存储器,所述存储器存储有所述处理器可执行的机器可读指令,所述处理器用于执行所述存储器中存储的机器可读指令,所述机器可读指令被所述处理器执行时,所述处理器执行如权利要求1至9任一项所述的视频生成方法的步骤。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被计算机设备运行时,所述计算机设备执行如权利要求1至9任意一项所述的视频生成方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211409819.4A CN115761064A (zh) | 2022-11-10 | 2022-11-10 | 一种视频生成方法、装置、计算机设备及存储介质 |
US18/506,596 US20240163527A1 (en) | 2022-11-10 | 2023-11-10 | Video generation method and apparatus, computer device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211409819.4A CN115761064A (zh) | 2022-11-10 | 2022-11-10 | 一种视频生成方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115761064A true CN115761064A (zh) | 2023-03-07 |
Family
ID=85369349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211409819.4A Pending CN115761064A (zh) | 2022-11-10 | 2022-11-10 | 一种视频生成方法、装置、计算机设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20240163527A1 (zh) |
CN (1) | CN115761064A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116193098A (zh) * | 2023-04-23 | 2023-05-30 | 子亥科技(成都)有限公司 | 一种三维视频生成方法、装置、设备及存储介质 |
-
2022
- 2022-11-10 CN CN202211409819.4A patent/CN115761064A/zh active Pending
-
2023
- 2023-11-10 US US18/506,596 patent/US20240163527A1/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116193098A (zh) * | 2023-04-23 | 2023-05-30 | 子亥科技(成都)有限公司 | 一种三维视频生成方法、装置、设备及存储介质 |
CN116193098B (zh) * | 2023-04-23 | 2023-07-21 | 子亥科技(成都)有限公司 | 一种三维视频生成方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20240163527A1 (en) | 2024-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11410365B2 (en) | Entertaining mobile application for animating a single image of a human body and applying effects | |
US20240104959A1 (en) | Menu hierarchy navigation on electronic mirroring devices | |
US10127632B1 (en) | Display and update of panoramic image montages | |
US9747495B2 (en) | Systems and methods for creating and distributing modifiable animated video messages | |
KR101306221B1 (ko) | 3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법 | |
KR101944112B1 (ko) | 사용자 저작 스티커를 생성하는 방법 및 장치, 사용자 저작 스티커 공유 시스템 | |
KR102491140B1 (ko) | 가상 아바타 생성 방법 및 장치 | |
KR20230107654A (ko) | 보철 림을 위한 실시간 모션 전달 | |
WO2023070021A1 (en) | Mirror-based augmented reality experience | |
US20240163527A1 (en) | Video generation method and apparatus, computer device, and storage medium | |
CN114155322A (zh) | 一种场景画面的展示控制方法、装置以及计算机存储介质 | |
CN117916776A (zh) | 利用物理模拟的适配身体的配件 | |
CN113709549A (zh) | 特效数据包生成、图像处理方法、装置、设备及存储介质 | |
CN117999584A (zh) | 使用外部网格使现实世界对象变形 | |
US20190208124A1 (en) | Methods and apparatus for overcapture storytelling | |
CN112148125A (zh) | 一种ar交互状态控制的方法、装置、设备及存储介质 | |
US11212383B2 (en) | Customizing text messages in modifiable videos of multimedia messaging application | |
CN107295265A (zh) | 拍摄方法及装置、计算机装置和计算机可读存储介质 | |
CN115362474A (zh) | 自定义多媒体消息应用的能够修改的视频中的配乐和发型 | |
CN108876726A (zh) | 图像处理的方法、装置、系统及计算机存储介质 | |
WO2023143120A1 (zh) | 素材展示方法、装置、电子设备、存储介质及程序产品 | |
WO2024007290A1 (zh) | 视频的获取方法、电子设备、存储介质和程序产品 | |
CN115379195B (zh) | 视频生成方法、装置、电子设备和可读存储介质 | |
CN114026524A (zh) | 利用纹理操作的动画化人脸 | |
JP2000306092A (ja) | デジタル画像処理により実現される鏡及びその処理をコンピュータに行わせるためのプログラムを内蔵した媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |