CN112348933A - 动画生成方法、装置、电子设备及存储介质 - Google Patents

动画生成方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN112348933A
CN112348933A CN202011295107.5A CN202011295107A CN112348933A CN 112348933 A CN112348933 A CN 112348933A CN 202011295107 A CN202011295107 A CN 202011295107A CN 112348933 A CN112348933 A CN 112348933A
Authority
CN
China
Prior art keywords
model
character
scene
real
animation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011295107.5A
Other languages
English (en)
Other versions
CN112348933B (zh
Inventor
王磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Priority to CN202011295107.5A priority Critical patent/CN112348933B/zh
Publication of CN112348933A publication Critical patent/CN112348933A/zh
Application granted granted Critical
Publication of CN112348933B publication Critical patent/CN112348933B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开关于一种动画生成方法、装置、电子设备及存储介质,该方法包括:通过获取现实场景图像以及现实场景图像对应的相机位姿信息;根据现实场景图像以及相机位姿信息重建场景模型,并生成与场景模型匹配的虚拟场景;获取连续的多帧现实角色动作图像;根据预设的虚拟角色模型以及多帧现实角色动作图像,生成虚拟角色模型的虚拟角色动画;基于虚拟场景以及虚拟角色动画生成目标动画。本公开提供的动画生成方法,可以避免通过软件建模生成动画环境,以及通过动作捕捉设备采集动画人物动作,带来的设备人力成本损耗的问题,从而降低动画制作的成本。

Description

动画生成方法、装置、电子设备及存储介质
技术领域
本公开涉及动画制作技术领域,尤其涉及一种动画生成方法、装置、电子设备及存储介质。
背景技术
随着动画制作技术的发展,出现了一种结合利用三维软件与动作捕捉设备制作动画电影的方法,该方法通过三维软件建模生成动画环境,并通过动作捕捉设备采集动画人物动作,以生成动画虚拟世界。
然而,目前的动画生成方法中,通过软件建模生成动画环境,以及通过动作捕捉设备采集动画人物动作,都需要大量设备人力成本损耗,动画制作成本高。
发明内容
本公开提供一种动画生成方法、装置、电子设备及存储介质,以至少解决相关技术中动画制作成本高的问题。本公开的技术方案如下:
第一方面,提供一种动画生成方法,包括:
获取现实场景图像以及所述现实场景图像对应的相机位姿信息;
根据所述现实场景图像以及所述相机位姿信息重建场景模型,并生成与所述场景模型匹配的虚拟场景;
获取连续的多帧现实角色动作图像;
根据预设的虚拟角色模型以及所述多帧现实角色动作图像,生成所述虚拟角色模型的虚拟角色动画;
基于所述虚拟场景以及所述虚拟角色动画生成目标动画。
在可选的一个实施例中,所述生成与所述场景模型匹配的虚拟场景,包括:基于预设的模型数据集,获取所述场景模型中包含的多个物体,确定与所述多个物体匹配的物体模型;从所述物体模型对应的多个姿态中获取与所述多个物体对应的现实姿态,作为模型姿态;将所述物体模型按照所述模型姿态进行组合,生成所述虚拟场景。
在可选的一个实施例中,所述确定与所述多个物体匹配的物体模型,包括:获取所述多个物体的物体类别以及所述多个物体的物体特征;从所述模型数据集中获取与所述物体类别对应的目标数据集,根据所述物体特征从所述目标数据集中获取所述与所述多个物体匹配的物体模型。
在可选的一个实施例中,所述生成与所述场景模型匹配的虚拟场景之后,还包括:获取当前现实场景图像;当所述当前场景图像与所述虚拟场景匹配时,则将所述物体模型的位置按照所述当前现实场景图像中的物体位置进行校正。
在可选的一个实施例中,所述根据预设的虚拟角色模型以及所述多帧现实角色动作图像,生成所述虚拟角色模型的虚拟角色动画,包括:获取所述多帧现实角色动作图像对应的现实角色的关节旋转信息;基于所述关节旋转信息驱动所述虚拟角色模型,得到所述虚拟角色动画。
在可选的一个实施例中,所述获取所述多帧现实角色动作图像对应的现实角色的关节旋转信息,包括:获取所述多帧现实角色动作图像对应的角色二维关键点;根据所述角色二维关键点确定所述多帧现实角色动作图像对应的角色包围盒;根据所述角色包围盒对所述现实角色动作图像进行裁剪,将裁剪得到的角色动作图像输入预设的动作捕捉模型,根据所述动作捕捉模型输出得到所述关节旋转信息。
在可选的一个实施例中,所述根据所述角色包围盒对所述现实角色动作图像进行裁剪,包括:对所述角色包围盒进行放大处理;根据所述放大处理后的所述角色包围盒对所述现实角色动作图像进行裁剪。
在可选的一个实施例中,所述根据预设的虚拟角色以及所述多帧现实角色动作图像,生成所述虚拟角色模型的虚拟角色动画,还包括:获取所述多帧现实角色动作图像对应的角色动作类型;从预设的动作库中获取与所述角色动作类型匹配的动作模型;根据所述动作模型驱动所述虚拟角色模型,得到所述虚拟角色动画。
在可选的一个实施例中,所述基于所述虚拟场景以及所述虚拟角色动画生成目标动画,包括:获取现实场景中各物体的物体位置与现实角色的角色位置之间的位置关系;基于所述位置关系,根据所述虚拟场景以及所述虚拟角色动画生成所述目标动画。
在可选的一个实施例中,所述基于所述位置关系,根据所述虚拟场景以及所述虚拟角色动画生成所述目标动画,包括:获取所述虚拟场景中各物体模型的物体关键点在所述虚拟场景下对应的第一相机坐标系下的第一位置坐标,以及所述虚拟角色动画中角色关键点在所述虚拟角色动画对应的第二相机坐标系下的第二位置坐标;确定所述第一相机坐标系与所述第二相机坐标系的坐标变换关系;基于所述第一位置坐标、所述第二位置坐标以及所述坐标变换关系,生成所述目标动画。
第二方面,提供一种动画生成装置,包括:
场景图像获取单元,被配置为执行获取现实场景图像以及所述现实场景图像对应的相机位姿信息;
虚拟场景生成单元,被配置为执行根据所述现实场景图像以及所述相机位姿信息重建场景模型,并生成与所述场景模型匹配的虚拟场景;
动作图像获取单元,被配置为执行获取连续的多帧现实角色动作图像;
角色动画生成单元,被配置为执行根据预设的虚拟角色模型以及所述多帧现实角色动作图像,生成所述虚拟角色模型的虚拟角色动画;
目标动画生成单元,被配置为执行基于所述虚拟场景以及所述虚拟角色动画生成目标动画。
在可选的一个实施例中,所述虚拟场景生成单元,进一步被配置为执行基于预设的模型数据集,获取所述场景模型中包含的多个物体,确定与所述多个物体匹配的物体模型;从所述物体模型对应的多个姿态中获取与所述多个物体对应的现实姿态,作为模型姿态;将所述物体模型按照所述模型姿态进行组合,生成所述虚拟场景。
在可选的一个实施例中,所述虚拟场景生成单元,进一步被配置为执行获取所述多个物体的物体类别以及所述多个物体的物体特征;从所述模型数据集中获取与所述物体类别对应的目标数据集,根据所述物体特征从所述目标数据集中获取所述与所述多个物体匹配的物体模型。
在可选的一个实施例中,动画生成装置,还包括:物体位置校正单元,被配置为执行获取当前现实场景图像;当所述当前场景图像与所述虚拟场景匹配时,则将所述物体模型的位置按照所述当前现实场景图像中的物体位置进行校正。
在可选的一个实施例中,所述角色动画生成单元,进一步被配置为执行获取所述多帧现实角色动作图像对应的现实角色的关节旋转信息;基于所述关节旋转信息驱动所述虚拟角色模型,得到所述虚拟角色动画。
在可选的一个实施例中,所述角色动画生成单元,进一步被配置为执行获取所述多帧现实角色动作图像对应的角色二维关键点;根据所述角色二维关键点确定所述多帧现实角色动作图像对应的角色包围盒;根据所述角色包围盒对所述现实角色动作图像进行裁剪,将裁剪得到的角色动作图像输入预设的动作捕捉模型,根据所述动作捕捉模型输出得到所述关节旋转信息。
在可选的一个实施例中,所述角色动画生成单元,进一步被配置为执行对所述角色包围盒进行放大处理;根据所述放大处理后的所述角色包围盒对所述现实角色动作图像进行裁剪。
在可选的一个实施例中,所述角色动画生成单元,还被配置为执行获取所述多帧现实角色动作图像对应的角色动作类型;从预设的动作库中获取与所述角色动作类型匹配的动作模型;根据所述动作模型驱动所述虚拟角色模型,得到所述虚拟角色动画。
在可选的一个实施例中,所述目标动画生成单元,进一步被配置为执行获取现实场景中各物体的物体位置与现实角色的角色位置之间的位置关系;基于所述位置关系,根据所述虚拟场景以及所述虚拟角色动画生成所述目标动画。
在可选的一个实施例中,所述目标动画生成单元,进一步被配置为执行获取所述虚拟场景中各物体模型的物体关键点在所述虚拟场景下对应的第一相机坐标系下的第一位置坐标,以及所述虚拟角色动画中角色关键点在所述虚拟角色动画对应的第二相机坐标系下的第二位置坐标;确定所述第一相机坐标系与所述第二相机坐标系的坐标变换关系;基于所述第一位置坐标、所述第二位置坐标以及所述坐标变换关系,生成所述目标动画。
第三方面,提供一种电子设备,包括:处理器;用于存储所述处理器可执行指令的存储器;其中,所述处理器被配置为执行所述指令,以实现第一方面的任一项实施例中所述的动画生成方法。
第四方面,提供一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行第一方面的任一项实施例中所述的动画生成方法。
第五方面,提供一种计算机程序产品,所述程序产品包括计算机程序,所述计算机程序存储在可读存储介质中,设备的至少一个处理器从所述可读存储介质读取并执行所述计算机程序,使得设备执行第一方面的任一项实施例中所述的动画生成方法。
本公开的实施例提供的技术方案至少带来以下有益效果:
通过获取现实场景图像以及现实场景图像对应的相机位姿信息;根据现实场景图像以及相机位姿信息重建场景模型,并生成与场景模型匹配的虚拟场景;获取连续的多帧现实角色动作图像;根据预设的虚拟角色模型以及多帧现实角色动作图像,生成虚拟角色模型的虚拟角色动画;基于虚拟场景以及虚拟角色动画生成目标动画。本公开提供的动画生成方法,可以避免通过软件建模生成动画环境,以及通过动作捕捉设备采集动画人物动作,带来的设备人力成本损耗的问题,从而降低动画制作的成本。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种动画生成方法的流程图。
图2是根据一示例性实施例示出的生成与场景模型匹配的虚拟场景的流程图。
图3是根据一示例性实施例示出的生成虚拟角色模型的虚拟角色动画的流程图。
图4是根据一示例性实施例示出的获取现实角色动作图像的关节旋转信息的流程图。
图5是根据另一示例性实施例示出的生成虚拟角色模型的虚拟角色动画的流程图。
图6是根据一示例性实施例示出的生成目标动画的流程图。
图7是根据另一示例性实施例示出的一种动画生成方法的流程图。
图8是根据另一示例性实施例示出的一种动画生成方法的流程图。
图9是根据一示例性实施例示出的一种动画生成装置的框图。
图10是根据一示例性实施例示出的一种电子设备的内部结构图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
图1是根据一示例性实施例示出的一种动画生成方法的流程图,如图1所示,动画生成方法用于终端中,包括以下步骤。
在步骤S101中,终端获取现实场景图像以及现实场景图像对应的相机位姿信息;
在步骤S102中,终端根据现实场景图像以及相机位姿信息重建场景模型,并生成与场景模型匹配的虚拟场景。
其中,现实场景图像可以通过终端上的图像采集设备采集得到,例如可以通过手机终端上安装的增强现实软件中场景扫描功能实现,相机位姿信息则指的是在扫描现实场景图像对应的相机位姿,当终端通过图像采集设备获取现实场景图像的同时,终端可通过诸如世界追踪技术记录拍摄的现实场景图像对应的相机位姿信息,再利用现实场景图像以及相机位姿信息重建出与得到的现实场景图像匹配的场景模型,并基于该场景模型生成匹配的虚拟场景。
在步骤S103中,终端获取连续的多帧现实角色动作图像;
在步骤S104中,终端根据预设的虚拟角色模型以及多帧现实角色动作图像,生成虚拟角色模型的虚拟角色动画。
现实角色动作图像也可以通过终端上的的图像采集设备采集得到,例如可以通过手机终端上的相机功能通过拍摄的方式得到连续的多帧包含有角色动作的角色动作图像,该角色可以是现实人物角色,也可以是现实世界中的动物角色,再利用预先设计的虚拟角色模型以及得到得到的多帧现实角色动作图像生成包含有该虚拟角色模型的虚拟角色动画。
在步骤S105中,终端基于虚拟场景以及虚拟角色动画生成目标动画。
最终,终端可以结合步骤S102中得到的虚拟场景,以及步骤S104中得到的虚拟角色动画,使虚拟角色动画在虚拟场景中进行播放,从而生成与现实世界相对应的动画虚拟世界。
上述动画生成方法中,终端通过获取现实场景图像以及现实场景图像对应的相机位姿信息;根据现实场景图像以及相机位姿信息重建场景模型,并生成与场景模型匹配的虚拟场景;获取连续的多帧现实角色动作图像;根据预设的虚拟角色模型以及多帧现实角色动作图像,生成虚拟角色模型的虚拟角色动画;基于虚拟场景以及虚拟角色动画生成目标动画。本公开提供的动画生成方法,可以避免通过软件建模生成动画环境,以及通过动作捕捉设备采集动画人物动作,带来的设备人力成本损耗的问题,从而降低动画制作的成本。
在一示例性实施例中,如图2所示,在步骤S102中,终端生成与场景模型匹配的虚拟场景具体可以通过以下步骤实现:
在步骤S201中,基于预设的模型数据集,终端获取场景模型中包含的多个物体,确定与多个物体匹配的物体模型。
其中,模型数据集中存储有多种与不同物体匹配的物体模型,每个物体模型可以对应于一个物体,例如可以包括桌子模型,椅子模型以及水杯模型等等,分别对应于现实场景中的不同物体,终端在重建场景模型后,可以确定该场景模型中包含的多个物体,例如场景模型中可能存在有桌子和水杯,那么终端则可以根据上述桌子和水杯从模型数据集中将桌子和水杯对应的桌子模型以及水杯模型,作为与多个物体匹配的物体模型。
在步骤S202中,终端从物体模型对应的多个姿态中获取与多个物体对应的现实姿态,作为模型姿态。
而模型数据集中每个物体模型也都可以通过不同的方位角以及仰角的组合进行渲染,模型姿态则指的是各物体模型对应的模型姿态,模型数据集中每一个物体模型都可以分别对应多种模型姿态,而现实姿态则指的是该物体对应的姿态。例如对于水杯模型而言,其可以对应竖立设置以及横放等多种姿态,因此终端可以从该物体对应的多个姿态中,将该物体的显示姿态作为场景姿态,即如果该水杯在现实场景中是竖立放置,那么则可以将竖立放置的姿态作为模型姿态。
在步骤S203中,终端将物体模型按照模型姿态进行组合,生成虚拟场景。
终端得到多个物体模型以及每个物体模型对应的模型姿态后,可以按照模型姿态将得到的多个物体模型进行组合,从而生成场景模型匹配的虚拟场景。
进一步地,在步骤S201中,终端确定与多个物体匹配的物体模型,可以进一步包括:终端获取多个物体的物体类别以及多个物体的物体特征;从模型数据集中获取与物体类别对应的目标数据集,根据物体特征从目标数据集中获取所述与多个物体匹配的物体模型。
其中,模型数据集中存储有多种目标数据集,分别对应于不同的不同的物体类别,而目标数据集中则存储有与该物体种类相关的多种物体模型。例如:模型数据集中可以包括有目标数据集A以及目标数据集B,目标数据集A可以用于存储不同的桌子模型,即桌子模型A以及桌子模型B等,而目标数据集B则可以用于存储不同的椅子模型,即椅子模型A与椅子模型B等。
具体地,终端得到场景模型后,首先可以识别出该场景模型中包含的多个物体,并分别确定每个物体的物体类别以及每个物体的物体特征,再基于物体类别从模型数据库中找到与该物体类别匹配的目标数据集,再利用特征匹配的方式,可以通过各物体的特征向量在目标数据集中查询与该特征向量匹配的物体模型。
例如:扫描后重建的场景模型可以包含有桌子和椅子,终端可以先从场景模型中识别出桌子和椅子,并分别从存储有多个桌子模型的目标数据集中找到与该桌子特征匹配的桌子模型以及从存储有多个椅子模型的目标数据集中找到与该椅子特征匹配的椅子模型。
另外,在步骤S101之后,还包括:终端获取当前现实场景图像;当当前场景图像与虚拟场景匹配时,则将物体模型的位置按照当前现实场景图像中的物体位置进行校正。
由于终端在获取现实场景图像的过程中往往需要通过终端以多种不同角度或者不同位置进行现场图像的扫描,因此可能会出现当前的现实场景图像与生成的虚拟场景存在位置偏差的情形,例如在当前的现实场景中正前方中显示有椅子A,而椅子A对应的椅子模型A在虚拟场景中则可能并不显示在正前方,为了使生成的虚拟场景与当前现实场景对齐,本实施例在终端生成虚拟场景后,可以再次获取当前现实场景图像,如果当前现实场景图像与已经生成的虚拟场景匹配,匹配的方法可以是利用当前现实场景图像下物体的特征点与虚拟场景下物体模型的特征点进行匹配,那么则根据当前现实场景图像中的物体位置对虚拟场景中物体模型的位置进行校正。
上述实施例中,终端通过模型数据集可重建出含有渲染效果的物体模型的虚拟场景,另外,通过物体类别先确定模型数据集中的目标数据集,再根据物体特征从目标数据集中找到匹配的物体模型的方式,可以提高物体模型匹配的效率的同时,也提高了匹配的精度,同时,还可以利用当前现实场景图像对虚拟场景中各物体模型的位置进行校正,可使生成的虚拟场景对齐当前现实场景,从而进一步提高得到的虚拟场景的准确性。
在一示例性实施例中,如图3所示,步骤S104,具体可以通过以下步骤实现:
在步骤S301中,终端获取多帧现实角色动作图像对应的现实角色的关节旋转信息。
关节旋转信息可以用于描述该现实角色的当前现实角色动作图像帧上的角色姿势,终端可以从每一帧现实角色动作图像中读取出每一个现实角色动作图像帧上现实角色的关节旋转信息。
在步骤S302中,终端从基于关节旋转信息驱动虚拟角色模型,得到虚拟角色动画。
其中,虚拟角色模型可以是预先设定的多个用于生成虚拟角色动画的人物模型的其中一个,终端可以从预设的人物模型中确定出一个虚拟角色模型。虚拟角色模型确定方法可以是通过需要生成虚拟世界的用户从多个人物模型中进行选择,也可以是终端通过获取现实角色的角色特征从预设的人物模型中选取与该角色特征相匹配的人物模型作为虚拟角色模型。之后,终端可以利用各帧现实角色动作图像对应的关节旋转信息驱动得到的虚拟角色模型,从而得到虚拟角色动画。
进一步地,如图4所示,步骤S301可以进一步通过以下步骤实现:
在步骤S401中,终端获取多帧现实角色动作图像对应的角色二维关键点;
在步骤S402中,终端根据角色二维关键点确定多帧现实角色动作图像对应的角色包围盒。
具体地,终端可以对得到的多帧现实角色动作图像的每一帧都进行二维关键点检测,从而得到每一帧现实角色动作图像对应的角色二维关键点,并基于得到的二维关键点,确定每一帧现实角色动作图像对应的角色包围盒。
在步骤S403中,终端根据角色包围盒对现实角色动作图像进行裁剪,将裁剪得到的角色动作图像输入预设的动作捕捉模型,根据动作捕捉模型输出得到关节旋转信息。
动作捕捉模型可以是预先训练好的用于根据输入的含有角色动作姿势的图像帧输出得到该角色的关节信息的神经网络模型,该神经网络模型可以是SMPL模型。具体来说,终端在得到角色包围盒后,首先可以按照包围盒的轮廓对得到的每一帧现实角色动作图像进行裁剪,并将裁剪得到的角色动作图像输入动作捕捉模型,并从动作捕捉模型的输出中得到各帧现实角色动作图像的关节旋转信息。
进一步地,为了避免终端利用角色包围盒对现实角色动作图像进行裁剪的过程中损坏角色动作图像的完整性,步骤S403可以进一步包括:终端对角色包围盒进行放大处理;根据放大处理后的角色包围盒对现实角色动作图像进行裁剪。
具体地,终端可以对步骤S402中得到的角色包围盒进行放大,其中放大的过程可以是按照某个预先设定的放大倍数进行,例如可以是对角色包围盒放大1.3倍后,再根据放大后的角色包围盒对现实角色动作图像进行裁剪。
上述实施例中,终端可以利用每一帧现实角色动作图像对应的关节旋转信息虚拟角色模型,从而得到虚拟角色动画,并且关节旋转信息是通过动作捕捉模型对每一帧现实角色动作图像的角色包围盒裁剪后得到的角色动作图像进行识别所得,同时在对现实角色动作图像的裁剪是基于放大后角色包围盒进行,从而可以进一步提高得到的虚拟角色动画的精确度。
另外,由于利用关节旋转信息驱动待驱动虚拟角色需要采集大量的不同关节的关节旋转信息,为了降低终端的性能消耗,在另一示例性实施例中,如图5所示,在步骤S102中,还可以通过如下步骤实现:
在步骤S501中,终端获取多帧现实角色动作图像对应的角色动作类型。
其中,角色动作类型指的是多帧现实角色动作图像中该现实角色对应的角色动作,多帧现实角色动作图像可以是终端拍摄到的连续几帧现实角色的动作图像。例如,终端可以通过将现实角色动作图像输入预先训练的动作类型识别模型得到该现实角色的角色动作类型。
在步骤S502中,终端从预设的动作库中获取与角色动作类型匹配的动作模型。
其中,动作库中存储有不同的动作模型,分别对应与不同的角色动作类型,可以包括从椅子上站起或者坐下椅子等等不同的动作类型对应的动作模型,终端可以基于步骤S501中得到的角色动作类型,并利用该角色动作类型找到与其匹配的动作模型。例如:动作库中可以存储有与从椅子上站起对应的动作模型A以及坐下椅子对应的动作模型B,而如果终端在步骤S501中得到的角色动作类型为角色坐下椅子,那么即可将动作模型B作为与角色动作类型匹配的动作模型。另外,同样的动作类型也可分别对应于不同的动作模型,同样是坐下椅子这个动作,可以是很快的坐下,也可以是缓慢坐下,那么此时终端还可以进一步基于得到的多帧现实角色动作图像,确定出在该角色动作类型下多帧现实角色动作图像对应的角色动作特征,例如时间特征等,并通过角色动作特征进一步匹配动作库中的动作模型。
在步骤S503中,终端根据动作模型驱动虚拟角色模型,得到虚拟角色动画。
其中,虚拟角色模型可以是预先设定的多个用于生成虚拟角色动画的人物模型的其中一个,终端可以从预设的人物模型中确定出一个虚拟角色模型。虚拟角色模型确定方法可以是通过需要生成虚拟世界的用户从多个人物模型中进行选择,也可以是终端通过获取现实角色的角色特征从预设的人物模型中选取与该角色特征相匹配的人物模型作为虚拟角色模型。之后,终端可以利用步骤S502中得到的动作模型,驱动虚拟角色模型,最终得到该虚拟角色模型的虚拟角色动画。
上述实施例中,终端可以通过动作库中的动作模型按照现实角色动作图像的动作类型驱动虚拟角色模型,得到该虚拟角色模型的虚拟角色动画,从而可降低终端的性能消耗。
在一示例性实施例中,步骤S103可以进一步包括:终端获取现实场景中各物体的物体位置与现实角色的角色位置之间的位置关系;基于位置关系,根据虚拟场景以及虚拟角色动画生成目标动画。
具体地,终端在步骤S101得到虚拟场景以及步骤S102中得到的虚拟角色动画后,可以通过现实场景中每个物体的物体位置与现实角色的角色位置之间的位置关系生成目标动画。例如:当现实角色是从现实场景中某个椅子上站起,即该现实角色的角色位置与该椅子的位置处于重合关系,那么生成的虚拟世界也可以根据这个位置关系,生成目标动画。用户可以通过改变该虚拟角色动画中虚拟角色的位置的方式,使得虚拟角色的位置与该虚拟场景中椅子的物体模型的位置处于同样的重合关系,进而生成虚拟角色从虚拟场景中的椅子上站起的虚拟世界。
上述实施例中,可以通过现实场景中物体位置与角色位置的位置关系生成目标动画,从而避免了因虚拟场景以及虚拟角色动画位置不匹配,而造成的目标动画不符合现实场景的情形。
而为了进一步提高生成的虚拟世界的准确性,在一示例性实施例中,如图6所示,终端基于位置关系,根据虚拟场景以及虚拟角色动画生成目标动画,还可以进一步通过如下步骤实现:
在步骤S601中,终端获取虚拟场景中各物体模型的物体关键点在虚拟场景下对应的第一相机坐标系下的第一位置坐标,以及虚拟角色动画中角色关键点在虚拟角色动画对应的第二相机坐标系下的第二位置坐标。
其中,第一相机坐标系是终端在建立虚拟场景所采用的的相机坐标系,第二相机坐标系则是终端在建立虚拟角色动画时所采用的的相机坐标系。具体来说,终端完成完成虚拟场景的建设后,可以读取虚拟场景中包含的各个物体模型中对应的物体关键点在第一相机坐标系下的第一位置坐标,并且在完成虚拟角色动画的生成后读取虚拟角色动画中虚拟角色模型的各角色关键点在第二相机坐标系下的第二位置坐标。
在步骤S602中,终端确定第一相机坐标系与第二相机坐标系的坐标变换关系;
在步骤S603中,终端基于第一位置坐标、第二位置坐标以及坐标变换关系,生成目标动画。
坐标变换关系指的是第一相机坐标系与第二相机坐标系的坐标变换关系,终端可以根据该坐标变换关系,利用得到的第一位置坐标与第二位置坐标,生成虚拟场景与虚拟角色动画在同一相机坐标系下的目标动画。
进一步地,步骤S602可以包括:终端确定第一相机原点,以及第二相机原点;第一相机原点坐标为第一相机坐标系的原点,第二相机原点为第二相机坐标系的原点;获取第一相机原点与第二相机原点在现实场景中的原点位置关系;基于原点位置关系,确定第一相机坐标系与第二相机坐标系的坐标变换关系。
第一相机原点指的是第一相机坐标系中的原点,可以是终端采集现实场景图像时的终端位置,第二相机原点则指的是第二相机坐标系中的原点,可以是终端采集多帧现实角色动作图像时的终端位置。具体地,终端可以在采集现实场景图像时可以记录当前终端的第一位置,以及在采集多帧现实角色动作图像时记录当前终端的第二位置,并利用第一位置与第二位置确定第一相机原点与第二相机原点在现实场景中的原点位置关系,再基于该位置关系,确定出第一相机坐标系与第二相机坐标系的坐标变换关系。
例如:终端可以在确定第一相机原点的现实位置以及第二相机原点的现实位置后,可以分别得到上述现实位置对应的定位信息,并基于该定位信息,得到第一相机原点与第二相机原点之间的原点变换关系,最后将该原点变换关系作为第一相机坐标系与所述第二相机坐标系的坐标变换关系。
进一步地,步骤S603可以包括:终端基于第二位置坐标以及坐标变换关系,确定角色关键点在第一相机坐标系下的第三位置坐标;利用第三位置坐标,在第一相机坐标系下生成虚拟角色动画,得到虚拟世界。
第三位置坐标则是角色关键点在第一相机坐标系下对应的位置坐标,由于终端已经得到了角色关键点在第二相机坐标系下的第二位置坐标,以及第一相机坐标系与第二相机坐标系之间的坐标变换关系,终端可以通过坐标变换关系将第二位置坐标变换为在第一相机坐标系下的第三位置坐标,并利用第三位置坐标,在已经生成虚拟场景下的第一相机坐标系下按照第三位置坐标生成虚拟角色动画,从而形成虚拟世界。
另外,步骤S603还可以包括:终端基于第一位置坐标以及坐标变换关系,确定物体关键点在第二相机坐标系下的第四位置坐标;利用第四位置坐标,在第二相机坐标系下生成虚拟场景,得到虚拟世界。
第四位置坐标则是物体关键点在第二相机坐标系下的对应的位置坐标,终端可以利用第一相机坐标系与第二相机坐标系之间的坐标变换关系,将物体关键点在第一相机坐标系下的第一位置坐标变换为在第二相机坐标系下的第四位置坐标,并按照物体关键点的第四位置坐标,在已经生成虚拟角色动画的第二相机坐标系下生成虚拟场景,进而得到虚拟世界。
上述实施例中,可以利用生成虚拟场景的第一相机坐标系与生成虚拟角色动画的第二相机坐标系之间的坐标变换关系,以及虚拟场景中各物体关键点在第一相机坐标系下的第一位置坐标和虚拟角色动画中各角色关键点在第二相机坐标系下的第二位置坐标,生成虚拟世界,而其中坐标变换关系则可以通过第一相机原点与第二相机原点在现实场景中的位置关系确定,能够使得生成的虚拟世界可以更准确的与实际场景相匹配,进而进一步提高生成的虚拟世界的准确性。
图7是根据一示例性实施例示出的一种动画生成方法的流程图,如图7所示,动画生成方法用于终端中,包括以下步骤。
在步骤S701中,终端获取现实场景图像以及现实场景图像对应的相机位姿信息;根据现实场景图像以及相机位姿信息重建场景模型;
在步骤S702中,终端获取场景模型中包含的多个物体,获取多个物体的物体类别以及多个物体的物体特征;从模型数据集中获取与物体类别对应的目标数据集,根据物体特征从目标数据集中获取与多个物体匹配的物体模型;
在步骤S703中,终端从物体模型对应的多个姿态中获取与多个物体对应的现实姿态,作为模型姿态;将物体模型按照模型姿态进行组合,生成虚拟场景;
在步骤S704中,终端获取连续的多帧现实角色动作图像,以及多帧现实角色动作图像对应的角色二维关键点;根据角色二维关键点确定多帧现实角色动作图像对应的角色包围盒;
在步骤S705中,终端对角色包围盒进行放大处理;根据放大处理后的角色包围盒对现实角色动作图像进行裁剪,将裁剪得到的角色动作图像输入预设的动作捕捉模型,根据动作捕捉模型输出得到关节旋转信息;
在步骤S706中,终端从基于关节旋转信息驱动虚拟角色模型,得到虚拟角色动画;
在步骤S707中,终端获取虚拟场景中各物体模型的物体关键点在虚拟场景下对应的第一相机坐标系下的第一位置坐标,以及虚拟角色动画中角色关键点在虚拟角色动画对应的第二相机坐标系下的第二位置坐标;
在步骤S708中,终端确定第一相机坐标系与第二相机坐标系的坐标变换关系;
在步骤S709中,终端基于第一位置坐标、第二位置坐标以及坐标变换关系,生成目标动画。
上述动画生成方法中,可以避免通过软件建模生成动画环境,以及通过动作捕捉设备采集动画人物动作,带来的设备人力成本损耗的问题,从而降低动画制作的成本,另外,还可以提高生成的虚拟场景与虚拟角色动画的精确度同时,利用现实场景与现实角色的位置对应关系使得虚拟场景与虚拟角色动画位置与现实匹配,进而进一步提高生成的虚拟世界的准确性。
在一示例性实施例中,提供了一种动画生成方法,该方法可以通过移动端将现实世界环境和人物动作转换成虚拟世界的环境和人物动作,如图8所示,该方法主要包括如下4个步骤:
步骤1:虚拟场景生成,将真实场景转化成虚拟场景。
(1)通过用户手持支持增强现实框架的设备,通过小于1米/秒的速度移动手机位置,扫描获得现实场景的视频。
(2)在扫描场景,保存视频的过程的同时,使用记录保存相机的位姿信息。
(3)通过运动重建模型技术,重构扫描的场景。
(4)利用模型库检索模型,该模型库由扩充的三维模型数据集组成:对三维模型数据集中每个物体模型选取16个方位角(360°等分)和3个仰角(15°,30°,45°)的组合,渲染物体图像。并提取数据集中渲染图的特征向量,构成各个物体类别的特征库。提取被检测物体对应的特征向量,在模型库中对应类别的特征库中进行检索,得到对应模型和模型的姿态。
(5)将搜索到的模型按照模型的姿态组合成一个虚拟场景。
步骤2:重定位:重新定位当前场景和之前的扫描的真实场景是同一个场景。
(1)以小于1米/秒的速度移动手机相机位置,环绕环境移动。
(2)加载扫描环境时候的保存的环境信息。
(3)通过重定位功能,识别当前真实场景是否和扫描的真实场景是否处于同一个环境中。如果是,则将搜索到的模型显示出来。
步骤3:虚拟人物动作生成:将真实场景的人物动作转换成虚拟人物的动作。
(1)通过手机相机采集连续视频帧作为输入。
(2)对于视频每帧图像做二维关键点检测。
(3)基于二维关键点获取到人物的包围盒,对于包围盒做1.3倍的放大。
(4)基于放大后的包围盒对原始视频帧做裁剪,作为SMPL模型的输入,网络输出这帧图片中人物动作对应的关节旋转信息。
(5)基于动画重定位驱动预先制作好的虚拟人物,产生虚拟人物的实时动画。
步骤4:动画生成,利用真实物理空间的位置对齐虚拟人物与虚拟场景的位置。
(1)虚拟人物的坐标原点为物理相机的位置,虚拟人物的位置由SMPL模型计算输出结果。
(2)虚拟场景的坐标原点是第一次扫描场景的时候物理相机的位置,在重定位的过程中,虚拟场景的位置于物理空间的位置对齐。
(3)根据虚拟人物的坐标原点与虚拟场景的坐标原点的位置关系,利用真实物理空间的位置对齐虚拟人物与虚拟场景的位置。
上述动画生成方法中,可将虚拟制作的设备迁移到移动端设备上,降低制作成本的同时,能降低制作动画短片的门槛,使得普通大众都可以制作,并且可使动画制作所见即所得,从而降低目前动画电影制作的成本以及制作周期。
应该理解的是,虽然图1-8的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1-8中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
图9是根据一示例性实施例示出的一种动画生成装置框图。参照图9,该装置包括场景图像获取单元901,虚拟场景生成单元902,动作图像获取单元903,角色动画生成单元904和目标动画生成单元905。
场景图像获取单元901,被配置为执行获取现实场景图像以及现实场景图像对应的相机位姿信息;
虚拟场景生成单元902,被配置为执行根据现实场景图像以及相机位姿信息重建场景模型,并生成与场景模型匹配的虚拟场景;
动作图像获取单元903,被配置为执行获取连续的多帧现实角色动作图像;
角色动画生成单元904,被配置为执行根据预设的虚拟角色模型以及多帧现实角色动作图像,生成虚拟角色模型的虚拟角色动画;
目标动画生成单元905,被配置为执行基于虚拟场景以及虚拟角色动画生成目标动画。
在一示例性实施例中,虚拟场景生成单元902,进一步被配置为执行基于预设的模型数据集,获取场景模型中包含的多个物体,确定与多个物体匹配的物体模型;从物体模型对应的多个姿态中获取与多个物体对应的现实姿态,作为模型姿态;将物体模型按照模型姿态进行组合,生成虚拟场景。
在一示例性实施例中,虚拟场景生成单元902,进一步被配置为执行获取多个物体的物体类别以及多个物体的物体特征;从模型数据集中获取与物体类别对应的目标数据集,根据物体特征从目标数据集中获取与多个物体匹配的物体模型。
在一示例性实施例中,动画生成装置,还包括:物体位置校正单元,被配置为执行获取当前现实场景图像;当当前场景图像与虚拟场景匹配时,则将物体模型的位置按照当前现实场景图像中的物体位置进行校正。
在一示例性实施例中,角色动画生成单元904,进一步被配置为执行获取多帧现实角色动作图像对应的现实角色的关节旋转信息;基于关节旋转信息驱动虚拟角色模型,得到虚拟角色动画。
在一示例性实施例中,角色动画生成单元904,进一步被配置为执行获取多帧现实角色动作图像对应的角色二维关键点;根据角色二维关键点确定多帧现实角色动作图像对应的角色包围盒;根据角色包围盒对现实角色动作图像进行裁剪,将裁剪得到的角色动作图像输入预设的动作捕捉模型,根据动作捕捉模型输出得到关节旋转信息。。
在一示例性实施例中,角色动画生成单元904,进一步被配置为执行对角色包围盒进行放大处理;根据放大处理后的角色包围盒对现实角色动作图像进行裁剪。
在一示例性实施例中,角色动画生成单元904,还被配置为执行获取多帧现实角色动作图像对应的角色动作类型;从预设的动作库中获取与角色动作类型匹配的动作模型;根据动作模型驱动虚拟角色模型,得到虚拟角色动画。
在一示例性实施例中,目标动画生成单元905,进一步被配置为执行获取现实场景中各物体的物体位置与现实角色的角色位置之间的位置关系;基于位置关系,根据虚拟场景以及虚拟角色动画生成目标动画。
在一示例性实施例中,目标动画生成单元905,进一步被配置为执行获取虚拟场景中各物体模型的物体关键点在所述虚拟场景下对应的第一相机坐标系下的第一位置坐标,以及虚拟角色动画中角色关键点在虚拟角色动画对应的第二相机坐标系下的第二位置坐标;确定第一相机坐标系与第二相机坐标系的坐标变换关系;基于第一位置坐标、第二位置坐标以及坐标变换关系,生成目标动画。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图10是根据一示例性实施例示出的一种用于动画生成的设备1000的框图。例如,设备1000可以是移动电话、计算机、数字广播终端、消息收发设备、游戏控制台、平板设备、医疗设备、健身设备、个人数字助理等。
参照图10,设备1000可以包括以下一个或多个组件:处理组件1002、存储器1004、电源组件1006、多媒体组件1008、音频组件1010、输入/输出(I/O)的接口1012、传感器组件1014以及通信组件1016。
处理组件1002通常控制设备1000的整体操作,诸如与显示、电话呼叫、数据通信、相机操作和记录操作相关联的操作。处理组件1002可以包括一个或多个处理器1020来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件1002可以包括一个或多个模块,便于处理组件1002和其他组件之间的交互。例如,处理组件1002可以包括多媒体模块,以方便多媒体组件1008和处理组件1002之间的交互。
存储器1004被配置为存储各种类型的数据以支持在设备1000的操作。这些数据的示例包括用于在设备1000上操作的任何应用程序或方法的指令、联系人数据、电话簿数据、消息、图片、视频等。存储器1004可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM)、电可擦除可编程只读存储器(EEPROM)、可擦除可编程只读存储器(EPROM)、可编程只读存储器(PROM)、只读存储器(ROM)、磁存储器、快闪存储器、磁盘或光盘。
电源组件1006为设备1000的各种组件提供电力。电源组件1006可以包括电源管理系统,一个或多个电源,及其他与为设备1000生成、管理和分配电力相关联的组件。
多媒体组件1008包括在所述设备1000和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件1008包括一个前置摄像头和/或后置摄像头。当设备1000处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件1010被配置为输出和/或输入音频信号。例如,音频组件1010包括一个麦克风(MIC),当设备1000处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1004或经由通信组件1016发送。在一些实施例中,音频组件1010还包括一个扬声器,用于输出音频信号。
I/O接口1012为处理组件1002和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件1014包括一个或多个传感器,用于为设备1000提供各个方面的状态评估。例如,传感器组件1014可以检测到设备1000的打开/关闭状态,组件的相对定位,例如所述组件为设备1000的显示器和小键盘,传感器组件1014还可以检测设备1000或设备1000一个组件的位置改变,用户与设备1000接触的存在或不存在,设备1000方位或加速/减速和设备1000的温度变化。传感器组件1014可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件1014还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件1014还可以包括加速度传感器、陀螺仪传感器、磁传感器、压力传感器或温度传感器。
通信组件1016被配置为便于设备1000和其他设备之间有线或无线方式的通信。设备1000可以接入基于通信标准的无线网络,如WiFi,运营商网络(如2G、3G、4G或5G),或它们的组合。在一个示例性实施例中,通信组件1016经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件1016还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,设备1000可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器1004,上述指令可由设备1000的处理器1020执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (10)

1.一种动画生成方法,其特征在于,包括:
获取现实场景图像以及所述现实场景图像对应的相机位姿信息;
根据所述现实场景图像以及所述相机位姿信息重建场景模型,并生成与所述场景模型匹配的虚拟场景;
获取连续的多帧现实角色动作图像;
根据预设的虚拟角色模型以及所述多帧现实角色动作图像,生成所述虚拟角色模型的虚拟角色动画;
基于所述虚拟场景以及所述虚拟角色动画生成目标动画。
2.根据权利要求1所述的方法,其特征在于,所述生成与所述场景模型匹配的虚拟场景,包括:
基于预设的模型数据集,获取所述场景模型中包含的多个物体,确定与所述多个物体匹配的物体模型;
从所述物体模型对应的多个姿态中获取与所述多个物体对应的现实姿态,作为模型姿态;
将所述物体模型按照所述模型姿态进行组合,生成所述虚拟场景。
3.根据权利要求2所述的方法,其特征在于,所述确定与所述多个物体匹配的物体模型,包括:
获取所述多个物体的物体类别以及所述多个物体的物体特征;
从所述模型数据集中获取与所述物体类别对应的目标数据集,根据所述物体特征从所述目标数据集中获取所述与所述多个物体匹配的物体模型。
4.根据权利要求3所述的方法,其特征在于,所述生成与所述场景模型匹配的虚拟场景之后,还包括:
获取当前现实场景图像;
当所述当前场景图像与所述虚拟场景匹配时,则将所述物体模型的位置按照所述当前现实场景图像中的物体位置进行校正。
5.根据权利要求1所述的方法,其特征在于,所述根据预设的虚拟角色模型以及所述多帧现实角色动作图像,生成所述虚拟角色模型的虚拟角色动画,包括:
获取所述多帧现实角色动作图像对应的现实角色的关节旋转信息;
基于所述关节旋转信息驱动所述虚拟角色模型,得到所述虚拟角色动画。
6.根据权利要求5所述的方法,其特征在于,所述获取所述多帧现实角色动作图像对应的现实角色的关节旋转信息,包括:
获取所述多帧现实角色动作图像对应的角色二维关键点;
根据所述角色二维关键点确定所述多帧现实角色动作图像对应的角色包围盒;
根据所述角色包围盒对所述现实角色动作图像进行裁剪,将裁剪得到的角色动作图像输入预设的动作捕捉模型,根据所述动作捕捉模型输出得到所述关节旋转信息。
7.根据权利要求6所述的方法,其特征在于,所述根据所述角色包围盒对所述现实角色动作图像进行裁剪,包括:
对所述角色包围盒进行放大处理;
根据所述放大处理后的所述角色包围盒对所述现实角色动作图像进行裁剪。
8.一种动画生成装置,其特征在于,包括:
场景图像获取单元,被配置为执行获取现实场景图像以及所述现实场景图像对应的相机位姿信息;
虚拟场景生成单元,被配置为执行根据所述现实场景图像以及所述相机位姿信息重建场景模型,并生成与所述场景模型匹配的虚拟场景;
动作图像获取单元,被配置为执行获取连续的多帧现实角色动作图像;
角色动画生成单元,被配置为执行根据预设的虚拟角色模型以及所述多帧现实角色动作图像,生成所述虚拟角色模型的虚拟角色动画;
目标动画生成单元,被配置为执行基于所述虚拟场景以及所述虚拟角色动画生成目标动画。
9.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求1至7中任一项所述的动画生成方法。
10.一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如权利要求1至7中任一项所述的动画生成方法。
CN202011295107.5A 2020-11-18 2020-11-18 动画生成方法、装置、电子设备及存储介质 Active CN112348933B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011295107.5A CN112348933B (zh) 2020-11-18 2020-11-18 动画生成方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011295107.5A CN112348933B (zh) 2020-11-18 2020-11-18 动画生成方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN112348933A true CN112348933A (zh) 2021-02-09
CN112348933B CN112348933B (zh) 2023-10-31

Family

ID=74363020

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011295107.5A Active CN112348933B (zh) 2020-11-18 2020-11-18 动画生成方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN112348933B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113284257A (zh) * 2021-05-25 2021-08-20 成都威爱新经济技术研究院有限公司 一种虚拟场景内容的模块化生成展示方法及系统
CN113315963A (zh) * 2021-04-23 2021-08-27 深圳市洲明科技股份有限公司 扩展现实显示方法、装置、系统和存储介质
CN113393561A (zh) * 2021-05-26 2021-09-14 完美世界(北京)软件科技发展有限公司 虚拟角色的肢体动作表情包生成方法、装置及存储介质
CN114125310A (zh) * 2022-01-26 2022-03-01 荣耀终端有限公司 拍照方法、终端设备及云端服务器
CN115100331A (zh) * 2022-06-28 2022-09-23 功夫动漫股份有限公司 一种个性化三维动漫的制作方法及装置
CN115665507A (zh) * 2022-12-26 2023-01-31 海马云(天津)信息技术有限公司 含虚拟形象的视频流数据的生成方法、装置、介质及设备
CN116896608A (zh) * 2023-09-11 2023-10-17 山东省地震局 一种基于移动设备传播的虚拟地震场景演播系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108307183A (zh) * 2018-02-08 2018-07-20 广州华影广告有限公司 虚拟场景可视化方法及系统
CN108550190A (zh) * 2018-04-19 2018-09-18 腾讯科技(深圳)有限公司 增强现实数据处理方法、装置、计算机设备和存储介质
CN108735052A (zh) * 2018-05-09 2018-11-02 北京航空航天大学青岛研究院 一种基于slam的增强现实自由落体实验方法
CN111161422A (zh) * 2019-12-13 2020-05-15 广东电网有限责任公司 一种用于增强虚拟场景实现的模型展示方法
CN111324334A (zh) * 2019-11-12 2020-06-23 天津大学 一种基于叙事油画作品开发虚拟现实体验系统的设计方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108307183A (zh) * 2018-02-08 2018-07-20 广州华影广告有限公司 虚拟场景可视化方法及系统
CN108550190A (zh) * 2018-04-19 2018-09-18 腾讯科技(深圳)有限公司 增强现实数据处理方法、装置、计算机设备和存储介质
CN108735052A (zh) * 2018-05-09 2018-11-02 北京航空航天大学青岛研究院 一种基于slam的增强现实自由落体实验方法
CN111324334A (zh) * 2019-11-12 2020-06-23 天津大学 一种基于叙事油画作品开发虚拟现实体验系统的设计方法
CN111161422A (zh) * 2019-12-13 2020-05-15 广东电网有限责任公司 一种用于增强虚拟场景实现的模型展示方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113315963A (zh) * 2021-04-23 2021-08-27 深圳市洲明科技股份有限公司 扩展现实显示方法、装置、系统和存储介质
CN113284257A (zh) * 2021-05-25 2021-08-20 成都威爱新经济技术研究院有限公司 一种虚拟场景内容的模块化生成展示方法及系统
CN113393561A (zh) * 2021-05-26 2021-09-14 完美世界(北京)软件科技发展有限公司 虚拟角色的肢体动作表情包生成方法、装置及存储介质
CN114125310A (zh) * 2022-01-26 2022-03-01 荣耀终端有限公司 拍照方法、终端设备及云端服务器
CN115100331A (zh) * 2022-06-28 2022-09-23 功夫动漫股份有限公司 一种个性化三维动漫的制作方法及装置
CN115665507A (zh) * 2022-12-26 2023-01-31 海马云(天津)信息技术有限公司 含虚拟形象的视频流数据的生成方法、装置、介质及设备
CN115665507B (zh) * 2022-12-26 2023-03-21 海马云(天津)信息技术有限公司 含虚拟形象的视频流数据的生成方法、装置、介质及设备
CN116896608A (zh) * 2023-09-11 2023-10-17 山东省地震局 一种基于移动设备传播的虚拟地震场景演播系统
CN116896608B (zh) * 2023-09-11 2023-12-12 山东省地震局 一种虚拟地震场景演播系统

Also Published As

Publication number Publication date
CN112348933B (zh) 2023-10-31

Similar Documents

Publication Publication Date Title
CN112348933B (zh) 动画生成方法、装置、电子设备及存储介质
KR102194094B1 (ko) 가상과 실제 물체의 합성 방법, 장치, 프로그램 및 기록매체
CN111368796B (zh) 人脸图像的处理方法、装置、电子设备及存储介质
CN110853095B (zh) 相机定位方法、装置、电子设备及存储介质
US11308692B2 (en) Method and device for processing image, and storage medium
WO2022037285A1 (zh) 相机外参标定方法及装置
CN114025105B (zh) 视频处理方法、装置、电子设备、存储介质
CN112509005B (zh) 图像处理方法、装置、电子设备及存储介质
CN112669381B (zh) 一种位姿确定方法、装置、电子设备及存储介质
CN113099297A (zh) 卡点视频的生成方法、装置、电子设备及存储介质
CN111612876A (zh) 表情生成方法、装置及存储介质
CN112509123A (zh) 三维重建方法、装置、电子设备及存储介质
CN112614214A (zh) 动作捕捉方法、装置、电子设备及存储介质
WO2023273499A1 (zh) 深度检测方法及装置、电子设备和存储介质
CN111340691A (zh) 图像处理方法、装置、电子设备及存储介质
CN114140536A (zh) 位姿数据处理方法、装置、电子设备及存储介质
CN113744384B (zh) 三维人脸重建方法、装置、电子设备及存储介质
CN113642551A (zh) 指甲关键点检测方法、装置、电子设备及存储介质
CN113989424A (zh) 三维虚拟形象的生成方法、装置及电子设备
EP3916683A1 (en) Method and apparatus for displaying an image, electronic device and computer-readable storage medium
CN114078280A (zh) 动作捕捉方法、装置、电子设备及存储介质
CN114430457A (zh) 拍摄方法、装置、电子设备和存储介质
CN110493511B (zh) 一种全景图像生成方法及移动终端
CN113643356B (zh) 相机位姿确定、虚拟物体显示方法、装置及电子设备
CN110428492B (zh) 三维唇部重建方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant