CN101510314B - 一种动画视频合成的方法和装置 - Google Patents
一种动画视频合成的方法和装置 Download PDFInfo
- Publication number
- CN101510314B CN101510314B CN2009101291677A CN200910129167A CN101510314B CN 101510314 B CN101510314 B CN 101510314B CN 2009101291677 A CN2009101291677 A CN 2009101291677A CN 200910129167 A CN200910129167 A CN 200910129167A CN 101510314 B CN101510314 B CN 101510314B
- Authority
- CN
- China
- Prior art keywords
- frame image
- synthesized
- picture
- respect
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种动画视频合成的方法和装置,属于图像处理领域。方法包括:根据给定的动画视频的第一帧图像,确定待合成图片的大小和初始位置;从所述给定的动画视频的第二帧图像开始,将每一帧图像作为当前帧图像,根据所述当前帧图像相对于前一帧图像的运动偏移,获得所述待合成图片相对于所述当前帧图像的位置;将所述待合成图片合成到所述当前帧图像的位置上,并将合成后的每一帧图像合成动画视频。装置包括:初始值确定模块、位置获得模块和合成模块。对给定的动画视频进行动态的修改或补充,操作方法简单。
Description
技术领域
本发明涉及图像处理领域,特别涉及一种动画视频合成的方法和装置。
背景技术
随着科技的进步,动画视频已经成为人们生活中广泛应用的娱乐手段,人们可以通过手机终端观看动画视频、在网络中传送动画视频给好友等等。常见的动画视频来源于用户通过手机或DV(Digital Video,数码摄像机)等拍摄的真实影像,包括风景、人物、事件等等;或者用户利用专门的制作软件制作的动画、flash等等。
在实现本发明的过程中,发明人发现现有技术至少存在以下缺点:
对于已经制作完成的动画视频,如果希望对其进行局部的修改或补充,现有技术只是一种静态方式,例如对局部打上马赛克等等,而很难再对其进行动态的修改或补充,即随着动画视频的播放而不断变化其内容进行修改或补充,使整个动画视频更具真实感或者想象力等等。
发明内容
为了对已经制作完成的动画视频进行动态的修改或补充,本发明实施例提供了一种动画视频合成的方法和装置。所述技术方案如下:
一种动画视频合成的方法,包括:
为待合成图片建立内容模型和掩模模型,其中,所述内容模型用于描述所述待合成图片的内容,所述掩模模型用于描述所述待合成图片的显示区域;
根据给定的动画视频的第一帧图像,确定待合成图片的内容模型和掩模模型的大小和初始位置;
从所述给定的动画视频的第二帧图像开始,将每一帧图像作为当前帧图像,根据所述当前帧图像相对于前一帧图像的运动偏移,获得所述待合成图片相对于所述当前帧图像的位置;
将所述待合成图片合成到所述当前帧图像的位置上,并将合成后的每一帧图像合成动画视频。
所述根据所述当前帧图像相对于前一帧图像的运动偏移,获得所述待合成图片相对于所述当前帧图像的位置,具体包括:
获得所述当前帧图像相对于前一帧图像的运动偏移;
根据所述运动偏移,得到所述待合成图片相对于所述当前帧图像的位置与所述待合成图片相对于所述前一帧图像的位置之间的偏移量;
根据所述待合成图片相对于所述前一帧图像的位置和所述偏移量,获得所述待合成图片相对于所述当前帧图像的位置。
所述内容模型由多个三角形组成,每个三角形的顶点都是所述内容模型的控制点;所述掩模模型由多个三角形组成,每个三角形的顶点都是所述掩模模型的控制点;
相应的,所述根据所述当前帧图像相对于前一帧图像的运动偏移,获得所述待合成图片相对于所述当前帧图像的位置,具体包括:
获得所述当前帧图像相对于前一帧图像的运动偏移;
根据所述运动偏移,得到所述内容模型的各个控制点相对于所述当前帧图像的位置与所述内容模型的各个控制点相对于所述前一帧图像的位置之间的偏移量,并得到所述掩模模型的各个控制点相对于所述当前帧图像的位置与所述掩模模型的各个控制点相对于所述前一帧图像的位置之间的偏移量;
根据所述内容模型的各个控制点相对于所述前一帧图像的位置和所述内容模型的各个控制点的偏移量,获得所述待合成图片的内容模型相对于所述当前帧图像的位置;
根据所述掩模模型的各个控制点相对于所述前一帧图像的位置和所述掩模模型的各个控制点的偏移量,获得所述掩模模型相对于所述当前帧图像的位置。
所述将所述待合成图片合成到所述当前帧图像的位置上,具体包括:
根据所述内容模型相对于所述当前帧图像的位置,以及所述掩模模型相对于所述当前帧图像的位置,确定所述内容模型和所述掩模模型相对于所述当前帧图像的重合区域;
将处于所述重合区域的内容模型所描述的待合成图片合成到所述当前帧图像的重合区域。
一种动画视频合成的装置,包括:
模型建立模块,用于为待合成图片建立内容模型和掩模模型,其中,所述内容模型用于描述所述待合成图片的内容,所述掩模模型用于描述所述待合成图片的显示区域;
初始值确定模块,用于根据给定的动画视频的第一帧图像,确定待合成图片的内容模型和掩模模型的大小和初始位置;
位置获得模块,用于从所述给定的动画视频的第二帧图像开始,将每一帧图像作为当前帧图像,根据所述当前帧图像相对于前一帧图像的运动偏移,获得所述待合成图片相对于所述当前帧图像的位置;
合成模块,用于将所述待合成图片合成到所述当前帧图像的位置上,并将合成后的每一帧图像合成动画视频。
所述位置获得模块具体包括:
第一单元,用于获得所述当前帧图像相对于前一帧图像的运动偏移;
第二单元,用于根据所述运动偏移,得到所述待合成图片相对于所述当前帧图像的位置与所述待合成图片相对于所述前一帧图像的位置之间的偏移量;
第三单元,用于根据所述待合成图片相对于所述前一帧图像的位置和所述偏移量,获得所述待合成图片相对于所述当前帧图像的位置。
所述内容模型由多个三角形组成,每个三角形的顶点都是所述内容模型的控制点;所述掩模模型由多个三角形组成,每个三角形的顶点都是所述掩模模型的控制点;
相应的,所述位置获得模块具体包括:
视频偏移获得单元,用于获得所述当前帧图像相对于前一帧图像的运动偏移;
模型偏移获得单元,用于根据所述运动偏移,得到所述内容模型的各个控制点相对于所述当前帧图像的位置与所述内容模型的各个控制点相对于所述前一帧图像的位置之间的偏移量,并得到所述掩模模型的各个控制点相对于所述当前帧图像的位置与所述掩模模型的各个控制点相对于所述前一帧图像的位置之间的偏移量;
内容模型位置获得单元,用于根据所述内容模型的各个控制点相对于所述前一帧图像的位置和所述内容模型的各个控制点的偏移量,获得所述待合成图片的内容模型相对于所述当前帧图像的位置;
掩模模型位置获得单元,用于根据所述掩模模型的各个控制点相对于所述前一帧图像的位置和所述掩模模型的各个控制点的偏移量,获得所述掩模模型相对于所述当前帧图像的位置。
所述合成模块具体包括:
重合区域确定单元,用于根据所述内容模型相对于所述当前帧图像的位置,以及所述掩模模型相对于所述当前帧图像的位置,确定所述内容模型和所述掩模模型相对于所述当前帧图像的重合区域;
合成单元,用于将处于所述重合区域的内容模型所描述的待合成图片合成到所述当前帧图像的重合区域。
本发明实施例提供的技术方案带来的有益效果是:
通过给定的动画视频的第一帧图像确定待合成图片的初始位置与大小,并在将每一帧图像作为当前帧图像,获得待合成图片相对于当前帧图像的位置,并将待合成图片合成到当前帧图像的相应位置上,实现了对给定动画视频进行动态的修改或补充,操作方法简单,动画视频合成后的效果更佳。
附图说明
图1是本发明实施例1中提供的动画视频合成的方法流程图;
图2是本发明实施例2中提供的动画视频合成的方法流程图;
图3是本发明实施例2中提供的待合成图片;
图4是本发明实施例2中提供的待合成图片的内容模型示意图;
图5是本发明实施例2中提供的给定的动画视频图像中的嘴巴模型;
图6是本发明实施例2中提供的待合成图片的子掩模2的示意图;
图7是本发明实施例2中提供的待合成图片的掩模模型示意图;
图8(a)至图8(c)是本发明实施例2中提供的嘴巴部分的效果比较图;
图9(a)至图9(f)是本发明实施例2中提供的视频中连续变化及点头抬头时的嘴巴效果图;
图10是本发明实施例3中提供的动画视频合成的装置结构示意图;
图11是本发明实施例3中提供的动画视频合成的装置另一种结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
实施例1
为了对给定的动画视频进行动态的修改或补充,本发明实施例提供了一种动画视频合成的方法,参见图1,该方法包括:
101:根据给定的动画视频的第一帧图像,确定待合成图片的大小和初始位置;
102:从给定的动画视频的第二帧图像开始,将每一帧图像作为当前帧图像,根据当前帧图像相对于前一帧图像的运动偏移,获得待合成图片相对于当前帧图像的位置;
103:将待合成图片合成到当前帧图像的位置上,并将合成后的每一帧图像合成动画视频。
本发明实施例通过给定的画视频的第一帧图像确定待合成图片的初始位置与大小,并将每一帧图像作为当前帧图像,获得待合成图片相对于当前帧图像的位置,并将待合成图片合成到当前帧图像的相应位置上,实现了对给定的动画视频进行动态的修改或补充,操作方法简单,动画视频合成后效果更佳。
实施例2
为了可以对给定的动画视频进行动态的修改或补充,本发明实施例提供了一种动画视频合成的方法,该方法是基于2D网格的,即给定的动画视频的每一帧图像以及选择的待合成图片都是处于2D网格中的,通过2D网格确定图片的大小和位置。参见图2,该方法包括:
201:根据给定的动画视频,选择待合成图片;
本发明实施例以人的脸部动画视频作为给定的动画视频,选择可以体现人脸真实感的上排牙齿图片作为待合成图片(如图3中的前景图像所示)为例。
其中,待合成图片可以是一幅或者多幅,根据给定的动画视频的实际情况而定。以本实施例给定的人的脸部动画视频为例,从中性脸生成各种表情时,待合成图片可以增加真实感,如口腔中的舌头、牙齿等;使脸部表情显得更加生动和富有表现力时,待合成图片可以是额头上冒出的汗珠、眼睛里闪烁的泪水等图片;使动画视频更加具有娱乐性时,待合成图片可以是任何形状可描述的图片,当然也可以是两个或多个图片的组合等等。这里需要说明的是,形状可描述的图片具体指的是在2D网格中可以用多个三角形及其顶点表示的图片。其中,2D网格具体可以理解为:待合成图片、给定的动画视频的每一帧图像都是被放在2维网格的背景当中的,作为背景部分的2D网格为待合成图片、给定的动画视频的每一帧图像的大小和位置的确定提供了参考。
202:为步骤201中选择的待合成图片建立模型;
其中,为待合成图片建立的模型包括:内容模型和掩模模型。内容模型具体指的是在2D网格中为图片的形状建立网格模型,用于描述图片中的内容,掩模模型具体指的是在2D网格中为图片覆盖的区域建立网格模型,用于描述图片的显示区域。
本实施例以人脸的上排牙齿作为待合成图片,因此本步骤中以为图3所示的牙齿建立内容模型和掩模模型为例。
具体的,牙齿的内容模型可以如图4所示。其中,内容模型由多个三角形及其顶点组成,每个三角形的顶点都是内容模型的控制点。即内容模型主要包括内容模型的各个顶点所对应的牙齿图片的位置信息和内容模型中的描述牙齿形状的三角形信息。由于为图片建立内容模型是一种成熟的技术,因此本发明实施例不对建立内容模型的方法及步骤予以限定。
牙齿的掩模模型用于标识牙齿的内容模型的显示区域,其建立过程与牙齿的内容模型的建立过程相似,这里不做赘述。但需要说明的是,对于不同的待合成图片,建立的掩模模型的个数是不相同的。对于一般情况下,当待合成图片在2D网格中的显示区域的大小不需要进行调整时,只需要对待合成图片建立一个掩模模型即可;对于显示区域的大小需要调整的待合成图片,需要建立两个甚至多个掩模模型。例如,在本发明实施例中,由于牙齿与嘴唇之间存在遮挡,所以牙齿在不同的时刻所显露出来的部分是不完全相同的,因此针对这个实施例待合成图片——牙齿的显露特殊性,需要为牙齿建立2个子掩模模型,由2个子掩模叠加后的重复部分构成牙齿的掩模模型,其中,这2个子掩模分别是:牙齿原始图像对应的子掩模模型mask1,与牙齿的内容模型相似;上下嘴唇之间露出口腔部分的子掩模模型mask2,如图6的阴影部分所示。
203:根据给定的动画视频中的每一帧图像中的内容特征,调整待合成图片;
(1)首先,根据第一帧图像中的内容特征,确定待合成图片的内容模型的大小,即内容模型的长度和宽度,以及待合成图片的内容模型的初始位置;
具体在本实施例中,确定牙齿的内容模型的长度和宽度:
根据给定的动画视频中的第一帧图像在2D网格中的位置和大小,确定在2D网格中人脸上嘴巴模型的位置和大小,这里嘴巴模型由各个控制点对应的嘴巴模型的位置和描述嘴巴形状的三角形信息构成。再根据嘴巴模型的位置和大小在2D网格中确定图4所示的牙齿的内容模型中的A点和B点,然后再确定C点的位置,之后再依次确定牙齿的内容模型中的各个控制点在2D网格中的位置。例如,假设给定的动画视频中的第一帧原始图像中,嘴巴模型的各个控制点在2D网格中的位置可以如图5所示,嘴巴模型中的两个控制点在2D网格中的坐标分别为:左嘴角1(3,5)、右嘴角2(11,5);根据左、右嘴角在2D网格中的坐标,按照美学的原理,将牙齿的内容模型的A、B点分别确定在左、右嘴角上方的1个单位,那么A点的坐标即为(3,6),B点的坐标即为(11,6),再根据C点相对于A、B两点的位置坐标,确定C的坐标,依次类推,得到牙齿内容模型的各个控制点在2D网格中的位置,从而确定了待合成图片的内容模型在2D网格中的大小,即长度和宽度。
(2)在给定的动画视频中的每一帧图像上,根据每一帧图像中的内容相对于其在前一帧图像上的位置的运动偏移,确定待合成图片的内容模型上各个控制点的偏移量,从而计算待合成图片的内容模型上的各个控制点的新位置;
具体在本实施例中,根据当前帧相对于前一帧的头部的运动偏移,更确切地说是嘴巴的运动偏移,确定牙齿内容模型上各个控制点的偏移量,从而计算牙齿内容模型各个控制点在2D网格中的新位置;具体的说,从给定的动画视频中第二帧图像开始的每一帧,嘴巴模型的各个控制点相对于其前一帧图像中嘴巴的相应控制点的运动偏移,来确定牙齿内容模型中的各个控制点的运动偏移。例如,给定的动画视频的第二帧图像中左嘴角1的偏移量为向上移动1个单位,右嘴角2的偏移量为向上移动1个单位,那么,牙齿内容模型的A、B两点分别相应向上移动1个单位,其他的控制点的偏移量也相应地被确定,从而得到牙齿内容模型的各个控制点相对于每一帧图像上的新坐标值。
(3)根据待合成图片的内容模型的各个控制点的新位置,完成从待合成图像的内容模型的形变到待合成图片内容的形变的过程。
204:根据给定的动画视频的每一帧图像内容的特点,调整待合成图片的掩模模型在2D网格中的位置;
(1)首先,根据给定的动画视频的第一帧图像的内容特征,确定待合成图片掩模模型的大小,即长度和宽度,以及掩模模型的初始位置;
这里,掩模模型的大小以及位置的确定与内容模型的方法类似,在此不做赘述。
(2)在动画视频的每一帧图像中,根据每一帧图像上的内容相对于其在前一帧图像中的位置的运动偏移,确定待合成图片的掩模模型上各个控制点的偏移量,从而计算掩模模型的各个控制点在每一帧图像上的新位置;
(3)根据掩模模型的各个控制点的新位置完成从待合成图片的掩模模型的形变到图片的显示区域的形变的过程。具体的实施方法可以参照步骤203,这里不做赘述。
具体到本实施例中,由于牙齿的显露特性,待合成图片有两个子掩模模型:mask1和mask2;
其中,mask1的位置与牙齿的内容模型位置的调整方式是类似的,在这里不做赘述;mask2是上下嘴唇之间露出口腔部分的子掩模模型,mask2是与脸部模型中嘴巴部分相对应的,仍以图5的嘴巴模型为例:
参见图6,图6中的阴影部分即为mask2,需进行单独的提取,根据mask2的特点,可以得出如下的结论:在给定的动画视频的每一帧图像中,mask2上的各个控制点的新位置,就是此帧图像中的嘴巴模型的控制点的位置;
然后根据mask1和mask2的控制点的位置,分别完成两个子掩模的形变;
最后,牙齿图片的掩模模型是mask1和mask2的重合区域,即是嘴巴模型中最终会露出牙齿的部分,如图7中的阴影部分所示。其中,实线与实心点组成的部分表示的是嘴巴,虚线与虚线上的阴影点组成的部分是mask1,实线及实线上的阴影点组成的部分是mask2,mask1与mask2重叠的部分是最终的牙齿掩模。
这里需要说明的是,本发明实施例不限制步骤203和步骤204之间的先后关系,步骤203和步骤204可以同时进行,也可以先后进行。
205:根据给定的动画视频的每一帧图像中调整好的待合成图片的内容模型与掩模模型,完成每一帧图像的合成;
具体的,将给定的动画视频的每一帧图像分别作为当前帧,在当前帧图像中确定待合成图片的内容模型与掩模模型相重合的区域,并将该重合的区域所描述的待合成图片的内容合成到当前帧图像中。即根据每一帧图像中调整好的待合成图片,以及待合成图片的显示区域,完成与给定的动画视频的合成。
在给定的动画视频的当前帧图像上,结合牙齿图像的掩模模型,该显示出牙齿的地方,就将调整好的牙齿图片替代给定的动画视频当前帧图像的相应位置的内容;不该显示牙齿的地方,仍然保留给定的动画视频当前帧图像的内容。
最后的生成效果如图8所示,在此比较的是某一时刻的一帧图像。最左边是给定的动画视频中闭合的嘴巴,中间是没有合成牙齿图片时张开的嘴巴,最右边是合成了牙齿图片后张开的嘴巴。
连续帧图像的效果如图9所示,给定的动画视频中的人脸从嘴巴闭合到微微张开(a)(b)(c)(d)、小幅度向下点头时张嘴(e)、以及小幅度向上抬头张嘴(f)的嘴巴效果图。
这里需要说明的是,本发明实施例仅以人脸上排牙齿图像在人脸动画视频中的合成过程为例,事实上,任何形状可描述的图片均可以作为待合成图片合成到动画视频当中,方法与本实施例提供的方法相类似,在此不做赘述。
本发明实施例提供的动画视频合成的方法,通过确定待合成图片的内容模型和掩模模型相对于给定的动画视频每一帧图像的大小以及位置,并确定待合成图片的内容模型和掩模模型的重合区域,将给定的动画视频的每一帧图像中相对于重合区域的图像内容替换为待合成图片相对于重合区域的图像内容,实现了对给定的动画视频进行动态的修改或补充,操作方法简单,动画视频合成后的效果更佳。
实施例3
为了对已经制作完成的动画视频进行动态的修改或补充,本发明实施例提供了一种动画视频合成的装置,参照方法实施例当中描述的技术方案,参见图10,该装置包括:
初始值确定模块1001,用于根据给定的动画视频的第一帧图像,确定待合成图片的大小和初始位置;
位置获得模块1002,用于从给定的动画视频的第二帧图像开始,将每一帧图像作为当前帧图像,根据当前帧图像相对于前一帧图像的运动偏移,获得待合成图片相对于当前帧图像的位置;
合成模块1003,用于将待合成图片合成到当前帧图像的位置上,并将合成后的每一帧图像合成动画视频。
其中,位置获得模块1002具体包括:
第一单元,用于获得当前帧图像相对于前一帧图像的运动偏移;
第二单元,用于根据运动偏移,得到待合成图片相对于当前帧图像的位置与待合成图片相对于前一帧图像的位置之间的偏移量;
第三单元,用于根据待合成图片相对于前一帧图像的位置和偏移量,获得待合成图片相对于当前帧图像的位置。
进一步地,参见图11,装置还包括:
模型建立模块1004,用于为待合成图片建立内容模型和掩模模型,其中,内容模型用于描述待合成图片的内容,掩模模型用于描述待合成图片的显示区域;
相应的,初始值确定模块1001具体用于:
根据给定的动画视频的第一帧图像,确定待合成图片的内容模型和掩模模型的大小和初始位置。
内容模型由多个三角形组成,每个三角形的顶点都是内容模型的控制点;掩模模型由多个三角形组成,每个三角形的顶点都是掩模模型的控制点;
相应的,位置获得模块1002具体包括:
视频偏移获得单元,用于获得当前帧图像相对于前一帧图像的运动偏移;
模型偏移获得单元,用于根据运动偏移,得到内容模型的各个控制点相对于当前帧图像的位置与内容模型的各个控制点相对于前一帧图像的位置之间的偏移量,并得到掩模模型的各个控制点相对于当前帧图像的位置与掩模模型的各个控制点相对于前一帧图像的位置之间的偏移量;
内容模型位置获得单元,用于根据内容模型的各个控制点相对于前一帧图像的位置和内容模型的各个控制点的偏移量,获得待合成图片的内容模型相对于当前帧图像的位置;
掩模模型位置获得单元,用于根据掩模模型的各个控制点相对于前一帧图像的位置和掩模模型的各个控制点的偏移量,获得掩模模型相对于当前帧图像的位置。
其中,合成模块1003具体包括:
重合区域确定单元,用于根据内容模型相对于当前帧图像的位置,以及掩模模型相对于当前帧图像的位置,确定内容模型和掩模模型相对于当前帧图像的重合区域;
合成单元,用于将处于重合区域的内容模型所描述的待合成图片合成到当前帧图像的重合区域。
本发明实施例提供的动画视频合成的装置,通过给定的动画视频的第一帧图像确定待合成图片的初始位置与大小,并将每一帧图像作为当前帧图像,获得待合成图片相对于当前帧图像的位置,并将待合成图片合成到当前帧图像的相应位置上,实现了对给定动画视频进行动态的修改或补充,操作方法简单,动画视频合成后的效果更佳。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种动画视频合成的方法,其特征在于,包括:
为待合成图片建立内容模型和掩模模型,其中,所述内容模型用于描述所述待合成图片的内容,所述掩模模型用于描述所述待合成图片的显示区域;
根据给定的动画视频的第一帧图像,确定待合成图片的内容模型和掩模模型的大小和初始位置;
从所述给定的动画视频的第二帧图像开始,将每一帧图像作为当前帧图像,根据所述当前帧图像相对于前一帧图像的运动偏移,获得所述待合成图片相对于所述当前帧图像的位置;
将所述待合成图片合成到所述当前帧图像的位置上,并将合成后的每一帧图像合成动画视频。
2.如权利要求1所述的方法,其特征在于,所述根据所述当前帧图像相对于前一帧图像的运动偏移,获得所述待合成图片相对于所述当前帧图像的位置,具体包括:
获得所述当前帧图像相对于前一帧图像的运动偏移;
根据所述运动偏移,得到所述待合成图片相对于所述当前帧图像的位置与所述待合成图片相对于所述前一帧图像的位置之间的偏移量;
根据所述待合成图片相对于所述前一帧图像的位置和所述偏移量,获得所述待合成图片相对于所述当前帧图像的位置。
3.如权利要求1所述的方法,其特征在于,所述内容模型由多个三角形组成,每个三角形的顶点都是所述内容模型的控制点;所述掩模模型由多个三角形组成,每个三角形的顶点都是所述掩模模型的控制点;
相应的,所述根据所述当前帧图像相对于前一帧图像的运动偏移,获得所述待合成图片相对于所述当前帧图像的位置,具体包括:
获得所述当前帧图像相对于前一帧图像的运动偏移;
根据所述运动偏移,得到所述内容模型的各个控制点相对于所述当前帧图像的位置与所述内容模型的各个控制点相对于所述前一帧图像的位置之间的偏移量,并得到所述掩模模型的各个控制点相对于所述当前帧图像的位置与所述掩模模型的各个控制点相对于所述前一帧图像的位置之间的偏移量;
根据所述内容模型的各个控制点相对于所述前一帧图像的位置和所述内容模型的各个控制点的偏移量,获得所述待合成图片的内容模型相对于所述当前帧图像的位置;
根据所述掩模模型的各个控制点相对于所述前一帧图像的位置和所述掩模模型的各个控制点的偏移量,获得所述掩模模型相对于所述当前帧图像的位置。
4.如权利要求3所述的方法,其特征在于,所述将所述待合成图片合成到所述当前帧图像的位置上,具体包括:
根据所述内容模型相对于所述当前帧图像的位置,以及所述掩模模型相对于所述当前帧图像的位置,确定所述内容模型和所述掩模模型相对于所述当前帧图像的重合区域;
将处于所述重合区域的内容模型所描述的待合成图片的内容合成到所述当前帧图像的重合区域。
5.一种动画视频合成的装置,其特征在于,包括:
模型建立模块,用于为待合成图片建立内容模型和掩模模型,其中,所述内容模型用于描述所述待合成图片的内容,所述掩模模型用于描述所述待合成图片的显示区域;
初始值确定模块,用于根据给定的动画视频的第一帧图像,确定待合成图片的内容模型和掩模模型的大小和初始位置;
位置获得模块,用于从所述给定的动画视频的第二帧图像开始,将每一帧图像作为当前帧图像,根据所述当前帧图像相对于前一帧图像的运动偏移,获得所述待合成图片相对于所述当前帧图像的位置;
合成模块,用于将所述待合成图片合成到所述当前帧图像的位置上,并将合成后的每一帧图像合成动画视频。
6.如权利要求5所述的装置,其特征在于,所述位置获得模块具体包括:
第一单元,用于获得所述当前帧图像相对于前一帧图像的运动偏移;
第二单元,用于根据所述运动偏移,得到所述待合成图片相对于所述当前帧图像的位置与所述待合成图片相对于所述前一帧图像的位置之间的偏移量;
第三单元,用于根据所述待合成图片相对于所述前一帧图像的位置和所述偏移量,获得所述待合成图片相对于所述当前帧图像的位置。
7.如权利要求5所述的装置,其特征在于,所述内容模型由多个三角形组成,每个三角形的顶点都是所述内容模型的控制点;所述掩模模型由多个三角形组成,每个三角形的顶点都是所述掩模模型的控制点;
相应的,所述位置获得模块具体包括:
视频偏移获得单元,用于获得所述当前帧图像相对于前一帧图像的运动偏移;
模型偏移获得单元,用于根据所述运动偏移,得到所述内容模型的各个控制点相对于所述当前帧图像的位置与所述内容模型的各个控制点相对于所述前一帧图像的位置之间的偏移量,并得到所述掩模模型的各个控制点相对于所述当前帧图像的位置与所述掩模模型的各个控制点相对于所述前一帧图像的位置之间的偏移量;
内容模型位置获得单元,用于根据所述内容模型的各个控制点相对于所述前一帧图像的位置和所述内容模型的各个控制点的偏移量,获得所述待合成图片的内容模型相对于所述当前帧图像的位置;
掩模模型位置获得单元,用于根据所述掩模模型的各个控制点相对于所述前一帧图像的位置和所述掩模模型的各个控制点的偏移量,获得所述掩模模型相对于所述当前帧图像的位置。
8.如权利要求7所述的装置,其特征在于,所述合成模块具体包括:
重合区域确定单元,用于根据所述内容模型相对于所述当前帧图像的位置,以及所述掩模模型相对于所述当前帧图像的位置,确定所述内容模型和所述掩模模型相对于所述当前帧图像的重合区域;
合成单元,用于将处于所述重合区域的内容模型所描述的待合成图片合成到所述当前帧图像的重合区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009101291677A CN101510314B (zh) | 2009-03-27 | 2009-03-27 | 一种动画视频合成的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009101291677A CN101510314B (zh) | 2009-03-27 | 2009-03-27 | 一种动画视频合成的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101510314A CN101510314A (zh) | 2009-08-19 |
CN101510314B true CN101510314B (zh) | 2012-11-21 |
Family
ID=41002705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009101291677A Active CN101510314B (zh) | 2009-03-27 | 2009-03-27 | 一种动画视频合成的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101510314B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012073363A1 (ja) * | 2010-12-02 | 2012-06-07 | デジタルプロセス株式会社 | 表示処理方法及び装置 |
CN103136778B (zh) * | 2013-01-28 | 2015-09-30 | 吉林纪元时空动漫游戏科技股份有限公司 | 基于自主缓存系统的电影级别群组动画制作方法 |
CN103473799B (zh) * | 2013-09-02 | 2016-09-14 | 腾讯科技(深圳)有限公司 | 一种图片的动态处理方法及装置、终端设备 |
CN104851120B (zh) * | 2014-02-17 | 2019-11-22 | 腾讯科技(北京)有限公司 | 视频处理的方法及装置 |
CN103824316B (zh) * | 2014-03-26 | 2017-05-10 | 广州博冠信息科技有限公司 | 一种为对象生成动作画面的方法和设备 |
CN105427364B (zh) * | 2015-11-06 | 2019-08-30 | 厦门大学 | 一种多点触控二维动画的制作方法 |
CN108495174B (zh) * | 2018-04-09 | 2020-10-09 | 码卡(广州)科技有限公司 | 一种h5页面效果生成视频文件的方法及系统 |
CN113313790A (zh) * | 2021-05-31 | 2021-08-27 | 北京字跳网络技术有限公司 | 视频生成方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6449019B1 (en) * | 2000-04-07 | 2002-09-10 | Avid Technology, Inc. | Real-time key frame effects using tracking information |
EP1944700A1 (en) * | 2007-01-10 | 2008-07-16 | Imagetech Co., Ltd. | Method and system for real time interactive video |
CN101281657A (zh) * | 2008-05-23 | 2008-10-08 | 浙江大学 | 一种基于视频数据的人群行为合成方法 |
CN101345827A (zh) * | 2008-08-26 | 2009-01-14 | 北京中星微电子有限公司 | 一种交互式动画播放方法及系统 |
-
2009
- 2009-03-27 CN CN2009101291677A patent/CN101510314B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6449019B1 (en) * | 2000-04-07 | 2002-09-10 | Avid Technology, Inc. | Real-time key frame effects using tracking information |
EP1944700A1 (en) * | 2007-01-10 | 2008-07-16 | Imagetech Co., Ltd. | Method and system for real time interactive video |
CN101281657A (zh) * | 2008-05-23 | 2008-10-08 | 浙江大学 | 一种基于视频数据的人群行为合成方法 |
CN101345827A (zh) * | 2008-08-26 | 2009-01-14 | 北京中星微电子有限公司 | 一种交互式动画播放方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN101510314A (zh) | 2009-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101510314B (zh) | 一种动画视频合成的方法和装置 | |
CN107154069B (zh) | 一种基于虚拟角色的数据处理方法及系统 | |
KR100912877B1 (ko) | 3차원 아바타 생성 기능을 구비한 이동통신 단말기 및3차원 아바타 생성 방법 | |
CN107277599A (zh) | 一种虚拟现实的直播方法、装置和系统 | |
CN101968892A (zh) | 根据一张人脸照片自动调整三维人脸模型的方法 | |
CN104637078A (zh) | 一种图像处理方法及装置 | |
CN113436301B (zh) | 拟人化3d模型生成的方法和装置 | |
JP6574401B2 (ja) | モデリング制御システム、モデリング制御方法、及びモデリング制御プログラム | |
CN104349020A (zh) | 一种虚拟摄像机与真实摄像机切换的系统和方法 | |
CN102054287A (zh) | 面部动画视频生成的方法及装置 | |
CN107452049A (zh) | 一种三维头部建模方法及装置 | |
CN107633542A (zh) | 一种捏脸编辑和动画附加融合方法和系统 | |
JP2004506276A (ja) | 3次元顔モデリングシステム及びモデリング方法 | |
EP0807902A2 (en) | Method and apparatus for generating moving characters | |
CN101401129A (zh) | 利用脸部网格创建脸部动画的技术 | |
CN101968891A (zh) | 用于游戏的照片自动生成三维图形系统 | |
JPWO2011155068A1 (ja) | キャラクタ生成システム、キャラクタ生成方法及びプログラム | |
CN109032339A (zh) | 一种实时智能体感同步的方法及系统 | |
CN101183462B (zh) | 一种卡通形象的生成、嵌入方法及系统 | |
JP2020064592A (ja) | 画像生成装置、画像生成システム、画像生成方法、およびプログラム | |
JP2012120080A (ja) | 立体写真撮影装置 | |
JP2012221092A (ja) | 画像処理装置、画像処理方法およびプログラム | |
KR100700872B1 (ko) | 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법 및이를 위한 이동 통신 단말기 | |
CN112819932B (zh) | 一种三维数字内容的制作方法、系统及存储介质 | |
CN113516761B (zh) | 视错觉类裸眼3d内容制作方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |