CN101345827A - 一种交互式动画播放方法及系统 - Google Patents
一种交互式动画播放方法及系统 Download PDFInfo
- Publication number
- CN101345827A CN101345827A CNA2008101188845A CN200810118884A CN101345827A CN 101345827 A CN101345827 A CN 101345827A CN A2008101188845 A CNA2008101188845 A CN A2008101188845A CN 200810118884 A CN200810118884 A CN 200810118884A CN 101345827 A CN101345827 A CN 101345827A
- Authority
- CN
- China
- Prior art keywords
- human body
- present image
- animation
- composograph
- positional information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 22
- 230000009471 action Effects 0.000 claims abstract description 39
- 230000008859 change Effects 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 13
- 238000004458 analytical method Methods 0.000 claims description 10
- 239000004744 fabric Substances 0.000 claims description 7
- 241000251468 Actinopterygii Species 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 5
- 230000015572 biosynthetic process Effects 0.000 claims description 4
- 210000000746 body region Anatomy 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000003786 synthesis reaction Methods 0.000 claims description 4
- 230000001133 acceleration Effects 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 abstract 2
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种交互式动画播放方法及系统。其中,方法包括:将动画的当前合成图像投影到预设的投影面上进行播放;采集所述投影面上的视频图像;对所述视频图像进行分析,获取人体在所述当前图像中的位置信息;将所述人体在当前图像中的位置信息转换为人体在合成图像中的位置信息;根据人体位置信息的帧间变化,确定人体的动作;根据所述人体的动作,对当前动画进行合成,得到动画的当前合成图像。本发明所提供的技术方案,能够提高娱乐生活的趣味性。
Description
技术领域
本发明涉及一种交互式动画播放方法及系统。
背景技术
目前的动画(如FLASH动画)播放都是按照预先设计好的一帧帧图像进行播放的,观看者只能是作为观众进行观看,而不能与动画进行交互,使动画根据观看者的动作进行相应变化。
然而,实际生活中,为了提高娱乐生活的趣味性,有时可能需要正在播放的动画能与观看者进行交互,并根据观看者的动作进行相应变化。例如,假设正在播放的动画中有一条小鱼在游动,如果观看者用手去触碰这条小鱼,则小鱼应能立即游开。又如,假设正在播放的动画中有一个足球静止在草坪上,如果观看者用脚对准足球有一个踢的动作,则足球应能根据脚踢的力度以及方向进行运动,并且足球在碰到其它边缘时,应能按照正碰而改变方向等。但目前尚没有一种这样的交互式动画播放方案。
发明内容
有鉴于此,本发明中一方面提供一种交互式动画播放方法,另一方面提供一种交互式动画播放系统,以便提高娱乐生活的趣味性。
本发明所提供的交互式动画播放方法,包括:
将动画的当前合成图像投影到预设的投影面上进行播放;
采集所述投影面上的视频图像;
对所述视频图像进行分析,获取人体在所述当前图像中的位置信息;
将所述人体在当前图像中的位置信息转换为人体在合成图像中的位置信息;
根据人体位置信息的帧间变化,确定人体的动作;
根据所述人体的动作,对当前动画进行合成,得到动画的当前合成图像。
较佳地,所述获取人体在所述当前图像中的位置信息包括:
获取所述当前图像各像素的亮度;
将亮度满足设定条件的像素对应的区域作为人体在所述当前图像中的区域;
计算所述区域的位置信息,得到人体在所述当前图像中的位置信息。
较佳地,所述亮度满足设定条件的像素为:亮度低于设定阈值的像素。
较佳地,所述阈值的设定包括:
预先根据人体对应像素的亮度区间[LS0,LS1]确定合成图像对应像素的亮度区间为[T0,T1],且满足LS1+DELTA<T0,DELTA为大于0的固定值;
采用LS1+alpha*DELTA作为所述阈值,其中alpha为固定值。
较佳地,所述将亮度满足设定条件的像素对应的区域作为人体在所述当前图像中的区域包括:
生成一幅和当前图像大小相同的标志掩模图像,其中,亮度满足所述设定条件的像素位置设置为第一标志,其它像素设置为第二标志;
对所述标志掩模图像进行滤波处理消除噪声;
将所述第一标志对应的区域作为人体在当前图像中的区域。
较佳地,所述位置信息包括:人体所在区域的中心位置和人体所在区域的外边缘位置。
较佳地,所述将人体在当前图像中的位置信息转换为人体在合成图像中的位置信息包括:
确定合成图像矩形区域四个角点的坐标(Xi,Yi),i=1,2,3,4;
获取所述合成图像矩形区域四个角点在当前图像中对应的坐标(xi,xi),i=1,2,3,4;
根据所述(Xi,Yi)、(xi,xi)以及投影变换原理,得到当前图像像素点与所述合成图像像素点之间的变换矩阵H-1;
根据关系式 z=1,Z=0,将人体在当前图像中的位置信息转换为人体在合成图像中的位置信息。
较佳地,所述根据人体位置信息的帧间变化,确定人体的动作包括:根据最近几帧图像中人体位置信息的变化,确定人体的运行轨迹、以及速度和/或加速度的变化,得到人体的动作力度及方向;并根据人体区域的外边缘位置,确定人体是否与合成图像中的目标相接触;
所述根据人体的动作,对当前动画进行合成包括:在人体与合成图像中的目标相接触时,根据所述人体的动作力度及方向,对当前动画中的相关实体按照所述人体的动作力度及方向进行适应性改变后合成到动画的当前图像中。
较佳地,所述交互式动画包括:踢球动画、花朵显示动画或小鱼游动动画。
本发明所提供的交互式动画播放系统,包括:
投影播放单元,用于将动画的当前合成图像投影到预设的投影面上进行播放;
图像采集单元,用于采集所述投影面上的视频图像;
位置检测单元,用于对所述视频图像进行分析,获取人体在所述当前图像中的位置信息;
位置变换单元,用于将所述人体在当前图像中的位置信息转换为人体在合成图像中的位置信息;
动作确定单元,用于根据人体位置信息的帧间变化,确定人体的动作;
动画合成单元,用于根据所述人体的动作,对当前动画进行合成,得到动画的当前合成图像。
较佳地,所述位置检测单元包括:
亮度分析模块,用于获取所述当前图像各像素的亮度,将亮度满足设定条件的像素对应的区域作为人体在所述当前图像中的区域;
位置确定模块,用于计算所述区域的位置信息,得到人体在所述当前图像中的位置信息。
较佳地,所述亮度分析模块包括:
标志掩模图像生成子模块,用于获取所述当前图像各像素的亮度,根据预先设定的人体对应像素的亮度区间和合成图像对应像素的亮度区间,生成一幅与当前图像大小相同的标志掩模图像;其中,人体对应像素的位置设置第一标志;
人体区域确定子模块,用于将所述第一标志对应的区域作为人体在所述当前图像中的区域。
从上述方案可以看出,本发明中通过采用投影方式显示动画,并通过采集包含人体的投影面上的图像来获取人体在图像中的位置信息变化,根据该位置信息变化确定人体进行的动作,之后根据该动作来合成接下来需要显示的动画,从而实现了动画与观看者的交互,提高了娱乐生活的趣味性。
附图说明
图1为本发明实施例中交互式动画播放方法的示例性流程图。
图2为本发明实施例中交互式动画播放系统的示例性结构图。
图3为图2所示系统中位置检测单元的内部结构示意图。
图4为图3所示位置检测单元中亮度分析模块的内部结构示意图。
具体实施方式
本发明实施例中,为了使观看者能与动画进行交互,考虑将动画通过投影设备投影到投影面(地面或墙面或投影布等)上进行播放,同时采集投影面上的视频图像,当观看者需要与动画进行交互时,在采集的视频图像中便会出现人体(包括整个人体或人体的某些部位),通过在采集的当前图像中进行人体检测或进行前一帧图像中已知人体的追踪,可得到人体在当前图像中的位置信息,根据该位置信息的帧间变化情况,可确定人体的动作,进而可根据人体的动作,对当前动画进行合成,将合成的当前图像进行投影播放,从而实现观看者与动画的交互。
为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施例和附图,对本发明进一步详细说明。
图1为本发明实施例中交互式动画播放方法的示例性流程图。如图1所示,该流程包括如下步骤:
步骤101,将动画的当前合成图像投影到预设的投影面上进行播放。
本步骤中,可采用投影设备,如投影仪等进行投影,且投影面可以是地面或墙面或投影布等。
其中,在没有人体交互的情况下,当前合成图像通常是根据原有设计合成的图像,在有人体交互的情况下,当前合成图像为根据人体动作合成的图像。
步骤102,采集投影面上的视频图像。
本步骤中,可采用图像采集设备,如摄像头等采集视频图像。该图像采集设备可垂直于投影面进行放置。
步骤103,对所采集的视频图像进行分析,获取人体在当前图像中的位置信息。
本实施中的人体可以是指整个人体,也可以是人体的某些部位,如手、脚、胳膊、腿或脸等。
其中,对视频图像进行分析并获取当前图像中人体位置信息的方法可有多种,除了可利用现有技术中的各种检测跟踪算法外,本实施例中还提出了如下所示的基于亮度的算法。
设定动画的合成图像的亮度范围,例如使动画的合成图像的亮度具有一个较高的范围,则人体进行投影区域后,由于人体的遮挡,采集的当前图像中人体对应的区域的亮度便会降低,这样一来,获取人体位置信息时,可以通过获取采集图像各像素的亮度,并将亮度低于设定阈值T的像素对应的区域作为人体在所述当前图像中的区域,通过计算该区域位置信息得到人体在当前图像中的位置信息。
较佳地的,阈值T可按如下所示方法设定:
预先依经验得到人体遮挡区域的亮度范围为[LS0,LS1],LS0的一个较优取值为0,LS1的一个较优取值为50,则设定合成图像的亮度范围为[T0,T1],满足LS1+DELTA<T0,DELTA为大于0的固定值,可以取为20。设定DELTA的好处是避免合成图像亮度接近人体遮挡的阴影亮度,从而减少噪声点。
设定亮度阈值为T=LS1+alpha*DELTA,其中alpha为常数,可以取[0,1]间的正数。
在获取采集图像各像素的亮度后,生成一副和原图像大小相同的标志掩模图像,可将亮度小于所述阈值T的像素作为人体对应区域的像素,将标志掩模对应位置设为FH,即第一标志,较佳地FH可取255,将亮度大于等于所述阈值T的像素的标志掩模值设定为FB,即第二标志,较佳地FB可取0。
为了进一步滤除噪声的影响,得到平滑的人体区域,可对得到的标志掩模进一步采用中值滤波处理。当然也可以采用其它滤波算法。进一步,还可以对上述区域进行腐蚀,膨胀,开,闭等二值化图像处理来消除噪声,得到主要的人体区域。
之后,根据第一标志对应的区域确定人体在当前图像中的区域,通过计算该区域位置信息得到人体在当前图像中的位置信息。
步骤104,将所述人体在当前图像中的位置信息转换为合成图像中的位置信息。
假定投影仪投影的合成图像分辨率为P×Q,又假设合成图像矩形区域的四个角点坐标分别为(X1,Y1),(X2,Y2),(X3,Y3)和(X4,Y4),其中(X1,Y1)为矩形区域左上角坐标,(X2,Y2)为矩形区域右上角坐标,(X3,Y3)为矩形区域右下角坐标,(X4,Y4)为矩形区域左下角坐标。假设投影仪投影的合成图像分辨率为P×Q,且合成图像坐标以左上角为原点,水平向右为X坐标轴正向,垂直向下为Y坐标轴正向,则有X1=0,Y1=0,X2=P-1,Y2=0,X3=P-1,Y3=Q-1,X4=0,Y4=Q-1。
在获取视频图像后,可手工标定或采用图像分析方法自动获得投影的合成图像矩形区域的四个角点在当前图像中的坐标分别为(x1,y1),(x2,y2),(x3,y3)和(x4,y4),其中(x1,y1)为对应(X1,Y1)的矩形区域左上角坐标,(x2,y2)为对应(X2,Y2)的矩形区域右上角坐标,(x3,y3)为对应(X3,Y3)的矩形区域右下角坐标,(x4,y4)为对应(X4,Y4)的矩形区域左下角坐标。
根据投影变换原理,可得到如下所示的M矩阵:
其中zi=1,i=1,2,3,4,Zi=0,i=1,2,3,4。
之后,求取矩阵MTM的最小非零特征值对应的特征向量为 令 假设已知一点在当前图像上的坐标为(x,y),其对应点在投影面上的坐标为(X,Y),则有关系 其中 z=1,Z=0。由于投影合成图像垂直投放到投影面上,所以能够将图像坐标转换为投影合成图像坐标,根据人体在当前图像上的坐标位置确定人体在合成图像上的坐标位置。
得到了人体像素在合成图像上位置后,对合成图像上的人体像素进行连通区域分析,可得到人体所占区域,进一步,可以获取区域的中心位置和外边缘,在本发明中,将上述中心位置和外边缘统称为位置。
步骤105,根据人体位置信息的帧间变化,确定人体的动作。
本步骤中,可根据最近几帧图像中人体位置信息的变化,确定人体的运行轨迹、以及速度和/或加速度的变化,得到人体的动作力度及方向。同时,可以根据人体区域的外边缘位置,确定人体是否和合成图像中的某些目标接触。
步骤106,根据人体的动作,对当前动画进行合成,得到动画的当前合成图像,之后返回执行步骤101。
本步骤中,可根据步骤104中得到的人体的动作力度及方向,对当前动画中的相关实体按照所述人体的动作力度及方向进行适应性改变后合成到动画的当前图像中。
上述交互式的动画播放方法可以广泛应用在各种交互式动画中,下面列举两个例子:
例1:假设当前动画中显示有草坪以及草坪上某个静止的足球,当人的位置处于足球旁边时,通过判定人的外边缘的轨迹是否通过足球的位置来判断人是否踢了足球,如果通过,则认为踢了球,并根据人位置改变的速度以及轨迹方向,确定足球的运动速度和方向,并且,在后续图像中对应显示,当足球碰到投影区域边缘时,球会按照正碰改变方向,当球进到球门时,会得分。
例2:假设当前动画中显示有盛开的花朵,则当有人遮挡住某个花朵时,通过得到人的位置信息,将人的位置和大小根据投影设备和图像采集设备的定标结果转换到合成图像上,在有人位置不再显示盛开的花,而显示被踩过的花朵及脚印。
以上对本发明实施例中交互式动画播放方法进行了详细描述,下面再对本发明实施例中交互式动画播放系统进行详细描述。
图2为本发明实施例中交互式动画播放系统的示例性结构图。如图2所示,该系统包括:投影播放单元、图像采集单元、位置检测单元、位置变换单元、动作确定单元和动画合成单元。
其中,投影播放单元用于将动画的当前合成图像投影到预设的投影面上进行播放。
图像采集单元用于采集所述投影面上的视频图像。
位置检测单元用于在所述视频图像的当前图像中进行人体检测追踪,获取人体在所述当前图像中的位置信息。
位置变换单元用于将所述人体在当前图像中的位置信息转换为人体在合成图像中的位置信息。
动作确定单元用于根据人体位置信息的帧间变化,确定人体的动作。
动画合成单元用于根据所述人体的动作,对当前动画进行合成,得到动画的当前合成图像。
具体实现时,位置检测单元可有多种具体实现形式。图3示出了其中一种结构示意图。如图3所示,该位置检测单元包括亮度分析模块和位置确定模块。
其中,亮度分析模块用于获取所述当前图像各像素的亮度,将亮度满足设定条件的像素对应的区域作为人体在所述当前图像中的区域。
位置确定模块用于计算所述区域的位置信息,得到人体在所述当前图像中的位置信息。
图4示出了亮度分析模块的一种结构示意图。如图4所示,该亮度分析模块包括标志掩模图像生成子模块和人体区域确定子模块。
其中,标志掩模图像生成模块用于获取所述当前图像各像素的亮度,根据预先设定的人体对应像素的亮度区间和合成图像对应像素的亮度区间,生成一幅与当前图像大小相同的标志掩模图像;其中,人体对应像素的位置设置第一标志,其它像素的位置可设置第二标志;
人体区域确定子模块用于将所述第一标志对应的区域作为人体在所述当前图像中的区域。
本实施例中,交互式动画播放系统中各单元及单元内各模块的操作过程可与交互式动画播放方法中描述的操作过程一致,此处不再一一赘述。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (12)
1、一种交互式动画播放方法,其特征在于,该方法包括:
将动画的当前合成图像投影到预设的投影面上进行播放;
采集所述投影面上的视频图像;
对所述视频图像进行分析,获取人体在所述当前图像中的位置信息;
将所述人体在当前图像中的位置信息转换为人体在合成图像中的位置信息;
根据人体位置信息的帧间变化,确定人体的动作;
根据所述人体的动作,对当前动画进行合成,得到动画的当前合成图像。
2、如权利要求1所述的方法,其特征在于,所述获取人体在所述当前图像中的位置信息包括:
获取所述当前图像各像素的亮度;
将亮度满足设定条件的像素对应的区域作为人体在所述当前图像中的区域;
计算所述区域的位置信息,得到人体在所述当前图像中的位置信息。
3、如权利要求2所述的方法,其特征在于,所述亮度满足设定条件的像素为:亮度低于设定阈值的像素。
4、如权利要求3所述的方法,其特征在于,所述阈值的设定包括:
预先根据人体对应像素的亮度区间[LS0,LS1]确定合成图像对应像素的亮度区间为[T0,T1],且满足LS1+DELTA<T0,DELTA为大于0的固定值;
采用LS1+alpha*DELTA作为所述阈值,其中alpha为固定值。
5、如权利要求2至4中任一项所述的方法,其特征在于,所述将亮度满足设定条件的像素对应的区域作为人体在所述当前图像中的区域包括:
生成一幅和当前图像大小相同的标志掩模图像,其中,亮度满足所述设定条件的像素位置设置为第一标志,其它像素设置为第二标志;
对所述标志掩模图像进行滤波处理消除噪声;
将所述第一标志对应的区域作为人体在当前图像中的区域。
6、如权利要求1-4中任一项所述的方法,其特征在于,所述位置信息包括:人体所在区域的中心位置和人体所在区域的外边缘位置。
7、如权利要求1所述的方法,其特征在于,所述将人体在当前图像中的位置信息转换为人体在合成图像中的位置信息包括:
确定合成图像矩形区域四个角点的坐标(Xi,Yi),i=1,2,3,4;
获取所述合成图像矩形区域四个角点在当前图像中对应的坐标(xi,xi),i=1,2,3,4;
根据所述(Xi,Yi)、(xi,xi)以及投影变换原理,得到当前图像像素点与所述合成图像像素点之间的变换矩阵H-1;
根据关系式 z=1,Z=0,将人体在当前图像中的位置信息转换为人体在合成图像中的位置信息。
8、如权利要求1所述的方法,其特征在于,所述根据人体位置信息的帧间变化,确定人体的动作包括:根据最近几帧图像中人体位置信息的变化,确定人体的运行轨迹、以及速度和/或加速度的变化,得到人体的动作力度及方向;并根据人体区域的外边缘位置,确定人体是否与合成图像中的目标相接触;
所述根据人体的动作,对当前动画进行合成包括:在人体与合成图像中的目标相接触时,根据所述人体的动作力度及方向,对当前动画中的相关实体按照所述人体的动作力度及方向进行适应性改变后合成到动画的当前图像中。
9、如权利要求1至4、7、8中任一项所述的方法,其特征在于,所述交互式动画包括:踢球动画、花朵显示动画或小鱼游动动画。
10、一种交互式动画播放系统,其特征在于,该系统包括:
投影播放单元,用于将动画的当前合成图像投影到预设的投影面上进行播放;
图像采集单元,用于采集所述投影面上的视频图像;
位置检测单元,用于对所述视频图像进行分析,获取人体在所述当前图像中的位置信息;
位置变换单元,用于将所述人体在当前图像中的位置信息转换为人体在合成图像中的位置信息;
动作确定单元,用于根据人体位置信息的帧间变化,确定人体的动作;
动画合成单元,用于根据所述人体的动作,对当前动画进行合成,得到动画的当前合成图像。
11、如权利要求10所述的系统,其特征在于,所述位置检测单元包括:
亮度分析模块,用于获取所述当前图像各像素的亮度,将亮度满足设定条件的像素对应的区域作为人体在所述当前图像中的区域;
位置确定模块,用于计算所述区域的位置信息,得到人体在所述当前图像中的位置信息。
12、如权利要求11所述的系统,其特征在于,所述亮度分析模块包括:
标志掩模图像生成子模块,用于获取所述当前图像各像素的亮度,根据预先设定的人体对应像素的亮度区间和合成图像对应像素的亮度区间,生成一幅与当前图像大小相同的标志掩模图像;其中,人体对应像素的位置设置第一标志;
人体区域确定子模块,用于将所述第一标志对应的区域作为人体在所述当前图像中的区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008101188845A CN101345827B (zh) | 2008-08-26 | 2008-08-26 | 一种交互式动画播放方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008101188845A CN101345827B (zh) | 2008-08-26 | 2008-08-26 | 一种交互式动画播放方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101345827A true CN101345827A (zh) | 2009-01-14 |
CN101345827B CN101345827B (zh) | 2012-11-28 |
Family
ID=40247700
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2008101188845A Expired - Fee Related CN101345827B (zh) | 2008-08-26 | 2008-08-26 | 一种交互式动画播放方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101345827B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101510314B (zh) * | 2009-03-27 | 2012-11-21 | 腾讯科技(深圳)有限公司 | 一种动画视频合成的方法和装置 |
CN103098098A (zh) * | 2010-03-30 | 2013-05-08 | 三菱电机株式会社 | 动画显示装置 |
CN104052977A (zh) * | 2014-06-12 | 2014-09-17 | 海信集团有限公司 | 一种交互式图像投影方法和装置 |
CN109377467A (zh) * | 2018-09-28 | 2019-02-22 | 阿里巴巴集团控股有限公司 | 训练样本的生成方法、目标检测方法和装置 |
CN115209113A (zh) * | 2021-04-14 | 2022-10-18 | 广州拓火科技有限公司 | 一种投影系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3555503B2 (ja) * | 1999-06-04 | 2004-08-18 | 日本電気株式会社 | 対話的データベース情報提示システム |
CN1203418C (zh) * | 2001-12-30 | 2005-05-25 | 利文劲 | 一种在互联网上实现交互式动画系统的方法 |
CN101306249B (zh) * | 2008-05-30 | 2011-09-14 | 北京中星微电子有限公司 | 动作分析装置和方法 |
-
2008
- 2008-08-26 CN CN2008101188845A patent/CN101345827B/zh not_active Expired - Fee Related
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101510314B (zh) * | 2009-03-27 | 2012-11-21 | 腾讯科技(深圳)有限公司 | 一种动画视频合成的方法和装置 |
CN103098098A (zh) * | 2010-03-30 | 2013-05-08 | 三菱电机株式会社 | 动画显示装置 |
CN104052977A (zh) * | 2014-06-12 | 2014-09-17 | 海信集团有限公司 | 一种交互式图像投影方法和装置 |
CN104052977B (zh) * | 2014-06-12 | 2016-05-25 | 海信集团有限公司 | 一种交互式图像投影方法和装置 |
CN109377467A (zh) * | 2018-09-28 | 2019-02-22 | 阿里巴巴集团控股有限公司 | 训练样本的生成方法、目标检测方法和装置 |
CN115209113A (zh) * | 2021-04-14 | 2022-10-18 | 广州拓火科技有限公司 | 一种投影系统 |
CN115209113B (zh) * | 2021-04-14 | 2024-04-05 | 广州拓火科技有限公司 | 一种投影系统 |
Also Published As
Publication number | Publication date |
---|---|
CN101345827B (zh) | 2012-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11463678B2 (en) | System for and method of social interaction using user-selectable novel views | |
US10922879B2 (en) | Method and system for generating an image | |
US8624962B2 (en) | Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images | |
Taylor et al. | Ovvv: Using virtual worlds to design and evaluate surveillance systems | |
CN102413267B (zh) | 改进的扫描传感器阵列 | |
JP2020025320A (ja) | 映像提示装置、映像提示方法、およびプログラム | |
US8073190B2 (en) | 3D textured objects for virtual viewpoint animations | |
US8154633B2 (en) | Line removal and object detection in an image | |
US9041722B2 (en) | Updating background texture for virtual viewpoint animations | |
CA2454297C (en) | Method and system for measurement of the duration an area is included in an image stream | |
RU2387011C2 (ru) | Основанное на анализе изображений отслеживание перемещения | |
US20090128568A1 (en) | Virtual viewpoint animation | |
CN106303706A (zh) | 基于人脸和物件跟踪实现以主角跟随视角观看虚拟现实视频的方法 | |
JP2009505553A (ja) | ビデオストリームへの視覚効果の挿入を管理するためのシステムおよび方法 | |
CN101345827B (zh) | 一种交互式动画播放方法及系统 | |
US20140015832A1 (en) | System and method for implementation of three dimensional (3D) technologies | |
AU2006340623A1 (en) | System for analysis of motion | |
TR201901701T4 (tr) | Bi̇r görüntünün dönüşümünün elde edi̇lmesi̇ne yöneli̇k yöntem, si̇stem ve bi̇lgi̇sayar programi. | |
CN108010058A (zh) | 一种对视频流中目标对象进行视觉跟踪的方法及系统 | |
Inamoto et al. | Free viewpoint video synthesis and presentation from multiple sporting videos | |
Liang et al. | Video2Cartoon: Generating 3D cartoon from broadcast soccer video | |
Inamoto et al. | Fly-through viewpoint video system for multiview soccer movie using viewpoint interpolation | |
Kimura et al. | Player viewpoint video synthesis using multiple cameras | |
Ikeda et al. | Immersive telepresence system using high-resolution omnidirectional movies and a locomotion interface | |
KR20050008246A (ko) | 스포츠 비디오에서 카메라 모션 분석을 통한 그래픽 영상객체 합성 구현 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20121128 Termination date: 20140826 |
|
EXPY | Termination of patent right or utility model |