CN108537867B - 根据用户肢体运动的视频渲染方法和装置 - Google Patents
根据用户肢体运动的视频渲染方法和装置 Download PDFInfo
- Publication number
- CN108537867B CN108537867B CN201810327082.9A CN201810327082A CN108537867B CN 108537867 B CN108537867 B CN 108537867B CN 201810327082 A CN201810327082 A CN 201810327082A CN 108537867 B CN108537867 B CN 108537867B
- Authority
- CN
- China
- Prior art keywords
- rendering
- limb
- user
- determining
- key points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000009877 rendering Methods 0.000 title claims abstract description 248
- 230000033001 locomotion Effects 0.000 title claims abstract description 64
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000009471 action Effects 0.000 claims abstract description 29
- 238000012545 processing Methods 0.000 claims abstract description 29
- 238000006243 chemical reaction Methods 0.000 claims abstract description 14
- 238000004422 calculation algorithm Methods 0.000 claims description 24
- 230000008859 change Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 31
- 230000000694 effects Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 24
- 210000000988 bone and bone Anatomy 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 239000013598 vector Substances 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 239000002245 particle Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 210000003557 bones of lower extremity Anatomy 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000002310 elbow joint Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000001145 finger joint Anatomy 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提出了一种根据用户肢体运动的视频渲染方法和装置,其中,方法包括:确定渲染模板;根据所拍摄视频帧中的用户动作确定肢体关键点;对肢体关键点进行转换处理生成渲染坐标;根据渲染模板和渲染坐标对肢体关键点进行渲染处理并显示。由此,扩展了视频显示的多样性,提高了视频显示的趣味性,增加了用户和产品的粘性。
Description
技术领域
本发明涉及视频处理技术领域,尤其涉及一种根据用户肢体运动的视频渲染方法和装置。
背景技术
随着4G普及,网络环境和流量资费的发展,短视频应用的多媒体内容传播方式迅速发展。其中,短视频即短片视频,一般是在互联网新媒体上传播的时长在5分钟以内的视频传播内容,随着移动终端普及和网络的提速,短平快的大流量传播内容逐渐获得各大平台的推广和用户关注。
相关技术中,当短视频用户需要拍摄视频时,通过拍摄视频功能选择自己喜欢的风格和音乐,然后开始拍摄并进行视频编辑,最后可以发布或者是保存短视频。其中,为了提升丰富拍摄用户的拍摄效果,可以根据用户需求对拍摄用户进行美颜处理,比如滤镜、磨皮等效果;或者,在拍摄中为用户增加丰富的魔法自拍表情和背景选择,比如卡通头像等,提升了拍摄的多样性和趣味性。
然而,针对现有技术的短视频拍摄过程,主要是根据用户需求对拍摄用户的面部进行美颜处理,或者,是根据预先设置的魔法表情模板对用户面部进行定位添加,因此,特效处理的表现形式只在于拍摄用户面部,具有一定的局限性。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种根据用户肢体运动的视频渲染方法,扩展了视频显示的多样性,提高了视频显示的趣味性,增加了用户和产品的粘性。
本发明的第二个目的在于提出一种根据用户肢体运动的视频渲染装置。
本发明的第三个目的在于提出一种计算机程序产品。
本发明的第四个目的在于提出一种非临时性计算机可读存储介质。
本发明的第五个目的在于提出一种终端设备。
为达上述目的,本发明第一方面实施例提出了一种根据用户肢体运动的视频渲染方法,包括以下步骤:确定渲染模板;根据所拍摄视频帧中的用户动作确定肢体关键点;对所述肢体关键点进行转换处理生成渲染坐标;根据所述渲染模板和所述渲染坐标对所述肢体关键点进行渲染处理并显示。
本发明实施例的根据用户肢体运动的视频渲染方法,确定渲染模板并根据所拍摄视频帧中的用户动作确定肢体关键点,进而,对肢体关键点进行转换处理生成渲染坐标,最终,根据渲染模板对拍摄视频帧的肢体关键点进行渲染处理并显示。由此,实现了渲染效果跟随用户的肢体动作显示的效果,扩展了视频显示的多样性,提高了视频显示的趣味性,增加了用户和产品的粘性。
为达上述目的,本发明第二方面实施例提出了一种根据用户肢体运动的视频渲染装置,包括:确定模块,确定渲染模板;生成模块,用于对所述肢体关键点进行转换处理生成渲染坐标;处理模块,根据所述渲染模板和所述渲染坐标对所述肢体关键点进行渲染处理并显示。
本发明实施例的根据用户肢体运动的视频渲染装置,确定渲染模板并根据所拍摄视频帧中的用户动作确定肢体关键点,进而,对肢体关键点进行转换处理生成渲染坐标,最终,根据渲染模板对拍摄视频帧的肢体关键点进行渲染处理并显示。由此,实现了渲染效果跟随用户的肢体动作显示的效果,扩展了视频显示的多样性,提高了视频显示的趣味性,增加了用户和产品的粘性。
为达上述目的,本发明第三方面实施例提出了一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时,执行如上述实施例描述的根据用户肢体运动的视频渲染方法。
为了实现上述目的,本发明第四方面实施例提出了一种非临时性计算机可读存储介质,该程序被处理器执行时实现如上述实施例描述的根据用户肢体运动的视频渲染方法。
为了实现上述目的,本发明第五方面实施例提出了一种终端设备,包括本发明第二方面实施例所述的根据用户肢体运动的视频渲染装置。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是根据本发明一个实施例的根据用户肢体运动的视频渲染方法的流程图;
图2是根据本发明另一个实施例的根据用户肢体运动的视频渲染方法的流程图;
图3是根据本发明一个实施例的根据用户肢体运动的视频渲染方法的应用场景示意图;
图4是根据本发明一个实施例的目标跟踪算法的原理示意图;
图5是根据本发明又一个实施例的根据用户肢体运动的视频渲染方法的流程图;
图6是根据本发明再一个实施例的根据用户肢体运动的视频渲染方法的流程图;
图7是根据本发明另一个实施例的根据用户肢体运动的视频渲染方法的应用场景示意图;
图8是根据本发明又一个实施例的根据用户肢体运动的视频渲染方法的应用场景示意图;
图9是根据本发明一个实施例的根据用户肢体运动的视频渲染装置的结构示意图;
图10是根据本发明另一个实施例的根据用户肢体运动的视频渲染装置的结构示意图;
图11是根据本发明又一个实施例的根据用户肢体运动的视频渲染装置的结构示意图;
图12是根据本发明再一个实施例的根据用户肢体运动的视频渲染装置的结构示意图;
图13是根据本发明还一个实施例的根据用户肢体运动的视频渲染装置的结构示意图;
图14是根据本发明还另一个实施例的根据用户肢体运动的视频渲染装置的结构示意图;
图15为实现本发明实施方式的示例性计算机设备的框图;
图16是根据本发明一个实施例的计算机可读存储介质的示意图;以及
图17是根据本发明一个实施例的终端设备的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的根据用户肢体运动的视频渲染方法和装置。
图1是根据本发明一个实施例的根据用户肢体运动的视频渲染方法的流程图,如图1所示,该根据用户肢体运动的视频渲染方法包括:
步骤101,确定渲染模板。
步骤102,根据所拍摄视频帧中的用户动作确定肢体关键点。其中,肢体关键点包括用户的骨骼的关节位置点、身体部位位置点,比如,包括胳膊肘关节的位置点、手指关节位置点,手的位置等,通过肢体关键点可以定位出用户当前的肢体位置,比如通过定位多个拍摄的视频帧中用户的肢体关键点,可以检测出用户在进行双手画圈动作时的具体画圈位置。
具体地,在本发明的实施例中,以拍摄的视频帧为处理单位,检测所拍摄的视频帧中的用户动作的肢体关键点,以便于对拍摄视频帧中的用户的动作进行显示相关处理。
需要说明的是,根据应用场景的不同,检测拍摄视频的拍摄视频帧,根据拍摄视频帧中的用户动作确定肢体关键点的方式,包括但不限于以下几种:
第一种示例:
在本示例中,如图2所示,步骤102包括:
步骤201,根据肢体骨骼的运动变化建立骨骼三维数据。
作为一种可能的实现方式,通过采用TOF技术测量深度来获取人体的深度信息,通过随机决策森林等算法对人体的各个部分进行不同的标记,最后从各个不同的标记中提取人体的肢体骨骼的运动变化,进而,根据肢体骨骼的运动变化建立骨骼的三维数据,其中,骨骼的三维数据包括用户每个肢体关键点的x、y、z轴的坐标信息。
作为另一种可能的实现方式,如图3左图所示,通过红外等传感器检测到用户的肢体骨骼,在检测到人体的肢体骨骼后,对肢体骨骼进行图像识别,从而,如图3右图所示,根据用户动作识别出肢体关键点位置为手部部位,进而,根据运动传感器采集手部关键点位置对应的三维数据作为骨骼三维数据。
步骤202,根据骨骼三维数据和动态目标跟踪算法识别拍摄视频帧中的用户动作确定肢体关键点。
其中,动态目标跟踪算法包括不依赖于先验知识,直接从视频帧中检测到肢体关键点,并进行肢体关键点识别,最终跟踪感兴趣的肢体关键点的算法,以及,依赖于目标的先验知识,首先为骨骼三维数据对应的肢体关键点建模,然后在拍摄视频帧中实时找到相匹配的肢体关键点的算法。
作为一种可能的实现方式,可采用单目标跟踪算法实现对用户动作的识别,其中,单目标跟踪算法本质上是一个递推滤波的过程,首先可由图像识别等技术确定出用户的量测数据,比如,用户肢体的位置等,进而,通过预先训练的量测模型等确定量测数据与用户肢体的位置的关系函数,将关系函数与肢体的当前位置一起作为输入,由跟踪滤波器等结合预先训练的机动模型得到下一时刻的肢体位置点的预测位置,并把预测得到的预测位置作为下一时刻的初始肢体关键点的位置,从而实现对用户动作的跟踪,进而,根据肢体的位置以及骨骼三维数据,确定出对应拍摄视频帧中的肢体关键点。
作为另一种可能的实现方式,结合均值漂移的目标跟踪算法进行肢体关键点的确定,首先,基于均值漂移的目标跟踪算法通过分别计算初始拍摄视频帧中用户动作所在的目标区域,和,当前拍摄视频帧内用户动作所在的候选区域内像素的特征值概率,得到关于目标模型和候选模型的描述,然后利用相似函数度量初始帧目标模型和当前帧的候选模版的相似性,选择使相似函数最大的候选模型并得到关于目标模型的均值向量,这个向量正是由指示用户动作的肢体由初始位置向正确位置移动的向量。由于均值漂移算法的快速收敛性,通过不断迭代计算均值向量,算法最终将收敛到目标的真实位置,达到跟踪的用户肢体目的,进而,根据跟踪的用户肢体,结合骨骼三维数据实现对用户肢体关键点的确定。
下面通过图4所示直观的说明均值跟踪算法的基本原理。如下图所示:目标跟踪开始于数据点xi 0(空心圆点xi 0,xi 1,…,xi N表示的是中心点,上标表示的是的迭代次数,周围的黑色圆点表示不断移动中的窗口样本点,虚线圆圈代表的是密度估计窗口的大小)。箭头表示样本点相对于核函数中心点的漂移向量,平均的漂移向量会指向样本点最密集的方向,也就是梯度方向。因为均值算法是收敛的,因此在当前帧中通过反复迭代搜索特征空间中样本点最密集的区域,搜索点沿着样本点密度增加的方向“漂移”到局部密度极大点点xi N,也就是被认为的目标位置(用户肢体的位置),从而达到跟踪用户肢体的目的。第二种示例:
在本示例中,如图5所示,步骤102包括:
步骤301,根据边界轮廓算法确定拍摄视频帧的图案区域。
其中,边界轮廓算法通过图像区域和其他非图像区域的边界像素的识别,区分出对应的图案区域的算法实现,根据应用场景的不同,边界轮廓算法可以通过不同的函数实现,作为一种可能的实现方式,边界轮廓算法为Candy函数,Canny函数基于拍摄视频帧中的两个阈值的提取进行边界轮廓的检测,其中,阈值是来确定哪里是边界轮廓位置。因此,基于Canny函数的执行代码,首先要设置两个阈值,其中,高的那个阈值是将要提取轮廓的用户肢体与背景区分开来,是决定目标与背景对比度的,低的那个阈值是用来平滑边缘的轮廓,有时高的阈值设置太大了,可能边缘轮廓不连续或者不够平滑,通过低阈值来平滑轮廓线,或者使不连续的部分连接起来,进而,基于设置的这两个阈值执行对应的代码实现边界轮廓的检测。
步骤302,从图案区域中提取图案特征。
步骤303,将图案特征与肢体关键点对应的样本图案特征进行匹配。
步骤304,根据匹配结果确定拍摄频帧的肢体关键点。
在本示例中,由于肢体关键点对应的图案特征与其他部位具有明显区别,比如,胳膊肘对应的图案特征与面部图像对应的特征具有明显区别等,从而可针对肢体关键点建立对应的样本图案特征,根据边界轮廓算法确定拍摄视频帧的图案区域后,从图案区域中提取图案特征,通过将图案特征与特征数据库中与肢体关键点对应的样本图案特征进行匹配,根据匹配结果确定拍摄视频帧的肢体关键点。
第三种示例:
在本示例中,抽取包含用户肢体图像的一帧拍摄视频帧显示给用户,由用户在显示的拍摄视频帧中选择并确定出标记肢体关键点,进而,通过跟踪算法和用户标记的标记肢体关键点确定出拍摄视频帧的肢体关键点。
应当理解的是,由用户手动确定的肢体关键点可以由用户根据个人喜好设置,该肢体关键点可以是用户生理上的关键点,也可以是用户根据个人喜好自行设定的肢体的其他部位,比如用户的喉结位置等,从而,当用户设置肢体的其他部位时,可以根据进一步的视频显示处理提供更多的趣味显示效果,比如,用户的喉结喷火等趣味性视频显示处理。
在实际执行过程中,为了便于进一步提高根据拍摄视频帧的用户动作确定肢体关键点的效率,避免拍摄视频帧中一些人像海报等人像图片导致的误判,还可在确定肢体关键点之前,采集用户的心跳数据、血压数据等生理数据以快速定位出用户所在画面区域,从而,仅仅识别用户所在画面区域,以提高识别效率。
步骤103,对肢体关键点进行转换处理生成渲染坐标。
具体地,为了精确的对用户的肢体动作进行相关显示处理,对拍摄视频帧的肢体关键点进行转换处理生成渲染坐标,以便于根据渲染坐标快速定位出用户的肢体位置。
其中,对拍摄视频帧的肢体关键点进行转换处理生成渲染坐标的方式,根据应用场景的不同而不同。
作为一种可能的实现方式,如图6所示,步骤103包括:
步骤401,根据拍摄参数确定关键点容器模型。
步骤402,根据关键点容器模型对肢体关键点进行转换处理,生成渲染坐标。
由于用户在拍摄视频时,为了使得拍摄的效果更好,会调整拍摄的角度、拍摄距离等拍摄参数,而显然,拍摄参数不同,拍摄视频帧中用户的位置以及画面占比不同,从而,实现对用户的肢体渲染的渲染效果所在位置的确定方式不同,比如,当用户的位置在拍摄视频帧的中心位置以及画面占比较大时,则对应的渲染效果所在位置处理为相对较分散,又比如,当用户的位置在拍摄视频帧的角落区域且画面占比较小时,则对应的渲染效果所在位置处理为相对较集中,因而,在不同应用场景下的拍摄参数的不同直接影响对渲染效果位置的确定方式。
在本发明的实施例中,通过关键点容器模型限制上述拍摄参数对渲染效果位置的确定方式,该关键点容器模型是根据大量实验数据训练得到的,该模型的输入为肢体关键点的位置,输出为渲染坐标,也就是说,通过关键点容器模型,可以实现肢体关键点位置到渲染坐标的转换,而不同的关键点容器模型的转换方式不同,以适应不同的拍摄参数,比如,关键点容器模型1的转换方式为将肢体关键点转换为较为集中的坐标点的转换(相对肢体关键点的偏移量较小的转换方式),关键点容器模型2的转换方式为将肢体关键点转换为较为分散的坐标点的转换相对肢体关键点的偏移量较大的转换方式)等,预先根据拍摄参数与渲染效果位置的确定方式的关系建立拍摄参数和关键点容器模型的对应关系,进而,根据拍摄参数确定对应的关键点容器模型,由此,根据关键点容器模型对拍摄视频帧的肢体关键点进行转换处理,生成渲染坐标,使得最后的渲染效果与用户的肢体关键点连接自然,渲染效果较好。
作为另一种可能的实现方式,根据多个视频帧建立统一的坐标系,根据每个关键点在该坐标系的位置生成对应的渲染坐标。
步骤104,根据渲染模板和渲染坐标对肢体关键点进行渲染处理并显示。
其中,渲染模板是根据视频处理需求确定的,渲染模板包括火焰、流星、雨滴等特定图案的动态渲染图,或者,由多个渲染粒子组成的渲染3D动态渲染图,比如,多个火焰粒子组成的火焰动态渲染图等。
渲染模板可包括对应的渲染参数对应,比如,对应的渲染参数包括渲染时间、渲染角度、渲染大小、渲染颜色、渲染模式中的一种或者多种参数组合。
其中,渲染参数中的渲染时间决定了渲染模板对应的渲染效果的连续性,比如,渲染时间停留较长,则当前渲染效果会和上一时刻渲染效果在同一时间显示给用户,又比如,渲染时间停留效果较短,则仅仅会显示当前时间用户肢体关键点对应位置的显示效果;渲染参数中的渲染大小对应于渲染模板中对应渲染图案或者渲染粒子的大小的等;渲染参数中的渲染模板对应于渲染图案的显示方式,比如是旋转显示,渐渐清晰显示还是飞入显示等。
在本发明的一个实施例中,确定渲染模板以及与渲染模板对应的渲染参数后,根据渲染参数和渲染坐标对拍摄视频帧的肢体关键点进行渲染处理后合成播放视频进行显示,其中,多个处理后的拍摄视频帧对应的视频流在播放时,形成了肢体关键点渲染处理后的效果。
当然,在实际执行过程中,也可以实时对拍摄视频帧的肢体关键点进行渲染处理,不需要后期的合成即可同步展现肢体关键点渲染处理后的效果。
需要说明的是,根据应用场景的不同,确定渲染模板中默认设置对应的渲染参数,为了提高渲染的灵活性,也可单独设置对应的渲染参数,其中,当单独设置对应的渲染参数时,设置与渲染模板对应的渲染参的方式不同,示例说明如下:
第一种示例:
在本示例中,预先设置渲染功能界面,显示预先设置的渲染功能界面,根据用户对渲染功能界面中的输入信息,确定渲染模板,其中,可以理解渲染摸中包含了默认渲染参数。
在本示例中,当需要单数设置与渲染模板对应的渲染参数时,同样的,可以预先设置渲染功能界面,显示预先设置的渲染功能界面,根据用户对渲染功能界面中的输入信息,确定渲染模板和与渲染模板对应的渲染参数。
需要说明的是,在本示例中,用户在渲染功能界面中的输入信息与渲染功能界面的界面功能设置相关,根据应用场景的不同,用户的输入信息可以为对对应渲染模板以及与渲染模板对应的渲染参数所在菜单的触发操作,或者,用户的输入信息可以为对应的渲染模板以及与渲染模板对应的渲染参数的标号的输入操作等。
举例而言,如图7所示,在渲染功能界面上设置渲染模板以及对应的渲染参数,将检测到的用户触发的渲染模板以及对应的渲染参数,作为当前渲染模板以及与渲染模板对应的渲染参数。
第二种示例:
在本示例中,为了使得对视频的渲染效果与视频的合成更加自然,根据场景信息确定渲染模板.
在本示例中,当需要单独设置渲染参数时,根据应用场景的场景信息确定渲染模板和与渲染模板对应的渲染参数,其中,场景信息包括当前用户的语音信息、动作信息、视频录制的环境信息等。
具体地,在本示例中,获取拍摄视频的场景信息,根据场景信息确定渲染模板以及与渲染模板对应的渲染参数。
举例而言,当场景信息为用户的语音信息时,如果获取到当前用户的语音信息为“和我一起去看流星雨”吧,则确定当前对应的渲染模板为包括流星雨渲染图的模板,对应的渲染参数可以是预先设置的与流星雨模板对应的渲染参数,也可以是通过学习用户的个人喜好后,自动匹配出的与流星雨模板对应的渲染参数等。
由此,本发明实施例的根据用户肢体运动的视频渲染方法,通过定位出用户的肢体关键点进行渲染特效的添加,从而,实现了肢体运动跟踪渲染特效,提高了视频显示的趣味性,增加了用户和产品的粘性。
为了使得本领域的技术人员,能够更加清楚本发明实施例的根据用户肢体运动的视频渲染方法,下面结合具体的应用场景进行说明:
在本示例中,渲染模板为星形渲染图案,对应的渲染参数为渲染时间为5s等,如图8上图所示,假设当前视频流中的视频帧为1-5时,检测拍摄的每个视频帧中的用户动作,确定用户的动作的肢体关键点为手指位置(图8上图中的黑点指示位置),则对每个拍摄视频帧的手指关键点进行转换处理生成渲染坐标,进而,如图8中图所示,根据渲染坐标对每个视频帧的指指尖关键点进行星形渲染图案的渲染处理后合成播放视频,最终,生成的视频为如图8下图所示的星形渲染图案跟随用户手指画心的运动轨迹跟踪显示的效果。
综上所述,本发明实施例的根据用户肢体运动的视频渲染方法,确定渲染模板并根据所拍摄视频帧中的用户动作确定肢体关键点,进而,对肢体关键点进行转换处理生成渲染坐标,最终,根据渲染模板对拍摄视频帧的肢体关键点进行渲染处理并显示。由此,实现了渲染效果跟随用户的肢体动作显示的效果,扩展了视频显示的多样性,提高了视频显示的趣味性,增加了用户和产品的粘性。
为了实现上述实施例,本发明还提出了一种根据用户肢体运动的视频渲染装置。
图9是根据本发明一个实施例的根据用户肢体运动的视频渲染装置的结构示意图,如图9所示,该根据用户肢体运动的视频渲染装置包括:确定模块100、生成模块200和处理模块300。
其中,确定模块100,用于检测确定渲染模板。
生成模块200,用于对肢体关键点进行转换处理生成渲染坐标。
在本发明的一个实施例中,如图10所示,生成模块200包括建立单元210和第一确定单元220,其中,
建立单元210,用于根据肢体骨骼的运动变化建立骨骼三维数据。
第一确定单元220,用于根据骨骼三维数据和动态目标跟踪算法识别拍摄视频帧中的用户动作确定肢体关键点。
在本发明的一个实施例中,如图11所示,生成模块200包括第二确定单元230、提取单元240、匹配单元250和第三确定单元260。
其中,第二确定单元230,用于根据边界轮廓算法确定拍摄视频帧的图案区域。
提取单元240,用于从图案区域中提取图案特征。
匹配单元250,用于将图案特征与肢体关键点对应的样本图案特征进行匹配。
在本发明的一个实施例中,如图12所示,生成模块200包括第四确定单元260和生成单元270,其中,
第四确定单元270,用于根据拍摄参数确定关键点容器模型。
生成单元280,用于根据所述关键点容器模型对肢体关键点进行转换处理,生成渲染坐标。
在本发明的一个实施例中,如图13所示,确定模100包括显示单元110和第五确定单元120,其中,
显示单元110,用于显示预先设置的渲染功能界面。
第五确定单元120,用于根据用户对所述渲染功能界面中的输入信息,确定渲染模板。
在本发明的一个实施例中,如图14所示,确定模块100包括获取单元130和第六确定单元140,其中,
获取单元130,用于获取所述拍摄视频的场景信息。
第六确定单元140,用于根据所述场景信息确定渲染模板。
处理模块300,根据渲染模板对肢体关键点进行渲染处理并显示。
需要说明的是,前述对根据用户肢体运动的视频渲染方法实施例的解释说明也适用于该实施例的根据用户肢体运动的视频渲染装置,此处不再赘述。
综上所述,本发明实施例的根据用户肢体运动的视频渲染装置,确定渲染模板并根据所拍摄视频帧中的用户动作确定肢体关键点,进而,对肢体关键点进行转换处理生成渲染坐标,最终,根据渲染模板对拍摄视频帧的肢体关键点进行渲染处理并显示。由此,实现了渲染效果跟随用户的肢体动作显示的效果,扩展了视频显示的多样性,提高了视频显示的趣味性,增加了用户和产品的粘性。
为了实现上述实施例,本发明还提出一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时,执行上述实施例示出的根据用户肢体运动的视频渲染方法。图15示出了适于用来实现本发明实施方式的示例性计算机设备的框图。图15显示的计算机设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图15所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture;以下简称:ISA)总线,微通道体系结构(Micro Channel Architecture;以下简称:MAC)总线,增强型ISA总线、视频电子标准协会(Video Electronics StandardsAssociation;以下简称:VESA)局域总线以及外围组件互连(Peripheral ComponentInterconnection;以下简称:PCI)总线。
计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory;以下简称:RAM)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图15未显示,通常称为“硬盘驱动器”)。尽管图15中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如:光盘只读存储器(Compact Disc Read OnlyMemory;以下简称:CD-ROM)、数字多功能只读光盘(Digital Video Disc Read OnlyMemory;以下简称:DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机系统/服务器12交互的设备通信,和/或与使得该计算机系统/服务器12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(Local AreaNetwork;以下简称:LAN),广域网(Wide Area Network;以下简称:WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现前述实施例中提及的方法。
为了实现上述实施例,本发明还提出一种非临时性计算机可读存储介质,当所述存储介质中的指令由处理器被执行时,使得能够执行上述实施例示出的根据用户肢体运动的视频渲染方法。图16是图示根据本发明一个实施例的计算机可读存储介质的示意图。如图16所示,根据本发明实施例的计算机可读存储介质300,其上存储有非暂时性计算机可读指令301。当该非暂时性计算机可读指令301由处理器运行时,执行前述的本发明各实施例的根据用户肢体运动的视频渲染方法的全部或部分步骤。
图17是根据本发明一个实施例的终端设备的硬件结构示意图。终端设备可以以各种形式来实施,本公开中的终端设备可以包括但不限于诸如移动电话、智能电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、导航装置、车载终端设备、车载显示终端、车载电子后视镜等等的移动终端设备以及诸如数字TV、台式计算机等等的固定终端设备。
如图17所示,终端设备1100可以包括无线通信单元1110、A/V(音频/视频)输入单元1120、用户输入单元1130、感测单元1140、输出单元1150、存储器1160、接口单元1170、控制器1180和电源单元1190等等。图17示出了具有各种组件的终端设备,但是应理解的是,并不要求实施所有示出的组件。可以替代地实施更多或更少的组件。
其中,无线通信单元1110允许终端设备1100与无线通信系统或网络之间的无线电通信。A/V输入单元1120用于接收音频或视频信号。用户输入单元1130可以根据用户输入的命令生成键输入数据以控制终端设备的各种操作。感测单元1140检测终端设备1100的当前状态、终端设备1100的位置、用户对于终端设备1100的触摸输入的有无、终端设备1100的取向、终端设备1100的加速或减速移动和方向等等,并且生成用于控制终端设备1100的操作的命令或信号。接口单元1170用作至少一个外部装置与终端设备1100连接可以通过的接口。输出单元1150被构造为以视觉、音频和/或触觉方式提供输出信号。存储器1160可以存储由控制器1180执行的处理和控制操作的软件程序等等,或者可以暂时地存储己经输出或将要输出的数据。存储器1160可以包括至少一种类型的存储介质。而且,终端设备1100可以与通过网络连接执行存储器1160的存储功能的网络存储装置协作。控制器1180通常控制终端设备的总体操作。另外,控制器1180可以包括用于再现或回放多媒体数据的多媒体模块。控制器1180可以执行模式识别处理,以将在触摸屏上执行的手写输入或者图片绘制输入识别为字符或图像。电源单元1190在控制器1180的控制下接收外部电力或内部电力并且提供操作各元件和组件所需的适当的电力。
本公开提出的根据用户肢体运动的视频渲染方法的各种实施方式可以以使用例如计算机软件、硬件或其任何组合的计算机可读介质来实施。对于硬件实施,本公开提出的根据用户肢体运动的视频渲染方法的各种实施方式可以通过使用特定用途集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理装置(DSPD)、可编程逻辑装置(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、被设计为执行这里描述的功能的电子单元中的至少一种来实施,在一些情况下,本公开提出的根据用户肢体运动的视频渲染方法的各种实施方式可以在控制器1180中实施。对于软件实施,本公开提出的根据用户肢体运动的视频渲染方法的各种实施方式可以与允许执行至少一种功能或操作的单独的软件模块来实施。软件代码可以由以任何适当的编程语言编写的软件应用程序(或程序)来实施,软件代码可以存储在存储器1160中并且由控制器1180执行。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (14)
1.一种根据用户肢体运动的视频渲染方法,其特征在于,包括以下步骤:
确定渲染模板,所述渲染模板包括动态渲染图,和,渲染时间、渲染角度、渲染大小、渲染颜色、渲染模式中的一种或者多种参数组合;
采集用户的生理数据,根据所述生理数据快速定位出用户在所拍摄的视频帧中的画面区域;
根据所述画面区域中的用户动作确定所述拍摄视频帧中的肢体关键点;
对所述肢体关键点进行转换处理生成所述拍摄视频帧中的渲染坐标,其中,所述渲染坐标和所述肢体关键点之间具有坐标偏移量;
根据所述渲染模板和所述渲染坐标对所述肢体关键点进行渲染处理并显示。
2.如权利要求1所述的方法,其特征在于,所述根据所述画面区域中的用户动作确定所述拍摄视频帧中的肢体关键点,包括:
根据肢体骨骼的运动变化建立骨骼三维数据;
根据所述骨骼三维数据和动态目标跟踪算法识别拍摄视频帧中的用户动作确定肢体关键点。
3.如权利要求1所述的方法,其特征在于,所述根据所述画面区域中的用户动作确定所述拍摄视频帧中的肢体关键点,包括:
根据边界轮廓算法确定所述画面区域中的图案区域;
从所述图案区域中提取图案特征;
将所述图案特征与所述肢体关键点对应的样本图案特征进行匹配;
根据匹配结果确定拍摄视频帧的肢体关键点。
4.如权利要求1所述的方法,其特征在于,所述对所述肢体关键点进行转换处理生成所述拍摄视频帧中的渲染坐标,包括:
根据拍摄参数确定关键点容器模型;
根据所述关键点容器模型对所述肢体关键点进行转换处理,生成渲染坐标。
5.如权利要求1所述的方法,其特征在于,所述确定渲染模板,包括:
显示预先设置的渲染功能界面;
根据用户对所述渲染功能界面中的输入信息,确定渲染模板。
6.如权利要求1所述的方法,其特征在于,所述确定渲染模板,包括:
获取所述拍摄视频的场景信息;
根据所述场景信息确定渲染模板。
7.一种根据用户肢体运动的视频渲染装置,其特征在于,包括:
确定模块,确定渲染模板,所述渲染模板包括动态渲染图,和,渲染时间、渲染角度、渲染大小、渲染颜色、渲染模式中的一种或者多种参数组合;
定位模块,用于采集用户的生理数据,根据所述生理数据快速定位出用户在所拍摄的视频帧中的画面区域;
生成模块,用于根据所述画面区域中的用户动作确定所述拍摄视频帧中的肢体关键点;
所述生成模块,还用于所述肢体关键点进行转换处理生成渲染坐标,其中,所述渲染坐标和所述肢体关键点之间具有坐标偏移量;
处理模块,根据所述渲染模板和所述渲染坐标对所述肢体关键点进行渲染处理并显示。
8.如权利要求7所述的装置,其特征在于,所述生成模块,包括:
建立单元,用于根据肢体骨骼的运动变化建立骨骼三维数据;
第一确定单元,用于根据所述骨骼三维数据和动态目标跟踪算法识别每个拍摄视频帧中的用户动作确定肢体关键点。
9.如权利要求7所述的装置,其特征在于,所述生成模块,包括:
第二确定单元,用于根据边界轮廓算法确定所述画面区域中的图案区域;
提取单元,用于从所述图案区域中提取图案特征;
匹配单元,用于将所述图案特征与所述肢体关键点对应的样本图案特征进行匹配;
第三确定单元,用于根据匹配结果确定拍摄视频帧的肢体关键点。
10.如权利要求7所述的装置,其特征在于,所述生成模块,包括:
第四确定单元,用于根据拍摄参数确定关键点容器模型;
生成单元,用于根据所述关键点容器模型对所述肢体关键点进行转换处理,生成渲染坐标。
11.如权利要求7所述的装置,其特征在于,所述确定模块,包括:
显示单元,用于显示预先设置的渲染功能界面;
第五确定单元,用于根据用户对所述渲染功能界面中的输入信息,确定渲染模板。
12.如权利要求7所述的装置,其特征在于,所述确定模块,包括:
获取单元,用于获取所述拍摄视频的场景信息;
第六确定单元,用于根据所述场景信息确定渲染模板。
13.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-6任一项所述的根据用户肢体运动的视频渲染方法。
14.一种终端设备,其特征在于,包括如权利要求7-12任一所述的根据用户肢体运动的视频渲染装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810327082.9A CN108537867B (zh) | 2018-04-12 | 2018-04-12 | 根据用户肢体运动的视频渲染方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810327082.9A CN108537867B (zh) | 2018-04-12 | 2018-04-12 | 根据用户肢体运动的视频渲染方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108537867A CN108537867A (zh) | 2018-09-14 |
CN108537867B true CN108537867B (zh) | 2020-01-10 |
Family
ID=63480165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810327082.9A Active CN108537867B (zh) | 2018-04-12 | 2018-04-12 | 根据用户肢体运动的视频渲染方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108537867B (zh) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110069125B (zh) * | 2018-09-21 | 2023-12-22 | 北京微播视界科技有限公司 | 虚拟对象的控制方法和装置 |
CN111107279B (zh) * | 2018-10-26 | 2021-06-29 | 北京微播视界科技有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN110149551B (zh) * | 2018-11-06 | 2022-02-22 | 腾讯科技(深圳)有限公司 | 媒体文件播放方法和装置、存储介质及电子装置 |
CN109600559B (zh) * | 2018-11-29 | 2021-07-23 | 北京字节跳动网络技术有限公司 | 一种视频特效添加方法、装置、终端设备及存储介质 |
CN111258413A (zh) * | 2018-11-30 | 2020-06-09 | 北京字节跳动网络技术有限公司 | 虚拟对象的控制方法和装置 |
CN109872283A (zh) * | 2019-01-18 | 2019-06-11 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
CN110058685B (zh) * | 2019-03-20 | 2021-07-09 | 北京字节跳动网络技术有限公司 | 虚拟对象的显示方法、装置、电子设备和计算机可读存储介质 |
CN110035236A (zh) * | 2019-03-26 | 2019-07-19 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置和电子设备 |
CN110047124A (zh) * | 2019-04-23 | 2019-07-23 | 北京字节跳动网络技术有限公司 | 渲染视频的方法、装置、电子设备和计算机可读存储介质 |
CN110084204B (zh) * | 2019-04-29 | 2020-11-24 | 北京字节跳动网络技术有限公司 | 基于目标对象姿态的图像处理方法、装置和电子设备 |
CN110555798B (zh) * | 2019-08-26 | 2023-10-17 | 北京字节跳动网络技术有限公司 | 图像变形方法、装置、电子设备及计算机可读存储介质 |
CN113015000B (zh) * | 2019-12-19 | 2024-08-13 | 中兴通讯股份有限公司 | 渲染和显示的方法、服务器、终端、计算机可读介质 |
CN113709389A (zh) * | 2020-05-21 | 2021-11-26 | 北京达佳互联信息技术有限公司 | 一种视频渲染方法、装置、电子设备及存储介质 |
CN113301358B (zh) * | 2020-07-27 | 2023-08-29 | 阿里巴巴集团控股有限公司 | 内容提供及展示方法、装置、电子设备、存储介质 |
CN112528768B (zh) * | 2020-11-26 | 2024-07-26 | 腾讯科技(深圳)有限公司 | 视频中的动作处理方法、装置、电子设备及存储介质 |
CN112714337A (zh) * | 2020-12-22 | 2021-04-27 | 北京百度网讯科技有限公司 | 视频处理方法、装置、电子设备和存储介质 |
CN112700518B (zh) * | 2020-12-28 | 2023-04-07 | 北京字跳网络技术有限公司 | 拖尾视觉效果的生成方法、视频的生成方法、电子设备 |
CN113207038B (zh) * | 2021-04-21 | 2023-04-28 | 维沃移动通信(杭州)有限公司 | 视频处理方法、视频处理装置和电子设备 |
CN113810536B (zh) * | 2021-08-02 | 2023-12-12 | 惠州Tcl移动通信有限公司 | 基于视频中人肢体动作轨迹展示信息方法、装置、终端 |
CN114489337A (zh) * | 2022-01-24 | 2022-05-13 | 深圳市慧鲤科技有限公司 | 一种ar互动方法、装置、设备及存储介质 |
CN118509542A (zh) * | 2024-07-18 | 2024-08-16 | 圆周率科技(常州)有限公司 | 视频生成方法、装置、计算机设备和存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102426709A (zh) * | 2011-08-19 | 2012-04-25 | 北京航空航天大学 | 一种基于快速逆向运动学的实时运动合成方法 |
CN104123753A (zh) * | 2014-08-13 | 2014-10-29 | 中山大学 | 基于服装图片的三维虚拟试衣方法 |
CN104623910A (zh) * | 2015-01-15 | 2015-05-20 | 西安电子科技大学 | 舞蹈辅助特效伴侣系统及实现方法 |
CN104853223A (zh) * | 2015-04-29 | 2015-08-19 | 小米科技有限责任公司 | 视频流的插播方法及终端设备 |
CN106251387A (zh) * | 2016-07-29 | 2016-12-21 | 武汉光之谷文化科技股份有限公司 | 一种基于动作捕捉的成像系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103247064B (zh) * | 2012-02-14 | 2016-03-30 | 中国移动通信集团公司 | 一种三维动态图形的生成方法、装置和移动终端 |
CN103440677A (zh) * | 2013-07-30 | 2013-12-11 | 四川大学 | 一种基于Kinect体感设备的多视点自由立体交互系统 |
CN104258555B (zh) * | 2014-09-10 | 2016-05-11 | 北京理工大学 | 采用rgbd视觉传感的双拳击球健身交互系统 |
CN107481310B (zh) * | 2017-08-14 | 2020-05-08 | 迈吉客科技(北京)有限公司 | 一种图像渲染方法和系统 |
-
2018
- 2018-04-12 CN CN201810327082.9A patent/CN108537867B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102426709A (zh) * | 2011-08-19 | 2012-04-25 | 北京航空航天大学 | 一种基于快速逆向运动学的实时运动合成方法 |
CN104123753A (zh) * | 2014-08-13 | 2014-10-29 | 中山大学 | 基于服装图片的三维虚拟试衣方法 |
CN104623910A (zh) * | 2015-01-15 | 2015-05-20 | 西安电子科技大学 | 舞蹈辅助特效伴侣系统及实现方法 |
CN104853223A (zh) * | 2015-04-29 | 2015-08-19 | 小米科技有限责任公司 | 视频流的插播方法及终端设备 |
CN106251387A (zh) * | 2016-07-29 | 2016-12-21 | 武汉光之谷文化科技股份有限公司 | 一种基于动作捕捉的成像系统 |
Also Published As
Publication number | Publication date |
---|---|
CN108537867A (zh) | 2018-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108537867B (zh) | 根据用户肢体运动的视频渲染方法和装置 | |
US11880541B2 (en) | Systems and methods of generating augmented reality (AR) objects | |
US10394318B2 (en) | Scene analysis for improved eye tracking | |
WO2019100754A1 (zh) | 人体动作的识别方法、装置和电子设备 | |
CN106664376B (zh) | 增强现实设备和方法 | |
WO2019120032A1 (zh) | 模型构建方法、拍照方法、装置、存储介质及终端 | |
US6944315B1 (en) | Method and apparatus for performing scale-invariant gesture recognition | |
US9087403B2 (en) | Maintaining continuity of augmentations | |
US10488195B2 (en) | Curated photogrammetry | |
US8081822B1 (en) | System and method for sensing a feature of an object in an interactive video display | |
RU2708027C1 (ru) | Способ передачи движения субъекта из видео на анимированного персонажа | |
CN110062269A (zh) | 附加对象显示方法、装置及计算机设备 | |
US20140285517A1 (en) | Display device and method to display action video | |
JP2014517392A (ja) | Rgbdカメラを用いた頭部ポーズ推定 | |
US11282257B2 (en) | Pose selection and animation of characters using video data and training techniques | |
CN110215706B (zh) | 虚拟对象的位置确定方法、装置、终端及存储介质 | |
CN109240494B (zh) | 电子显示板的控制方法、计算机可读存储介质和控制系统 | |
WO2020037924A1 (zh) | 动画生成方法和装置 | |
CN109348277A (zh) | 运动像素视频特效添加方法、装置、终端设备及存储介质 | |
CN110069126A (zh) | 虚拟对象的控制方法和装置 | |
US11361467B2 (en) | Pose selection and animation of characters using video data and training techniques | |
CN114529587B (zh) | 一种视频目标跟踪方法、装置、电子设备及存储介质 | |
CN111258413A (zh) | 虚拟对象的控制方法和装置 | |
CN112788390B (zh) | 一种基于人机交互的控制方法、装置、设备及存储介质 | |
CN113873162A (zh) | 拍摄方法、装置、电子设备和可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address |
Address after: 408, 4th floor, 51 Zhichun Road, Haidian District, Beijing 100089 Patentee after: Tiktok Technology Co.,Ltd. Country or region after: China Address before: 408, 4th floor, 51 Zhichun Road, Haidian District, Beijing 100089 Patentee before: BEIJING MICROLIVE VISION TECHNOLOGY Co.,Ltd. Country or region before: China |
|
CP03 | Change of name, title or address |