CN111611997A - 一种基于人体动作迁移的卡通定制形象运动视频生成方法 - Google Patents
一种基于人体动作迁移的卡通定制形象运动视频生成方法 Download PDFInfo
- Publication number
- CN111611997A CN111611997A CN202010361432.0A CN202010361432A CN111611997A CN 111611997 A CN111611997 A CN 111611997A CN 202010361432 A CN202010361432 A CN 202010361432A CN 111611997 A CN111611997 A CN 111611997A
- Authority
- CN
- China
- Prior art keywords
- image
- source object
- video
- customized image
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于人体动作迁移的卡通定制形象运动视频生成方法,包括如下步骤:步骤一,检测视频中每帧图像的源对象回归框,并通过对抗生成网络修正源对象回归框,得到源对象修正回归框;步骤二,提取视频中每帧图像的源对象修正回归框的2D姿态;步骤三,根据2D姿态获取SMPL模板模型,并根据自动化阈值分割原理得到定制形象的轮廓掩膜;步骤四,根据定制形象的轮廓掩膜将SMPL模板模型进行重构整合,最终生成定制形象的2D运动视频。本发明所公开的方法能够直接从源对象动作和选定的定制形象生成定制形象运动视频,无需做全局标准化和图像映射,生成的定制形象生动且具有连续性外观,无需担心由生成器原因导致的外观不连续问题。
Description
技术领域
本发明涉及图像检测跟踪与重构卡通形象技术领域,特别涉及一种基于人体动作迁移的卡通定制形象运动视频生成方法。
背景技术
目前对定制卡通形象(定制形象)生成卡通视频的方法分为借助专业软件如live2D进行手工绘制的方法和基于图像算法自动将人体动作重构为定制卡通的方法。其中,手工绘制方法由于其专业性强、难度系数大、制作成分高的特点,很难普及;基于人体动作迁移自动生成的技术,主要包括:
(1)基于姿态估计的标准化图像转换算法,例如论文Everybody Dance Now[J].Caroline Chan Etc.,2018中提到人体动作迁移方法,即一种简单的“按我做”动作转移方法,给定源对象跳舞动作的视频,算法可以将该表演转移到指定定制形象上。该算法首先采用openpose姿态检测;然后采用全局姿态标准化,即根据迁移源对象和定制形象身体形状和比例不同做映射变换继续宁全局姿态归一化操作;再根据pix2pixHD生成式对抗模型(GAN)从标准化后的姿态图形推断目标人物的图像;最后补充面部表情细节,同样采用一个特殊的GAN结构来训练更细节更真实的面部区域。
该方法能够很好实现动作迁移,且在高分辨率下细节信息较为完整真实,但该算法需要从源对象到定制形象以逐帧的方式形成图像映射,从而实现动作迁移,不能直接从源对象和指定的定制形象直接生成定制形象视频,在实际应用中具有局限性。
(2)基于光流约束的姿态图视频生成技术,Video-to-Video Synthesis[J],Ting-Chun Wang,etc.,2018,Advances in Neural Information Processing Systems(NeurIPS),该技术建立生成器模型和相邻两帧之间的光流信息并通过对前景和背景分别建模来进行姿态迁移的视频生成。该方法通过添加光流时序约束从而克服了由源对象视频到定制形象视频转换过程中前后帧不一致性问题,实现了人体动作的迁移,但该算法需要输入语义分割掩码视频,因此还需要将源对象视频先进行语义分割,且分割结果直接影响定制形象视频的生成,此外,由于该算法用的生成器技术,因此算法模型不能确保定制形象在整个视频中有连续外观。
综上所述,目前先进的人体动作迁移算法,存在以下缺陷:
(1)图像转换算法需要同时具备源对象视频与定制形象视频的图像映射;
(2)姿态图视频生成技术需要用精准的语义分割掩码作为输入,且生成的定制形象不保证有连续的外观。
由此可见,目前根据人体动作迁移生成目标运动视频的方法尤其是对于生成定制卡通形象运动仍存在许多不足。
发明内容
为解决上述技术问题,本发明提供了一种基于人体动作迁移的卡通定制形象运动视频生成方法,能够直接从源对象动作和选定的定制形象生成定制形象运动视频,无需做全局标准化和图像映射,生成的定制形象生动且具有连续性外观,无需担心由生成器原因导致的外观不连续问题。
为达到上述目的,本发明的技术方案如下:
一种基于人体动作迁移的卡通定制形象运动视频生成方法,包括如下步骤:
步骤一,检测视频中每帧图像的源对象回归框,并通过对抗生成网络修正源对象回归框,得到源对象修正回归框;
步骤二,提取视频中每帧图像的源对象修正回归框的2D姿态;
步骤三,根据2D姿态获取SMPL模板模型,并根据自动化阈值分割原理得到定制形象的轮廓掩膜;
步骤四,根据定制形象的轮廓掩膜将SMPL模板模型进行重构整合,最终生成定制形象的2D运动视频。
上述方案中,步骤一的具体方法如下:
(1)根据行人识别技术获取视频中每帧图像的源对象回归框,然后将源对象回归框的图像信息以及根据聚类算法得到的9个聚类图像信息作为生成网络的输入,输出10个修正后回归框的图像信息;
(2)利用对抗网络将输出的10个修正后回归框的图像信息与人工标注的真实的回归框的图像信息分别进行比较,输出误差值,选择其中误差值最小的一个图像信息的回归框作为源对象修正回归框。
上述方案中,步骤二的具体方法如下:
根据并行多分辨率卷积的原理,将源对象修正回归框作为deep-high-resolutionnet网络的输入,输出源对象修正回归框的2D关节点信息。
上述方案中,步骤三中,获取SMPL模板模型的具体方法如下:
根据人体姿态和形状估计的视频推断网络的原理,将源对象修正回归框的2D关节点作为人体姿态和形状估计的视频推断网络的输入,获取定制形象的SMPL模板模型,以及模板标准图、模板蒙皮图和模板深度图。
上述方案中,步骤四的具体方法如下:
以定制形象轮廓掩膜为模板,将SMPL模板模型进行重构整合,获取定制形象的法向图、标准图、轮廓图和蒙皮图,根据最终估算出的定制形象的轮廓图和蒙皮图,即可得到定制形象基于轮廓掩膜与源对象动作一一对应的2D运动,从而生成该视频图像下的卡通定制形象2D运动视频。
通过上述技术方案,本发明提供的基于人体动作迁移的卡通定制形象运动视频生成方法具有如下有益效果:
(1)无需深度相机获取源对象的3d信息;
(2)能够准确获取源对象目标;
(3)能够直接从源对象动作和选定的定制形象生成定制形象运动视频,无需做全局标准化和图像映射;
(4)定制形象生动且具有连续性外观,无需担心由生成器原因导致的外观不连续问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本发明实施例所公开的一种基于人体动作迁移的卡通定制形象运动视频生成方法流程示意图;
图2为人体关节点模型图;
图3为SMPL模板模型图;
图4为定制形象图;
图5为定制形象轮廓掩模图;
图6为视频源对象2D动作图;
图7为生成的定制形象运动图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明提供了一种基于人体动作迁移的卡通定制形象运动视频生成方法,如图1所示,具体实施例如下:
步骤一,检测视频中每帧图像的源对象回归框,并通过对抗生成网络修正源对象回归框,得到源对象修正回归框;
具体方法如下:
(1)给定采集视频帧数据为:Ig={I1(x1,y1),I2(x2,y2),...,Ii(xi,yi),...,Ia(xa,ya)},Ii(xi,yi)为第i帧视频图像,0≤xi≤Wi-1,0≤yi≤Hi-1,Wi和Hi分别为图像Ii(xi,yi)的宽度和高度,xi,yi分别表示视频图像中像素点的横坐标和纵坐标;
根据行人识别技术获取视频中每帧图像Ii(xi,yi)的源对象回归框bbox=[x_c,y_c,w,h],x_c,y_c分别表示该回归框的中心点的横坐标和纵坐标,w为回归框的宽度,h为回归框的高度;
定义bboxg=[x_cg,y_cg,wg,hg]和bbox=[x_c,y_c,w,h]两者之间的偏移量Δbbox=[Δx_c,Δy_c,Δw,Δh],公式如下,
Δx_c=(x_cg-x_c)/Wi
Δy_c=(y_cg-y_c)/Hi
Δw=(wg-w)/Wi
Δh=(hg-h)/Hi
其中,bboxg=[x_cg,y_cg,wg,hg]为源对象真实的回归框,由人工标注得到;
将所有源对象回归框偏移量进行聚类,设定聚类数为9,得到源对象聚类回归框的集合ΔBbox={[Δx_c1,Δy_c1,Δw1,Δh1],...,[Δx_c9,Δy_c9,Δw9,Δh9]},Δx_cii,Δy_cii分别表示第ii个聚类回归框与真实回归框之间横坐标和纵坐标的偏移量,Δwii,Δhii分别表示第ii个聚类回归框与真实回归框之间宽度和高度的偏移量;1≤ii≤9,ii表示聚类中心点的个数,增加的9个源对象聚类回归框能够很好的保证生成网络最后输出图像信息的准确性和多样性,有利于后续2D姿态更加准确的生成;
然后根据如下公式生成对应ii个区域的源对象聚类回归框bboxii=[x_cii,y_cii,wii,hii]:
x_cii=x_c+Δx_ci×Wi
y_cii=y_c+Δy_ci×Hi
wii=w+Δwi×Wi
hii=h+Δhi×Hi
使用opencv提取源对象回归框bbox=[x_c,y_c,w,h]的图像信息regionbbox和源对象聚类回归框bboxii=[x_cii,y_cii,wii,hii]的图像信息将其缩放到512×512大小,均作为生成网络的输入。
定义生成网络特征矩阵集合为Feature_gen=[F1(x1,y1;C1),...,Fi′(xi′,yi′;Ci′),...,FN-1(xN-1,yN-1;CN-1)],0≤xi′≤Wi′-1,Wi′为i′层特征矩阵宽度信息,0≤yi′≤Hi′-1,Hi′为i′层特征矩阵长度信息,xi′和yi′分别表示生成网络第i′层特征层的点的横坐标和纵坐标,Ci′为i′层特征层的通道数,1≤i′≤N-1,N-1表示生成网络特征层的标号,则求得FN(xN,yN;CN)的公式如下:
F1(x1,y1;C1)=ω1(kw1,kh1,kn1)regionbbox+b1(kn1)Fi′(xi′,yi′;Ci′)=ωi′(kwi′,khi′,kni′)Fi′-1(xi′-1,yi′-1;Ci′-1)+bi′(kni′),i′>1
FN(xN,yN;CN)=ωN(kwN,khN,knN)FN-1(xN-1,yN-1;CN-1)+bN(knN)
同理,0≤xi′-1≤Wi′-1-1,Wi′-1为i′-1层特征层宽度信息,0≤yi′-1≤Hi′-1-1,Hi′-1为i′-1层特征层长度信息,xi′-1和yi′-1分别表示生成网络i′-1层特征层点的横坐标和纵坐标,Ci′-1为i′-1层特征层的通道数,ωi′(kwi′,khi′,kni′)为权重矩阵,其中,khi′,kwi′,kni′分别为第i′特征层权重矩阵的行数,列数和数量,bi′(kni′)为i′层偏移矩阵。
最后输出10个修正后回归框的图像信息FN(xN,yN;CN),N表示生成网络最后输出的图像信息的标号,0≤xN≤WN-1,0≤yN≤HN-1,WN和HN分别表示生成网络输出图像信息的宽度和高度,xN和yN分别表示输出图像信息点的横坐标和纵坐标位置,CN表示输出图像信息的通道数。
(2)利用对抗网络将输出的10个修正后回归框的图像信息与人工标注的真实的回归框的图像信息分别进行比较,输出误差值,选择其中误差值最小的一个图像信息的回归框作为源对象修正回归框,具体如下:
首先,将人工标注的源对象真实回归框bboxg=[x_cg,y_cg,wg,hg]的图像信息缩放到512×512大小,和生成网络输出修正后回归框的图像信息FN(xN,yN;CN)bbox和两者同时作为对抗网络的输入,并分别输出regionbbox与以及与的误差值MSEloss和(MSEloss)ii,并将误差值分别与thresh比较,一般,thresh>0.75,生成网络输出的修正图像信息FN(xN,yN;CN)的真伪状态定义为state,其中,
步骤二,提取视频中每帧图像的源对象修正回归框的2D姿态;
根据论文Deep High-Resolution Representation Learning for VisualRecognition[J],Jingdong Wang,etc.,CVPR2019,阐述的2D关节点生成方法,里面提到的并行多分辨率卷积的原理,将源对象修正回归框作为deephighresolution net网络的输入,输出源对象修正回归框的2D关节点信息:
其中,(xi,k,yi,k)代表图像Ii中源对象修正回归框第k个2D关节点在图像中的坐标。
人体关节点模型如图2所示,视频Ig中所有帧源对象的修正回归框2D关节点集合定义为Jg2D={J1,J2,...,Ji,...Ja},1≤i≤a。
步骤三,根据2D姿态获取SMPL模板模型,并根据自动化阈值分割原理得到定制形象的轮廓掩膜;
获取如图3所示的SMPL模板模型的具体方法如下:
根据论文VIBE:Video Inference for Human Body Pose and Shape Estimation[J].Muhammed Kocabas,etc.,CVPR2020,中描述的VIBE(人体姿态与形态估计的视频推断)网络的原理,将源对象修正回归框的2D关节点作为人体姿态和形状估计的视频推断网络的输入,获取定制形象的SMPL模板模型SSMPL,以及模板标准图NSMPL、模板蒙皮图WSMPL和模板深度图ZSMPL。
根据自动阈值分割方法得到定制形象轮廓掩膜Smask(xm,ym)为:
其中,(xm,ym)为定制形象背景图Ib的坐标,且满足0≤xm≤Wm-1,0≤ym≤Hm-1,Wm和Hm分别为背景图Ib的宽度和高度。
步骤四,根据定制形象的轮廓掩膜将SMPL模板模型进行重构整合,最终生成如图4所示的定制形象的2D运动视频。
以如图5所示的定制形象轮廓掩膜为模板,将SMPL模板模型进行重构整合,获取定制形象的法向图、标准图、轮廓图和蒙皮图,具体如下:
Nobj(xm,ym)=NSMPL(f(xm,ym)),
Wobj(xm,ym)=WSPML(f(xm,ym)),
其中,Intergrate表示根据法向图和标准图整合的过程,f(xm,ym)求解公式为:
其中,p(xm′,ym′)表示定制形象轮廓掩膜Smask(xm,ym)上的点,(xm′,ym′)为点的坐标值,ME为定制形象轮廓上点的数量,λm′(xm,ym)表示点(xm,ym)关于p(xm′,ym′)的中值坐标,即λm′(xm,ym)=((xm+xm′)/2,(ym+ym′)/2),表示已知的SMPL模板模型轮廓上的点。φ[m′]为从SMPL模板模型轮廓到定制形象轮廓的映射变换,满足公式:
其中,Kn=48用于映射φ的动态规划。
根据最终估算出的定制形象的轮廓图Zobj和蒙皮图Wobj,即可得到定制形象基于轮廓掩膜Smask(xm,ym)与如图6所示的源对象动作一一对应的2D运动,从而生成该视频图像下的卡通定制形象2D运动视频,如图7所示。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (5)
1.一种基于人体动作迁移的卡通定制形象运动视频生成方法,其特征在于,包括如下步骤:
步骤一,检测视频中每帧图像的源对象回归框,并通过对抗生成网络修正源对象回归框,得到源对象修正回归框;
步骤二,提取视频中每帧图像的源对象修正回归框的2D姿态;
步骤三,根据2D姿态获取SMPL模板模型,并根据自动化阈值分割原理得到定制形象的轮廓掩膜;
步骤四,根据定制形象的轮廓掩膜将SMPL模板模型进行重构整合,最终生成定制形象的2D运动视频。
2.根据权利要求1所述的一种基于人体动作迁移的卡通定制形象运动视频生成方法,其特征在于,步骤一的具体方法如下:
(1)根据行人识别技术获取视频中每帧图像的源对象回归框,然后将源对象回归框的图像信息以及根据聚类算法得到的9个聚类图像信息作为生成网络的输入,输出10个修正后回归框的图像信息;
(2)利用对抗网络将输出的10个修正后回归框的图像信息与人工标注的真实的回归框的图像信息分别进行比较,输出误差值,选择其中误差值最小的一个图像信息的回归框作为源对象修正回归框。
3.根据权利要求1所述的一种基于人体动作迁移的卡通定制形象运动视频生成方法,其特征在于,步骤二的具体方法如下:
根据并行多分辨率卷积的原理,将源对象修正回归框作为deephighresolution net网络的输入,输出源对象修正回归框的2D关节点信息。
4.根据权利要求1所述的一种基于人体动作迁移的卡通定制形象运动视频生成方法,其特征在于,步骤三中获取SMPL模板模型的具体方法如下:
根据人体姿态和形状估计的视频推断网络的原理,将源对象修正回归框的2D关节点作为人体姿态和形状估计的视频推断网络的输入,获取定制形象的SMPL模板模型,以及模板标准图、模板蒙皮图和模板深度图。
5.根据权利要求1所述的一种基于人体动作迁移的卡通定制形象运动视频生成方法,其特征在于,步骤四的具体方法如下:
以定制形象轮廓掩膜为模板,将SMPL模板模型进行重构整合,获取定制形象的法向图、标准图、轮廓图和蒙皮图,根据最终估算出的定制形象的轮廓图和蒙皮图,即可得到定制形象基于轮廓掩膜与源对象动作一一对应的2D运动,从而生成该视频图像下的卡通定制形象2D运动视频。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010361432.0A CN111611997B (zh) | 2020-04-30 | 2020-04-30 | 一种基于人体动作迁移的卡通定制形象运动视频生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010361432.0A CN111611997B (zh) | 2020-04-30 | 2020-04-30 | 一种基于人体动作迁移的卡通定制形象运动视频生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111611997A true CN111611997A (zh) | 2020-09-01 |
CN111611997B CN111611997B (zh) | 2023-04-18 |
Family
ID=72198095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010361432.0A Active CN111611997B (zh) | 2020-04-30 | 2020-04-30 | 一种基于人体动作迁移的卡通定制形象运动视频生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111611997B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112487974A (zh) * | 2020-11-30 | 2021-03-12 | 叠境数字科技(上海)有限公司 | 视频流多人分割方法、系统、芯片及介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110148875A1 (en) * | 2009-12-18 | 2011-06-23 | Electronics And Telecommunications Research Institute | Method and apparatus for capturing motion of dynamic object |
US20110267344A1 (en) * | 2010-04-30 | 2011-11-03 | Liberovision Ag | Method for estimating a pose of an articulated object model |
JP2012073852A (ja) * | 2010-09-29 | 2012-04-12 | Kddi Corp | 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム |
EP2843621A1 (en) * | 2013-08-26 | 2015-03-04 | Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. | Human pose calculation from optical flow data |
US20150262066A1 (en) * | 2014-03-17 | 2015-09-17 | Huawei Technologies Co., Ltd. | Digital Human Generation Method and System |
CN108022278A (zh) * | 2017-12-29 | 2018-05-11 | 清华大学 | 基于视频中运动跟踪的人物动画绘制方法及系统 |
CN108053469A (zh) * | 2017-12-26 | 2018-05-18 | 清华大学 | 多视角相机下的复杂动态场景人体三维重建方法及装置 |
CN110033505A (zh) * | 2019-04-16 | 2019-07-19 | 西安电子科技大学 | 一种基于深度学习的人体动作捕捉与虚拟动画生成方法 |
WO2019142787A1 (ja) * | 2018-01-16 | 2019-07-25 | Necソリューションイノベータ株式会社 | 人体部位推定装置、人体部位推定方法、及びコンピュータ読み取り可能な記録媒体 |
CN110390308A (zh) * | 2019-07-26 | 2019-10-29 | 华侨大学 | 一种基于时空对抗生成网络的视频行为识别方法 |
CN110415336A (zh) * | 2019-07-12 | 2019-11-05 | 清华大学 | 高精度人体体态重建方法及系统 |
CN110868598A (zh) * | 2019-10-17 | 2020-03-06 | 上海交通大学 | 基于对抗生成网络的视频内容替换方法及系统 |
CN111060924A (zh) * | 2019-12-02 | 2020-04-24 | 北京交通大学 | 一种slam与目标跟踪方法 |
-
2020
- 2020-04-30 CN CN202010361432.0A patent/CN111611997B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110148875A1 (en) * | 2009-12-18 | 2011-06-23 | Electronics And Telecommunications Research Institute | Method and apparatus for capturing motion of dynamic object |
US20110267344A1 (en) * | 2010-04-30 | 2011-11-03 | Liberovision Ag | Method for estimating a pose of an articulated object model |
JP2012073852A (ja) * | 2010-09-29 | 2012-04-12 | Kddi Corp | 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム |
EP2843621A1 (en) * | 2013-08-26 | 2015-03-04 | Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. | Human pose calculation from optical flow data |
US20150262066A1 (en) * | 2014-03-17 | 2015-09-17 | Huawei Technologies Co., Ltd. | Digital Human Generation Method and System |
CN108053469A (zh) * | 2017-12-26 | 2018-05-18 | 清华大学 | 多视角相机下的复杂动态场景人体三维重建方法及装置 |
CN108022278A (zh) * | 2017-12-29 | 2018-05-11 | 清华大学 | 基于视频中运动跟踪的人物动画绘制方法及系统 |
WO2019142787A1 (ja) * | 2018-01-16 | 2019-07-25 | Necソリューションイノベータ株式会社 | 人体部位推定装置、人体部位推定方法、及びコンピュータ読み取り可能な記録媒体 |
CN110033505A (zh) * | 2019-04-16 | 2019-07-19 | 西安电子科技大学 | 一种基于深度学习的人体动作捕捉与虚拟动画生成方法 |
CN110415336A (zh) * | 2019-07-12 | 2019-11-05 | 清华大学 | 高精度人体体态重建方法及系统 |
CN110390308A (zh) * | 2019-07-26 | 2019-10-29 | 华侨大学 | 一种基于时空对抗生成网络的视频行为识别方法 |
CN110868598A (zh) * | 2019-10-17 | 2020-03-06 | 上海交通大学 | 基于对抗生成网络的视频内容替换方法及系统 |
CN111060924A (zh) * | 2019-12-02 | 2020-04-24 | 北京交通大学 | 一种slam与目标跟踪方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112487974A (zh) * | 2020-11-30 | 2021-03-12 | 叠境数字科技(上海)有限公司 | 视频流多人分割方法、系统、芯片及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111611997B (zh) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112887698B (zh) | 基于神经辐射场的高质量人脸语音驱动方法 | |
CN110310285B (zh) | 一种精确的基于三维人体重建的烧伤面积计算方法 | |
CN112766160A (zh) | 基于多级属性编码器和注意力机制的人脸替换方法 | |
CN111950477B (zh) | 一种基于视频监督的单图像三维人脸重建方法 | |
US20170278302A1 (en) | Method and device for registering an image to a model | |
CN112734890B (zh) | 基于三维重建的人脸替换方法及装置 | |
WO2021063271A1 (zh) | 人体模型重建方法、重建系统及存储介质 | |
CN113421328B (zh) | 一种三维人体虚拟化重建方法及装置 | |
CN109670401B (zh) | 一种基于骨骼运动图的动作识别方法 | |
CN115951784B (zh) | 一种基于双神经辐射场的穿衣人体运动捕捉和生成方法 | |
CN114842136A (zh) | 一种基于可微分渲染器的单图三维人脸重建方法 | |
CN113927597A (zh) | 基于深度学习的机器人连接件六自由度位姿估计系统 | |
CN111462274A (zh) | 一种基于smpl模型的人体图像合成方法及系统 | |
Ye et al. | 3d morphable face model for face animation | |
CN113378812A (zh) | 一种基于Mask R-CNN和CRNN的数字表盘识别方法 | |
CN111640172A (zh) | 一种基于生成对抗网络的姿态迁移方法 | |
CN113065506B (zh) | 一种人体姿态识别方法及系统 | |
CN111611997B (zh) | 一种基于人体动作迁移的卡通定制形象运动视频生成方法 | |
CN114283265A (zh) | 一种基于3d旋转建模的无监督人脸转正方法 | |
CN113255487A (zh) | 一种三维实时人体姿态识别方法 | |
CN117333604A (zh) | 一种基于语义感知神经辐射场的人物面部重演方法 | |
CN111047513B (zh) | 一种用于柱面全景拼接的鲁棒性图像对齐方法及装置 | |
CN115761801A (zh) | 一种基于视频时序信息的三维人体姿态迁移方法 | |
CN113920270A (zh) | 一种基于多视角全景的布局重建方法及其系统 | |
CN110309554B (zh) | 基于服装建模与仿真的视频人体三维重建方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |