CN112819951A - 一种基于深度图修复的带遮挡三维人体重建方法 - Google Patents
一种基于深度图修复的带遮挡三维人体重建方法 Download PDFInfo
- Publication number
- CN112819951A CN112819951A CN202110186682.XA CN202110186682A CN112819951A CN 112819951 A CN112819951 A CN 112819951A CN 202110186682 A CN202110186682 A CN 202110186682A CN 112819951 A CN112819951 A CN 112819951A
- Authority
- CN
- China
- Prior art keywords
- human body
- image
- dimensional
- network
- original image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000005457 optimization Methods 0.000 claims abstract description 20
- 238000010276 construction Methods 0.000 claims abstract description 11
- 238000006073 displacement reaction Methods 0.000 claims description 27
- 239000013598 vector Substances 0.000 claims description 26
- 238000012549 training Methods 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 4
- 230000037237 body shape Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims 4
- 230000003042 antagnostic effect Effects 0.000 claims 1
- 238000011176 pooling Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000010985 leather Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000005477 standard model Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/564—Depth or shape recovery from multiple images from contours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于深度图修复的带遮挡三维人体重建方法,用于解决由单张包含遮挡物的RGB人体图像恢复三维人体模型姿态、体型、表面细节的问题。包括基础模型构建阶段,通过现有SMPL模型构建方法构建基础三维人体模型;体型姿态优化阶段,通过Joint编码器网络,优化三维人体关节点位置,通过Anchor编码器网络,优化三维人体体型特征;表面细节优化阶段,提出了DHDNet网络结构,通过重建完整人体深度图像,恢复三维人体表面细节。同时,本发明构建了包含大量人体RGB图像与合成人体深度图像的DepthHuman数据集。达到了仅通过单张包含遮挡物的RGB人体图像重建完整并且包含丰富细节的三维人体模型的效果。
Description
技术领域:
本发明涉及计算机图像处理领域、计算机图形学领域,具体涉及一种基于深度图修复的带遮挡单视图三维人体重建方法。
背景技术:
近年来,单目相机的三维人体重建技术是一个十分热门的话题,这项技术在VR/AR领域有着广泛的应用场景,例如VR换装,VR聊天室等。同时,在影视制作、游戏研发领域也有巨大的应用前景。现有的单视图三维人体重建技术存在重建模型缺乏细节,受遮挡区域人体表面纹理信息完全丢失的问题。这导致无法通过一张部分人体受到遮挡的输入图像,重建出完整的包含丰富细节的三维人体模型。实际应用场景中,受遮挡的人体图像是十分常见的,现有方法无法满足应用需求。
目前,单视图三维人体重建工作已经取得了一些进展,主要分为如下两类:基于模板适应的方法和基于特征匹配的方法。基于模板适应的方法依赖于预先训练好的参数化人体模型,例如SMPL(skinned multi-person linear model)模型和SCAPE模型。Bogo等人提出的SMPLify使用卷积神经网络以及三维空间人体关节点信息最小化二维空间人体关节点的误差距离。Kanazawa等人提出了一个端到端系统HMR(Human Mesh Recovery),HMR仅通过二维标注就可以通过一个对抗损失函数有效地控制住重建人体模型的姿态。以HMR为基础,Zhu等人对基础模型进行三阶段的形变操作,使其拥有更多衣服细节,更准确的体型和姿态。Alldieck等人通过UV贴图将人体表面细节展开到二维图像上。从而在UV空间进行法线贴图和顶点位移量的回归,取代在三维网格空间上进行这些操作。基于特征匹配的方法直接从单个RGB图像回归三维拓扑结构,而非从一个标准的人体模型上优化而来。典型的方法有DoubleFusion以及HybridFusion,这两种方法使用单目深度传感器实时捕捉人体运动信息,后者添加了稀疏的IMUs(inertial measurement units)作为辅助手段。DeepHuman通过体特征转换技术将图像信息融入三维模型中,然后使用一个法线细化网络优化模型表面的细节。
综上,现有的单视图三维人体重建方法所得到的模型大部分缺少表面细节,并且现有方法没有考虑输入图像中存在遮挡物的情况,而存在遮挡物在实际应用场景中是十分常见的。
发明内容
本发明的目的是克服上述现有技术的缺点,提供一种质量高的单视图三维人体重建方法,该方法以单张包含遮挡物的RBG图像作为输入,输出包含丰富细节的完整三维人体模型。
本发明的单视图三维人体重建方法,采用从粗糙到细致分阶段优化的策略,构建了一个完整的端到端系统。首先通过现有的基于SMPL模型的方法获取一个低质量的标准三维人体模型,然后根据从输入图像中提取的特征信息分阶段选取人体“关节点”、均匀分布在人体模型上的若干“锚点”以及四倍细分下三维空间内的“所有点”进行形变,从而获得高质量的重建结果。端到端系统的流程图见图1,对于三阶段操作点的定义见图6,上述方法的步骤如下:
包括基础模型构建阶段、体型姿态优化阶段、以及表面细节优化阶段:
所述的基础模型构建阶段,用于获得待重构原始图像的基础三维人体模型,具体如下:
步骤一:使用SMPL模型构建方法,输入单张待重构原始图像,得到待重构原始图像的基础三维人体模型,所述基础三维人体模型包括人体基础关节点、人体基础锚点和所有点;所述的待重构图像为受遮挡的RGB图像;
所述的体型姿态优化阶段,用于优化基础三维人体模型,具体如下:
步骤二:使用两个编码器网络分别获取关节点位移向量和锚点位移向量,所述的两个编码器网络即Joint编码器网络和Anchor编码器网络,
其中,Joint编码器网络用于提取原始图像中的人体姿态特征,即输出关节点位移向量,其输入为原始图像和人体轮廓信息,具体的,人体轮廓信息由上一步得到的三维人体模型投影所得,使用人体轮廓信息对原始图像进行剪裁,将原始图像中人体轮廓之外的颜色信息剔除,得到输入数据;
Anchor编码器网络用于提取原始图像中的人体体型特征,即输出为锚点位移向量,其输入与Joint编码器网络的输入相同;
步骤三:利用关节点位移向量移动基础关节点,得到优化后的关节点;同理,利用锚点位移向量移动基础锚点,得到优化后的锚点,完成体型姿态优化;
表面细节优化阶段,用于得到包含丰富表面细节的三维人体模型,具体如下:
步骤四:构建并训练DHDNet网络,DHDNet网络用于从包含遮挡物的RGB图像生成完整的人体深度信息;
步骤五:使用训练好的DHDNet,输入待重构原始图像,输出完整的人体深度信息;
步骤六:利用步骤五得到的人体深度信息,对优化后的基础三维人体模型的所有点进行形变,最终得到包含丰富表面细节的三维人体模型。
有益效果
与现有技术相比,本发明通过使用DHDNet建立了受遮挡的RGB图像到完整深度信息的映射关系。DHDNet可以较好的预测出受遮挡区域的深度信息,融入到完整的端到端系统后,可以得到完整且包含丰富细节的三维人体模型。现有方法在输入图像包含遮挡物时,一些方法能做到保证人体模型的完整性,但是往往表面缺乏细节;另一些方法虽然处理理想化输入图像时可以获得包含丰富细节的三维人体模型,但是在有遮挡物的前提下重建结果会出现严重的截断或者凹陷。本方法在此非理想条件下的重建结果是有显著性提升的。
附图说明:
图1受遮挡RGB图像到三维人体模型的端到端系统框架图
图2DHDNet的生成器部分网络结构图
图3DepthHuman数据集
图4与现有方法的主观比对结果
图5与现有方法的量化比对结果
图6三阶段操作点定义,其中,从左至右依次为:“关节点”,“锚点”以及“所有点”
具体实施方式:
为了能够更清楚地描述本发明的技术内容,下面结合具体实例来进一步的描述:
本发明的端到端系统框架图如图1所示,可以看到具体实施过程可以分为三个阶段,基础模型构建阶段,体型姿态优化阶段以及最终的表面细节优化阶段。
一、基础模型构建阶段
对应前文步骤一,使用HMR提供的预训练模型,输入原始图像可以得到体型、姿态大致准确,表面缺乏细节的标准模型。
步骤一的具体操作:HMR是构建SMPL模型的一种现有具体方法,使用HMR的预训练模型构建基础三维人体模型。HMR工作原理如下:首先,输入的RGB图像I经过编码器网络和三维回归模块生成构建SMPL模型所需要的体型参数β、姿态参数θ以及相机参数s,R,T。得到SMPL模型后,三维网格会被送入判别器网络与真实三维模型进行比对,由判别器输出True/False。训练网络模型的损失函数如下:
编码器网络的对抗损失函数如下:
每个辨别器的目标函数如下:
本发明分三阶段选取三维人体模型上的点作为操作点对人体模型进行形变,操作点定义如图6所示,“关节点”为人体模型关节周围的点集合,“锚点”为均匀分布在人体模型上的若干点,“所有点”为对人体模型进行四倍划分后的所有点。该操作点定义参考HMD(HaoZhu,Xinxin Zuo,Sen Wang,Xun Cao,and Ruigang Yang,“Detailed Human ShapeEstimation from a Single Image by Hierarchical Mesh Deformation,”CVPR,2019.)中的方法。
所述的体型姿态优化阶段,用于优化基础三维人体模型,
步骤二的具体操作:为了得到“关节点”和“锚点”级别的形变向量,本发明构建了Joint和Anchor两个编码器神经网络。Joint和Anchor两个编码器神经网络采用简单的编码器网络即可,两个网络的输入相同,其输入为原始图像和人体轮廓信息,具体的,人体轮廓信息由上一步得到的三维人体模型投影所得,使用人体轮廓信息对原始图像进行剪裁,将原始图像中人体轮廓之外的颜色信息剔除,得到输入数据;Joint编码器网络输出关节点位移向量,Anchor编码器网络输出锚点位移向量。
步骤三的具体操作:利用关节点位移向量移动基础关节点,得到优化后的关节点;同理,利用锚点位移向量移动基础锚点,得到优化后的锚点,完成体型姿态优化;在使用关节点位移向量和锚点位移向量形变三维人体模型时,本实施例中采用了拉普拉斯形变(Laplace Deformation)的方法。
编码器神经网络的损失函数如下:
其中的p表示由编码器神经网络输出的图像空间中的关键点位移向量,表示真实位移向量,真实位移向量由基础三维人体模型投影到图像空间得到的关键点位置与数据集中相对应的真实关键点位置计算得到,其中关键点包括关节点和锚点。
表面细节优化阶段
步骤四的具体操作:通过搜集网络上的公开数据集,包括LSP数据集(LeedsSports Pose)、LSPET数据集(LSP的补充数据集)、COCO数据集(Common Objects inContext),本发明构建了DepthHuman数据集。其中包含超过18000张标记了2d关节点位置的人体图像。同时,本发明采用现有的深度估计算法,合成了每张RGB图像对应的深度信息,作为真实深度信息的替代;以及包括原始图像对应的人体深度信息,DepthHuman数据集的详细信息如图3所示。
DHDNet采用对抗神经网络结构,由生成器与辨别器两部分组成,其中生成器部分网络结构如图2所示,其中生成器部分网络结构以经典的U-Net网络结构为基础,输入为RGB三通道原始图像加一维的遮罩层,输出为一维的深度信息,值得一提的是本发明引入了Shift-Net的方法,在神经网络的第四层引入了Shift-Layer,从而更好的得到完整深度信息。训练DHDNet使用的损失函数如下:
Lfinal=Ldepth+λganLgan+λphotoLphoto+λcLc+λsLs (6)
其中,λgan,λphoto,λc,λs为对应损失函数的权重。Ldepth为MSE损失函数。Lgan表达式如下:
其中G和D表示GAN中的生成器和辨别器,X表示Ground Truth图像集,即训练数据集中原始图像对应的人体深度信息做为真实人体深度图,Z表示输入图像集,即训练数据集中原始图像,输入图像为RGB三通道原始图像加一维的遮罩层。
Lphoto表示光度损失函数,在朗伯表面的假设前提下,DHDNet使用球谐函数作为全局光照的表现方法,其中ρ在(Sean Bell,Kavita Bala,and Noah Snavely,“Intrinsicimages in the wild”ACM Transactions on Graphics vol.33,no.4,pp.159,2014.)中有详细计算过程。Hk表示球谐函数的基,lk表示球谐函数系数。
为了恢复高频细节,DHDNet在输出的深度信息以及真实深度信息上使用了VGG特征提取器网络,并使用Lc和Ls两个损失函数进行监督。其中,Lc表示内容损失函数:
其中,p和x分别代表由DHDNet输出的生成图像和depthhuman数据集中的真实人体深度图像,Pl表示DHDNet输出的生成图像经过VGG特征提取器网络第l层的特征信息,Fl表示真实人体深度图像经过VGG特征提取器网络第l层的特征信息,i和j代表像素坐标。
Ls表示风格损失函数:
其中,a表示由DHDNet输出的生成图像,x表示depthhuman数据集中的真实人体深度图像,wl表示VGG网络各层贡献度的权重,Gram表示Gram矩阵,使用Gram矩阵计算表达图像特征之间的相关性。i和j代表像素坐标,Nl表示VGG网络第l层特征的通道宽度,Ml表示VGG网络第l层特征的通道高度。
步骤五、使用步骤二中优化得到的三维人体模型投影出人体轮廓信息,利用得到的人体轮廓信息对待重构原始图像进行剪裁,将裁剪后的待重构原始图像中人体轮廓之外的颜色信息剔除,之后将待重构原始图像输入训练好的DHDNet,得到完整的人体深度信息。
步骤六、此步骤为常规操作,具体为:对现阶段SMPL模型进行四倍划分,得到四倍顶点数量的精细模型。深度信息可以简单转换为对模型上三维空间点的位移操作。在经过这个阶段的形变之后,可以得到包含丰富衣服褶皱,发型纹理等表面细节。
重建质量评价:
现在分别对SYN,RECON数据集采用本发明提供的方法与当前主流的几种算法进行比较评价。这些算法分别是HMR(Angjoo Kanazawa,Michael J.Black,David W.Jacobs,andJitendra Malik,“End-to-End Recovery of Human Shape and Pose,”CVPR,pp.7122–7131,2018.),HMD(Hao Zhu,Xinxin Zuo,Sen Wang,Xun Cao,and Ruigang Yang,“Detailed Human Shape Estimation from a Single Image by Hierarchical MeshDeformation,”CVPR,2019.),SMPLify(Federica Bogo,Angjoo Kanazawa,ChristophLassner,Peter Gehler,Javier Romero,and Michael J.Black,“Keep it SMPL:Automatic estimation of 3D human pose and shape from a single image,”inEuropean Conference on Computer Vision,2016,vol.9909LNCS,pp.561–578.),BodyNet(Varol,Gul,et al."Bodynet:Volumetric inference of 3d human body shapes."Proceedings of the European Conference on Computer Vision(ECCV).2018.)。
本发明的算法与现有方法的量化对比结果如图5所示。重建模型点坐标与真实模型点坐标间的误差是衡量三维重建结果的客观标准,这个值越小说明重建质量越好:
Claims (5)
1.一种基于深度图修复的带遮挡三维人体重建方法,用于对有遮挡的RGB图像进行三维重构,其特征在于包括基础模型构建阶段、体型姿态优化阶段、以及表面细节优化阶段:
所述的基础模型构建阶段,用于获得待重构原始图像的基础三维人体模型,具体如下:
步骤一:使用SMPL模型构建方法,输入单张待重构原始图像,得到待重构原始图像的基础三维人体模型,所述基础三维人体模型包括人体基础关节点、人体基础锚点和所有点;所述的待重构图像为受遮挡的RGB图像;
所述的体型姿态优化阶段,用于优化基础三维人体模型,具体如下:
步骤二:使用两个编码器网络分别获取关节点位移向量和锚点位移向量,所述的两个编码器网络即Joint编码器网络和Anchor编码器网络,
其中,Joint编码器网络用于提取原始图像中的人体姿态特征,即输出关节点位移向量,其输入为原始图像和人体轮廓信息,具体的,人体轮廓信息由上一步得到的三维人体模型投影所得,使用人体轮廓信息对原始图像进行剪裁,将原始图像中人体轮廓之外的颜色信息剔除,得到输入数据;
Anchor编码器网络用于提取原始图像中的人体体型特征,即输出为锚点位移向量,其输入与Joint编码器网络的输入相同;
步骤三:利用关节点位移向量移动基础关节点,得到优化后的关节点;同理,利用锚点位移向量移动基础锚点,得到优化后的锚点,完成体型姿态优化;
表面细节优化阶段,用于得到包含丰富表面细节的三维人体模型,具体如下:
步骤四:构建并训练DHDNet网络,DHDNet网络用于从包含遮挡物的RGB图像生成完整的人体深度信息;
步骤五:利用步骤二得到的人体轮廓信息对待重构原始图像进行剪裁,将裁剪后的图像输入训练好的DHDNet,输出完整的人体深度信息;
步骤六:利用步骤五得到的人体深度信息,对优化后的基础三维人体模型的所有点进行形变,最终得到包含丰富表面细节的三维人体模型。
2.根据权利要求1所述的一种基于深度图修复的带遮挡三维人体重建方法,其特征在于:DHDNet中的生成器网络结构以U-Net网络结构为基础,输入为RGB三通道原始图像加一维的遮罩层,输出为一维的深度信息,中间经历了五次由卷积操作和池化操作组成的下采样操作,然后五次由反卷积操作组成的上采样操作,每次上采样会合并下采样路径中同层的特征图,且在神经网络的第四层引入了Shift-Layer,用于更好的得到完整深度信息。
3.根据权利要求1所述的一种基于深度图修复的带遮挡三维人体重建方法,其特征在于:步骤四进一步包括:
(4.1)构建训练数据集,包括标记了2d关节点位置的原始图像,原始图像对应的人体轮廓信息,以及原始图像对应的人体深度信息,其中,原始图像的中心区域有四分之一图像边长的正方形遮罩用来模拟图像中的遮挡物;
(4.2)构建DHDNet网络,DHDNet采用对抗神经网络结构,由生成器与辨别器两部分组成;
(4.3)利用训练数据集训练DHDNet网络。
4.根据权利要求1所述的一种基于深度图修复的带遮挡三维人体重建方法,其特征在于:DHDNet网络的损失函数如下:
Lfinal=Ldepth+λganLgan+λphotoLphoto+λcLc+λsLs (6)
其中,λgan,λphoto,λc,λs为对应损失函数的权重,Ldepth为MSE损失函数,Lgan表达式如下:
其中G和D表示GAN中的生成器和辨别器,X表示Ground Truth图像集,即训练数据集中原始图像对应的人体深度信息做为真实人体深度图,Z表示输入图像集,即训练数据集中原始图像,输入图像为RGB三通道原始图像加一维的遮罩层,
Lphoto表示光度损失函数,具体如下:
其中,Hk表示球谐函数的基,lk表示球谐函数系数,I表示输入RGB图像的单通道强度图。
5.根据权利要求3所述的一种基于深度图修复的带遮挡三维人体重建方法,其特征在于:为了恢复高频细节,DHDNet在输出的深度信息以及真实深度信息上使用了VGG特征提取器网络,并使用Lc和Ls两个损失函数进行监督,其中,Lc表示内容损失函数:
其中,p和x分别代表由DHDNet输出的生成图像和depthhuman数据集中的真实人体深度图像,Pl表示DHDNet输出的生成图像经过VGG特征提取器网络第l层的特征信息,Fl表示真实人体深度图像经过VGG特征提取器网络第l层的特征信息,i和j代表像素坐标;
Ls表示风格损失函数:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110186682.XA CN112819951A (zh) | 2021-02-09 | 2021-02-09 | 一种基于深度图修复的带遮挡三维人体重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110186682.XA CN112819951A (zh) | 2021-02-09 | 2021-02-09 | 一种基于深度图修复的带遮挡三维人体重建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112819951A true CN112819951A (zh) | 2021-05-18 |
Family
ID=75865475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110186682.XA Pending CN112819951A (zh) | 2021-02-09 | 2021-02-09 | 一种基于深度图修复的带遮挡三维人体重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112819951A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113610889A (zh) * | 2021-06-30 | 2021-11-05 | 奥比中光科技集团股份有限公司 | 一种人体三维模型获取方法、装置、智能终端及存储介质 |
CN113628342A (zh) * | 2021-09-18 | 2021-11-09 | 杭州电子科技大学 | 一种遮挡感知的三维人体姿态与形状重建方法 |
WO2023077755A1 (zh) * | 2021-11-03 | 2023-05-11 | 北京小米移动软件有限公司 | 行人信息确定方法、装置、车辆、电子设备及存储介质 |
CN116993926A (zh) * | 2023-09-26 | 2023-11-03 | 北京渲光科技有限公司 | 单视图人体三维重建方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339870A (zh) * | 2020-02-18 | 2020-06-26 | 东南大学 | 一种针对物体遮挡场景的人体形状和姿态估计方法 |
CN111739161A (zh) * | 2020-07-23 | 2020-10-02 | 之江实验室 | 一种有遮挡情况下的人体三维重建方法、装置及电子设备 |
CN111968217A (zh) * | 2020-05-18 | 2020-11-20 | 北京邮电大学 | 基于图片的smpl参数预测以及人体模型生成方法 |
-
2021
- 2021-02-09 CN CN202110186682.XA patent/CN112819951A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339870A (zh) * | 2020-02-18 | 2020-06-26 | 东南大学 | 一种针对物体遮挡场景的人体形状和姿态估计方法 |
CN111968217A (zh) * | 2020-05-18 | 2020-11-20 | 北京邮电大学 | 基于图片的smpl参数预测以及人体模型生成方法 |
CN111739161A (zh) * | 2020-07-23 | 2020-10-02 | 之江实验室 | 一种有遮挡情况下的人体三维重建方法、装置及电子设备 |
Non-Patent Citations (1)
Title |
---|
ZHANG TIANYI等: "《SEE THROUGH OCCLUSIONS: DETAILED HUMAN SHAPE ESTIMATION FROM A SINGLE IMAGE WITH OCCLUSIONS》", 《2020 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING》, pages 2646 - 2650 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113610889A (zh) * | 2021-06-30 | 2021-11-05 | 奥比中光科技集团股份有限公司 | 一种人体三维模型获取方法、装置、智能终端及存储介质 |
CN113610889B (zh) * | 2021-06-30 | 2024-01-16 | 奥比中光科技集团股份有限公司 | 一种人体三维模型获取方法、装置、智能终端及存储介质 |
CN113628342A (zh) * | 2021-09-18 | 2021-11-09 | 杭州电子科技大学 | 一种遮挡感知的三维人体姿态与形状重建方法 |
WO2023077755A1 (zh) * | 2021-11-03 | 2023-05-11 | 北京小米移动软件有限公司 | 行人信息确定方法、装置、车辆、电子设备及存储介质 |
CN116993926A (zh) * | 2023-09-26 | 2023-11-03 | 北京渲光科技有限公司 | 单视图人体三维重建方法 |
CN116993926B (zh) * | 2023-09-26 | 2024-01-16 | 北京渲光科技有限公司 | 单视图人体三维重建方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109255831B (zh) | 基于多任务学习的单视图人脸三维重建及纹理生成的方法 | |
CN111047548B (zh) | 姿态变换数据处理方法、装置、计算机设备和存储介质 | |
CN110223370B (zh) | 一种从单视点图片生成完整人体纹理贴图的方法 | |
CN112819951A (zh) | 一种基于深度图修复的带遮挡三维人体重建方法 | |
CN111275518A (zh) | 一种基于混合光流的视频虚拟试穿方法及装置 | |
CN113421328B (zh) | 一种三维人体虚拟化重建方法及装置 | |
CN113051420B (zh) | 一种基于文本生成视频机器人视觉人机交互方法及系统 | |
CN113344777B (zh) | 基于三维人脸分解的换脸与重演方法及装置 | |
CN113792641A (zh) | 一种结合多谱注意力机制的高分辨率轻量级的人体姿态估计方法 | |
CN115951784B (zh) | 一种基于双神经辐射场的穿衣人体运动捕捉和生成方法 | |
Li et al. | Detailed 3D human body reconstruction from multi-view images combining voxel super-resolution and learned implicit representation | |
CN111462274A (zh) | 一种基于smpl模型的人体图像合成方法及系统 | |
Kang et al. | Competitive learning of facial fitting and synthesis using uv energy | |
CN116134491A (zh) | 用于面部表情、身体姿态形态和衣服表演捕捉的使用隐式可微分渲染器的多视图神经人体预测 | |
CN115565039A (zh) | 基于自注意力机制的单目输入动态场景新视图合成方法 | |
CN117252892B (zh) | 基于轻量化视觉自注意力网络的双分支人像自动抠图装置 | |
CN116934972B (zh) | 一种基于双流网络的三维人体重建方法 | |
CN116152442B (zh) | 一种三维点云模型生成方法及装置 | |
CN110197226B (zh) | 一种无监督图像翻译方法及系统 | |
Yin et al. | Novel view synthesis for large-scale scene using adversarial loss | |
CN111311732A (zh) | 3d人体网格获取方法及装置 | |
CN114758205B (zh) | 用于3d人体姿态估计的多视角特征融合方法及系统 | |
CN115761801A (zh) | 一种基于视频时序信息的三维人体姿态迁移方法 | |
CN113808006B (zh) | 一种基于二维图像重建三维网格模型的方法及装置 | |
CN115393512A (zh) | 基于投影损失约束的单帧图像3d人体姿态估计及重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210518 |
|
WD01 | Invention patent application deemed withdrawn after publication |