CN113706670A - 生成动态三维人体网格模型序列的方法及装置 - Google Patents

生成动态三维人体网格模型序列的方法及装置 Download PDF

Info

Publication number
CN113706670A
CN113706670A CN202110941707.2A CN202110941707A CN113706670A CN 113706670 A CN113706670 A CN 113706670A CN 202110941707 A CN202110941707 A CN 202110941707A CN 113706670 A CN113706670 A CN 113706670A
Authority
CN
China
Prior art keywords
dimensional
sequence
human body
point cloud
mesh model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110941707.2A
Other languages
English (en)
Other versions
CN113706670B (zh
Inventor
付彦伟
姜柏言
张寅达
薛向阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN202110941707.2A priority Critical patent/CN113706670B/zh
Publication of CN113706670A publication Critical patent/CN113706670A/zh
Application granted granted Critical
Publication of CN113706670B publication Critical patent/CN113706670B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提供一种生成动态三维人体网格模型序列的方法及装置,用于对三维点云序列进行处理,得到该序列中每一帧点云对应的带有衣服和头发的三维人体网格模型,其特征在于,包括以下步骤:骤S1,对预先获取的包括多个三维人体模型序列的数据集进行预处理得到训练样本;步骤S2,构建三维点云编码器;步骤S3,通过PCA得到预训练的线性层;步骤S4,构建姿态优化网络;步骤S5,构建深度解码网络;步骤S6,构建人体细节重建网络;步骤S7,构建损失函数;步骤S8,基于损失函数对三维模型生成模型进行训练,步骤S9,将单个三维点云序列输入训练完成的三维模型生成模型得到所有时刻对应的带有衣服和头发的人体网格模型序列并输出。

Description

生成动态三维人体网格模型序列的方法及装置
技术领域
本发明属于三维计算机视觉领域,涉及一种生成动态三维人体网格模型序列的方法及装置。
背景技术
形状表示是三维计算机视觉,尤其是在深度学习时代的核心主题之一。最近,深度隐式表示在重建精确的表面细节方面显示出令人鼓舞的能力。但是,当前的深度隐式表示还无法重建较为精细的人体模型,并且我们人类生活在具有时间维度的四维世界中,如何重建四维人体,即随时间运动的人体,仍然是一个有待解决的问题。
当前许多针对人体运动的方法基于经典的SMPL人体参数化模型对运动的人体进行表示,但该表示对于每一帧模型都需要有一个对应的姿态编码,不够高效和紧凑,在进行网络传输或其他相关的应用时对网络带宽或是存储造成了更大的负担。
一些基于深度学习的三维重建算法可以比较直接地扩展到四维空间。例如,有一种点云生成模型可以从单张彩色图片重建物体表面的点云,针对该方法,可以将其扩展为预测多个三维点的轨迹而不是三维点的坐标,从而实现四维点云重建;或是使用神经网络来建模三维物体的隐式表面,通过在给定的体积内采样一些查询点,然后利用网络预测每个点位于物体内部的概率,最终通过表面提取算法得到三维网格模型。针对该方法,可以直接在四维空间中采样查询点,建模不同时刻所对应的表面。但是,上述方法都是在现有三维重建算法上的简单扩展,无法准确捕捉对象的运动信息。
另外有方法利用神经常微分方程构建速度场,对每个三维点在某一时刻的速度进行预测,然后使用常微分方程解决器求解三维点在每个时刻的位置。在推断时,先利用深度隐式表示重建第一帧的网格模型,然后,将该网格模型的每个点作为起点利用神经常微分方程直接对每个点的坐标进行变换,从而得到任意时刻对应的网格模型。但直接在三维空间对点进行变换,模型表达能力有限,导致重建对象的某些部分产生不合理的移动且缺少表面细节。
最近有方法提出一种四维的组合表示,将三维点云序列编码为初始姿态编码、身份编码以及运动编码,并且利用神经常微分方程在运动编码的指导下对初始姿态编码进行编码,最后利用深度解码网络重建所需时刻的三维人体模型。由于该方法基于深度隐式表示,除了人体以外还能够重建其他进行非刚性形变的对象,但另一方面,由于采用全局的编码来表示三维形状,导致重建的人体模型缺少手部以及脸部的细节,不适合需要逼真人体重建的应用场景。
发明内容
为解决上述问题,提供一种能生成逼真的动态三维人体网格模型序列的方法及装置,本发明采用了如下技术方案:
本发明提供了一种生成动态三维人体网格模型序列的方法,用于对输入的三维点云序列进行处理,得到该序列中每一帧点云对应的带有衣服和头发的三维人体网格模型,其特征在于,步骤S1,对预先获取的包括多个三维模型序列的数据集进行预处理得到训练样本,训练样本包含赤裸的人体网格模型序列与带有衣服和头发的人体网格模型序列,从带有衣服和头发的人体网格模型表面采样得到三维点云序列作为输入;步骤S2,构建具有四个分离的三维点云特征提取网络的三维点云编码器,基于三维点云编码器分别对三维点云序列提取初始姿态特征、全局几何特征、全局运动特征以及辅助特征,并分别表述为初始姿态编码、身份编码、运动编码以及辅助编码;步骤S3,通过PCA得到预训练的线性层,将初始姿态编码和运动编码作为输入,得到所有时刻的姿态编码;步骤S4,构建姿态优化网络,将运动编码以及辅助编码作为指导对所有时刻的姿态编码进行优化,得到更加准确的所有时刻的姿态编码;步骤S5,构建深度解码网络,将身份编码以及优化后的姿态编码作为输入,重建赤裸的人体网格模型;步骤S6,构建人体细节重建网络,将赤裸的人体网格模型和辅助编码作为输入,预测赤裸的人体网格模型每个顶点的偏移量,从而生成带有衣服和头发的人体网格模型序列;步骤S7,构建损失函数;步骤S8,基于损失函数对由三维点云编码器、姿态优化网络、深度解码网络以及人体细节重建网络组成的三维人体网格模型生成模型进行训练得到训练好的三维人体网格模型生成模型;步骤S9,将单个三维点云序列输入至三维人体网格模型生成模型,得到所有时刻对应的带有衣服和头发的人体网格模型序列并输出,其中,四个分离的三维点云特征提取网络分别为初始姿态特征提取网络、全局几何特征提取网络、全局运动特征提取网络以及辅助特征提取网络,初始姿态特征基于初始姿态特征提取网络得到,全局几何特征基于全局几何特征提取网络得到,全局运动特征基于全局运动特征提取网络得到,辅助特征基于辅助特征提取网络得到。
本发明提供的一种生成动态三维人体网格模型序列的方法,还可以具有这样的技术特征,其中,预处理包括以下步骤:步骤T1,通过SMPL解码器将数据集提供的SMPL形状参数和姿态参数解码为赤裸的三维人体网格模型;步骤T2,对数据集提供的带有衣服和头发的人体网格模型序列当中的每个模型表面进行采样得到输入的三维点云序列。
本发明提供的一种生成动态三维人体网格模型序列的方法,还可以具有这样的技术特征,其中,线性层预测所有时刻关于初始姿态编码的偏移量,所有时刻的姿态编码通过将偏移量与初始姿态编码相加得到。
本发明提供的一种生成动态三维人体网格模型序列的方法,还可以具有这样的技术特征,其中,姿态优化网络由条件门控循环单元组成,该优化为:将每一时刻的姿态编码与运动编码和辅助编码连接起来作为输入,基于线性层得到关于所有时刻的姿态编码的偏移量,将所有时刻的姿态编码的偏移量与所有时刻的姿态编码相加得到优化后的所有时刻的姿态编码。
本发明提供的一种生成动态三维人体网格模型序列的方法,还可以具有这样的技术特征,其中,深度解码网络通过将优化后的姿态编码以及身份编码作为输入,基于SMPL人体参数化模型得到对应的网格顶点坐标构建。
本发明提供的一种生成动态三维人体网格模型序列的方法,还可以具有这样的技术特征,其中,全局几何特征提取网络以及初始姿态提取网络均由五个级联的残差块组成,五个残差块中,前四个残差块包括两层全连接层、一个最大池化层以及一个扩展连接操作,最后一个残差块包括三层全连接层以及一个最大池化层,全局几何特征提取网络和初始姿态提取网络对三维点云序列的第一帧点云提取全局几何特征以及初始姿态特征,全局运动特征提取网络和辅助特征提取网络由一个浅层的点云特征提取网络以及门控循环单元组成,基于整个三维点云序列提取全局运动特征和辅助特征。
本发明提供的一种生成动态三维人体网格模型序列的方法,还可以具有这样的技术特征,其中,残差块的扩展连接操作为将最大池化层输出的特征复制N倍,再将复制后的特征与最大池化层的输入在特征维度进行连接,N为输入的三维点云序列的点数。
本发明提供的一种生成动态三维人体网格模型序列的方法,还可以具有这样的技术特征,其中,人体细节重建网络由条件门控循环单元组成,每个顶点的偏移量通过将辅助编码与赤裸的人体网格模型的所有顶点坐标的一维向量连接起来输入至人体细节重建网络进行预测,带有衣服和头发的人体网格模型序列基于所有顶点与每个顶点的偏移量相加得到。
本发明提供的一种生成动态三维人体网格模型序列的方法,还可以具有这样的技术特征,其中,损失函数为预测的网格顶点坐标与真实网格顶点坐标之间的L1损失函数。
本发明还提供一种生成动态三维人体网格模型序列的装置,其特征在于,包括:三维点云序列数据获取部,用于获取需要建模对象的三维点云序列数据;网格模型生成部,用于基于三维点云序列数据生成该序列当中每个时刻所对应的带有衣服和头发的三维人体网格模型;模型输出部,用于输出三维人体网格模型;以及控制部,用于控制三维点云序列数据获取部、网格模型生成部以及模型输出部实现相应的功能。
发明作用与效果
根据本发明的生成动态三维人体网格模型序列的方法及装置,首先基于三维点云序列生成带有衣服和头发的动态三维人体网格模型序列,在获取四维数据(时间维度上离散的点云序列)以后,由于使用了四个分离的三维点云特征提取网络,因此可以从整个序列中提取初始姿态编码,身份编码,运动编码以及辅助编码四部分特征来共同表示四维数据;然后由PCA预训练得到的线性层,将运动编码映射为每一时刻相对于初始姿态编码的偏移量从而得每一时刻的姿态编码。进一步,基于条件门控循环单元在运动编码和辅助编码的指导下,对每个时刻的姿态编码进行优化,得到更准确的姿态编码。另外,还由于身份编码与时间无关,将其与不同时刻的姿态编码进行连接以后输入深度解码网络得到重建的人体网格模型,使得不同时刻重建出的三维网格模型在几何形状上具有更好的一致性。最后,基于条件门控循环单元在辅助编码的指导下对每个网格顶点预测偏移量以重建衣服和头发。
本发明的生成动态三维人体网格模型序列的方法将初始姿态、身份以及运动三部分信息进行解耦,利用该组合表示方法对四维数据进行表示,因此能够实现三维运动迁移、四维时序补全、四维空间补全以及未来运动预测等新颖的任务。
附图说明
图1是本发明实施例中的生成动态三维人体网格模型序列的方法流程图;
图2是本发明实施例中的生成动态三维人体网格模型序列的方法的结构示意图;
图3是本发明实施例中的初始姿态特征提取网络和全局几何特征提取网络的结构示意图;
图4是本发明实施例中的全局运动特征提取网络和辅助特征提取网络的结构示意图;
图5是本发明实施例的姿态优化网络和人体细节重建网络的结构示意图;
图6是本发明实施例中的生成动态三维人体网格模型序列的装置的结构框图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,以下结合实施例及附图对本发明的生成动态三维人体网格模型序列的方法及装置作具体阐述。
<实施例>
本实施例提供一种利用三维点云序列生成逼真的动态三维人体网格模型序列的方法及装置,用于对三维点云序列进行处理得到该序列中每一帧点云对应的带有衣服和头发的三维人体网格模型从而让建模用户查看以及应用。
图1是本发明实施例中的生成动态三维人体网格模型序列的方法流程图,图2是本发明实施例中的生成动态三维人体网格模型序列的方法的结构示意图。
如图1以及图2所示,生成动态三维人体网格模型序列的方法包括以下步骤:
步骤S1,对预先获取的包括多个三维模型序列的数据集进行预处理得到训练样本,训练样本包含赤裸的人体网格模型序列与带有衣服和头发的人体网格模型序列,从带有衣服和头发的人体网格模型表面采样得到三维点云序列作为输入。
本实施例中,采用已公开的CAPE数据集,该数据集共有600多个带有衣服和头发的人体运动模型序列,其中包含15个不同的人以及4种不同的衣着风格,将所有序列划分为多个长度为30帧的子序列,并且在网格模型表面进行采样得到三维点云序列,每帧点云包含8192个点,每个点在不同时刻无需具有对应关系,即每帧点云中点的顺序可以不同。
此外,该数据集还提供了每个人体网格模型对应的SMPL参数,因此可以获得每个带有衣服和头发的人体网格模型所对应的赤裸的人体网格模型。具体地:
本实施例中,选取其中458个三维点云序列作为训练集,30个序列作为验证集,其余作为测试集。
预处理包括以下步骤:
步骤T1,通过SMPL解码器将数据集提供的SMPL形状参数和姿态参数解码为赤裸的三维人体网格模型;
步骤T2,对数据集提供的带有衣服和头发的人体网格模型序列当中的每个模型表面进行采样得到输入的三维点云序列。
步骤S2,构建具有四个分离的三维点云特征提取网络的三维点云编码器,基于三维点云编码器分别对三维点云序列提取初始姿态特征、全局几何特征、全局运动特征以及辅助特征,并分别表述为初始姿态编码、身份编码、运动编码以及辅助编码。
本实施例中,四个分离的三维点云特征提取网络分别为初始姿态特征提取网络、全局几何特征提取网络、全局运动特征提取网络以及辅助特征提取网络,初始姿态特征基于初始姿态特征提取网络得到,全局几何特征基于全局几何特征提取网络得到,全局运动特征基于全局运动特征提取网络得到,辅助特征基于辅助特征提取网络得到。
图3是本发明实施例的初始姿态特征提取网络和全局几何特征提取网络的结构示意图。
本实施例中,如图3所示,全局几何特征提取网络以及初始姿态提取网络均有相同的网络结构,均由五个级联的残差块组成,五个残差块中,前四个残差块包括两层全连接层、一个最大池化层以及一个扩展连接操作,最后一个残差块包括三层全连接层以及一个最大池化层,前四个残差块中的每个块都有一个附加的最大池化层,以获取大小为(B,1,C)的池化特征,其中C表示隐层的维度,并进行扩展操作第五个块的输出通过最大池化层和全连接层,以获取所需维度的最终特征向量。
扩展操作将最大池化层输出的特征复制N倍,N为输入的三维点云序列的点数,将复制后的特征与最大池化层的输入在特征维度进行连接,此操作在保留了每个点的特征同时也将所有点中最突出的特征通过池化层提取出来,保证具有足够的信息用于解码。
本实施例中,池化特征扩展为大小(B,1,N,C)以使其适合连接,全局几何特征提取网络和初始姿态提取网络以三维点云序列的第一帧作为输入提取对应的全局几何特征以及初始姿态特征。
图4是本发明实施例的全局运动特征提取网络和辅助特征提取网络的结构示意图。
如图4所示,全局运动特征提取网络和辅助特征提取网络需要引入时序信息,因此由一个浅层的PointNet点云特征提取网络以及适合处理时序数据的门控循环单元组成,全局运动特征提取网络和辅助特征提取网络基于整个三维点云序列提取全局运动特征和辅助特征。
本实施例中,初始姿态特征、全局几何特征、全局运动特征以及辅助特征分别使用72维、10维、90维以及128维的特征向量来表示,分别表述为初始姿态编码,身份编码,运动编码以及辅助编码。
步骤S3,通过PCA得到预训练的线性层,将初始姿态编码和运动编码作为输入,得到所有时刻的姿态编码。
本实施例中,线性层预测所有时刻关于初始姿态编码的偏移量,所有时刻的姿态编码通过将偏移量与初始姿态编码相加得到。具体地:
使用两个由PCA得到的预训练的线性层,一个用于预测人体根节点的旋转偏移量,另一个用于预测其他关节点的旋转偏移量,其中,其他关节点的旋转偏移量预测步骤如下:
首先,对数据集中的所有子序列的SMPL姿态参数进行处理,将后29帧的姿态参数减去第一帧的姿态参数得到每帧的偏移量;
然后将所有偏移量连接起来得到一个29*72维的一维向量,对所有子序列得到的向量做PCA降维处理得到线性层的参数。
步骤S4,构建姿态优化网络,将运动编码以及辅助编码作为条件编码对所有时刻的姿态编码进行优化,得到更加准确的所有时刻的姿态编码。
图5是本发明实施例中的姿态优化网络和人体细节重建网络的结构示意图。
图4中以及图5中,t表示不同时刻的输入。
如图5所示,本实施例中,将运动编码和辅助编码相连接作为条件编码,基于条件门控循环单元预测每帧姿态编码的偏移量,从而生成更加准确的所有时刻的姿态编码。
步骤S5,构建深度解码网络,将身份编码以及优化后的姿态编码作为输入,重建赤裸的人体网格模型。
本实施例中,为确保重建出精细的人体网格模型,采用经典的SMPL人体参数化模型,以姿态编码和身份编码作为输入得到对应的网格顶点坐标。
由于SMPL参数化模型本身实现了姿态和形状的解耦,因此本实施例能将输入点云序列中的姿态信息和形状信息进行解耦,从而适合应用于三维运动迁移。
步骤S6,构建人体细节重建网络,将赤裸的人体网格模型和辅助编码作为输入,预测赤裸的人体网格模型每个顶点的偏移量,从而生成带有衣服和头发的人体网格模型序列。
如图5所示,本实施例中,人体细节重建网络由条件门控循环单元组成,和姿态优化网络有相似的结构,区别在于,人体细节重建网络仅以辅助编码作为条件编码。具体地:
赤裸的人体网格模型每个顶点的偏移量通过将赤裸的人体网格模型的所有顶点坐标的一维向量连接起来输入至人体细节重建网络进行预测得到,将所有该赤裸的人体网格模型的所有顶点与每个顶点对应的偏移量相加,从而生成带有衣服和头发的人体网格模型序列。
步骤S7,构建损失函数。
本实施例中,损失函数为预测的网格顶点坐标与真实网格顶点坐标之间的L1损失函数。具体地:
对于每个三维点云序列,除了对最终预测的带有衣服和头发的人体网格模型顶点计算损失,还需要对步骤S5得到的赤裸的人体网格模型的顶点坐标计算损失,从而保证步骤S6有准确的初始化顶点坐标。
步骤S8,基于损失函数对由三维点云编码器、姿态优化网络、深度解码网络以及人体细节重建网络组成的三维人体网格模型生成模型进行训练得到训练好的三维人体网格模型生成模型。
本实施例中,采用分步训练的策略,即第一步先训练三维点云编码器,第二步训练姿态优化网络,最后训练人体细节重建网络,保证模型能够更好地收敛。
在训练中,使用反向传播算法与梯度下降算法优化三维人体网格模型生成模型中的权重参数,从而完成训练。
本实施例中,训练时使用Adam优化器对网络进行优化,系数betas=(0.9,0.999),学习率设置为1e-4。
步骤S9,将单个三维点云序列输入至三维人体网格模型生成模型,得到所有时刻对应的带有衣服和头发的人体网格模型序列并输出。
本实施例中,在三维人体网格模型生成模型训练完成后,给定一个在时间维度上离散的点云序列,基于该模型输出每一时刻所对应的带有衣服和头发的三维人体网格模型生成结果。
本实施例中,基于测试用数据集对本实施例的方法和OFlow方法以及四维网格重建方法进行具体实验对比,通过实验结果得到的体积IoU和倒角距离进行模型性能评估,实验结果如下:
OFlow方法:体积IoU:61.5%,倒角距离:0.199。
四维网格重建(4D-CR)方法:体积IoU:62.9%,倒角距离:0.165。
本实施例的方法:体积IoU:70.8%,倒角距离:0.106。
评判原则为:体积IoU评估标准最大值为100,当体积IoU值越大时,模型性能越理想,而倒角距离数值越小模型性能越理想,因此,由上述实验数据得到,本实施例的三维人体网格模型生成模型的性能超过现有的OFlow方法以及四维网格重建方法。
如上,本实施例提供了一种生成动态三维人体网格模型序列的方法,通过步骤S1至步骤S9,将三维点云序列输入至三维人体网格模型生成模型,得到所有时刻对应的带有衣服和头发的人体网格模型序列,其中步骤S1至步骤S8是三维人体网格模型生成模型的建立及训练,为了实际使用时更为方便,通过该过程得到的三维人体网格模型生成模型还可以打包形成一个三维的网格模型生成部,将该网格模型生成部与其他处理部相结合,该三维网格模型生成部可以与用于获取离散时刻的三维点云序列生成三维网格模型的装置(例如一台三维点云扫描仪),使得三维点云序列数据获取部在获取离散时刻的三维点云序列后由三维的网格模型生成部进行处理从而生成该序列中每一时刻所对应的带有衣服和头发的三维人体网格模型即可得到一种能够直接生成动态三维人体网格模型序列的装置,由此,本实施例还能提供一种生成动态三维人体网格模型序列的装置。
图6是本发明实施例中的生成动态三维人体网格模型序列的装置的结构框图。
如图6所示,生成动态三维人体网格模型序列的装置10包括三维点云序列数据获取部101、网格模型生成部102、模型输出部103以及控制部104。
三维点云序列数据获取部101用于获取需要建模对象的三维点云序列数据。
网格模型生成部102利用预训练的线性层以及条件门控循环单元对思维数据进行组合表示,基于三维点云序列数据生成该序列当中每个时刻所对应的带有衣服和头发的三维人体网格模型。
模型输出部103用于输出与每一帧点云对应的带有衣服和头发的三维人体网格模型从而供建模用户进行查看或直接应用在工业设计以数字娱乐的相关领域。
控制部104用于控制三维点云序列数据获取部101、网格模型生成部102以及模型输出部103以实现相应的功能。
实施例作用与效果
根据本实施例提供的生成动态三维人体网格模型序列的方法及装置,基于三维点云序列生成带有衣服和头发的动态三维人体网格模型序列,在获取四维数据(时间维度上离散的点云序列)以后,由于使用了四个分离的特征提取网络,因此可以从整个序列中提取初始姿态编码,身份编码,运动编码以及辅助编码四部分特征来共同表示四维数据,然后通过由PCA预训练得到的线性层,将运动编码映射为每一时刻相对于初始姿态编码的偏移量从而得每一时刻的姿态编码。
实施例中,四个分离的三维点云特征提取网络能够从输入的点云序列中提取鲁棒的三维空间特征,不受三维点云中点的顺序的影响,为后续解码网络重建三维模型提供所需信息。
实施例中,利用条件门控循环单元在运动编码和辅助编码的指导下,对每个时刻的姿态编码进行优化,得到更准确的姿态编码。由于身份编码与时间无关,将其与不同时刻的姿态编码进行连接以后输入深度解码网络得到重建的人体网格模型,还利用条件门控循环单元在辅助编码的指导下对每个网格顶点预测偏移量以重建衣服和头发,使得不同时刻重建出的三维网格模型在几何形状上具有更好的一致性。
实施例中,生成动态三维人体网格模型序列的方法及装置使用基于神经常微分方程的组合表示方法,将四维数据的初始姿态,身份和运动三部分信息解耦,因此本发明可以实现三维运动迁移,将一个序列中对象的运动迁移到另一个对象上。另外,还能够利用反向优化的策略,实现四维时序补全,四维空间补全以及未来动作预测等应用。
实施例中,将SMPL人体参数化模型作为解码器,能够重建出动态且逼真的人体三维模型序列,得到的三维人体网格模型总是具有完整的面部和手部形状,具有较好的鲁棒性和算法泛用性。
上述实施例仅用于举例说明本发明的具体实施方式,而本发明不限于上述实施例的描述范围。

Claims (10)

1.一种生成动态三维人体网格模型序列的方法,用于对输入的三维点云序列进行处理,得到该序列中每一帧点云对应的带有衣服和头发的三维人体网格模型,其特征在于,包括以下步骤:
步骤S1,对预先获取的包括多个三维模型序列的数据集进行预处理得到训练样本,所述训练样本包含赤裸的人体网格模型序列与带有衣服和头发的人体网格模型序列,从带有衣服和头发的人体网格模型表面采样得到三维点云序列作为输入;
步骤S2,构建具有四个分离的三维点云特征提取网络的三维点云编码器,基于所述三维点云编码器分别对所述三维点云序列提取初始姿态特征、全局几何特征、全局运动特征以及辅助特征,并分别表述为初始姿态编码、身份编码、运动编码以及辅助编码;
步骤S3,通过PCA得到预训练的线性层,将所述初始姿态编码和所述运动编码作为输入,得到所有时刻的姿态编码;
步骤S4,构建姿态优化网络,将所述运动编码以及所述辅助编码作为指导对所述所有时刻的姿态编码进行优化,得到更加准确的所有时刻的姿态编码;
步骤S5,构建深度解码网络,将所述身份编码以及优化后的姿态编码作为输入,重建赤裸的人体网格模型;
步骤S6,构建人体细节重建网络,将所述赤裸的人体网格模型和所述辅助编码作为输入,预测所述赤裸的人体网格模型每个顶点的偏移量,从而生成所述带有衣服和头发的人体网格模型序列;
步骤S7,构建损失函数;
步骤S8,基于所述损失函数对由所述三维点云编码器、所述姿态优化网络、所述深度解码网络以及所述人体细节重建网络组成的三维人体网格模型生成模型进行训练得到训练好的三维人体网格模型生成模型;
步骤S9,将单个所述三维点云序列输入至所述三维人体网格模型生成模型,得到所有时刻对应的带有衣服和头发的人体网格模型序列并输出,
其中,所述四个分离的三维点云特征提取网络分别为初始姿态特征提取网络、全局几何特征提取网络、全局运动特征提取网络以及辅助特征提取网络,
所述初始姿态特征基于所述初始姿态特征提取网络得到,
所述全局几何特征基于所述全局几何特征提取网络得到,
所述全局运动特征基于所述全局运动特征提取网络得到,
所述辅助特征基于所述辅助特征提取网络得到。
2.根据权利要求1所述的一种生成动态三维人体网格模型序列的方法,其特征在于:
其中,所述预处理包括以下步骤:
步骤T1,通过SMPL解码器将数据集提供的SMPL形状参数和姿态参数解码为赤裸的三维人体网格模型;
步骤T2,对所述数据集提供的所述带有衣服和头发的人体网格模型序列当中的每个模型表面进行采样得到所述输入的所述三维点云序列。
3.根据权利要求1所述的一种生成动态三维人体网格模型序列的方法,其特征在于:
其中,所述线性层预测所有时刻关于所述初始姿态编码的偏移量,
所述所有时刻的姿态编码通过将所述偏移量与所述初始姿态编码相加得到。
4.根据权利要求3所述的一种生成动态三维人体网格模型序列的方法,其特征在于:
其中,所述姿态优化网络由条件门控循环单元组成,
所述优化为:
将每一时刻的所述姿态编码与所述运动编码和所述辅助编码连接起来作为输入,
基于所述线性层得到关于所述所有时刻的姿态编码的偏移量,
将所述所有时刻的姿态编码的偏移量与所述所有时刻的姿态编码相加得到优化后的所有时刻的姿态编码。
5.根据权利要求1所述的一种生成动态三维人体网格模型序列的方法,其特征在于:
其中,所述深度解码网络通过将所述优化后的姿态编码以及所述身份编码作为输入,基于SMPL人体参数化模型得到对应的网格顶点坐标构建。
6.根据权利要求1所述的一种生成动态三维人体网格模型序列的方法,其特征在于:
其中,所述全局几何特征提取网络以及所述初始姿态提取网络均由五个级联的残差块组成,
五个所述残差块中,前四个所述残差块包括两层全连接层、一个最大池化层以及一个扩展连接操作,最后一个所述残差块包括三层全连接层以及一个最大池化层,
所述全局几何特征提取网络和所述初始姿态提取网络对所述三维点云序列的第一帧点云提取所述全局几何特征以及所述初始姿态特征,
所述全局运动特征提取网络和所述辅助特征提取网络由一个浅层的点云特征提取网络以及门控循环单元组成,基于整个所述三维点云序列提取所述全局运动特征和所述辅助特征。
7.根据权利要求6所述的一种生成动态三维人体网格模型序列的方法,其特征在于:
其中,所述残差块的所述扩展连接操作为将所述最大池化层输出的特征复制N倍,再将复制后的所述特征与所述最大池化层的输入在特征维度进行连接,
N为输入的所述三维点云序列的点数。
8.根据权利要求1所述的一种生成动态三维人体网格模型序列的方法,其特征在于:
其中,所述人体细节重建网络由条件门控循环单元组成,
所述每个顶点的偏移量通过将所述辅助编码与所述赤裸的人体网格模型的所有顶点坐标的一维向量连接起来输入至所述人体细节重建网络进行预测,
所述带有衣服和头发的人体网格模型序列基于所有顶点与所述每个顶点的偏移量相加得到。
9.根据权利要求1所述的一种生成动态三维人体网格模型序列的方法,其特征在于:
其中,所述损失函数为预测的网格顶点坐标与真实网格顶点坐标之间的L1损失函数。
10.一种生成动态三维人体网格模型序列的装置,其特征在于,包括:
三维点云序列数据获取部,用于获取需要建模对象的三维点云序列数据;
网格模型生成部,用于基于所述三维点云序列数据生成该序列当中每个时刻所对应的带有衣服和头发的三维人体网格模型;
模型输出部,用于输出所述三维人体网格模型;以及
控制部,用于控制所述三维点云序列数据获取部、所述网格模型生成部以及所述模型输出部实现相应的功能。
CN202110941707.2A 2021-08-17 2021-08-17 生成动态三维人体网格模型序列的方法及装置 Active CN113706670B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110941707.2A CN113706670B (zh) 2021-08-17 2021-08-17 生成动态三维人体网格模型序列的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110941707.2A CN113706670B (zh) 2021-08-17 2021-08-17 生成动态三维人体网格模型序列的方法及装置

Publications (2)

Publication Number Publication Date
CN113706670A true CN113706670A (zh) 2021-11-26
CN113706670B CN113706670B (zh) 2023-12-08

Family

ID=78652975

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110941707.2A Active CN113706670B (zh) 2021-08-17 2021-08-17 生成动态三维人体网格模型序列的方法及装置

Country Status (1)

Country Link
CN (1) CN113706670B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115797567A (zh) * 2022-12-27 2023-03-14 北京元起点信息科技有限公司 一种衣物三维驱动模型的建立方法、装置、设备及介质
CN116137050A (zh) * 2023-04-19 2023-05-19 北京大学 三维真人模型处理方法、处理装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200294309A1 (en) * 2019-03-11 2020-09-17 Beijing University Of Technology 3D Reconstruction Method Based on Deep Learning
US20200302621A1 (en) * 2019-03-18 2020-09-24 Beijing University Of Technology Method for three-dimensional human pose estimation
CN112966390A (zh) * 2021-03-24 2021-06-15 清华大学 基于双重三维距离场的衣服处理方法以及装置
CN113112607A (zh) * 2021-04-19 2021-07-13 复旦大学 一种生成任意帧率的三维网格模型序列的方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200294309A1 (en) * 2019-03-11 2020-09-17 Beijing University Of Technology 3D Reconstruction Method Based on Deep Learning
US20200302621A1 (en) * 2019-03-18 2020-09-24 Beijing University Of Technology Method for three-dimensional human pose estimation
CN112966390A (zh) * 2021-03-24 2021-06-15 清华大学 基于双重三维距离场的衣服处理方法以及装置
CN113112607A (zh) * 2021-04-19 2021-07-13 复旦大学 一种生成任意帧率的三维网格模型序列的方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈光: "基于多态统计的三维人体重建及其在虚拟试衣中的应用", 万方学位论文库 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115797567A (zh) * 2022-12-27 2023-03-14 北京元起点信息科技有限公司 一种衣物三维驱动模型的建立方法、装置、设备及介质
CN115797567B (zh) * 2022-12-27 2023-11-10 北京元起点信息科技有限公司 一种衣物三维驱动模型的建立方法、装置、设备及介质
CN116137050A (zh) * 2023-04-19 2023-05-19 北京大学 三维真人模型处理方法、处理装置、电子设备及存储介质
CN116137050B (zh) * 2023-04-19 2023-09-01 北京大学 三维真人模型处理方法、处理装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN113706670B (zh) 2023-12-08

Similar Documents

Publication Publication Date Title
Skorokhodov et al. Stylegan-v: A continuous video generator with the price, image quality and perks of stylegan2
CN110728219B (zh) 基于多列多尺度图卷积神经网络的3d人脸生成方法
JP6962263B2 (ja) 3次元点群ラベル学習装置、3次元点群ラベル推定装置、3次元点群ラベル学習方法、3次元点群ラベル推定方法、及びプログラム
CN109271933A (zh) 基于视频流进行三维人体姿态估计的方法
CN108416840A (zh) 一种基于单目相机的三维场景稠密重建方法
CN113112607B (zh) 一种生成任意帧率的三维网格模型序列的方法及装置
CN113706670B (zh) 生成动态三维人体网格模型序列的方法及装置
KR20180070170A (ko) 표정 생성 방법, 표정 생성 장치 및 표정 생성을 위한 학습 방법
CN111862294B (zh) 基于ArcGAN网络的手绘3D建筑自动上色网络装置及方法
CN113901894A (zh) 一种视频生成方法、装置、服务器及存储介质
CN110570522A (zh) 一种多视图三维重建方法
CN112037310A (zh) 基于神经网络的游戏人物动作识别生成方法
CN112837215B (zh) 一种基于生成对抗网络的图像形状变换方法
CN115841534A (zh) 虚拟对象的运动控制方法以及装置
CN113077554A (zh) 一种基于任意视角图片的三维结构化模型重建的方法
CN110852935A (zh) 一种人脸图像随年龄变化的图像处理方法
CN113051420A (zh) 一种基于文本生成视频机器人视觉人机交互方法及系统
CN111462274A (zh) 一种基于smpl模型的人体图像合成方法及系统
KR102270949B1 (ko) 3차원 인간 모델 복원 장치 및 방법
CN109658508B (zh) 一种多尺度细节融合的地形合成方法
CN111640172A (zh) 一种基于生成对抗网络的姿态迁移方法
CN117011357A (zh) 基于3d运动流和法线图约束的人体深度估计方法及系统
CN113723163B (zh) 利用离散姿态学习物理约束的手部运动自监督重建方法
CN113239835B (zh) 模型感知的手势迁移方法
CN114863013A (zh) 一种目标物体三维模型重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant