CN114463511A - 一种基于Transformer解码器的3D人体模型重建方法 - Google Patents

一种基于Transformer解码器的3D人体模型重建方法 Download PDF

Info

Publication number
CN114463511A
CN114463511A CN202111543921.9A CN202111543921A CN114463511A CN 114463511 A CN114463511 A CN 114463511A CN 202111543921 A CN202111543921 A CN 202111543921A CN 114463511 A CN114463511 A CN 114463511A
Authority
CN
China
Prior art keywords
vertex
layer
human body
image
body model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111543921.9A
Other languages
English (en)
Inventor
刘盛
邹思宇
姚璐
李超楠
陈胜勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202111543921.9A priority Critical patent/CN114463511A/zh
Publication of CN114463511A publication Critical patent/CN114463511A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种基于Transformer解码器的3D人体模型重建方法,对原始RGB图像进行预处理,将其输入卷积神经网络进行特征提取,获得图像网格特征;将模板3D人体模型的顶点坐标输入一个线性层,获得编码后的模板顶点特征,将图像网格特征融入当前状态的顶点特征,并最终形成变换后的顶点特征,将变换后的顶点特征通过上采样层进行上采样,并通过逆向线性层将顶点特征解码为最终预测的3D人体模型顶点坐标。本发明更加充分地利用了图像网格特征中的局部信息,同时对顶点特征变换过程施加严格的语义一致性约束,帮助网络忽略不必要的语义转换,聚焦于预测更精准的人体模型。

Description

一种基于Transformer解码器的3D人体模型重建方法
技术领域
本申请涉及计算机视觉领域,尤其涉及一种基于Transformer解码器的3D人体模型重建方法。
背景技术
3D人体模型重建(Human Mesh Reconstruction,HMR)旨在通过视觉图像信号预测目标人体的3D人体网格模型,是计算机视觉的一个重要的任务。人体模型重建为许多下游任务提供目标人体丰富的姿态、形状等信息,如人体动作识别和虚拟试衣等,因此近年来受到越来越多的研究者的关注。同时,次领域中有许多挑战仍待解决,如人体关节的高度动态性、2D图像到3D预测的多义性、遮挡等。
近年来,基于RGB图像的3D人体模型重建方法可主要分为两类:基于模型的(Model-based)与不基于模型的(Model-free)。基于模型的方法将例如SMPL的3D人体模型的参数视为预测的目标,而后将预测参数输入SMPL获得最终的3D人体模型。其中,有的方法将模型参数从初始状态迭代式地优化至与2D视觉信息吻合,有的通过神经网络直接回归以获得模型参数。但由于2D图像与模型参数的表征差异过于巨大,为了获得精准的结果,这类方法一般需要大量的优化时间或训练数据。
虽然基于模型与迭代优化的方法过于耗时,但这些方法离线地为许多没有3D标注的数据集创造了大量的3D人体模型伪标签。近期,在这些带有伪标签的数据集的帮助下,许多方法尝试不基于模型的方法来重建3D人体模型。这些方法固定了3D人体模型网格拓扑结构,并通过神经网络直接预测网格顶点坐标。这些仿佛普遍采用卷积神经网络、图卷积神经网络等局部建模能力强的网络结构,但无法充分表达人体长距离部件或顶点间的关系。
Transformer是一种基于注意力机制的网络结构,可以软式地对两个序列间的关系进行建模。由于其强大的非局部交互建模能力,Transformer在近期许多视觉任务上(如图像识别、目标检测等)获得了出色的结果。在人体模型重建领域中,有方法通过卷积神经网络提取图像特征向量,通过重复操作得到每个顶点的特征,并使用Transformer编码器回归逐顶点的3D坐标。但现有的方法只通过自注意力机制建模顶点与顶点间内部的关系,没有构建表达能力充足的图像特征到顶点特征的映射,对图像特征的利用不充分。
发明内容
为解决上述问题,本申请提出一种基于Transformer解码器的3D人体模型重建方法,可充分利用RGB图片输入的信息,预测精准的目标3D人体模型。
为了实现上述目的,本申请技术方案如下:
一种基于Transformer解码器的3D人体模型重建方法,包括:
对原始RGB图像进行预处理,获得包含目标人体的图像,并将其输入图像特征提取模块进行特征提取,获得图像网格特征;
将一个模板3D人体模型的顶点坐标输入到线性层,获得编码后的模板顶点特征;
将图像网格特征和模板顶点特征输入到顶点特征变换模块,融合后得到变换后的顶点特征;
将变换后的顶点特征通过上采样模块进行上采样,并通过逆向线性层将上采样后的顶点特征解码为最终预测的3D人体模型顶点坐标。
进一步的,所述图像特征提取模块使用ResNet网络。
进一步的,所述模板3D人体模型使用无性别的、标准姿态的SMPL人体模型。
进一步的,所述模板3D人体模型是经过网格下采样算法处理后的低分辨率的模板3D人体模型。
进一步的,所述顶点特征变换模块包括预设数量的Transformer解码器,首层Transformer解码器的输入为图像网格特征和模板顶点特征,其他Transformer解码器的输入为图像网格特征和上一层Transformer解码器输出的顶点特征。
进一步的,所述Transformer解码器包括依次连接的自注意力层、交叉注意力层与前馈网络层,所述自注意力层、交叉注意力层与前馈网络层前还分别设置有各自的归一化层,所述自注意力层、交叉注意力层与前馈网络层每一层的输入都与本层的输出进行累加后输入到下一层;所述自注意力层的输入是模板顶点特征或上一层Transformer解码器输出的顶点特征,所述交叉注意力层的输入还包括图像网格特征。
进一步的,所述上采样层由两个相同的MLP网络组成,每个MLP由两个线性层与其间的非线性激活层组成,分阶段地将低分辨率的顶点特征转化为高分辨率的顶点特征。
进一步的,所述线性层和逆向线性层严格互逆,所述线性层表示为:
Figure BDA0003415139530000031
其中,
Figure BDA0003415139530000032
表示模板3D人体模型的顶点坐标,z0表示模板顶点特征,W和b分别表示线性层的权重矩阵与偏置向量;
所述逆向线性层表示为:
V3D=(zV-b)W-1
其中,V3D表示逆向线性层输出的3D人体模型顶点坐标,zV表示顶点特征变换模块输出的顶点特征,W-1表示W的广义右逆矩阵,W-1=WT(WWT)-1
进一步的,所述图像特征提取模块、线性层、顶点特征变换模块、上采样模块和逆向线性层构成网络模型,所述网络模型在训练时,采用的损失函数如下:
Figure BDA0003415139530000033
其中,
Figure BDA0003415139530000034
表示最终预测的3D人体模型顶点坐标损失,
Figure BDA0003415139530000035
表示预测的3D人体关键点坐标损失,
Figure BDA0003415139530000036
表示预测的2D人体关键点坐标损失;所述预测的3D人体关键点坐标和预测的2D人体关键点坐标由最终预测的3D人体模型顶点坐标计算得到,λ1、λ2、λ3为超参数。
本申请提出的一种基于Transformer解码器的3D人体模型重建方法,具有如下有益效果:
1)、利用多阶段Transformer解码器的交叉注意力层构建图像网格特征到顶点特征的融合映射关系。相较于线性映射等简单的映射关系,本发明的方法可以更加充分地利用图像特征中的局部信息,提升预测的人体模型的精准度。
2)、使用严格互逆的线性映射层处理顶点特征到顶点坐标之间的双向映射,同时将损失函数作用于顶点特征变换模块内部全部层的输出,保证了顶点特征变换模块内部及两侧的语义一致性,促使网络聚焦于学习更有价值的信息,而非关注不必要的语义转换。
3)、提供了一种两阶段的训练方法,额外引入的模型平滑损失可以充分利用上采样模块本身的模型容量与表征能力,帮助网络输出更加平滑真实的3D人体模型。
4)、提供的实施例采用较为轻量的网络设计,相较于领域内的其他方法,本申请的模型在保证预测精度的前提下容量更小,速度更快。
附图说明
图1为本申请基于Transformer解码器的3D人体模型重建方法流程图;
图2为本申请网络模型结构示意图;
图3为本申请顶点特征变换模块示意图;
图4为本申请实施例的上采样模块示意图;
图5为本发明实施例的线性层与逆向线性层示意图。
具体实施方式
以下结合附图及实施例对本发明做进一步详细说明。应强调的是,下述说明实施例仅用于解释本申请,而不是为了限制本发明的范围与应用。
在一个实施例中,如图1所示,提供了一种基于Transformer解码器的3D人体模型重建方法,包括:
步骤S1、对原始RGB图像进行预处理,获得包含目标人体的图像,并将其输入图像特征提取模块进行特征提取,获得图像网格特征。
本步骤提取图像网格特征,先通过预处理模块进行预处理,然后再通过图像特征提取模块提取图像网格特征。
如图2所示,预处理模块负责将输入的RGB图片进行裁剪与遮挡数据增广,以获得充分包含目标人像的图像。其中,上裁剪处理可使用人体检测方法,估计得到目标人像在原图像中被充分包含的矩形边界框,并据此进行图像裁剪。在一个实施例中,可使用YOLO v3等模型进行人体检测,检测得到的矩形边界框会根据最长的边进行扩张,以形成一个正方形边界框,据此裁剪原始RGB图片以得到一张正方形的预处理后图片,并调整尺寸统一为224×224的分辨率。裁剪区域超出原始图像边界时,超出的部分的像素强度置零。还可以使用其他方法来进行图像裁剪,这里不再赘述。
上述遮挡数据增广可向裁剪后的图像上进一步叠加噪声,采用简单几何图形的噪声图案与取自分割数据集的实例物体图案进行随机组合,对目标图像的局部进行随机遮挡,为训练过程提供分布更广的训练样本。在本实例中,除了随机几何图案噪声外,还可选用Pascal VOC 2012数据集中的与人体无关的实例图案。使用已训练的模型对待处理的RGB图像进行3D人体模型重建时,仅进行裁剪即可。
图像特征提取模块负责对预处理后的图像提取特征,获得图像网格特征。在本实例中,使用了ResNet50模型提取图像特征,也可使用ResNet101、HRNet-W64等模型提取图像特征。提取的图像网格特征分辨率缩小至原图的1/32,为7×7,同时其空间维度被拉平,形成一个长度为7×7=49的图像网格特征序列,图像网格特征空间维度映射至512。
步骤S2、将一个模板3D人体模型的顶点坐标输入到线性层,获得编码后的模板顶点特征。
在本步骤中,线性层将模板3D人体模型的顶点坐标编码为对应的顶点特征。在本实例中,模板3D人体模型采用无性别的、标准姿态的SMPL人体模型,并预先通过网格模型下采样算法进行压缩,将原始的6980个顶点压缩为431个顶点的低分辨率的模板3D人体模型。
事先对网格进行压缩可以降低Transformer处理的序列长度,从而减少内存使用量。本实例中,线性层将3维顶点坐标空间编码至512维顶点特征空间。
需要说明的是,线性层和逆向线性层,常被用于特征空间维度的调整,是比较成熟的技术,这里不再赘述。
步骤S3、将图像网格特征和模板顶点特征输入到顶点特征变换模块,融合后得到变换后的顶点特征。
在本步骤中,顶点特征变换模块包括预设数量L层的Transformer解码器。如图3所示,首层Transformer解码器的输入为图像网格特征和模板顶点特征,其他Transformer解码器的输入为图像网格特征和上一层Transformer解码器输出的顶点特征。
如图3所示,所述Transformer解码器包括依次连接的自注意力层、交叉注意力层与前馈网络层,所述自注意力层、交叉注意力层与前馈网络层前还分别设置有各自的归一化层,所述自注意力层、交叉注意力层与前馈网络层每一层的输入都与本层的输出进行累加后输入到下一层;所述自注意力层的输入是模板顶点特征或上一层Transformer解码器输出的顶点特征,所述交叉注意力层的输入还包括图像网格特征。交叉注意力层的输入不仅有图像网格特征,还包括自注意力层的输出与自注意力层的输入进行累加后的顶点特征。
自注意力层可对顶点与顶点间的关联进行建模,交叉注意力层对图像网格特征与顶点特征间的关联进行建模。顶点特征变换模块的每个交叉注意力层中,图像网格特征与顶点特征会分别作为Key与Query计算一个交叉注意力图,从而据此软式地提取出Value(图像网格特征)中网络所关注的特征,并将其映射、叠加于顶点特征空间内,形成变换后的顶点特征。
在整个过程中,输入的顶点特征序列长度自始至终保持不变,顶点特征维度与图像网格特征维度一致。
本申请逐层地、内容相关地特征变换与融合方式可以更充分地利用图像网格特征中的局部信息。在本实例中,顶点特征序列的长度自始至终保持为下采样后的模型顶点数,即431。顶点特征变换模块中共包含结构完全相同的L=6个Transformer解码器。
步骤S4、将变换后的顶点特征通过上采样模块进行上采样,并通过逆向线性层将上采样后的顶点特征解码为最终预测的3D人体模型顶点坐标。
本步骤主要是通过上采样模块与逆向线性层对变换后的顶点特征进行处理。
上采样模块用于将变换后的顶点特征进行上采样操作,将低分辨率的顶点特征扩充为高分辨率的顶点特征。在本实例中,如图4所示,上采样模块由两个相同的MLP网络组成,每个MLP由两个线性层与其间的非线性激活层组成。非线性激活层使用ReLU激活函数。分阶段地将低分辨率的顶点特征转化为高分辨率的顶点特征。3D人体网格模型的拓扑结构是完全固定的,解码后得到的3D人体模型顶点坐标也是按序排列,从而重建出3D人体模型。
逆向线性层用于将上采样模块输出的高分辨率的顶点特征解码至高分辨率顶点坐标。为了保证顶点特征的语义一致性,此逆向线性层与步骤S2中的线性层严格互逆。在本实例中,如图5所示,步骤S2的线性层首先被定义,可表示为:
Figure BDA0003415139530000071
其中,
Figure BDA0003415139530000072
表示模板3D人体模型的顶点坐标,z0表示模板顶点特征,W和b分别表示线性层的权重矩阵与偏置向量。而后,步骤S4的逆向线性层共享步骤S2中线性层的参数,可表示为:
V3D=(zV-b)W-1
其中,V3D表示逆向线性层输出的3D人体模型顶点坐标,zV表示顶点特征变换模块输出的顶点特征,W-1表示W的广义右逆矩阵,可表示为:
W-1=WT(WWT)-1
由于W-1与W互逆,上述两个线性层严格互逆,且整个方法的初始输入与最终输出都为三维顶点坐标,进而保证了Transformer解码器两侧的顶点特征的语义一致。在本实例中,这样的设计可避免网络关注不必要的语义转换,而聚焦于学习更有价值的信息。
在一个具体的实施例中,本申请图像特征提取模块、线性层、顶点特征变换模块、上采样模块和逆向线性层,构成整个网络。在训练这个网络模型时,使用多种损失项的组合对网络输出的人体模型进行监督。
本实施例,损失函数如下:
Figure BDA0003415139530000073
其中,
Figure BDA0003415139530000074
表示最终预测的3D人体模型顶点坐标损失,
Figure BDA0003415139530000075
表示预测的3D人体关键点坐标损失,
Figure BDA0003415139530000076
表示预测的2D人体关键点坐标损失;所述预测的3D人体关键点坐标和预测的2D人体关键点坐标由最终预测的3D人体模型顶点坐标计算得到,λ1、λ2、λ3为超参数。
具体的,对所述最终预测的3D人体模型顶点坐标计算与真值的L1距离损失
Figure BDA0003415139530000081
对预测的3D人体关键点坐标计算与真值的L1距离损失
Figure BDA0003415139530000082
对预测的2D人体关键点坐标计算与真值的L1距离损失
Figure BDA0003415139530000083
预测的3D人体关键点坐标J3D由预测的3D模型顶点坐标V3D与一个固定的关键点回归矩阵G相乘得到:
J3D=GV3D
预测的2D人体关键点坐标J2D由J3D经过弱透视投影得到:
J2D=(∏x,yJ3D+t)s
其中,t与s是弱透视投影相机参数,分别表示偏移参数与缩放参数。所述损失项分别定义如下:
Figure BDA0003415139530000084
Figure BDA0003415139530000085
Figure BDA0003415139530000086
其中
Figure BDA0003415139530000087
分别代表3D人体模型顶点坐标、3D人体关键点坐标、2D人体关键点坐标的真值。
在另一个实施例中,训练被分为了两个阶段。第一阶段采用上述损失函数,训练除了上采样模块之外的全部可训练网络参数。此阶段训练时,上采样模块由步骤S2所述的模型网格下采样算法生成的采样矩阵(即一个固定的线性插值模块)替代。第二阶段,在前述损失函数的基础上,引入额外的损失项,只对上采样模块进行训练,以提升其输出平滑的3D人体模型的能力。
具体地,额外引入以下损失项:
Figure BDA0003415139530000088
Figure BDA0003415139530000089
其中,f为网格中任意面片的编号,i、j为编号为f的面片中任意两个不相同顶点的编号,v与vGT分别代表某顶点的预测坐标与真值坐标,nGT代表某面片的法线方向向量。需要指出的是,本申请预测的人体模型与真值人体模型的拓扑结构完全相同,都固定为SMPL模型,同时拥有6890个固定数量的顶点与13776个固定数量的面片;步骤S4输出的顶点坐标是按照预设顶点编号有序排列的,因此预测模型与真值模型中一对相同编号的顶点、边或面片一一对应。上述两个额外的损失项中,
Figure BDA0003415139530000091
衡量了预测的人体模型与真值人体模型中每一对相同编号的边的长度差异,
Figure BDA0003415139530000092
衡量了预测的人体模型与真值人体模型中每一对相同编号的面片的法线方向差异。引入额外平滑项后的总损失函数为:
Figure BDA0003415139530000093
其中,λ4、λ5也为超参数。
在上述两个实例中,所有损失项不仅作用于顶点特征变换模块的最后一层(即l=6)Transformer解码器的输出上,还作用在其他层(l∈{1,2,3,4,5})的Transformer解码器的输出上。这样的训练策略强制让顶点特征变换模块内部的层输出的顶点特征也具有和最终输出相同的语义,进一步确保顶点特征的语义一致;宏观地,整个网络将模板人体模型顶点特征在图像网格特征的帮助下进行逐层、渐进地变形为输出的顶点特征,最终被解码为输出人体模型顶点坐标。
以上所述实施例时结合具体的实施方式对本发明所做的进一步详细说明,但不能认定本发明的具体实施只局限于这些说明。应当指出的是,对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,其还可以对这些已描述的实施方式做出若干替代或变型,而这些替代或变型方式都应当视为属于本发明的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (9)

1.一种基于Transformer解码器的3D人体模型重建方法,其特征在于,所述基于Transformer解码器的3D人体模型重建方法,包括:
对原始RGB图像进行预处理,获得包含目标人体的图像,并将其输入图像特征提取模块进行特征提取,获得图像网格特征;
将一个模板3D人体模型的顶点坐标输入到线性层,获得编码后的模板顶点特征;
将图像网格特征和模板顶点特征输入到顶点特征变换模块,融合后得到变换后的顶点特征;
将变换后的顶点特征通过上采样模块进行上采样,并通过逆向线性层将上采样后的顶点特征解码为最终预测的3D人体模型顶点坐标。
2.根据权利要求1所述的基于Transformer解码器的3D人体模型重建方法,其特征在于,所述图像特征提取模块使用ResNet网络。
3.根据权利要求1所述的基于Transformer解码器的3D人体模型重建方法,其特征在于,所述模板3D人体模型使用无性别的、标准姿态的SMPL人体模型。
4.根据权利要求3所述的基于Transformer解码器的3D人体模型重建方法,其特征在于,所述模板3D人体模型是经过网格下采样算法处理后的低分辨率的模板3D人体模型。
5.根据权利要求1所述的基于Transformer解码器的3D人体模型重建方法,其特征在于,所述顶点特征变换模块包括预设数量的Transformer解码器,首层Transformer解码器的输入为图像网格特征和模板顶点特征,其他Transformer解码器的输入为图像网格特征和上一层Transformer解码器输出的顶点特征。
6.根据权利要求5所述的基于Transformer解码器的3D人体模型重建方法,其特征在于,所述Transformer解码器包括依次连接的自注意力层、交叉注意力层与前馈网络层,所述自注意力层、交叉注意力层与前馈网络层前还分别设置有各自的归一化层,所述自注意力层、交叉注意力层与前馈网络层每一层的输入都与本层的输出进行累加后输入到下一层;所述自注意力层的输入是模板顶点特征或上一层Transformer解码器输出的顶点特征,所述交叉注意力层的输入还包括图像网格特征。
7.根据权利要求1所述的基于Transformer解码器的3D人体模型重建方法,其特征在于,所述上采样层由两个相同的MLP网络组成,每个MLP由两个线性层与其间的非线性激活层组成,分阶段地将低分辨率的顶点特征转化为高分辨率的顶点特征。
8.根据权利要求1所述的基于Transformer解码器的3D人体模型重建方法,其特征在于,所述线性层和逆向线性层严格互逆,所述线性层表示为:
Figure FDA0003415139520000021
其中,
Figure FDA0003415139520000022
表示模板3D人体模型的顶点坐标,z0表示模板顶点特征,W和b分别表示线性层的权重矩阵与偏置向量;
所述逆向线性层表示为:
V3D=(zV-b)W-1
其中,V3D表示逆向线性层输出的3D人体模型顶点坐标,zV表示顶点特征变换模块输出的顶点特征,W-1表示W的广义右逆矩阵,W-1=WT(WWT)-1
9.根据权利要求1所述的基于Transformer解码器的3D人体模型重建方法,其特征在于,所述图像特征提取模块、线性层、顶点特征变换模块、上采样模块和逆向线性层构成网络模型,所述网络模型在训练时,采用的损失函数如下:
Figure FDA0003415139520000023
其中,
Figure FDA0003415139520000024
表示最终预测的3D人体模型顶点坐标损失,
Figure FDA0003415139520000025
表示预测的3D人体关键点坐标损失,
Figure FDA0003415139520000026
表示预测的2D人体关键点坐标损失;所述预测的3D人体关键点坐标和预测的2D人体关键点坐标由最终预测的3D人体模型顶点坐标计算得到,λ1、λ2、λ3为超参数。
CN202111543921.9A 2021-12-16 2021-12-16 一种基于Transformer解码器的3D人体模型重建方法 Pending CN114463511A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111543921.9A CN114463511A (zh) 2021-12-16 2021-12-16 一种基于Transformer解码器的3D人体模型重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111543921.9A CN114463511A (zh) 2021-12-16 2021-12-16 一种基于Transformer解码器的3D人体模型重建方法

Publications (1)

Publication Number Publication Date
CN114463511A true CN114463511A (zh) 2022-05-10

Family

ID=81405833

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111543921.9A Pending CN114463511A (zh) 2021-12-16 2021-12-16 一种基于Transformer解码器的3D人体模型重建方法

Country Status (1)

Country Link
CN (1) CN114463511A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115482557A (zh) * 2022-10-09 2022-12-16 中国电信股份有限公司 人体图像生成方法、系统、设备及存储介质
CN115908753A (zh) * 2023-01-06 2023-04-04 粤港澳大湾区数字经济研究院(福田) 一种全身人体网格表面重建方法及相关装置
CN116452600A (zh) * 2023-06-15 2023-07-18 上海蜜度信息技术有限公司 实例分割方法、系统、模型训练方法、介质及电子设备
CN116934972A (zh) * 2023-07-26 2023-10-24 石家庄铁道大学 一种基于双流网络的三维人体重建方法
CN116994338A (zh) * 2023-09-25 2023-11-03 四川中交信通网络科技有限公司 一种基于行为识别的站点无纸化稽查管理系统
CN116993926A (zh) * 2023-09-26 2023-11-03 北京渲光科技有限公司 单视图人体三维重建方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115482557A (zh) * 2022-10-09 2022-12-16 中国电信股份有限公司 人体图像生成方法、系统、设备及存储介质
CN115482557B (zh) * 2022-10-09 2023-11-17 中国电信股份有限公司 人体图像生成方法、系统、设备及存储介质
CN115908753A (zh) * 2023-01-06 2023-04-04 粤港澳大湾区数字经济研究院(福田) 一种全身人体网格表面重建方法及相关装置
CN115908753B (zh) * 2023-01-06 2023-05-19 粤港澳大湾区数字经济研究院(福田) 一种全身人体网格表面重建方法及相关装置
CN116452600A (zh) * 2023-06-15 2023-07-18 上海蜜度信息技术有限公司 实例分割方法、系统、模型训练方法、介质及电子设备
CN116452600B (zh) * 2023-06-15 2023-10-03 上海蜜度信息技术有限公司 实例分割方法、系统、模型训练方法、介质及电子设备
CN116934972A (zh) * 2023-07-26 2023-10-24 石家庄铁道大学 一种基于双流网络的三维人体重建方法
CN116994338A (zh) * 2023-09-25 2023-11-03 四川中交信通网络科技有限公司 一种基于行为识别的站点无纸化稽查管理系统
CN116994338B (zh) * 2023-09-25 2024-01-12 四川中交信通网络科技有限公司 一种基于行为识别的站点无纸化稽查管理系统
CN116993926A (zh) * 2023-09-26 2023-11-03 北京渲光科技有限公司 单视图人体三维重建方法
CN116993926B (zh) * 2023-09-26 2024-01-16 北京渲光科技有限公司 单视图人体三维重建方法

Similar Documents

Publication Publication Date Title
CN114463511A (zh) 一种基于Transformer解码器的3D人体模型重建方法
CN110390638B (zh) 一种高分辨率三维体素模型重建方法
CN108804094B (zh) 学习自动编码器
Wang et al. Laplacian pyramid adversarial network for face completion
CN115482241A (zh) 一种跨模态双分支互补融合的图像分割方法及装置
CN103295196A (zh) 基于非局部字典学习和双正则项的图像超分辨率重建方法
WO2016076026A1 (ja) 情報を予測するためのシステム、方法及びプログラム
CN113077545B (zh) 一种基于图卷积的从图像中重建着装人体模型的方法
CN112258626A (zh) 基于图像级联生成稠密点云的三维模型生成方法及系统
CN111899176A (zh) 一种视频图像增强方法
CN113554039A (zh) 基于多注意力机制的动态图像的光流图生成方法和系统
CN113989441A (zh) 基于单张人脸图像的三维漫画模型自动生成方法及系统
CN117575915A (zh) 一种图像超分辨率重建方法、终端设备及存储介质
CN114022356A (zh) 基于小波域的河道流量水位遥感图像超分辨率方法与系统
CN117593187A (zh) 基于元学习和Transformer的遥感图像任意尺度超分辨率重建方法
CN113240584A (zh) 一种基于图片边缘信息的多任务手势图片超分辨率方法
CN116188272B (zh) 适用于多模糊核的两阶段深度网络图像超分辨率重建方法
CN111311732A (zh) 3d人体网格获取方法及装置
CN112785684B (zh) 一种基于局部信息加权机制的三维模型重建方法
CN115115860A (zh) 一种基于深度学习的图像特征点检测匹配网络
Mun et al. Universal super-resolution for face and non-face regions via a facial feature network
CN116363329B (zh) 基于CGAN与LeNet-5的三维图像生成方法及系统
CN115953296B (zh) 一种基于transformer和卷积神经网络联合的人脸超分辨率重建方法和系统
CN116128722A (zh) 基于频域-纹理特征融合的图像超分辨率重建方法及系统
Ji et al. Latent Multi-Scale Diffusion Model for Neural Implicit 3D Shape Generation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination