CN109859296B - Smpl参数预测模型的训练方法、服务器及存储介质 - Google Patents
Smpl参数预测模型的训练方法、服务器及存储介质 Download PDFInfo
- Publication number
- CN109859296B CN109859296B CN201910103414.XA CN201910103414A CN109859296B CN 109859296 B CN109859296 B CN 109859296B CN 201910103414 A CN201910103414 A CN 201910103414A CN 109859296 B CN109859296 B CN 109859296B
- Authority
- CN
- China
- Prior art keywords
- prediction
- model
- dimensional
- human body
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 88
- 238000012549 training Methods 0.000 title claims abstract description 80
- 230000000877 morphologic effect Effects 0.000 claims abstract description 116
- 238000002372 labelling Methods 0.000 claims description 69
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 15
- 230000002093 peripheral effect Effects 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 4
- 230000036544 posture Effects 0.000 description 66
- 230000006870 function Effects 0.000 description 40
- 238000010586 diagram Methods 0.000 description 11
- 238000000605 extraction Methods 0.000 description 7
- 238000003062 neural network model Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 210000000746 body region Anatomy 0.000 description 2
- 230000037237 body shape Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004215 skin function Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
- G06T2207/20044—Skeletonization; Medial axis transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种SMPL参数预测模型的训练方法、服务器及存储介质。该方法包括:获取样本图片;将样本图片输入姿态参数预测模型,得到姿态预测参数;将样本图片输入形态参数预测模型,得到形态预测参数;根据姿态预测参数和形态预测参数,通过SMPL模型构建人体三维模型;根据SMPL预测参数和/或人体三维模型,并结合样本图片的标注信息,计算模型预测损失;根据模型预测损失反向训练姿态参数预测模型和形态参数预测模型。本申请实施例中,直接将样本图片作为模型输入进行模型训练,无需单独训练提取图片中人体信息的模型,从而降低了模型训练的复杂度,提高了模型训练的效率。
Description
技术领域
本申请实施例涉及计算机视觉领域,尤其涉及一种SMPL参数预测模型的训练方法、服务器及存储介质。
背景技术
三维人体重建是计算机视觉研究中的重要课题之一,在虚拟现实(VR,VirtualReality)、人体动画、游戏等领域具有重要的应用价值。
相关技术中采用多人线性蒙皮(SMPL,Skinned Multi-Person Linear)模型对二维图像中的人体进行三维人体重建。在一种三维人体重建方式中,首先利用人体信息提取模型提取二维图像中人体的二维关节点、三维关节点、二维人体分割图、三维体素等人体信息,然后将提取到的人体信息输入参数预测模型进行SMPL参数预测,进而将预测得到的SMPL参数输入SMPL模型进行三维人体重建。
然而,采用上述方式进行三维人体重建前,需要分别训练人体信息提取模型和参数预测模型,然后再次对训练得到的模型进行联合训练,导致模型训练过程复杂,需要耗费大量时间。
发明内容
本申请实施例提供了一种SMPL参数预测模型的训练方法、服务器及存储介质,可以解决相关技术中模型训练过程复杂,且需要耗费大量时间的问题。所述技术方案如下:
一方面,本申请实施例提供了一种SMPL参数预测模型的训练方法,其特征在于,所述方法包括:
获取样本图片,所述样本图片中包含人体图像;
将所述样本图片输入姿态参数预测模型,得到姿态预测参数,所述姿态预测参数是SMPL预测参数中用于指示人体姿态的参数;
将所述样本图片输入形态参数预测模型,得到形态预测参数,所述形态预测参数是所述SMPL预测参数中用于指示人体形态的参数;
根据所述姿态预测参数和所述形态预测参数,通过SMPL模型构建人体三维模型;
根据所述SMPL预测参数和/或所述人体三维模型,并结合所述样本图片的标注信息,计算模型预测损失;
根据所述模型预测损失反向训练所述姿态参数预测模型和所述形态参数预测模型。
另一方面,本申请实施例提供了一种三维人体重建方法,所述方法包括:
获取目标图片,所述目标图片中包含人体图像;
将所述目标图片输入姿态参数预测模型,得到姿态预测参数,所述姿态预测参数是SMPL预测参数中用于指示人体姿态的参数;
将所述目标图片输入形态参数预测模型,得到形态预测参数,所述形态预测参数是所述SMPL预测参数中用于指示人体形态的参数;
根据所述姿态预测参数和所述形态预测参数,通过SMPL模型构建目标人体三维模型。
另一方面,本申请实施例提供了一种SMPL参数预测模型的训练装置,所述装置包括:
第一获取模块,用于获取样本图片,所述样本图片中包含人体图像;
第一预测模块,用于将所述样本图片输入姿态参数预测模型,得到姿态预测参数,所述姿态预测参数是SMPL预测参数中用于指示人体姿态的参数;
第二预测模块,用于将所述样本图片输入形态参数预测模型,得到形态预测参数,所述形态预测参数是所述SMPL预测参数中用于指示人体形态的参数;
第一构建模块,用于根据所述姿态预测参数和所述形态预测参数,通过SMPL模型构建人体三维模型;
损失计算模块,用于根据所述SMPL预测参数和/或所述人体三维模型,并结合所述样本图片的标注信息,计算模型预测损失;
训练模块,用于根据所述模型预测损失反向训练所述姿态参数预测模型和所述形态参数预测模型。
另一方面,本申请实施例提供了一种三维人体重建装置,所述方法包括:
第二获取模块,用于获取目标图片,所述目标图片中包含人体图像;
第三预测模块,用于将所述目标图片输入姿态参数预测模型,得到姿态预测参数,所述姿态预测参数是SMPL预测参数中用于指示人体姿态的参数;
第四预测模块,用于将所述目标图片输入形态参数预测模型,得到形态预测参数,所述形态预测参数是所述SMPL预测参数中用于指示人体形态的参数;
第二构建模块,用于根据所述姿态预测参数和所述形态预测参数,通过SMPL模型构建目标人体三维模型。
另一方面,本申请实施例提供了一种服务器,所述服务器包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器执行以实现如上述方面所述的SMPL参数预测模型的训练方法,或者,实现如上述方面所述的三维人体重建方法。
另一方面,本申请实施例提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器执行以实现如上述方面所述的SMPL参数预测模型的训练方法,或者,实现如上述方面所述的三维人体重建方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过将包含人体图像的样本图片分别输入姿态参数预测模型和形态参数预测模型,得到SMPL预测参数中的姿态预测参数和形态预测参数,并基于姿态预测参数和形态预测参数构建人体三维模型,从而基于样本图片的标注信息,根据SMPL预测参数和人体三维模型中的至少一种,计算模型预测损失,进而根据模型预测损失对姿态参数预测模型和形态参数预测模型进行反向训练;采用本申请实施例提供的方法训练模型时,直接将样本图片作为模型输入进行模型训练,无需单独训练提取图片中人体信息的模型,从而降低了模型训练的复杂度,提高了模型训练的效率;同时,根据标注信息、预测参数以及基于预测参数构建的三维人体模型计算模型预测损失,有助于提高模型的训练质量,进而提高预测得到的参数的准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本申请一个实施例提供的SMPL参数预测模型的训练方法的方法流程图;
图2是本申请实施例提供的SMPL参数预测模型的训练方法的原理示意图;
图3出了本申请另一个实施例提供的SMPL参数预测模型的训练方法的方法流程图;
图4是计算第一模型预测损失过程的方法流程图;
图5是计算第二模型预测损失过程的方法流程图;
图6是计算第二模型预测损失过程的原理示意图;
图7是计算第三模型预测损失过程的方法流程图;
图8是计算第三模型预测损失过程的原理示意图;
图9是本申请一个实施例提供的应用场景的场景示意图;
图10示出了本申请一个实施例提供的三维人体重建方法的方法流程图;
图11和图12是利用公开数据集对本申请提供方案以及HMR方案进行测试时得到的人体三维重建结果;
图13示出了本申请一个实施例提供的SMPL参数预测模型的训练装置的框图;
图14示出了本申请一个实施例提供的三维人体重建装置的框图;
图15示出了本申请一个实施例提供的服务器的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
为了方便理解,下面对本申请实施例中涉及的名词进行说明。
SMPL模型:一种参数化的人体模型,该模型由SMPL参数驱动,SMPL参数中包括形态(shape)参数β以及姿态(pose)参数θ。其中,形态参数包含表征人体的高矮胖瘦、头身比例等10个参数;姿态(pose)参数包含24个关节点对应的72个参数(每个关节点对应的参数使用一个三维旋转向量表示,因此共包含24×3个参数)。
基于SMPL模型,三维人体模型可以被定义为:
其中,为任意人体的三维人体模型,且三维人体模型的表面包含n=6890个模型顶点,β为形态参数,θ为姿态参数,φ是从三维人体扫描数据中学习得到的固定参数,是平均形态、标准姿态(zero pose)下平均人体模型的模型顶点参数(每个顶点使用三维坐标表示,因此包含3n个参数),Bs是形态独立混合函数,用于根据形态参数调整平均人体模型的形态,Bp是姿态独立混合函数,用于根据姿态参数调整平均人体模型的姿态,是用于计算人体关节点位置的函数,是一个标准的混合蒙皮函数。
投影函数:一种用于将三维空间中的坐标点投影到二维空间的函数,本申请实施例中的投影函数用于将三维人体模型的模型顶点投影到二维图像空间。在一种可能的实施方式中,该投影函数采用弱透视投影(weak perspective projection)函数,该投影函数对应的投影参数其中,为缩放参数,和为平移参数,相应的,将三维空间中的坐标点(x,y,z)投影到二维空间可以表示为:
姿态参数预测模型:一种用于预测图片中人体姿态的神经网络模型,该模型的模型输入为图片,模型输出为72维的姿态参数。可选的,本申请实施例中的姿态参数预测模型还用于根据输入的图片输出投影参数,相应的,该模型的模型输出即为72+3=75维。
形态参数预测模型:一种用于预测图片中人体形态的神经网络模型,该模型的模型输入为图片,模型输出为10维的形态参数。
标注信息:在机器学习领域,用于指示训练样本中关键参数的信息被称为标注信息,该标注信息可以通过人工标注生成。本申请实施例中的标注信息即用于指示人体图像中的关键参数,该标注信息可以包括SMPL参数、二维关节点坐标、三维关节点坐标、二维人体轮廓中的至少一种。
损失函数(loss function):一种用于估量模型的预测值与真实值(groundtruth)之间的差异,是一个非负实值函数。其中,模型的损失函数越小,模型的鲁棒性越好。本申请实施例中的损失函数即用于估量姿态参数预测模型与形态参数预测模型输出的预测参数与预先标注信息之间的差异。
采用SMPL模型进行三维人体重建时,影响重建三维人体的参数包括形态参数和姿态参数,因此,基于单张图片进行三维人体重建的关键点在于对形态参数以及姿态参数的准确预测。相关技术中,进行形态参数和姿态参数预测前,首先需要通过人体信息提取模型提取图片中人体的人体信息,然后将提取到的一系列人体信息输入参数预测模型,最终得到参数预测模型输出的SMPL参数。
采用上述方式进行三维人体重建时,由于SMPL参数的准确性与提取到的人体信息的准确性密切相关,因此需要通过人体信息提取模型提取多维度的人体信息,比如二维关节点、三维关节点、二维人体分割图、三维体素等等,相应的,需要构建复杂度较高的人体信息提取模型。同时,由于输入参数预测模型的参数量较大(即人体信息的信息量较大),因此构建的参数预测模型的复杂度也较高。此外,模型训练过程中,首先需要单独训练人体信息提取模型和参数预测模型,然后对训练得到的模型进行联合训练,进一步提高了模型训练的复杂度,增加了模型训练耗时。
为了避免上述问题,本申请实施例提供的SMPL参数预测模型的训练方法中,分别设计用于预测姿态参数和形态参数的两个神经网络模型(以图片为模型输入),避免了单独训练用于提取人体信息的人体信息提取模型;同时,从人体形态和人体姿态角度设计相应的损失函数,并基于设计的损失函数以及标注信息对两个神经网络模型进行训练,提高神经网络模型的预测准确率,进而提高重建三维人体在人体姿态以及人体形态上准确性。下面采用示意性的实施例进行说明。
请参考图1,其示出了本申请一个实施例提供的SMPL参数预测模型的训练方法的方法流程图。本实施例以该训练方法应用于服务器为例进行说明,该方法可以包括以下几个步骤:
步骤101,获取样本图片,样本图片中包含人体图像。
在一种可能的实施方式中,服务器基于若干个样本图片集进行模型训练,因此,训练过程中,服务器从样本图片集中获取样本图片,该样本图片集中包含若干预先经过标注的样本图片。
可选的,每张样本图片对应至少一种类型的标注信息,且不同样本图片集中样本图片对应的标注信息的类型不同。
比如,样本图片集A中样本图片的标注信息包括二维关节点坐标和二维人体轮廓;样本图片集B中样本图片的标注信息包括二维关节点坐标和三维关节点坐标;样本图片集B中样本图片的标注信息包括二维关节点坐标和SMPL参数。
由于预测姿态参数和形态参数时需要利用到图片中不同的信息,因此,获取到样本图片后,服务器分别将样本图片输入姿态参数预测模型和形态参数预测模型中。
可选的,将样本图片输入姿态/形态参数预测模型前,服务器需要对样本图片进行预处理,使得输入姿态/形态参数预测模型的样本图片符合模型输入要求。其中,预处理方式包括裁剪和尺寸缩放。比如,预处理后样本图片的尺寸为224×224。
步骤102,将样本图片输入姿态参数预测模型,得到姿态预测参数,姿态预测参数是SMPL预测参数中用于指示人体姿态的参数。
可选的,姿态参数预测模型输出的姿态预测参数为72维参数,用于指示人体24个关节点的旋转向量。
在一种可能的实施方式中,姿态参数预测模型的主干网络结构为残差神经网络(Residual neural Network,ResNet),比如,ResNet50,本申请实施例并不对姿态参数预测模型的具体结构进行限定。示意性的,姿态参数预测模型中各网络层的参数设置如表一所示。
表一
步骤103,将样本图片输入形态参数预测模型,得到形态预测参数,形态预测参数是SMPL预测参数中用于指示人体形态的参数。
可选的,形态参数预测模型输出的形态预测参数为10维参数,用于指示人体高矮胖瘦、头身比例等10个参数。
在一种可能的实施方式中,形态参数预测模型基于简化的视觉几何组VGG(VisualGeometry Group,VGG)网络构建,本申请实施例并不对形态参数预测模型的具体结构进行限定。示意性的,形态参数预测模型中各网络层的参数设置如表二所示。
表二
网络层 | 输出尺寸 | 网络层参数 |
卷积层1(conv1) | 112×112 | 32个3×3卷积核,步长=2 |
卷积层2(conv2) | 56×56 | 64个3×3卷积核,步幅=2 |
卷积层3(conv3) | 28×28 | 128个3×3卷积核,步长=2 |
卷积层4(conv4) | 14×14 | 256个3×3卷积核,步长=2 |
卷积层5(conv5) | 7×7 | 236个3×3卷积核,步长=2 |
全连接层1(fc1) | 1×1 | 512 |
全连接层2(fc2) | 1×1 | 1024 |
全连接层3-输出(fc3-output) | 1×1 | 10 |
步骤104,根据姿态预测参数和形态预测参数,通过SMPL模型构建人体三维模型。
进一步的,服务器将姿态预测参数和形态预测参数带入SMPL模型中,构建得到人体三维模型,以便后续基于该人体三维模型评估模型的参数预测效果。其中,该人体三维模型包含6890个模型顶点的顶点坐标。
步骤105,根据SMPL预测参数和/或人体三维模型,并结合样本图片的标注信息,计算模型预测损失。
为了衡量预测结果与真实值之间的差异,在一种可能的实施方式中,服务器根据预测结果以及样本图片的标注信息,通过预先构建的损失函数计算模型预测损失。可选的,该损失函数包括至少一个子损失函数,且不同子损失函数用于根据不同类型的标注信息计算模型预测损失。
可选的,由于不同样本图片集中样本图片包含的标注信息不同,因此服务器根据样本图片的标注信息,确定采用相应的子损失函数计算模型预测损失。
可选的,服务器根据标注信息和SMPL预测参数计算模型预测损失,和/或,服务器根据标注信息和人体三维模型计算模型预测损失。
步骤106,根据模型预测损失反向训练姿态参数预测模型和形态参数预测模型。
在一种可能的实施方式中,根据计算得到的模型预测损失,服务器采用梯度下降(Gradient Descent)算法,反向训练姿态参数预测模型和形态参数预测模型(对模型中的参数进行优化),并在梯度小于阈值时停止反向训练。本申请实施例并不对反向训练模型的具体方式进行限定。
可选的,模型训练过程中采用的学习率为1e-4,且批尺寸(batch_size)为96。
综上所述,本申请实施例中,通过将包含人体图像的样本图片分别输入姿态参数预测模型和形态参数预测模型,得到SMPL预测参数中的姿态预测参数和形态预测参数,并基于姿态预测参数和形态预测参数构建人体三维模型,从而基于样本图片的标注信息,根据SMPL预测参数和人体三维模型中的至少一种,计算模型预测损失,进而根据模型预测损失对姿态参数预测模型和形态参数预测模型进行反向训练;采用本申请实施例提供的方法训练模型时,直接将样本图片作为模型输入进行模型训练,无需单独训练提取图片中人体信息的模型,从而降低了模型训练的复杂度,提高了模型训练的效率;同时,根据标注信息、预测参数以及基于预测参数构建的三维人体模型计算模型预测损失,有助于提高模型的训练质量,进而提高预测得到的参数的准确性。
在一种可能的实施方式中,服务器预先定义的损失函数中包含四个子损失函数,分别为SMPL参数损失函数、关节点位置损失函数、人体轮廓损失函数以及正则损失函数。其中,SMPL参数损失函数用于衡量姿态预测参数以及形态预测参数与标注的SMPL参数之间的差异;关节点位置损失函数用于衡量预测出的关节点位置与标注的关节点位置之间的差异;人体轮廓损失函数用于衡量重建三维人体模型的人体轮廓与样本图片中人体轮廓之间的差异。
相应的,服务器训练模型的过程如图2所示。服务器将样本图片21输入姿态参数预测模型22后,得到姿态参数预测模型22输出的投影参数221以及姿态预测参数222,将样本图片21输入形态参数预测模型23后,得到形态参数预测模型23输出的形态预测参数231。进一步的,基于预测得到姿态预测参数222和形态预测参数231,服务器通过SMPL模型构建人体三维模型24。针对根据预测参数、人体三维模型以及标注信息计算模型预测损失的过程,下面通过示意性的实施例进行说明。
请参考图3,其示出了本申请另一个实施例提供的SMPL参数预测模型的训练方法的方法流程图。本实施例以该训练方法应用于服务器为例进行说明,该方法可以包括以下几个步骤:
步骤301,获取样本图片,样本图片中包含人体图像。
本步骤的实施方式可以参考上述步骤101,本实施例在此不再赘述。
步骤302,将样本图片输入姿态参数预测模型,得到姿态预测参数和投影参数。
由于后续计算模型预测损失时需要应用到二维坐标(比如关节点的二维坐标,人体轮廓的二维坐标),而根据姿态预测参数和形态预测参数构建出的人体三维模型中仅包含模型顶点的三维坐标,因此,通过模型预测姿态参数和形态参数的同时,还需要对样本图片的投影参数进行预测,以便后续利用投影参数将人体三维模型上的点投影到二维图像空间。其中,该投影参数与样本图片的拍摄角度相关。
在实施过程中发现,改变投影参数中的缩放参数或者,改变形态参数β均会对人体形态产生影响,导致投影参数和形态参数的预测存在歧义性。为了避免投影参数和形态参数预测的歧义性,在一种可能的实施方式中,服务器通过姿态参数预测模型实现姿态参数以及投影参数预测,此时姿态预测参数模型输出的参数为75维度,其中包含72维度的姿态预测参数θ以及3维度的投影参数
步骤303,将样本图片输入形态参数预测模型,得到形态预测参数。
步骤304,根据姿态预测参数和形态预测参数,通过SMPL模型构建人体三维模型。
上述步骤303和304的实施方式可以参考步骤103和104,本实施例在此不再赘述。
步骤305,根据SMPL预测参数,以及标注信息中的SMPL标注参数,计算第一模型预测损失。
可选的,当样本图片的标注信息中包含SMPL标注参数(包括姿态标注参数和形态标注参数)时,服务器即根据SMPL预测参数(包括姿态预测参数和形态预测参数)和SMPL标注参数,通过SMPL参数损失函数计算第一模型预测损失。在一种可能的实施方式中,如图4所示,本步骤包括如下步骤。
步骤305A,计算姿态标注参数与姿态预测参数之间的第一欧式距离。
本实施例中,服务器通过计算姿态标注参数与姿态预测参数之间的第一欧式距离(72维向量之间的欧式距离),进而根据第一欧式距离评估姿态参数预测的准确性。其中,第一欧式距离越小,表明姿态参数预测的准确性越高。
步骤305B,计算形态标注参数与形态预测参数之间的第二欧式距离。
与计算第一欧式距离相似的,本实施例中,服务器通过计算形态标注参数与形态预测参数之间的第二欧式距离(10维向量之间的欧式距离),进而根据第二欧式距离评估形态参数预测的准确性。其中,第二欧式距离越小,表明形态参数预测的准确性越高。
步骤305C,根据第一欧式距离和第二欧式距离确定第一模型预测损失。
其中,λp为参数损失权重。比如,λp为60。
步骤306,根据人体三维模型中关节点的关节点预测坐标,以及标注信息中关节点的关节点标注坐标,计算第二模型预测损失。
可选的,当样本图片的标注信息中包含关节点标注坐标(包括二维关节点标注坐标和/或三维关节点标注坐标)时,服务器首先确定人体三维模型中关节点的关节点预测坐标,从而根据关节点预测坐标和关节点标注坐标,通过关节点位置损失函数计算第二模型预测损失。
在一种可能的实施方式中,如图5所示,本步骤包括如下步骤。
步骤306A,计算人体三维模型中关节点的三维关节点预测坐标和三维关节点标注坐标之间的第三欧式距离。
在一种可能的实施方式中,服务器选取24个关节点中的14个关节点作为目标关节点,并计算14个目标关节点的三维关节点预测坐标和三维关节点标注坐标之间的第三欧式距离。
关于计算人体三维模型中关节点的三维关节点预测坐标的方式,可选的,服务器根据人体三维模型中关节点周侧模型顶点的顶点坐标,确定人体三维模型中关节点的三维关节点预测坐标。在一种可能的实现方式中,关节点的三维关节点预测坐标为关节点周侧模型顶点的顶点坐标的平均值。
示意性的,如图2所示,服务器根据人体三维模型24生成三维关节点图25,该三维关节点图25中包含各个关节点的三维关节点预测坐标。
步骤306B,计算人体三维模型中关节点的二维关节点预测坐标和二维关节点标注坐标之间的第四欧式距离。
除了衡量三维关节点坐标的准确度之外,服务器还可以进一步衡量二维关节点坐标的准确度。在一种可能的实施方式中,本步骤包括如下步骤:
一、根据人体三维模型中关节点周侧模型顶点的顶点坐标,确定人体三维模型中关节点的三维关节点预测坐标。
由于二维关节点可以由三维关节点经过投影变换得到,因此,在计算二维关节点预测坐标前,服务器首先确定关节点的三维关节点预测坐标。其中,确定三维关节点预测坐标的过程可以参考上述步骤306A,本步骤在此不再赘述。
二、根据投影参数,对三维关节点预测坐标进行投影处理,得到二维关节点预测坐标。
由于姿态参数预测模型在输出姿态预测参数的同时,还输出了投影参数,因此,服务器可以根据投影参数对三维关节点预测坐标进行投影处理,即将三维关节点投影到二维图像空间,从而得到二维关节点的二维关节点预测坐标。
示意性的,如图2所示,服务器根据三维关节点图25和投影参数221生成二维关节点图26,该二维关节点图26中包含各个关节点的二维关节点预测坐标。
三、计算二维关节点预测坐标和二维关节点标注坐标之间的第四欧式距离。
步骤306C,根据第三欧式距离和第四欧式距离计算第二模型预测损失。
其中,λ3D为三维关节点位置损失权重,λ2D为二维关节点位置损失权重。比如,λ3D和λ3D均为60.0。
如图6所示,在一个完整的第二模型预测损失计算过程中,服务器首先根据人体三维模型61确定关节点的三维关节点预测坐标62,从而根据三维关节点预测坐标62和标注信息中的三维关节点标注坐标63计算第三欧式距离64;同时,服务器根据投影参数65对三维关节点预测坐标62进行投影处理,得到关节点对应的二维关节点预测坐标66,从而根据二维关节点预测坐标66和标注信息中的二维关节点标注坐标67计算第四欧式距离68。最终,服务器根据第三欧式距离64和第四欧式距离68确定出第二模型预测损失69。
需要说明的是,当样本图片对应的标注信息中仅包含三维关节点标注坐标或二维关节点标注坐标中的一项时,服务器可以仅根据第三欧式距离或第四欧式距离确定第二模型预测损失,本实施例对此不做限定。
步骤307,根据人体三维模型的预测二维人体轮廓,以及标注信息中的标注二维人体轮廓,计算第三模型预测损失。
当标注信息中包含标注二维人体轮廓时,为了提高人体形态预测的准确性,服务器可以根据构建的人体三维模型进一步生成预测二维人体轮廓,从而通过计算人体轮廓之间的损失,确定人体形态预测的准确性。
可选的,人体轮廓用于指示图片中的人体区域,可以采用黑白图像进行表示,其中黑白图像中的白色区域即为人体区域。
在一种可能的实施方式中,如图7所示,本步骤可以包括如下步骤:
步骤307A,根据投影参数,将人体三维模型中的模型顶点投影到二维空间,并生成预测二维人体轮廓。
在人体姿态和人体形态预测准确的情况下,将人体三维模型投影到二维图像空间后,得到的二维人体轮廓应该与样本图片中的二维人体轮廓重合,因此,服务器可以基于二维人体轮廓的差异性衡量人体姿态和人体形态的预测准确性。
可选的,对于人体三维模型中的各个模型顶点,服务器根据投影参数,通过投影函数将各个模型顶点投影到二维空间,从而生成包含预测二维人体轮廓的二维图像。
步骤307B,根据预测二维人体轮廓和标注二维人体轮廓,计算第一轮廓损失和第二轮廓损失。
其中,第一轮廓损失又称为正向轮廓损失,用于指示预测二维人体轮廓到标注二维人体轮廓的损失;第二轮廓损失又称为反向轮廓损失,用于指示标注二维人体轮廓的损失到预测二维人体轮廓的损失。
在一种可能的实施方式,服务器计算轮廓损失可以包括如下步骤。
一、计算预测二维人体轮廓中轮廓点到标注二维人体轮廓的第一最短距离;根据预测二维人体轮廓中各个轮廓点对应的第一最短距离,计算第一轮廓损失。
在一种可能的实施方式中,对于预测二维人体轮廓中的各个轮廓点,终端计算该轮廓点到标注二维人体轮廓的第一最短距离,并将该各个轮廓点对应的第一最短距离进行累加,从而得到第一轮廓损失。
然而,在实施过程中发现,对于人体三维模型的遮挡区域(被其他物体所遮挡),由于遮挡区域不可视,若不考虑可视性而直接计算根据第一最短距离计算第一轮廓损失,将造成第一轮廓损失偏大。因此,为了提高第一轮廓损失的准确性,在一种可能的实施方式中,根据预测二维人体轮廓中各个轮廓点对应的第一最短距离,计算第一轮廓损失时包括如下步骤。
1、根据人体三维模型中各个模型顶点所属关节点的可见性,确定各个模型顶点对应轮廓点的第一权重。
对于预测二维人体轮廓中轮廓点,计算得到该轮廓点对应的第一最短距离后,服务器检测该轮廓点对应模型顶点所属关节点的可见性,若模型顶点所属关节点可见,服务器确定该轮廓点的第一权重为1;若模型顶点所属关节点不可见时,服务器确定该轮廓点的第一权重为0。其中,确定模型顶点对应轮廓点的第一权重可以采用如下公式:
当然,服务器也可以先检测轮廓点对应模型顶点所属关节点的可见性,并在关节点的不可见时,停止计算该模型顶点对应轮廓点到标注二维人体轮廓的最短距离,从而减少计算量。
2、根据预测二维人体轮廓中各个轮廓点对应的第一最短距离以及第一权重,计算第一轮廓损失。
相应的,服务器根据第一权重对各个轮廓点对应的第一最短距离进行修正,从而对修正后的第一最短距离进行累加,得到第一轮廓损失。
此外,在实施过程中还发现,关节点预测不准确同样会影响到投影生成的预测二维人体轮廓。因此,为了降低关节点预测不准确对第一轮廓损失造成的影响,在一种可能的实施方式中,根据预测二维人体轮廓中各个轮廓点对应的第一最短距离,计算第一轮廓损失时还可以包括如下步骤。
1、确定人体三维模型中各个模型顶点所属关节点的关节点预测坐标。
在一种可能的实施方式中,对于人体三维模型中的各个模型顶点υ,服务器自动将模型顶点划分到与其距离最近的关节点并通过投影参数将关机点投影到二维空间,得到关节点的(二维)关节点预测坐标。其中,模型顶点所属关节点的
2、根据关节点预测坐标与关节点标注坐标之间的第五欧式距离,确定各个模型顶点对应轮廓点的第二权重,第二权重与第五欧式距离之间呈负相关关系。
进一步的,服务器根据第五欧式距离,确定属于该关节点的模型顶点对应轮廓点的第二权重,其中,第二权重为正值,且第二权重与第五欧式距离之间呈负相关关系。
在一种可能的实施方式中,确定模型顶点对应轮廓点的第二权重可以采用如下公式:
3、根据预测二维人体轮廓中各个轮廓点对应的第一最短距离以及第二权重,计算第一轮廓损失。
相应的,服务器根据第二权重对各个轮廓点对应的第一最短距离进行修正,从而对修正后的第一最短距离进行累加,得到第一轮廓损失。
在一种可能的实施方式中,服务器同时计算第一权重和第二权重,从而根据预测二维人体轮廓中各个轮廓点对应的第一最短距离、第一权重以及第二权重,计算第一轮廓损失,相应的,第一轮廓损失可以表示为:
二、计算标注二维人体轮廓中轮廓点到预测二维人体轮廓的第二最短距离;根据标注二维人体轮廓中各个轮廓点对应的第二最短距离,计算第二轮廓损失。
在一种可能的实施方式中,对于标注二维人体轮廓中的各个轮廓点,终端计算该轮廓点到预测二维人体轮廓的第二最短距离,并将该各个轮廓点对应的第二最短距离进行累加,从而得到第二轮廓损失,相应的,第二轮廓损失可以表示为:
步骤307C,根据第一轮廓损失和第二轮廓损失确定第三模型预测损失。
在一种可能的实施方式中,服务器根据第一轮廓损失及其对应的权重,以及第二轮廓损失及其对应的权重,计算得到第三模型预测损失。其中,第三模型预测损失可以表示为:
如图8所示,在一个完整的第三模型预测损失计算过程中,服务器首先根据人体三维模型81和投影参数82,生成预测二维人体轮廓83,然后根据预测二维人体轮廓83和标注二维人体轮廓84计算得到第一轮廓损失85和第二轮廓损失86,最终根据第一轮廓损失85和第二轮廓损失86确定第三模型预测损失87。其中,计算第一轮廓损失85过程中,服务器计算预测二维人体轮廓83上的轮廓点到标注二维人体轮廓84的第一最短距离851的同时,根据轮廓点所属关节点的可见性确定第一权重852,并根据轮廓点所属关节点的预测准确性确定第二权重853,从而根据第一最短距离851、第一权重852和第二权重853计算第一轮廓损失85;计算第二轮廓损失86过程中,服务器计算标注二维人体轮廓84上的轮廓点到预测二维人体轮廓83的第二最短距离861的,从而根据第二最短距离861确定第二轮廓损失86。
步骤308,对形态预测参数进行正则处理,得到第四模型预测损失。
步骤309,根据模型预测损失反向训练姿态参数预测模型和形态参数预测模型。
在一种可能的实施方式中,服务器根据上述步骤中计算得到的第一、第二、第三以及第四模型预测损失,对姿态参数预测模型和形态参数预测模型进行反向训练。其中,反向训练的过程可以参考上述步骤106,本实施例在此不再赘述。
需要说明的是,由于不同样本图片集包含的标注信息的类型不同,因此,服务器可以根据上述模型预测损失中的一部分进行反向训练,本实施例对此不做限定。
本实施例中,服务器通过引入人体轮廓项约束,根据投影参数将重建的人体三维模型的模型顶点投射到二维空间,得到预测二维人体轮廓,并利用预测二维人体轮廓与标注二维人体轮廓之间的轮廓损失对模型进行反向训练,有利于提高形态参数预测的准确性,进而提高重建的三维人体模型在人体形态上的准确性。
并且,在计算预测二维人体轮廓与标注二维人体轮廓之间的轮廓损失,充分考虑关节点的可见性以及关节点坐标预测准确性对轮廓损失的影响,进一步提高了计算得到的轮廓损失的准确性。
通过上述实施例提供的训练方法完成模型训练后,即可利用训练得到的模型对单张图像中人体进行三维重建。在一种可能的应用场景下,如图9所示,终端920将包含人体图像的图片上传至服务器940。服务器940接收到图片后,通过姿态参数预测模型预测图片中人体的姿态参数,并通过形态参数预测模型预测图片中人体的形态参数,从而将包含姿态参数和形态参数的SMPL参数发送给终端920。终端920接收到SMPL参数后,即通过SMPL模型重建三维人体模型,并进行显示。当然,若终端920中存储有姿态参数预测模型和形态参数预测模型,终端920也可以在本地完成SMPL参数预测,而无需借助服务器940。
在其他可能的应用场景下,VR设备通过摄像头采集到包含玩家人体的图像后,通过内置的姿态参数预测模型预测玩家的姿态参数,并通过形态参数预测模型预测玩家的形态参数,从而根据姿态参数和形态参数重建玩家三维人体模型,并将玩家三维人体模型实时显示在VR画面中,从而增加玩家使用VR设备时的沉浸感。
当然,上述训练得到的模型还可以用于其它基于单张图片(包含人体)或视频(视频帧中包含连续的人体)重建三维人体模型的应用场景,本申请实施例对此不做限定。
请参考图10,其示出了本申请一个实施例提供的三维人体重建方法的方法流程图。本实施例以该方法应用于服务器为例进行说明,该方法可以包括以下几个步骤:
步骤1001,获取目标图片,目标图片中包含人体图像。
可选的,该目标图片是终端上传的单张图片,或者,目标图片是从终端上传的视频中截取的视频帧。
可选的,将目标图片输入姿态/形态参数预测模型前,服务器需要对目标图片进行预处理,使得输入姿态/形态参数预测模型的目标图片符合模型输入要求。其中,预处理方式包括裁剪和尺寸缩放。比如,预处理后目标图片的尺寸为224×224。
步骤1002,将目标图片输入姿态参数预测模型,得到姿态预测参数,姿态预测参数是SMPL预测参数中用于指示人体姿态的参数。
可选的,服务器将目标图片输入姿态参数预测模型后,姿态参数预测模型输出72维的姿态预测参数。需要说明的是,当态参数预测模型输出75维的参数时,服务器将其中的72维参数确定为姿态预测参数,并将剩余的3维参数确定为投影参数。
步骤1003,将目标图片输入形态参数预测模型,得到形态预测参数,形态预测参数是SMPL预测参数中用于指示人体形态的参数。
可选的,服务器将目标图片输入形态参数预测模型后,形态参数预测模型输出10维的形态预测参数。
步骤1004,根据姿态预测参数和形态预测参数,通过SMPL模型构建目标人体三维模型。
服务器将模型输出的形态预测参数和姿态预测参数输入SMPL模型,从而构建得到包含6890个模型顶点的目标人体三维模型。可选的,服务器将目标人体三维模型的模型数据发送给终端,供终端进行渲染显示。
可选的,当终端具有三维人体模型重建功能时,服务器将模型输出的形态预测参数和姿态预测参数发送给终端,由终端进行人体三维模型重建并显示。
综上所述,本申请实施例中,通过将包含人体图像的样本图片分别输入姿态参数预测模型和形态参数预测模型,得到姿态预测参数和形态预测参数,并基于姿态预测参数和形态预测参数构建人体三维模型,从而根据样本图片的标注信息,以及姿态预测参数、形态预测参数和人体三维模型中的至少一种,计算模型预测损失,进而根据模型预测损失对姿态参数预测模型和形态参数预测模型进行反向训练;采用本申请实施例提供的方法训练模型时,直接将样本图片作为模型输入进行模型训练,无需单独训练提取图片中人体信息的模型,从而降低了模型训练的复杂度,提高了模型训练的效率;同时,根据标注信息、预测参数以及基于预测参数构建的三维人体模型计算模型预测损失,有助于提高模型的训练质量,进而提高预测得到的参数的准确性。
利用公开数据集Human3.6M,对本申请提供方案以及世界领先的人体网格恢复(Human Mesh Recovery,HMR)方案进行测试,得到的人体三维重建结果如图11所示;利用公开数据集UP(包括UP-3D和UP-S1h),对本申请提供方案以及世界领先的人体网格恢复(Human Mesh Recovery,HMR)方案进行测试,得到的人体三维重建结果如图12所示。
同时,将图11和图12所示的人体三维重建结果与原图中的人体图像进行对比分析,得到的分析结果如表三所示。
表三
其中,准确率用于衡量重建人体轮廓与原图人体轮廓的契合度,F1得分用于指示结果的准确率和召回率,普式分析平均关节位置误差(Procrustes Analysis-Mean PerJoint Position Error,PA-MPVPE)用于指示关节点位置的预测误差。
从图11、图12以及表三中的分析数据可以看出,相较于HMR方案,采用本申请提供的方案进行人体三维重建时,重建结果的准确率以及召回率均有所提高,且重建结果与原图中人体图像的契合度更高,关节点位置误差更小,重建效果达到了世界领先水平。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
请参考图13,其示出了本申请一个实施例提供的SMPL参数预测模型的训练装置的框图。该装置具有执行上述方法示例的功能,功能可以由硬件实现,也可以由硬件执行相应的软件实现。该装置可以包括:
第一获取模块1310,用于获取样本图片,所述样本图片中包含人体图像;
第一预测模块1320,用于将所述样本图片输入姿态参数预测模型,得到姿态预测参数,所述姿态预测参数是SMPL预测参数中用于指示人体姿态的参数;
第二预测模块1330,用于将所述样本图片输入形态参数预测模型,得到形态预测参数,所述形态预测参数是所述SMPL预测参数中用于指示人体形态的参数;
第一构建模块1340,用于根据所述姿态预测参数和所述形态预测参数,通过SMPL模型构建人体三维模型;
损失计算模块1350,用于根据所述SMPL预测参数和/或所述人体三维模型,并结合所述样本图片的标注信息,计算模型预测损失;
训练模块1360,用于根据所述模型预测损失反向训练所述姿态参数预测模型和所述形态参数预测模型。
可选的,所述损失计算模块1350,包括:
第一计算单元,用于根据所述SMPL预测参数,以及所述标注信息中的SMPL标注参数,计算第一模型预测损失,所述SMPL标注参数中包括姿态标注参数和形态标注参数;
和/或,
第二计算单元,用于根据所述人体三维模型中关节点的关节点预测坐标,以及所述标注信息中关节点的关节点标注坐标,计算第二模型预测损失;
和/或,
第三计算单元,用于根据所述人体三维模型的预测二维人体轮廓,以及所述标注信息中的标注二维人体轮廓,计算第三模型预测损失。
可选的,所述第一计算单元,用于:
计算所述姿态标注参数与所述姿态预测参数之间的第一欧式距离;
计算所述形态标注参数与所述形态预测参数之间的第二欧式距离;
根据所述第一欧式距离和所述第二欧式距离确定所述第一模型预测损失。
可选的,所述关节点标注坐标中包含三维关节点标注坐标和/或二维关节点标注坐标;
所述第二计算单元,用于:
计算所述人体三维模型中关节点的三维关节点预测坐标和所述三维关节点标注坐标之间的第三欧式距离;
计算所述人体三维模型中关节点的二维关节点预测坐标和所述二维关节点标注坐标之间的第四欧式距离;
根据所述第三欧式距离和/或所述第四欧式距离计算所述第二模型预测损失。
可选的,所述第二计算单元,还用于:
根据所述人体三维模型中关节点周侧模型顶点的顶点坐标,确定所述人体三维模型中关节点的所述三维关节点预测坐标;
计算所述三维关节点预测坐标和所述三维关节点标注坐标之间的所述第三欧式距离。
可选的,所述姿态参数预测模型还用于根据输入的所述样本图片输出投影参数,所述投影参数用于将三维空间的点投影到二维空间;
所述第二计算单元,还用于:
根据所述人体三维模型中关节点周侧模型顶点的顶点坐标,确定所述人体三维模型中关节点的所述三维关节点预测坐标;
根据所述投影参数,对所述三维关节点预测坐标进行投影处理,得到所述二维关节点预测坐标;
计算所述二维关节点预测坐标和所述二维关节点标注坐标之间的所述第四欧式距离。
可选的,所述姿态参数预测模型还用于根据输入的所述样本图片输出投影参数,所述投影参数用于将三维空间的点投影到二维空间;
所述第三计算单元,用于:
根据所述投影参数,将所述人体三维模型中的模型顶点投影到二维空间,并生成所述预测二维人体轮廓;
根据所述预测二维人体轮廓和所述标注二维人体轮廓,计算第一轮廓损失和第二轮廓损失;
根据所述第一轮廓损失和所述第二轮廓损失确定所述第三模型预测损失。
可选的,所述第三计算单元,用于:
计算所述预测二维人体轮廓中轮廓点到所述标注二维人体轮廓的第一最短距离;根据所述预测二维人体轮廓中各个轮廓点对应的所述第一最短距离,计算所述第一轮廓损失;
计算所述标注二维人体轮廓中轮廓点到所述预测二维人体轮廓的第二最短距离;根据所述标注二维人体轮廓中各个轮廓点对应的所述第二最短距离,计算所述第二轮廓损失。
可选的,所述第三计算单元,用于:
根据所述人体三维模型中各个模型顶点所属关节点的可见性,确定各个模型顶点对应轮廓点的第一权重;
根据所述预测二维人体轮廓中各个轮廓点对应的所述第一最短距离以及所述第一权重,计算所述第一轮廓损失;
其中,当模型顶点所属关节点可见时,所述模型顶点对应轮廓点的所述第一权重为1,当模型顶点所属关节点不可见时,所述模型顶点对应轮廓点的所述第一权重为0。
可选的,所述第三计算单元,用于
确定所述人体三维模型中各个模型顶点所属关节点的所述关节点预测坐标;
根据所述关节点预测坐标与所述关节点标注坐标之间的第五欧式距离,确定各个模型顶点对应轮廓点的第二权重,所述第二权重与所述第五欧式距离之间呈负相关关系;
根据所述预测二维人体轮廓中各个轮廓点对应的所述第一最短距离以及所述第二权重,计算所述第一轮廓损失。
可选的,所述装置还包括:
正则损失模块,用于对所述形态预测参数进行正则处理,得到第四模型预测损失;
所述训练模块1360,还用于:
根据所述第四模型预测损失反向训练所述姿态参数预测模型和所述形态参数预测模型。
请参考图14,其示出了本申请一个实施例提供的三维人体重建装置的框图。该装置具有执行上述方法示例的功能,功能可以由硬件实现,也可以由硬件执行相应的软件实现。该装置可以包括:
第二获取模块1410,用于获取目标图片,所述目标图片中包含人体图像;
第三预测模块1420,用于将所述目标图片输入姿态参数预测模型,得到姿态预测参数,所述姿态预测参数是SMPL预测参数中用于指示人体姿态的参数;
第四预测模块1430,用于将所述目标图片输入形态参数预测模型,得到形态预测参数,所述形态预测参数是所述SMPL预测参数中用于指示人体形态的参数;
第二构建模块1440,用于根据所述姿态预测参数和所述形态预测参数,通过SMPL模型构建目标人体三维模型。
请参考图15,其示出了本申请一个实施例提供的服务器的结构示意图。该服务器用于实施上述实施例提供的SMPL参数预测模型的训练方法,或,三维人体重建方法。具体来讲:
所述服务器1500包括中央处理单元(CPU)1501、包括随机存取存储器(RAM)1502和只读存储器(ROM)1503的系统存储器1504,以及连接系统存储器1504和中央处理单元1501的系统总线1505。所述服务器1500还包括帮助计算机内的各个器件之间传输信息的基本输入/输出系统(I/O系统)1506,和用于存储操作系统1513、应用程序1514和其他程序模块1515的大容量存储设备1507。
所述基本输入/输出系统1506包括有用于显示信息的显示器1508和用于用户输入信息的诸如鼠标、键盘之类的输入设备1509。其中所述显示器1508和输入设备1509都通过连接到系统总线1505的输入输出控制器1510连接到中央处理单元1501。所述基本输入/输出系统1506还可以包括输入输出控制器1510以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入输出控制器1510还提供输出到显示屏、打印机或其他类型的输出设备。
所述大容量存储设备1507通过连接到系统总线1505的大容量存储控制器(未示出)连接到中央处理单元1501。所述大容量存储设备1507及其相关联的计算机可读介质为服务器1500提供非易失性存储。也就是说,所述大容量存储设备1507可以包括诸如硬盘或者CD-ROM驱动器之类的计算机可读介质(未示出)。
不失一般性,所述计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、EPROM、EEPROM、闪存或其他固态存储其技术,CD-ROM、DVD或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知所述计算机存储介质不局限于上述几种。上述的系统存储器1504和大容量存储设备1507可以统称为存储器。
根据本申请的各种实施例,所述服务器1500还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即服务器1500可以通过连接在所述系统总线1505上的网络接口单元1511连接到网络1512,或者说,也可以使用网络接口单元1511来连接到其他类型的网络或远程计算机系统。
所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、至少一段程序、代码集或指令集经配置以由一个或者一个以上处理器执行,以实现上述SMPL参数预测模型的训练方法中各个步骤的功能,或者,实现上述三维人体重建方法中各个步骤的功能。
本申请实施例还提供一种计算机可读存储介质,该存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述各个实施例提供的SMPL参数预测模型的训练方法,或,实现如上述各个实施例提供的三维人体重建方法。
可选地,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、固态硬盘(SSD,Solid State Drives)或光盘等。其中,随机存取记忆体可以包括电阻式随机存取记忆体(ReRAM,Resistance RandomAccess Memory)和动态随机存取存储器(DRAM,Dynamic Random Access Memory)。上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
Claims (15)
1.一种多人线性蒙皮SMPL参数预测模型的训练方法,其特征在于,所述方法包括:
获取样本图片,所述样本图片中包含人体图像;
将所述样本图片输入姿态参数预测模型,得到姿态预测参数,所述姿态预测参数是SMPL预测参数中用于指示人体姿态的参数;
将所述样本图片输入形态参数预测模型,得到形态预测参数,所述形态预测参数是所述SMPL预测参数中用于指示人体形态的参数;
根据所述姿态预测参数和所述形态预测参数,通过SMPL模型构建人体三维模型;
根据所述SMPL预测参数和/或所述人体三维模型,并结合所述样本图片的标注信息,计算模型预测损失,所述模型预测损失包括第一模型预测损失,且所述模型预测损失包括第二模型预测损失和第三模型预测损失中的至少一种;所述第一模型预测损失根据所述SMPL预测参数,以及所述标注信息中的SMPL标注参数计算得到,所述SMPL标注参数中包括姿态标注参数和形态标注参数;所述第二模型预测损失根据所述人体三维模型中关节点的关节点预测坐标,以及所述标注信息中关节点的关节点标注坐标计算得到;所述第三模型预测损失根据所述人体三维模型的预测二维人体轮廓,以及所述标注信息中的标注二维人体轮廓计算得到;
根据所述模型预测损失反向训练所述姿态参数预测模型和所述形态参数预测模型。
2.根据权利要求1所述的方法,其特征在于,所述根据所述SMPL预测参数和/或所述人体三维模型,并结合所述样本图片的标注信息,计算模型预测损失,包括:
计算所述姿态标注参数与所述姿态预测参数之间的第一欧式距离;
计算所述形态标注参数与所述形态预测参数之间的第二欧式距离;
根据所述第一欧式距离和所述第二欧式距离确定所述第一模型预测损失。
3.根据权利要求1所述的方法,其特征在于,所述关节点标注坐标中包含三维关节点标注坐标和/或二维关节点标注坐标;
所述根据所述SMPL预测参数和/或所述人体三维模型,并结合所述样本图片的标注信息,计算模型预测损失,包括:
计算所述人体三维模型中关节点的三维关节点预测坐标和所述三维关节点标注坐标之间的第三欧式距离;
计算所述人体三维模型中关节点的二维关节点预测坐标和所述二维关节点标注坐标之间的第四欧式距离;
根据所述第三欧式距离和/或所述第四欧式距离计算所述第二模型预测损失。
4.根据权利要求3所述的方法,其特征在于,所述计算所述人体三维模型中关节点的三维关节点预测坐标和所述三维关节点标注坐标之间的第三欧式距离,包括:
根据所述人体三维模型中关节点周侧模型顶点的顶点坐标,确定所述人体三维模型中关节点的所述三维关节点预测坐标;
计算所述三维关节点预测坐标和所述三维关节点标注坐标之间的所述第三欧式距离。
5.根据权利要求3所述的方法,其特征在于,所述姿态参数预测模型还用于根据输入的所述样本图片输出投影参数,所述投影参数用于将三维空间的点投影到二维空间;
所述计算所述人体三维模型中关节点的二维关节点预测坐标和所述二维关节点标注坐标之间的第四欧式距离,包括:
根据所述人体三维模型中关节点周侧模型顶点的顶点坐标,确定所述人体三维模型中关节点的所述三维关节点预测坐标;
根据所述投影参数,对所述三维关节点预测坐标进行投影处理,得到所述二维关节点预测坐标;
计算所述二维关节点预测坐标和所述二维关节点标注坐标之间的所述第四欧式距离。
6.根据权利要求1所述的方法,其特征在于,所述姿态参数预测模型还用于根据输入的所述样本图片输出投影参数,所述投影参数用于将三维空间的点投影到二维空间;
所述根据所述SMPL预测参数和/或所述人体三维模型,并结合所述样本图片的标注信息,计算模型预测损失,包括:
根据所述投影参数,将所述人体三维模型中的模型顶点投影到二维空间,并生成所述预测二维人体轮廓;
根据所述预测二维人体轮廓和所述标注二维人体轮廓,计算第一轮廓损失和第二轮廓损失;
根据所述第一轮廓损失和所述第二轮廓损失确定所述第三模型预测损失。
7.根据权利要求6所述的方法,其特征在于,所述根据所述预测二维人体轮廓和所述标注二维人体轮廓,计算第一轮廓损失和第二轮廓损失,包括:
计算所述预测二维人体轮廓中轮廓点到所述标注二维人体轮廓的第一最短距离;根据所述预测二维人体轮廓中各个轮廓点对应的所述第一最短距离,计算所述第一轮廓损失;
计算所述标注二维人体轮廓中轮廓点到所述预测二维人体轮廓的第二最短距离;根据所述标注二维人体轮廓中各个轮廓点对应的所述第二最短距离,计算所述第二轮廓损失。
8.根据权利要求7所述的方法,其特征在于,所述根据所述预测二维人体轮廓中各个轮廓点对应的所述第一最短距离,计算所述第一轮廓损失,包括:
根据所述人体三维模型中各个模型顶点所属关节点的可见性,确定各个模型顶点对应轮廓点的第一权重;
根据所述预测二维人体轮廓中各个轮廓点对应的所述第一最短距离以及所述第一权重,计算所述第一轮廓损失;
其中,当模型顶点所属关节点可见时,所述模型顶点对应轮廓点的所述第一权重为1,当所述模型顶点所属关节点不可见时,所述模型顶点对应轮廓点的所述第一权重为0。
9.根据权利要求7所述的方法,其特征在于,所述根据所述预测二维人体轮廓中各个轮廓点对应的所述第一最短距离,计算所述第一轮廓损失,包括:
确定所述人体三维模型中各个模型顶点所属关节点的所述关节点预测坐标;
根据所述关节点预测坐标与所述关节点标注坐标之间的第五欧式距离,确定各个模型顶点对应轮廓点的第二权重,所述第二权重与所述第五欧式距离之间呈负相关关系;
根据所述预测二维人体轮廓中各个轮廓点对应的所述第一最短距离以及所述第二权重,计算所述第一轮廓损失。
10.根据权利要求1至9任一所述的方法,其特征在于,所述方法还包括:
对所述形态预测参数进行正则处理,得到第四模型预测损失;
所述根据所述模型预测损失反向训练所述姿态参数预测模型和所述形态参数预测模型,还包括:
根据所述第四模型预测损失反向训练所述姿态参数预测模型和所述形态参数预测模型。
11.一种三维人体重建方法,其特征在于,所述方法包括:
获取目标图片,所述目标图片中包含人体图像;
将所述目标图片输入姿态参数预测模型,得到姿态预测参数,所述姿态预测参数是SMPL预测参数中用于指示人体姿态的参数;
将所述目标图片输入形态参数预测模型,得到形态预测参数,所述形态预测参数是所述SMPL预测参数中用于指示人体形态的参数;
根据所述姿态预测参数和所述形态预测参数,通过SMPL模型构建目标人体三维模型;
其中,所述姿态参数预测模型和所述形态参数预测模型采用如权利要求1至10任一所述的方法训练得到。
12.一种SMPL参数预测模型的训练装置,其特征在于,所述装置包括:
第一获取模块,用于获取样本图片,所述样本图片中包含人体图像;
第一预测模块,用于将所述样本图片输入姿态参数预测模型,得到姿态预测参数,所述姿态预测参数是SMPL预测参数中用于指示人体姿态的参数;
第二预测模块,用于将所述样本图片输入形态参数预测模型,得到形态预测参数,所述形态预测参数是所述SMPL预测参数中用于指示人体形态的参数;
第一构建模块,用于根据所述姿态预测参数和所述形态预测参数,通过SMPL模型构建人体三维模型;
损失计算模块,用于根据所述SMPL预测参数和/或所述人体三维模型,并结合所述样本图片的标注信息,计算模型预测损失,所述模型预测损失包括第一模型预测损失,且所述模型预测损失包括第二模型预测损失和第三模型预测损失中的至少一种;所述第一模型预测损失根据所述SMPL预测参数,以及所述标注信息中的SMPL标注参数计算得到,所述SMPL标注参数中包括姿态标注参数和形态标注参数;所述第二模型预测损失根据所述人体三维模型中关节点的关节点预测坐标,以及所述标注信息中关节点的关节点标注坐标计算得到;所述第三模型预测损失根据所述人体三维模型的预测二维人体轮廓,以及所述标注信息中的标注二维人体轮廓计算得到;
训练模块,用于根据所述模型预测损失反向训练所述姿态参数预测模型和所述形态参数预测模型。
13.一种三维人体重建装置,其特征在于,所述装置 包括:
第二获取模块,用于获取目标图片,所述目标图片中包含人体图像;
第三预测模块,用于将所述目标图片输入姿态参数预测模型,得到姿态预测参数,所述姿态预测参数是SMPL预测参数中用于指示人体姿态的参数;
第四预测模块,用于将所述目标图片输入形态参数预测模型,得到形态预测参数,所述形态预测参数是所述SMPL预测参数中用于指示人体形态的参数;
第二构建模块,用于根据所述姿态预测参数和所述形态预测参数,通过SMPL模型构建目标人体三维模型;
其中,所述姿态参数预测模型和所述形态参数预测模型由权利要求12所述的装置训练得到。
14.一种服务器,其特征在于,所述服务器包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器执行以实现如权利要求1至10任一所述的多人线性蒙皮SMPL参数预测模型的训练方法,或者,实现如权利要求11所述的三维人体重建方法。
15.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器执行以实现如权利要求1至10任一所述的多人线性蒙皮SMPL参数预测模型的训练方法,或者,实现如权利要求11所述的三维人体重建方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910103414.XA CN109859296B (zh) | 2019-02-01 | 2019-02-01 | Smpl参数预测模型的训练方法、服务器及存储介质 |
PCT/CN2020/072023 WO2020156148A1 (zh) | 2019-02-01 | 2020-01-14 | Smpl参数预测模型的训练方法、计算机设备及存储介质 |
EP20748016.1A EP3920146A4 (en) | 2019-02-01 | 2020-01-14 | METHOD OF TRAINING AN SMPL PARAMETER FORECAST MODEL, COMPUTER DEVICE, AND STORAGE MEDIA |
US17/231,952 US20210232924A1 (en) | 2019-02-01 | 2021-04-15 | Method for training smpl parameter prediction model, computer device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910103414.XA CN109859296B (zh) | 2019-02-01 | 2019-02-01 | Smpl参数预测模型的训练方法、服务器及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109859296A CN109859296A (zh) | 2019-06-07 |
CN109859296B true CN109859296B (zh) | 2022-11-29 |
Family
ID=66897461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910103414.XA Active CN109859296B (zh) | 2019-02-01 | 2019-02-01 | Smpl参数预测模型的训练方法、服务器及存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210232924A1 (zh) |
EP (1) | EP3920146A4 (zh) |
CN (1) | CN109859296B (zh) |
WO (1) | WO2020156148A1 (zh) |
Families Citing this family (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109859296B (zh) * | 2019-02-01 | 2022-11-29 | 腾讯科技(深圳)有限公司 | Smpl参数预测模型的训练方法、服务器及存储介质 |
US11423630B1 (en) | 2019-06-27 | 2022-08-23 | Amazon Technologies, Inc. | Three-dimensional body composition from two-dimensional images |
CN110415336B (zh) * | 2019-07-12 | 2021-12-14 | 清华大学 | 高精度人体体态重建方法及系统 |
CN110428493B (zh) * | 2019-07-12 | 2021-11-02 | 清华大学 | 基于网格形变的单图像人体三维重建方法及系统 |
CN110599540B (zh) * | 2019-08-05 | 2022-06-17 | 清华大学 | 多视点相机下的实时三维人体体型与姿态重建方法及装置 |
US11903730B1 (en) | 2019-09-25 | 2024-02-20 | Amazon Technologies, Inc. | Body fat measurements from a two-dimensional image |
CN110838179B (zh) * | 2019-09-27 | 2024-01-19 | 深圳市三维人工智能科技有限公司 | 基于体测数据的人体建模方法、装置及电子设备 |
CN112419419A (zh) * | 2019-11-27 | 2021-02-26 | 上海联影智能医疗科技有限公司 | 用于人体姿势和形状估计的系统和方法 |
CN110930436B (zh) * | 2019-11-27 | 2023-04-14 | 深圳市捷顺科技实业股份有限公司 | 一种目标跟踪方法及设备 |
CN111105489A (zh) * | 2019-12-23 | 2020-05-05 | 北京奇艺世纪科技有限公司 | 数据合成方法和装置、存储介质和电子装置 |
US11526697B1 (en) * | 2020-03-10 | 2022-12-13 | Amazon Technologies, Inc. | Three-dimensional pose estimation |
CN111047548B (zh) * | 2020-03-12 | 2020-07-03 | 腾讯科技(深圳)有限公司 | 姿态变换数据处理方法、装置、计算机设备和存储介质 |
CN111401234B (zh) * | 2020-03-13 | 2022-06-14 | 深圳普罗米修斯视觉技术有限公司 | 三维人物模型构建方法、装置及存储介质 |
CN113449570A (zh) * | 2020-03-27 | 2021-09-28 | 虹软科技股份有限公司 | 图像处理方法和装置 |
CN111582036B (zh) * | 2020-04-09 | 2023-03-07 | 天津大学 | 可穿戴设备下基于形状和姿态的跨视角人物识别方法 |
CN113689578B (zh) * | 2020-05-15 | 2024-01-02 | 杭州海康威视数字技术股份有限公司 | 一种人体数据集生成方法及装置 |
CN111968217B (zh) * | 2020-05-18 | 2021-08-20 | 北京邮电大学 | 基于图片的smpl参数预测以及人体模型生成方法 |
GB202009515D0 (en) * | 2020-06-22 | 2020-08-05 | Ariel Ai Ltd | 3D object model reconstruction from 2D images |
CN111783609A (zh) * | 2020-06-28 | 2020-10-16 | 北京百度网讯科技有限公司 | 行人再识别的方法、装置、设备和计算机可读存储介质 |
CN112116984B (zh) * | 2020-09-16 | 2023-08-29 | 无锡职业技术学院 | 面对肥胖大学生群体的肥胖分析干预方法 |
CN112307940A (zh) * | 2020-10-28 | 2021-02-02 | 有半岛(北京)信息科技有限公司 | 模型训练方法、人体姿态检测方法、装置、设备及介质 |
CN112270711B (zh) * | 2020-11-17 | 2023-08-04 | 北京百度网讯科技有限公司 | 模型训练以及姿态预测方法、装置、设备以及存储介质 |
CN112714263B (zh) * | 2020-12-28 | 2023-06-20 | 北京字节跳动网络技术有限公司 | 视频生成方法、装置、设备及存储介质 |
CN112652057B (zh) * | 2020-12-30 | 2024-05-07 | 北京百度网讯科技有限公司 | 生成人体三维模型的方法、装置、设备以及存储介质 |
CN112819944B (zh) * | 2021-01-21 | 2022-09-27 | 魔珐(上海)信息科技有限公司 | 三维人体模型重建方法、装置、电子设备及存储介质 |
CN112802161B (zh) * | 2021-01-27 | 2022-11-15 | 青岛联合创智科技有限公司 | 一种三维虚拟角色智能蒙皮方法 |
CN112991515B (zh) * | 2021-02-26 | 2022-08-19 | 山东英信计算机技术有限公司 | 一种三维重建方法、装置及相关设备 |
CN113079136B (zh) * | 2021-03-22 | 2022-11-15 | 广州虎牙科技有限公司 | 动作捕捉方法、装置、电子设备和计算机可读存储介质 |
CN113096249B (zh) * | 2021-03-30 | 2023-02-17 | Oppo广东移动通信有限公司 | 训练顶点重建模型的方法、图像重建方法及电子设备 |
CN113569627B (zh) * | 2021-06-11 | 2024-06-14 | 北京旷视科技有限公司 | 人体姿态预测模型训练方法、人体姿态预测方法及装置 |
US11854146B1 (en) * | 2021-06-25 | 2023-12-26 | Amazon Technologies, Inc. | Three-dimensional body composition from two-dimensional images of a portion of a body |
CN113610889B (zh) * | 2021-06-30 | 2024-01-16 | 奥比中光科技集团股份有限公司 | 一种人体三维模型获取方法、装置、智能终端及存储介质 |
CN113487575B (zh) * | 2021-07-13 | 2024-01-16 | 中国信息通信研究院 | 用于训练医学影像检测模型的方法及装置、设备、可读存储介质 |
CN113592928A (zh) * | 2021-07-26 | 2021-11-02 | 北京小米移动软件有限公司 | 图像处理方法、图像处理装置及存储介质 |
CN113628322B (zh) * | 2021-07-26 | 2023-12-05 | 阿里巴巴(中国)有限公司 | 图像处理、ar显示与直播方法、设备及存储介质 |
US11887252B1 (en) | 2021-08-25 | 2024-01-30 | Amazon Technologies, Inc. | Body model composition update from two-dimensional face images |
US11861860B2 (en) | 2021-09-29 | 2024-01-02 | Amazon Technologies, Inc. | Body dimensions from two-dimensional body images |
US11941738B2 (en) * | 2021-10-28 | 2024-03-26 | Shanghai United Imaging Intelligence Co., Ltd. | Systems and methods for personalized patient body modeling |
KR20230079618A (ko) | 2021-11-29 | 2023-06-07 | 삼성전자주식회사 | 인체를 3차원 모델링하는 방법 및 장치 |
CN114373033B (zh) * | 2022-01-10 | 2024-08-20 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备、存储介质及计算机程序 |
WO2023214093A1 (en) * | 2022-05-06 | 2023-11-09 | MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. | Accurate 3d body shape regression using metric and/or semantic attributes |
CN114998514A (zh) * | 2022-05-16 | 2022-09-02 | 聚好看科技股份有限公司 | 一种虚拟角色的生成方法及设备 |
CN115049764B (zh) * | 2022-06-24 | 2024-01-16 | 苏州浪潮智能科技有限公司 | Smpl参数预测模型的训练方法、装置、设备及介质 |
CN115376203A (zh) * | 2022-07-20 | 2022-11-22 | 华为技术有限公司 | 一种数据处理方法及其装置 |
US20240123288A1 (en) * | 2022-10-18 | 2024-04-18 | Tonal Systems, Inc. | Exercise guidance using multi-modal data |
CN115496864B (zh) * | 2022-11-18 | 2023-04-07 | 苏州浪潮智能科技有限公司 | 模型构建方法、重建方法、装置、电子设备及存储介质 |
US20240177326A1 (en) * | 2022-11-28 | 2024-05-30 | Shanghai United Imaging Intelligence Co., Ltd. | Systems and methods for human model recovery |
CN116580169B (zh) * | 2023-07-12 | 2023-10-31 | 南京硅基智能科技有限公司 | 一种数字人驱动方法及装置、电子设备和存储介质 |
CN117115363B (zh) * | 2023-10-24 | 2024-03-26 | 清华大学 | 人体胸部平面估计方法和装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108053437A (zh) * | 2017-11-29 | 2018-05-18 | 深圳奥比中光科技有限公司 | 基于体态的三维模型获取方法及装置 |
CN108629801A (zh) * | 2018-05-14 | 2018-10-09 | 华南理工大学 | 一种视频序列的三维人体模型姿态与形状重构方法 |
CN108898087A (zh) * | 2018-06-22 | 2018-11-27 | 腾讯科技(深圳)有限公司 | 人脸关键点定位模型的训练方法、装置、设备及存储介质 |
CN108960036A (zh) * | 2018-04-27 | 2018-12-07 | 北京市商汤科技开发有限公司 | 三维人体姿态预测方法、装置、介质及设备 |
CN109191554A (zh) * | 2018-09-04 | 2019-01-11 | 清华-伯克利深圳学院筹备办公室 | 一种超分辨图像重建方法、装置、终端和存储介质 |
CN109285215A (zh) * | 2018-08-28 | 2019-01-29 | 腾讯科技(深圳)有限公司 | 一种人体三维模型重建方法、装置和存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10395411B2 (en) * | 2015-06-24 | 2019-08-27 | MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. | Skinned multi-person linear model |
CN108594997B (zh) * | 2018-04-16 | 2020-04-21 | 腾讯科技(深圳)有限公司 | 手势骨架构建方法、装置、设备及存储介质 |
CN109859296B (zh) * | 2019-02-01 | 2022-11-29 | 腾讯科技(深圳)有限公司 | Smpl参数预测模型的训练方法、服务器及存储介质 |
-
2019
- 2019-02-01 CN CN201910103414.XA patent/CN109859296B/zh active Active
-
2020
- 2020-01-14 EP EP20748016.1A patent/EP3920146A4/en active Pending
- 2020-01-14 WO PCT/CN2020/072023 patent/WO2020156148A1/zh unknown
-
2021
- 2021-04-15 US US17/231,952 patent/US20210232924A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108053437A (zh) * | 2017-11-29 | 2018-05-18 | 深圳奥比中光科技有限公司 | 基于体态的三维模型获取方法及装置 |
CN108960036A (zh) * | 2018-04-27 | 2018-12-07 | 北京市商汤科技开发有限公司 | 三维人体姿态预测方法、装置、介质及设备 |
CN108629801A (zh) * | 2018-05-14 | 2018-10-09 | 华南理工大学 | 一种视频序列的三维人体模型姿态与形状重构方法 |
CN108898087A (zh) * | 2018-06-22 | 2018-11-27 | 腾讯科技(深圳)有限公司 | 人脸关键点定位模型的训练方法、装置、设备及存储介质 |
CN109285215A (zh) * | 2018-08-28 | 2019-01-29 | 腾讯科技(深圳)有限公司 | 一种人体三维模型重建方法、装置和存储介质 |
CN109191554A (zh) * | 2018-09-04 | 2019-01-11 | 清华-伯克利深圳学院筹备办公室 | 一种超分辨图像重建方法、装置、终端和存储介质 |
Non-Patent Citations (1)
Title |
---|
End-to-end 3D face reconstruction with deep neural networks;Pengfei Dou;《2017 IEEE International Conference on Computer Vision》;20171109;5908-5917 * |
Also Published As
Publication number | Publication date |
---|---|
EP3920146A4 (en) | 2022-10-19 |
CN109859296A (zh) | 2019-06-07 |
EP3920146A1 (en) | 2021-12-08 |
WO2020156148A1 (zh) | 2020-08-06 |
US20210232924A1 (en) | 2021-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109859296B (zh) | Smpl参数预测模型的训练方法、服务器及存储介质 | |
US10679046B1 (en) | Machine learning systems and methods of estimating body shape from images | |
EP3944200B1 (en) | Facial image generation method and apparatus, device and storage medium | |
JP7526412B2 (ja) | パラメータ推定モデルの訓練方法、パラメータ推定モデルの訓練装置、デバイスおよび記憶媒体 | |
CN110807451B (zh) | 人脸关键点检测方法、装置、设备及存储介质 | |
CN111598998A (zh) | 三维虚拟模型重建方法、装置、计算机设备和存储介质 | |
CN110458939A (zh) | 基于视角生成的室内场景建模方法 | |
EP3992919B1 (en) | Three-dimensional facial model generation method and apparatus, device, and medium | |
EP3644277A1 (en) | Image processing system, image processing method, and program | |
CN111127631B (zh) | 基于单图像的三维形状和纹理重建方法、系统及存储介质 | |
EP3905194A1 (en) | Pose estimation method and apparatus | |
WO2021063271A1 (zh) | 人体模型重建方法、重建系统及存储介质 | |
US20200057778A1 (en) | Depth image pose search with a bootstrapped-created database | |
CN116563493A (zh) | 基于三维重建的模型训练方法、三维重建方法及装置 | |
CN117372604A (zh) | 一种3d人脸模型生成方法、装置、设备及可读存储介质 | |
CN118505878A (zh) | 一种单视角重复对象场景的三维重建方法与系统 | |
CN114638866A (zh) | 一种基于局部特征学习的点云配准方法及系统 | |
CN114429518A (zh) | 人脸模型重建方法、装置、设备和存储介质 | |
CN111709269B (zh) | 一种深度图像中基于二维关节信息的人手分割方法和装置 | |
CN111783497B (zh) | 视频中目标的特征确定方法、装置和计算机可读存储介质 | |
CN109166176B (zh) | 三维人脸图像的生成方法与装置 | |
CN113439909A (zh) | 一种对象的三维尺寸测量方法和移动终端 | |
CN111275610A (zh) | 一种人脸变老图像处理方法及系统 | |
CN112381825B (zh) | 用于病灶区图像几何特征提取的方法和相关产品 | |
CN114913287A (zh) | 一种三维人体模型重建方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |