CN115461785A - 生成非线性人类形状模型 - Google Patents
生成非线性人类形状模型 Download PDFInfo
- Publication number
- CN115461785A CN115461785A CN202080100318.0A CN202080100318A CN115461785A CN 115461785 A CN115461785 A CN 115461785A CN 202080100318 A CN202080100318 A CN 202080100318A CN 115461785 A CN115461785 A CN 115461785A
- Authority
- CN
- China
- Prior art keywords
- shape
- model
- learned
- training
- machine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 claims abstract description 94
- 230000037237 body shape Effects 0.000 claims abstract description 30
- 230000008921 facial expression Effects 0.000 claims description 69
- 238000000034 method Methods 0.000 claims description 57
- 230000008569 process Effects 0.000 claims description 25
- 230000001815 facial effect Effects 0.000 claims description 15
- 230000003068 static effect Effects 0.000 claims description 12
- 230000001419 dependent effect Effects 0.000 claims description 10
- 239000013598 vector Substances 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 6
- 238000003780 insertion Methods 0.000 claims description 5
- 230000037431 insertion Effects 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims 2
- 238000013135 deep learning Methods 0.000 abstract description 4
- 239000002131 composite material Substances 0.000 abstract 1
- 230000033001 locomotion Effects 0.000 description 22
- 238000010801 machine learning Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 19
- 210000003128 head Anatomy 0.000 description 19
- 238000013528 artificial neural network Methods 0.000 description 13
- 238000011156 evaluation Methods 0.000 description 12
- 230000008901 benefit Effects 0.000 description 8
- 238000012937 correction Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000007935 neutral effect Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 210000004872 soft tissue Anatomy 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 230000009916 joint effect Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000000284 resting effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000002478 hand joint Anatomy 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 210000000577 adipose tissue Anatomy 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000010195 expression analysis Methods 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 210000003739 neck Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001144 postural effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000004215 skin function Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2021—Shape modification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Image Generation (AREA)
Abstract
本公开提供了在完全可训练的、模块化的深度学习框架内的统计的、铰接的3D人类形状建模流水线。具体而言,本公开的各方面针对机器学习的3D人类形状模型,其至少具有对一组训练数据端到端联合训练的面部和身体形状组件。模型组件(例如,包括面部、手部二者以及身体的其余部位组件)的联合训练使能提高所生成的面部和身体形状之间的合成一致性。
Description
技术领域
本公开通常涉及三维(3D)人类形状建模流水线。更具体地,本公开涉及包括或使用机器学习的三维人类形状模型的系统和方法,该机器学习的三维人类形状模型至少具有已经过端到端联合训练的面部和身体形状组件。
背景技术
人类的运动、动作和表情对于各种技术领域都具有重要的实际意义,并且受到持续的关注。作为示例,图像和视频中的创造性捕捉、身临其境的摄影和物理3D空间推理都是受益于改进的人体建模的技术领域。因此,能够在姿势、形状、面部表情和/或手部操作的层面上准确表示全身细节的模型是必不可少的,以便捕捉和深入分析那些只有在3D中才能完全理解的微妙交互。
虽然在图像和视频中定位人类简笔画方面,并且在某些条件下,可以提升到等效的3D骨架和基本形状的方面,已经取得了相当大的进展,但是以3D物理空间为基础,在语义有意义的表面层面上重构人体的准确模型的总的探索仍然是正在经历重大创新的领域。
模型构建进步的潜力,至少在中期内,似乎处于直观的物理和语义人类建模与大规模捕捉数据集之间的影响程度。虽然随着时间的推移,已经构建了用于面部、手部和身体的许多有趣而强大的模型,但大多数(如果不是全部的话),它们都是孤立建立的,而不是在完整的人体背景下建立的。因此,不可避免的是,他们没有利用最近在深度学习背景下出现的大规模数据分析和模型构建过程。
作为示例,众多最近的全身模型,如亚当、弗兰克或SMPL-X,结合了用于面部、身体和手部的传统组件,但通常专注于在已经学习的组件上构建一致的、联合的参数化和适当的缩放。这使得难以同时充分利用所有数据中的结构,试验组件的替代表示或不同损失,评价最终影响,以及创新。
发明内容
本公开的实施例的方面和优点将在以下描述中部分地阐述,或者可以从描述中获知,或者可以通过实施例的实践获知。
本公开的一个示例方面针对一种计算系统,其特征在于至少具有端对端联合训练的面部和身体形状组件的机器学习的三维人类形状模型。该计算系统包括一个或多个处理器和共同存储机器学习的三维人类形状模型的一种或多种非暂时性计算机可读介质。机器学习三维人类形状模型包括机器学习面部表情解码器模型,其被训练为处理与人体相关联的面部表情嵌入,以生成人体的面部表情数据。机器学习的三维人类形状模型包括机器学习的姿势空间变形模型,其被训练为处理一组姿势参数以生成人体的姿势相关的形状调整。机器学习三维人类形状模型包括机器学习形状解码器模型,其被训练为处理与人体相关联的静止形状嵌入,以生成人体的基于同一性的静止形状数据。对机器学习的三维人类形状模型进行训练以至少部分地基于面部表情数据、姿势相关的形状调整,和基于同一性的静止形状数据来生成人体的设定姿势网格。机器学习的面部表情解码器模型、机器学习的姿势空间变形模型,和机器学习的形状解码器模型中的所有模型都已经至少部分地基于重构损失函数进行了端到端的联合训练,该重构损失函数将通过用于训练身体的机器学习的三维人类形状模型生成的训练设定姿势网格与训练身体的一个或多个真值(groundtruth)配准的形状扫描进行比较。
本公开的另一个示例方面针对一种用于端到端联合训练机器学习的三维人类形状模型的计算机实现的方法。该方法包括:通过包括一个或多个计算设备的计算系统获得训练身体的一个或多个真值配准的形状扫描,其中训练身体的一个或多个真值配准的形状扫描至少包括具有任意姿势的真值配准的全身扫描和真值配准的面部细节扫描。该方法包括通过计算系统使用形状编码器模型对具有静止姿势的估计的配准全身扫描进行编码,以获得与训练身体相关联的静止形状嵌入。该方法包括通过计算系统使用形状解码器模型解码静止形状嵌入,以获得训练身体的基于同一性的静止形状数据。该方法包括通过计算系统使用面部编码器模型对从真值配准的面部细节扫描中导出的数据进行编码,以获得与训练身体相关联的面部表情嵌入。该方法包括通过计算系统使用面部解码器模型对面部表情嵌入进行解码,以获得训练身体的面部表情数据。该方法包括通过计算系统至少部分地基于该基于同一性的静止形状数据、面部表情数据和对应于该任意姿势的一组姿势参数来生成用于训练身体的训练设定姿势网格。该方法包括评估重构损失函数,该重构损失函数将用于训练身体生成的训练设定姿势网格与具有任意姿势的真值配准的全身扫描和真值配准的面部细节扫描进行比较。该方法包括至少部分基于重构损失来联合训练形状编码器模型、形状解码器模型、面部编码器模型和面部解码器模型。
本公开的另一示例方面针对一种或多种非暂时性计算机可读介质,其共同存储机器学习的三维人类形状模型,包括:机器学习的面部表情解码器模型,其被训练为处理与人体相关联的面部表情嵌入以生成人体的面部表情数据;以及机器学习的形状解码器模型,其被训练为处理与人体相关联的形状嵌入,以生成人体的基于同一性的形状数据。对机器学习的三维人类形状模型进行训练以至少部分地基于面部表情数据、一组姿势参数和基于同一性的形状数据来生成人体的设定姿势网格。机器学习的面部表情解码器模型和机器学习的形状解码器模型已经至少部分地基于重构损失函数进行了端到端联合训练,该重构损失函数将通过用于训练身体的机器学习的三维人类形状模型生成的训练设定姿势网格与训练身体的一个或多个真值配准的形状扫描进行比较。
本公开的其他方面针对各种系统、装置、非暂时性计算机可读介质、用户界面和电子设备。
参考以下描述和所附权利要求,将更好地理解本公开的各种实施例的这些和其他特征、方面和优点。并入本说明书并构成其一部分的附图对本公开的示例实施例进行了图示,并与描述一起用于解释相关原理。
附图说明
在参考附图的说明书中阐述针对本领域普通技术人员的实施例的详细讨论,其中:
图1描绘了根据本公开的示例实施例的示例人类形状模型的示例评估。
图2描绘了根据本公开的示例实施例的示例机器学习人类形状模型的框图。
图3描绘了根据本公开的示例实施例的特写的头部和手部扫描。
图4描绘了根据本公开的示例实施例的示例人类形状模型的示例评估。
图5描绘了根据本公开的示例实施例的示例姿势空间变形模型的框图。
图6描绘了根据本公开的示例实施例的示例人类形状模型的示例评估。
图7描绘了根据本公开的示例实施例的编码技术的示例分析。
图8描绘了根据本公开的示例实施例的示例人类形状模型的示例评估。
图9描绘了根据本公开的示例实施例的示例人类形状模型的示例评估。
图10描绘了根据本公开的示例实施例的从单目图像进行的人类姿势和形状重构。
图11A描绘了根据本公开的示例实施例的示例计算系统的框图。
图11B描绘了根据本公开的示例实施例的示例计算设备的框图。
图11C描绘了根据本公开的示例实施例的示例计算设备的框图。
在多个附图中重复的附图标记旨在标识各种实现方式中的相同特征。
具体实施方式
1.介绍
总体上,本公开针对一种完全可训练的模块化深度学习框架内的统计的铰接的3D人类形状建模流水线。具体而言,本公开的各方面针对机器学习的3D人类形状模型,其至少具有对一组训练数据端到端联合训练的面部和身体形状组件。模型组件的联合训练(例如,包括面部和身体组件)使能提高所生成的面部和身体形状之间的合成一致性。
更具体地,在一些实现方式中,一组训练数据可以包括以各种姿势捕捉的人类的高分辨率完整3D身体扫描,可选地连同他们的头部和面部表情和/或手部关节活动的附加特写。一个示例训练数据集可以包括超过34,000种不同的人类配置。在一些实现方式中,可以将这些扫描中的每一个配准到一个或多个初始的、艺术家设计的、性别中性的装配的四边形网格,以获得人体的配准的形状扫描。
这里描述的一些示例机器学习的3D人类形状模型可以包括多个子模型或其他模块化组件。作为示例,人类形状模型可以包括:机器学习面部表情解码器模型,其被训练为处理与人体相关联的面部表情嵌入,以生成人体的面部表情数据;机器学习的姿势空间变形模型,其被训练为处理一组姿势参数以生成人体的姿势相关的形状调整;和/或机器学习形状解码器模型,其被训练为处理与人体相关联的静止形状嵌入以生成人体的基于同一性的静止形状数据。例如,在一些实现方式中,解码器模型可以作为相应自编码器(例如,变分自编码器)的一部分被训练,该相应自编码器被训练为接收输入形状网格(例如,面部网格或身体静止形状网格)并生成相应的嵌入(例如,面部表情嵌入或静止形状嵌入)。
可被包括在机器学习的3D人类形状模型中的附加示例模型可以包括:机器学习的关节中心预测模型,其被训练为处理基于同一性的静止形状数据以生成人体的骨架表示的多个关节的多个预测关节中心,和/或机器学习的混合蒙皮模型,其被训练为处理面部表情数据、姿势相关的形状调整、基于同一性的静止形状数据以及一个或多个预测关节中心以生成人体的设定姿势网格。
根据本公开的一个方面,上述或以其他方式被包括在机器学习的3D人类形状模型中的部分或全部模型可以基于共享损失函数进行端到端联合训练。因此,在一些实现方式中,可以在单个一致的学习循环中训练所有模型参数,包括基于变分自编码器的非线性形状空间、姿势空间变形修正、骨架关节中心预测和/或混合蒙皮函数。
同时训练3D动态扫描数据上的所有模型(例如,超过34000种不同的人类配置)可以提高整体模型捕捉相关性的能力,并确保各种组件(例如,建模的面部、身体和/或手部)的一致性。换句话说,通过对可以包括面部、身体和/或手部扫描的训练数据使用面部、身体和/或手部组件的联合训练,所得到的模型可以更自然和一致地支持面部表情分析,以及身体(具有详细的手部)形状和姿势估计。
本公开提供了两个示例性的完全可训练的性别中性的通用人类模型,其如本文所述进行构造和训练,并具有两种不同的分辨率——由10168个顶点组成的中等分辨率GHUM和2852个顶点的低分辨率GHUM(ite)。还为这两个示例人类模型提供了示例实验数据,这表明了具有减少的误差的改进的质量和一致性。作为示例,图1提供了GHUM和GHUML对GHS3D数据的示例评估,左侧是两个模型的热图。渲染图示出了受试者(后排)的不同身体姿势的配准,以及分别位于中间和前排的GHUML和GHUM拟合。两个模型都表明了良好的质量估计,其中GHUM的误差较低。
因此,本公开的各方面针对一种用于构建能够驱动身体形状以及面部表情和/或手部运动的全身的、统计的人类形状和姿势模型的端到端学习流水线。提供了端到端流水线和统一损失函数,其使能计算系统在具有解剖学关节角度约束的最小人类骨架参数化的背景下执行深度学习,允许同时训练所有模型组件,包括非线性形状空间、姿势空间变形修正、骨架关节中心估计器,和/或的混合蒙皮函数。该模型可以通过高分辨率全身扫描以及移动面部和/或手部的特写进行训练,以便确保身体部位组件之间的最大细节和设计一致性。
此外,描述了新收集的通用人类形状的3D数据集GHS3D,该数据集由超过30000张照片逼真的动态人体扫描组成。示例实施例还使用来自Caesar的超过4000次全身扫描。提供了中等分辨率模型GHUM和专门设计的(非下采样)低分辨率模型GHUML,并且在不同的线性和非线性模型(PCA或用于身体形状和面部表情的变分自编码器)下,针对配准和受约束的3D表面拟合评价了它们的相对性能。还说明了从图像中恢复形状和姿势。
本文描述的系统和方法提供众多技术效果和益处。作为一个示例技术效果,本公开的系统和方法可以提供人类形状的更真实的二维或三维渲染图或模型,包括在身体、面部和/或手部特征之间具有改进的一致性的人类形状。具体来说,模型组件可以学习彼此相一致,也可以学习跨领域的模式或关系。因此,本公开的系统和方法可以使能计算系统执行改进的人类建模功能。
作为另一示例技术效果,通过联合训练多个模型组件,可以减少产生人类形状模型所需的训练时间总量。更具体地说,以前的方法单独训练面部和身体部位,然后试图在之后将它们组合起来,这导致了两个不同的训练过程,然后需要附加的工作来促进组合,这可能仍然是不一致的。所提出的方法在一个端到端的过程中联合训练所有模型组件,从而使得训练和作为结果的模型更加一致。
现在参考附图,将更详细地讨论本公开的示例实施例。
2.示例实现概述
给定被表示为非结构化点云的人体扫描的训练集,其中点的数量P变化,提供了使能学习表示身体形状的可变性和关节活动导致的自然变形的统计的身体模型的技术。身体模型X可以具有例如由艺术家提供的(装配的)模板网格指定的V个顶点的一致的拓扑,并且α可以是控制形状和关节活动导致的身体变形的一组变量。如图2所图示的,为了从扫描数据Y中学习数据驱动的人类模型,可以首先将身体模板配准到点云,以便获得相同拓扑的新的、配准的真值网格,其被标记为
然后可以将配准的真值网格X*馈入到端到端的训练网络中,其中,调整模型参数α以产生作为关节活动和形状调整的结果的与输入紧密匹配的输出。可以使用各种技术,包括经由迭代最近点(ICP)损失(与用于配准那些相同)对点云的直接模型参数调整,或者与代理网格X*对齐。将相同的模型拓扑的输入网格X*作为目标,使得该过程变得相当快,并且表现出更好的训练损失。
因此,图2图示了示例端到端统计3D铰接的人类形状模型构建的概览。训练输入可以包括一组高分辨率3D身体扫描,包括静止(或“A”)姿势和展示出各种关节活动和软组织变形的任意姿势。此外,可以收集详细面部表情的头部特写扫描和/或捕捉不同手势和对象抓取的手部特写扫描。这些扫描通常以Y示出。
可以通过以下操作来自动识别身体标志(landmark):渲染来自多个虚拟视点(例如,其可以不同于用于收集数据的原始相机组)的数据的照片真实感3D重构(例如,使用多视图立体三角测量技术获得的),检测所生成的图像中的那些标志,并且三角测量图像中的标志检测,以便获得它们对应的3D重构。在尽可能共形(conformal)的表面先验下,可以使用结合了稀疏标志对应和密集迭代最近点(ICP)残差(例如,实现为点扫描到网格面距离)的损失,将艺术家设计的全身铰接的网格渐进地配准到点云。配准的真值形状扫描通常以X*示出。
图2所图示的示例人类形状模型可以具有被实现为身体φb的深度变分自编码器(VAE)以及面部表情φf的偏移VAE的非线性形状空间。示例人类形状模型还包括由具有J个关节的骨架K调制的可训练的姿势空间变形函数D,中心预测器C,和混合蒙皮函数M。
在一些实现方式中,在训练期间,可以使用相同受试者的所有高分辨率扫描(全身以及脸部和手部的特写)(参见图3),其中通过滤波器F对残差进行适当地掩码。对于模型构建,可以使用N个捕捉的受试者,有B个全身扫描,F个特写手部扫描和H个特写头部扫描。在一些实现方式中,在学习期间,训练算法可以在最小化每次扫描θ中关于姿势估计的损失函数和相对于其他模型参数(φ,γ,ψ,ω)对其优化之间交替。
在操作中,对于姿势和形状估计,模型可以由参数α=(θ,β)控制,包括运动学姿势θ以及身体形状和面部表情β=(βf,βb)的VAE隐空间,其中编码器-解码器由φ=(φf,φb)给出。
2.1示例人类模型表示
本公开的示例实现方式可将人类模型表示为由具有J个关节和利用线性混合蒙皮(LBS)变形的皮肤的骨架K指定的铰接的网格,以显式编码关节的运动。除了骨架关节活动运动,非线性模型可以用于驱动面部表情。具有J个关节的模型X可以公式化为M(α=(θ,β),φ,γ,ω),或详细地说为
其中,是处于“A”姿势的基于同一性的静止形状(参见图2),其中β是编码身体形状可变性的低维度静止形状嵌入向量(可以使用包括PCA或VAE的不同低维度表示);类似地,是利用低维度面部表情嵌入βf来控制的中性头部姿势的面部表情;是取决于身体形状的骨架关节中心;是骨架姿势参数的向量,其由每个关节的欧拉角(直至)3个旋转DOF和根(root)的3个平移变量组成;是每顶点的蒙皮权重(例如,在一些实现方式中,其可能最多受一些关节的影响(例如,I=4));以及最后将姿势相关的修正混合形状添加到静止形状以修复蒙皮伪影。
使用艺术家定义的装配模板网格(Vghum=10,168,Vghuml=2852,J=63)分别生成被称为GHUM和GHUML的所提出的人类模型的两种示例实现方式。对于,GHUM和GHUML这二者,图2所图示的流水线估计了所有的参数(θ,φ,γ,ψ,ω),尽管网格拓扑和关节层级K被认为是固定的。该层级在解剖学上(因此最低限度地)参数化,以便在优化期间也可以利用生物机械关节角度限制。顶点xi∈X可以写为
3.示例端到端统计模型学习
本节提供了对优化蒙皮权重ω的示例端到端基于神经网络的流水线的描述,并学习从多受试者、多姿势配准的表面网格X*到全身和特写的面部及手部扫描的静止形状嵌入面部表情嵌入同一性形状相关的关节中心c(β),以及与姿势相关的混合形状(参见图2)。作为ICP配准的结果,一些示例重构损失可以使用一一对应(one-to-one correspondence)下的每顶点的欧几里德距离误差来公式化:
其中F是考虑不同类型数据的滤波器(例如,全身扫描而非特写)。在一些实现方式中,为了构建X(α),可以与统计形状参数联合估计姿势θ。作为一个示例,可以执行块坐标下降,包括基于BFGS层在当前形状参数下的姿势参数θ的估计和用固定的θ更新其他模型参数之间交替。例如,可以从艺术家提供的默认值来初始化蒙皮,所有其他参数为0。每个子模块可以基于全局损失(4)来更新参数α。
3.1示例变分身体形状自编码器
在一些示例实现方式中,可以通过在静止或中性“A”姿势下,将模型配准到Caesar数据集(4329个受试者)以及GHS3D中的捕捉的扫描来获得多受试者形状扫描。作为一个示例,图3图示出了头部和面部扫描的特写。一些示例实现通过融合身体扫描和特写手和头部扫描来估计中性A姿势下的全身形状。与从单个身体扫描进行身体形状估计相比,这些示例实现方式可以利用附加的头部和手部形状细节。
给定针对多个受试者估计的静止形状可以为身体形状变化建立压缩隐空间。作为一个示例,代替简单地建立PCA子空间,可以使用具有低维度隐子空间的深度非线性变分自编码器来表示身体形状。因为在一些实现方式中,网格关节活动是估计的,所以到(多个)自编码器的输入扫描都在“A”姿势下被很好地对齐,而没有来自刚性变换和姿势关节活动的显著扰动。
在一些示例实现方式中,编码器和解码器可以使用参数ReLU激活函数,因为它们可以针对某些参数对恒等变换或标准ReLU进行建模。作为标准实践,变分编码器可以输出平均值和方差(μ,Σ),其可以通过重新参数化技巧而被变换到隐空间,以便获得采样码βb。在一些实现方式中,可以使用简单的分布并且可以将Kullback-Leibler散度集成到损失函数中以正则化隐空间。因此,一个示例公式如下:
其中编码器SE将平均身体形状的方差捕捉到隐向量中βb并且解码器SD从βb构建静止形状以匹配输入的目标静止形状。具体而言,一些示例实现方式将编码器和解码器的第一层和最后一层分别初始化到PCA子空间其中L是隐空间的维度。所有其他完全连接的层都可以初始化为恒等的,包括PReLU单元。在一些示例实现方式中,对数方差条目的子矩阵可以被初始化为0,并且偏差可以被设置为足够大的负值。以此方式,网络将有效地从线性模型初始化,同时例如与PCA相比,保持附加参数最小。
3.2示例变分面部表情自编码器
变分身体形状自编码器可以表示各种身体形状,包括脸部形状的方差。为了附加支持复杂的面部表情(与仅仅人体测量学的头部和面部静止变化相反),可以可选地引入附加的面部建模。例如,该模型可以从GHS3D中的数千个面部表情运动序列扫描中构建。除了一个3-DOF铰接的下巴,两个2-DOF眼睑和两个2-DOF眼球之外,还可以和流水线的其余部分一起更新头部上铰接的关节的参数,包括蒙皮权重和姿势空间变形。
对于由于表情而不是关节活动引起的面部运动,可以在与变分身体形状自编码器相同的网络结构中建立非线性嵌入βf。通过移除所有铰接的关节运动(包括颈部、头部、眼睛和下巴),对VAE的输入可以是中性头部姿势下的面部表情(对于GHUM Vf=1,932并且对于GHUML是585)。在一些实现方式中,为了将配准的头部网格解除姿势到中性,可以尽量拟合(4)与配准匹配的中性头部形状(无表情)的铰接的关节运动θ。在面部表情中考虑设定姿势的头部和配准之间的位移场,并且在比较之前可以消除(解除姿势)铰接的关节θ的影响。
3.3示例蒙皮模型
在应用非线性形状和面部表情模型之后,可以从多受试者和多姿势网格数据中统计地估计最佳蒙皮函数。具体地,可以使用与(4)中相同的日期项,但是现在优化变量可以是关节中心估计器C(ψ),的参数,对身体形状D(θ,γ)的姿势相关的校正,和/或蒙皮权重ω。
骨架关节中心的一个可能选择是将它们放置在连接受关节影响最大的两个网格组件(分段)的边界顶点的环上的平均值位置。边界顶点的平均值,强制骨架位于网格表面的凸包中,以使中心适配于不同的身体比例。但是,为了获得更好的蒙皮,可以保持估计但是可以在上面建立线性回归器ΔC:以从身体形状学习关节中心校正
在一些实现方式中,不是通过汇集所有网格顶点来全局地学习关节中心,而是可以仅从由关节蒙皮的那些顶点局部地执行估计。这产生显著更少的可训练的参数,从3N×3J降低到3N×3I,例如,在实践中I=4。也可以通过L1正则化来鼓励稀疏性,以及骨骼方向与模板的对齐。为了避免奇点并防止关节中心移出表面,可以正则化中心校正的幅度
在一些实现方式中,为了修复作为复杂软组织变形的结果的蒙皮伪影,可以学习数据驱动的姿势相关校正器(PSD)并将其并应用到静止形状。可以估计非线性映射D:然而,网格顶点上的姿势空间校正应该直观地来源于邻近关节。因此,一些示例实现方式可以使用完全连接的ReLU激活层来提取比输入更加压缩特征向量(例如,32个单元),从中可以线性回归姿势空间变形。
此外,在某些实例下,是稀疏的,并且关节只能对其蒙皮网格补订生成局部变形修正。与SMPL的密集线性回归器相比,所提出的网络产生具有明显更少的可训练的参数相似质量的变形。该系统可以将姿势空间变形的幅度正则化为较小,防止通过PSD校正过拟合来匹配目标。这可以通过作为简单的L2惩罚来实现,如
高频局部PSD通常是不期望的,很可能是由于过拟合。因此,可以鼓励平滑的姿势空间变形
其中N(i)是顶点i的邻近顶点,并且li,j是基于余切的拉普拉斯权重。
即使在PSD正则化和可训练权重的减少的数量的情况下,过拟合仍然可能发生。与仅针对某些区域(身体或手部)特别地建立姿势空间变形的SMPL或MANO不同,在本公开的一些实现方式中,PSD模型是针对整个人类模型构建的,基于高分辨率身体、手部和头部数据特写进行联合训练。因此,身体数据在手部和头部运动上具有有限的变化,而头部和手部数据没有身体其余部位的运动。因此,存在很大的关节活动空间,其中所有关节都可以在不影响损失的情况下移动。这是不期望的。为了防止过拟合,输入姿势特征向量可以被滤波或掩码到4个特征向量,包括头部、身体、左手和右手关节。可以将每个特征向量带入相同的ReLU层,并且可以在下一个回归器之前对输出求和。因此,一个示例损失如下:
这强制掩码区域外的PSD变小,从而使网络产生的修正偏向有限的全局影响。然而,从所有相关数据中学习与头部、手部和身体其余部位之间的区域相对应的共享表面区域的变形。
在一些实现方式中,为了估计蒙皮权重,在流水线的末端,可以使用线性混合蒙皮层,给定姿势θ和带有面部表情的姿势校正的静止形状 输出由可训练蒙皮权重参数ω控制的设定姿势网格(2)。每个蒙皮顶点可以可选地最大程度地受模板中某个数量(例如,I=4)关节的影响。然后,系统可以正则化ω以便接近要在空间上进行平滑的初始的艺术家绘制的值和/或是非负且被归一化的每顶点的蒙皮权重
也可以通过添加以下将最终蒙皮的网格X弱正则化为平滑的
姿势估计器。给定身体形状估计和当前蒙皮参数,可以在训练集上重新优化姿势θ。为了限制搜索空间、强化一致性并避免不自然的局部最小值,可以利用人体测量骨架可用的解剖学关节角度限制。可以使用具有盒约束的L-BFGS解算器有效地解决该问题,并且梯度由TensorFlow的自动微分来评估。
4.示例实验
本节描述了在本文描述的系统和方法的示例实现方式上进行的示例实验。
数据集。除了包含多样身体形状和脸部形状的Caesar(4,329个受试者),本文描述的示例实验也使用在60Hz操作的多个3dmd系统来捕捉具有55个身体姿势、60个手部姿势和面部表情的40个运动序列的32个受试者(16名女性和16名男性)。受试者具有的BMI范围从17.5到39,高度自152cm到192cm,年龄从22到47。对于所有多姿势数据,基于包含通常不在训练集中的姿势的自由式运动序列,我们使用3个受试者进行评估,以及4个受试者用于测试。每个面部捕捉序列从中性面部开始到指定面部表情,并且每个序列持续大约2s。
来自数据的配准样本如图6所示。具体来说,图6示出了来自Caesar(左上)以及GHS3D的数据的样本配准。注意配准的质量,其捕捉了面部细节和作为关节活动的结果的其他身体部位的软组织变形。
配准。表1报告了使用ICP和(扩展的)倒角(Chamfer)距离对点云的配准。将ICP误差测量为到最近的配准网格面的点与平面的距离,而将倒角估计为双向点到点。
表1:GHUM和GHUML在Caesar和GHS3D上的配准误差(包括面部、手部和身体其他部位的详细信息)。
所提出的配准技术具有低误差,并且保留了局部点云细节(图6)。
模型评估。全分辨率和低分辨率人类模型(GHUM和GHUML)都是使用我们的端到端流水线建立的。两个模型共享相同的一组骨架关节,但具有10168对2852个网格顶点(具有面部表情的1932对585个顶点)。对于这两个模型,示例实验评估了测试数据上网格X至配准X*的基于顶点的平均欧几里得距离。在表2中报告了数字并且将其可视化示出在图4、图1和图9中(请参见Sup.Mat中的手部评估)。我们将两个模型的输出与它们对应拓扑下的配准网格进行比较。这两个模型都可以紧密地表示各种身体形状(例如,被建模为VAE),产生自然的面部表情(例如,被表示为面部VAE),并且对于各种身体形状和姿势,平滑且自然,而没有可注意到的蒙皮伪影的姿势(例如,由优化的蒙皮参数产生的)。
表2:用于配准的基于顶点的平均欧几里得误差(mm)。
GHUM对GHUML。低分辨率模型保留了身体形状的全局特征,并正确地为身体和面部运动蒙皮。与GHUM相比,可以观察到GHUML丢失了嘴唇变形、手臂和手部指处的肌肉凸起以及由于脂肪组织引起的皱纹的一些细节。就性能而言,在前馈评估模式下,GHUML比GHUM快2.5×。
图4示出了对Caesar的评估。图4的左侧示出了GHUM和GHUML的配准的每顶点的欧几里德距离误差。图4的右侧从上到下示出了GHUM和GHUML的配准。基于VAE的模型可以很好地表现身体形状。与GHUML相比,GHUM保留了附加的肌肉或腰部软组织细节。
图9示出了图1中的评估和渲染,重点是GHUM和GHUML的手部重构。类似的结论如图1所示。请注意,相比于GHUML,GHUM保留的手掌弯曲区域周围的附加变形细节。
VAE评估。对于身体形状,所提出的VAE支持16-dim和64-dim的隐表示,而前者有1.72×较高的重构误差(表2和图中的报告基于64-dim表示)。在某些示例中,20-dim嵌入可以用于面部表情VAE。
图7示出了对于VAE和PCA,作为隐维度的函数的面部表情的重构误差。20维VAE的重构误差与使用96线性PCA基础类似的重构误差,代价是2.9×的更慢的性能。具体而言,图7示出了对VAE和PCA模型的分析,该分析说明了非线性在低维度领域中的优势。
GHUM对SMPL。在图8中,比较了GHUM和SMPL的视觉质量。具体地,图8从左到右示出了两个姿势中每一个,GHUM和SMPL的配准。GHUM产生了视觉质量相当的姿势,尽管注意到该运动序列的骨盆伪影较少。
GHUM与SMPL有不同的网格和骨架拓扑,而SMPL没有手部和面部关节。为了进行比较,从GHS3D取得捕捉的运动序列(所有姿势,不在我们的训练数据集中),并且捕捉的序列分别与SMPL和GHUM网格配准。当评估误差时,使用一一对应(one-to-one)的点到平面(point-to-plane)的欧几里德距离(例如,为了避免在配准期间对表面滑动的敏感性),并且仅在身体区域上评估误差,以便与SMPL进行公平的比较。来自GHUM的平均重构误差为4.4mm,而SMPL具有5.37mm的误差,并且观察到GHUM的视觉蒙皮质量与SMPL相当。
来自单目图像的3D姿势和形状重构。本节说明了GHUM的图像推理。在这种情况下,模型的运动学先验(用于手部和身体的其他部位,不包括面部)已经用来自Human3.6M、CMU和GHS3D的数据进行了训练。图像预测器没有用于姿势和形状。相反,初始化是在6种不同的运动学配置下进行的,并且在解剖学关节角度限制下优化参数α。作为损失,使用骨架关节重投影误差和语义身体部位对齐。结果如图10所示。具体地,图10示出了在语义身体部位对齐损失的情况下,通过依赖于非线性姿势和形状优化,利用GHUM的单目3D人类姿势和形状重构。
5.示例设备和系统
图11A描绘了根据本公开的示例实施例的示例计算系统100的框图。系统100包括通过网络180通信耦合的用户计算设备102、服务器计算系统130和训练计算系统150。
用户计算设备102可以是任何类型的计算设备,诸如例如个人计算设备(例如,膝上型或台式)、移动计算设备(例如,智能手机或平板电脑)、游戏控制台或控制器、可穿戴计算设备、嵌入式计算设备,或任何其他类型的计算设备。
用户计算设备102包括一个或多个处理器112和存储器114。一个或多个处理器112可以是任何合适的处理设备(例如,处理器内核、微处理器、ASIC、FPGA、控制器、微控制器等)并且可以是一个处理器或可操作地连接的多个处理器。存储器114可以包括一种或多种非暂时性计算机可读存储介质,诸如RAM、ROM、EEPROM、EPROM、闪存设备、磁盘等,及其组合。存储器114可以存储数据116和可由处理器112执行的以使用户计算设备102执行操作的指令118。
在一些实现方式中,用户计算设备102可以存储或包括一个或多个机器学习模型120。例如,机器学习模型120可以是或者可以以其他方式包括各种机器学习模型,诸如神经网络(例如,深度神经网络)或者其他类型的机器学习模型,包括非线性模型和/或线性模型。神经网络可以包括前馈神经网络、循环神经网络(例如,长短期记忆循环神经网络)、卷积神经网络或其他形式的神经网络。参考图2讨论示例机器学习模型120。
在一些实现方式中,可以通过网络180从服务器计算系统130接收一个或多个机器学习模型120,将其存储在用户计算设备存储器114中,然后由一个或多个处理器112使用或以其他方式实现。在一些实现方式中,用户计算设备102可以实现单个机器学习模型120的多个并行实例。
附加地或可选地,可以将一个或多个机器学习模型140包括在根据客户端-服务器关系与用户计算设备102通信的服务器计算系统130中,或者以其他方式由其存储和实现。例如,机器学习模型140可以由服务器计算系统140实现为web服务(例如,身体形状建模和/或渲染服务)的一部分。因此,一个或多个模型120可以在用户计算设备102处存储和实现,和/或一个或多个模型140可以在服务器计算系统130处存储和实现。
用户计算设备102还可以包括接收用户输入的一个或多个用户输入组件122。例如,用户输入组件122可以是对用户输入对象(例如,手部指或触笔)的触摸敏感的触敏组件(例如,触敏显示屏或触摸板)。触敏组件可以用来实现虚拟键盘。其他示例用户输入组件包括麦克风、传统键盘或用户可以用来提供用户输入的其他手段。
服务器计算系统130包括一个或多个处理器132和存储器134。一个或多个处理器132可以是任何合适的处理设备(例如,处理器内核、微处理器、ASIC、FPGA、控制器、微控制器等)并且可以是一个处理器或可操作地连接的多个处理器。存储器134可以包括一种或多种非暂时性计算机可读存储介质,诸如RAM、ROM、EEPROM、EPROM、闪存设备、磁盘等,及其组合。存储器134可以存储数据136和由处理器132执行以使服务器计算系统130执行操作的指令138。
在一些实现方式中,服务器计算系统130包括一个或多个服务器计算设备或者由一个或多个服务器计算设备来实现。在服务器计算系统130包括多个服务器计算设备的情况下,这样的服务器计算设备可以根据顺序计算架构、并行计算架构或其一些组合来操作。
如上所述,服务器计算系统130可以存储或以其他方式包括一个或多个机器学习模型140。例如,模型140可以是或者可以其他方式包括各种机器学习模型。示例机器学习模型包括神经网络或其他多层非线性模型。示例神经网络包括前馈神经网络、深度神经网络、循环神经网络和卷积神经网络。参考图2讨论示例模型140。
用户计算设备102和/或服务器计算系统130可以经由与通过网络180通信耦合的训练计算系统150的交互来训练模型120和/或140。训练计算系统150可以与服务器计算系统130分离,或者可以是服务器计算系统130的一部分。
训练计算系统150包括一个或多个处理器152和存储器154。一个或多个处理器152可以是任何合适的处理设备(例如,处理器内核、微处理器、ASIC、FPGA、控制器、微控制器等)并且可以是一个处理器或可操作地连接的多个处理器。存储器154可以包括一种或多种非暂时性计算机可读存储介质,诸如RAM、ROM、EEPROM、EPROM、闪存设备、磁盘等,及其组合。存储器154可以存储数据156和由处理器152执行以使训练计算系统150执行操作的指令158。在一些实现方式中,训练计算系统150包括一个或多个服务器计算设备或者由一个或多个服务器计算设备实现。
训练计算系统150可以包括模型训练器160,其使用各种训练或学习技术,诸如例如误差反向传播,来训练存储在用户计算设备102和/或服务器计算系统130处的机器学习模型120和/或140。例如,损失函数可以通过(多个)模型反向传播,以更新该(多个)模型的一个或多个参数(例如,基于损失函数的梯度)。可以使用各种损失函数,诸如均方误差、似然损失、交叉熵损失、铰链损失,和/或各种其他损失函数。梯度下降技术可用于在多次训练迭代中迭代地更新参数。
在一些实现方式中,执行误差的反向传播可以包括随时间执行截短的反向传播。模型训练器160可以执行多种泛化技术(例如,权重衰减、丢弃(dropout)等)来提高被训练的模型的泛化能力。
具体地,模型训练器160可以基于一组训练数据162来训练机器学习模型120和/或140。训练数据162可以包括例如全身、手部和/或面部扫描和/或这些扫描的真值配准。
在一些实现方式中,如果用户已经提供了同意,则训练示例可以由用户计算设备102提供。因此,在这样的实现方式中,提供给用户计算设备102的模型120可以由训练计算系统150根据从用户计算设备102接收的用户特定的数据来训练。在一些情况下,这个过程可以被称为对模型进行个性化。
模型训练器160包括用于提供所需功能的计算机逻辑。模型训练器160可以用控制通用处理器的硬件、固件和/或软件来实现。例如,在一些实现方式中,模型训练器160包括存储在存储设备上、加载到存储器中并由一个或多个处理器执行的程序文件。在其他实现方式中,模型训练器160包括一组或多组计算机可执行指令,这些指令存储在有形的计算机可读存储介质中,诸如RAM硬盘或光学或磁性介质。
网络180可以是任何类型的通信网络,诸如局域网(例如,内联网)、广域网(例如,互联网)或其一些组合,并且可以包括任何数量的有线或无线链路。一般而言,网络180上的通信可以使用各种通信协议(例如,TCP/IP、HTTP、SMTP、FTP)、编码或格式(例如,HTML、XML)和/或保护方案(例如,VPN、安全HTTP、SSL),经由任何类型的有线和/或无线连接来承载。
图11A图示出了可用于实现本公开的一个示例计算系统。也可以使用其他计算系统。例如,在一些实现方式中,用户计算设备102可以包括模型训练器160和训练数据集162。在这样的实现方式中,模型120可以在用户计算设备102处本地训练和使用。在一些这样的实现方式中,用户计算设备102可以实现模型训练器160来基于用户特定的数据对模型120进行个性化。
图11B描绘了根据本公开的示例实施例执行的示例计算设备10的框图。计算设备10可以是用户计算设备或服务器计算设备。
计算设备10包括多个应用(例如,应用1至N)。每个应用都包含自己的机器学习库和机器学习模型。例如,每个应用可以包括机器学习模型。示例应用包括文本消息应用、电子邮件应用、听写应用、虚拟键盘应用、浏览器应用等。
如图11B所图示,每个应用可以与计算设备的多个其他组件通信,诸如例如一个或多个传感器、上下文管理器、设备状态组件和/或附加组件。在一些实现方式中,每个应用可以使用API(例如,公共API)与每个设备组件通信。在一些实现方式中,每个应用使用的API是特定于该应用的。
图11C描绘了根据本公开的示例实施例执行的示例计算设备50的框图。计算设备50可以是用户计算设备或服务器计算设备。
计算设备50包括多个应用(例如,应用1至N)。每个应用都与中央智能层通信。示例应用包括文本消息应用、电子邮件应用、听写应用、虚拟键盘应用、浏览器应用等。在一些实现方式中,每个应用可以使用API(例如,跨所有应用的公用API)与中央智能层(以及存储在其中的(多个)模型)通信。
中央智能层包括许多机器学习模型。例如,如图11C所图示的,可以为每个应用提供相应的机器学习模型(例如,模型),并由中央智能层管理。在其他实现方式中,两个或更多应用可以共享单个机器学习模型。例如,在一些实现方式中,中央智能层可以为所有应用提供单个模型(例如,单个模型)。在一些实现方式中,将中央智能层包括在计算设备50的操作系统中,或者由计算设备50的操作系统来实现。
中央智能层可以与中央设备数据层通信。中央设备数据层可以是计算设备50的集中式数据仓库。如图11C所图示的,中央设备数据层可以与计算设备的多个其他组件通信,诸如例如一个或多个传感器、上下文管理器、设备状态组件和/或附加组件。在一些实现方式中,中央设备数据层可以使用API(例如,私有API)与每个设备组件通信。
6.附加的公开
这里讨论的技术涉及服务器、数据库、软件应用和其他基于计算机的系统,以及所采取的行动和发送到这些系统和从这些系统接收的信息。基于计算机的系统的固有灵活性允许在组件之间对任务和功能进行多种可能的配置、组合和划分。例如,这里讨论的过程可以使用单个设备或组件或者组合工作的多个设备或组件来实现。数据库和应用可以在单个系统上实现,也可以分布在多个系统上。分布式组件可以顺序或并行操作。
虽然已经关于其各种具体示例实施例对本主题进行了详细描述,但是每个示例都是以解释的方式提供的,而不是对本公开的限制。本领域的技术人员在理解了前述内容之后,可以容易地对这些实施例产生变更、变型和等效。相应地,本主题公开不排除对于本领域普通技术人员来说是明显的对本主题的这种修改、变化和/或添加。例如,作为一个实施例的一部分说明或描述的特征可以与另一个实施例一起使用,以产生又一个实施例。因此,本公开旨在覆盖这些变更、变化和等同物。
Claims (20)
1.一种计算机实现的方法,用于在端到端流水线中联合训练机器学习的三维人类形状模型,该方法包括,对于一次或多次训练迭代:
通过包括一个或多个计算设备的计算系统获得训练身体的一个或多个真值配准的形状扫描,其中所述训练身体的所述一个或多个真值配准的形状扫描至少包括具有任意姿势的真值配准的全身扫描和真值配准的面部细节扫描;
通过计算系统使用形状编码器模型对具有静止姿势的估计的配准全身扫描进行编码,以获得与所述训练身体相关联的静止形状嵌入;
通过计算系统使用形状解码器模型对静止形状嵌入进行解码,以获得所述训练身体的基于同一性的静止形状数据;
通过计算系统使用面部编码器模型对从所述真值配准的面部细节扫描导出的数据进行编码,以获得与所述训练身体相关联的面部表情嵌入;
通过计算系统使用面部解码器模型解码面部表情嵌入,以获得所述训练身体的面部表情数据;
通过计算系统至少部分地基于基于同一性的静止形状数据、面部表情数据和对应于任意姿势的一组姿势参数来生成所述训练身体的训练设定姿势网格;
评估重构损失函数,所述重构损失函数将为所述训练身体生成的所述训练设定姿势网格与具有任意姿势的所述真值配准的全身扫描和所述真值配准的面部细节扫描进行比较;
至少部分地基于重构损失来联合训练形状编码器模型、形状解码器模型、面部编码器模型和面部解码器模型;以及
提供至少包括形状解码器模型和面部解码器模型的机器学习的三维人类形状模型。
2.根据权利要求1所述的计算机实现的方法,其中:
通过计算系统生成所述训练身体的所述训练设定姿势网格包括:通过计算系统使用姿势空间变形模型来处理该组姿势参数以生成所述训练身体的姿势相关的形状调整;以及
至少部分地基于重构损失与形状编码器模型、形状解码器模型、面部编码器模型和面部解码器模型一起来联合训练所述姿势空间变形模型。
3.根据权利要求2所述的计算机实现的方法,其中:
通过计算系统生成所述训练身体的所述训练设定姿势网格包括:
通过计算系统使用关节中心预测模型来处理基于同一性的静止形状数据,以生成所述训练身体的骨架表示的多个关节的多个预测的关节中心;以及
通过计算系统使用混合蒙皮模型来处理面部表情数据、姿势相关的形状调整、基于同一性的静止形状数据以及所述一个或多个预测的关节中心,以生成所述训练身体的所述训练设定姿势网格;以及
至少部分地基于重构损失与形状编码器模型、形状解码器模型、面部编码器模型、面部解码器模型和姿势空间变形模型一起来联合训练关节中心预测模型和混合蒙皮模型。
4.根据权利要求3所述的计算机实现的方法,其中,所述混合蒙皮模型包括具有分别针对所述多个关节的多个学习的权重的线性混合蒙皮模型。
5.根据前述权利要求中任一项所述的计算机实现的方法,其中,所述训练身体的所述一个或多个真值配准的形状扫描还包括真值配准的手部细节扫描,并且其中,重构损失函数评估所述训练设定姿势网格和所述真值配准的手部细节扫描之间的差异。
6.根据前述权利要求中任一项所述的计算机实现的方法,其中所述联合训练包括在以下之间交替:(1)估计该组姿势参数和(2)在该组姿势参数固定的情况下,更新形状编码器模型、形状解码器模型、面部编码器模型和面部解码器模型的参数。
7.根据前述权利要求中任一项所述的计算机实现的方法,其中,所述重构损失函数利用所述训练身体的所述一个或多个真值配准的形状扫描之间的滤波和一一对应来评估每顶点的欧几里德距离误差。
8.一种以至少具有在端到端流水线中联合训练的面部和身体形状组件的机器学习的三维人类形状模型为特征的计算系统,所述计算系统包括:
一个或多个处理器;以及
一种或多种非暂时性计算机可读介质,其共同存储机器学习的三维人类形状模型,所述机器学习的三维人类形状模型包括:
机器学习的面部表情解码器模型,其被训练为处理与人体相关联的面部表情嵌入,以生成所述人体的面部表情数据;
机器学习的姿势空间变形模型,其被训练为处理一组姿势参数以生成所述人体的姿势相关的形状调整;以及
机器学习的形状解码器模型,其被训练为处理与所述人体相关联的静止形状嵌入,以生成所述人体的基于同一性的静止形状数据;
其中机器学习的三维人类形状模型已经被训练为至少部分地基于面部表情数据、姿势相关的形状调整和基于同一性的静止形状数据来生成所述人体的设定姿势网格;以及
其中已经至少部分地基于重构损失函数对机器学习的面部表情解码器模型、机器学习的姿势空间变形模型和机器学习的形状解码器模型全部都进行了端到端联合训练,所述重构损失函数将通过用于训练身体的机器学习的三维人类形状模型生成的训练设定姿势网格与所述训练身体的一个或多个真值配准的形状扫描进行比较。
9.根据权利要求8所述的计算系统,其中,所述机器学习的三维人类形状模型还包括:
机器学习的关节中心预测模型,其被训练为处理基于同一性的静止形状数据,以生成所述人体的骨架表示的多个关节的多个预测的关节中心;以及
机器学习的混合蒙皮模型,其被训练为处理面部表情数据、姿势相关的形状调整、基于同一性的静止形状数据以及所述一个或多个预测的关节中心,以生成所述人体的设定姿势网格;
其中,已经至少部分地基于重构损失与机器学习的面部表情解码器模型、机器学习的姿势空间变形模型和机器学习的形状解码器模型一起来端到端联合训练机器学习的关节中心预测模型和机器学习的混合蒙皮模型。
10.根据权利要求9所述的计算系统,其中,所述机器学习的混合蒙皮模型包括具有分别针对所述多个关节的多个学习的权重的线性混合蒙皮模型。
11.根据权利要求8-10中任一项所述的计算系统,其中,所述训练身体的所述一个或多个真值配准的形状扫描包括真值配准的全身扫描和与所述真值配准的全身扫描分离的真值配准的面部细节扫描。
12.根据权利要求11所述的计算系统,其中,所述训练身体的所述一个或多个真值配准的形状扫描还包括真值配准的手部细节扫描,其与所述真值配准的全身扫描和所述真值配准的面部细节扫描分离。
13.根据权利要求8-12中任一项所述的计算系统,其中,所述机器学习的面部表情解码器模型作为面部表情变分自编码器的一部分被训练,所述面部表情变分自编码器被训练为接收训练头部网格,对训练头部网格进行编码以生成面部表情嵌入,并处理面部表情嵌入以生成所述人体的面部表情数据。
14.根据权利要求8-13中任一项所述的计算系统,其中,所述机器学习的形状解码器模型作为形状变分自编码器的一部分被训练,所述形状变分自编码器被训练为接收训练身体静止形状网格,对训练身体静止形状网格进行编码以生成静止形状嵌入,并处理静止形状嵌入以生成所述人体的基于同一性的静止形状数据。
15.根据权利要求8-14中任一项所述的计算系统,其中,该组姿势参数包括分别用于头部、身体、左手和右手关节的四个特征向量,并且其中机器学习的姿势空间变形模型包括整流线性单元层,所述整流线性单元层被配置为联合接收所述四个特征向量并输出单组输出。
16.根据权利要求8-15中任一项所述的计算系统,其中,对于多个训练示例中的每一个,通过在以下之间交替来训练机器学习的三维人类形状模型:(1)估计该组姿势参数和(2)在该组姿势参数固定的情况下,更新机器学习的三维人类形状模型的其他参数。
17.根据权利要求8-16中任一项所述的计算系统,其中,所述重构损失函数利用所述训练身体的所述一个或多个真值配准的形状扫描之间的滤波和一一对应来评估每顶点的欧几里德距离误差。
18.根据权利要求8-17中任一项所述的计算系统,其中所述一种或多种非暂时性计算机可读介质还存储指令,所述指令当由所述一个或多个处理器执行时,使计算系统执行操作,所述操作包括:
获得与新的人体相关联的新的面部表情嵌入、新的一组姿势参数和新的静止形状嵌入;以及
至少部分地基于新的面部表情嵌入、所述新的一组姿势参数和新的静止形状嵌入,为所述新的人体生成新的设定姿势网格。
19.根据权利要求18所述的计算系统,其中获得新的面部表情嵌入、所述新的一组姿势参数和新的静止形状嵌入包括:
从描绘所述新的人体的单目图像生成新的面部表情嵌入、所述新的一组姿势参数和新的静止形状嵌入。
20.一种或多种非暂时性计算机可读介质,其共同存储机器学习的三维人类形状模型,所述机器学习的三维人类形状模型包括:
机器学习的面部表情解码器模型,其被训练为处理与人体相关联的面部表情嵌入,以生成所述人体的面部表情数据;以及
机器学习的形状解码器模型,其被训练为处理与所述人体相关联的形状嵌入,以生成所述人体的基于同一性的形状数据;
其中,至少部分地基于面部表情数据、一组姿势参数和基于同一性的形状数据,训练机器学习的三维人类形状模型来生成所述人体的设定姿势网格;以及
其中,已经至少部分地基于重构损失函数,对机器学习的面部表情解码器模型和机器学习的形状解码器模型进行了端到端联合训练,所述重构损失函数将通过用于训练身体的机器学习的三维人类形状模型生成的训练设定姿势网格与所述训练身体的一个或多个真值配准的形状扫描进行比较。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2020/030712 WO2021221657A1 (en) | 2020-04-30 | 2020-04-30 | Generative nonlinear human shape models |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115461785A true CN115461785A (zh) | 2022-12-09 |
Family
ID=70802929
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080100318.0A Pending CN115461785A (zh) | 2020-04-30 | 2020-04-30 | 生成非线性人类形状模型 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20230169727A1 (zh) |
EP (1) | EP4128168A1 (zh) |
JP (1) | JP7378642B2 (zh) |
KR (1) | KR20230004837A (zh) |
CN (1) | CN115461785A (zh) |
WO (1) | WO2021221657A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116434347A (zh) * | 2023-06-12 | 2023-07-14 | 中山大学 | 一种基于掩码图自编码器的骨架序列识别方法及系统 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111260774B (zh) * | 2020-01-20 | 2023-06-23 | 北京百度网讯科技有限公司 | 生成3d关节点回归模型的方法和装置 |
CN114333069B (zh) * | 2022-03-03 | 2022-05-17 | 腾讯科技(深圳)有限公司 | 对象的姿态处理方法、装置、设备及存储介质 |
CN117409161A (zh) * | 2022-07-06 | 2024-01-16 | 戴尔产品有限公司 | 点云处理方法和电子设备 |
CN116452755B (zh) * | 2023-06-15 | 2023-09-22 | 成就医学科技(天津)有限公司 | 一种骨骼模型构建方法、系统、介质及设备 |
CN116740820B (zh) * | 2023-08-16 | 2023-10-31 | 南京理工大学 | 基于自动增广的单视角点云三维人体姿态与形状估计方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11127163B2 (en) * | 2015-06-24 | 2021-09-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Skinned multi-infant linear body model |
US10297065B2 (en) * | 2016-11-09 | 2019-05-21 | Disney Enterprises, Inc. | Methods and systems of enriching blendshape rigs with physical simulation |
EP3330927A1 (en) * | 2016-12-05 | 2018-06-06 | THOMSON Licensing | Method and apparatus for sculpting a 3d model |
JP7070435B2 (ja) | 2017-01-26 | 2022-05-18 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP6244593B1 (ja) | 2017-01-30 | 2017-12-13 | 株式会社コロプラ | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
US10546433B2 (en) * | 2017-08-03 | 2020-01-28 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for modeling garments using single view images |
JP7280512B2 (ja) | 2018-02-16 | 2023-05-24 | 日本電信電話株式会社 | 非言語情報生成装置及びプログラム |
-
2020
- 2020-04-30 WO PCT/US2020/030712 patent/WO2021221657A1/en unknown
- 2020-04-30 KR KR1020227041960A patent/KR20230004837A/ko active IP Right Grant
- 2020-04-30 JP JP2022566221A patent/JP7378642B2/ja active Active
- 2020-04-30 US US17/922,160 patent/US20230169727A1/en active Pending
- 2020-04-30 CN CN202080100318.0A patent/CN115461785A/zh active Pending
- 2020-04-30 EP EP20727760.9A patent/EP4128168A1/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116434347A (zh) * | 2023-06-12 | 2023-07-14 | 中山大学 | 一种基于掩码图自编码器的骨架序列识别方法及系统 |
CN116434347B (zh) * | 2023-06-12 | 2023-10-13 | 中山大学 | 一种基于掩码图自编码器的骨架序列识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
EP4128168A1 (en) | 2023-02-08 |
JP7378642B2 (ja) | 2023-11-13 |
WO2021221657A1 (en) | 2021-11-04 |
US20230169727A1 (en) | 2023-06-01 |
JP2023524252A (ja) | 2023-06-09 |
KR20230004837A (ko) | 2023-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115461785A (zh) | 生成非线性人类形状模型 | |
Ichim et al. | Dynamic 3D avatar creation from hand-held video input | |
CN111784821B (zh) | 三维模型生成方法、装置、计算机设备及存储介质 | |
CN109829972B (zh) | 一种面向连续帧点云的三维人体标准骨架提取方法 | |
US12026892B2 (en) | Figure-ground neural radiance fields for three-dimensional object category modelling | |
CN115346000A (zh) | 三维人体重建方法、装置、计算机可读介质及电子设备 | |
Le et al. | Marker optimization for facial motion acquisition and deformation | |
CN115951784A (zh) | 一种基于双神经辐射场的穿衣人体运动捕捉和生成方法 | |
CN115830241A (zh) | 一种基于神经网络的真实感三维人脸纹理重建方法 | |
Madadi et al. | Deep unsupervised 3D human body reconstruction from a sparse set of landmarks | |
Gan et al. | Fine-grained multi-view hand reconstruction using inverse rendering | |
Saint et al. | 3dbooster: 3d body shape and texture recovery | |
Garcia-D’Urso et al. | Accurate estimation of parametric models of the human body from 3D point clouds | |
AU2022241513B2 (en) | Transformer-based shape models | |
CN116452715A (zh) | 动态人手渲染方法、装置及存储介质 | |
Duveau et al. | Cage-based motion recovery using manifold learning | |
Biswas et al. | Physically plausible 3D human-scene reconstruction from monocular RGB image using an adversarial learning approach | |
Huang et al. | Detail-preserving controllable deformation from sparse examples | |
CN113077383A (zh) | 一种模型训练方法及模型训练装置 | |
Zhang et al. | Human model adaptation for multiview markerless motion capture | |
US20240212279A1 (en) | Detailed 3d object reconstruction method and apparatus using laplacian coordinates | |
KR20240103980A (ko) | 라플라시안 좌표를 이용하는 디테일 3차원 객체 복원 방법 및 장치 | |
CN116912433B (zh) | 三维模型骨骼绑定方法、装置、设备及存储介质 | |
US20240161470A1 (en) | Machine-Learned Models for Implicit Object Representation | |
Pei et al. | Tissue map based craniofacial reconstruction and facial deformation using rbf network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |