CN116385827A - 参数化人脸重建模型训练方法及关键点标签数据生成方法 - Google Patents

参数化人脸重建模型训练方法及关键点标签数据生成方法 Download PDF

Info

Publication number
CN116385827A
CN116385827A CN202310311366.XA CN202310311366A CN116385827A CN 116385827 A CN116385827 A CN 116385827A CN 202310311366 A CN202310311366 A CN 202310311366A CN 116385827 A CN116385827 A CN 116385827A
Authority
CN
China
Prior art keywords
face
hidden code
rendering
graph
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310311366.XA
Other languages
English (en)
Inventor
张举勇
张丁芸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202310311366.XA priority Critical patent/CN116385827A/zh
Publication of CN116385827A publication Critical patent/CN116385827A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/54Extraction of image or video features relating to texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种参数化人脸重建模型训练方法及关键点标签数据生成方法,应用于图像处理领域。该方法包括:对人脸关键点标注样本图隐码提取得到隐码集;将隐码集输入初始参数化人脸重建模型颜色识别网络中,利用第一渲染模块对人脸关键点标注样本图进行处理得到第一特征图;将隐码集输入颜色识别网络的生成器模块中输出风格隐码;利用颜色识别网络中第一上采样模块基于风格隐码对第一特征图进行处理输出第一渲染图;将隐码集输入初始参数化人脸重建模型语义识别网络中输出第二渲染图;利用第一渲染图和第二渲染图与人脸关键点标注样本图对应的真实人脸样本图之间的损失对初始参数化人脸重建模型的模型参数进行调整,得到目标参数化人脸重建模型。

Description

参数化人脸重建模型训练方法及关键点标签数据生成方法
技术领域
本公开涉及图像处理技术领域,更具体地,涉及一种参数化人脸重建模型训练方法、人脸带关键点标签数据生成方法、装置、电子设备、存储介质和程序产品。
背景技术
近年来,相关技术中提出了具有高清晰度生成质量的人脸生成模型,这些模型生成的人脸具有较好的真实感和视角一致性,以HeadNeRF(Head Neural Radiance Fields,头部神经辐射场)为代表的人脸重建模型,可以对单张人脸进行新视角重建,同时具有一定的语义编辑性和多视角一致性。
在实现本公开构思的过程中,发明人发现相关技术中至少存在如下问题:HeadNeRF生成的人脸清晰度和真实感较低,存在毛发粘连等图像质量不佳的问题,导致参数化人脸重建模型对在对人脸重建过程中对关键点的标注准确性较低。
发明内容
鉴于上述问题,本公开提供了一种参数化人脸重建模型训练方法、人脸带关键点标签数据生成方法、装置、电子设备、存储介质和程序产品。
根据本公开的第一个方面,提供了一种参数化人脸重建模型训练方法,包括:对人脸关键点标注样本图进行隐码提取,得到隐码集;将上述隐码集输入初始参数化人脸重建模型的颜色识别网络中,利用上述颜色识别网络中的第一渲染模块,基于上述隐码集对上述人脸关键点标注样本图进行处理,得到第一特征图;将上述隐码集输入上述颜色识别网络中的生成器模块中,输出风格隐码;利用上述颜色识别网络中的第一上采样模块,基于上述风格隐码对上述第一特征图进行处理,输出第一渲染图;将上述隐码集输入上述初始参数化人脸重建模型的语义识别网络中,输出第二渲染图;利用上述第一渲染图和上述第二渲染图与上述人脸关键点标注样本图对应的真实人脸样本图之间的损失,对上述初始参数化人脸重建模型的模型参数进行调整,得到目标参数化人脸重建模型。
根据本公开的实施例,上述对人脸关键点标注样本图进行隐码提取,得到隐码集,包括:采用预设方式对上述人脸关键点标注样本图进行隐码提取,得到初始隐码集,上述初始隐码集包括初始身份隐码、初始表情隐码、纹理隐码以及光照隐码;将上述人脸关键点标注样本图输入预设人脸识别网络中,输出目标身份隐码;从上述人脸关键点标注样本图中抽取预设个数的关键点;对上述关键点进行标准化,得到目标表情隐码;基于上述目标身份隐码、上述目标表情隐码、上述纹理隐码以及上述光照隐码生成目标隐码集。
根据本公开的实施例,上述利用上述颜色识别网络中的第一渲染模块,基于上述隐码集对上述人脸关键点标注样本图进行处理,得到第一特征图,包括:将上述目标隐码集输入隐式神经函数中,基于上述目标身份隐码和上述目标表情隐码对上述人脸关键点标注样本图进行预测,输出密度值和中间特征;基于上述纹理隐码和上述光照隐码,对上述中间特征进行映射,得到高维特征;基于上述密度值对上述人脸关键点标注样本图中每个光线采样点进行积分,得到密度中间值;利用上述第一渲染模块,基于上述密度中间值和上述高维特征生成上述第一特征图。
根据本公开的实施例,上述利用上述颜色识别网络中的第一上采样模块,基于上述风格隐码对上述第一特征图进行处理,输出第一渲染图,包括:基于均方误差条件将上述第一特征图转化为傅里叶特征分布,得到转化后特征图;将上述转化后特征图和上述风格隐码输入至上述第一上采样模块中,输出第一渲染图。
根据本公开的实施例,上述将上述隐码集输入上述参数化人脸重建模型的语义识别网络中,输出第二渲染图,包括:利用上述语义识别网络中的第二渲染模块,基于上述隐码集对上述人脸关键点标注样本图进行处理,得到第二特征图;利用上述语义识别网络中的第二上采样模块,对上述第二特征图进行处理,输出第二渲染图。
根据本公开的实施例,上述利用上述第一渲染图和上述第二渲染图与上述人脸关键点标注样本图对应的真实人脸样本图之间的损失,对上述初始参数化人脸重建模型的模型参数进行调整,得到目标参数化人脸重建模型,包括:将上述真实人脸样本图对应的第一真实值和上述第一渲染图以及上述真实人脸样本图对应的第二真实值和上述第二渲染图输入损失函数中,输出模型损失值;基于上述模型损失值对上述初始参数化人脸重建模型的模型参数进行调整,得到目标参数化人脸重建模型。
根据本公开的实施例,上述将上述真实人脸样本图对应的第一真实值和上述第一渲染图以及上述真实人脸样本图对应的第二真实值和上述第二渲染图输入损失函数中,输出模型损失值,包括:将上述第一真实值和上述第一渲染图输入像素损失函数中,输出第一像素损失值;将上述第二真实值和上述第二渲染图输入上述像素损失函数中,输出第二像素损失值;将上述第一渲染图和上述第二渲染图对应的预测隐码集,和上述真实人脸样本图对应的隐码集输入解耦损失函数中,输出解耦损失值;将上述第一渲染图和上述第一真实值输入图片感知损失函数中,输出第一图片感知损失值;将上述第二渲染图和上述第二真实值输入上述图片感知损失函数中,输出第二图片感知损失值;基于上述第二像素损失值和上述图片感知损失值确定语义损失值;将上述第一特征图和预设特征分布输入分布损失函数中,输出分布损失值;基于上述第一像素损失值、上述第一图片感知损失值、上述解耦损失值、上述分布损失值以及上述语义损失值确定上述模型损失值。
本公开的第二方面提供了一种人脸带关键点标签数据生成方法,包括:获取目标人脸图像或随机给定的人脸隐码集;将上述目标人脸图像或随机给定的上述人脸隐码集输入至参数化人脸重建模型中,得到第一输出渲染图、第二输出渲染图和人脸隐码集;基于上述目标人脸图像对应的人脸隐码集或随机给定的上述人脸隐码集对上述第一输出渲染图和上述第二输出渲染图进行处理,得到人脸关键点标注图,其中,上述参数化人脸重建模型是利用上述训练方法得到的。
本公开的第三方面提供了一种参数化人脸重建模型训练装置,包括:隐码提取模块,用于对人脸关键点标注样本图进行隐码提取,得到隐码集;第一处理模块,用于将上述隐码集输入初始参数化人脸重建模型的颜色识别网络中,利用上述颜色识别网络中的第一渲染模块,基于上述隐码集对上述人脸关键点标注样本图进行处理,得到第一特征图;第一输出模块,用于将上述隐码集输入上述颜色识别网络中的生成器模块中,输出风格隐码;第二输出模块,用于利用上述颜色识别网络中的第一上采样模块,基于上述风格隐码对上述第一特征图进行处理,输出第一渲染图;第三输出模块,用于将上述隐码集输入上述初始参数化人脸重建模型的语义识别网络中,输出第二渲染图;训练模块,用于利用上述第一渲染图和上述第二渲染图与上述人脸关键点标注样本图对应的真实人脸样本图之间的损失,对上述初始参数化人脸重建模型的模型参数进行调整,得到目标参数化人脸重建模型。
本公开的第四方面提供了一种人脸带关键点标签数据生成装置,包括:获取模块,用于获取目标人脸图像或随机给定的人脸隐码集;拟合模块,用于将上述目标人脸图像或随机给定的上述人脸隐码集输入至参数化人脸重建模型中,得到第一输出渲染图、第二输出渲染图和人脸隐码集;标注模块,用于基于上述目标人脸图像对应的人脸隐码集或随机给定的人脸隐码集对上述第一输出渲染图和上述第二输出渲染图进行处理,得到人脸关键点标注图,其中,上述参数化人脸重建模型是利用上述训练方法得到的。
本公开的第五方面提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,其中,当上述一个或多个程序被上述一个或多个处理器执行时,使得一个或多个处理器执行上述方法。
本公开的第六方面还提供了一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行上述方法。
本公开的第七方面还提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述方法。
根据本公开的实施例,通过参数化人脸重建模型分别在颜色和语义方面对人脸关键点标注样本图进行特征精细化处理,从而生成第一渲染图和第二渲染图。进而为参数化人脸重建模型的训练提供了大量的高质量训练数据。此外,参数化人脸重建模型在生成第一渲染图的过程中,通过将隐码集输入颜色识别网络中的生成器模块中,输出风格隐码;利用颜色识别网络中的第一上采样模块,基于风格隐码对上述第一特征图进行处理,输出第一渲染图。由于生成器模块能够进一步捕捉人脸关键点标注样本图的风格隐码,使得第一上采样模块在对第一特征图处理时有效减轻了颜色识别网络中的走样信息,保持了颜色识别网络中信息传递的平移和旋转不变性,使得参数化人脸重建模型生成的图像具有高真实感和高清晰度,且避免了毛发粘连问题。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述内容以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的参数化人脸重建模型训练方法、人脸带关键点标签数据生成方法、装置、设备、介质和程序产品的应用场景图;
图2示意性示出了根据本公开实施例的参数化人脸重建模型训练方法的流程图;
图3示意性示出了根据本公开另一实施例的参数化人脸重建模型训练方法的流程图;
图3A示意性示出了根据本公开实施例利用参数化人脸重建模型基于第一渲染图和第二渲染图得到重建结果的示意图;
图3B示意性示出了根据本公开另一实施例利用参数化人脸重建模型基于第一渲染图和第二渲染图得到重建结果的示意图;
图3C示意性示出了根据本公开又一实施例利用参数化人脸重建模型基于第一渲染图和第二渲染图得到重建结果的示意图;
图4示意性示出了根据本公开实施例利用参数化人脸重建模型得到人脸关键点标注图的对比示意图;
图5示意性示出了根据本公开实施例的人脸带关键点标签数据生成方法的流程图;
图6示意性示出了根据本公开实施例的参数化人脸重建模型训练装置的结构框图;
图7示意性示出了根据本公开实施例的人脸带关键点标签数据生成装置的结构框图;
图8示意性示出了根据本公开实施例的适于实现参数化人脸重建模型训练方法和人脸带关键点标签数据生成方法的电子设备的方框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
在本公开的技术方案中,所涉及的数据(如包括但不限于用户个人信息)的收集、存储、使用、加工、传输、提供、公开和应用等处理,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
目前,带高精度标注的数据,如人脸关键点标注数据、人脸语义分割数据、人脸视线估计数据等,在人脸的下游任务,如人脸识别、人脸解析、人脸表情分析等中扮演着重要的角色。然而,现有的人脸关键点标注数据集主要依靠人工手动标注,因此标注成本高、效率低、标注稳定性不佳,这导致这些带关键点标注的数据在数量上远远不能满足人脸相关任务的需要,从而对人脸相关模型的训练造成了掣肘。
因此,考虑到数据有限导致的种种挑战和局限,相关技术试图借助计算机图形学的方法,利用合成人脸数据代替传统的人工标注关键点数据,作为下游人脸任务的训练数据。利用光栅化渲染渐进式地生成带3d关键点的合成人脸数据。为提升合成人脸的真实感,可以用渲染生成的合成人脸代替真实人脸进行训练。
然而,虽然采用了一系列方法以提升合成人脸真实感,但生成的人脸依旧具有明显肉眼可感的动漫风格,与真实人脸相去甚远。这种与真实人脸之间的风格差异导致人脸重建模型在合成人脸数据上的训练效果依旧显著地落后于在真实人脸关键点标注数据上的训练效果。此外,渲染合成人脸的过程算力消耗大、渲染时间长、经济成本高,可行性不够理想。
人脸生成和人脸重建模型可以被用来作为生成具有真实感人脸的模型。近年来,相关技术提出了具有高清晰度生成质量的人脸生成模型,这些模型生成的人脸具有较好的真实感和视角一致性,然而这些模型可语义编辑性较弱,只能简单地调节相机视角,因此不适合作为生成带关键点标注人脸数据的模型。同时,以HeadNeRF为代表的人脸重建模型可以对单张人脸进行新视角重建,同时具有一定的语义编辑性和多视角一致性。
然而,由于HeadNeRF从人脸中提取的隐码对人脸特征的表达能力较弱,且上采样层结构设计不够合理,因此HeadNeRF对困难表情的重建效果不够理想,且生成的人脸具有清晰度和真实感低、毛发粘连等图像质量不佳的问题。此外,由于HeadNeRF可编辑的语义属性缺失和人脸关键点的直接联系,因此无法通过编辑语义属性生成新的带有关键点标注的人脸图片。
有鉴于此,本公开的实施例提供了一种参数化人脸重建模型训练方法、一种人脸带关键点标签数据生成方法、一种参数化人脸重建模型训练装置、一种人脸带关键点标签数据生成装置、电子设备、存储介质和程序产品。其中,该一种参数化人脸重建模型训练方法,包括:对人脸关键点标注样本图进行隐码提取,得到隐码集;将隐码集输入初始参数化人脸重建模型的颜色识别网络中,利用颜色识别网络中的第一渲染模块,基于隐码集对人脸关键点标注样本图进行处理,得到第一特征图;将隐码集输入颜色识别网络中的生成器模块中,输出风格隐码;利用颜色识别网络中的第一上采样模块,基于风格隐码对第一特征图进行处理,输出第一渲染图;将隐码集输入初始参数化人脸重建模型的语义识别网络中,输出第二渲染图;利用第一渲染图和第二渲染图与人脸关键点标注样本图对应的真实人脸样本图之间的损失,对初始参数化人脸重建模型的模型参数进行调整,得到目标参数化人脸重建模型。
图1示意性示出了根据本公开实施例的参数化人脸重建模型训练方法、人脸带关键点标签数据生成方法、装置、设备、介质和程序产品的应用场景图。
如图1所示,根据该实施例的应用场景100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在第一终端设备101、第二终端设备102、第三终端设备103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用第一终端设备101、第二终端设备102、第三终端设备103中的至少一个通过网络104与服务器105交互,以接收或发送消息等。第一终端设备101、第二终端设备102、第三终端设备103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
第一终端设备101、第二终端设备102、第三终端设备103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用第一终端设备101、第二终端设备102、第三终端设备103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的参数化人脸重建模型训练方法和人脸带关键点标签数据生成方法一般可以由服务器105执行。相应地,本公开实施例所提供的参数化人脸重建模型训练装置和人脸带关键点标签数据生成装置一般可以设置于服务器105中。本公开实施例所提供的参数化人脸重建模型训练方法和人脸带关键点标签数据生成方法也可以由不同于服务器105且能够与第一终端设备101、第二终端设备102、第三终端设备103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的参数化人脸重建模型训练装置和人脸带关键点标签数据生成装置也可以设置于不同于服务器105且能够与第一终端设备101、第二终端设备102、第三终端设备103和/或服务器105通信的服务器或服务器集群中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图2示意性示出了根据本公开实施例的参数化人脸重建模型训练方法的流程图。
如图2所示,该方法包括操作S201~S206。
在操作S201,对人脸关键点标注样本图进行隐码提取,得到隐码集。
在操作S202,将隐码集输入初始参数化人脸重建模型的颜色识别网络中,利用颜色识别网络中的第一渲染模块,基于隐码集对人脸关键点标注样本图进行处理,得到第一特征图。
在操作S203,将隐码集输入颜色识别网络中的生成器模块中,输出风格隐码。
在操作S204,利用颜色识别网络中的第一上采样模块,基于风格隐码对第一特征图进行处理,输出第一渲染图。
在操作S205,将隐码集输入初始参数化人脸重建模型的语义识别网络中,输出第二渲染图。
在操作S206,利用第一渲染图和第二渲染图与人脸关键点标注样本图对应的真实人脸样本图之间的损失,对初始参数化人脸重建模型的模型参数进行调整,得到目标参数化人脸重建模型。
根据本公开的实施例,人脸关键点标注样本图是通过对人脸图片进行预处理得到的。将人脸图像输入人脸识别开源项目(InsightFace)中进行关键点标注,得到人脸关键点标注样本图。且在预处理过程中采用了一欧元滤波算法,有限减轻了帧间的标注抖动,保证了稳定性。需要说明的是,获取人脸图像和人脸关键点标注样本图均符合相关法律法规的规定,采取了必要的保密措施。且在获取或采集用户的人脸图像之前,均获取了用户的授权或同意。
根据本公开的实施例,可以采用人脸3D形变统计模型(3DMM)对人脸关键点标注样本图进行隐码提取,得到隐码集。其中,隐码集包括身份隐码、表情隐码、纹理隐码以及光照隐码。在提取身份隐码的过程中,也可以采用AdaFace(用于人脸识别和质量评估的通用表示法)进行提取。在提取表情隐码的过程中,也可以基于InsightFace标注的关键点对表情隐码进行提取。
根据本公开的实施例,初始参数化人脸重建模型可以记为HeadNeRF V2,包括颜色识别网络(RGBNet)和语义识别网络(SemanticNet)。其中,颜色识别网络中包括第一渲染模块和第一上采样模块。语义识别网络中包括第二渲染模块和第二上采样模块。其中,第一渲染模块和第二渲染模块中的网络层分布可以是相同的。第一上采样模块和第二上采样模块中的网络层分布不相同,相对于颜色识别网络,语义识别网络在处理过程中不包含太多的高频信息,因此第二上采样模块中网络层的结构没有第一渲染模块网络层的结构精细。
根据本公开的实施例,将隐码集输入至第一渲染模块中,使得模型进一步学习人脸关键点标注样本图中的特征,并生成第一特征图。在颜色识别网络中引入一个能够避免信息走样的生成器模块,来保持第一上采样模块的平移和旋转不变性。将第一特征图输入第一上采样模块中,同时将隐码集输入生成器模块的映射网络中,并将其映射至预设维度,可以是512维,进而得到风格隐码。将风格隐码输入第一上采样模块中的每一个网络层,进而引导参数化人脸重建模型有效学习人脸细节信息。在第一特征图经过第一上采样模块处理后,第一特征图被转化为了分辨率为1024的RGB图像,也即第一渲染图。
根据本公开的实施例,将隐码集输入至语义识别网络中,输出分辨率为1024的语义分割图,也即第二渲染图。语义识别网络的加入不仅增强了参数化人脸重建模型对人脸语义信息的学习,也纠正了第一渲染图和真实RGB图片之间的误差,加速了参数化人脸重建模型的学习。
根据本公开的实施例,利用人脸关键点标注样本图对应的真实人脸样本图的第一真实值和第一渲染图之间的损失,以及人脸关键点标注样本图对应的真实人脸样本图的第二真实值和第二渲染图之间的损失,对初始参数化人脸重建模型的模型参数进行调整,得到目标参数化人脸重建模型。
图3示意性示出了根据本公开另一实施例的参数化人脸重建模型训练方法的流程图。
根据本公开的实施例,如图3所示,对人脸图片301进行关键点标注,得到人脸关键点标注样本图,并对其进行隐码提取,得到隐码集302。其中,隐码集302包括身份隐码zid、表情隐码zlm、纹理隐码zalb和光照隐码zill。将隐码集302和人脸图片的相机参数(cameraparameters)输入颜色识别网络303(RGB Net)中,利用颜色识别网络303中的第一渲染模块304进行处理,得到第一特征图305
Figure BDA0004148698880000111
同时,将隐码集302输入颜色识别网络303中的生成器模块306中,通过生成器模块306中的映射网络M对其进行映射,得到风格隐码w。将第一特征图305和风格隐码w输入第一上采样模块307(Upsampling ModuleΘ)中,得到第一渲染图308(Rendered I1)。
根据本公开的实施例,将隐码集302和人脸图片的相机参数输入语义识别网络309(SemanticNet)中,利用语义识别网络309中的第二渲染模块310进行处理,得到第二特征图311
Figure BDA0004148698880000121
将第二特征图311输入第二上采样模块312(2D Neural Rendering ModuleΨ)中,得到第二渲染图313(Rendered Semantic I2)。
根据本公开的实施例,通过计算第一渲染图308与第一真实图314(GT RGB)之间的损失L,以及第二渲染图313与第二真实图315(GT Semantic)之间的损失Lsem,便于后续对参数化人脸重建模型进行优化训练。
根据本公开的实施例,通过参数化人脸重建模型分别在颜色和语义方面对人脸关键点标注样本图进行特征精细化处理,从而生成第一渲染图和第二渲染图。进而为参数化人脸重建模型的训练提供了大量的高质量训练数据。此外,参数化人脸重建模型在生成第一渲染图的过程中,通过将隐码集输入颜色识别网络中的生成器模块中,输出风格隐码;利用颜色识别网络中的第一上采样模块,基于风格隐码对第一特征图进行处理,输出第一渲染图。由于生成器模块能够进一步捕捉人脸关键点标注样本图的风格隐码,使得第一上采样模块在对第一特征图处理时有效减轻了颜色识别网络中的走样信息,保持了颜色识别网络中信息传递的平移和旋转不变性,使得参数化人脸重建模型生成的图像具有高真实感和高清晰度,且避免了毛发粘连问题。
根据本公开的实施例,对人脸关键点标注样本图进行隐码提取,得到隐码集,可以包括如下操作:
采用预设方式对人脸关键点标注样本图进行隐码提取,得到初始隐码集,初始隐码集包括初始身份隐码、初始表情隐码、纹理隐码以及光照隐码;将人脸关键点标注样本图输入预设人脸识别网络中,输出目标身份隐码;从人脸关键点标注样本图中抽取预设个数的关键点;对关键点进行标准化,得到目标表情隐码;基于目标身份隐码、目标表情隐码、纹理隐码以及光照隐码生成目标隐码集。
根据本公开的实施例,采用人脸3D形变统计模型(3DMM)对人脸关键点标注样本图进行隐码提取,得到初始隐码集。为了弥补3DMM的身份向量对人脸身份表达能力不足的问题,即该向量无法表达人脸的牙齿和头发等细节。进一步将人脸关键点标注样本图输入预设人脸识别网络中,其中,预设人脸识别网络可以是AdaFace预训练的人脸识别网络,从而对目标身份隐码进行提取,推断出一个128维的身份特征作为目标身份隐码,有效增强了可学习隐码对大量身份的表达能力。
根据本公开的实施例,从人脸关键点标注样本图中抽取预设个数的关键点,基于预设个数的关键点和初始隐码集生成人脸网格。其中预设个数可以设置为68个。在人脸网格中抽取出基准空间的63*3维的3D关键点,特别地,3D关键点的抽取在参与相机参数变换前进行,从而保证其不包含相机参数的信息,使得其与相机参数自然地解耦。对3D关键点进行标准化,并将其作为新的表情表示,从而得到目标表情隐码。
根据本公开的实施例,利用颜色识别网络中的第一渲染模块,基于隐码集对人脸关键点标注样本图进行处理,得到第一特征图,可以包括如下操作:
将目标隐码集输入隐式神经函数中,基于目标身份隐码和目标表情隐码对人脸关键点标注样本图进行预测,输出密度值和中间特征;基于纹理隐码和光照隐码,对中间特征进行映射,得到高维特征;基于密度值对人脸关键点标注样本图中每个光线采样点进行积分,得到密度中间值;利用第一渲染模块,基于密度中间值和高维特征生成第一特征图。
根据本公开的实施例,将目标隐码集输入隐式神经函数中,同时,将目标隐码集中的目标身份隐码再次输入隐式神经函数网络层中的第五全连接层中,使得参数化人脸重建模型可以更好地学到身份信息。基于目标身份隐码和目标表情隐码对人脸关键点标注样本图进行预测,预测出采样点的密度值和中间特征。其中,隐式神经函数hθ如下:
Figure BDA0004148698880000141
其中,θ表示颜色识别网络的网络参数,z*表示人脸关键点标注样本图的隐码,其中,zid表示目标身份隐码,且
Figure BDA0004148698880000142
zlm表示目标表情隐码,且/>
Figure BDA0004148698880000143
zalb表示纹理隐码,且/>
Figure BDA0004148698880000144
zill表示光照隐码,且/>
Figure BDA0004148698880000145
记/>
Figure BDA0004148698880000146
其中,/>
Figure BDA0004148698880000147
表示维度,括号表示向量的拼接,γ(x)表示人脸关键点标注样本图种采样点x的位置编码,其中/>
Figure BDA0004148698880000148
σ表示采样点x的密度值,F表示中间特征。根据本公开的实施例,基于纹理隐码和光照隐码,对中间特征进行映射,得到高维特征F(x)。基于密度值对人脸关键点标注样本图中每个光线采样点进行积分,得到密度中间值。其中,密度中间值的计算公式如下:
Figure BDA0004148698880000149
其中,r(t)表示从相机中心射出的一条射线,t表示射线的最远点,s表示积分变量。
根据本公开的实施例,利用第一渲染模块,基于密度中间值和高维特征生成第一特征图
Figure BDA00041486988800001410
具体计算方式如下:
Figure BDA00041486988800001411
根据本公开的实施例,利用颜色识别网络中的第一上采样模块,基于风格隐码对第一特征图进行处理,输出第一渲染图,可以包括如下操作:
基于均方误差条件将第一特征图转化为傅里叶特征分布,得到转化后特征图;将转化后特征图和风格隐码输入至第一上采样模块中,输出第一渲染图。
根据本公开的实施例,第一上采样模块为避免信息走样,在预训练时将一个傅里叶特征
Figure BDA00041486988800001412
作为输入。让其服从一个特定的分布,从而保证网络的平移和旋转不变性。然而,
Figure BDA00041486988800001413
和傅里叶特征的分布差异很大,因此直接用前者代替后者输入第一上采样模块只能生成充满噪声块的图片。因此,需要对/>
Figure BDA0004148698880000151
进行预处理。
根据本公开的实施例,在第一阶段,将随机的傅里叶特征
Figure BDA0004148698880000152
输入第一上采样模块中,而不是直接将/>
Figure BDA0004148698880000153
输入其中。同时,用均方误差来约束/>
Figure BDA0004148698880000154
和/>
Figure BDA0004148698880000155
之间的分布差异。在第二阶段,用/>
Figure BDA0004148698880000156
替换/>
Figure BDA0004148698880000157
并将约束后的/>
Figure BDA0004148698880000158
输入第一上采样模块中,从而保证训练的稳定性。在这一阶段,由于/>
Figure BDA0004148698880000159
的引导,人脸参数化模型可以学得控制相机位姿和人脸语义属性的能力。在前两阶段,固定第一上采样模块的模型参数,避免其被训练中相对大的噪声干扰。而在第三阶段上采样模块对/>
Figure BDA00041486988800001510
处理过程中,让第一上采样模块的模型参数开始自由变化,使得人脸参数模型可以有效学习人脸的细节和困难表情。
根据本公开的实施例,将隐码集输入参数化人脸重建模型的语义识别网络中,输出第二渲染图,可以包括如下操作:
利用语义识别网络中的第二渲染模块,基于隐码集对人脸关键点标注样本图进行处理,得到第二特征图;利用语义识别网络中的第二上采样模块,对第二特征图进行处理,输出第二渲染图。
根据本公开的实施例,利用语义识别网络中的第二渲染模块,基于隐码集对人脸关键点标注样本图进行处理,其中,第二渲染模块和第一渲染模块的处理流程相同,仅在于网络参数不同,在此不再赘述。在处理得到第二特征图
Figure BDA00041486988800001511
后,将其输入语义识别网络的第二上采样模块中,进而得到相应的分辨率为1024的语义分割图,也即第二渲染图。其中,第二上采样模块是由HeadNeRF的2D神经渲染模块改进得到的上采样模块。语义识别网络的加入不仅增强了人脸参数化模型对人脸语义信息的学习,也纠正了第一渲染图和真实RGB图片之间的误差,加速了模型的学习。
根据本公开的实施例,利用第一渲染图和第二渲染图与人脸关键点标注样本图对应的真实人脸样本图之间的损失,对初始参数化人脸重建模型的模型参数进行调整,得到目标参数化人脸重建模型,可以包括如下操作:
将真实人脸样本图对应的第一真实值和第一渲染图以及真实人脸样本图对应的第二真实值和第二渲染图输入损失函数中,输出模型损失值;基于模型损失值对初始参数化人脸重建模型的模型参数进行调整,得到目标参数化人脸重建模型。
根据本公开的实施例,利用真实值与初始参数化人脸重建模型输出的渲染图之间的损失对模型进行优化,从而得到目标参数化人脸重建模型,使得目标参数化人脸重建模型对图像重建更加精准。
根据本公开的实施例,将真实人脸样本图对应的第一真实值和第一渲染图以及真实人脸样本图对应的第二真实值和第二渲染图输入损失函数中,输出模型损失值,可以包括如下步骤:
将第一真实值和第一渲染图输入像素损失函数中,输出第一像素损失值;将第二真实值和第二渲染图输入像素损失函数中,输出第二像素损失值;将第一渲染图和第二渲染图对应的预测隐码集,和真实人脸样本图对应的隐码集输入解耦损失函数中,输出解耦损失值;将第一渲染图和第一真实值输入图片感知损失函数中,输出第一图片感知损失值;将第二渲染图和第二真实值输入图片感知损失函数中,输出第二图片感知损失值;基于第二像素损失值和图片感知损失值确定语义损失值;将第一特征图和预设特征分布输入分布损失函数中,输出分布损失值;基于第一像素损失值、第一图片感知损失值、解耦损失值、分布损失值以及语义损失值确定模型损失值。
根据本公开的实施例,像素损失函数是基于预测图的图片损失和真实人脸样本图的真实值作差构成的。其中,第一像素损失值的具体计算如下:
Figure BDA0004148698880000161
其中,
Figure BDA0004148698880000162
表示第一像素损失值,I1表示第一渲染图的图片损失,/>
Figure BDA0004148698880000163
表示真实人脸样本图针对颜色识别的第一真实值。
同理,第二像素损失值的具体计算如下:
Figure BDA0004148698880000164
其中,
Figure BDA0004148698880000165
表示第二像素损失值,I2表示第二渲染图的图片损失,/>
Figure BDA0004148698880000166
表示真实人脸样本图针对语义识别的第二真实值。
根据本公开的实施例,解耦损失函数是基于第一渲染图和第二渲染图中可学习的预测隐码集,以及真实人脸样本图中对应的隐码集作差构成的。其中,解耦损失值具体计算如下:
Figure BDA0004148698880000171
其中,z*表示可学习的预测隐码集,
Figure BDA0004148698880000172
表示隐码集,w*表示权重。
根据本公开的实施例,图片感知损失函数是基于预测图的图片感知损失和真实人脸样本图真实值对应的真实感知作差构成的。图片感知可以采用VGG16(Visual GeometryGroup,视觉几何图形组)进行获取。其中,第一图片感知损失值可记为
Figure BDA0004148698880000173
第二图片感知损失值可记为/>
Figure BDA0004148698880000174
根据本公开的实施例,语义损失值可以优化可学习的隐码,而隐码的变化将会调节RGB图像,从而帮助颜色识别网络学习人脸语义信息以及细微表情,从而加速模型的训练。基于第二像素损失值和图片感知损失值确定语义损失值,具体计算方式如下:
Figure BDA0004148698880000175
其中,Lsem表示语义损失值。
根据本公开的实施例,分布损失函数是基于第一特征图的分布和预设特征分布之间差值的二次方构成的。分布损失对第一上采样模块的训练十分关键,只有使第一渲染模块生成的特征图的分布学到预设特征分布,第一上采样模块才能避免信号干扰,发挥其强大的生成能力,其中,预设特征分布可设为傅里叶分布。其中,分布损失值具体计算方式如下:
Figure BDA0004148698880000176
其中,Ldist表示分布损失值,
Figure BDA0004148698880000177
表示第一特征图的分布,/>
Figure BDA0004148698880000178
表示预设特征分布。
根据本公开的实施例,基于第一像素损失值、第一图片感知损失值、解耦损失值、分布损失值以及语义损失值确定模型损失值。具体模型损失值的计算方式如下:
Figure BDA0004148698880000179
其中,L表示模型损失。
根据本公开的实施例,将参数化人脸重建模型的训练分为三个阶段,在阶段一,将wdist调得相对较大,并将分布损失值作为损失函数的主体。而在接下来的两个训练阶段,降低wdist并让参数化人脸重建模型的注意力集中在学习输入图片的人脸信息上。
图3A示意性示出了根据本公开实施例利用参数化人脸重建模型基于第一渲染图和第二渲染图得到重建结果的示意图。
根据本公开的实施例,将第一渲染图对应的表情隐码经过投影变换得到第一渲染图的关键点位置,从而生成带关键点标签人脸重建图片。带关键点标签人脸重建图片基于第二渲染图对关键点、人脸的语义信息和相机位姿做属性编辑,借助参数化人脸重建模型生成大量新语义信息和新视角的带关键点标签人脸重建图片。由于新生成的带关键点标签人脸重建图片对应的关键点依旧是基准空间不包含相机参数信息的3D关键点,因此通过对3D关键点沿着相机光线坐标做逆标准化,并且对得到的结果做相机参数变换,得到3D带关键点标签人脸重建图片。将3D带关键点标签人脸重建图片中的3D关键点坐标投影为68点的2D关键点标注。
根据本公开的实施例,如图3A所示,图3A中(a)和(b)的最左和最右列是对从数据集中随机选取的人脸关键点标注样本图重建得到的结果,中间列的图片则是对两张带关键点标签人脸重建图片进行人脸属性插值,并将插值隐码输入参数化人脸重建模型生成的人脸图片,且对应的关键点信息标注在人脸图片中。显然,新生成的人脸图片带有高精度的关键点标注并拥有很好的清晰度。其中,(a)图和(b)图的第三行是3d关键点的标注结果,其余则是2d关键点的标注结果。其中,2d关键点和3d关键点均是平面关键点,3d关键点包括被遮挡区域的关键点。
图3B示意性示出了根据本公开另一实施例利用参数化人脸重建模型基于第一渲染图和第二渲染图得到重建结果的示意图。
图3C示意性示出了根据本公开又一实施例利用参数化人脸重建模型基于第一渲染图和第二渲染图得到重建结果的示意图。
根据本公开的实施例,如图3B和图3C所示,图3B和图3C最左和最右列是我们对从数据集中随机选取的人脸关键点标注样本图重建得到的结果,中间列的图片则是我们对两张人脸进行人脸属性插值,并将插值隐码输入参数化人脸重建模型生成的人脸图片。其中,图3B为再生成的带2d关键点标注人脸,图3C为从合成人脸数据集中数据再生成的带3d关键点标注人脸。这些随机挑选并生成的结果说明我们的生成方法不仅能生成2d关键点标注数据,也能生成高精度的3d关键点标注数据,具有很好的泛化性。
图4示意性示出了根据本公开实施例利用参数化人脸重建模型得到人脸关键点标注图的对比示意图。
根据本公开的实施例,如图4所示,在基于第一渲染图和第二渲染图生成大量新的带标注关键点图像数据后,可以用这些数据训练参数化人脸重建模型并提升其预测精度。随机选出400张人脸图片,并用ResNet34(Residual Network,残差网络)作为参数化人脸重建模型在其上进行训练,记训练得到的模型为Ⅰ。利用参数化人脸重建模型在400张图片的基础上新生成3000张带有新人脸属性和新视角的带标注人脸图片,并将ResNet34放在扩充后的3400张图片上进行训练,记训练得到的模型为Ⅱ。将两个模型训练相同的迭代数,并随机抽取的未参与训练的人脸图片上进行测试。如图4所示,模型Ⅱ的预测结果在嘴部和眼部关键点上比Ⅰ的预测结果显著地准确很多,后者的预测和真实值相比有很大的偏差,而前者则几乎和真实值一致。测试结果如表1所示,表1示出了模型Ⅰ和模型ⅡNME(NormalizedMean Squared,归一化均方)值和MSE(Mean Square Error,均方误差)值的对比结果。
表1
Figure BDA0004148698880000201
根据本公开的实施例,在和合成人脸数据做实验对比时,从合成人脸中随机挑选3000张合成人脸,并将ResNet34放在其上进行训练,记训练得到的模型为Ⅲ。类似地,用预训练的HeadNeRF V2随机生成10000张人脸图片,并从其中随机挑选3000张作为训练数据。将ResNet34放在其上进行训练,记训练得到的模型为Ⅳ。将同样的实验进行十次,并在100张中随机抽取的未参与训练的人脸图片上进行测试,计算平均的NME和MSE值。特别的,由于合成数据集带有的关键点标注为3d关键点,因此为公平起见,用InsightFace对下颌线标注做了3d到2d的转换。测试结果如表2所示,表2示出了模型Ⅲ和模型ⅣNME值和MSE值的对比结果。
表2
Figure BDA0004148698880000202
根据本公开的实施例,为定量刻画参数化人脸重建模型生成的数据对参数化人脸重建模型训练效果的提升作用。随机选出400张人脸图片作为原始训练数据,并用ResNet34作为参数化人脸重建模型在其上进行训练。接着,分别在训练数据中加入N,2N,4N,8N,16N,32N,64N张借助HeadNeRF V2新生成的人脸图片,并将ResNet34放在其上训练。将N设置为500并在150张中随机抽取的未参与训练的人脸图片上进行测试。对每一个样本量,重复进行10次实验,并为每一个训练好的模型计算平均的NME和MSE值。训练结果如表3,可以看到,随着新生成数据的逐渐加入,训练得到模型的NME和MSE值显著地降低。这有力地证明了新生成的带标注数据对关键点预测模型的训练效果有显著的提升作用。表3示出了参数化人脸重建模型训练结果数据。
表3
Figure BDA0004148698880000211
图5示意性示出了根据本公开实施例的人脸带关键点标签数据生成方法的流程图。
如图5所示,该方法包括操作S501和S502。
在操作S501,获取目标人脸图像或随机给定的人脸隐码集。
在操作S502,将目标人脸图像或随机给定的人脸隐码集输入至参数化人脸重建模型中,得到第一输出渲染图、第二输出渲染图和人脸隐码集。
在操作S503,基于目标人脸图像对应的人脸隐码集或随机给定的人脸隐码集对第一输出渲染图和第二输出渲染图进行处理,得到人脸关键点标注图,其中,参数化人脸重建模型是利用参数化人脸重建模型训练方法得到的。
根据本公开的实施例,获取目标人脸图像或随机给定的人脸隐码集,需要说明的是,获取目标人脸图像或随机给定的人脸隐码集符合相关法律法规的规定,采取了必要的保密措施。且在获取或采集用户的目标人脸图像或随机给定的人脸隐码集之前,均获取了用户的授权或同意。将目标人脸图像或随机给定的人脸隐码集输入至参数化人脸重建模型中,利用模型对目标人脸图像对应的人脸隐码集或随机给定的人脸隐码集中各属性的隐码值进行拟合,得到第一输出渲染图和第二输出渲染图。编辑人脸隐码集中感兴趣属性(如光照隐码)的隐码值,继而对表情隐码进行3D-2D投影,得到人脸关键点标注图。
基于上述参数化人脸重建模型训练方法,本公开还提供了一种参数化人脸重建模型训练装置。以下将结合图6对该装置进行详细描述。
图6示意性示出了根据本公开实施例的参数化人脸重建模型训练装置的结构框图。
如图6所示,该实施例的参数化人脸重建模型训练装置600包括隐码提取模块610、第一处理模块620、第一输出模块630、第二输出模块640、第三输出模块650以及训练模块650。
隐码提取模块610,用于对人脸关键点标注样本图进行隐码提取,得到隐码集。在一实施例中,隐码提取模块610可以用于执行前文描述的操作S201,在此不再赘述。
第一处理模块620,用于将隐码集输入初始参数化人脸重建模型的颜色识别网络中,利用颜色识别网络中的第一渲染模块,基于隐码集对人脸关键点标注样本图进行处理,得到第一特征图。在一实施例中,第一处理模块620可以用于执行前文描述的操作S202,在此不再赘述。
第一输出模块630,用于将隐码集输入颜色识别网络中的生成器模块中,输出风格隐码。在一实施例中,第一输出模块630可以用于执行前文描述的操作S203,在此不再赘述。
第二输出模块640,用于利用颜色识别网络中的第一上采样模块,基于风格隐码对第一特征图进行处理,输出第一渲染图。在一实施例中,第二输出模块640可以用于执行前文描述的操作S204,在此不再赘述。
第三输出模块650,用于将隐码集输入初始参数化人脸重建模型的语义识别网络中,输出第二渲染图。在一实施例中,第三输出模块650可以用于执行前文描述的操作S205,在此不再赘述。
训练模块660,用于利用第一渲染图和第二渲染图与人脸关键点标注样本图对应的真实人脸样本图之间的损失,对初始参数化人脸重建模型的模型参数进行调整,得到目标参数化人脸重建模型。在一实施例中,训练模块660可以用于执行前文描述的操作S206,在此不再赘述。
根据本公开的实施例,通过参数化人脸重建模型分别在颜色和语义方面对人脸关键点标注样本图进行特征精细化处理,从而生成第一渲染图和第二渲染图。进而为参数化人脸重建模型的训练提供了大量的高质量训练数据。此外,参数化人脸重建模型在生成第一渲染图的过程中,通过将隐码集输入颜色识别网络中的生成器模块中,输出风格隐码;利用颜色识别网络中的第一上采样模块,基于风格隐码对第一特征图进行处理,输出第一渲染图。由于生成器模块能够进一步捕捉人脸关键点标注样本图的风格隐码,使得第一上采样模块在对第一特征图处理时有效减轻了颜色识别网络中的走样信息,保持了颜色识别网络中信息传递的平移和旋转不变性,使得参数化人脸重建模型生成的图像具有高真实感和高清晰度,且避免了毛发粘连问题。
根据本公开的实施例,隐码提取模块610包括隐码提取子模块、身份确定子模块、抽取子模块、标准化子模块以及隐码集生成子模块。
隐码提取子模块,用于采用预设方式对人脸关键点标注样本图进行隐码提取,得到初始隐码集,初始隐码集包括初始身份隐码、初始表情隐码、纹理隐码以及光照隐码。
身份确定子模块,用于将人脸关键点标注样本图输入预设人脸识别网络中,输出目标身份隐码。
抽取子模块,用于从人脸关键点标注样本图中抽取预设个数的关键点。
标准化子模块,用于对关键点进行标准化,得到目标表情隐码。
隐码集生成子模块,用于基于目标身份隐码、目标表情隐码、纹理隐码以及光照隐码生成目标隐码集。
根据本公开的实施例,第一处理模块620包括预测子模块、映射子模块、积分子模块以及第一特征生成子模块。
预测子模块,用于将目标隐码集输入隐式神经函数中,基于目标身份隐码和目标表情隐码对人脸关键点标注样本图进行预测,输出密度值和中间特征。
映射子模块,用于基于纹理隐码和光照隐码,对中间特征进行映射,得到高维特征。
积分子模块,用于基于密度值对人脸关键点标注样本图中每个光线采样点进行积分,得到密度中间值。
第一特征生成子模块,用于利用第一渲染模块,基于密度中间值和高维特征生成第一特征图。
根据本公开的实施例,第二输出模块640包括转化子模块和第一输出子模块。
转化子模块,用于基于均方误差条件将第一特征图转化为傅里叶特征分布,得到转化后特征图。
第一输出子模块,用于将转化后特征图和风格隐码输入至第一上采样模块中,输出第一渲染图。
根据本公开的实施例,第三输出模块650包括处理子模块和第二输出子模块。
处理子模块,用于利用语义识别网络中的第二渲染模块,基于隐码集对人脸关键点标注样本图进行处理,得到第二特征图;
第二输出子模块,用于利用语义识别网络中的第二上采样模块,对第二特征图进行处理,输出第二渲染图。
根据本公开的实施例,训练模块660包括损失子模块和训练子模块。
损失子模块,用于将真实人脸样本图对应的第一真实值和第一渲染图以及真实人脸样本图对应的第二真实值和第二渲染图输入损失函数中,输出模型损失值。
训练子模块,用于基于模型损失值对初始参数化人脸重建模型的模型参数进行调整,得到目标参数化人脸重建模型。
根据本公开的实施例,损失子模块包括第一像素损失单元、第二像素损失单元、解耦损失单元、第一感知损失单元、第二感知损失单元、语义损失单元、分布损失单元以及模型损失单元。
第一像素损失单元,用于将第一真实值和第一渲染图输入像素损失函数中,输出第一像素损失值。
第二像素损失单元,用于将第二真实值和第二渲染图输入像素损失函数中,输出第二像素损失值。
解耦损失单元,用于将第一渲染图和第二渲染图对应的预测隐码集,和真实人脸样本图对应的隐码集输入解耦损失函数中,输出解耦损失值。
第一感知损失单元,用于将第一渲染图和第一真实值输入图片感知损失函数中,输出第一图片感知损失值。
第二感知损失单元,用于将第二渲染图和第二真实值输入图片感知损失函数中,输出第二图片感知损失值。
语义损失单元,用于基于第二像素损失值和图片感知损失值确定语义损失值。
分布损失单元,用于将第一特征图和预设特征分布输入分布损失函数中,输出分布损失值。
模型损失单元,用于基于第一像素损失值、第一图片感知损失值、解耦损失值、分布损失值以及语义损失值确定模型损失值。
基于上述人脸带关键点标签数据生成方法,本公开还提供了一种人脸带关键点标签数据生成装置。以下将结合图7对该装置进行详细描述。
图7示意性示出了根据本公开实施例的人脸带关键点标签数据生成装置的结构框图。
如图7所示,该实施例的参数化人脸重建模型训练装置700包括获取模块710、拟合模块720和标注模块730。
获取模块710,用于获取目标人脸图像或随机给定的人脸隐码集。在一实施例中,获取模块710可以用于执行前文描述的操作S501,在此不再赘述。
拟合模块720,用于将目标人脸图像或随机给定的人脸隐码集输入至参数化人脸重建模型中,得到第一输出渲染图、第二输出渲染图和人脸隐码集。在一实施例中,标注模块720可以用于执行前文描述的操作S502,在此不再赘述。
标注模块730,用于基于目标人脸图像对应的人脸隐码集或随机给定的人脸隐码集对第一输出渲染图和第二输出渲染图进行处理,得到人脸关键点标注图,其中,参数化人脸重建模型是利用训练方法得到的。在一实施例中,标注模块730可以用于执行前文描述的操作S503,在此不再赘述。
根据本公开的实施例,隐码提取模块610、第一处理模块620、第一输出模块630、第二输出模块640、第三输出模块650以及训练模块650,获取模块710、拟合模块720和标注模块730中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,隐码提取模块610、第一处理模块620、第一输出模块630、第二输出模块640、第三输出模块650以及训练模块650,获取模块710、拟合模块720和标注模块730中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,隐码提取模块610、第一处理模块620、第一输出模块630、第二输出模块640、第三输出模块650以及训练模块650,获取模块710、拟合模块720和标注模块730中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图8示意性示出了根据本公开实施例的适于实现参数化人脸重建模型训练方法和人脸带关键点标签人脸生成方法的电子设备的方框图。
如图8所示,根据本公开实施例的电子设备800包括处理器801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储部分808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。处理器801例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC))等等。处理器801还可以包括用于缓存用途的板载存储器。处理器801可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 803中,存储有电子设备800操作所需的各种程序和数据。处理器801、ROM802以及RAM 803通过总线804彼此相连。处理器801通过执行ROM 802和/或RAM 803中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 802和RAM 803以外的一个或多个存储器中。处理器801也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备800还可以包括输入/输出(I/O)接口805,输入/输出(I/O)接口805也连接至总线804。电子设备800还可以包括连接至输入/输出(I/O)接口805的以下部件中的一项或多项:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至输入/输出(I/O)接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 802和/或RAM 803和/或ROM 802和RAM 803以外的一个或多个存储器。
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。当计算机程序产品在计算机系统中运行时,该程序代码用于使计算机系统实现本公开实施例所提供的参数化人脸重建模型训练方法和人脸带关键点标签数据生成方法。
在该计算机程序被处理器801执行时执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分809被下载和安装,和/或从可拆卸介质811被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被处理器801执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。

Claims (10)

1.一种参数化人脸重建模型训练方法,包括:
对人脸关键点标注样本图进行隐码提取,得到隐码集;
将所述隐码集输入初始参数化人脸重建模型的颜色识别网络中,利用所述颜色识别网络中的第一渲染模块,基于所述隐码集对所述人脸关键点标注样本图进行处理,得到第一特征图;
将所述隐码集输入所述颜色识别网络中的生成器模块中,输出风格隐码;
利用所述颜色识别网络中的第一上采样模块,基于所述风格隐码对所述第一特征图进行处理,输出第一渲染图;
将所述隐码集输入所述初始参数化人脸重建模型的语义识别网络中,输出第二渲染图;
利用所述第一渲染图和所述第二渲染图与所述人脸关键点标注样本图对应的真实人脸样本图之间的损失,对所述初始参数化人脸重建模型的模型参数进行调整,得到目标参数化人脸重建模型。
2.根据权利要求1所述的方法,其中,所述对人脸关键点标注样本图进行隐码提取,得到隐码集,包括:
采用预设方式对所述人脸关键点标注样本图进行隐码提取,得到初始隐码集,所述初始隐码集包括初始身份隐码、初始表情隐码、纹理隐码以及光照隐码;
将所述人脸关键点标注样本图输入预设人脸识别网络中,输出目标身份隐码;
从所述人脸关键点标注样本图中抽取预设个数的关键点;
对所述关键点进行标准化,得到目标表情隐码;
基于所述目标身份隐码、所述目标表情隐码、所述纹理隐码以及所述光照隐码生成目标隐码集。
3.根据权利要求2所述的方法,其中,所述利用所述颜色识别网络中的第一渲染模块,基于所述隐码集对所述人脸关键点标注样本图进行处理,得到第一特征图,包括:
将所述目标隐码集输入隐式神经函数中,基于所述目标身份隐码和所述目标表情隐码对所述人脸关键点标注样本图进行预测,输出密度值和中间特征;
基于所述纹理隐码和所述光照隐码,对所述中间特征进行映射,得到高维特征;
基于所述密度值对所述人脸关键点标注样本图中每个光线采样点进行积分,得到密度中间值;
利用所述第一渲染模块,基于所述密度中间值和所述高维特征生成所述第一特征图。
4.根据权利要求1所述的方法,其中,所述利用所述颜色识别网络中的第一上采样模块,基于所述风格隐码对所述第一特征图进行处理,输出第一渲染图,包括:
基于均方误差条件将所述第一特征图转化为傅里叶特征分布,得到转化后特征图;
将所述转化后特征图和所述风格隐码输入至所述第一上采样模块中,输出第一渲染图。
5.根据权利要求1所述的方法,其中,所述将所述隐码集输入所述参数化人脸重建模型的语义识别网络中,输出第二渲染图,包括:
利用所述语义识别网络中的第二渲染模块,基于所述隐码集对所述人脸关键点标注样本图进行处理,得到第二特征图;
利用所述语义识别网络中的第二上采样模块,对所述第二特征图进行处理,输出第二渲染图。
6.根据权利要求1所述的方法,其中,所述利用所述第一渲染图和所述第二渲染图与所述人脸关键点标注样本图对应的真实人脸样本图之间的损失,对所述初始参数化人脸重建模型的模型参数进行调整,得到目标参数化人脸重建模型,包括:
将所述真实人脸样本图对应的第一真实值和所述第一渲染图以及所述真实人脸样本图对应的第二真实值和所述第二渲染图输入损失函数中,输出模型损失值;
基于所述模型损失值对所述初始参数化人脸重建模型的模型参数进行调整,得到目标参数化人脸重建模型。
7.根据权利要求6所述的方法,其中,所述将所述真实人脸样本图对应的第一真实值和所述第一渲染图以及所述真实人脸样本图对应的第二真实值和所述第二渲染图输入损失函数中,输出模型损失值,包括:
将所述第一真实值和所述第一渲染图输入像素损失函数中,输出第一像素损失值;
将所述第二真实值和所述第二渲染图输入所述像素损失函数中,输出第二像素损失值;
将所述第一渲染图和所述第二渲染图对应的预测隐码集,和所述真实人脸样本图对应的隐码集输入解耦损失函数中,输出解耦损失值;
将所述第一渲染图和所述第一真实值输入图片感知损失函数中,输出第一图片感知损失值;
将所述第二渲染图和所述第二真实值输入所述图片感知损失函数中,输出第二图片感知损失值;
基于所述第二像素损失值和所述图片感知损失值确定语义损失值;
将所述第一特征图和预设特征分布输入分布损失函数中,输出分布损失值;
基于所述第一像素损失值、所述第一图片感知损失值、所述解耦损失值、所述分布损失值以及所述语义损失值确定所述模型损失值。
8.一种人脸带关键点标签数据生成方法,包括:
获取目标人脸图像或随机给定的人脸隐码集;
将所述目标人脸图像或随机给定的所述人脸隐码集输入至参数化人脸重建模型中,得到第一输出渲染图和第二输出渲染图;
基于所述目标人脸图像对应的人脸隐码集或随机给定的所述人脸隐码集对所述第一输出渲染图和所述第二输出渲染图进行处理,得到人脸关键点标注图;
其中,所述参数化人脸重建模型是利用如权利要求1至7中任一项所述的训练方法得到的。
9.一种参数化人脸重建模型训练装置,包括:
隐码提取模块,用于对人脸关键点标注样本图进行隐码提取,得到隐码集;
第一处理模块,用于将所述隐码集输入初始参数化人脸重建模型的颜色识别网络中,利用所述颜色识别网络中的第一渲染模块,基于所述隐码集对所述人脸关键点标注样本图进行处理,得到第一特征图;
第一输出模块,用于将所述隐码集输入所述颜色识别网络中的生成器模块中,输出风格隐码;
第二输出模块,用于利用所述颜色识别网络中的第一上采样模块,基于所述风格隐码对所述第一特征图进行处理,输出第一渲染图;
第三输出模块,用于将所述隐码集输入所述初始参数化人脸重建模型的语义识别网络中,输出第二渲染图;
训练模块,用于利用所述第一渲染图和所述第二渲染图与所述人脸关键点标注样本图对应的真实人脸样本图之间的损失,对所述初始参数化人脸重建模型的模型参数进行调整,得到目标参数化人脸重建模型。
10.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1~8中任一项所述的方法。
CN202310311366.XA 2023-03-27 2023-03-27 参数化人脸重建模型训练方法及关键点标签数据生成方法 Pending CN116385827A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310311366.XA CN116385827A (zh) 2023-03-27 2023-03-27 参数化人脸重建模型训练方法及关键点标签数据生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310311366.XA CN116385827A (zh) 2023-03-27 2023-03-27 参数化人脸重建模型训练方法及关键点标签数据生成方法

Publications (1)

Publication Number Publication Date
CN116385827A true CN116385827A (zh) 2023-07-04

Family

ID=86968740

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310311366.XA Pending CN116385827A (zh) 2023-03-27 2023-03-27 参数化人脸重建模型训练方法及关键点标签数据生成方法

Country Status (1)

Country Link
CN (1) CN116385827A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116704084A (zh) * 2023-08-01 2023-09-05 苏州浪潮智能科技有限公司 人脸动画生成网络的训练方法、人脸动画生成方法及装置
CN116958451A (zh) * 2023-09-15 2023-10-27 腾讯科技(深圳)有限公司 模型处理、图像生成方法、装置、计算机设备和存储介质
CN117218499A (zh) * 2023-09-29 2023-12-12 北京百度网讯科技有限公司 面部表情捕捉模型的训练方法、面部表情驱动方法和装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116704084A (zh) * 2023-08-01 2023-09-05 苏州浪潮智能科技有限公司 人脸动画生成网络的训练方法、人脸动画生成方法及装置
CN116704084B (zh) * 2023-08-01 2023-11-03 苏州浪潮智能科技有限公司 人脸动画生成网络的训练方法、人脸动画生成方法及装置
CN116958451A (zh) * 2023-09-15 2023-10-27 腾讯科技(深圳)有限公司 模型处理、图像生成方法、装置、计算机设备和存储介质
CN116958451B (zh) * 2023-09-15 2023-12-26 腾讯科技(深圳)有限公司 模型处理、图像生成方法、装置、计算机设备和存储介质
CN117218499A (zh) * 2023-09-29 2023-12-12 北京百度网讯科技有限公司 面部表情捕捉模型的训练方法、面部表情驱动方法和装置

Similar Documents

Publication Publication Date Title
Chen et al. Spatial information guided convolution for real-time RGBD semantic segmentation
Liu et al. Semantic-aware implicit neural audio-driven video portrait generation
Gecer et al. Synthesizing coupled 3d face modalities by trunk-branch generative adversarial networks
CN108509915B (zh) 人脸识别模型的生成方法和装置
Chen et al. The face image super-resolution algorithm based on combined representation learning
CN116385827A (zh) 参数化人脸重建模型训练方法及关键点标签数据生成方法
CN112287820A (zh) 人脸检测神经网络及训练方法、人脸检测方法、存储介质
CN111386536A (zh) 语义一致的图像样式转换
CN115861462B (zh) 图像生成模型的训练方法、装置、电子设备及存储介质
CN111524216A (zh) 生成三维人脸数据的方法和装置
Geng et al. Towards photo-realistic facial expression manipulation
CN115424310A (zh) 一种面向人脸重演中表情分离任务的弱标注学习方法
Pande et al. Development and deployment of a generative model-based framework for text to photorealistic image generation
CN114972016A (zh) 图像处理方法、装置、计算机设备、存储介质及程序产品
CN114529785A (zh) 模型的训练方法、视频生成方法和装置、设备、介质
Bie et al. RenAIssance: A Survey into AI Text-to-Image Generation in the Era of Large Model
US20240013464A1 (en) Multimodal disentanglement for generating virtual human avatars
CN114596203A (zh) 用于生成图像和用于训练图像生成模型的方法和装置
Li et al. SPN2D-GAN: semantic prior based night-to-day image-to-image translation
Lin et al. Click-Pixel Cognition Fusion Network With Balanced Cut for Interactive Image Segmentation
Lee et al. Holistic 3D face and head reconstruction with geometric details from a single image
Wei et al. Utilizing the Neural Renderer for Accurate 3D Face Reconstruction from a Single Image
Tu et al. 3D facial expression retargeting framework based on an identity-independent expression feature vector
Cho et al. Synthesizing industrial defect images under data imbalance
US20240087265A1 (en) Multidimentional image editing from an input image

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination