CN112819921B - 用于改变人物的发型的方法、装置、设备和存储介质 - Google Patents

用于改变人物的发型的方法、装置、设备和存储介质 Download PDF

Info

Publication number
CN112819921B
CN112819921B CN202011379566.1A CN202011379566A CN112819921B CN 112819921 B CN112819921 B CN 112819921B CN 202011379566 A CN202011379566 A CN 202011379566A CN 112819921 B CN112819921 B CN 112819921B
Authority
CN
China
Prior art keywords
target
hairstyle
original
image
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011379566.1A
Other languages
English (en)
Other versions
CN112819921A (zh
Inventor
郭知智
梁柏荣
洪智滨
韩钧宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202011379566.1A priority Critical patent/CN112819921B/zh
Publication of CN112819921A publication Critical patent/CN112819921A/zh
Priority to US17/479,056 priority patent/US20220005244A1/en
Priority to EP21198213.7A priority patent/EP3926533A3/en
Application granted granted Critical
Publication of CN112819921B publication Critical patent/CN112819921B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本公开涉及人工智能领域,具体为计算机视觉和深度学习技术,更具体地,公开了用于改变人物的发型的方法、装置、设备和存储介质。在一种方法中,确定包括所述人物的原始图像的原始特征向量,所述原始图像中的所述人物具有原始发型。基于发型分类模型,获取与所述原始发型和所述目标发型相关联的边界向量。基于所述原始特征向量和所述边界向量,确定与所述目标发型相对应的目标特征向量。基于所述目标特征向量生成包括所述人物的目标图像,所述目标图像中的所述人物具有所述目标发型。采用上述实现方式,可以大大降低对于训练数据的要求,降低训练过程的计算量并且获得逼真的目标图像。

Description

用于改变人物的发型的方法、装置、设备和存储介质
技术领域
本公开内容的实现方式概括地涉及人工智能领域,具体为计算机视觉和深度学习技术。
背景技术
在人工智能领域,已经提出了为计算机视觉和深度学习技术来处理人物图像的技术方案。具体地,在美容、美发、医学美容、图像处理等领域中,可以为用户设计不同的发型(例如,长发、短发、直发、卷发,等),以便寻找最适合于用户的发型。目前已经提出了基于神经网络技术来改变发型的技术方案,然而这些技术方案的性能并不令人满意。此时,如何以更为简单并且有效的方式改变人物的发型,成为一个技术难题。
发明内容
根据本公开内容的示例实现方式,提供了一种用于改变人物发型的方案。
在本公开内容的第一方面中,提供了一种用于改变人物的发型的方法。在该方法中,确定包括人物的原始图像的原始特征向量,原始图像中的人物具有原始发型。基于发型分类模型,获取与原始发型和目标发型相关联的边界向量。基于原始特征向量和边界向量,确定与目标发型相对应的目标特征向量。基于目标特征向量生成包括人物的目标图像,目标图像中的人物具有目标发型。
在本公开内容的第二方面中,提供了一种用于改变人物的发型的装置。该装置包括:原始特征确定模块,配置用于确定包括人物的原始图像的原始特征向量,原始图像中的人物具有原始发型;获取模块,配置用于基于发型分类模型,获取与原始发型和目标发型相关联的边界向量;目标特征确定模块,配置用于基于原始特征向量和边界向量,确定与目标发型相对应的目标特征向量;以及生成模块,配置用于基于目标特征向量生成包括人物的目标图像,目标图像中的人物具有目标发型。
在本公开内容的第三方面中,提供了一种设备。该设备包括一个或多个处理器;以及存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现根据本公开内容的第一方面的方法。
在本公开内容的第四方面中,提供了一种其上存储有计算机程序的计算机可读介质,该程序在被处理器执行时实现根据本公开内容的第一方面的方法。
在本公开内容的第五方面中,提供了一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现根据本公开内容的第一方面的方法。
应当理解,发明内容部分中所描述的内容并非旨在限定本公开内容的实现方式的关键或重要特征,亦非用于限制本公开内容的范围。本公开内容的其他特征将通过以下的描述变得容易理解。
附图说明
结合附图并参考以下详细说明,本公开内容的各实现方式的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标记表示相同或相似的元素,其中:
图1示意性示出了在改变发型前后的原始图像和目标图像的框图;
图2示意性示出了根据本公开的示例性实现方式的用于改变人物的发型的过程的框图;
图3示意性示出了根据本公开的示例性实现方式的用于改变人物的发型的方法的流程图;
图4示意性示出了根据本公开的示例性实现方式的与原始图像相对应的多个区域的框图;
图5示意性示出了根据本公开的示例性实现方式的基于原始图像来生成原始特征向量的过程的框图;
图6示意性示出了根据本公开的示例性实现方式的特征向量的数据结构的框图;
图7示意性示出了根据本公开的示例性实现方式的获取边界向量的过程的框图;
图8示意性示出了根据本公开内容的示例性实现方式的用于生成目标图像的过程的框图;
图9A示意性示出了根据本公开的示例性实现方式的在改变发型前后的原始图像和目标图像的框图;
图9B示意性示出了根据本公开的示例性实现方式的在改变发型前后的原始图像和目标图像的框图;
图10示意性示出了根据本公开内容的示例性实现方式的用于改变人物的发型的装置的框图。
实施方式
下面将参照附图更详细地描述本公开内容的实现方式。虽然附图中显示了本公开内容的某些实现方式,然而应当理解的是,本公开内容可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实现方式,相反提供这些实现方式是为了更加透彻和完整地理解本公开内容。应当理解的是,本公开内容的附图及实现方式仅用于示例性作用,并非用于限制本公开内容的保护范围。
在本公开内容的实现方式的描述中,术语“包括”及其类似用语应当理解为开放性包含,即“包括但不限于”。术语“基于”应当理解为“至少部分地基于”。术语“一个实现方式”或“该实现方式”应当理解为“至少一个实现方式”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
在人工智能领域,已经提出了为计算机视觉和深度学习技术来处理人物图像的技术方案。具体地,在美容、美发、医学美容、图像处理等领域中,目前已经提供了为人物设计不同的发型(例如,长发、短发、直发、卷发,等)的工具,可以利用这些工具来寻找最适合于用户的发型。首先参见图1介绍有关改变发型的过程。图1示意性示出了在改变发型前后的原始图像和目标图像的框图100。如图1所示,可以提供原始图像110,并且可以基于原始图像110来生成包括改变后发型的人物的目标图像120。
目前已经提出了基于神经网络技术来改变发型的技术方案。然而,这些技术方案需要大量训练数据,并且训练数据的质量严重影响改变后的发型的效果。此外,已有的发型变化模型仅能使用预制的发型模型,例如,将长发改变至短发、将卷发改变至直发等,并不能在任意发型之间转换。
为了至少部分地解决上述技术方案中的不足,根据本公开的示例性实现,提供了一种用于改变人物的发型的技术方案。根据本公开的示例性实现方式,可以从原始图像110中提取图像的特征向量,通过调整特征向量来生成涉及目标发型的目标图像120。具体地,提出了边界向量的概念,该边界向量可以表示两种发型(例如,原始发型“卷发”和目标发型“直发”)之间的边界。也即,对于任意图像的特征向量而言,可以基于边界向量来将图像中的人物发型改变至两种发型中的任意一种。例如,将图像的特征向量和边界向量求和,可以将人物发型改变至直发;将特征向量和边界向量求差,可以将人物发型改变至卷发。
利用本公开的示例性实现方式,并不需要大量训练图像来获得完美的发型改变模型,而是可以仅基于较少的训练图像来获得发型分类模型。进一步,可以分别获得多种类型的发型之间的一个或多个边界向量。以此方式,通过使用各个边界向量,可以在多种发型之间实现简单并且有效的转换。
在下文中,将参见图2描述该技术方案的概要。图2示意性示出了根据本公开的示例性实现方式的用于改变人物的发型的过程200的框图。如图2所示,可以确定原始图像110中人物的原始发型210(例如,卷发),并且可以获取期望的目标发型220(例如,直发)。此时,基于发型分类模型240,可以获取与原始发型210和目标发型220相关联的边界向量250。继而,可以基于原始图像110的原始特征向量230和边界向量250,确定与目标发型220相对应的目标特征向量260。可以基于与提取原始特征向量230相反的逆向操作,来将目标特征向量260转换至最终的目标图像120。此时,目标图像120中的人物将包括直发的目标发型220。
根据本公开的示例性实现方式,可以在各种发型之间转换。将会理解,发型可以涉及多方面的属性。例如,对于卷曲程度而言,可以包括直发和卷发。进一步,卷发还可以被细分为更多卷曲等级。又例如,对于颜色而言,可以包括黑发、棕发、黄发、白发等。因而,根据本公开的示例性实现方式,发型可以包括以下至少任一属性:长度、卷曲程度、颜色、分缝样式、以及刘海样式,等等。
根据本公开的示例性实现方式,并不限制改变多少个发型属性,而是改变可以涉及一个或多个属性。在一个示例中,原始发型210可以包括短发的卷发,目标发型220可以包括短发的直发,此时改变仅涉及卷曲程度而并不涉及长度。在另一示例中,原始发型210可以包括短发的卷发而目标发型220可以包括长发的直发,此时发型改变将涉及长度和卷曲程度两方面。在下文中,将首先描述涉及一个属性的发型改变。
在下文中,将参见图3描述根据本公开的示例性实现方式的方法的更多细节。图3示意性示出了根据本公开的示例性实现方式的用于改变人物的发型的方法300的流程图。在框310处,确定包括人物的原始图像110的原始特征向量230,原始图像110中的人物具有原始发型210。
根据本公开的示例性实现方式,可以按照人物的人体结构,将原始图像110划分为多个区域。在下文中,将参见图4描述有关划分区域的更多细节。图4示意性示出了根据本公开的示例性实现方式的与原始图像相对应的多个区域的框图400。图4左侧示出了原始图像110,右侧示出了与该原始图像110相对应的包括多个区域的区域图像410。根据本公开的示例性实现方式,可以首先从原始图像110中确定包括人物的前景区域和背景区域440。可以基于目前已有的和/或将在未来开发的多种技术来确定前景图像和背景区域440。
根据本公开的示例性实现方式,可以基于头部检测模型,从原始图像110的前景区域中确定头部区域420(如实线区域所示),可以将前景区域中的其余部分作为身体区域430。在此的头部检测模型可以是基于已有的成熟技术生成的模型,例如,可以基于机器学习技术来训练该头部检测模型。以此方式,可以以方便并且有效的方式从原始图像110中识别头部区域420。
进一步,可以基于关键点检测模型,在头部区域420中确定发型区域450。将会理解,在此的关键点检测模型可以是基于已有的成熟技术生成的模型,例如,可以基于机器学习技术来训练关键点检测模型。该模型可以检测有关发际线、鼻子、眼睛、以及嘴等关键点。可以基于检测到的关键点,来将头部区域420划分为发型区域450、脸部区域460、眼部区域470、鼻部区域480和嘴部区域490。以此方式,可以以方便并且有效的方式从原始图像110中识别发型区域450和面部的其他区域。
根据本公开的示例性实现方式,为了确保生成的原始特征向量230能够尽量准确地反应人物的外貌,可以针对原始图像110中的头部区域420进行归一化处理,以消除人物所在的环境中的光照影响。例如,可以确定头部区域420的各个像素的均值和/或方差,并且基于上述均值和/或方差来进行归一化处理。以此方式,可以消除环境光对于人物的头部区域420的影响,进而降低由于局部明暗不均造成的图像亮度差异。
根据本公开的示例性实现方式,可以分别针对多个区域生成多个特征子向量。具体地,可以为每个区域生成相应的特征子向量,并且可以基于多个特征子向量来确定原始特征向量230。在下文中,将参见图5描述有关生成特征向量的更多细节。图5示意性示出了根据本公开的示例性实现方式的基于原始图像110来生成原始特征向量230的过程500的框图。如图5所示,可以利用特征提取模型510来从原始图像110中提取原始特征向量230。根据本公开的示例性实现方式,可以基于目前已经开发的和/或将在未来开发的机器学习模型来生成特征提取模型510。
根据本公开的示例性实现方式,特征提取模型510可以包括卷积层512、…、以及514。可以利用上述卷积层来分别确定每个区域内的子特征。进一步,该特征提取模型510可以包括池化层516,该池化层可以基于区域图像410中所标记的多个区域来执行区域相关的池化操作,以便生成最终的原始特征向量230。
根据本公开的示例性实现方式,可以基于多个区域的子特征来生成原始特征向量230。图6示意性示出了根据本公开的示例性实现方式的特征向量的数据结构600的框图。如图6所示,特征向量610可以包括多个子向量:发型子向量611、脸部子向量612、眼部子向量613、鼻部子向量614、嘴部子向量615、身体子向量616、背景子向量617。
将会理解,图6仅仅示意性示出了特征向量的数据结构的一个示例。根据本公开的示例性实现方式,特征向量610可以包括更多或者更少的子向量,并且各个子向量的排列顺序也可以有所不同。将会理解,可以自定义特征向量610和每个子向量的维度。根据本公开的示例性实现方式,由于本公开的目的在于改变发型,因而可以以较高的精度(例如,512维)来保存发型子向量611,并且可以以较低的精度来表示背景子向量617。根据本公开的示例性实现方式,还可以基于其他维度来分别表示每个子向量。
上文已经参见图4至图6描述了从原始图像110获得原始特征向量230的具体过程。在下文中,将返回图3描述如何获取边界向量250。在图3的框320处,基于发型分类模型240,获取与原始发型210和目标发型220相关联的边界向量250。根据本公开的示例性实现方式,可以利用训练图像来训练发型分类模型240,进而获得边界向量250。
可以分别获取与原始发型210和目标发型220相关联的多个训练图像,在此每个训练图像中的人物可以具有原始发型210或者目标发型220。根据本公开的示例性实现方式,并不要求获取大量的训练图像,而是可以仅使用包括多个发型的少量图像(例如,数十张或者其他数量)。具体地,图7示意性示出了根据本公开的示例性实现方式的获取边界向量250的过程700的框图。如图7所示,可以获取包括卷发的训练图像集710,并且可以获取包括直发的训练图像集720。可以分别基于两个图像集来训练发型分类模型240。
可以按照上文参见图4至图6所示的方法来处理每个训练图像,以便生成每个训练图像的特征向量。如图7所示,可以分别从训练图像集710中的每个训练图像提取特征向量,以生成训练向量集712;可以分别从训练图像集720中的每个训练图像提取特征向量,以生成训练向量集722。进一步,可以分别利用包括卷发人物图像的训练向量集712和包括直发人物图像的训练向量集722,来生成发型分类模型240。
根据本公开的示例性实现方式,可以基于目前已经开发和/或将在未来开发的机器学习技术来生成发型分类模型240。在此,训练获得的发型分类模型240可以基于输入图像的特征向量,来将该输入图像分类为卷发或者直发。可以从发型分类模型240获取描述卷发与直发之间的边界的边界向量。换言之,对于该边界向量所表示的高维曲面一侧的特征向量,都将被分类为卷发;对于该边界向量所表示的高维曲面另一侧的特征向量,都将被分类为直发。
此时,对于来自任意图像的特征向量而言,将该特征向量与边界向量求和,所得的特征向量可以对应于一种发型(例如,直发);将该特征向量与边界向量求差,所得的特征向量可以对应于另一种发型(例如,卷发)。以此方式,可以基于该边界向量来将任意发型转换为卷发或者直发。
将会理解,上文仅示意性示出了卷曲程度包括卷发和直发两个分类的情况。根据本公开的示例性实现方式,卷曲程度还可以包括更多的等级。假设将卷曲程度划分为N个等级,可以基于上文描述的方法,利用分别包括不同卷曲程度的头发的训练图像集,来生成相应的发型分类模型。此时,生成的发型分类器可以将人物的头发分类至N个卷曲等级,并且可以获得N-1个边界向量。
将会理解,上文仅以卷发和直发作为示例描述如何确定卷发与直发之间的边界向量。根据本公开的示例性实现方式,还可以针对其他发型属性进行处理。例如,可以基于分别包括长发和短发的人物图像的训练图像集来生成发型分类模型240,以便找到长发和短发之间的边界向量。对于来自任意图像的特征向量而言,将该特征向量与长发和短发之间的边界向量求和,所得的特征向量可以对应于一种发型(例如,短发);将该特征向量与边界向量求差,所得的特征向量可以对应于另一种发型(例如,长发)。以此方式,可以基于该边界向量来将任意发型转换为长发或者短发。
又例如,可以基于分别包括黑发和棕发的人物图像的训练图像集来生成发型分类模型240,以便找到黑发和棕发之间的边界向量。再例如,还可以针对头发的分缝样式(例如,左侧分缝、中分、右侧分缝,等)来训练发型分类模型240;可以针对刘海样式(例如,无刘海、短刘海、长刘海,等)训练发型分类模型。以此方式,可以基于该边界向量来将任意发型转换为指定的颜色、分缝样式和刘海样式。利用上文描述的方式,可以分别确定多种发型之间的任意两种发型之间的边界向量。
上文已经描述了边界向量涉及一个属性的情况,根据本公开的示例性实现方式,边界向量可以涉及多个属性的改变。两个训练图像集中的图像可以包括多个属性的差异。一个训练图像集的人物图像可以具有黑色卷发,而另一训练图像集的人物图像可以具有棕色直发。此时,可以基于发型分类模型来获取黑色卷发与棕色直发之间的边界向量。
上文已经参见图7描述了基于发型分类模型240来获取边界向量250的具体过程。在下文中,将返回图3描述如何确定目标特征向量260。在图3的在框330处,基于原始特征向量230和边界向量250,确定与目标发型220相对应的目标特征向量260。根据本公开的示例性实现方式,基于边界向量250,可以更新原始特征向量230中的与发型区域450相对应的特征子向量。将会理解,根据本公开的示例性实现方式的目的在于改变人物的发型,因而在修改特征向量时,不需要改变对应于其他区域的特征向量。
根据本公开的示例性实现方式,假设原始特征向量230包括2048个维度并且发型子向量位于维度1至512,则此时仅需要基于边界向量250修改第1至512个维度中的数据。具体地,可以将原始特征向量230中的第1至512维度中的数据与边界向量求和,从而得到目标特征向量260。
将会理解,尽管上文仅描述了改变一个发型属性的过程。根据本公开的示例性实现方式,可以一次改变多个发型属性。例如,可以同时改变人物头发的卷曲程度和颜色。假设原始图像110中的人物具有黑色卷发,可以将目标发型220设置为棕色直发。此时,可以基于卷发和直发之间的边界向量、黑发和棕发之间的边界向量来更新原始特征向量230,以便获得与棕色直发相对应的目标特征向量260。又例如,可以基于上文描述的涉及多个属性的边界向量来确定与棕色直发相对应的目标特征向量260。
在图3的框340处,基于目标特征向量260生成包括人物的目标图像120,目标图像120中的人物具有目标发型220。在下文中,参见图8描述有关生成目标图像120的更多细节。图8示意性示出了根据本公开内容的示例性实现方式的用于生成目标图像120的过程800的框图。如图8所示,可以基于图像生成模型820来生成目标图像120,该图像生成模型820执行如图5所示的特征提取模型510的处理过程的逆向过程。图像生成模型820可以包括多个卷积层822、…、和824以及多个子单元830、…、和840(包括上采样模块和SEAN ResBlk模块)。
如图8所示,目标特征向量260包括多个子向量:发型子向量811、…、以及背景子向量817。其中的发型子向量811包括已经按照上文描述的方法更新后的数据。可以分别利用多个子单元830、…、和840来处理各个子向量。例如,可以利用子单元830来处理背景子向量817。该子单元830可以包括上采样模块834和SEAN ResBlk(语义区域自适应归一化资源块)模块832。可以利用包括上采样模块844和SEAN ResBlk模块842的子单元840来处理发型子向量811。尽管未示出,图像生成模型820可以包括用于处理目标特征向量260中的其他的子向量的子单元。进一步,图像生成模型820可以接收区域图像410,以便确定各个子向量在整个图像中所对应的区域,从而输出最终的目标图像120。
根据本公开的示例性实现方式,为了增加原始图像110中的变化,可以引入噪声数据。具体地,可以基于用于调整目标图像的噪声向量和目标特征向量260两者,来生成目标图像120。将会理解,在此的噪声向量可以仅调整与发型区域450相关的部分。备选地和/或附加地,噪声向量可以调整图像的全部区域。如图8所示,还可以添加噪声850,在此噪声850可以包括与各个子向量相关联的噪声子向量852、…以及854。以此方式,可以以不同程度改变目标图像120中的各个区域的内容。由此,可以在各个区域中增加变化,以便丰富目标图像120的视觉效果。
将会理解,随着人物年龄的增长,可能会出现脱发进而导致发际线的变化。根据本公开的示例性实现方式,可以模拟人物发际线的变化,提供具有不同高度的发际线的目标图像120。具体地,可以基于发型区域450,确定原始图像110中的人物的原始发际线。可以接收目标发际线的位置,并且基于原始发际线和目标发际线,生成目标发际线蒙版。在此的发际线蒙版可以控制改变后头发所在的区域,进一步,可以基于目标特征向量260和目标发际线蒙版,生成目标图像120。例如,可以模拟人物衰老并且导致发际线升高的目标图像120;又例如,可以模拟植发之后的发际线恢复至年轻状态的目标图像120。
上文已经参见图2至图8描述了用于改变人物发型的各个步骤的具体过程。在下文中,将分别参见图9A和图9B描述发型改变前后的变化。图9A示意性示出了根据本公开的示例性实现方式的在改变发型前后的原始图像和目标图像的框图900A。在图9A中,图像910A表示原始图像,此时人物的发型为短发并且发际线较高。图像920A为目标图像,其中人物的头发长度比原始图像中的长度略长并且发际线较低。图像930A为另一目标图像,该图像中的人物发型被改变至长发。图9B示意性示出了根据本公开的示例性实现方式的在改变发型前后的原始图像和目标图像的框图900B。在图9B中,原始图像910B中的人物具有棕色长发,而改变后的目标图像920B中的人物具有黑色长发。
利用本公开的示例性实现方式,可以分别获得各种多个发型中的任意两个发型之间的多个边界向量。基于上述多个边界向量,即可实现将人物的任意发型转换为期望的发型。以此方式,并不需要海量的训练图像来获得任意两种发型之间的转换模型,而是可以仅利用少量训练图像,即可获得期望的发型分类模型进而获得相关的边界向量。利用上文描述的方法,可以大大降低对于训练数据的要求,降低训练过程的计算量并且获得逼真的目标图像。
在上文中已经详细描述了用于改变人物发型的方法300的多个实现方式。根据本公开的示例性实现方式,还提供了用于改变人物的发型的装置。在下文中,将参见图10详细描述。图10示意性示出了根据本公开内容的示例性实现方式的用于改变人物的发型的装置1000的框图。如图10所示,该装置1000包括:原始特征确定模块1010,配置用于确定包括人物的原始图像的原始特征向量,原始图像中的人物具有原始发型;获取模块1020,配置用于基于发型分类模型,获取与原始发型和目标发型相关联的边界向量;目标特征确定模块1030,配置用于基于原始特征向量和边界向量,确定与目标发型相对应的目标特征向量;以及1040生成模块,配置用于基于目标特征向量生成包括人物的目标图像,目标图像中的人物具有目标发型。
根据本公开的示例性实现方式,原始特征确定模块1010包括:划分模块,配置用于按照人物的人体结构,将原始图像划分为多个区域;子向量生成模块,配置用于分别针对多个区域生成多个特征子向量;以及向量确定模块,配置用于基于多个特征子向量来确定原始特征向量。
根据本公开的示例性实现方式,划分模块包括:头部区域确定模块,配置用于基于头部检测模型,确定原始图像中的头部区域;以及发型区域确定模块,配置用于基于关键点检测模型,在头部区域中确定发型区域。
根据本公开的示例性实现方式,该装置1000进一步包括:归一化模块,配置用于针对原始图像进行归一化处理,以消除人物所在的环境中的光照影响。
根据本公开的示例性实现方式,获取模块1020包括:训练图像获取模块,配置用于获取多组训练图像,多组训练图像中的每组图像中的人物分别具有多个发型中的一个发型;训练特征确定模块,配置用于针对每组训练图像中的每个训练图像,确定每个训练图像的特征向量;分类模型生成模块,配置用于基于每个训练图像的特征向量和每个训练图像中的人物的发型,生成发型分类模型;以及边界向量确定模块,配置用于基于发型分类模型,确定描述多个发型中的任意两个发型之间的边界向量。
根据本公开的示例性实现方式,目标特征确定模块1030包括:更新模块,配置用于基于边界向量,更新原始特征向量中的与发型区域相对应的特征子向量。
根据本公开的示例性实现方式,生成模块1040进一步包括:发际线确定模块,配置用于基于发型区域,确定原始图像中的人物的原始发际线;蒙版生成模块,配置用于基于原始发际线和目标发际线,生成目标发际线蒙版;以及目标图像生成模块,配置用于基于目标特征向量和目标发际线蒙版,生成目标图像。
根据本公开的示例性实现方式,生成模块1040进一步包括:噪声模块,配置用于基于用于调整目标图像的噪声向量和目标特征向量,生成目标图像。
根据本公开的示例性实现方式,原始发型和目标发型中的任一项包括以下至少一个属性:长度、卷曲程度、颜色、分缝样式、以及刘海样式。
可以使用设备用于实现图3描述的方法。设备包括中央处理单元(CPU),其可以根据存储在只读存储器(ROM)中的计算机程序指令或者从存储单元加载到随机访问存储器(RAM)中的计算机程序指令,来执行各种适当的动作和处理。在RAM中,还可存储设备操作所需的各种程序和数据。CPU以及RAM通过总线彼此相连。输入/输出(I/O)接口也连接至总线。
设备中的多个部件连接至I/O接口,包括:输入单元,例如键盘、鼠标等;输出单元,例如各种类型的显示器、扬声器等;存储单元,例如磁盘、光盘等;以及通信单元,例如网卡、调制解调器、无线通信收发机等。通信单元允许设备通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理单元执行上文所描述的各个方法和处理,例如方法300。例如,在一些实现方式中,方法300可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元。在一些实现方式中,计算机程序的部分或者全部可以经由ROM和/或通信单元而被载入和/或安装到设备上。当计算机程序加载到RAM并由CPU执行时,可以执行上文描述的方法300的一个或多个步骤。备选地,在其他实现方式中,CPU可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法300。
根据本公开内容的示例性实现方式,提供了一种其上存储有计算机程序的计算机可读存储介质。程序被处理器执行时实现本公开所描述的方法。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)等等。
用于实施本公开内容的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开内容的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
此外,虽然采用特定次序描绘了各操作,但是这应当理解为要求这样操作以所示出的特定次序或以顺序次序执行,或者要求所有图示的操作应被执行以取得期望的结果。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开内容的范围的限制。在单独的实现方式的上下文中描述的某些特征还可以组合地实现在单个实现中。相反地,在单个实现的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实现中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (18)

1.一种用于改变人物的发型的方法,包括:
确定包括所述人物的原始图像的原始特征向量,所述原始图像中的所述人物具有原始发型;
基于发型分类模型,获取与所述原始发型和目标发型相关联的边界向量;
基于所述原始特征向量和所述边界向量,确定与所述目标发型相对应的目标特征向量;以及
基于所述目标特征向量生成包括所述人物的目标图像,所述目标图像中的所述人物具有所述目标发型,
其中获取所述边界向量包括:
获取多组训练图像,所述多组训练图像中的每组图像中的人物分别具有多个发型中的一个发型;
针对每组训练图像中的每个训练图像,确定每个训练图像的特征向量;
基于每个训练图像的特征向量和每个训练图像中的人物的发型,生成所述发型分类模型;以及
基于所述发型分类模型,确定描述所述多个发型中的任意两个发型之间的边界向量。
2.根据权利要求1所述的方法,其中确定所述原始特征向量包括:
按照所述人物的人体结构,将所述原始图像划分为多个区域;
分别针对所述多个区域生成多个特征子向量;以及
基于所述多个特征子向量来确定所述原始特征向量。
3.根据权利要求2所述的方法,其中将所述原始图像划分为所述多个区域包括:
基于头部检测模型,确定所述原始图像中的头部区域;以及
基于关键点检测模型,在所述头部区域中确定发型区域。
4.根据权利要求1所述的方法,进一步包括:针对所述原始图像进行归一化处理,以消除所述人物所在的环境中的光照影响。
5.根据权利要求3所述的方法,其中确定所述目标特征向量包括:基于所述边界向量,更新所述原始特征向量中的与所述发型区域相对应的特征子向量。
6.根据权利要求3所述的方法,其中生成所述目标图像进一步包括:
基于所述发型区域,确定所述原始图像中的所述人物的原始发际线;
基于所述原始发际线和目标发际线,生成目标发际线蒙版;以及
基于所述目标特征向量和所述目标发际线蒙版,生成所述目标图像。
7.根据权利要求1所述的方法,其中生成所述目标图像进一步包括:
基于用于调整所述目标图像的噪声向量和所述目标特征向量,生成所述目标图像。
8.根据权利要求1所述的方法,其中所述原始发型和所述目标发型中的任一项包括以下至少一个属性:长度、卷曲程度、颜色、分缝样式、以及刘海样式。
9.一种用于改变人物的发型的装置,包括:
原始特征确定模块,配置用于确定包括所述人物的原始图像的原始特征向量,所述原始图像中的所述人物具有原始发型;
获取模块,配置用于基于发型分类模型,获取与所述原始发型和目标发型相关联的边界向量;
目标特征确定模块,配置用于基于所述原始特征向量和所述边界向量,确定与所述目标发型相对应的目标特征向量;以及
生成模块,配置用于基于所述目标特征向量生成包括所述人物的目标图像,所述目标图像中的所述人物具有所述目标发型,
其中所述获取模块包括:
训练图像获取模块,配置用于获取多组训练图像,所述多组训练图像中的每组图像中的人物分别具有多个发型中的一个发型;
训练特征确定模块,配置用于针对每组训练图像中的每个训练图像,确定每个训练图像的特征向量;
分类模型生成模块,配置用于基于每个训练图像的特征向量和每个训练图像中的人物的发型,生成所述发型分类模型;以及
边界向量确定模块,配置用于基于所述发型分类模型,确定描述所述多个发型中的任意两个发型之间的边界向量。
10.根据权利要求9所述的装置,其中所述原始特征确定模块包括:
划分模块,配置用于按照所述人物的人体结构,将所述原始图像划分为多个区域;
子向量生成模块,配置用于分别针对所述多个区域生成多个特征子向量;以及
向量确定模块,配置用于基于所述多个特征子向量来确定所述原始特征向量。
11.根据权利要求10所述的装置,其中所述划分模块包括:
头部区域确定模块,配置用于基于头部检测模型,确定所述原始图像中的头部区域;以及
发型区域确定模块,配置用于基于关键点检测模型,在所述头部区域中确定发型区域。
12.根据权利要求9所述的装置,进一步包括:归一化模块,配置用于针对所述原始图像进行归一化处理,以消除所述人物所在的环境中的光照影响。
13.根据权利要求11所述的装置,其中所述目标特征确定模块包括:更新模块,配置用于基于所述边界向量,更新所述原始特征向量中的与所述发型区域相对应的特征子向量。
14.根据权利要求11所述的装置,其中所述生成模块进一步包括:
发际线确定模块,配置用于基于所述发型区域,确定所述原始图像中的所述人物的原始发际线;
蒙版生成模块,配置用于基于所述原始发际线和目标发际线,生成目标发际线蒙版;以及
目标图像生成模块,配置用于基于所述目标特征向量和所述目标发际线蒙版,生成所述目标图像。
15.根据权利要求9所述的装置,其中所述生成模块进一步包括:
噪声模块,配置用于基于用于调整所述目标图像的噪声向量和所述目标特征向量,生成所述目标图像。
16.根据权利要求9所述的装置,其中所述原始发型和所述目标发型中的任一项包括以下至少一个属性:长度、卷曲程度、颜色、分缝样式、以及刘海样式。
17.一种电子设备,所述电子设备包括:
一个或多个处理器;以及
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现根据权利要求1-8中任一项所述的方法。
18.一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现根据权利要求1-8中任一项所述的方法。
CN202011379566.1A 2020-11-30 2020-11-30 用于改变人物的发型的方法、装置、设备和存储介质 Active CN112819921B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202011379566.1A CN112819921B (zh) 2020-11-30 2020-11-30 用于改变人物的发型的方法、装置、设备和存储介质
US17/479,056 US20220005244A1 (en) 2020-11-30 2021-09-20 Method and apparatus for changing hairstyle of character, device, and storage medium
EP21198213.7A EP3926533A3 (en) 2020-11-30 2021-09-22 Method and apparatus for changing hairstyle of human object, device and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011379566.1A CN112819921B (zh) 2020-11-30 2020-11-30 用于改变人物的发型的方法、装置、设备和存储介质

Publications (2)

Publication Number Publication Date
CN112819921A CN112819921A (zh) 2021-05-18
CN112819921B true CN112819921B (zh) 2023-09-26

Family

ID=75853234

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011379566.1A Active CN112819921B (zh) 2020-11-30 2020-11-30 用于改变人物的发型的方法、装置、设备和存储介质

Country Status (3)

Country Link
US (1) US20220005244A1 (zh)
EP (1) EP3926533A3 (zh)
CN (1) CN112819921B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299070A (ja) * 2006-04-27 2007-11-15 Toshiba Corp 顔形状モデル生成装置及びその方法
CN107527318A (zh) * 2017-07-17 2017-12-29 复旦大学 一种基于生成对抗式网络模型的发型更换方法
CN109934895A (zh) * 2019-03-18 2019-06-25 北京海益同展信息科技有限公司 图像局部特征迁移方法与装置
WO2020063527A1 (zh) * 2018-09-30 2020-04-02 叠境数字科技(上海)有限公司 基于多特征检索和形变的人体发型生成方法
CN111507791A (zh) * 2019-01-31 2020-08-07 北京奇虎科技有限公司 基于图像的发型变换方法、装置、计算机设备及存储介质
EP3723050A1 (en) * 2019-04-09 2020-10-14 Koninklijke Philips N.V. Modifying an appearance of hair
CN111899159A (zh) * 2020-07-31 2020-11-06 北京百度网讯科技有限公司 用于变换发型的方法、装置、设备以及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7792333B2 (en) * 2004-10-19 2010-09-07 Sri International Method and apparatus for person identification
US8270682B2 (en) * 2008-11-25 2012-09-18 Eastman Kodak Company Hair segmentation
KR20100077263A (ko) * 2008-12-29 2010-07-08 삼성전자주식회사 개인 정보 제공 장치 및 방법
CN102800129B (zh) * 2012-06-20 2015-09-30 浙江大学 一种基于单幅图像的头发建模和肖像编辑方法
US10339365B2 (en) * 2016-03-31 2019-07-02 Snap Inc. Automated avatar generation
US20200349376A1 (en) * 2019-05-01 2020-11-05 Qualcomm Incorporated Privacy augmentation using counter recognition
CN110111246B (zh) * 2019-05-15 2022-02-25 北京市商汤科技开发有限公司 一种虚拟头像生成方法及装置、存储介质
US11790581B2 (en) * 2020-09-28 2023-10-17 Adobe Inc. Transferring hairstyles between portrait images utilizing deep latent representations
US11461970B1 (en) * 2021-03-15 2022-10-04 Tencent America LLC Methods and systems for extracting color from facial image
US11587288B2 (en) * 2021-03-15 2023-02-21 Tencent America LLC Methods and systems for constructing facial position map

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299070A (ja) * 2006-04-27 2007-11-15 Toshiba Corp 顔形状モデル生成装置及びその方法
CN107527318A (zh) * 2017-07-17 2017-12-29 复旦大学 一种基于生成对抗式网络模型的发型更换方法
WO2020063527A1 (zh) * 2018-09-30 2020-04-02 叠境数字科技(上海)有限公司 基于多特征检索和形变的人体发型生成方法
CN111507791A (zh) * 2019-01-31 2020-08-07 北京奇虎科技有限公司 基于图像的发型变换方法、装置、计算机设备及存储介质
CN109934895A (zh) * 2019-03-18 2019-06-25 北京海益同展信息科技有限公司 图像局部特征迁移方法与装置
EP3723050A1 (en) * 2019-04-09 2020-10-14 Koninklijke Philips N.V. Modifying an appearance of hair
CN111899159A (zh) * 2020-07-31 2020-11-06 北京百度网讯科技有限公司 用于变换发型的方法、装置、设备以及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于M-CycleGAN实现口罩图像风格迁移;王诣天;石文;;电脑编程技巧与维护(03);133-136 *
基于生成对抗网络的人像头发增减模型;韦博熠;毛力;;信息与电脑(理论版)(12);69-71 *

Also Published As

Publication number Publication date
EP3926533A3 (en) 2022-04-27
CN112819921A (zh) 2021-05-18
EP3926533A2 (en) 2021-12-22
US20220005244A1 (en) 2022-01-06

Similar Documents

Publication Publication Date Title
Wu et al. Stylespace analysis: Disentangled controls for stylegan image generation
CN105138993B (zh) 建立人脸识别模型的方法及装置
Zhang et al. Computer models for facial beauty analysis
CN110288513B (zh) 用于改变人脸属性的方法、装置、设备和存储介质
CN109657554A (zh) 一种基于微表情的图像识别方法、装置以及相关设备
CN112862807B (zh) 基于头发图像的数据处理方法及装置
CN111833236B (zh) 产生模拟用户的三维脸部模型的方法及装置
WO2024109374A1 (zh) 换脸模型的训练方法、装置、设备、存储介质和程序产品
KR20210147507A (ko) 이미지 생성 시스템 및 이를 이용한 이미지 생성 방법
WO2021169556A1 (zh) 人脸图像合成方法及装置
CN116547721A (zh) 用于分析用户的头部的头发区域的图像的像素数据以生成一个或多个用户特定推荐的数字成像和学习系统及方法
KR20230153451A (ko) 역 gan들을 이용한 시도
Zhou et al. Personalized and occupational-aware age progression by generative adversarial networks
JP2022169432A (ja) ユーザーの毛髪分析のためのシステム及び方法
CN111091055A (zh) 脸型识别方法、装置、设备及计算机可读存储介质
Cho et al. Towards enhanced controllability of diffusion models
CN111325173A (zh) 毛发类型识别方法、装置、电子设备及存储介质
US11354844B2 (en) Digital character blending and generation system and method
CN113762117A (zh) 一种图像处理模型的训练方法、图像处理模型及计算机设备
CN112819921B (zh) 用于改变人物的发型的方法、装置、设备和存储介质
CN113762022A (zh) 人脸图像的融合方法和装置
CN117152566A (zh) 一种分类模型训练方法、模型、分类方法以及产品
Fang et al. Facial makeup transfer with GAN for different aging faces
Chen et al. Novel Multi-Feature Fusion Facial Aesthetic Analysis Framework
CN113239867A (zh) 一种基于掩码区域自适应增强的光照变化人脸识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant