CN111598818B - 人脸融合模型训练方法、装置及电子设备 - Google Patents

人脸融合模型训练方法、装置及电子设备 Download PDF

Info

Publication number
CN111598818B
CN111598818B CN202010307679.4A CN202010307679A CN111598818B CN 111598818 B CN111598818 B CN 111598818B CN 202010307679 A CN202010307679 A CN 202010307679A CN 111598818 B CN111598818 B CN 111598818B
Authority
CN
China
Prior art keywords
image
face
target
fusion
template image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010307679.4A
Other languages
English (en)
Other versions
CN111598818A (zh
Inventor
姚锟
洪智滨
薛洁婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202010307679.4A priority Critical patent/CN111598818B/zh
Publication of CN111598818A publication Critical patent/CN111598818A/zh
Priority to KR1020210035881A priority patent/KR102410328B1/ko
Priority to US17/210,827 priority patent/US11830288B2/en
Priority to EP21164443.0A priority patent/EP3822849A3/en
Priority to JP2021051619A priority patent/JP7114774B2/ja
Application granted granted Critical
Publication of CN111598818B publication Critical patent/CN111598818B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2178Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
    • G06F18/2185Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor the supervisor being an automated module, e.g. intelligent oracle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/24765Rule-based classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本申请提出一种人脸融合模型训练方法、装置及电子设备,属于图像处理技术领域。其中,该方法包括:将用户图像和模板图像进行换脸处理,生成参考模版图像;依据参考模版图像对模板图像进行五官姿态调整,生成第一输入图像;将模板图像进行自换脸处理,生成第二输入图像;将第一输入图像和第二输入图像,输入初始人脸融合模型的生成器中,生成融合图像;根据初始人脸融合模型的判别器对融合图像和模板图像的判别结果,对初始人脸融合模型进行反向传播修正,直至生成人脸融合模型。由此,通过这种人脸融合模型训练方法,使得融合图像中包含了模板图像的光照及肤色信息,提高了融合图像的肤色一致性。

Description

人脸融合模型训练方法、装置及电子设备
技术领域
本申请涉及图像处理技术领域,尤其涉及人工智能技术领域,提出一种人脸融合模型训练方法、装置及电子设备。
背景技术
人脸融合旨在将目标人脸从用户图像无缝融合到模板图像上,并且融合后图像需要保持人脸区域的语义合理性以及边缘一致性。
相关技术中,在进行人脸融合时,模板图像中的人脸区域与用户图像中的人脸区域,可能存在光照条件或个体肤色差异大等情况,从而很容易出现融合后的图像肤色差异大的问题。
发明内容
提供了一种用于人脸融合模型训练方法、装置、电子设备及存储介质。
根据第一方面,提供了一种人脸融合模型训练方法,包括:将用户图像和模板图像进行换脸处理,生成换脸后的参考模版图像;依据所述换脸后的参考模版图像,将所述模板图像进行五官姿态调整,生成第一输入图像;将所述模板图像进行自换脸处理,生成第二输入图像;将所述第一输入图像和所述第二输入图像,输入初始人脸融合模型的生成器中,生成融合后的人脸区域图像;将所述融合后的人脸区域图像与所述模板图像的背景区域图像进行融合,生成融合图像;将所述融合图像和所述模板图像,分别输入所述初始人脸融合模型的判别器中,根据所述判别器的判别结果,对所述初始人脸融合模型进行反向传播修正,直至生成人脸融合模型。
根据第二方面,提供了一种应用如前所述的人脸融合模型的人脸融合方法,包括:获取人脸融合请求,所述融合请求中包括目标用户图像和目标模版图像;将所述目标用户图像和所述目标模板图像进行换脸处理,生成换脸后的参考模版图像;依据所述参考模版图像,将所述目标模板图像进行五官姿态调整,生成输入图像;利用所述人脸融合模型的生成器对所述输入图像和所述参考模版图像进行处理,生成融合后的人脸区域图像;将所述融合后的人脸区域图像与所述目标模板图像中的背景区域图像进行融合,生成目标融合图像。
根据第三方面,提供了一种人脸融合模型训练装置,包括:第一生成模块,用于将用户图像和模板图像进行换脸处理,生成换脸后的参考模版图像;第二生成模块,用于依据所述换脸后的参考模版图像,将所述模板图像进行五官姿态调整,生成第一输入图像;第三生成模块,用于将所述模板图像进行自换脸处理,生成第二输入图像;第四生成模块,用于将所述第一输入图像和所述第二输入图像,输入初始人脸融合模型的生成器中,生成融合后的人脸区域图像;第五生成模块,用于将所述融合后的人脸区域图像与所述模板图像的背景区域图像进行融合,生成融合图像;修正模块,用于将所述融合图像和所述模板图像,分别输入所述初始人脸融合模型的判别器中,根据所述判别器的判别结果,对所述初始人脸融合模型进行反向传播修正,直至生成人脸融合模型。
根据第四方面,应用如前所述的人脸融合模型的人脸融合装置,包括:获取模块,用于获取人脸融合请求,所述融合请求中包括目标用户图像和目标模版图像;第一生成模块,用于将所述目标用户图像和所述目标模板图像进行换脸处理,生成换脸后的参考模版图像;第二生成模块,用于依据所述参考模版图像,将所述目标模板图像进行五官姿态调整,生成输入图像;第三生成模块,用于利用所述人脸融合模型的生成器对所述输入图像和所述参考模版图像进行处理,生成融合后的人脸区域图像;第四生成模块,用于将所述融合后的人脸区域图像与所述目标模板图像中的背景区域图像进行融合,生成目标融合图像。
根据第五方面,提供了一种电子设备,其包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如前所述的人脸融合模型训练方法或人脸融合方法。
根据第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行如前所述的人脸融合模型训练方法或人脸融合方法。
根据本申请的技术方案,解决了相关技术中,模板图像中的人脸区域与用户图像中的人脸区域存在光照条件或个体肤色差异大等情况时,容易导致融合后的图像肤色差异大的问题。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请实施例所提供的一种人脸融合模型训练方法的流程示意图;
图2为本申请实施例所提供的另一种人脸融合模型训练方法的流程示意图;
图3为本申请实施例所提供的一种人脸融合方法的流程示意图;
图4为本申请实施例所提供的另一种人脸融合方法的流程示意图;
图5为本申请实施例提供的一种人脸融合模型训练装置的结构示意图;
图6为本申请实施例提供的一种人脸融合装置的结构示意图;
图7为本申请实施例提供的电子设备的结构示意图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本申请实施例针对相关技术中,模板图像中的人脸区域与用户图像中的人脸区域存在光照条件或个体肤色差异大等情况时,容易导致融合后的图像肤色差异大的问题,提出一种人脸融合模型训练方法。
下面参考附图对本申请提供的人脸融合模型训练方法、装置、电子设备及存储介质进行详细描述。
图1为本申请实施例所提供的一种人脸融合模型训练方法的流程示意图。
如图1所示,该人脸融合模型训练方法,包括以下步骤:
步骤101,将用户图像和模板图像进行换脸处理,生成换脸后的参考模版图像。
需要说明的是,本申请实施例的人脸融合模型可以是基于GAN(GenerativeAdversarial Networks,生成式对抗网络)实现的。
其中,用户图像,是指包括目标人脸的源图像。模板图像,是指用于与用户图像中的目标人脸进行融合的底板图像。
在本申请实施例中,可以将采用任意的换脸算法对用户图像和模板图像进行换脸处理,以将用户图像中的人脸区域融合至模板图像中的人脸区域,即将用户图像与模板图像进行初步换脸融合,从而生成换脸后的参考模板图像。
步骤102,依据换脸后的参考模版图像,将模板图像进行五官姿态调整,生成第一输入图像。
在本申请实施例中,由于对用户图像和模板图像进行换脸处理,是利用用户图像中人脸区域的五官信息替换模板图像中人脸区域的五官信息,即参考模板图像中人脸区域的五官信息为用户图像中人脸区域的五官信息,因此,可以利用参考模板图像中人脸区域的五官信息,对模板图像进行五官姿态调整,生成第一输入图像。也就是说,第一输入图像中包含了模板图像中的背景区域、人脸区域的肤色信息等,以及包含了用户图像中人脸区域的五官信息。
步骤103,将模板图像进行自换脸处理,生成第二输入图像。
其中,自换脸处理,是指将模板图像分别作为底板图像与包含目标人脸的源图像,对模板图像进行换脸处理。
需要说明的是,在通过换脸算法进行换脸处理时,通常需要将底板图像和包含目标人脸的源图像作为换脸算法的两个输入数据,以使换脸算法根据底板图像和源图像生成换脸后的图像。
在本申请实施例中,可以将模板图像分别作为换脸算法的两个输入数据,以使换脸算法根据模板图像中人脸区域中的五官信息替换模板图像中人脸区域中的五官信息,即对模板图像进行自换脸处理,并将对模板图像进行自换脸处理的结果,作为第二输入图像。
需要说明的是,由于对模板图像进行自换脸处理,是利用目标图像本身的五官信息对模板图像进行换脸处理,从而生成的第二输入图像中的肤色信息会与模板图像中的肤色信息保持一致,不会出现人脸区域肤色差异较大的情况。
步骤104,将第一输入图像和第二输入图像,输入初始人脸融合模型的生成器中,生成融合后的人脸区域图像。
其中,初始人脸融合模型,可以为GAN模型。在初始人脸融合模型为GAN模型时,初始人脸融合模型中可以包括生成器和判别器两个部分。
在本申请实施例中,可以将生成的第一输入图像和第二输入图像输入初始人脸融合模型的生成器,以使生成器将第一输入图像中的人脸区域与第二输入图像中的人脸区域进行融合,生成融合后的人脸区域图像。由于,第一输入图像中包含用户图像中人脸区域的五官信息与模板图像中人脸区域的肤色信息,且第二输入图像中包括模板图像中人脸区域的五官信息与肤色信息,从而生成的融合后的人脸区域图像中不仅可以融合用户图像中人脸区域的五官信息,而且可以将第二输入图像作为监督数据,使得融合后的人脸区域图像的肤色信息与模板图像的肤色信息保持一致,即提高了融合后的人脸区域图像的肤色一致性。
作为一种可能的实现方式,生成器还可以输出将第一输入图像与第二输入图像融合后的整体图像,以及人脸区域掩膜,进而将融合后的整体图像与人脸区域掩膜的乘积,作为融合后的人脸区域图像。具体的,融合后的人脸区域图像可以通过公式(1)确定。
I'=Gout×mask(1)
其中,I'为融合后的人脸区域图像,Gout为融合后的整体图像,mask为人脸区域掩膜。
步骤105,将融合后的人脸区域图像与模板图像的背景区域图像进行融合,生成融合图像。
其中,模板图像的背景区域图像,是指模板图像中除人脸区域外的其他区域图像,可以包括头发、脖子等人体中除人脸中的其他部位、以及除人体外的其他背景元素。
需要说明的是,由于直接将第一输入图像与第二输入图像进行融合,会导致融合后的背景区域图像中产生失真或合成质量较差,而且人脸融合时,可以没有必要将背景区域图像进行融合。因此,在本申请实施例中,可以采用模板图像中的背景区域图像作为融合图像中的背景区域图像。
作为一种可能的实现方式,可以根据融合后的人脸区域图像、人脸区域掩膜和模板图像,生成融合图像。具体的,融合图像可以通过公式(2)确定。
Iout=I'+IGT×(1-mask)  (2)
其中,Iout为融合图像,I'为融合后的人脸区域图像,IGT为模板图像,mask为人脸区域掩膜。
步骤106,将融合图像和模板图像,分别输入初始人脸融合模型的判别器中,根据判别器的判别结果,对初始人脸融合模型进行反向传播修正,直至生成人脸融合模型。
其中,判别器,可以为二分类网络模型。判别器可以对输入的图像进行判别,确定输入图像是真实图像还是合成的造假图像。
在本申请实施例中,可以利用大量用户图像和模板图像,生成融合图像,进而将每个模板图像及其对应的融合图像输入初始人脸融合模型的判别器中,以使判别器对模板图像与融合图像进行判别,并输出对每个输入图像的判别结果。
作为一种可能的实现方式,判别器输出的判别结果可以是处于[0,1]取值范围内的数值,其中,图像对应的判别结果的取值越大,则说明判别器认为该图像为真实图像的概率越大;图像对应的判别结果的取值越小,则说明判别器认为该图像为真实图像的概率越小。在判别器生成对每个模板图像和每个融合图像的判别结果之后,可以根据每个模板图像和每个融合图像的判别结果,确定人脸融合模型对应的目标函数的取值,并将目标函数的取值进行反向传播,以根据目标函数的取值对生成器和判别器的参数进行优化,生成更新后的人脸融合模型。
之后,利用更新后的人脸融合模型进行下一轮的训练过程,即重复上述步骤101-106,从而使得生成器生成的融合图像更加真实,判别器识别造假图像的能力不断提升,以在两者的对抗过程中,不断优化生成器和判别器的性能,直至更新后的人脸融合模型对应的目标函数的取值处于预设范围,则可以说明更新后的人脸融合模型的性能符合要求,则可以结束对人脸融合模型的训练过程。
作为一种可能的实现方式,人脸融合模型对应的目标函数可以通过公式(3)表示:
Figure BDA0002456354070000061
其中,
Figure BDA0002456354070000062
为人脸融合模型对应的目标函数,G为生成器对应的目标函数,D为判别器对应的目标函数,Dreal为模板图像对应的判别结果的取值,Dfake为融合图像对应的判别结果的取值。
作为另一种可能的实现方式,除了使用上述目标函数对生成器进行优化之外,还可以利用融合图像与模板图像之间的损失对生成器进行辅助优化。也就是说,可以在上述目标函数的取值处于预设范围内,且融合图像与模板图像之间的损失也处于预设范围内时,完成对人脸融合模型的训练过程。其中,融合图像与模板图像之间的损失函数可以通过公式(4)表示。
Figure BDA0002456354070000063
其中,
Figure BDA0002456354070000064
为融合图像与模板图像之间的损失函数,Iout为融合图像,IGT为模板图像。
根据本申请实施例的技术方案,通过将用户图像和模板图像进行换脸处理,生成参考模版图像,并依据参考模版图像对模板图像进行五官姿态调整,生成第一输入图像,之后将模板图像进行自换脸处理,生成第二输入图像,进而将第一输入图像和第二输入图像,输入初始人脸融合模型的生成器中,生成融合图像,以根据初始人脸融合模型的判别器对融合图像和模板图像的判别结果,对初始人脸融合模型进行反向传播修正,直至生成人脸融合模型。由此,通过利用GAN进行人脸融合时,将调整五官后的模板图像输入生成器,并将自换脸后的模板图像作为监督数据,从而使得融合图像中包含了模板图像的光照及肤色信息,提高了融合图像的肤色一致性。
在本申请一种可能的实现形式中,为使得生成器在生成融合图像的过程中,可以在肤色差异较大时,自动对肤色进行调整,还可以对模板图像进行自换脸后的图像进行肤色扰动处理,以在模型训练过程中,生成器可以学习到如何对肤色差异大的区域进行肤色调整,以进一步提高融合图像的肤色一致性。
下面结合图2,对本申请实施例提供的人脸融合模型训练方法进行进一步说明。
图2为本申请实施例所提供的另一种人脸融合模型训练方法的流程示意图。
如图2所示,该人脸融合模型训练方法,包括以下步骤:
步骤201,将用户图像和模板图像进行换脸处理,生成换脸后的参考模版图像。
步骤202,依据换脸后的参考模版图像,将模板图像进行五官姿态调整,生成第一输入图像。
步骤203,将模板图像进行自换脸处理,生成第二输入图像。
上述步骤201-203的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
步骤204,按照预设的规则,调整第二输入图像中人脸的肤色。
其中,预设的规则可以是在第二输入图像中人脸区域的边缘进行肤色调整,以使人脸区域边缘的肤色与人脸区域的肤色产生较大差异;或者,预设的规则还可以是在第二输入图像中人脸区域的五官边缘进行肤色调整,以使五官边缘的肤色与其他人脸区域的肤色产生较大差异。
需要说明的是,预设的规则可以包括但不限于以上列举的情形。实际使用时,可以根据实际需要确定预设的规则,本申请实施例对此不做限定。
在本申请实施例中,由于第二输入图像为训练人脸融合模型的监督数据,因此,可以通过对融合图像进行统计分析,确定融合图像中容易发生肤色不均的部位,进而在容易发生肤色不均的部位对第二输入图像中人脸的肤色进行调整,以使将第二输入图像作为监督数据时,生成器可以生成肤色差异较大的融合图像,进而判别器更加容易识别出融合图像为造假图像,从而在反向传播修正过程中,生成器可以根据判别器的判别结果学习到在图像融合过程中,需要对关注人脸区域的哪些区域的肤色信息,以及如何对人脸区域的关注区域进行肤色调整,以生成肤色更加一致的融合图像。
作为一种可能的实现方式,还可以根据第二输入图像中人脸区域的肤色,确定对第二输入图像进行肤色调整的范围,以避免调整后的第二输入图像产生失真。即在本申请实施例一种可能的实现形式中,上述步骤204之前,还可以包括:
根据第二输入图像中人脸的肤色,确定目标肤色调整范围;
相应的,上述步骤204,可以包括:
按照预设的规则,在目标肤色调整范围内调整第二输入图像中人脸的肤色。
在本申请实施例中,还可以根据第二输入图像中人脸的肤色,确定目标肤色调整范围,以是目标肤色调整范围与第二输入图像中人脸的肤色不同。比如,第二输入图像中人脸的肤色较白(即人脸区域对应的像素值较小),则可以将目标肤色调整范围调整为较大的值,即根据目标肤色调整范围对第二输入图像进行肤色调整时,调整后的区域的肤色较黑,从而不仅可以使得调整后的第二输入图像具有肤色差异性,而且可以避免调整后的第二输入图像产生失真。
在确定出目标肤色调整范围之后,即可以根据预设的规则,在目标肤色调整范围内对第二输入图像进行肤色调整。
作为另一种可能的实现方式,还可以提前预设对第二输入图像进行肤色调整的区域。即在本申请实施例一种可能的实现形式中,上述步骤204,可以包括:
按照预设的调整值,调整第二输入图像中人脸预设区域的肤色。
其中,预设的调整值,可以是通过对大量实验数据进行统计分析标定的;也可以是实时根据第二输入图像中人脸区域的肤色信息确定的,本申请实施例对此不做限定。
其中,人脸预设区域,可以是通过对大量实验数据进行统计分析标定的。比如,人脸预设区域可以是人脸区域的边界区域、人脸中五官的边界区域,或者还可以是与边界区域相邻的一定范围内的人脸内部区域,本申请实施例对此不做限定。
在本申请实施例中,可以预先确定预设的调整值以及人脸预设区域,进而根据预设的调整值,对第二输入图像中人脸预设区域的肤色进行调整。
步骤205,将第一输入图像和第二输入图像,输入初始人脸融合模型的生成器中,生成融合后的人脸区域图像。
步骤206,将融合后的人脸区域图像与模板图像的背景区域图像进行融合,生成融合图像。
步骤207,将融合图像和模板图像,分别输入初始人脸融合模型的判别器中,根据判别器的判别结果,对初始人脸融合模型进行反向传播修正,直至生成人脸融合模型。
上述步骤205-207的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
根据本申请实施例的技术方案,通过将用户图像和模板图像进行换脸处理,生成参考模版图像,并依据参考模版图像对模板图像进行五官姿态调整,生成第一输入图像,之后将模板图像进行自换脸处理,生成第二输入图像,以及按照预设的规则调整第二输入图像中人脸的肤色,进而将第一输入图像和第二输入图像,输入初始人脸融合模型的生成器中,生成融合图像,以根据初始人脸融合模型的判别器对融合图像和模板图像的判别结果,对初始人脸融合模型进行反向传播修正,直至生成人脸融合模型。由此,通过对模板图像进行自换脸和肤色调整处理,并将自换脸和肤色调整处理后的目标图像作为监督数据输入生成器,通过保留肤色差异性模拟真实测试场景,从而不仅使得融合图像中包含了模板图像的光照及肤色信息,而且保证了融合图像中肤色信息的自然过渡,进一步提高了融合图像的肤色一致性。
下面结合图3,对本申请实施例提供的应用前述人脸融合模型的人脸融合方法进行进一步说明。
图3为本申请实施例所提供的一种人脸融合方法的流程示意图。
如图3所示,该人脸融合方法,包括以下步骤:
步骤301,获取人脸融合请求,融合请求中包括目标用户图像和目标模版图像。
需要说明的是,本申请实施例的人脸融合模型可以应用在任意进行人脸融合的场景中,比如,各种支持人脸特效的娱乐应用(如游戏场景)、电影特效制作等场景。本申请实施例的人脸融合模型在训练完成之后,可以配置在任意电子设备中以执行本申请实施例的人脸融合方法。
其中,人脸融合请求,可以是根据用户操作生成的,也可以是根据与人脸融合模型相关联的应用所发出的指令生成。比如,本申请实施例的人脸融合模型应用在具有特效功能的相机应用中时,可以在检测到相机应用中的“人脸融合”控件被触发时,确定获取到人脸融合请求;本申请实施例的人脸融合模型应用在某游戏应用中时,可以根据预先设定的游戏特效被触发时,确定获取到人脸融合请求。
其中,目标用户图像,是指包括目标人脸的源图像。目标模板图像,是指用于与目标用户图像中的目标人脸进行融合的底板图像。
在本申请实施例中,获取到人脸融合请求时,可以根据人脸融合请求获取目标用户图像和目标模板图像。
步骤302,将目标用户图像和目标模板图像进行换脸处理,生成换脸后的参考模版图像。
在本申请实施例中,可以将采用与人脸融合模型训练阶段相同的换脸算法对目标用户图像和目标模板图像进行换脸处理,以将目标用户图像中的人脸区域融合至目标模板图像中的人脸区域,即将目标用户图像与目标模板图像进行初步换脸融合,从而生成换脸后的参考模板图像。
步骤303,依据参考模版图像,将目标模板图像进行五官姿态调整,生成输入图像。
在本申请实施例中,由于对目标用户图像和目标模板图像进行换脸处理,是利用目标用户图像中人脸区域的五官信息替换目标模板图像中人脸区域的五官信息,即参考模板图像中人脸区域的五官信息为目标用户图像中人脸区域的五官信息,因此,可以利用参考模板图像中人脸区域的五官信息,对目标模板图像进行五官姿态调整,生成输入图像。也就是说,输入图像中包含了目标模板图像中的背景区域、人脸区域的肤色信息等,以及包含了目标用户图像中人脸区域的五官信息。
步骤304,利用人脸融合模型的生成器对输入图像和参考模版图像进行处理,生成融合后的人脸区域图像。
在本申请实施例中,生成输入图像和参考模板图像之后,可以将输入图像和参考模板图像输入人脸融合模型的生成器,以使生成器利用输入图像和参考模板图像生成融合后的人脸区域图像。
需要说明的是,由于参考模板图像是将目标用户图像和目标模板图像直接进行合成生成的,因此参考模板图像中携带了更多的目标用户图像信息;而输入图像是根据参考模板图像对目标模板图像进行五官调整生成的,因此输入图像中既包含了目标用户图像的五官信息,又包含了目标模板图像的肤色信息,从而可以保证融合后的人脸区域图像能够更好的呈现目标用户图像的五官信息,与目标模板图像的肤色信息,保证了融合后的人脸区域图像的肤色一致性。
作为一种可能的实现方式,生成器还可以输出将输入图像与参考模板图像融合后的整体图像,以及人脸区域掩膜,进而将融合后的整体图像与人脸区域掩膜的乘积,作为融合后的人脸区域图像。具体的,融合后的人脸区域图像可以通过公式(5)确定。
I'2=Gout2×mask2  (5)
其中,I'2为融合后的人脸区域图像,Gout2为融合后的整体图像,mask2为人脸区域掩膜。
步骤305,将融合后的人脸区域图像与目标模板图像中的背景区域图像进行融合,生成目标融合图像。
其中,目标模板图像中的背景区域图像,是指目标模板图像中除人脸区域外的其他区域图像,可以包括头发、脖子等人体中除人脸中的其他部位、以及除人体外的其他背景元素。
需要说明的是,由于直接将输入图像与参考模板图像进行融合,会导致融合后的背景区域图像中产生失真或合成质量较差,而且人脸融合时,可以没有必要将背景区域图像进行融合。因此,在本申请实施例中,可以采用目标模板图像中的背景区域图像作为目标融合图像中的背景区域图像。
作为一种可能的实现方式,可以根据融合后的人脸区域图像、人脸区域掩膜和目标模板图像,生成融合图像。具体的,目标融合图像可以通过公式(6)确定。
Iout2=I'2+IGT2×(1-mask2)  (6)
其中,Iout2为目标融合图像,I'2为融合后的人脸区域图像,IGT2为目标模板图像,mask2为人脸区域掩膜。
根据本申请实施例的技术方案,通过将人脸融合请求中的目标用户图像和目标模板图像进行换脸处理,生成换脸后的参考模版图像,并依据参考模版图像,将目标模板图像进行五官姿态调整,生成输入图像,之后利用人脸融合模型的生成器对输入图像和参考模版图像进行处理,生成融合后的人脸区域图像,进而将融合后的人脸区域图像与目标模板图像中的背景区域图像进行融合,生成目标融合图像。由此,通过利用GAN进行人脸融合时,将调整五官后的目标模板图像输入生成器作为监督数据,从而使得融合图像中包含了目标模板图像的光照及肤色信息,提高了融合图像的肤色一致性。
在本申请一种可能的实现形式中,由于目标模板图像的人脸区域中可能包含头发、眼镜等遮挡物,从而导致人脸区域中被遮挡部分融合效果较差,从而可以通过目标模板图像对目标融合图像进行修正,以进一步提升目标融合图像的融合效果。
下面结合图4,对本申请实施例提供的人脸融合方法进行进一步说明。
图4为本申请实施例所提供的另一种人脸融合方法的流程示意图。
如图4所示,该人脸融合方法,包括以下步骤:
步骤401,获取人脸融合请求,融合请求中包括目标用户图像和目标模版图像。
步骤402,将目标用户图像和目标模板图像进行换脸处理,生成换脸后的参考模版图像。
步骤403,依据参考模版图像,将目标模板图像进行五官姿态调整,生成输入图像。
步骤404,利用人脸融合模型的生成器对输入图像和参考模版图像进行处理,生成融合后的人脸区域图像。
步骤405,将融合后的人脸区域图像与目标模板图像中的背景区域图像进行融合,生成目标融合图像。
上述步骤401-405的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
步骤406,检测目标模板图像中的人脸区域是否包含遮挡物。
其中,遮挡物,可以包括头发、眼镜、口罩、帽子等,本申请实施例对此不做限定。
在本申请实施例中,由于遮挡物的颜色通常与人脸区域的肤色有较大差异,从而可以根据人脸区域各部分的像素值差异,检测目标模板图像中的人脸区域是否包含遮挡物,以及遮挡物的位置和范围。
需要说明的是,实际使用时,可以根据实际需要选择合适的遮挡物检测算法,本申请实施例对此不做限定。
步骤407,在目标模板图像中的人脸区域包含遮挡物时,从目标模板图像中分割遮挡物。
在本申请实施例中,检测到目标模板图像总的人脸区域包含遮挡物是,可以采用分割网络模型从目标模板图像中分割遮挡物,即确定目标模板图像对应的遮挡物掩膜。
步骤408,根据遮挡物在目标模版图像中的位置,将遮挡物与目标融合图像进行合成,生成目标图像。
作为一种可能的实现方式,遮挡物在目标模板图像中的位置,可以通过目标模板图像对应的遮挡物掩膜表示。从而,在对目标模板图像中的遮挡物进行分割之后,可以根据目标融合图像、目标模板图像及目标模板图像对应的遮挡物掩膜,将遮挡物与目标融合图像进行合成,以生成目标图像。具体的,目标图像可以通过公式(7)确定。
I=IGT2×end_mask+Iout2×(1-end_mask)(7)
其中,I为目标图像,IGT2为目标模板图像,end_mask为目标模板图像对应的遮挡物掩膜,Iout2为目标融合图像。
根据本申请实施例的技术方案,通过在生成目标融合图像之后,检测目标模板图像中的人脸区域是否包含遮挡物,并在目标模板图像中的人脸区域包含遮挡物时,从目标模板图像中分割遮挡物,进而根据遮挡物在目标模版图像中的位置,将遮挡物与目标融合图像进行合成,生成目标图像。由此,通过目标融合图像进行去遮挡后处理,并利用目标模板图像的遮挡物区域对目标融合图像进行修正,从而不仅使得融合图像中包含了目标模板图像的光照及肤色信息,提高了融合图像的肤色一致性,而且进一步提高了融合图像的融合效果。
为了实现上述实施例,本申请还提出一种人脸融合模型训练装置。
图5为本申请实施例提供的一种人脸融合模型训练装置的结构示意图。
如图5所示,该人脸融合模型训练装置50,包括:
第一生成模块51,用于将用户图像和模板图像进行换脸处理,生成换脸后的参考模版图像;
第二生成模块52,用于依据换脸后的参考模版图像,将模板图像进行五官姿态调整,生成第一输入图像;
第三生成模块53,用于将模板图像进行自换脸处理,生成第二输入图像;
第四生成模块54,用于将第一输入图像和第二输入图像,输入初始人脸融合模型的生成器中,生成融合后的人脸区域图像;
第五生成模块55,用于将融合后的人脸区域图像与模板图像的背景区域图像进行融合,生成融合图像;
修正模块56,用于将融合图像和模板图像,分别输入初始人脸融合模型的判别器中,根据判别器的判别结果,对初始人脸融合模型进行反向传播修正,直至生成人脸融合模型。
在实际使用时,本申请实施例提供的人脸融合模型训练装置,可以被配置在任意电子设备中,以执行前述人脸融合模型训练方法。
根据本申请实施例的技术方案,通过将用户图像和模板图像进行换脸处理,生成参考模版图像,并依据参考模版图像对模板图像进行五官姿态调整,生成第一输入图像,之后将模板图像进行自换脸处理,生成第二输入图像,进而将第一输入图像和第二输入图像,输入初始人脸融合模型的生成器中,生成融合图像,以根据初始人脸融合模型的判别器对融合图像和模板图像的判别结果,对初始人脸融合模型进行反向传播修正,直至生成人脸融合模型。由此,通过利用GAN进行人脸融合时,将调整五官后的模板图像输入生成器,并将自换脸后的模板图像作为监督数据,从而使得融合图像中包含了模板图像的光照及肤色信息,提高了融合图像的肤色一致性。
在本申请一种可能的实现形式中,上述人脸融合模型训练装置50,还包括:
调整模块,用于按照预设的规则,调整第二输入图像中人脸的肤色。
进一步的,在本申请另一种可能的实现形式中,上述人脸融合模型训练装置50,还包括:
确定模块,用于根据第二输入图像中人脸的肤色,确定目标肤色调整范围;
相应的,上述调整模块,包括:
第一调整单元,用于按照预设的规则,在目标肤色调整范围内调整第二输入图像中人脸的肤色。
进一步的,在本申请再一种可能的实现形式中,上述调整模块,还包括:
第二调整单元,用于按照预设的调整值,调整第二输入图像中人脸预设区域的肤色。
需要说明的是,前述对图1、图2所示的人脸融合模型训练方法实施例的解释说明也适用于该实施例的人脸融合模型训练装置50,此处不再赘述。
根据本申请实施例的技术方案,通过将用户图像和模板图像进行换脸处理,生成参考模版图像,并依据参考模版图像对模板图像进行五官姿态调整,生成第一输入图像,之后将模板图像进行自换脸处理,生成第二输入图像,以及按照预设的规则调整第二输入图像中人脸的肤色,进而将第一输入图像和第二输入图像,输入初始人脸融合模型的生成器中,生成融合图像,以根据初始人脸融合模型的判别器对融合图像和模板图像的判别结果,对初始人脸融合模型进行反向传播修正,直至生成人脸融合模型。由此,通过对模板图像进行自换脸和肤色调整处理,并将自换脸和肤色调整处理后的目标图像作为监督数据输入生成器,通过保留肤色差异性模拟真实测试场景,从而不仅使得融合图像中包含了模板图像的光照及肤色信息,而且保证了融合图像中肤色信息的自然过渡,进一步提高了融合图像的肤色一致性。
为了实现上述实施例,本申请还提出一种人脸融合装置。
图6为本申请实施例提供的一种人脸融合装置的结构示意图。
如图6所示,该人脸融合装置60,包括:
获取模块61,用于获取人脸融合请求,融合请求中包括目标用户图像和目标模版图像;
第一生成模块62,用于将目标用户图像和目标模板图像进行换脸处理,生成换脸后的参考模版图像;
第二生成模块63,用于依据参考模版图像,将目标模板图像进行五官姿态调整,生成输入图像;
第三生成模块64,用于利用人脸融合模型的生成器对输入图像和参考模版图像进行处理,生成融合后的人脸区域图像;
第四生成模块65,用于将融合后的人脸区域图像与目标模板图像中的背景区域图像进行融合,生成目标融合图像。
在实际使用时,本申请实施例提供的人脸融合装置,可以被配置在任意电子设备中,以执行前述人脸融合方法。
根据本申请实施例的技术方案,通过将人脸融合请求中的目标用户图像和目标模板图像进行换脸处理,生成换脸后的参考模版图像,并依据参考模版图像,将目标模板图像进行五官姿态调整,生成输入图像,之后利用人脸融合模型的生成器对输入图像和参考模版图像进行处理,生成融合后的人脸区域图像,进而将融合后的人脸区域图像与目标模板图像中的背景区域图像进行融合,生成目标融合图像。由此,通过利用GAN进行人脸融合时,将调整五官后的目标模板图像输入生成器作为监督数据,从而使得融合图像中包含了目标模板图像的光照及肤色信息,提高了融合图像的肤色一致性。
在本申请一种可能的实现形式中,上述人脸融合装置60,还包括:
检测模块,用于检测目标模板图像中的人脸区域是否包含遮挡物;
分割模块,用于在目标模板图像中的人脸区域包含遮挡物时,从目标模板图像中分割遮挡物;
第五生成模块,用于根据遮挡物在目标模版图像中的位置,将遮挡物与目标融合图像进行合成,生成目标图像。
需要说明的是,前述对图3、图4所示的人脸融合方法实施例的解释说明也适用于该实施例的人脸融合装置60,此处不再赘述。
根据本申请实施例的技术方案,通过在生成目标融合图像之后,检测目标模板图像中的人脸区域是否包含遮挡物,并在目标模板图像中的人脸区域包含遮挡物时,从目标模板图像中分割遮挡物,进而根据遮挡物在目标模版图像中的位置,将遮挡物与目标融合图像进行合成,生成目标图像。由此,通过目标融合图像进行去遮挡后处理,并利用目标模板图像的遮挡物区域对目标融合图像进行修正,从而不仅使得融合图像中包含了目标模板图像的光照及肤色信息,提高了融合图像的肤色一致性,而且进一步提高了融合图像的融合效果。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图7所示,是根据本申请实施例的人脸融合模型训练方法及人脸融合方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图7所示,该电子设备包括:一个或多个处理器701、存储器702,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个电子设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图7中以一个处理器701为例。
存储器702即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的人脸融合模型训练方法或人脸融合方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的人脸融合模型训练方法或人脸融合方法。
存储器702作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的人脸融合模型训练方法对应的程序指令/模块(例如,附图5所示的第一生成模块51、第二生成模块52、第三生成模块53、第四生成模块54、第五生成模块55及修正模块56),以及本申请实施例中的人脸融合方法对应的程序指令/模块(例如,附图6所示的获取模块61、第一生成模块62、第二生成模块63、第三生成模块64及第四生成模块65)。处理器701通过运行存储在存储器702中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的人脸融合模型训练方法或人脸融合方法。
存储器702可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据人脸融合模型训练方法及人脸融合方法的电子设备的使用所创建的数据等。此外,存储器702可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器702可选包括相对于处理器701远程设置的存储器,这些远程存储器可以通过网络连接至人脸融合模型训练方法及人脸融合方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
人脸融合模型训练方法及人脸融合方法的电子设备还可以包括:输入装置703和输出装置704。处理器701、存储器702、输入装置703和输出装置704可以通过总线或者其他方式连接,图7中以通过总线连接为例。
输入装置703可接收输入的数字或字符信息,以及产生与人脸融合模型训练方法及人脸融合方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置704可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,通过将用户图像和模板图像进行换脸处理,生成参考模版图像,并依据参考模版图像对模板图像进行五官姿态调整,生成第一输入图像,之后将模板图像进行自换脸处理,生成第二输入图像,进而将第一输入图像和第二输入图像,输入初始人脸融合模型的生成器中,生成融合图像,以根据初始人脸融合模型的判别器对融合图像和模板图像的判别结果,对初始人脸融合模型进行反向传播修正,直至生成人脸融合模型。由此,通过利用GAN进行人脸融合时,将调整五官后的模板图像输入生成器,并将自换脸后的模板图像作为监督数据,从而使得融合图像中包含了模板图像的光照及肤色信息,提高了融合图像的肤色一致性。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (14)

1.一种人脸融合模型训练方法,其特征在于,包括:
将用户图像和模板图像进行换脸处理,生成换脸后的参考模版图像;
依据所述换脸后的参考模版图像,将所述模板图像进行五官姿态调整,生成第一输入图像;
将所述模板图像进行自换脸处理,生成第二输入图像;
其中,所述自换脸处理包括:
将模板图像分别作为底板图像与包含目标人脸的源图像,对模板图像进行换脸处理;
将模板图像分别作为换脸算法的两个输入数据,以使换脸算法根据模板图像中人脸区域中的五官信息替换模板图像中人脸区域中的五官信息;
将所述第一输入图像和所述第二输入图像,输入初始人脸融合模型的生成器中,生成融合后的人脸区域图像;
将所述融合后的人脸区域图像与所述模板图像的背景区域图像进行融合,生成融合图像;
将所述融合图像和所述模板图像,分别输入所述初始人脸融合模型的判别器中,根据所述判别器的判别结果,对所述初始人脸融合模型进行反向传播修正,直至生成人脸融合模型。
2.如权利要求1所述的训练方法,其特征在于,所述将所述第一输入图像和所述第二输入图像,输入初始人脸融合模型的生成器中之前,还包括:
按照预设的规则,调整所述第二输入图像中人脸的肤色。
3.如权利要求2所述的方法,其特征在于,所述按照预设的规则,调整所述第二输入图像中人脸的肤色之前,还包括:
根据所述第二输入图像中人脸的肤色,确定目标肤色调整范围;
所述按照预设的规则,调整所述第二输入图像中人脸的肤色,包括:
按照预设的规则,在所述目标肤色调整范围内调整所述第二输入图像中人脸的肤色。
4.如权利要求2或3所述的方法,其特征在于,所述按照预设的规则,调整所述第二输入图像中人脸的肤色,包括:
按照预设的调整值,调整所述第二输入图像中人脸预设区域的肤色。
5.一种应用如权利要求1-4任一所述的人脸融合模型训练方法训练的人脸融合方法,其特征在于,包括:
获取人脸融合请求,所述融合请求中包括目标用户图像和目标模板图像;
将所述目标用户图像和所述目标模板图像进行换脸处理,生成换脸后的参考模版图像;
依据所述参考模版图像,将所述目标模板图像进行五官姿态调整,生成输入图像;
利用所述人脸融合模型的生成器对所述输入图像和所述参考模版图像进行处理,生成融合后的人脸区域图像;
将所述融合后的人脸区域图像与所述目标模板图像中的背景区域图像进行融合,生成目标融合图像。
6.如权利要求5所述的人脸融合方法,其特征在于,所述生成目标融合图像之后,还包括:
检测所述目标模板图像中的人脸区域是否包含遮挡物;
在所述目标模板图像中的人脸区域包含遮挡物时,从所述目标模板图像中分割所述遮挡物;
根据所述遮挡物在所述目标模板图像中的位置,将所述遮挡物与所述目标融合图像进行合成,生成目标图像。
7.一种人脸融合模型训练装置,其特征在于,包括:
第一生成模块,用于将用户图像和模板图像进行换脸处理,生成换脸后的参考模版图像;
第二生成模块,用于依据所述换脸后的参考模版图像,将所述模板图像进行五官姿态调整,生成第一输入图像;
第三生成模块,用于将所述模板图像进行自换脸处理,生成第二输入图像;其中,所述自换脸处理包括:将模板图像分别作为底板图像与包含目标人脸的源图像,对模板图像进行换脸处理;将模板图像分别作为换脸算法的两个输入数据,以使换脸算法根据模板图像中人脸区域中的五官信息替换模板图像中人脸区域中的五官信息;
第四生成模块,用于将所述第一输入图像和所述第二输入图像,输入初始人脸融合模型的生成器中,生成融合后的人脸区域图像;
第五生成模块,用于将所述融合后的人脸区域图像与所述模板图像的背景区域图像进行融合,生成融合图像;
修正模块,用于将所述融合图像和所述模板图像,分别输入所述初始人脸融合模型的判别器中,根据所述判别器的判别结果,对所述初始人脸融合模型进行反向传播修正,直至生成人脸融合模型。
8.如权利要求7所述的训练装置,其特征在于,还包括:
调整模块,用于按照预设的规则,调整所述第二输入图像中人脸的肤色。
9.如权利要求8所述的装置,其特征在于,还包括:
确定模块,用于根据所述第二输入图像中人脸的肤色,确定目标肤色调整范围;
所述调整模块,包括:
第一调整单元,用于按照预设的规则,在所述目标肤色调整范围内调整所述第二输入图像中人脸的肤色。
10.如权利要求8或9所述的装置,其特征在于,所述调整模块,包括:
第二调整单元,用于按照预设的调整值,调整所述第二输入图像中人脸预设区域的肤色。
11.一种应用如权利要求7-10任一所述的人脸融合模型训练装置训练的人脸融合装置,其特征在于,包括:
获取模块,用于获取人脸融合请求,所述融合请求中包括目标用户图像和目标模板图像;
第一生成模块,用于将所述目标用户图像和所述目标模板图像进行换脸处理,生成换脸后的参考模版图像;
第二生成模块,用于依据所述参考模版图像,将所述目标模板图像进行五官姿态调整,生成输入图像;
第三生成模块,用于利用所述人脸融合模型的生成器对所述输入图像和所述参考模版图像进行处理,生成融合后的人脸区域图像;
第四生成模块,用于将所述融合后的人脸区域图像与所述目标模板图像中的背景区域图像进行融合,生成目标融合图像。
12.如权利要求11所述的人脸融合装置,其特征在于,还包括:
检测模块,用于检测所述目标模板图像中的人脸区域是否包含遮挡物;
分割模块,用于在所述目标模板图像中的人脸区域包含遮挡物时,从所述目标模板图像中分割所述遮挡物;
第五生成模块,用于根据所述遮挡物在所述目标模板图像中的位置,将所述遮挡物与所述目标融合图像进行合成,生成目标图像。
13.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4或5-6中任一项所述的方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-4或5-6中任一项所述的方法。
CN202010307679.4A 2020-04-17 2020-04-17 人脸融合模型训练方法、装置及电子设备 Active CN111598818B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202010307679.4A CN111598818B (zh) 2020-04-17 2020-04-17 人脸融合模型训练方法、装置及电子设备
KR1020210035881A KR102410328B1 (ko) 2020-04-17 2021-03-19 얼굴 융합 모델 트레이닝 방법, 장치 및 전자 기기
US17/210,827 US11830288B2 (en) 2020-04-17 2021-03-24 Method and apparatus for training face fusion model and electronic device
EP21164443.0A EP3822849A3 (en) 2020-04-17 2021-03-24 Method and apparatus for training a face fusion model and electronic device
JP2021051619A JP7114774B2 (ja) 2020-04-17 2021-03-25 顔融合モデルのトレーニング方法、装置及び電子機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010307679.4A CN111598818B (zh) 2020-04-17 2020-04-17 人脸融合模型训练方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN111598818A CN111598818A (zh) 2020-08-28
CN111598818B true CN111598818B (zh) 2023-04-28

Family

ID=72183389

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010307679.4A Active CN111598818B (zh) 2020-04-17 2020-04-17 人脸融合模型训练方法、装置及电子设备

Country Status (5)

Country Link
US (1) US11830288B2 (zh)
EP (1) EP3822849A3 (zh)
JP (1) JP7114774B2 (zh)
KR (1) KR102410328B1 (zh)
CN (1) CN111598818B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112330533A (zh) * 2020-11-13 2021-02-05 北京字跳网络技术有限公司 混血人脸图像生成方法、模型训练方法、装置和设备
CN112381927A (zh) * 2020-11-19 2021-02-19 北京百度网讯科技有限公司 图像生成的方法、装置、设备以及存储介质
CN112734634B (zh) * 2021-03-30 2021-07-27 中国科学院自动化研究所 换脸方法、装置、电子设备和存储介质
CN113160036B (zh) * 2021-04-19 2022-09-20 金科智融科技(珠海)有限公司 一种保持脸型不变的图像换脸方法
CN113744173A (zh) * 2021-07-30 2021-12-03 山东师范大学 图像融合方法、系统、计算机可读存储介质及电子设备
CN113642654B (zh) * 2021-08-16 2022-08-30 北京百度网讯科技有限公司 图像特征的融合方法、装置、电子设备和存储介质
CN113962845B (zh) * 2021-08-25 2023-08-29 北京百度网讯科技有限公司 图像处理方法、图像处理装置、电子设备以及存储介质
KR102639187B1 (ko) * 2021-10-28 2024-02-22 씨제이올리브네트웍스 주식회사 얼굴 합성 서비스를 제공하는 방법 및 이를 위한 장치
CN114187392B (zh) * 2021-10-29 2024-04-19 北京百度网讯科技有限公司 虚拟偶像的生成方法、装置和电子设备
CN114049287B (zh) * 2021-11-05 2023-06-23 腾讯科技(深圳)有限公司 面部模型融合方法、装置、设备及计算机可读存储介质
CN115083000B (zh) * 2022-07-14 2023-09-05 北京百度网讯科技有限公司 人脸模型训练方法、换脸方法、装置和电子设备
US20240029460A1 (en) * 2022-07-20 2024-01-25 Samsung Electronics Co., Ltd. Apparatus and method for performing image authentication
KR102546175B1 (ko) * 2022-10-17 2023-06-21 주식회사 비브스튜디오스 얼굴 변환을 수행하는 신경망 모델을 학습시키기 위한 방법
KR102579686B1 (ko) * 2022-12-29 2023-09-18 주식회사 비브스튜디오스 각도 변화를 고려하여 이미지를 단계적으로 변환하는 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108665408A (zh) * 2018-05-21 2018-10-16 北京微播视界科技有限公司 肤色调整方法、装置和电子设备
CN109978754A (zh) * 2017-12-28 2019-07-05 广东欧珀移动通信有限公司 图像处理方法、装置、存储介质及电子设备

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009199417A (ja) * 2008-02-22 2009-09-03 Denso Corp 顔追跡装置及び顔追跡方法
JP6499583B2 (ja) * 2013-09-24 2019-04-10 シャープ株式会社 画像処理装置及び画像表示装置
US10474929B2 (en) 2017-04-25 2019-11-12 Nec Corporation Cyclic generative adversarial network for unsupervised cross-domain image generation
US11325313B2 (en) * 2017-04-26 2022-05-10 Hewlett-Packard Development Company, L.P. Assigning object generation tasks
CN107392110A (zh) * 2017-06-27 2017-11-24 五邑大学 基于互联网的人脸美化系统
CN107478221A (zh) * 2017-08-11 2017-12-15 黄润芳 一种用于移动终端的高精度定位方法
CN108197532B (zh) * 2017-12-18 2019-08-16 深圳励飞科技有限公司 人脸识别的方法、装置及计算机装置
CN108021905A (zh) * 2017-12-21 2018-05-11 广东欧珀移动通信有限公司 图片处理方法、装置、终端设备及存储介质
US10719742B2 (en) * 2018-02-15 2020-07-21 Adobe Inc. Image composites using a generative adversarial neural network
CN108510437B (zh) * 2018-04-04 2022-05-17 科大讯飞股份有限公司 一种虚拟形象生成方法、装置、设备以及可读存储介质
CN108615010B (zh) * 2018-04-24 2022-02-11 重庆邮电大学 基于平行卷积神经网络特征图融合的人脸表情识别方法
CN109325549B (zh) * 2018-10-25 2022-03-04 电子科技大学 一种人脸图像融合方法
KR102294574B1 (ko) * 2019-12-03 2021-08-26 주식회사 포스코아이씨티 딥러닝 기반의 얼굴인식모델을 이용하여 실물이미지를 판단할 수 있는 안면인식시스템
CN110163832B (zh) * 2019-05-24 2021-06-08 北京百度网讯科技有限公司 人脸融合方法、装置和终端
CN110532871B (zh) * 2019-07-24 2022-05-10 华为技术有限公司 图像处理的方法和装置
CN110399849B (zh) * 2019-07-30 2021-07-27 北京市商汤科技开发有限公司 图像处理方法及装置、处理器、电子设备及存储介质
CN110443230A (zh) * 2019-08-21 2019-11-12 北京百度网讯科技有限公司 人脸融合方法、装置以及电子设备
CN110503601A (zh) * 2019-08-28 2019-11-26 上海交通大学 基于对抗网络的人脸生成图片替换方法及系统
CN110956079A (zh) * 2019-10-12 2020-04-03 深圳壹账通智能科技有限公司 人脸识别模型构建方法、装置、计算机设备和存储介质
US20210124976A1 (en) * 2019-10-28 2021-04-29 Samsung Sds Co., Ltd. Apparatus and method for calculating similarity of images
CN110889381B (zh) * 2019-11-29 2022-12-02 广州方硅信息技术有限公司 换脸方法、装置、电子设备及存储介质
US11093774B2 (en) * 2019-12-04 2021-08-17 International Business Machines Corporation Optical character recognition error correction model

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109978754A (zh) * 2017-12-28 2019-07-05 广东欧珀移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN108665408A (zh) * 2018-05-21 2018-10-16 北京微播视界科技有限公司 肤色调整方法、装置和电子设备

Also Published As

Publication number Publication date
JP2021103574A (ja) 2021-07-15
KR20210038482A (ko) 2021-04-07
KR102410328B1 (ko) 2022-06-22
US20210209423A1 (en) 2021-07-08
CN111598818A (zh) 2020-08-28
US11830288B2 (en) 2023-11-28
EP3822849A3 (en) 2021-10-27
EP3822849A2 (en) 2021-05-19
JP7114774B2 (ja) 2022-08-08

Similar Documents

Publication Publication Date Title
CN111598818B (zh) 人脸融合模型训练方法、装置及电子设备
US11587300B2 (en) Method and apparatus for generating three-dimensional virtual image, and storage medium
CN111783647B (zh) 人脸融合模型的训练方法、人脸融合方法、装置及设备
CN112509099B (zh) 虚拟形象驱动方法、装置、设备和存储介质
CN111563855B (zh) 图像处理的方法及装置
CN111914628A (zh) 人脸识别模型的训练方法和装置
CN111832745B (zh) 数据增广的方法、装置及电子设备
US11238633B2 (en) Method and apparatus for beautifying face, electronic device, and storage medium
CN112102153B (zh) 图像的卡通化处理方法、装置、电子设备和存储介质
JP7301092B2 (ja) 画像の認識方法、装置、電子デバイス、コンピュータ記憶媒体、及びプログラム
CN110806865B (zh) 动画生成方法、装置、设备及计算机可读存储介质
CN113240778B (zh) 虚拟形象的生成方法、装置、电子设备和存储介质
CN111968203B (zh) 动画驱动方法、装置、电子设备及存储介质
CN112116525B (zh) 换脸识别方法、装置、设备和计算机可读存储介质
CN111709875B (zh) 图像处理方法、装置、电子设备及存储介质
CN110688948A (zh) 视频中人脸性别变换方法、装置、电子设备和存储介质
CN111861955A (zh) 构建图像编辑模型的方法以及装置
CN113362263A (zh) 变换虚拟偶像的形象的方法、设备、介质及程序产品
CN111768356A (zh) 一种人脸图像融合方法、装置、电子设备及存储介质
CN111899159B (zh) 用于变换发型的方法、装置、设备以及存储介质
KR20220113830A (ko) 안면 키포인트 검출 방법, 장치 및 전자 기기
CN113658035B (zh) 脸部变换方法、装置、设备、存储介质以及产品
JP7393388B2 (ja) 顔編集方法、装置、電子デバイス及び可読記憶媒体
JP7183414B2 (ja) 画像処理の方法及び装置
CN112381927A (zh) 图像生成的方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant