CN115222583A - 模型训练方法及装置、图像处理方法、电子设备、介质 - Google Patents

模型训练方法及装置、图像处理方法、电子设备、介质 Download PDF

Info

Publication number
CN115222583A
CN115222583A CN202210908744.8A CN202210908744A CN115222583A CN 115222583 A CN115222583 A CN 115222583A CN 202210908744 A CN202210908744 A CN 202210908744A CN 115222583 A CN115222583 A CN 115222583A
Authority
CN
China
Prior art keywords
makeup
image
face
model
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210908744.8A
Other languages
English (en)
Inventor
王健宗
李泽远
司世景
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202210908744.8A priority Critical patent/CN115222583A/zh
Publication of CN115222583A publication Critical patent/CN115222583A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本实施例涉及人工智能技术领域,尤其涉及一种模型训练方法及装置、图像处理方法、电子设备、介质,该模型训练方法包括:获取素颜样本图和上妆脸部样本图。将素颜样本图输入初始生成模型中进行处理,得到第一生成结果,第一生成结果包括由素颜样本图转换的第一上妆脸部图和由第一上妆脸部图转换的第一素颜图。将上妆脸部样本图输入初始生成模型中进行处理,得到第二生成结果,第二生成结果包括由上妆脸部样本图转换的第二素颜图和由第二素颜图转换的第二上妆脸部图。根据第一生成结果和第二生成结果计算目标损失值,并利用目标损失值对初始生成模型进行调整,得到妆容转移模型,能够实现稳定的妆容转移效果。

Description

模型训练方法及装置、图像处理方法、电子设备、介质
技术领域
本申请涉及人工智能技术领域,尤其涉及一种模型训练方法及装置、图像处理方法、电子设备、介质。
背景技术
人脸妆容转移是计算机视觉领域的常见技术,通过从参考图像中提取妆容风格,可以将其应用到不同人物的人脸图像中。现有的妆容转移方式通常需要采集成对的素颜图和带妆图以作为训练集,从而利用训练集训练用于妆容转移的监督模型。然而,这种方式依赖于准确配对的训练集,因此训练集的质量容易影响模型训练的稳定性,导致妆容转移效果不佳。
发明内容
本申请实施例的主要目的在于提出一种模型训练方法及装置、图像处理方法、电子设备、介质,能够实现稳定的妆容转移效果。
为实现上述目的,本申请实施例的第一方面提出了一种模型训练方法,用于训练妆容转移模型,所述方法包括:
获取素颜样本图和上妆脸部样本图,所述素颜样本图中不包括妆容信息,所述上妆脸部样本图中包括妆容信息;将所述素颜样本图输入初始生成模型中进行处理,得到第一生成结果,所述第一生成结果包括由所述素颜样本图转换的第一上妆脸部图和由所述第一上妆脸部图转换的第一素颜图;将所述上妆脸部样本图输入所述初始生成模型中进行处理,得到第二生成结果,所述第二生成结果包括由所述上妆脸部样本图转换的第二素颜图和由所述第二素颜图转换的第二上妆脸部图;根据所述第一生成结果和所述第二生成结果计算目标损失值,并利用所述目标损失值对所述初始生成模型进行调整,得到妆容转移模型,所述妆容转移模型用于对图像进行妆容转移处理。
一些可选的实施方式中,所述将所述素颜样本图输入初始生成模型中进行处理,得到第一生成结果,包括:
将所述素颜样本图输入初始生成模型;通过所述初始生成模型,对所述素颜样本图进行扩散处理,得到满足高斯分布的第一原始图,并对所述第一原始图进行去噪处理,得到第一上妆脸部图;通过所述初始生成模型,对所述第一上妆脸部图进行扩散处理,得到满足高斯分布的第二原始图,并对所述第二原始图进行去噪处理,得到第一素颜图;
所述将所述上妆脸部样本图输入所述初始生成模型中进行处理,得到第二生成结果,包括:
将所述上妆脸部样本图输入所述初始生成模型;通过所述初始生成模型,对所述上妆脸部样本图进行扩散处理,得到满足高斯分布的第三原始图,并对所述第三原始图进行去噪处理,得到第二素颜图;通过所述初始生成模型,对所述第二素颜图进行扩散处理,得到满足高斯分布的第四原始图,并对所述第四原始图进行去噪处理,得到第二上妆脸部图。
一些可选的实施方式中所述目标损失值中包括空间相似性损失值,所述根据所述第一生成结果和所述第二生成结果计算目标损失值,包括:
获取第一参考图以及第二参考图,所述第一参考图和所述第二参考图均满足标准正态分布条件,所述第一参考图的维度与所述素颜样本图的维度一致,所述第二参考图的维度与所述上妆脸部样本图的维度一致;根据所述第一参考图和所述第一原始图,计算第一空间损失;根据所述第二参考图和所述第二原始图,计算第二空间损失;根据所述第一空间损失和所述第二空间损失进行融合运算,得到空间相似性损失值。
一些可选的实施方式中,所述目标损失值中包括循环一致性损失值;所述根据所述第一生成结果和所述第二生成结果计算目标损失值,包括:
根据所述素颜样本图和所述第一素颜图,计算第一转移损失;根据所述上妆脸部样本图和所述第二上妆脸部图,计算第二转移损失;根据所述第一转移损失和所述第二转移损失进行融合运算,得到循环一致性损失值。
一些可选的实施方式中,所述目标损失值中包括化妆损失值;所述根据所述第一生成结果和所述第二生成结果计算目标损失值,包括:
对所述素颜样本图进行掩码标注处理,从所述素颜样本图中得到至少一种特征区域以及所述特征区域对应的第一掩码信息;对所述第一上妆脸部图进行掩码标注处理,从所述第一上妆脸部图中得到每种所述特征区域对应的第二掩码信息;根据所述第一掩码信息和所述第二掩码信息,计算每种所述特征区域对应的第一化妆损失;对所述上妆脸部样本图进行掩码标注处理,从所述上妆脸部样本图中得到每种所述特征区域对应的第三掩码信息;对所述第二素颜图进行掩码标注处理,从所述第二素颜图中得到每种所述特征区域对应的第四掩码信息;根据所述第三掩码信息和所述第四掩码信息,计算每种所述特征区域对应的第二化妆损失;根据所述第一化妆损失和所述第二化妆损失,计算每种所述特征区域对应的目标化妆损失;对所有所述特征区域对应的目标化妆损失进行融合运算,得到化妆损失值。
一些可选的实施方式中,所述利用所述目标损失值对所述初始生成模型进行调整,得到妆容转移模型,包括:
若所述初始生成模型未满足训练完成条件,则利用所述目标损失值对所述初始生成模型进行调整,得到调整后的初始生成模型,并继续执行所述获取素颜样本图和上妆脸部样本图的步骤;若所述初始生成模型满足所述训练完成条件,则根据所述初始生成模型确定妆容转移模型;其中,所述训练完成条件包至少包括以下任一项:所述目标损失值小于预设损失值;所述初始生成模型的损失值上升预设次数。
为实现上述目的,本申请实施例的第二方面提出了一种图像处理方法,所述方法包括:
获取人脸图像;若所述人脸图像中包括妆容信息,将所述人脸图像输入妆容转移模型中进行妆容转移处理,得到目标素颜图,所述目标素颜图中不包括妆容信息;若所述人脸图像中不包括妆容信息,将所述人脸图像输入所述妆容转移模型中进行妆容转移处理,得到目标上妆脸部图,所述目标上妆脸部图中包括妆容信息;其中,所述妆容转移模型为根据第一方面实施例任一项所述的模型训练方法训练得到。
为实现上述目的,本申请实施例的第三方面提出了一种模型训练装置,所述装置包括:
第一获取模块,用于获取素颜样本图和上妆脸部样本图,所述素颜样本图中不包括妆容信息,所述上妆脸部样本图中包括妆容信息;
第一生成模块,用于将所述素颜样本图输入初始生成模型中进行处理,得到第一生成结果,所述第一生成结果包括由所述素颜样本图转换的第一上妆脸部图和由所述第一上妆脸部图转换的第一素颜图;
第二生成模块,用于将所述上妆脸部样本图输入所述初始生成模型中进行处理,得到第二生成结果,所述第二生成结果包括由所述上妆脸部样本图转换的第二素颜图和由所述第二素颜图转换的第二上妆脸部图;
计算模块,用于根据所述第一生成结果和所述第二生成结果计算目标损失值;
调整模块,用于利用所述目标损失值对所述初始生成模型进行调整,得到妆容转移模型,所述妆容转移模型用于对图像进行妆容转移处理。
为实现上述目的,本公开实施例的第四方面提出了一种电子设备,包括至少一个存储器;
至少一个处理器;
至少一个计算机程序;
所述计算机程序被存储在所述存储器中,处理器执行所述至少一个计算机程序以实现:
如第一方面实施例任一项所述的模型训练方法;或者
如第二方面实施例所述的图像处理方法。
为实现上述目的,本公开实施例的第五方面还提出一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行:
如第一方面实施例任一项所述的模型训练方法;或者
如第二方面实施例所述的图像处理方法。
本申请实施例提出的模型训练方法及装置、图像处理方法、电子设备、介质,将素颜样本图输入初始生成模型中,可以通过初始生成模型将素颜样本图转换为第一上妆脸部图并将第一上妆脸部图转换为第一素颜图,得到第一生成结果,实现妆容的双向转移。类似的,将上妆脸部样本图输入初始生成模型中进行两次妆容转移,得到第二生成结果,从而利用第一生成结果和第二生成结果训练初始生成模型,得到妆容转移模型,故无需依赖准确配对的训练集,而是通过挖掘素颜图与上妆脸部图之间的潜在特征关系,构建可实现妆容双向转移的模型,训练过程更加高效且稳健,有利于改善实际使用妆容转移模型的灵活性,实现稳定的妆容转移效果。
附图说明
图1是本申请实施例提供的模型训练方法的流程图;
图2是图1中步骤S102的一种具体流程图;
图3是本申请实施例中根据素颜样本图生成第一素颜图的一种应用过程示意图;
图4是图1中步骤S104的一种具体流程图;
图5是本申请实施例提供的图像处理方法的流程图;
图6是本申请实施例提供的模型训练装置的模块框图;
图7是本申请实施例提供的图像处理装置的模块框图;
图8是本申请实施例提供的电子设备的硬件结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
首先,对本申请中涉及的若干名词进行解析:
人工智能(artificial intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
自然语言处理(natural language processing,NLP):NLP用计算机来处理、理解以及运用人类语言(如中文、英文等),NLP属于人工智能的一个分支,是计算机科学与语言学的交叉学科,又常被称为计算语言学。自然语言处理包括语法分析、语义分析、篇章理解等。自然语言处理常用于机器翻译、手写体和印刷体字符识别、语音识别及文语转换、信息检索、信息抽取与过滤、文本分类与聚类、舆情分析和观点挖掘等技术领域,它涉及与语言处理相关的数据挖掘、机器学习、知识获取、知识工程、人工智能研究和与语言计算相关的语言学研究等。
人脸妆容转移是计算机视觉领域的常见技术,通过从参考图像中提取妆容风格,可以将其应用到不同人物的人脸图像中。现有的妆容转移方式通常需要采集成对的素颜图和上妆脸部图以作为训练集,从而利用训练集训练用于妆容转移的监督模型。然而,这种方式依赖于准确配对的训练集,因此训练集的质量容易影响模型训练的稳定性,导致妆容转移效果不佳。
基于此,本申请实施例提供一种模型训练方法及装置、图像处理方法、电子设备、介质,能够实现稳定的妆容转移效果。
本申请实施例提供模型训练方法及装置、图像处理方法、电子设备、介质,具体通过如下实施例进行说明,首先描述本申请实施例中的模型训练方法和图像处理方法。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例提供的模型训练方法和图像处理方法,涉及人工智能技术领域。本申请实施例提供的模型训练方法或图像处理方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机或者智能手表等;服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(content delivery network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现模型训练方法或图像处理方法的应用等,但并不局限于以上形式。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
第一方面,请参照图1,图1是本申请实施例提供的模型训练方法的流程图,其用于训练妆容转移模型,模型训练方法包括步骤S101至S105,应理解,本申请实施例的模型训练方法包括但不限于步骤S101至步骤S105,下面结合图1进行详细介绍。
步骤S101:获取素颜样本图和上妆脸部样本图。
在本申请实施例中,素颜样本图中不包括妆容信息,具体的,素颜样本图可以包括不带妆容的人脸对象。上妆脸部样本图中包括妆容信息,具体的,上妆脸部样本图可以包括不带妆容的人脸对象,可以理解,素颜样本图中的人脸对象与上妆脸部样本图中的人脸对象可以相同,也可以不同,不做具体限定。
步骤S102:将素颜样本图输入初始生成模型中进行处理,得到第一生成结果,第一生成结果包括由素颜样本图转换的第一上妆脸部图和由第一上妆脸部图转换的第一素颜图。
也就是说,步骤S102中,通过初始生成模型,可以先将素颜样本图转换为第一上妆脸部图,再将第一上妆脸部图转换为第一素颜图,实现妆容的双向转移。其中,初始生成模型可以是上一次训练得到的妆容转移模型,也可以是最初构建的生成模型,不做具体限定。具体的,初始生成模型至少可以包括第一转移模块和第二转移模块,第一转移模块用于将素颜图转换为上妆脸部图,第二转移模块用于将上妆脸部图转换为素颜图。第一转移模块与第二转移模块构成循环,实现上妆脸部图像空间与素颜图像空间之间的内部回环与联系。一些可选的实现方式中,第一转移模块和第二转移模块可以采用去噪扩散概率模型(denoising diffusion probabilistic model,DDPM),无需配对图像的监督,可以充分挖掘素颜图像和上妆脸部图像的特征信息,进一步探索两种不同图像空间的潜在关系。另一些可选的实现方式中,第一转移模块和第二转移模块也可以采用生成对抗网络模型等其他无监督模型。
步骤S103:将上妆脸部样本图输入初始生成模型中进行处理,得到第二生成结果,第二生成结果包括由上妆脸部样本图转换的第二素颜图和由第二素颜图转换的第二上妆脸部图。
具体的,步骤S103中,可以先通过第二转移模块先将上妆脸部样本图转换为第二素颜图,再通过第一转移模块将第二素颜图转换为第二上妆脸部图,同样也实现妆容的双向转移。
步骤S104:根据第一生成结果和第二生成结果计算目标损失值。
在本申请实施例中,目标损失值用于估量模型的预测结果与真实结果的不一致程度,故目标损失值越小,说明模型训练效果越好。具体的,步骤S104中,可以获取预设的损失函数,通过将第一生成结果和第二生成结果代入损失函数,得到目标损失值。其中,损失函数可以根据实际需求进行调整,比如损失函数采用0-1损失函数、绝对值损失函数、对数损失函数、指数损失函数和Hinge损失函数等任一种,对此不做具体限定。
一些可选的实现方式中,损失函数可以包括循环一致性损失函数、空间相似性损失函数和化妆损失函数中至少一项。循环一致性损失函数用于估量模型对不同图像空间之间内部关系的描述准确性,空间相似性损失函数用于估量同一图像空间内部特征的描述准确性,化妆损失函数用于估量图像内部分区域的妆容转移效果。可以理解,循环一致性损失函数和空间相似性损失函数属于全局损失,而化妆损失函数属于区域损失。
步骤S105:利用目标损失值对初始生成模型进行调整,得到妆容转移模型。
具体的,步骤S105中,可以根据目标损失值对初始生成模型的损失函数进行优化,对损失函数的模型损失进行反向传播,不断地调整模型参数,直至满足训练完成条件,停止对初始生成模型的优化,得到符合要求的妆容转移模型。
可以理解,通过步骤S101至S105,实现对妆容转移模型的训练步骤,故无需依赖准确配对的训练集,而是通过挖掘素颜图与上妆脸部图之间的潜在特征关系,构建可实现妆容双向转移的模型,训练过程更加高效且稳健,有利于改善实际使用妆容转移模型的灵活性,实现稳定的妆容转移效果。
请参阅图2,图2是图1中步骤S102的一种具体流程图。在一些实施例的步骤S102中,步骤S102具体可以包括但不限于以下步骤S201至S203。
步骤S201:将素颜样本图输入初始生成模型。
步骤S202:通过初始生成模型,对素颜样本图进行扩散处理,得到满足高斯分布的第一原始图,并对第一原始图进行去噪处理,得到第一上妆脸部图。
具体来说,对素颜样本图进行扩散处理可以包括T1步扩散过程,其中,T1表示可调整的步数,且T1为正整数,实际应用中,可以先将T1取值为1000,再根据模型表现进行相应调整,从而保证T1的取值处于合理范围,既能够避免去噪处理时抽样出现欠拟合的问题,导致图像生成质量较差,又能够避免加噪处理过于细致而出现过拟合的问题,导致图像生成时间过长且算力要求较高。第i步扩散过程q1(xi|xi-1)满足:
Figure BDA0003773368750000081
i∈i1,T1],x0为素颜样本图,xi(i≥1)表示通过第i步扩散过程获得的图像,则
Figure BDA0003773368750000082
为上述第一原始图,其符合均值为0且方差为单位矩阵I的高斯分布;βi是可调整的常数,可选的,β1至βT1可以是从i0,1]中确定的等比数列。相应的,对第一原始图进行去噪处理也可以包括T1步去噪过程,去噪过程与扩散过程均具备马尔可夫性。
一些可选的实现方式中,通过初始生成模型对素颜样本图进行扩散处理,可以包括但不限于以下步骤:通过初始生成模型,从标准正态分布区间中获取T1个参数值,并根据T1个参数值计算第一噪声向量,实现基于标准正态分布的噪声抽样。基于此,利用第一噪声向量和第一参考图对素颜样本图进行加噪处理,得到第一原始图,有利于生成更加多样化的图像。
其中,第一参考图满足标准正态分布条件,即均值为0且方差为单位阵I的高斯分布,且第一参考图的维度与素颜样本图的维度一致。可选的,从标准正态分布区间i0,1]中获取T1个参数值β1
Figure BDA0003773368750000083
则第一噪声向量
Figure BDA0003773368750000084
可以满足:
Figure BDA0003773368750000085
t∈i1,T1],通过第t步扩散过程获得的图像可以为
Figure BDA0003773368750000086
ε为第一参考图。
步骤S203:通过初始生成模型,对第一上妆脸部图进行扩散处理,得到满足高斯分布的第二原始图,并对第二原始图进行去噪处理,得到第一素颜图。
为了方便理解,请参阅图3,图3是本申请实施例中根据素颜样本图生成第一素颜图的一种应用过程示意图。如图3所示,通过初始生成模型,对素颜样本图x0进行扩散处理q1,得到第一原始图q1(x0)。对第一原始图q1(x0)进行去噪处理p1,得到第一上妆脸部图q1p1(x0)。对第一上妆脸部图q1p1(x0)进行扩散处理q2,得到第二原始图q1p1q2(x0)。对第二原始图q1p1q2(x0)进行去噪处理p2,得到第一素颜图q1p1q2p2(x0),从而构成双向的扩散-去噪处理过程。
可以理解,步骤S203中,对第一上妆脸部图进行扩散处理可参照步骤S202中对素颜样本图进行扩散处理的描述,对第二原始图进行去噪处理可参照步骤S202中对第一原始图进行去噪处理的描述,不做赘述。
类似的,步骤S103具体可以包括但不限于以下步骤:将上妆脸部样本图输入初始生成模型。通过初始生成模型,对上妆脸部样本图进行扩散处理,得到满足高斯分布的第三原始图,并对第三原始图进行去噪处理,得到第二素颜图。通过初始生成模型,对第二素颜图进行扩散处理,得到满足高斯分布的第四原始图,并对第四原始图进行去噪处理,得到第二上妆脸部图。
一些可选的实现方式中,通过初始生成模型对上妆脸部样本图进行扩散处理,可以包括但不限于以下步骤:通过初始生成模型,从标准正态分布区间中获取T2个参数值,并根据T2个参数值计算第二噪声向量,其中,T2为正整数,T2可以与T1相同,也可以与T1不同,不做具体限定。利用第二噪声向量和第二参考图对上妆脸部样本图进行加噪处理,得到第三原始图。第二参考图满足标准正态分布条件,且第二参考图的维度与上妆脸部样本图的维度一致。可选的,从标准正态分布区间i0,1]中获取T2个参数值β1'至
Figure BDA0003773368750000091
则第二噪声向量
Figure BDA0003773368750000092
可以满足:
Figure BDA0003773368750000093
t∈i1,T2],通过第t步扩散过程获得的图像可以为
Figure BDA0003773368750000094
则ε′为第二参考图,x0′为上妆脸部样本图。
进一步的,请参阅图4,图4是图1中步骤S104的一种具体流程图。在一些实施例的步骤S104中,若目标损失值中包括空间相似性损失值,则步骤S104具体可以包括但不限于以下步骤S401至S404。
步骤S401:获取第一参考图以及第二参考图。
其中,第一参考图和第二参考图均满足标准正态分布条件,第一参考图的维度与素颜样本图的维度一致,第二参考图的维度与上妆脸部样本图的维度一致。
步骤S402:根据第一参考图和第一原始图,计算第一空间损失。
步骤S403:根据第二参考图和第二原始图,计算第二空间损失。
步骤S404:根据第一空间损失和第二空间损失进行融合运算,得到空间相似性损失值。
在本申请实施例中,空间相似性损失值用于表示满足标准正态分布的噪声向量与图像数据之间的距离,空间相似性损失值越小,说明扩散过程的最终分布向标准正态分布慢慢靠近甚至重叠。可见,通过关注同一图像空间内部的数据特征,可以挖掘有效图像信息以促进模型的生成能力。
一些可选的实现方式中,计算第一空间损失
Figure BDA0003773368750000095
的公式可以为:
Figure BDA0003773368750000096
其中,
Figure BDA0003773368750000097
表示第一原始图。
计算第二空间损失
Figure BDA0003773368750000098
的公式可以为:
Figure BDA0003773368750000099
其中,
Figure BDA0003773368750000101
表示第二原始图。
基于此,空间相似性损失值
Figure BDA0003773368750000102
在一些实施例的步骤S104中,若目标损失值中包括循环一致性损失值,则步骤S104还可以包括但不限于以下步骤:根据素颜样本图和第一素颜图,计算第一转移损失。根据上妆脸部样本图和第二上妆脸部图,计算第二转移损失。根据第一转移损失和第二转移损失进行融合运算,得到循环一致性损失值。
进一步的,一些可选的实现方式中,计算第一转移损失
Figure BDA0003773368750000103
的公式可以为:
Figure BDA0003773368750000104
p2q2p1q1(x0)表示第一素颜图。计算第二转移损失
Figure BDA0003773368750000105
可以为:
Figure BDA0003773368750000106
表示第二上妆脸部图。基于此,循环一致性损失值
Figure BDA0003773368750000107
可见,通过约束循环一致性损失,保证模型可以对图像数据的内部特征信息进行捕获及描述,从而提高基于双向妆容转移的图像生成能力。
在一些实施例的步骤S104中,若目标损失值中包括化妆损失值,则步骤S104还可以包括但不限于以下步骤:
首先,对素颜样本图进行掩码标注处理,从素颜样本图中得到至少一种特征区域以及特征区域对应的第一掩码信息。其中,特征区域可以包括但不限于以下至少一种:脸颊区域、眼部区域和嘴部区域。对第一上妆脸部图进行掩码标注处理,从第一上妆脸部图中得到每种特征区域对应的第二掩码信息。根据第一掩码信息和第二掩码信息,计算每种特征区域对应的第一化妆损失。
可选的,在素颜样本图为多个的情况下,针对每个素颜样本图:可以先获取素颜样本图中每种特征区域对应的初始掩码信息,初始掩码信息可以包括但不限于掩码维度以及掩码框位置信息,掩码维度用于表示特征区域的区域大小,比如特征区域为10×10,掩码框位置信息包括掩码框上多个定位点在素颜样本图中对应的位置;通过对所有特征区域对应的掩码维度进行平均计算,得到目标掩码维度;根据掩码框位置信息,计算掩码中心位置,比如掩码框位置信息包括(1,1)、(1,2)、(1,3)、(2,1)、(2,2)、(2,3)、(3,1)、(3,2)和(3,3),则分别对不同维度的坐标值进行平均计算,得到掩码中心位置,即(2,2);将目标掩码维度和掩码中心位置确定为相应特征区域在该素颜样本图中对应的目标掩码信息,基于此,将每个特征区域在不同素颜样本图中对应的目标掩码信息进行求和,即可得到该特征区域对应的第一掩码信息。类似的,上述获取第一掩码信息的计算方式同样适用于第二掩码信息、以下第三掩码信息和第四掩码信息,不做赘述。
之后,对上妆脸部样本图进行掩码标注处理,从上妆脸部样本图中得到每种特征区域对应的第三掩码信息。对第二素颜图进行掩码标注处理,从第二素颜图中得到每种特征区域对应的第四掩码信息。根据第三掩码信息和第四掩码信息,计算每种特征区域对应的第二化妆损失。
最后,根据第一化妆损失和第二化妆损失,计算每种特征区域对应的目标化妆损失,从而对所有特征区域对应的目标化妆损失进行融合运算,得到化妆损失值。可选的,化妆损失值=第一化妆损失+第二化妆损失。
举例来说,若预先确定三种特征区域,分别为脸颊区域、眼部区域和嘴部区域,则化妆损失值
Figure BDA0003773368750000111
Figure BDA0003773368750000112
为眼睛区域对应的第一化妆损失,
Figure BDA0003773368750000113
为眼睛区域对应的第二化妆损失,
Figure BDA0003773368750000114
为脸颊区域对应的第一化妆损失,
Figure BDA0003773368750000115
为脸颊区域对应的第二化妆损失,
Figure BDA0003773368750000116
Figure BDA0003773368750000117
嘴部区域对应的第一化妆损失,
Figure BDA0003773368750000118
为嘴部区域对应的第二化妆损失。
可见,通过提取人脸图像的不同区域特征,可以精确到具体的特征区域,使得妆容转移模型在局部图像区域满足化妆损失条件,因此从局部上提高模型的妆容转移能力。
一些实现方式中,若目标损失值中包括循环一致性损失值、空间相似性损失值和化妆损失值中至少两种损失值,则在步骤S105中,还可以对目标损失值包括的所有损失值进行融合运算的,得到融合结果,从而利用融合结果对初始生成模型进行调整,得到妆容转移模型。示例性的,若目标损失值中包括循环一致性损失值、空间相似性损失值和化妆损失值,则融合结果Loss=Losscycle+Losssim+Lossmake-up,此时,通过多方位的损失函数约束,打破了初始生成模型的生成方向,则模型可以朝着约束方向实现妆容风格迁移。此外,即便妆容转移模型不依赖配对图像,也能够实现有监督任务中的配对比较,进而更准确及高效地实现妆容转移任务。
在一些实施例的步骤S105中,步骤S105具体可以包括但不限于以下步骤:
一方面,若初始生成模型未满足训练完成条件,则利用目标损失值对初始生成模型进行调整,得到调整后的初始生成模型,并继续执行步骤S101。实际应用中,可以利用随机梯度下降法(stochastic gradient descent,SGD)对初始生成模型进行参数调整。
另一方面,若初始生成模型满足训练完成条件,则根据初始生成模型确定妆容转移模型。
其中,训练完成条件包至少包括以下任一项:目标损失值小于预设损失值;初始生成模型的损失值上升预设次数,或者初始生成模型的损失值连续上升预设次数。预设损失值和预设次数可以根据人为经验确定及调整,比如预设次数可以取10次,不做具体限定。可见,通过上述步骤,可以避免模型训练的过拟合问题,从而确保模型实现较优的泛化性能。
第二方面,请参照图5,图5是本申请实施例提供的图像处理方法的流程图,图像处理方法包括但不限于步骤S501和步骤S503。下面结合图5进行详细介绍。
步骤S501:获取人脸图像。
步骤S502:若人脸图像中包括妆容信息,将人脸图像输入妆容转移模型中进行妆容转移处理,得到目标素颜图,目标素颜图中不包括妆容信息。
步骤S503:若人脸图像中不包括妆容信息,将人脸图像输入妆容转移模型中进行妆容转移处理,得到目标上妆脸部图,目标上妆脸部图中包括妆容信息。
在本申请实施例中,妆容转移模型为根据上述第一方面方法实施例所示的模型训练方法训练得到。
可见,实施上述步骤S501至S503,仅需一个妆容转移模型,既可以实现对素颜图像的上妆效果,又可以实现对上妆人脸图像的卸妆效果,故改善了使用妆容转移模型的灵活性,起到稳定的妆容转移作用。
请参照图6,图6是本申请实施例提供的模型训练装置的模块框图。在一些实施例中,模型训练装置包括第一获取模块601、第一生成模块602、第二生成模块603、计算模块604和调整模块605。
第一获取模块601,用于获取素颜样本图和上妆脸部样本图,素颜样本图中不包括妆容信息,上妆脸部样本图中包括妆容信息。
第一生成模块602,用于将素颜样本图输入初始生成模型中进行处理,得到第一生成结果,第一生成结果包括由素颜样本图转换的第一上妆脸部图和由第一上妆脸部图转换的第一素颜图。
第二生成模块603,用于将上妆脸部样本图输入初始生成模型中进行处理,得到第二生成结果,第二生成结果包括由上妆脸部样本图转换的第二素颜图和由第二素颜图转换的第二上妆脸部图。
计算模块604,用于根据第一生成结果和第二生成结果计算目标损失值。
调整模块605,用于利用目标损失值对初始生成模型进行调整,得到妆容转移模型,妆容转移模型用于对图像进行妆容转移处理。
本申请实施例的模型训练装置,无需依赖准确配对的训练集,而是通过挖掘素颜图与上妆脸部图之间的潜在特征关系,构建可实现妆容双向转移的模型,训练过程更加高效且稳健,有利于改善实际使用妆容转移模型的灵活性,实现稳定的妆容转移效果。
需要说明的是,本申请实施例的模型训练装置与前述的模型训练方法相对应,具体的训练过程请参照前述的模型训练方法,在此不一一赘述。
请参照图7,图7是本申请实施例提供的图像处理装置的模块框图。在一些实施例中,图像处理装置包括第二获取模块701和处理模块702。
第二获取模块701,用于获取人脸图像;
处理模块702,用于在人脸图像中包括妆容信息时,将人脸图像输入妆容转移模型中进行妆容转移处理,得到目标素颜图,目标素颜图中不包括妆容信息;以及,在人脸图像中不包括妆容信息时,将人脸图像输入妆容转移模型中进行妆容转移处理,得到目标上妆脸部图,目标上妆脸部图中包括妆容信息;其中,妆容转移模型为根据上述第一方面方法实施例所示的模型训练方法训练得到。
需要说明的是,本申请实施例的图像处理装置与前述的图像处理方法相对应,具体的图像处理步骤请参照前述的图像处理方法,在此不一一赘述。
本申请实施例还提供了一种电子设备,包括:
至少一个存储器;
至少一个处理器;
至少一个程序;
程序被存储在存储器中,处理器执行至少一个程序以实现本公开实施上述的模型训练方法或者图像处理方法。该电子设备可以为包括手机、平板电脑、个人数字助理(personal digital assistant,PDA)、车载电脑等任意智能终端。
下面结合图8对本申请实施例的电子设备进行详细介绍。
如图8,图8示意了另一实施例的电子设备的硬件结构,电子设备包括:
处理器801,可以采用通用的中央处理器(central processing unit,CPU)、微处理器、应用专用集成电路(application specific integrated circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案;
存储器802,可以采用只读存储器(read only memory,ROM)、静态存储设备、动态存储设备或者随机存取存储器(random access memory,RAM)等形式实现。存储器802可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器802中,并由处理器801来调用执行本申请实施例的模型训练方法或者图像处理方法;
输入/输出接口803,用于实现信息输入及输出;
通信接口804,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;
总线805,在设备的各个组件(例如处理器801、存储器802、输入/输出接口803和通信接口804)之间传输信息;
其中处理器801、存储器802、输入/输出接口803和通信接口804通过总线805实现彼此之间在设备内部的通信连接。
本申请实施例还提供了一种存储介质,该存储介质是计算机可读存储介质,该计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令用于使计算机执行上述模型训练方法或者图像处理方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本申请实施例描述的实施例是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图中示出的技术方案并不构成对本申请实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台电子设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参照附图说明了本申请实施例的优选实施例,并非因此局限本申请实施例的权利范围。本领域技术人员不脱离本申请实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本申请实施例的权利范围之内。

Claims (10)

1.一种模型训练方法,用于训练妆容转移模型,其特征在于,所述方法包括:
获取素颜样本图和上妆脸部样本图,所述素颜样本图中不包括妆容信息,所述上妆脸部样本图中包括妆容信息;
将所述素颜样本图输入初始生成模型中进行处理,得到第一生成结果,所述第一生成结果包括由所述素颜样本图转换的第一上妆脸部图和由所述第一上妆脸部图转换的第一素颜图;
将所述上妆脸部样本图输入所述初始生成模型中进行处理,得到第二生成结果,所述第二生成结果包括由所述上妆脸部样本图转换的第二素颜图和由所述第二素颜图转换的第二上妆脸部图;
根据所述第一生成结果和所述第二生成结果计算目标损失值,并利用所述目标损失值对所述初始生成模型进行调整,得到妆容转移模型,所述妆容转移模型用于对图像进行妆容转移处理。
2.根据权利要求1所述的方法,其特征在于,所述将所述素颜样本图输入初始生成模型中进行处理,得到第一生成结果,包括:
将所述素颜样本图输入初始生成模型;
通过所述初始生成模型,对所述素颜样本图进行扩散处理,得到满足高斯分布的第一原始图,并对所述第一原始图进行去噪处理,得到第一上妆脸部图;
通过所述初始生成模型,对所述第一上妆脸部图进行扩散处理,得到满足高斯分布的第二原始图,并对所述第二原始图进行去噪处理,得到第一素颜图;
所述将所述上妆脸部样本图输入所述初始生成模型中进行处理,得到第二生成结果,包括:
将所述上妆脸部样本图输入所述初始生成模型;
通过所述初始生成模型,对所述上妆脸部样本图进行扩散处理,得到满足高斯分布的第三原始图,并对所述第三原始图进行去噪处理,得到第二素颜图;
通过所述初始生成模型,对所述第二素颜图进行扩散处理,得到满足高斯分布的第四原始图,并对所述第四原始图进行去噪处理,得到第二上妆脸部图。
3.根据权利要求2所述的方法,其特征在于,所述目标损失值中包括空间相似性损失值,所述根据所述第一生成结果和所述第二生成结果计算目标损失值,包括:
获取第一参考图以及第二参考图,所述第一参考图和所述第二参考图均满足标准正态分布条件,所述第一参考图的维度与所述素颜样本图的维度一致,所述第二参考图的维度与所述上妆脸部样本图的维度一致;
根据所述第一参考图和所述第一原始图,计算第一空间损失;
根据所述第二参考图和所述第二原始图,计算第二空间损失;
根据所述第一空间损失和所述第二空间损失进行融合运算,得到空间相似性损失值。
4.根据权利要求1所述的方法,其特征在于,所述目标损失值中包括循环一致性损失值;所述根据所述第一生成结果和所述第二生成结果计算目标损失值,包括:
根据所述素颜样本图和所述第一素颜图,计算第一转移损失;
根据所述上妆脸部样本图和所述第二上妆脸部图,计算第二转移损失;
根据所述第一转移损失和所述第二转移损失进行融合运算,得到循环一致性损失值。
5.根据权利要求1所述的方法,其特征在于,所述目标损失值中包括化妆损失值;所述根据所述第一生成结果和所述第二生成结果计算目标损失值,包括:
对所述素颜样本图进行掩码标注处理,从所述素颜样本图中得到至少一种特征区域以及所述特征区域对应的第一掩码信息;
对所述第一上妆脸部图进行掩码标注处理,从所述第一上妆脸部图中得到每种所述特征区域对应的第二掩码信息;
根据所述第一掩码信息和所述第二掩码信息,计算每种所述特征区域对应的第一化妆损失;
对所述上妆脸部样本图进行掩码标注处理,从所述上妆脸部样本图中得到每种所述特征区域对应的第三掩码信息;
对所述第二素颜图进行掩码标注处理,从所述第二素颜图中得到每种所述特征区域对应的第四掩码信息;
根据所述第三掩码信息和所述第四掩码信息,计算每种所述特征区域对应的第二化妆损失;
根据所述第一化妆损失和所述第二化妆损失,计算每种所述特征区域对应的目标化妆损失;
对所有所述特征区域对应的目标化妆损失进行融合运算,得到化妆损失值。
6.根据权利要求1至5任一项所述的方法,其特征在于,所述利用所述目标损失值对所述初始生成模型进行调整,得到妆容转移模型,包括:
若所述初始生成模型未满足训练完成条件,则利用所述目标损失值对所述初始生成模型进行调整,得到调整后的初始生成模型,并继续执行所述获取素颜样本图和上妆脸部样本图的步骤;
若所述初始生成模型满足所述训练完成条件,则根据所述初始生成模型确定妆容转移模型;
其中,所述训练完成条件包至少包括以下任一项:所述目标损失值小于预设损失值;所述初始生成模型的损失值上升预设次数。
7.一种图像处理方法,其特征在于,所述方法包括:
获取人脸图像;
若所述人脸图像中包括妆容信息,将所述人脸图像输入妆容转移模型中进行妆容转移处理,得到目标素颜图,所述目标素颜图中不包括妆容信息;
若所述人脸图像中不包括妆容信息,将所述人脸图像输入所述妆容转移模型中进行妆容转移处理,得到目标上妆脸部图,所述目标上妆脸部图中包括妆容信息;
其中,所述妆容转移模型为根据如权利要求1至6任一项所述的方法训练得到。
8.一种模型训练装置,其特征在于,所述装置包括:
第一获取模块,用于获取素颜样本图和上妆脸部样本图,所述素颜样本图中不包括妆容信息,所述上妆脸部样本图中包括妆容信息;
第一生成模块,用于将所述素颜样本图输入初始生成模型中进行处理,得到第一生成结果,所述第一生成结果包括由所述素颜样本图转换的第一上妆脸部图和由所述第一上妆脸部图转换的第一素颜图;
第二生成模块,用于将所述上妆脸部样本图输入所述初始生成模型中进行处理,得到第二生成结果,所述第二生成结果包括由所述上妆脸部样本图转换的第二素颜图和由所述第二素颜图转换的第二上妆脸部图;
计算模块,用于根据所述第一生成结果和所述第二生成结果计算目标损失值;
调整模块,用于利用所述目标损失值对所述初始生成模型进行调整,得到妆容转移模型,所述妆容转移模型用于对图像进行妆容转移处理。
9.一种电子设备,其特征在于,包括:
至少一个存储器;
至少一个处理器;
至少一个计算机程序;
所述计算机程序被存储在所述存储器中,处理器执行所述至少一个计算机程序以实现:
如权利要求1至6任一项所述的模型训练方法;或者
如权利要求7所述的图像处理方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行:
如权利要求1至6任一项所述的模型训练方法;或者
如权利要求7所述的图像处理方法。
CN202210908744.8A 2022-07-29 2022-07-29 模型训练方法及装置、图像处理方法、电子设备、介质 Pending CN115222583A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210908744.8A CN115222583A (zh) 2022-07-29 2022-07-29 模型训练方法及装置、图像处理方法、电子设备、介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210908744.8A CN115222583A (zh) 2022-07-29 2022-07-29 模型训练方法及装置、图像处理方法、电子设备、介质

Publications (1)

Publication Number Publication Date
CN115222583A true CN115222583A (zh) 2022-10-21

Family

ID=83613928

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210908744.8A Pending CN115222583A (zh) 2022-07-29 2022-07-29 模型训练方法及装置、图像处理方法、电子设备、介质

Country Status (1)

Country Link
CN (1) CN115222583A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116630634A (zh) * 2023-05-29 2023-08-22 北京医准智能科技有限公司 一种图像处理方法、装置、设备及存储介质
GB2624282A (en) * 2022-11-08 2024-05-15 Adobe Inc Single image concept encoder for personalization using a pretrained diffusion model

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2624282A (en) * 2022-11-08 2024-05-15 Adobe Inc Single image concept encoder for personalization using a pretrained diffusion model
CN116630634A (zh) * 2023-05-29 2023-08-22 北京医准智能科技有限公司 一种图像处理方法、装置、设备及存储介质
CN116630634B (zh) * 2023-05-29 2024-01-30 浙江医准智能科技有限公司 一种图像处理方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
US20180204094A1 (en) Image recognition method and apparatus
CN115222583A (zh) 模型训练方法及装置、图像处理方法、电子设备、介质
CN108197592B (zh) 信息获取方法和装置
CN109858333B (zh) 图像处理方法、装置、电子设备及计算机可读介质
CN114358007A (zh) 多标签识别方法、装置、电子设备及存储介质
CN114240552A (zh) 基于深度聚类算法的产品推荐方法、装置、设备及介质
CN110781413B (zh) 兴趣点确定方法及装置、存储介质、电子设备
CN114638960A (zh) 模型的训练方法、图像描述生成方法和装置、设备、介质
CN115239675A (zh) 分类模型的训练方法、图像分类方法和装置、设备及介质
CN114897060B (zh) 样本分类模型的训练方法和装置、样本分类方法和装置
CN114519395A (zh) 模型的训练方法和装置、文本摘要生成方法和装置、设备
CN114611672A (zh) 模型训练方法、人脸识别方法及装置
CN115205546A (zh) 模型训练方法和装置、电子设备、存储介质
CN115223251A (zh) 签名检测模型的训练方法和装置、电子设备及存储介质
CN115640394A (zh) 文本分类方法、文本分类装置、计算机设备及存储介质
CN115510232A (zh) 文本语句分类方法和分类装置、电子设备及存储介质
CN114998583A (zh) 图像处理方法、图像处理装置、设备及存储介质
CN111667553A (zh) 头像像素化的面部颜色填充方法、装置及电子设备
CN116469147A (zh) 人脸表情迁移方法和表情迁移装置、电子设备及存储介质
CN110442719A (zh) 一种文本处理方法、装置、设备及存储介质
CN116452451A (zh) 图像修复模型的训练方法和装置、图像修复方法和装置
CN115272121A (zh) 图像处理方法、图像处理装置、计算机设备和存储介质
CN116432648A (zh) 命名实体识别方法和识别装置、电子设备及存储介质
CN115982452A (zh) 一种信息推荐方法、装置、电子设备及存储介质
CN117034133A (zh) 一种数据处理方法、装置、设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination