CN114926322B - 图像生成方法、装置、电子设备和存储介质 - Google Patents
图像生成方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN114926322B CN114926322B CN202210526828.5A CN202210526828A CN114926322B CN 114926322 B CN114926322 B CN 114926322B CN 202210526828 A CN202210526828 A CN 202210526828A CN 114926322 B CN114926322 B CN 114926322B
- Authority
- CN
- China
- Prior art keywords
- identification information
- image
- level
- obtaining
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000012545 processing Methods 0.000 claims abstract description 100
- 238000013136 deep learning model Methods 0.000 claims description 29
- 238000004590 computer program Methods 0.000 claims description 12
- 238000005457 optimization Methods 0.000 claims description 9
- 101100134058 Caenorhabditis elegans nth-1 gene Proteins 0.000 claims description 8
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 23
- 238000004891 communication Methods 0.000 description 10
- 210000001331 nose Anatomy 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 210000000697 sensory organ Anatomy 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 210000000088 lip Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G06T3/04—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Abstract
本公开提供了一种图像生成方法,涉及人工智能技术领域,尤其涉及深度学习、图像处理和计算机视觉技术领域,可应用于人脸等场景。具体实现方案为:根据源图像的第一标识信息和样本图像,得到第一中间图像;根据第一中间图像和源图像之间的差异,调整第一标识信息,得到第二标识信息;以及根据第二标识信息和模板图像,进行图像生成。本公开还提供了一种图像生成装置、电子设备和存储介质。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及深度学习、图像处理和计算机视觉技术领域,可应用于人脸等场景下。更具体地,本公开提供了一种图形生成方法、装置、电子设备和存储介质。
背景技术
随着人工智能技术的发展,深度学习模型广泛地应用于图像处理等场景中。例如,可以利用深度学习模型将两幅或多幅图像融合成一幅新的图像。
发明内容
本公开提供了一种图像生成方法、装置、设备以及存储介质。
根据本公开的一方面,提供了一种图像生成方法,该方法包括:根据源图像的第一标识信息和样本图像,得到第一中间图像;根据第一中间图像和源图像之间的差异,调整第一标识信息,得到第二标识信息;以及根据第二标识信息和模板图像,进行图像生成。
根据本公开的另一方面,提供了一种图像生成装置,该装置包括:获得模块,用于根据源图像的第一标识信息和样本图像,得到第一中间图像;调整模块,用于根据第一中间图像和源图像之间的差异,调整第一标识信息,得到第二标识信息;以及生成模块,用于根据第二标识信息和模板图像,进行图像生成。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行根据本公开提供的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行根据本公开提供的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现根据本公开提供的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开的一个实施例的可以应用图像生成方法和装置的示例性系统架构示意图;
图2是根据本公开的一个实施例的图像生成方法的流程图;
图3A是根据本公开的一个实施例的源图像的示意图;
图3B是根据本公开的一个实施例的样本图像的示意图;
图3C是根据本公开的一个实施例的获得第二中间图像的原理图;
图3D是根据本公开的一个实施例的第二中间图像的示意图;
图3E是根据本公开的一个实施例的图像生成方法的原理图;
图4是根据本公开的一个实施例的调整第一标识信息的原理图;
图5A是根据本公开的另一个实施例的第n个样本图像的示意图;
图5B是根据本公开的另一个实施例的获得第n个第二中间图像的示意图;
图5C是根据本公开的另一个实施例的第二中间图像的示意图;
图5D是根据本公开的另一个实施例的图像生成方法的原理图;
图6是根据本公开的另一个实施例的对多个第n-1级第五输入标识信息进行调整的原理图;
图7是根据本公开的一个实施例的图像生成装置的框图;以及
图8是根据本公开的一个实施例的可以应用图像生成方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
可以利用深度学习模型将两个包含对象脸部的图像融合为一个换脸图像。例如,将源图像中对象的脸部特征迁移至模板图像上,同时保持模板图像的表情、姿态等属性信息不变。
例如,可以利用脸部识别网络提取源图像的标识信息,再利用一CNN(Convolutional Neural Network,卷积神经网络)模型将标识信息迁移到模板图像中,得到换脸图像。接下来,可以利用预训练的脸部判别器来确定源图像的标识信息和换脸图像的标识信息之间的相似度(例如余弦距离)。根据该相似度调整该CNN模型的参数。又例如,也可以根据换脸图像和源图像之间的差异,调整该CNN模型的参数。
然而,人脸识别网络输出的标识信息并不总是适合该CNN模型的标识信息,使得源图像的标识信息会有所损耗,导致换脸图像和源图像之间的相似度较低。
可以理解,本公开实施例中的对象可以是人、动物等具有脸部的对象。
图1是根据本公开一个实施例的可以应用图像生成方法和装置的示例性系统架构示意图。
需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线和/或无线通信链路等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的图像生成方法一般可以由服务器105执行。相应地,本公开实施例所提供的图像生成装置一般可以设置于服务器105中。本公开实施例所提供的图像生成方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的图像生成装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
图2是根据本公开的一个实施例的图像生成方法的流程图。
如图2所示,该方法200可以包括操作S210至操作S230。
在操作S210,根据源图像的第一标识信息和样本图像,得到第一中间图像。
例如,源图像包括对象Obj_s的脸部。
例如,样本图像包括对象Obj_r的脸部。
例如,第一中间图像可以为一个换脸图像。第一中间图像的标识信息与源图像的第一标识信息类似。在一个示例中,第一中间图像中对象的脸部具有与对象Obj_s类似的五官,同时第一中间图像中对象的表情、姿态等属性信息与对象Obj_r类似。
可以理解,可以利用各种方式根据源图像的第一标识信息和样本图像,得到第一中间图像。例如,利用FaceShifter(变脸)模型、InfoSwap(信息交换)模型、StyleGAN(Style-based Generative Adversarial Networks,基于样式的生成对抗网络)模型、StyleGAN2(第二代基于样式的生成对抗网络)模型得到第一中间图像。
例如,第一标识信息包括身份信息。
在操作S220,根据第一中间图像和源图像之间的差异,调整第一标识信息,得到第二标识信息。
例如,可以利用各种方式确定第一中间图像和源图像之间的差异。在一个示例中,可以计算源图像和第一中间图像之间的欧氏距离,作为二者的差异。
例如,可以根据各种调整方式,调整标识信息。在一个示例中,各种调整方式例如包括:反向传播方式、梯度优化方式等等。
在操作S230,根据第二标识信息和模板图像,进行图像生成。
例如,根据第二标识信息和模板图像,利用上文所述的FaceShifter模型、InfoSwap模型、StyleGAN模型等模型进行图像生成,可以得到一个换脸图像。
通过本公开实施例,第一中间图像与源图像之间差异可以包括二者的标识信息之间的差异。对源图像的第一标识信息进行了调整,减少了第一标识信息和第一中间图像的标识信息之间的差异,得到的第二标识信息与源图像更加匹配,降低了源图像的第一标识信息的损耗,可以提高换脸图像与源图像的相似度。
在一些实施例中,在例如上文所述的操作S220中,可以利用各种方式确定第一中间图像的标识信息。根据第一标识信息和第一中间图像的标识信息之间的差异,确定第一中间图像和源图像之间的差异。
在一些实施例中,脸部包括五官的至少一个,五官例如包括口、耳、鼻、眼和唇。
在一些实施例中,源图像为对齐后的源图像。例如,可以利用脸部5点关键点检测算法对源图像进行处理。再利用ArcFace(弧面)裁剪方式对处理后的源图像进行处理,得到对齐后的源图像。
在一些实施例中,样本图像为对齐后的样本图像。例如,可以利用脸部72点关键点检测算法对样本图像进行处理。在利用FFHQ(Flickr-Faces-High-Quality,高清人脸数据集)提供的裁剪方式对处理后的样本图像进行处理,得到对齐后的样本图像。对齐后的样本图像或对齐后的源图像中脸部的五官处于预设位置,便于后续处理。
在一些实施例中,例如在上文所述的操作S210的一些实施方式中,根据源图像的第一标识信息和样本图像,得到第一中间图像包括:根据源图像和样本图像的第三标识信息,得到第二中间图像;以及根据第一标识信息和第二中间图像,得到第一中间图像。下面将结合图3A至图3E来对本公开提供的图像生成方法进行详细说明。
图3A是根据本公开的一个实施例的源图像的示意图。
如图3A所示,源图像Is301包括对象Obj_s。在一个示例中,对象Obj_s的嘴唇较厚,嘴部未张开。此外,对象Obj_s的鼻子底部较平。
图3B是根据本公开的一个实施例的样本图像的示意图。
如图3B所示,样本图像302包括对象Obj_r。在一个示例中,对象Obj_r的嘴唇较薄,嘴部张开。此外,对象Obj_r的鼻子底部下凸。
图3C是根据本公开的一个实施例的获得第二中间图像的原理图。
如图3C所示,将样本图像302输入标识识别网络310,得到样本图像/>302的第三标识信息/>304。
将源图像Is301输入属性识别网络320,得到源图像Is301的特征图。
将第三标识信息304和源图像Is301的特征图输入深度学习模型330,得到第二中间图像/>303。
图3D是根据本公开的一个实施例的第二中间图像的示意图。
如图3D所示,第二中间图像303包括对象Obj_s-r。在一个示例中,对象Obj_s-r是一个合成的对象。对象Obj_s-r具有与对象Obj_r类似的标识信息。例如,对象Obj_s-r的嘴唇较薄,对象Obj_s-r的鼻子底部下凸。对象Obj_s-r具有与对象Obj_s类似的属性信息。例如,对象Obj_s-r的嘴部未张开。
图3E是根据本公开的一个实施例的图像生成方法的原理图。
如图3E所示,将第二中间图像303输入属性识别网络320,得到第二中间图像303的特征图。
将源图像Is301输入标识识别网络320,得到源图像Is301的第一标识信息ws307。
将第一标识信息ws307和第二中间图像303的特征图输入深度学习模型330,得到第一中间图像/>305。
再根据第一中间图像305和源图像Is301之间的差异306,调整第一标识信息ws307,得到更新标识信息/>308。在一个示例中,可以将更新标识信息/>308作为第二标识信息/>
接下来,例如,可以将第二标识信息和模板图像的特征图输入深度学习模型,进行图像生成,得到目标图像。模板图像例如可以是包括任意对象的图像。在一个示例中,可以将样本图像/>302作为一个模板图像。
通过本公开实施例,将样本图像转换为第二中间图像,可以去除样本图像302的第三标识信息。再将根据第二中间图像和第一标识信息,得到了第一中间图像,使得第一中间图像与源图像之间的主要差异在于二者的标识信息之间的差异。进而基于第一中间图像和源图像的差异进行调整,可以对第一标识信息进行高效地调整,使得最终得到的第二标识信息可以更加准确。
可以理解,上文所述的深度学习模型330可以具有一个处理层,也可以具有多个级联的处理层。下面将结合具有多个级联处理层的深度学习模型来进行详细说明。
在一些实施例中,在例如上文所述的操作S210的一些实施方式中,根据源图像的第一标识信息和样本图像,得到第一中间图像包括:将第一标识信息和样本图像输入深度学习模型,得到第一中间图像,其中,深度学习模型包括多个处理层。
进一步地,在一些实施例中,在例如上文所述的操作S220的一些实施方式中,根据第一中间图像和源图像之间的差异,调整第一标识信息,得到第二标识信息包括:根据第一标识信息,得到多个处理层中输入每个处理层的第四标识信息;根据第一中间图像和源图像之间的差异,利用预设调整方式对第四标识信息进行调整,得到第五标识信息;以及根据第五标识信息,得到第二标识信息。
例如,预设调整方式包括以下至少之一:反向传播方式和梯度优化方式。
关于利用具有多个处理层的深度学习模型进行图像生成的实施例,下面将结合图4进行详细说明。
图4是根据本公开的一个实施例的调整第一标识信息的原理图。
如图4所示,深度学习模型430可以包括多个处理层。多个处理层分别为第1级处理层431、第2级处理层432、......第I级处理层433。I为大于1的整数。在一个示例中,I=14。
可以将上文所述的源图像Is301的第一标识信息ws307复制I次,作为输入每个处理层的第四标识信息ws。
根据第四标识信息ws和第二中间图像的特征图,利用第1级处理层431进行处理,得到第1级处理后图像。
根据第四标识信息ws和第i-1级处理后图像,利用第i级处理层进行处理,得到第i级处理后图像。i为大于1且小于或等于I的整数。例如,根据第四标识信息ws和第1级处理后图像,利用第2级处理层432进行处理,得到第2级处理后图像。根据第四标识信息ws和第I-1级处理后图像,利用第I级处理层433进行处理,得到第I级处理后图像。将第I级处理后图像作为第一中间图像405。根据第一中间图像405和源图像401,可以得到差异406。
根据差异406,利用预设调整方式对输入标识信息进行调整。例如,根据差异406,确定第I级误差利用第I级误差/>调整第I级处理层的第四标识信息ws,得到第I级处理层的第五标识信息/>
接下来,利用第i+1级误差,确定第i级误差。根据第i级误差,调整第i级处理层的第四标识信息ws。例如,根据第3级误差,确定第2级误差根据第2级误差/>调整第2级处理层的第四标识信息ws,得到第2级处理层的第五标识信息/>
又例如,根据第2级误差确定第1级误差/>根据第1级误差/>调整第1级处理层的第四标识信息ws,得到第1级处理层的第五标识信息/>
在一个示例中,可以将第1级处理层的第五标识信息第2级处理层的第五标识信息/>......第I级处理层的第五标识信息/>作为第二标识信息。
通过本公开实施例,对输入每个处理层的第四标识信息进行了调整,可以获得每个处理层的第五标识信息。在根据模板图像进行图像生成时,每个处理层都可以使用与本处理层更适合的第五标识信息,以便提高换脸图像的质量。
在一些实施例中,在例如上文所述的操作S220的一些实施方式中,根据第一中间图像和源图像之间的差异,调整第一标识信息,得到第二标识信息包括:根据第一中间图像和源图像,确定身份损失和重构损失;以及根据身份损失和重构损失,确定差异。
例如,可以将第一中间图像和源图像分别输入经训练的VGG(Visual GeometryGroup,视觉几何组)网络,得到第一中间图像的特征和源图像的特征。基于这两个特征,确定重构损失。
又例如,可以利用ArcFace损失函数,确定第一中间图像和源图像之间的身份损失,作为标识损失。
可以理解,基于上文公开的各种实施方式,可以对第一标识信息进行一次调整,也可以对第一标识信息进行N次调整。
在一些实施例中,在例如上文所述的操作S210的一些实施方式中,样本图像为N个,N为大于1的整数,根据源图像的第一标识信息和样本图像,得到第一中间图像包括:根据第一标识信息和N个样本图像,得到N个第一中间图像。
进一步地,在一些实施例中,在例如上文所述的操作S210的一些实施方式中,根据第一中间图像和源图像之间的差异,调整第一标识信息,得到第二标识信息包括:根据源图像和N个第一中间图像之间的差异,对第一标识信息进行N次调整,得到N级第六标识信息;以及根据N级第六标识信息,得到第二标识信息。
例如,对第一标识信息进行N次调整包括:根据第1个第一中间图像与源图像之间的差异,对第一标识信息进行调整,得到第1级第六标识信息;根据第n个第一中间图像与源图像之间的差异,对第n-1级第六标识信息进行调整,得到第n级第六标识信息,其中,n为大于1的整数,n为小于或等于N的整数。例如,上文所述的更新标识信息308可以作为第1级第六标识信息。
下面将结合图5A至图5D来详细说明对第一标识信息进行N次调整的一些实施方式。
图5A是根据本公开的另一个实施例的第n个样本图像的示意图。
如图5A所示,第n个样本图像502’包括对象Obj_rn。在一个示例中,对象Obj_rn的嘴唇较薄。此外,对象Obj_rn的鼻子与上文所述的对象Obj_s不同。
图5B是根据本公开的一个实施例的获得第n个第二中间图像的示意图。
如图5B所示,将第n个样本图像502’输入标识识别网络510,得到第n个样本图像502’的第三标识信息/>504。
将源图像Is501输入属性识别网络520,得到源图像Is501的特征图。在一个示例中,源图像Is501与上文所述的源图像Is301类似,本公开在此不再赘述。
将第三标识信息504和源图像Is501的特征图输入深度学习模型530,得到第n个第二中间图像/>503。
图5C是根据本公开的一个实施例的第二中间图像的示意图。
如图5C所示,第二中间图像303包括对象Obj_s-rn。在一个示例中,对象Obj_s-rn是一个合成的对象。对象Obj_s-rn具有与对象Obj_rn类似的标识信息。例如,对象Obj_s-rn的嘴唇较薄,对象Obj_s-rn的鼻子与对象Obj_rn的鼻子类似。对象Obj_s-rn具有与对象Obj_s类似的属性信息。例如,对象Obj_s-rn的嘴部未张开。
图5D是根据本公开的一个实施例的图像生成方法的原理图。
如图5D所示,将第二中间图像503’输入属性识别网络520,得到第n个第二中间图像/>503’的特征图。
将第n-1级第六标识信息507’和第n个第二中间图像/>503’的特征图输入深度学习模型530,得到第n个第一中间图像/>505’。在一个示例中,在n=2的情况下,第n-1级第六标识信息/>507’可以为上文所述的第1级更新标识信息/>308。
再根据第一中间图像505’和源图像Is501之间的差异506’,调整第n-1级第六标识信息/>507’,得到第n级第六标识信息/>508’。
在完成N次调整之后,可以得到第N级第六标识信息
在一些实施例中,根据第1级第六标识信息......、第n-1级第六标识信息第n级第六标识信息/>......、第N级第六标识信息/>可以得到第二标识信息。例如,可以将第N级第六标识信息/>作为第二标识信息。又例如,将N次调整过程中,在差异小于预设差异阈值的情况下,可以与该差异对应的第六标识信息作为第二标识信息。又例如,在N次调整过程中,将与最小的差异对应的第六标识信息作为第二标识信息。
通过本公开实施例,利用N个不同的样本图像,对第一标识信息进行了N次调整,可以进一步优化第一标识信息,得到更加准确的第二标识信息。
可以理解,在进行N次调整的过程中,上文所述的深度学习模型530可以具有一个处理层,也可以具有多个级联的处理层。下面将结合具有多个级联处理层的深度学习模型来进行详细说明。
在一些实施例中,对第一标识信息进行N次调整包括:根据第一标识信息,得到多个处理层中输入每个处理层的第1级第四标识信息;根据第1个第一中间图像和源图像之间的差异,利用预设调整方式对多个第1级第四标识信息进行调整,得到多个第1级第五标识信息,作为第1级第六标识信息;以及根据第n个第一中间图像和源图像之间的差异,利用预设调整方式对多个第n-1级第五标识信息进行调整,得到多个第n级第五标识信息,作为第n级第六标识信息,其中,n为大于1的整数,n为小于或等于N的整数。
例如,预设调整方式包括以下至少之一:反向传播方式和梯度优化方式。
在N次调整过程中,关于利用具有多个处理层的深度学习模型进行图像生成的实施例,下面将结合图6进行详细说明。
图6是根据本公开的另一个实施例的对多个第n-1级更新输入标识信息进行调整的原理图。
如图6所示,深度学习模型630可以包括多个处理层。多个处理层分别为第1级处理层631、第2级处理层632、......第I级处理层633。在一个示例中,I=14。
例如,上文所述的第1级处理层的更新输入标识信息第2级处理层的更新输入标识信息/>......第I级处理层的更新输入标识信息/>可以作为第1级处理层的第1级第五标识信息/>第2级处理层的第1级第五标识信息/>......第I级处理层的第1级第五标识信息/>可以理解,可以将多个第1级第五标识信息作为第1级第六标识信息。
多个第n-1级第五标识信息例如可以包括第1级处理层的第n-1级第五标识信息第2级处理层的第n-1级第五标识信息/>......、第I级处理层的第n-1级第五标识信息/>
根据第1级处理层的第n-1级第五标识信息和第n个第二中间图像/>的特征图,利用第1级处理层进行处理,得到第n个第1级处理后图像。i为小于或等于I的整数,i为大于1的整数。
根据第i级处理层的第n-1级第五标识信息和第n个第i-1级处理后图像,利用第i级处理层进行处理,得到第n个第i级处理后图像。例如,根据第2级处理层的第n-1级第五标识信息/>和第n个第1级处理后图像,利用第2级处理层632进行处理,得到第n个第2级处理后图像。根据第I级处理层的第n-1级第五标识信息/>和第n个第I-1级处理后图像,得到第n个第I级处理后图像。将第n个第1级处理后图像作为第n个第一中间图像605’。根据第n个第一中间图像/>605’和源图像601,可以得到差异606’。
根据差异606’,利用预设调整方式对输入标识信息进行调整。例如,根据差异606’,确定第n个第I级误差利用第n个第I级误差/>调整第I级处理层的第n-1级第五标识信息/>得到第1级处理层的第n级第五标识信息/>
接下来,利用第n个第i+1级误差,确定第n个第i级误差。根据第n个第i级误差,调整第i级处理层的第n-1级第五标识信息例如,根据第n个第3级误差,确定第n个第2级误差/>根据第n个第2级误差/>调整第2级处理层的第n-1级第五标识信息得到第2级处理层的第n级第五标识信息/>
又例如,根据第n个第2级误差确定第n个第1级误差/>根据第n个第1级误差/>调整第1级处理层的第n-1级第五标识信息/>得到第1级处理层的第n级第五标识信息/>
I个第n级第五标识信息可以作为第n级第六标识信息。例如,可以将第1级处理层的第n级第五标识信息第2级处理层的第n级第五标识信息/>......第I级处理层的第n级第五标识信息/>作为第n级第六标识信息/>
在完成N次调整之后,可以得到第N级第六标识信息
在一些实施例中,根据第1级第六标识信息......、第n-1级第六标识信息第n级第六标识信息/>......、第N级第六标识信息/>可以得到第二标识信息。例如,可以将第N级第六标识信息/>作为第二标识信息。
通过本公开实施例,在N次调整的每次调整过程中,对输入每个处理层的标识信息进行了调整。共可以获得每个处理层的N级第五标识信息。在根据模板图像进行图像生成时,每个处理层都可以使用与本处理层更适合的第五标识信息,以便提高换脸图像的质量。
图7是根据本公开的一个实施例的图像生成装置的框图。
如图7所示,该装置700可以包括获得模块710、调整模块720和生成模块730。
获得模块710,用于根据源图像的第一标识信息和样本图像,得到第一中间图像。
调整模块720,用于根据第一中间图像和源图像之间的差异,调整第一标识信息,得到第二标识信。
生成模块730,用于根据第二标识信息和模板图像,进行图像生成。
在一些实施例中,获得模块包括:第一获得子模块,用于根据源图像和样本图像的第三标识信息,得到第二中间图像;以及第二获得子模块,用于根据第一标识信息和第二中间图像,得到第一中间图像。
在一些实施例中,获得模块包括:第三获得子模块,用于将第一标识信息和样本图像输入深度学习模型,得到第一中间图像,其中,深度学习模型包括多个处理层;调整模块包括:第四获得子模块,用于根据第一标识信息,得到多个处理层中输入每个处理层的第四标识信息;第一调整子模块,用于根据第一中间图像和源图像之间的差异,利用预设调整方式对第四标识信息进行调整,得到第五标识信息;以及第五获得子模块,用于根据第五标识信息,得到第二标识信息,其中,预设调整方式包括以下至少之一:反向传播方式和梯度优化方式。
在一些实施例中,调整模块包括:第一确定子模块,用于根据第一中间图像和源图像,确定身份损失和重构损失;以及第二确定子模块,用于根据身份损失和重构损失,确定差异。
在一些实施例中,样本图像为N个,N为大于1的整数,获得模块包括:第六获得子模块,用于根据第一标识信息和N个样本图像,得到N个第一中间图像;调整模块包括:第二调整子模块,用于根据源图像和N个第一中间图像之间的差异,对第一标识信息进行N次调整,得到N级第六标识信息;以及第七获得子模块,用于根据N级第六标识信息,得到第二标识信息。
在一些实施例中,第二调整子模块包括:第一调整单元,用于根据第1个第一中间图像与源图像之间的差异,对第一标识信息进行调整,得到第1级第六标识信息;第二调整单元,用于根据第n个第一中间图像与源图像之间的差异,对第n-1级第六标识信息进行调整,得到第n级第六标识信息,其中,n为大于1的整数,n为小于或等于N的整数。
在一些实施例中,第六获得子模块包括:第一获得单元,用于将第一标识信息和N个样本图像输入深度学习模型,得到N个第一中间图像,其中,深度学习模型包括多个处理层;第二调整子模块包括:第二获得单元,用于根据第一标识信息,得到多个处理层中输入每个处理层的第1级第四标识信息;第三调整单元,用于根据第1个第一中间图像和源图像之间的差异,利用预设调整方式对多个第1级第四标识信息进行调整,得到多个第1级第五标识信息,作为第1级第六标识信息;以及第四调整单元,用于根据第n个第一中间图像和源图像之间的差异,利用预设调整方式对多个第n-1级第五标识信息进行调整,得到多个第n级第五标识信息,作为第n级第六标识信息,其中,n为大于1的整数,n为小于或等于N的整数;其中,预设调整方式包括以下至少之一:反向传播方式和梯度优化方式。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图8示出了可以用来实施本公开的实施例的示例电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图8所示,设备800包括计算单元801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序,来执行各种适当的动作和处理。在RAM 803中,还可存储设备800操作所需的各种程序和数据。计算单元801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如图像生成方法。例如,在一些实施例中,图像生成方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的图像生成方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行图像生成方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (15)
1.一种图像生成方法,包括:
根据源图像的第一标识信息和样本图像,得到第一中间图像,包括:将所述源图像的特征图和所述样本图像的第三标识信息输入深度学习模型,得到第二中间图像;将所述第一标识信息和所述第二中间图像的特征图输入所述深度学习模型,得到多级处理后图像,其中,所述深度学习模型包括多个处理层,多个所述处理层与多级所述处理后图像对应;以及根据多级所述处理后图像,得到所述第一中间图像;
根据所述第一中间图像和所述源图像之间的差异,调整所述第一标识信息,得到第二标识信息,包括:根据所述第一标识信息,得到所述多个处理层中输入每个处理层的第四标识信息;根据所述第一中间图像和所述源图像之间的差异,利用预设调整方式对所述第四标识信息进行调整,得到第五标识信息;以及根据所述第五标识信息,得到所述第二标识信息;以及
根据所述第二标识信息和模板图像,进行图像生成。
2.根据权利要求1所述的方法,其中,所述预设调整方式包括以下至少之一:反向传播方式和梯度优化方式。
3. 根据权利要求1所述的方法,还包括:
根据所述第一中间图像和所述源图像,确定身份损失和重构损失;以及
根据所述身份损失和所述重构损失,确定所述差异。
4.根据权利要求1至3任一项所述的方法,其中,所述样本图像为N个,N为大于1的整数,
所述根据源图像的第一标识信息和样本图像,得到第一中间图像还包括:
根据所述第一标识信息和N个所述样本图像,得到N个第一中间图像;
所述根据所述第一中间图像和所述源图像之间的差异,调整所述第一标识信息,得到第二标识信息还包括:
根据所述源图像和N个所述第一中间图像之间的差异,对所述第一标识信息进行N次调整,得到N级第六标识信息;以及
根据N级所述第六标识信息,得到所述第二标识信息。
5.根据权利要求4所述的方法,其中,所述对所述第一标识信息进行N次调整包括:
根据第1个第一中间图像与所述源图像之间的差异,对所述第一标识信息进行调整,得到第1级第六标识信息;
根据第n个第一中间图像与所述源图像之间的差异,对第n-1级第六标识信息进行调整,得到第n级第六标识信息,其中,n为大于1的整数,n为小于或等于N的整数。
6.根据权利要求4所述的方法,其中,所述根据所述第一标识信息和N个样本图像,得到N个第一中间图像包括:
将所述第一标识信息和N个所述样本图像输入深度学习模型,得到N个所述第一中间图像,其中,所述深度学习模型包括多个处理层;
所述对所述第一标识信息进行N次调整包括:
根据所述第一标识信息,得到所述多个处理层中输入每个处理层的第1级第四标识信息;
根据第1个第一中间图像和所述源图像之间的差异,利用预设调整方式对多个所述第1级第四标识信息进行调整,得到多个第1级第五标识信息,作为第1级第六标识信息;以及
根据第n个第一中间图像和所述源图像之间的差异,利用所述预设调整方式对多个第n-1级第五标识信息进行调整,得到多个第n级第五标识信息,作为第n级第六标识信息,其中,n为大于1的整数,n为小于或等于N的整数;
其中,所述预设调整方式包括以下至少之一:反向传播方式和梯度优化方式。
7.一种图像生成装置,包括:
获得模块,用于根据源图像的第一标识信息和样本图像,得到第一中间图像,其中,所述获得模块包括:第一获得子模块,用于将所述源图像的特征图和所述样本图像的第三标识信息输入深度学习模型,得到第二中间图像;以及第二获得子模块,用于将所述第一标识信息和所述第二中间图像的特征图输入所述深度学习模型,得到多级处理后图像;以及根据多级所述处理后图像,得到所述第一中间图像,其中,所述深度学习模型包括多个处理层,多个所述处理层与多级所述处理后图像对应;
调整模块,用于根据所述第一中间图像和所述源图像之间的差异,调整所述第一标识信息,得到第二标识信息,其中,所述调整模块包括:第四获得子模块,用于根据所述第一标识信息,得到所述多个处理层中输入每个处理层的第四标识信息;第一调整子模块,用于根据所述第一中间图像和所述源图像之间的差异,利用预设调整方式对所述第四标识信息进行调整,得到第五标识信息;以及第五获得子模块,用于根据所述第五标识信息,得到所述第二标识信息;以及
生成模块,用于根据所述第二标识信息和模板图像,进行图像生成。
8.根据权利要求7所述的装置,其中,所述预设调整方式包括以下至少之一:反向传播方式和梯度优化方式。
9. 根据权利要求7所述的装置,还包括:
第一确定子模块,用于根据所述第一中间图像和所述源图像,确定身份损失和重构损失;以及
第二确定子模块,用于根据所述身份损失和所述重构损失,确定所述差异。
10.根据权利要求7至9任一项所述的装置,其中,所述样本图像为N个,N为大于1的整数,
所述获得模块还包括:
第六获得子模块,用于根据所述第一标识信息和N个所述样本图像,得到N个第一中间图像;
所述调整模块还包括:
第二调整子模块,用于根据所述源图像和N个所述第一中间图像之间的差异,对所述第一标识信息进行N次调整,得到N级第六标识信息;以及
第七获得子模块,用于根据N级所述第六标识信息,得到所述第二标识信息。
11.根据权利要求10所述的装置,其中,所述第二调整子模块包括:
第一调整单元,用于根据第1个第一中间图像与所述源图像之间的差异,对所述第一标识信息进行调整,得到第1级第六标识信息;
第二调整单元,用于根据第n个第一中间图像与所述源图像之间的差异,对第n-1级第六标识信息进行调整,得到第n级第六标识信息,其中,n为大于1的整数,n为小于或等于N的整数。
12.根据权利要求10所述的装置,其中,所述第六获得子模块包括:
第一获得单元,用于将所述第一标识信息和N个所述样本图像输入深度学习模型,得到N个所述第一中间图像,其中,所述深度学习模型包括多个处理层;
所述第二调整子模块包括:
第二获得单元,用于根据所述第一标识信息,得到所述多个处理层中输入每个处理层的第1级第四标识信息;
第三调整单元,用于根据第1个第一中间图像和所述源图像之间的差异,利用预设调整方式对多个所述第1级第四标识信息进行调整,得到多个第1级第五标识信息,作为第1级第六标识信息;以及
第四调整单元,用于根据第n个第一中间图像和所述源图像之间的差异,利用所述预设调整方式对多个第n-1级第五标识信息进行调整,得到多个第n级第五标识信息,作为第n级第六标识信息,其中,n为大于1的整数,n为小于或等于N的整数;
其中,所述预设调整方式包括以下至少之一:反向传播方式和梯度优化方式。
13. 一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至6中任一项所述的方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1至6中任一项所述的方法。
15.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1至6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210526828.5A CN114926322B (zh) | 2022-05-12 | 2022-05-12 | 图像生成方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210526828.5A CN114926322B (zh) | 2022-05-12 | 2022-05-12 | 图像生成方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114926322A CN114926322A (zh) | 2022-08-19 |
CN114926322B true CN114926322B (zh) | 2024-03-15 |
Family
ID=82808168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210526828.5A Active CN114926322B (zh) | 2022-05-12 | 2022-05-12 | 图像生成方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114926322B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116704221B (zh) * | 2023-08-09 | 2023-10-24 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备和计算机可读存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111353546A (zh) * | 2020-03-09 | 2020-06-30 | 腾讯科技(深圳)有限公司 | 图像处理模型的训练方法、装置、计算机设备和存储介质 |
CN112116548A (zh) * | 2020-09-28 | 2020-12-22 | 北京百度网讯科技有限公司 | 人脸图像的合成方法、装置 |
CN112734634A (zh) * | 2021-03-30 | 2021-04-30 | 中国科学院自动化研究所 | 换脸方法、装置、电子设备和存储介质 |
CN113538235A (zh) * | 2021-06-30 | 2021-10-22 | 北京百度网讯科技有限公司 | 图像处理模型的训练方法、装置、电子设备及存储介质 |
CN113658035A (zh) * | 2021-08-17 | 2021-11-16 | 北京百度网讯科技有限公司 | 脸部变换方法、装置、设备、存储介质以及产品 |
CN113902956A (zh) * | 2021-09-30 | 2022-01-07 | 北京百度网讯科技有限公司 | 融合模型的训练方法、图像融合方法、装置、设备及介质 |
CN113962845A (zh) * | 2021-08-25 | 2022-01-21 | 北京百度网讯科技有限公司 | 图像处理方法、图像处理装置、电子设备以及存储介质 |
CN114360074A (zh) * | 2022-01-10 | 2022-04-15 | 北京百度网讯科技有限公司 | 检测模型的训练方法、活体检测方法、装置、设备和介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015009981A1 (de) * | 2015-07-31 | 2017-02-02 | Eberhard Karls Universität Tübingen | Verfahren und Vorrichtung zur Bildsynthese |
US11756288B2 (en) * | 2022-01-05 | 2023-09-12 | Baidu Usa Llc | Image processing method and apparatus, electronic device and storage medium |
-
2022
- 2022-05-12 CN CN202210526828.5A patent/CN114926322B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111353546A (zh) * | 2020-03-09 | 2020-06-30 | 腾讯科技(深圳)有限公司 | 图像处理模型的训练方法、装置、计算机设备和存储介质 |
CN112116548A (zh) * | 2020-09-28 | 2020-12-22 | 北京百度网讯科技有限公司 | 人脸图像的合成方法、装置 |
CN112734634A (zh) * | 2021-03-30 | 2021-04-30 | 中国科学院自动化研究所 | 换脸方法、装置、电子设备和存储介质 |
CN113538235A (zh) * | 2021-06-30 | 2021-10-22 | 北京百度网讯科技有限公司 | 图像处理模型的训练方法、装置、电子设备及存储介质 |
CN113658035A (zh) * | 2021-08-17 | 2021-11-16 | 北京百度网讯科技有限公司 | 脸部变换方法、装置、设备、存储介质以及产品 |
CN113962845A (zh) * | 2021-08-25 | 2022-01-21 | 北京百度网讯科技有限公司 | 图像处理方法、图像处理装置、电子设备以及存储介质 |
CN113902956A (zh) * | 2021-09-30 | 2022-01-07 | 北京百度网讯科技有限公司 | 融合模型的训练方法、图像融合方法、装置、设备及介质 |
CN114360074A (zh) * | 2022-01-10 | 2022-04-15 | 北京百度网讯科技有限公司 | 检测模型的训练方法、活体检测方法、装置、设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114926322A (zh) | 2022-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210406579A1 (en) | Model training method, identification method, device, storage medium and program product | |
CN113033537A (zh) | 用于训练模型的方法、装置、设备、介质和程序产品 | |
CN112561060B (zh) | 神经网络训练方法及装置、图像识别方法及装置和设备 | |
CN113379627B (zh) | 图像增强模型的训练方法和对图像进行增强的方法 | |
CN113591918B (zh) | 图像处理模型的训练方法、图像处理方法、装置和设备 | |
CN114494784A (zh) | 深度学习模型的训练方法、图像处理方法和对象识别方法 | |
WO2023050868A1 (zh) | 融合模型的训练方法、图像融合方法、装置、设备及介质 | |
CN114792355B (zh) | 虚拟形象生成方法、装置、电子设备和存储介质 | |
CN109993026B (zh) | 亲属识别网络模型的训练方法及装置 | |
US20220398834A1 (en) | Method and apparatus for transfer learning | |
EP4343616A1 (en) | Image classification method, model training method, device, storage medium, and computer program | |
CN114926322B (zh) | 图像生成方法、装置、电子设备和存储介质 | |
CN113902899A (zh) | 训练方法、目标检测方法、装置、电子设备以及存储介质 | |
CN115880506B (zh) | 图像生成方法、模型的训练方法、装置及电子设备 | |
CN116994319A (zh) | 训练模型的方法和人脸识别方法、设备、介质 | |
CN115082598B (zh) | 文本图像生成、训练、文本图像处理方法以及电子设备 | |
CN116229095A (zh) | 一种模型训练方法、视觉任务处理方法、装置及设备 | |
CN116052288A (zh) | 活体检测模型训练方法、活体检测方法、装置和电子设备 | |
CN115082298A (zh) | 图像生成方法、装置、电子设备以及存储介质 | |
CN115147306A (zh) | 图像处理方法、装置、电子设备和存储介质 | |
CN113408632A (zh) | 提高图像分类准确性的方法、装置、电子设备及存储介质 | |
CN113903071A (zh) | 人脸识别方法、装置、电子设备和存储介质 | |
CN113947146A (zh) | 样本数据生成方法、模型训练方法、图像检测方法及装置 | |
CN114782708B (zh) | 图像生成方法、图像生成模型的训练方法、装置和设备 | |
CN113657249B (zh) | 训练方法、预测方法、装置、电子设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |