CN114782708B - 图像生成方法、图像生成模型的训练方法、装置和设备 - Google Patents
图像生成方法、图像生成模型的训练方法、装置和设备 Download PDFInfo
- Publication number
- CN114782708B CN114782708B CN202210518677.9A CN202210518677A CN114782708B CN 114782708 B CN114782708 B CN 114782708B CN 202210518677 A CN202210518677 A CN 202210518677A CN 114782708 B CN114782708 B CN 114782708B
- Authority
- CN
- China
- Prior art keywords
- level
- ith
- feature map
- image
- mask information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 100
- 238000012549 training Methods 0.000 title claims abstract description 36
- 238000012545 processing Methods 0.000 claims abstract description 169
- 230000004927 fusion Effects 0.000 claims abstract description 105
- 238000010586 diagram Methods 0.000 claims description 41
- 230000008569 process Effects 0.000 claims description 31
- 238000004590 computer program Methods 0.000 claims description 12
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000004891 communication Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 210000001331 nose Anatomy 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000013136 deep learning model Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 210000000697 sensory organ Anatomy 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 210000000088 lip Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种图像生成方法,涉及人工智能技术领域,尤其涉及深度学习、图像处理和计算机视觉技术领域。具体实现方案为:获取输入掩码信息和模板图像的第一特征图,其中,输入掩码信息是根据所述模板图像的第二特征图和源图像的标识信息得到的;根据输入掩码信息和模板图像的第一特征图,得到融合特征图;以及根据标识信息和融合特征图,进行图像生成。本公开还提供了一种图像生成模型的训练方法、装置、电子设备和存储介质。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及深度学习、图像处理和计算机视觉技术领域,可应用于人脸等场景下。更具体地,本公开提供了一种图像生成方法、图像生成模型的训练方法、装置、电子设备和存储介质。
背景技术
随着人工智能技术的发展,深度学习模型广泛地应用于图像处理等场景中。例如,可以利用深度学习模型将两幅或多幅图像融合成一幅新的图像。
发明内容
本公开提供了一种图像生成方法、图像生成模型的训练方法、装置、电子设备和存储介质。
根据本公开的一方面,提供了一种图像生成方法,该方法包括:获取输入掩码信息和模板图像的第一特征图,其中,输入掩码信息是根据模板图像的第二特征图和源图像的标识信息得到的;根据输入掩码信息和模板图像的第一特征图,得到融合特征图;以及根据标识信息和融合特征图,进行图像生成。
根据本公开的一方面,提供了一种图像生成模型的训练方法,该方法包括:根据第i-1级掩码信息和模板图像的第i级特征图,得到第i级融合特征图,其中,i为大于1的整数,i为小于或等于I的整数,I为大于1的整数;根据源图像的标识信息和第i级融合特征图,得到第i级掩码信息和第i级处理后图像;以及根据第I级处理后图像和源图像之间的差异,训练图像生成模型。
根据本公开的另一方面,提供了一种图像生成装置,该装置包括:获取模块,用于获取输入掩码信息和模板图像的第一特征图,其中,输入掩码信息是根据模板图像的第二特征图和源图像的标识信息得到的;第一获得模块,用于根据输入掩码信息和模板图像的第一特征图,得到融合特征图;以及生成模块,用于根据标识信息和融合特征图,进行图像生成。
根据本公开的另一方面,提供了一种图像生成模型的训练装置,该装置包括:第二获得模块,用于根据第i-1级掩码信息和模板图像的第i级特征图,得到第i级融合特征图,其中,i为大于1的整数,i为小于或等于I的整数,I为大于1的整数;第三获得模块,用于根据源图像的标识信息和第i级融合特征图,得到第i级掩码信息和第i级处理后图像;以及训练模块,用于根据第I级处理后图像和源图像之间的差异,训练图像生成模型。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行根据本公开提供的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行根据本公开提供的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据本公开提供的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开的一个实施例的可以应用图像生成方法和装置的示例性系统架构示意图;
图2是根据本公开的一个实施例的图像生成方法的流程图;
图3是根据本公开的一个实施例的图像生成方法的原理图;
图4是根据本公开的另一个实施例的图像生成方法的原理图;
图5是根据本公开的一个实施例的第1级处理模块的原理图;
图6A是根据本公开的一个实施例的源图像的示意图;
图6B是根据本公开的一个实施例的模板图像的示意图;
图6C是根据本公开的一个实施例的图像生成方法的原理图;
图6D是根据本公开的一个实施例的输出图像的示意图;
图7是根据本公开的一个实施例的图像生成模型的训练方法的流程图;
图8是根据本公开的一个实施例的图像生成模型的训练方法的原理图;
图9A是根据本公开的一个实施例的模板图像的示意图;
图9B是根据本公开的一个实施例的预设掩码信息的示意图;
图10是根据本公开的一个实施例的图像生成装置的框图;
图11是根据本公开的另一个实施例的图像生成模型的训练装置的框图;以及
图12是根据本公开的一个实施例的可以应用图像生成方法和/或图像生成模型的训练方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
可以利用深度学习模型将两个包含对象脸部的图像融合为一个换脸图像。例如,将源图像中对象的脸部特征迁移至模板图像上,同时保持模板图像的表情、姿态等属性信息不变。
例如,可以利用脸部识别网络提取源图像的标识信息,再利用一CNN(Convolutional Neural Network,卷积神经网络)模型将标识信息迁移到模板图像中,得到换脸图像。接下来,可以利用预训练的脸部判别器来确定源图像的标识信息和换脸图像的标识信息之间的相似度(例如余弦距离)。根据该相似度调整该CNN模型的参数。又例如,也可以根据换脸图像和源图像之间的差异,调整该CNN模型的参数。
图1是根据本公开一个实施例的可以应用图像生成方法和装置的示例性系统架构示意图。
需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线和/或无线通信链路等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的图像生成方法一般可以由服务器105执行。相应地,本公开实施例所提供的图像生成装置一般可以设置于服务器105中。本公开实施例所提供的图像生成方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的图像生成装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
图2是根据本公开的一个实施例的图像生成方法的流程图。
如图2所示,该方法200可以包括操作S210至操作S230。
在操作S210,获取输入掩码信息和模板图像的第一特征图。
例如,输入掩码信息是根据模板图像的第二特征图和源图像的标识信息得到的。
例如,源图像包括对象Obj_s的脸部。
例如,模板图像包括对象Obj_t的脸部。
例如,可以将一个CNN模型作为一个属性识别网络。该属性识别网络具有多个卷积层。每个卷积层可以输出一个特征图。该属性识别网络可以将模板图像作为输入,输出多个特征图。可以将多个特征图中一个特征图作为第一特征图,将另一个特征图作为第二特征图。
例如,可以利用各种方式根据源图像的标识信息和第二特征图,得到一个处理后特征图。例如,利用FaceShifter(变脸)模型、InfoSwap(信息交换)模型、StyleGAN(Style-based Generative Adversarial Networks,基于样式的生成对抗网络)模型、StyleGAN2(第二代基于样式的生成对抗网络)模型得到处理后特征图。对处理后特征图进行图像分割,得到输入掩码信息。
在操作S220,根据输入掩码信息和第一特征图,得到融合特征图。
例如,第一特征图可以用一个特征矩阵表示,输入掩码信息也可以用一个矩阵表示。根据第一特征图和输入掩码信息进行各种矩阵运算,可以得到融合特征图。
在操作S230,根据标识信息和融合特征图,进行图像生成。
例如,根据标识信息和融合特征图,利用上文所述的FaceShifter模型、InfoSwap模型、StyleGAN模型等模型进行图像生成,可以得到一个换脸图像。
在一个示例中,换脸图像中对象的脸部具有与对象Obj_s类似的五官。又例如,换脸图像中对象的表情、姿态等属性信息与对象Obj_t类似。
通过本公开实施例,基于输入掩码信息,可以确定图像的背景和前景(例如脸部)。根据输入掩码信息和第一特征图得到了融合特征图,在根据融合特征图进行图像生成时,可以充分利用源图像标识信息,降低模板图像的背景对换脸图像中脸部区域的影响,提高了换脸图像的质量。此外,还可以保留模板图像的背景信息。例如,可以保留模板图像的图像背景和对象Obj_t的头发。
在一些实施例中,脸部包括五官的至少一个,五官例如包括口、耳、鼻、眼和唇。
在一些实施例中,方法200中的源图像例如可以为对齐后的源图像。例如,可以利用脸部5点关键点检测算法对源图像进行处理。再利用ArcFace(弧面)裁剪方式对处理后的源图像进行处理,得到对齐后的源图像。
在一些实施例中,方法200中的模板图像为对齐后的模板图像。例如,可以利用脸部72点关键点检测算法对模板图像进行处理。在利用FFHQ(Flickr-Faces-High-Quality,高清人脸数据集)提供的裁剪方式对处理后的模板图像进行处理,得到对齐后的模板图像。对齐后的模板图像或对齐后的源图像中脸部的五官处于预设位置,便于后续处理。
在一些实施例中,例如在上文所述的操作S220的一些实施方式中,根据输入掩码信息和第一特征图,得到融合特征图可以包括:根据输入掩码信息和第一特征图,得到融合信息;以及将融合信息和第一特征图融合,得到融合特征图。
在一些实施例中,例如在上文所述操作S230的一些实施方式中,根据标识信息和融合特征图,进行图像生成可以包括:根据标识信息和融合特征图,得到中间特征图;以及对中间特征图进行第一卷积处理,以进行图像生成。
下面将结合图3对上文所述的操作S220和操作S230的一些实施方式进行详细说明。
图3是根据本公开的一个实施例的图像生成方法的原理图。
如图3所示,处理模块300包括第一处理单元P301、第二处理单元P302、融合单元P303和第一卷积单元P304。第一处理单元P301可以包括:融合层L301、上采样层L302、卷积层L303、运算层L304、反运算层L305。第二处理单元可以P302包括:卷积层L306、运算层L307、反运算层L308。
根据输入掩码信息和模板图像的第一特征图,利用该处理模块300进行处理,利得到融合特征图,再根据源图像的标识信息和融合特征图,进行图像生成。
例如,将第一特征图301和输入掩码信息M 302输入融合单元P303,可以得到融合信息。
将融合信息和第一特征图301输入融合层L301,进行融合,可以得到融合特征图。在一个示例中,融合层L301可以将融合信息和第一特征图/>301拼接。
将融合特征图输入上采样层L302,可以得到上采样后的融合特征图。
将参数A 304和标识信息303输入运算层L304,进行Mod(模)运算,得到第一运算后参数。再将第一运算后参数输入反运算层L305,进行Demod(反模)运算,得到第一反运算后参数。将第一反运算后参数和上采样后的融合特征图输入卷积层L303,得到卷积后的融合特征图。
将参数A 305和标识信息303输入运算层L307,进行Mod运算,得到第二运算后参数。再将第二运算后参数输入反运算层L308,进行Demod运算,得到第二反运算后参数。将第二反运算后参数和卷积后的融合特征图输入卷积层L306,得到中间特征图。
将中间特征图输入第一卷积单元P304,进行第一卷积处理,以进行图像生成,得到输出图像Ig 306。
通过本公开实施例,将输入掩码信息和第一特征图融合,可以保留第一特征图中的背景信息。在图像生成过程中,将融合信息和第一特征图融合,可以使得模型更加关注模板图像中对象的脸部区域,以便将源图像的标识信息高效地添加至模板图像中对象脸部区域,可以降低对模板图像的背景的影响,也可以降低对模板图像中对象的头发的影响。
在一些实施例中,输入掩码信息M 302可以是利用处理模块300得到的。
例如,对第二特征图进行上采样,可以得到上采样后的第二特征图。
根据参数A和标识信息进行Mod运算,得到第一运算后参数。再对第一运算后参数进行Demod运算,得到第一反运算后参数。根据第一反运算后参数和上采样后的第二特征图,进行卷积,得到卷积后的第二特征图。
根据参数A和标识信息进行Mod运算,得到第二运算后参数。再对第二运算后参数进行Demod运算,得到第二反运算后参数。根据第二反运算后参数和卷积后的第二特征图,进行卷积,得到二次卷积后的第二特征图。对二次卷积后的第二特征图进行第二卷积处理,得到输入掩码信息。
可以理解,利用一个上文所述的处理模块300可以实现本公开提供的图像生成方法。
可以理解,也可以利用多个级联的处理模块实现本公开提供的图像生成方法。下面将进行详细说明。
在一些实施例中,模板图像的特征图包括I级特征图,第一特征图为I级特征图中的第i级特征图,第二特征图为I级特征图中的第i-1级特征图,i为大于1的整数,I为大于或等于1的整数,i为小于或等于I的整数。
进一步地,在一些实施例中,例如在上文所述操作S230的一些实施方式中,根据标识信息和融合特征图,进行图像生成还包括:对第i级中间特征图进行第二卷积处理,得到第i级掩码信息;其中,输入掩码信息为第i-1级掩码信息。
更进一步地,在一些实施例中,对中间特征图进行第一卷积处理包括:对第i级中间特征图进行第一卷积处理,得到第i级卷积后图像;根据第i级卷积后图像和第i-1级处理后图像,进行图像生成,得到第i级处理后图像。下面将结合图4进行详细说明。
图4是根据本公开的另一个实施例的图像生成方法的原理图。
如图4所示,可以利用I级处理模块中的第i级处理模块400进行图像生成。
如图4所示,第i级处理模块400包括第一处理单元P401、第二处理单元P402、融合单元P403、第一卷积单元P404和第二卷积单元P405。第一处理单元P401可以包括:融合层L401、上采样层L402、卷积层L403、运算层L404、反运算层L405。第二处理单元P402可以包括:卷积层L406、运算层L407、反运算层L408。第i级处理模块400还包括:上采样层L409和上采样层L410。
根据第i-1级掩码信息和模板图像的第i级特征图,利用该第i级处理模块400进行处理,可以得到第i级融合特征图;再根据源图像的标识信息和第i级融合特征图,进行图像生成。
例如,将第i级特征图401和第i-1级掩码信息Mg_i-1 402输入融合单元P403,可以得到第i级融合信息。在一个示例中,第i级融合信息可以为/>
将第i级融合信息和第i级特征图401输入融合层L401,进行融合,可以得到第i级融合特征图。在一个示例中,融合层L401可以将第i级融合信息和第i级特征图/>401拼接。
将第i级融合特征图输入上采样层L402,可以得到上采样后的第i级融合特征图。
将参数A 404和标识信息ws_2i 403输入运算层L404,进行Mod运算,得到第i级第一运算后参数。再将第i级第一运算后参数输入反运算层L405,进行Demod运算,得到第i级第一反运算后参数。将第i级第一反运算后参数和上采样后的第i级融合特征图输入卷积层L403,得到卷积后的第i级融合特征图。
将参数A 405和标识信息ws_2i+1 403’输入运算层L407,进行Mod运算,得到第i级第二运算后参数。再将第i级第二运算后参数输入反运算层L408,进行Demod运算,得到第i级第二反运算后参数。将第i级第二反运算后参数和卷积后的第i级融合特征图输入卷积层L406,得到第i级中间特征图。
将第i级中间特征图输入第一卷积单元P404,进行第一卷积处理,得到第i级卷积后图像。将第i-1级处理后图像Ig_i-1 407输入上采样层L409,得到上采样后的第i-1级处理后图像。将第i级卷积后图像和上采样后的第i-1级处理后图像融合,得到第i级处理后图像Ig_i 406。
将第i级中间特征图输入第二卷积单元P405,进行第二卷积处理,得到第i级中间掩码信息。将第i-1级掩码信息Mg_i-1 402输入上采样层L410,得到上采样后的第i-1级掩码信息。将第i级中间掩码信息和上采样后的第i-1级掩码信息融合,得到第i级掩码信息Mg_i408。
通过本公开实施例,根据第i-1级掩码信息对第i级特征图进行处理,并利用了第i-1级处理后图像进行图像生成,可以充分利用第i-1级处理模块输出的各种信息,可以更加有效地基于标识信息生成处理后图像,进而使得最终得到的图像的身份信息与源图像更加相似。
可以理解,可以将上文所述的标识信息303作为标识信息ws_2i 403或标识信息ws_2i+1 403’。
可以理解,参照上文所述的第i级处理模块,I级处理模块中的第2级处理模块至第I级处理模块可以用于图像生成。
下面将对I级处理模块中的第1级处理模块进行详细说明。
在一些实施例中,在例如上文所述的操作S210的一些实施方式中,输入掩码信息是根据第二特征图和标识信息执行以下操作得到的:根据标识信息和I级特征图中的第1级特征图,得到第1级中间特征图;对第1级中间特征图进行第一卷积处理,得到第1级卷积后图像;根据第1级卷积后图像,得到第1级处理后图像;以及对第1级中间特征图进行第二卷积处理,得到第1级掩码信息,作为输入掩码信息。下面将结合图5进行详细描述。
图5是根据本公开的一个实施例的第1级处理模块的原理图。
如图5所示,第1级处理模块500包括第一处理单元P501’、第二处理单元P502、第一卷积单元P504和第二卷积单元P505。第一处理单元P501可以包括:上采样层L502、卷积层L503、运算层L504、反运算层L505。第二处理单元P502可以包括:卷积层L506、运算层L507、反运算层L508。
可以利用该第1级处理模块500根据第二特征图和标识信息得到输入掩码信息。本实施例中,第二特征图为模板图像的第1级特征图501’。
例如,将第1级特征图501’输入上采样层L502,可以得到上采样后的第1级特征图。
将参数A 504和标识信息503输入运算层L504,进行Mod运算,得到第1级第一运算后参数。再将第1级第一运算后参数输入反运算层L505,进行Demod运算,得到第1级第一反运算后参数。将第1级第一反运算后参数和上采样后的第1级特征图输入卷积层L503,得到卷积后的第1级特征图。
将参数A 505和标识信息503’输入运算层L507,进行Mod运算,得到第1级第二运算后参数。再将第1级第二运算后参数输入反运算层L508,进行Demod运算,得到第1级第二反运算后参数。将第1级第二反运算后参数和卷积后的第1级特征图输入卷积层L506,得到第1级中间特征图。
将第1级中间特征图输入第一卷积单元P504,进行第一卷积处理,得到第1级卷积后图像。将第1级卷积后图像作为第1级处理后图像Ig_1506。
将第1级中间特征图输入第二卷积单元P505,进行第二卷积处理,得到第1级中间掩码信息。将第1级中间掩码信息作为第1级掩码信息Mg_1508。
可以理解,上文所述的第1级处理模块、第2级处理模块至第I级处理模块可以用于图像生成。
下面将结合图6A至图6D对本公开提供图像生成方法的原理进行进一步详细说明。图6A至图6D示出的实施例可以利用包含I级处理模块的图像生成模型进行图像生成。
图6A是根据本公开的一个实施例的源图像的示意图。
如图6A所示,源图像Is 6011包括对象Obj_s。在一个示例中,对象Obj_s的嘴唇较薄,嘴部张开。此外,对象Obj_s的鼻子底部下凸。
图6B是根据本公开的一个实施例的模板图像的示意图。
如图6B所示,模板图像It 6012包括对象Obj_t。在一个示例中,对象Obj_t的嘴唇较厚,嘴部未张开。此外,对象Obj_t的鼻子底部较平。
图6C是根据本公开的一个实施例的图像生成方法的原理图。
如图6C所示,图像生成模型包括生成子模型610和判别子模型620。生成子模型610包括I级处理模块。I级处理模块包括:第1级处理模块611、第2级处理模块612、......、第I-1级处理模块613、第I级处理模型614。在一个示例中,I=14。
本实施例中,第1级处理模型611可以包括处理子模块。处理子模块可以包括第一处理单元和第二处理单元。上文所述的关于第一处理单元P501’和第二处理单元P502的详细描述,同样适用于本实施例,本公开在此不再赘述。
本实施例中,第1级处理模块611还可以包括第一卷积单元和第二卷积单元。上文所述的关于第一卷积单元P504和第二卷积单元P505的详细描述,同样适用于本实施例,本公开在此不再赘述。
本实施例中,第2级处理模块612至第I级处理模块614中的任一级处理模块可以包括处理子模块。处理子模块可以包括第一处理单元和第二处理单元。上文所述的关于第一处理单元P401和第二处理单元P402的详细描述,同样适用于本实施例,本公开在此不再赘述。
本实施例中,第2级处理模块612至第I级处理模块614中的任一级处理模块还可以包括融合单元、第一卷积单元和第二卷积单元。上文所述的关于融合单元P403、第一卷积单元P404和第二卷积单元P405的详细描述,同样适用于本实施例,本公开在此不再赘述。
如图6C所示,可以将源图像Is 6011输入标识识别网络630,得到源图像的标识信息ws。例如,标识识别网络630可以将源图像编码为特征向量标识识别网络630还可以利用一全连接层将特征向量/>映射为标识信息ws。可以将标识信息ws复制I次,作为每级处理模块的一个输入。
如图6C所示,可以将模板图像It 6012输入属性识别网络,得到模板图像的I级特征图。
可以将第1级特征图作为第1级融合特征图。可以根据标识信息ws和第1级特征图/>利用第1级处理模块611的处理子模块进行处理,可以得到第1级中间特征图。第1级处理模块611的第一卷积单元可以对第1级中间特征图进行第一卷积处理,得到第1级卷积后图像,作为第1级处理后图像Ig_1。第1级处理模块611的第二卷积单元可以对第1级中间特征图进行第二卷积处理,得到第1级中间掩码信息,作为第1级掩码信息Mg_1。
接下来,可以利用该第i级处理模块根据第i-1级掩码信息和模板图像的第i级特征图,得到第i级融合特征图,再根据源图像的标识信息和第i级融合特征图,得到第i级掩码信息和第i级处理后图像。
例如,第2级处理模块612的融合单元可以根据第1级掩码信息Mg_1和模板图像的第2级特征图得到第2级融合特征图。第2级处理模块612的处理子模块可以根据第2级融合特征图和标识信息ws,得到第2级中间特征图。第2级处理模块612的第一卷积单元可以对第1级中间特征图进行第一卷积处理,得到第2级卷积后图像。根据第2级卷积后图像,可以得到第2级处理后图像Ig_2。第2级处理模块612的第二卷积单元可以对第1级中间特征图进行第二卷积处理,得到第2级中间掩码信息。根据第2中间掩码信息,可以得到第2级掩码信息Mg_2。
第I级处理模块614的融合单元可以根据第I-1级掩码信息Mg_I-1和模板图像的第I级特征图得到第I级融合特征图。第I级处理模块614的处理子模块还可以根据第I级融合特征图和标识信息ws,得到第I级中间特征图。第I级处理模块614的第一卷积单元可以对第I级中间特征图进行第一卷积处理,得到第I级卷积后图像。根据第I级卷积后图像,可以得到第I级处理后图像。第I级处理模块614的第二卷积单元可以对第I级中间特征图进行第二卷积处理,得到第I级中间掩码信息。根据第I中间掩码信息,可以得到第I级掩码信息Mg_I。将第I级处理后图像作为输出图像/>
判别子模型620可以确定输出图像和源图像Is 6011之间的差异。在差异小于预设差异阈值的情况下,将输出图像/>作为目标图像。通过本公开实施例,在第2级处理模块至第I级处理模块中,每级处理模块可以充分利用上一级处理模块输出的掩码信息和处理后图像,以便每级处理模块根据相应的特征图进行图像生成,并充分保留了模板图像的背景信息。此外,基于I级处理模块对I级特征图进行处理,得到的输出图像可以具有与源图像更加接近的面部标识信息。
图6D是根据本公开的一个实施例的输出图像的示意图。
如图6D所示,样本中间图像6013包括对象Obj_s-t。在一个示例中,对象Obj_s-t是一个合成的对象。对象Obj_s-t具有与对象Obj_s类似的标识信息。例如,对象Obj_s-t的嘴唇较薄,对象Obj_s-t的鼻子底部下凸。对象Obj_s-t具有与对象Obj_t类似的属性信息。例如,对象Obj_s-t的嘴部未张开。又例如,对象Obj_s-t具有与对象Obj_t类似的头发。
图7是根据本公开的一个实施例的图像生成模型的训练方法的流程图。
如图7所示,方法700可以包括操作S710至操作S730。
在操作S710,根据第i-1级掩码信息和模板图像的第i级特征图,得到第i级融合特征图。
例如,i为大于1的整数,i为小于或等于I的整数,I为大于1的整数。
例如,源图像包括对象Obj_s的脸部。
例如,模板图像包括对象Obj_t的脸部。
例如,可以将一个CNN模型作为一个属性识别网络。该属性识别网络具有多个卷积层。每个卷积层可以输出一个特征图。该属性识别网络可以将模板图像作为输入,输出多个特征图。根据该多个特征图,可以得到模板图像的I级特征图。
例如,可以利用各种方式根据源图像的标识信息和第i-1级特征图,得到处理后的第i-1级特征图。例如,利用FaceShifter模型、InfoSwap模型、StyleGAN模型、StyleGAN2模型得到处理后的第i-1级特征图。对处理后第i-1级特征图进行图像分割,得到第i-1级掩码信息。
可以理解,第i级特征图可以用一个特征矩阵表示,第i-1级掩码信息也可以用一个矩阵表示。根据第i级特征图和第i-1级掩码信息进行各种矩阵运算,可以得到第i级融合特征图。
在操作S720,根据源图像的标识信息和第i级融合特征图,得到第i级掩码信息和第i级处理后图像。
例如,根据标识信息和第i级融合特征图,利用上文所述的FaceShifter模型、InfoSwap模型、StyleGAN模型等模型,可以得到第i级处理后特征图。
又例如,利用两个不同的卷积层对第i级处理后特征图进行处理,可以得到第i级掩码信息和第i级处理后图像。再进行第I级处理之后,可以得到第I级处理后图像。
在操作S730,根据第I级处理后图像和源图像之间的差异,训练图像生成模型。
例如,可以利用各种方式确定第I级处理后图像和源图像之间的差异。在一个示例中,可以计算源图像和第I级处理后图像之间的欧氏距离,作为二者的差异。再根据该差异调整图像生成模型的参数,以进行训练。
在一些实施例中,在例如上文所述的操作S710的一些实施方式中,根据第i-1级掩码信息和模板图像的第i级特征图,得到第i级融合特征图包括:根据第i级特征图和第i-1级掩码信息,得到第i级融合信息;以及将第i级融合信息和第i级特征图融合,得到第i级融合特征图。
在一些实施例中,在例如上文所述的操作S720的一些实施方式中,根据源图像的标识信息和第i级融合特征图,得到第i级掩码信息和第i级处理后图像包括:根据标识信息和第i级融合特征图,得到第i级中间特征图;对第i级中间特征图进行第一卷积处理,得到第i级处理后图像;以及对第i级中间特征图进行第二卷积处理,得到第i级掩码信息。
进一步地,在一些实施例中,在例如上文所述的操作S720的一些实施方式中,对第i级中间特征图进行第一卷积处理,得到第i级处理后图像包括:对第i级中间特征图进行第一卷积处理,得到第i级卷积后图像;以及将第i级卷积后图像和第i-1级处理后图像融合,得到第i级处理后图像。
进一步地,在一些实施例中,在例如上文所述的操作S720的一些实施方式中,对第i级中间特征图进行第二卷积处理,得到第i级掩码信息包括:对第i级中间特征图进行第二卷积处理,得到第i级中间掩码信息;以及将第i级中间掩码信息和第i-1级掩码信息融合,得到第i级掩码信息。
在一些实施例中,上述方法700还可以包括:根据标识信息和模板图像的第1级特征图,得到第1级掩码信息和第1级处理后图像。
进一步地,例如,根据标识信息和模板图像的第1级特征图,得到第1级掩码信息和第1级处理后图像包括:根据标识信息和第1级特征图,得到第1级中间特征图;对第1级中间特征图进行第一卷积处理,得到第1级处理后图像;以及对第1级中间特征图进行第二卷积处理,得到第1级掩码信息。
在一些实施例中,在例如上文所述的操作S730的一些实施方式中,根据第I级处理后图像和源图像之间的差异,训练图像生成模型包括:根据第I级处理后图像和源图像,确定重构损失和标识损失;根据第I级掩码信息和模板图像的掩码信息,确定背景损失;以及根据重构损失、标识损失和背景损失,确定差异。
下面将结合图8来对上文所述的操作S710至操作S730的一些实施方式进行详细说明。
图8是根据本公开的一个实施例的图像生成模型的训练方法的原理图。
如图8所示,图像生成模型包括生成子模型810和判别子模型820。生成子模型810包括I级处理模块。I级处理模块包括:第1级处理模块811、第2级处理模块812、......、第I-1级处理模块813、第I级处理模型814。在一个示例中,I=14。
本实施例中,第1级处理模型811可以包括处理子模块。处理子模块可以包括第一处理单元和第二处理单元。上文所述的关于第一处理单元P501’和第二处理单元P502的详细描述,同样适用于本实施例,本公开在此不再赘述。
本实施例中,第1级处理模块811还可以包括第一卷积单元和第二卷积单元。上文所述的关于第一卷积单元P504和第二卷积单元P505的详细描述,同样适用于本实施例,本公开在此不再赘述。
本实施例中,第2级处理模块812至第I级处理模块814中的任一级处理模块可以包括处理子模块。处理子模块可以包括第一处理单元和第二处理单元。上文所述的关于第一处理单元P401和第二处理单元P402的详细描述,同样适用于本实施例,本公开在此不再赘述。
本实施例中,第2级处理模块812至第I级处理模块814中的任一级处理模块还可以包括融合单元、第一卷积单元和第二卷积单元。上文所述的关于融合单元P403、第一卷积单元P404和第二卷积单元P405的详细描述,同样适用于本实施例,本公开在此不再赘述。
如图8所示,可以将源图像Is 8011输入标识识别网络830,得到源图像的标识信息ws。例如,标识识别网络830可以将源图像编码为特征向量标识识别网络830还可以利用一全连接层将特征向量/>映射为标识信息ws。可以将标识信息ws复制I次,作为每个处理模块的一个输入。
如图8所示,可以将模板图像It 8012输入属性识别网络,得到模板图像的I级特征图。
可以将第1级特征图作为第1级融合特征图。第1级处理模块811的处理子模块可以根据标识信息ws和第1级特征图/>得到第1级中间特征图。第1级处理模块811的第一卷积单元可以对第1级中间特征图进行第一卷积处理,得到第1级卷积后图像,作为第1级处理后图像Ig_1。第1级处理模块811的第二卷积单元可以对第1级中间特征图进行第二卷积处理,得到第1级中间掩码信息,作为第1级掩码信息Mg_1。
接下来,可以利用该第i级处理模块根据第i-1级掩码信息和模板图像的第i级特征图,得到第i级融合特征图,再根据源图像的标识信息和第i级融合特征图,得到第i级掩码信息和第i级处理后图像。
例如,第2级处理模块812的融合单元可以根据第1级掩码信息Mg_1和模板图像的第2级特征图得到第2级融合特征图。第2级处理模块812的处理子模块可以根据第2级融合特征图和标识信息ws,得到第2级中间特征图。第2级处理模块812的第一卷积单元可以对第1级中间特征图进行第一卷积处理,得到第2级卷积后图像。根据第2级卷积后图像,可以得到第2级处理后图像Ig_2。第2级处理模块812的第二卷积单元可以对第1级中间特征图进行第二卷积处理,得到第2级中间掩码信息。根据第2中间掩码信息,可以得到第2级掩码信息Mg_2。
第I级处理模块814的融合单元可以根据第I-1级掩码信息Mg_I-1和模板图像的第I级特征图得到第I级融合特征图。第I级处理模块814的处理子模块还可以根据第I级融合特征图和标识信息ws,得到第I级中间特征图。第I级处理模块814的第一卷积单元可以对第I级中间特征图进行第一卷积处理,得到第I级卷积后图像。根据第I级卷积后图像,可以得到第I级处理后图像。第I级处理模块814的第二卷积单元可以对第I级中间特征图进行第二卷积处理,得到第I级中间掩码信息。根据第I中间掩码信息,可以得到第I级掩码信息Mg_I。将第I级处理后图像作为输出图像/>
判别子模型820可以确定输出图像和源图像Is 8011之间的差异。在差异小于预设差异阈值的情况下,将输出图像/>作为目标图像。
与图6C不同之处在于,本实施例中,将模板图像It和源图像Is作为一个训练样本,对图像生成模型进行训练。
可以根据输出图像和源图像Is之间的差异,确定重构损失/>和标识损失
例如,可以将输出图像和源图像Is分别输入经训练的VGG(Visual GeometryGroup,视觉几何组)网络,得到输出图像/>的特征和源图像Is的特征。基于这两个特征,确定重构损失/>
又例如,可以利用ArcFace损失函数,确定输出图像和源图像之间的身份损失,作为标识损失/>
又例如,可以根据预设掩码信息和第I级掩码信息Mg_I,确定背景损失在一个示例中,预设掩码信息可以是模板图像It的掩码信息Mt。
根据重构损失标识损失/>和背景损失/>可以调整图像生成模型的参数。例如,调整生成子模型810的参数。在一个示例中,可以调整上文所述的参数A。
通过本公开实施例,可以高效地对图像生成模型进行训练。在训练过程中,利用背景损失进行训练,可以使得经训练的图像生成模型有效地保留模板图像的背景。此外,利用标识损失进行训练,在保留模板图像的背景的情况下,可以使得经训练的图像生成模型充分利用源图像的标识信息。
可以理解,本公开提供的方法可以基于各种模板图像进行图像生成。下面将结合图9A和图9B进行详细说明。
图9A是根据本公开的一个实施例的模板图像的示意图。
如图9A所示,模板图像9012’包括一个对象的脸部。
图9B是根据本公开的一个实施例的预设掩码信息的示意图。
如图9B所示,预设掩码信息可以是模板图像9012’的掩码信息。
图10是根据本公开的一个实施例的图像生成装置的框图。
如图10所示,该装置1000可以包括获取模块1010、第一获得模块1020和生成模块1030。
获取模块1010,用于获取输入掩码信息和模板图像的第一特征图。例如,输入掩码信息是根据模板图像的第二特征图和源图像的标识信息得到的;
第一获得模块1020,用于根据输入掩码信息和模板图像的第一特征图,得到融合特征图。例如,输入掩码信息是根据模板图像的第二特征图和源图像的标识信息得到的。
生成模块1030,用于根据标识信息和融合特征图,进行图像生成。
在一些实施例中,第一获得模块包括:第一获得子模块,用于根据输入掩码信息和第一特征图,得到融合信息;以及第一融合子模块,用于将融合信息和第一特征图融合,得到融合特征图。
在一些实施例中,生成模块包括:第二获得子模块,用于根据标识信息和融合特征图,得到中间特征图;以及第一卷积子模块,用于对中间特征图进行第一卷积处理,以进行图像生成。
在一些实施例中,模板图像的特征图包括I级特征图,第一特征图为I级特征图中的第i级特征图,第二特征图为I级特征图中的第i-1级特征图,i为大于1的整数,I为大于或等于1的整数,i为小于或等于I的整数。
在一些实施例中,生成模块还包括:第二卷积子模块,用于对第i级中间特征图进行第二卷积处理,得到第i级掩码信息;其中,输入掩码信息为第i-1级掩码信息。
在一些实施例中,输入掩码信息是通过以下子模块根据第二特征图和标识信息执行相关操作得到的:第三获得子模块,用于根据标识信息和I级特征图中的第1级特征图,得到第1级中间特征图;第三卷积子模块,用于对第1级中间特征图进行第一卷积处理,得到第1级卷积后图像;第四获得子模块,用于根据第1级卷积后图像,得到第1级处理后图像;以及第四卷积子模块,用于对第1级中间特征图进行第二卷积处理,得到第1级掩码信息,作为输入掩码信息。
在一些实施例中,第一卷积子模块包括:第一卷积单元,用于对第i级中间特征图进行第一卷积处理,得到第i级卷积后图像;生成单元,用于根据第i级卷积后图像和第i-1级处理后图像,进行图像生成,得到第i级处理后图像。
图11是根据本公开的另一个实施例的图像生成模型的训练装置的框图。
如图11所示,该装置1100可以包括第二获得模块1110、第三获得模块1120和训练模块1130。
第二获得模块1110,用于根据第i-1级掩码信息和模板图像的第i级特征图,得到第i级融合特征图。例如,i为大于1的整数,i为小于或等于I的整数,I为大于1的整数。
第三获得模块1120,用于根据源图像的标识信息和第i级融合特征图,得到第i级掩码信息和第i级处理后图像。
训练模块1130,用于根据第I级处理后图像和源图像之间的差异,训练图像生成模型。
在一些实施例中,第二获得模块包括:第五获得子模块,用于根据第i级特征图和第i-1级掩码信息,得到第i级融合信息;以及第二融合子模块,用于将第i级融合信息和第i级特征图融合,得到第i级融合特征图。
在一些实施例中,第三获得模块包括:第六获得子模块,用于根据标识信息和第i级融合特征图,得到第i级中间特征图;第五卷积子模块,用于对第i级中间特征图进行第一卷积处理,得到第i级处理后图像;以及第六卷积子模块,用于对第i级中间特征图进行第二卷积处理,得到第i级掩码信息。
在一些实施例中,第五卷积子模块包括:第二卷积单元,用于对第i级中间特征图进行第一卷积处理,得到第i级卷积后图像;以及第一融合单元,用于将第i级卷积后图像和第i-1级处理后图像融合,得到第i级处理后图像。
在一些实施例中,第六卷积子模块包括:第三卷积单元,用于对第i级中间特征图进行第二卷积处理,得到第i级中间掩码信息;以及第二融合单元,用于将第i级中间掩码信息和第i-1级掩码信息融合,得到第i级掩码信息。
在一些实施例中,还包括:第四获得模块,用于根据标识信息和模板图像的第1级特征图,得到第1级掩码信息和第1级处理后图像。
在一些实施例中,第四获得模块包括:第七获得子模块,用于根据标识信息和第1级特征图,得到第1级中间特征图;第七卷积子模块,用于对第1级中间特征图进行第一卷积处理,得到第1级处理后图像;以及第八卷积子模块,用于对第1级中间特征图进行第二卷积处理,得到第1级掩码信息。
在一些实施例中,训练模块包括:第一确定子模块,用于根据第I级处理后图像和源图像,确定重构损失和标识损失;第二确定子模块,用于根据第I级掩码信息和模板图像的掩码信息,确定背景损失;以及第三确定模块,用于根据重构损失、标识损失和背景损失,确定差异。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图12示出了可以用来实施本公开的实施例的示例电子设备1200的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图12所示,设备1200包括计算单元1201,其可以根据存储在只读存储器(ROM)1202中的计算机程序或者从存储单元1208加载到随机访问存储器(RAM)1203中的计算机程序,来执行各种适当的动作和处理。在RAM 1203中,还可存储设备1200操作所需的各种程序和数据。计算单元1201、ROM 1202以及RAM 1203通过总线1204彼此相连。输入/输出(I/O)接口1205也连接至总线1204。
设备1200中的多个部件连接至I/O接口1205,包括:输入单元1206,例如键盘、鼠标等;输出单元1207,例如各种类型的显示器、扬声器等;存储单元1208,例如磁盘、光盘等;以及通信单元1209,例如网卡、调制解调器、无线通信收发机等。通信单元1209允许设备1200通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1201可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1201的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1201执行上文所描述的各个方法和处理,例如图像生成方法和/或图像生成模型的训练方法。例如,在一些实施例中,图像生成方法和/或图像生成模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1208。在一些实施例中,计算机程序的部分或者全部可以经由ROM1202和/或通信单元1209而被载入和/或安装到设备1200上。当计算机程序加载到RAM1203并由计算单元1201执行时,可以执行上文描述的图像生成方法和/或图像生成模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元1201可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行图像生成方法和/或图像生成模型的训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (13)
1.一种图像生成方法,包括:
获取第i-1级掩码信息和模板图像的I级特征图中第i级特征图,其中,所述第i-1级掩码信息是根据所述模板图像的I级特征图中第i-1级特征图和源图像的标识信息得到的,i为大于1的整数,I为大于1的整数,i为小于或等于I的整数;
根据所述第i-1级掩码信息和所述第i级特征图,得到第i级融合特征图;
根据所述标识信息和所述第i级融合特征图,得到第i级中间特征图;
对所述第i级中间特征图进行第一卷积处理,得到第i级卷积后图像;
根据所述第i级卷积后图像和第i-1级处理后图像,进行图像生成,得到第i级处理后图像;
对所述第i级中间特征图进行第二卷积处理,得到第i级中间掩码信息;以及
将所述第i级中间掩码信息和所述第i-1级掩码信息融合,得到第i级掩码信息。
2. 根据权利要求1所述的方法,其中,所述根据所述第i-1级掩码信息和所述第i级特征图,得到第i级融合特征图包括:
根据所述第i-1级掩码信息和所述第i级特征图,得到第i级融合信息;以及
将所述第i级融合信息和所述第i级特征图融合,得到所述第i级融合特征图。
3.根据权利要求1所述的方法,其中,所述第i-1级掩码信息是根据所述第i-1级特征图和所述标识信息执行以下操作得到的:
根据所述标识信息和所述I级特征图中的第1级特征图,得到第1级中间特征图;
对所述第1级中间特征图进行所述第一卷积处理,得到第1级卷积后图像;
根据第1级卷积后图像,得到第1级处理后图像;以及
对所述第1级中间特征图进行第二卷积处理,得到第1级掩码信息。
4.一种图像生成模型的训练方法,包括:
根据第i-1级掩码信息和模板图像的第i级特征图,得到第i级融合特征图,其中,i为大于1的整数,i为小于或等于I的整数,I为大于1的整数;
根据源图像的标识信息和所述第i级融合特征图,得到第i级中间特征图;
对所述第i级中间特征图进行第一卷积处理,得到第i级卷积后图像;
将所述第i级卷积后图像和第i-1级处理后图像融合,得到第i级处理后图像;
对所述第i级中间特征图进行第二卷积处理,得到第i级中间掩码信息;
将所述第i级中间掩码信息和所述第i-1级掩码信息融合,得到第i级掩码信息;以及
根据第I级处理后图像和所述源图像之间的差异,训练所述图像生成模型。
5. 根据权利要求4所述的方法,其中,所述根据第i-1级掩码信息和模板图像的第i级特征图,得到第i级融合特征图包括:
根据所述第i级特征图和所述第i-1级掩码信息,得到第i级融合信息;以及
将所述第i级融合信息和所述第i级特征图融合,得到所述第i级融合特征图。
6.根据权利要求4所述的方法,其中,还包括:
根据所述标识信息和所述模板图像的第1级特征图,得到第1级掩码信息和第1级处理后图像。
7.根据权利要求6所述的方法,其中,所述根据所述标识信息和所述模板图像的第1级特征图,得到第1级掩码信息和第1级处理后图像包括:
根据所述标识信息和所述第1级特征图,得到第1级中间特征图;
对所述第1级中间特征图进行第一卷积处理,得到所述第1级处理后图像;以及
对所述第1级中间特征图进行第二卷积处理,得到所述第1级掩码信息。
8.根据权利要求4所述的方法,其中,所述根据第I级处理后图像和所述源图像之间的差异,训练所述图像生成模型包括:
根据所述第I级处理后图像和所述源图像,确定重构损失和标识损失;
根据第I级掩码信息和预设掩码信息,确定背景损失;以及
根据所述重构损失、所述标识损失和所述背景损失,确定所述差异。
9.一种图像生成装置,包括:
获取模块,用于获取第i-1级掩码信息和模板图像的I级特征图中第i级特征图,其中,所述第i-1级掩码信息是根据所述模板图像的I级特征图中第i-1级特征图和源图像的标识信息得到的,i为大于1的整数,I为大于1的整数,i为小于或等于I的整数;
第一获得模块,用于根据所述第i-1级掩码信息和所述第i级特征图,得到第i级融合特征图;
第二获得子模块,用于根据所述标识信息和所述第i级融合特征图,得到第i级中间特征图;
第一卷积单元,用于对所述第i级中间特征图进行第一卷积处理,得到第i级卷积后图像;
生成单元,用于根据第i级卷积后图像和第i-1级处理后图像,进行图像生成,得到第i级处理后图像;以及
第二卷积子模块,用于对所述第i级中间特征图进行第二卷积处理,得到第i级中间掩码信息;以及将所述第i级中间掩码信息和所述第i-1级掩码信息融合,得到第i级掩码信息。
10.一种图像生成模型的训练装置,包括:
第二获得模块,用于根据第i-1级掩码信息和模板图像的第i级特征图,得到第i级融合特征图,其中,i为大于1的整数,i为小于或等于I的整数,I为大于1的整数;
第六获得子模块,用于根据源图像的标识信息和所述第i级融合特征图,得到第i级中间特征图;
第二卷积单元,用于对所述第i级中间特征图进行第一卷积处理,得到第i级卷积后图像;
第一融合单元,用于将所述第i级卷积后图像和第i-1级处理后图像融合,得到第i级处理后图像;
第三卷积单元,用于对所述第i级中间特征图进行第二卷积处理,得到第i级中间掩码信息;
第二融合单元,用于将所述第i级中间掩码信息和所述第i-1级掩码信息融合,得到第i级掩码信息;以及
训练模块,用于根据第I级处理后图像和所述源图像之间的差异,训练所述图像生成模型。
11. 一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至8中任一项所述的方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1至8中任一项所述的方法。
13.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1至8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210518677.9A CN114782708B (zh) | 2022-05-12 | 2022-05-12 | 图像生成方法、图像生成模型的训练方法、装置和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210518677.9A CN114782708B (zh) | 2022-05-12 | 2022-05-12 | 图像生成方法、图像生成模型的训练方法、装置和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114782708A CN114782708A (zh) | 2022-07-22 |
CN114782708B true CN114782708B (zh) | 2024-04-16 |
Family
ID=82437550
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210518677.9A Active CN114782708B (zh) | 2022-05-12 | 2022-05-12 | 图像生成方法、图像生成模型的训练方法、装置和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114782708B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110348496A (zh) * | 2019-06-27 | 2019-10-18 | 广州久邦世纪科技有限公司 | 一种人脸图像融合的方法及系统 |
CN111768356A (zh) * | 2020-06-28 | 2020-10-13 | 北京百度网讯科技有限公司 | 一种人脸图像融合方法、装置、电子设备及存储介质 |
CN112949360A (zh) * | 2019-12-11 | 2021-06-11 | 广州市久邦数码科技有限公司 | 一种视频换脸方法和装置 |
WO2021164429A1 (zh) * | 2020-02-21 | 2021-08-26 | 京东方科技集团股份有限公司 | 图像处理方法、图像处理装置及设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110189249B (zh) * | 2019-05-24 | 2022-02-18 | 深圳市商汤科技有限公司 | 一种图像处理方法及装置、电子设备和存储介质 |
-
2022
- 2022-05-12 CN CN202210518677.9A patent/CN114782708B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110348496A (zh) * | 2019-06-27 | 2019-10-18 | 广州久邦世纪科技有限公司 | 一种人脸图像融合的方法及系统 |
CN112949360A (zh) * | 2019-12-11 | 2021-06-11 | 广州市久邦数码科技有限公司 | 一种视频换脸方法和装置 |
WO2021164429A1 (zh) * | 2020-02-21 | 2021-08-26 | 京东方科技集团股份有限公司 | 图像处理方法、图像处理装置及设备 |
CN111768356A (zh) * | 2020-06-28 | 2020-10-13 | 北京百度网讯科技有限公司 | 一种人脸图像融合方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114782708A (zh) | 2022-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7110502B2 (ja) | 深度を利用した映像背景減算法 | |
Siddiqi et al. | Facial expression recognition using active contour-based face detection, facial movement-based feature extraction, and non-linear feature selection | |
KR102597377B1 (ko) | 이미지 인식방법, 장치, 기기, 컴퓨터 저장매체 및 컴퓨터 프로그램 | |
US20230237841A1 (en) | Occlusion Detection | |
Siddiqi et al. | Depth camera-based facial expression recognition system using multilayer scheme | |
CN113343982B (zh) | 多模态特征融合的实体关系提取方法、装置和设备 | |
CN113591918B (zh) | 图像处理模型的训练方法、图像处理方法、装置和设备 | |
CN113221743A (zh) | 表格解析方法、装置、电子设备和存储介质 | |
CN113627439A (zh) | 文本结构化处理方法、处理装置、电子设备以及存储介质 | |
US20230036338A1 (en) | Method and apparatus for generating image restoration model, medium and program product | |
CN113379627A (zh) | 图像增强模型的训练方法和对图像进行增强的方法 | |
CN113793256A (zh) | 基于用户标签的动漫人物生成方法、装置、设备及介质 | |
CN113177449A (zh) | 人脸识别的方法、装置、计算机设备及存储介质 | |
JP2023543964A (ja) | 画像処理方法、画像処理装置、電子機器、記憶媒体およびコンピュータプログラム | |
CN114792355A (zh) | 虚拟形象生成方法、装置、电子设备和存储介质 | |
CN114926322B (zh) | 图像生成方法、装置、电子设备和存储介质 | |
CN113657518A (zh) | 训练方法、目标图像检测方法、装置、电子设备以及介质 | |
CN112508005A (zh) | 用于处理图像的方法、装置、设备以及存储介质 | |
CN114782708B (zh) | 图像生成方法、图像生成模型的训练方法、装置和设备 | |
CN115880506B (zh) | 图像生成方法、模型的训练方法、装置及电子设备 | |
CN115082598B (zh) | 文本图像生成、训练、文本图像处理方法以及电子设备 | |
CN114333038B (zh) | 对象识别模型的训练方法和对象识别方法、装置、设备 | |
CN113343997B (zh) | 光学字符识别方法、装置、电子设备和存储介质 | |
CN115082298A (zh) | 图像生成方法、装置、电子设备以及存储介质 | |
CN116311298A (zh) | 信息生成方法、信息处理方法、装置、电子设备以及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |