CN114299588A - 一种基于局部空间转换网络的实时目标编辑方法 - Google Patents
一种基于局部空间转换网络的实时目标编辑方法 Download PDFInfo
- Publication number
- CN114299588A CN114299588A CN202111654265.XA CN202111654265A CN114299588A CN 114299588 A CN114299588 A CN 114299588A CN 202111654265 A CN202111654265 A CN 202111654265A CN 114299588 A CN114299588 A CN 114299588A
- Authority
- CN
- China
- Prior art keywords
- image
- hole
- network
- target
- affine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000009466 transformation Effects 0.000 title claims abstract description 36
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims abstract description 47
- 238000012549 training Methods 0.000 claims abstract description 42
- 239000011159 matrix material Substances 0.000 claims abstract description 18
- 238000012360 testing method Methods 0.000 claims abstract description 17
- 238000005070 sampling Methods 0.000 claims abstract description 16
- 238000006243 chemical reaction Methods 0.000 claims abstract description 13
- 238000004519 manufacturing process Methods 0.000 claims abstract description 4
- 230000008439 repair process Effects 0.000 claims description 56
- 239000000463 material Substances 0.000 claims description 39
- 230000006870 function Effects 0.000 claims description 21
- 238000010586 diagram Methods 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000012952 Resampling Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 230000000873 masking effect Effects 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims 1
- 238000013135 deep learning Methods 0.000 abstract description 4
- 238000013519 translation Methods 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于局部空间转换网络的实时目标编辑方法,首先获取高分辨率图像并制作训练数据集和测试数据集,然后通过掩码转换网络获取目标掩码的仿射变换矩阵,并实现目标图像的采样再使用空洞修复网络修复图像空洞,最后通过获得的数据集训练并测试掩码转换网络和空洞修复网络。本发明MTN专注于掩码学习,可使用与业务无关的数据集训练网络模型,降低了构建数据集的成本和模型的训练成本,完成目标编辑任务的同时解决了传统深度学习方法中图像空洞的出现问题。
Description
技术领域
本发明涉及计算机视觉及数字图像处理领域,具体涉及一种基于局部空间转换网络的实时目标编辑方法。
背景技术
目标编辑是一种根据给定的目标区域执行特定图像编辑操作的方法。常见的图像编辑操作有平移、缩放等。目标编辑在休闲娱乐和图像编辑领域有着广泛应用,已成为是计算机视觉领域的一大研究热点。随着智能移动终端的普及,非专业拍照的业务场景越来越多,人们期待通过后期目标编辑修改图像以提升图像视觉效果。
最近几年,随着卷积神经网络在计算机视觉领域的成功应用,基于深度学习的目标编辑方法有了重大进步。然而,目前的目标编辑方法仍然存在局限性。具体来说,存在以下两个问题:一是深度学习方法需要大量与业务相关的数据集参与网络模型的训练,例如,针对人脸的目标编辑任务,我们需要使用人脸数据集参与训练。而并不是所有的数据集的方便收集。二是对目标的平移操作会造成图像空洞的出现,破坏图像完整性。
发明内容
为了解决现有技术中的上述问题,即数据集与任务强相关、图像编辑导致图像空洞的问题,本发明提供了一种基于局部空间转换网络的实时目标编辑方法,该方法通过以下几个步骤来实现:
步骤1,获取高分辨率图像并制作训练数据集和测试数据集。
步骤2,通过掩码转换网络(Mask Transformation Network,MTN)获取目标掩码的仿射变换矩阵,并实现目标图像的采样。
步骤3,使用空洞修复网络(Hole Repair Network)修复图像空洞。
步骤4,通过步骤1获得的数据集训练并测试掩码转换网络和空洞修复网络。
进一步的,步骤1中数据集应包含以下四类图像:源图像(Source Image,Isource)、源掩码(Sourcemask,Msource)、目标图像(Target Image,Itarget)和目标掩码(Targetmask,Mtarget),各类图像应有以下特征,首先,Isource由特定的对象(如猫、狗、自行车等)与背景组成;Msource为二值灰度图,用于标注Isource中对象的位置与轮廓;Mtarget由编辑后的对象与背景组成;Mtarget为二值灰度图,用于标注Itarget中对象的位置与轮廓。
进一步的,步骤1具体方法如下:
1-1.准备数据集素材。素材分为对象素材与背景素材,本发明使用开源数据集COCO-猫的目标对象作为对象素材,将开源风景数据集作为最终数据集的背景素材。
1-2.生成对象素材和对应的掩码。设置随机仿射矩阵,选用合适的参数范围。通过仿射变换生成两组图像,一组为源对象素材和源掩码Msource,另一组为目标对象素材和目标掩码Mtarget。在生成过程中保证对象素材不会超出图像边界,保证对象素材轮廓的完整性。
1-3.合成数据集。源图像Isource和目标图像Itarget由对应的对象素材It-obj、背景素材It-bg和掩码Mt通过掩码操作融合生成。掩码操作公式如下:
It=Mt*It-obj+(1-Mt)*It-bg,t∈(source,target)#(1)
最终得到5000组训练数据集和486组测试数据集。
进一步的,步骤2中,掩码转换网络MTN包括参数学习模块(Localisation net),采样网格生成模块(Grid generator),重采样模块(Sampler)和辅助训练模块(Auxiliarytraining module)。为了学习两个图像掩码之间的空间变换关系,使用参数学习模块学习两个掩码的仿射变换矩阵(Affine matrix),使用采样网格生成模块和重采样模块实现图像的目标区域坐标重采样,最后加入辅助训练模块保证参数学习模块的网络模型训练。
进一步的,步骤2具体方法如下:
2-1.搭建参数学习模块。
参数学习模块包含两个子模块,第一个子模块用于提取图像特征,由4个卷积层与一个自适应平均池化层组成,其中每个卷积层都使用ReLU激活函数,第二个和第四个卷积层使用跨步卷积,步长为2。第二个子模块使用全连层将图像特征图映射为仿射矩阵所需的6个参数。
2-2.采样。
通过仿射矩阵计算目标图像Itarget中目标对象区域像素点的坐标,生成坐标映射网格。根据坐标映射网格对源图像Isource采样,生成仿射图像(Affine transformationimage,Iaffine)和对应的仿射变换掩码(Affine transformation mask,Maffine)。
2-3.搭建辅助训练模块。
辅助训练模块用于辅助训练参数学习模块。该模块为自动编解码结构,编码器由四个卷积层组成,第一个和第三个卷积采用跨步卷积缩小特征图的空间尺寸;解码器由两个卷积层与两个上采样层组成,上采样层位于第一和第三层,同时编码器和解码器的每个卷积层都使用Leaky ReLU函数作为激活函数。
进一步的,步骤3具体方法如下:
使用空洞修复网络修复图像空洞。所述的空洞修复网络包含两个子修复网络:粗糙修复网络(Coarse)和细化修复网络(Refine)。粗糙修复网络生成粗修复图像,细化修复网络使用粗修复图像作为输入。
3-1.搭建粗糙修复网络模型和细化修复网络模型。
粗糙修复网络和细化修复网络使用相同的结构,以粗糙修复网络为例。网络模型采用自编码器结构,通过编码器(由2个跨步卷积层和若干个卷积层组成)生成特征图,然后使用4层跨步卷积层扩展网络模型感受野,便于该网络模型提取较远区域的图像特征来修补空洞,最后通过解码器(由2个上采样层和若干个卷积层组成)输出结果图。为了获得更好的修复效果,将所有基本卷积层替换为门控卷积层,以便在训练过程中自适应地选择重要特征。
3-2.粗糙修复网络用于修复仿射图像Iaffine中因目标编辑产生的空洞。通过源掩码Msource和仿射变换掩码Maffine计算空洞掩码Mhole,通过空洞掩码Mhole和仿射图像Iaffine计算空洞图像Ihole,粗糙修复网络的输入数据INcoarse为输入的仿射图像Iaffine、空洞图像Ihole和空洞掩码Mhole在通道维度拼接而成,计算公式如下。
Mhole=Msource|Maffine-Maffine#(2)
Ihole=Iaffine×(1-Mhole)+Mhole#(3)
INcoarse=(Ihole;Mhole)#(4)
3-3.使用粗糙修复网络模型生成粗修复图像Ic,保留Ic中空洞掩码Mhole区域图像,将背景使用仿射图像Iaffine替换,得到粗糙空洞修复图像Icoarse,细化修复网络的输入数据INrefine为粗糙空洞修复图像Icoarse与空洞掩码Mhole在通道维度拼接而成,计算公式如下。
Icoarse=Iaffine*(1-Mhole)+Ic*Mhole#(5)
INrefine=(Icoarse;Mhole)#(6)
3-4.使用细化修复网络模型生成细化修复图像Ir,由于粗糙空洞修复图像Icoarse比空洞图像Ihole拥有更多的特征信息,细化修复网络模型能进一步修复图像空洞的纹理细节。对于细化修复图像Ir同Ic一样使用仿射图像Iaffine替换背景,得到结果图像,计算公式如下:
Ioutput=Iaffine*(1-Mhole)+Ir*Mhole#(7)
进一步的,步骤4具体方法如下:
4-1.对于MTN,使用两种损失函数保证网络模型的训练,第一种是带权均方差损失函数,让网络专注于掩码区域的学习;第二种是掩码尺度损失函数,将网络生成的目标掩码区域面积与实际目标区域面积的距离作为损失,来保证网络对掩码位置与尺度的学习。
4-2.对于粗糙修复网络模型和细化修复网络模型,使用L1损失函数计算网络模型输出图像中Mhole区域的损失,不计算图像背景区域的损失。
4-3.通过步骤1获得的测试数据集对掩码转换网络和空洞修复网络进行测试。
本发明有益效果如下:
1)MTN专注于掩码学习,可使用与业务无关的数据集训练网络模型,降低了构建数据集的成本和模型的训练成本。
2)完成目标编辑任务的同时解决了传统深度学习方法中图像空洞的出现问题。
附图说明
图1为本发明实施例掩码转换网络结构示意图;
图2为本发明实施例目标编辑执行流程图;
图3为本发明实施例参数学习模块网络结构示意图;
图4为本发明实施例粗糙/细化修复网络结构示意图。
具体实施方法
以下结合附图与实施例对本发明方法进行进一步描述。
如图1、图2所示,一种基于局部空间转换网络的实时目标编辑方法,包括以下步骤:
步骤1,获取高分辨率图像并制作训练数据集和测试数据集。
数据集应包含以下四类图像:源图像(Source Image,Isource)、源掩码(Sourcemask,Isource)、目标图像(Target Image,Itarget)和目标掩码(Target mask,Mtarget),各类图像应有以下特征,首先,Isource由特定的对象(如猫、狗、自行车等)与背景组成;Msource为二值灰度图,用于标注Isource中对象的位置与轮廓;Mtarget由编辑后的对象与背景组成;Mtarget为二值灰度图,用于标注Itarget中对象的位置与轮廓。
1-1.准备数据集素材。素材分为对象素材与背景素材,本发明使用开源数据集COCO-猫的目标对象作为对象素材,将开源风景数据集作为最终数据集的背景素材。
1-2.生成对象素材和对应的掩码。设置随机仿射矩阵,选用合适的参数范围(本发明中缩放参数设置为0到2倍,平移参数设置为0到1倍)。通过仿射变换生成两组图像,一组为源对象素材和源掩码Msource,另一组为目标对象素材和目标掩码Mtarget。在生成过程中保证对象素材不会超出图像边界,保证对象素材轮廓的完整性。
1-3.合成数据集。源图像Isource和目标图像Itarget由对应的对象素材It-obj、背景素材It-bg和掩码Mt通过掩码操作融合生成。掩码操作公式如下:
It=Mt*It-obj+(1-Mt)*It-bg,t∈(source,target)#(1)
最终得到5000组训练数据集和486组测试数据集。
步骤2,通过掩码转换网络(Mask Transformation Network,MTN)获取目标掩码的仿射变换矩阵,并实现目标图像的采样。
图3为本发明实施例参数学习模块网络结构示意图;
掩码转换网络MTN包括参数学习模块(Localisation net),采样网格生成模块(Grid generator),重采样模块(Sampler)和辅助训练模块(Auxiliary trainingmodule),结构如图1所示。为了学习两个图像掩码之间的空间变换关系,使用参数学习模块学习两个掩码的仿射变换矩阵(Affine matrix),使用采样网格生成模块和重采样模块实现图像的目标区域坐标重采样,最后加入辅助训练模块保证参数学习模块的网络模型训练。
2-1.搭建参数学习模块。
参数学习模块包含两个子模块,第一个子模块用于提取图像特征,由4个卷积层与一个自适应平均池化层组成,其中每个卷积层都使用ReLU激活函数,第二个和第四个卷积层使用跨步卷积,步长为2。第二个子模块使用全连层将图像特征图映射为仿射矩阵所需的6个参数。
2-2.采样。
通过仿射矩阵计算目标图像Itarget中目标对象区域像素点的坐标,生成坐标映射网格。根据坐标映射网格对源图像Isource采样,生成仿射图像(Affine transformationimage,Iaffine)和对应的仿射变换掩码(Affine transformation mask,Maffine)。
2-3.搭建辅助训练模块。
辅助训练模块用于辅助训练参数学习模块。该模块为自动编解码结构,编码器由四个卷积层组成,第一个和第三个卷积采用跨步卷积缩小特征图的空间尺寸;解码器由两个卷积层与两个上采样层组成,上采样层位于第一和第三层,同时编码器和解码器的每个卷积层都使用LeakyReLU函数作为激活函数。
步骤3,使用空洞修复网络(Hole Repair Network)修复图像空洞。
使用空洞修复网络修复图像空洞。所述的空洞修复网络包含两个子修复网络:粗糙修复网络(Coarse)和细化修复网络(Refine)。粗糙修复网络生成粗修复图像,细化修复网络使用粗修复图像作为输入。
图4为本发明实施例粗糙/细化修复网络结构示意图;
3-1.搭建粗糙修复网络模型和细化修复网络模型。
粗糙修复网络和细化修复网络使用相同的结构,以粗糙修复网络为例。网络模型采用自编码器结构,通过编码器(由2个跨步卷积层和若干个卷积层组成)生成特征图,然后使用4层跨步卷积层扩展网络模型感受野,便于该网络模型提取较远区域的图像特征来修补空洞,最后通过解码器(由2个上采样层和若干个卷积层组成)输出结果图。为了获得更好的修复效果,将所有基本卷积层替换为门控卷积层,以便在训练过程中自适应地选择重要特征。
3-2.粗糙修复网络用于修复仿射图像Iaffine中因目标编辑产生的空洞。通过源掩码Msource和仿射变换掩码Maffine计算空洞掩码Mhole,通过空洞掩码Mhole和仿射图像Iaffine计算空洞图像Ihole,粗糙修复网络的输入数据INcoarse为输入的仿射图像Iaffine、空洞图像Ihole和空洞掩码Mhole在通道维度拼接而成,计算公式如下。
Mhole=Msource|Maffine-Maffine#(2)
Ihole=Iaffine×(1-Mhole)+Mhole#(3)
INcoarse=(Ihole;Mhole)#(4)
3-3.使用粗糙修复网络模型生成粗修复图像Ic,保留Ic中空洞掩码Mhole区域图像,将背景使用仿射图像Iaffine替换,得到粗糙空洞修复图像Icoarse,细化修复网络的输入数据INrefine为粗糙空洞修复图像Icoarse与空洞掩码Mhole在通道维度拼接而成,计算公式如下。
Icoarse=Iaffine*(1-Mhole)+Ic*Mhole#(5)
INrefine=(Icoarse;Mhole)#(6)
3-4.使用细化修复网络模型生成细化修复图像Ir,由于粗糙空洞修复图像Icoarse比空洞图像Ihole拥有更多的特征信息,细化修复网络模型能进一步修复图像空洞的纹理细节。对于细化修复图像Ir同Ic一样使用仿射图像Iaffine替换背景,得到结果图像,计算公式如下:
Ioutput=Iaffine*(1-Mhole)+Ir*Mhole#(7)
步骤4,通过步骤1获得的数据集训练并测试掩码转换网络和空洞修复网络。
4-1.对于MTN,使用两种损失函数保证网络模型的训练,第一种是带权均方差损失函数,让网络专注于掩码区域的学习;第二种是掩码尺度损失函数,将网络生成的目标掩码区域面积与实际目标区域面积的距离作为损失,来保证网络对掩码位置与尺度的学习。
4-2.对于粗糙修复网络模型和细化修复网络模型,使用L1损失函数计算网络模型输出图像中Mhole区域的损失,不计算图像背景区域的损失。
4-3.通过步骤1获得的测试数据集对掩码转换网络和空洞修复网络进行测试。
Claims (7)
1.一种基于局部空间转换网络的实时目标编辑方法,其特征在于,步骤如下:
步骤1,获取高分辨率图像并制作训练数据集和测试数据集;
步骤2,通过掩码转换网络(Mask Transformation Network,MTN)获取目标掩码的仿射变换矩阵,并实现目标图像的采样;
步骤3,使用空洞修复网络(Hole Repair Network)修复图像空洞;
步骤4,通过步骤1获得的数据集训练并测试掩码转换网络和空洞修复网络。
2.根据权利要求1所示的一种基于局部空间转换网络的实时目标编辑方法,其特征在于,步骤1中数据集应包含以下四类图像:源图像Isource、源掩码Msource、目标图像Itarget和目标掩码Mtarget,各类图像应有以下特征,首先,Isource由特定的对象与背景组成;Msource为二值灰度图,用于标注Isource中对象的位置与轮廓;Itarget由编辑后的对象与背景组成;Mtarget为二值灰度图,用于标注Itarget中对象的位置与轮廓。
3.根据权利要求2所示的一种基于局部空间转换网络的实时目标编辑方法,其特征在于,步骤1具体方法如下:
1-1.准备数据集素材;素材分为对象素材与背景素材,本发明使用开源数据集COCO-猫的目标对象作为对象素材,将开源风景数据集作为最终数据集的背景素材;
1-2.生成对象素材和对应的掩码;设置随机仿射矩阵,选用合适的参数范围;通过仿射变换生成两组图像,一组为源对象素材和源掩码Msource,另一组为目标对象素材和目标掩码Mtarget;在生成过程中保证对象素材不会超出图像边界,保证对象素材轮廓的完整性;
1-3.合成数据集;源图像Isource和目标图像Itarget由对应的对象素材It-obj、背景素材It-bg和掩码Mt通过掩码操作融合生成;掩码操作公式如下:
It=Mt*It-obj+(1-Mt)*It-bg,t∈(source,target) (1)
最终得到5000组训练数据集和486组测试数据集。
4.根据权利要求1所示的一种基于局部空间转换网络的实时目标编辑方法,其特征在于,步骤2中,掩码转换网络MTN包括参数学习模块,采样网格生成模块,重采样模块和辅助训练模块;为了学习两个图像掩码之间的空间变换关系,使用参数学习模块学习两个掩码的仿射变换矩阵,使用采样网格生成模块和重采样模块实现图像的目标区域坐标重采样,最后加入辅助训练模块保证参数学习模块的网络模型训练。
5.根据权利要求4所示的一种基于局部空间转换网络的实时目标编辑方法,其特征在于,步骤2具体方法如下:
2-1.搭建参数学习模块;
参数学习模块包含两个子模块,第一个子模块用于提取图像特征,由4个卷积层与一个自适应平均池化层组成,其中每个卷积层都使用ReLU激活函数,第二个和第四个卷积层使用跨步卷积,步长为2;第二个子模块使用全连层将图像特征图映射为仿射矩阵所需的6个参数;
2-2.采样;
通过仿射矩阵计算目标图像Itarget中目标对象区域像素点的坐标,生成坐标映射网格;根据坐标映射网格对源图像Isource采样,生成仿射图像Iaffine和对应的仿射变换掩码Maffine;
2-3.搭建辅助训练模块;
辅助训练模块用于辅助训练参数学习模块;该模块为自动编解码结构,编码器由四个卷积层组成,第一个和第三个卷积采用跨步卷积缩小特征图的空间尺寸;解码器由两个卷积层与两个上采样层组成,上采样层位于第一和第三层,同时编码器和解码器的每个卷积层都使用Leaky ReLU函数作为激活函数。
6.根据权利要求1所示的一种基于局部空间转换网络的实时目标编辑方法,其特征在于,步骤3具体方法如下:
使用空洞修复网络修复图像空洞;所述的空洞修复网络包含两个子修复网络:粗糙修复网络和细化修复网络;粗糙修复网络生成粗修复图像,细化修复网络使用粗修复图像作为输入;
3-1.搭建粗糙修复网络模型和细化修复网络模型;
粗糙修复网络和细化修复网络使用相同的结构,以粗糙修复网络为例;网络模型采用自编码器结构,通过编码器生成特征图,然后使用4层跨步卷积层扩展网络模型感受野,便于该网络模型提取较远区域的图像特征来修补空洞,最后通过解码器输出结果图;为了获得更好的修复效果,将所有基本卷积层替换为门控卷积层,以便在训练过程中自适应地选择重要特征;
3-2.粗糙修复网络用于修复仿射图像Iaffine中因目标编辑产生的空洞;通过源掩码Msource和仿射变换掩码Maffine计算空洞掩码Mhole,通过空洞掩码Mhole和仿射图像Iaffine计算空洞图像Ihole,粗糙修复网络的输入数据INcoarse为输入的仿射图像Iaffine、空洞图像Ihole和空洞掩码Mhole在通道维度拼接而成,计算公式如下;
Mhole=Msource|Maffine-Maffine (2)
Ihole=Iaffine×(1-Mhole)+Mhole (3)
INcoarse=(Ihole;Mhole) (4)
3-3.使用粗糙修复网络模型生成粗修复图像Ic,保留Ic中空洞掩码Mhole区域图像,将背景使用仿射图像Iaffine替换,得到粗糙空洞修复图像Icoarse,细化修复网络的输入数据INrefine为粗糙空洞修复图像Icoarse与空洞掩码Mhole在通道维度拼接而成,计算公式如下;
Icoarse=Iaffine*(1-Mhole)+Ic*Mhole (5)
INrefine=(Icoarse;Mhole) (6)
3-4.使用细化修复网络模型生成细化修复图像Ir,由于粗糙空洞修复图像Icoarse比空洞图像Ihole拥有更多的特征信息,细化修复网络模型能进一步修复图像空洞的纹理细节;对于细化修复图像Ir同Ic一样使用仿射图像Iaffine替换背景,得到结果图像,计算公式如下:
Ioutput=Iaffine*(1-Mhole)+Ir*Mhole (7)。
7.根据权利要求1所示的一种基于局部空间转换网络的实时目标编辑方法,其特征在于,步骤4具体方法如下:
4-1.对于掩码转换网络MTN,使用两种损失函数保证网络模型的训练,第一种是带权均方差损失函数,让网络专注于掩码区域的学习;第二种是掩码尺度损失函数,将网络生成的目标掩码区域面积与实际目标区域面积的距离作为损失,来保证网络对掩码位置与尺度的学习;
4-2.对于粗糙修复网络模型和细化修复网络模型,使用L1损失函数计算网络模型输出图像中Mhole区域的损失,不计算图像背景区域的损失;
4-3.通过步骤1获得的测试数据集对掩码转换网络和空洞修复网络进行测试。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111654265.XA CN114299588B (zh) | 2021-12-30 | 2021-12-30 | 一种基于局部空间转换网络的实时目标编辑方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111654265.XA CN114299588B (zh) | 2021-12-30 | 2021-12-30 | 一种基于局部空间转换网络的实时目标编辑方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114299588A true CN114299588A (zh) | 2022-04-08 |
CN114299588B CN114299588B (zh) | 2024-05-10 |
Family
ID=80974214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111654265.XA Active CN114299588B (zh) | 2021-12-30 | 2021-12-30 | 一种基于局部空间转换网络的实时目标编辑方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114299588B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111223040A (zh) * | 2020-01-09 | 2020-06-02 | 北京市商汤科技开发有限公司 | 网络训练方法及装置、图像生成方法及装置 |
CN111814566A (zh) * | 2020-06-11 | 2020-10-23 | 北京三快在线科技有限公司 | 图像编辑方法、装置、电子设备及存储介质 |
CN113538608A (zh) * | 2021-01-25 | 2021-10-22 | 哈尔滨工业大学(深圳) | 基于生成对抗网络的可控人物图像生成方法 |
-
2021
- 2021-12-30 CN CN202111654265.XA patent/CN114299588B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111223040A (zh) * | 2020-01-09 | 2020-06-02 | 北京市商汤科技开发有限公司 | 网络训练方法及装置、图像生成方法及装置 |
CN111814566A (zh) * | 2020-06-11 | 2020-10-23 | 北京三快在线科技有限公司 | 图像编辑方法、装置、电子设备及存储介质 |
CN113538608A (zh) * | 2021-01-25 | 2021-10-22 | 哈尔滨工业大学(深圳) | 基于生成对抗网络的可控人物图像生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114299588B (zh) | 2024-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115601549B (zh) | 基于可变形卷积和自注意力模型的河湖遥感图像分割方法 | |
CN111292264B (zh) | 一种基于深度学习的图像高动态范围重建方法 | |
CN109584325B (zh) | 一种基于u型周期一致对抗网络的动漫图像的双向色彩化方法 | |
CN110163801B (zh) | 一种图像超分辨和着色方法、系统及电子设备 | |
CN110223382B (zh) | 基于深度学习的单帧图像自由视点三维模型重建方法 | |
CN110910390A (zh) | 一种基于深度畸变卷积的全景三维彩色点云语义分割方法 | |
CN113392584B (zh) | 基于深度强化学习和方向估计的视觉导航方法 | |
CN111862294A (zh) | 基于ArcGAN网络的手绘3D建筑自动上色网络结构及方法 | |
CN115619685A (zh) | 一种用于图像修复的追踪结构的Transformer方法 | |
CN112950475A (zh) | 一种基于残差学习及空间变换网络的光场超分辨率重建方法 | |
CN112200720A (zh) | 一种基于滤波器融合的超分辨率图像重建方法及系统 | |
CN111161158A (zh) | 一种基于新生成网络结构的图像修复方法 | |
CN111144491A (zh) | 图像处理方法、装置及电子系统 | |
CN114882524A (zh) | 一种基于全卷积神经网络的单目三维手势估计方法 | |
CN112348972A (zh) | 一种基于大规模场景三维模型精细语义标注方法 | |
CN113034388A (zh) | 一种古代绘画虚拟修复方法及修复模型的构建方法 | |
CN114299588B (zh) | 一种基于局部空间转换网络的实时目标编辑方法 | |
CN115331083B (zh) | 基于逐步密集特征融合去雨网络的图像去雨方法及系统 | |
CN116823647A (zh) | 基于快速傅里叶变换和选择性注意力机制的图像补全方法 | |
CN116362995A (zh) | 一种基于标准先验的牙齿图像修复方法和系统 | |
CN114331894B (zh) | 一种基于潜在特征重构和掩模感知的人脸图像修复方法 | |
CN115578260A (zh) | 针对图像超分辨率的方向解耦的注意力方法和系统 | |
CN115527258A (zh) | 一种基于身份信息响应的人脸交换方法 | |
CN114529450A (zh) | 基于改进深度迭代协作网络的人脸图像超分辨方法 | |
CN114881849A (zh) | 一种联合单目深度估计的深度图像超分辨率重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |