CN110310221B - 一种基于生成对抗网络的多域图像风格迁移方法 - Google Patents
一种基于生成对抗网络的多域图像风格迁移方法 Download PDFInfo
- Publication number
- CN110310221B CN110310221B CN201910515527.0A CN201910515527A CN110310221B CN 110310221 B CN110310221 B CN 110310221B CN 201910515527 A CN201910515527 A CN 201910515527A CN 110310221 B CN110310221 B CN 110310221B
- Authority
- CN
- China
- Prior art keywords
- image
- style
- content
- real
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013508 migration Methods 0.000 title claims abstract description 56
- 230000005012 migration Effects 0.000 title claims abstract description 56
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000006243 chemical reaction Methods 0.000 claims abstract 2
- 230000006870 function Effects 0.000 claims description 10
- 238000005457 optimization Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000002457 bidirectional effect Effects 0.000 abstract description 5
- 238000013461 design Methods 0.000 abstract description 2
- 238000002474 experimental method Methods 0.000 abstract description 2
- 239000000284 extract Substances 0.000 abstract description 2
- 238000012546 transfer Methods 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 238000001994 activation Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 125000003118 aryl group Chemical group 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 230000008485 antagonism Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 241001441571 Hiodontidae Species 0.000 description 1
- 229910000792 Monel Inorganic materials 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 101150083127 brox gene Proteins 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G06T3/04—
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于生成对抗网络的多域图像风格迁移方法,属于计算机视觉领域,用来实现图像到多种不同艺术风格的转换。本发明设计了一个专家风格网络,通过一组双向重构损失,来抽取不同目标域的输入图像中包含各自域独特信息的风格特征编码。同时设计了一个迁移网络,结合自适应实例标准化,将抽取到的风格特征编码与内容编码器提取到的跨域共享的语义内容重新组合,生成新的图像,从而实现图像从源域到多个目标域的风格迁移。实验表明模型能够有效地将任意照片的内容与众多艺术品的风格相结合,产生新的图像。
Description
技术领域
本发明属于计算机视觉领域,涉及一种基于生成对抗网络的多域图像风格迁移方法。
背景技术
近年来,由深度学习引领的人工智能技术,开始广泛地应用于各个领域。其中,深度学习与艺术的碰撞,引起了研究者们的高度关注。以相关技术为基础的各种图像处理软件和应用也吸引了海量的用户。其中最核心的就是基于深度学习的图像风格迁移。深度学习可以捕获一个图像的内容并将其与另一个图像的风格相结合,这种技术就称为风格迁移。
风格迁移问题源于非照片般逼真的渲染(Kyprianidis J E,Collomosse J,WangT,et al.State of the art:A taxonomy of artistic stylization techniques forimages and video.TVCG,2013.),并且与纹理合成和转移密切相关(Efros A A,Freeman WT.Image quilting for texture synthesis and transfer.In SIGGRAPH,2001.)。一些早期方法包括线性滤波器响应的直方图匹配和非参数采样。这些方法通常依赖于低级统计信息,并且通常无法捕获语义结构。
Gatys等人首次通过匹配DNN的卷积层中的特征统计来展示令人印象深刻的样式迁移结果(Gatys L A,Ecker A S,Bethge M.Image style transfer usingconvolutional neural networks.In CVPR,2016.)。Li和Wand在深度特征空间中引入了基于马尔可夫随机场(MRF)的框架来强制执行局部模式(Li C,Wand M.Combining markovrandom fields and convolutional neural networks for image synthesis.In CVPR,2016.)。Ruder等人通过施加时间约束来改善视频风格迁移的质量(Ruder M,DosovitskiyA,Brox T.Artistic style transfer for videos.In GCPR,2016)。
Gatys等人的框架基于缓慢优化过程,该过程迭代地更新图像来最小化由损失网络计算的内容损失和风格损失。即使使用现代GPU,也可能需要几分钟才能收敛。因此,移动应用中的设备上处理太慢而不实用。常见的解决方法是使用前馈神经网络来替换优化过程,该网络是训练来最小化相同目标损失的(Johnson J,Alahi A,Fei-Fei L.Perceptuallosses for real-time style transfer and super-resolution.In ECCV,2016.)。这些前馈式传输方法比基于优化的替代方案快三个数量级,为实时应用打开了大门。
Ulyanov等人提出了改善生成样本的质量和多样性的方法(Ulyanov D,VedaldiA,Lempitsky V.Improved texture networks:Maximizing quality and diversity infeed-forward stylization and texture synthesis.In CVPR,2017.)。然而,上述前馈方法在每个网络都与固定风格相关联的意义上受到限制。为了解决这个问题,Dumoulin等人引入了一个能够编码32种风格及其插值的网络(Dumoulin V,Shlens J,Kudlur M.Alearned representation for artistic style.In ICLR,2017)。但是,上述方法无法适应训练期间未观察到的任意风格。
最近,Chen和Schmidt引入了一种前馈方法,可以通过风格交换层传输任意风格(Chen T Q,Schmidt M.Fast patch-based style transfer of arbitrary style.arXivpreprint arXiv:1612.04337,2016.)。在给定内容和风格图像的特征激活的情况下,风格交换层以逐个补丁的方式用最接近匹配的风格特征替换内容特征。然而,他们的风格交换层创造了一个新的计算瓶颈:对于512*512的图片来说,超过95%的计算花费在风格交换上。
风格迁移的另一个核心问题是使用何种风格损失函数。Gatys等人的原始框架通过匹配由Gram矩阵捕获的特征激活之间的二阶统计来匹配风格。
其他提出的有效的损失函数,例如MRF损失,对抗性损失,直方图损失以及通道均值和方差之间的距离。注意,所有上述损失函数旨在匹配风格图像和合成图像之间的一些特征统计。
近几年,生成对抗网络(Generative Adversarial Networks,GANs)被逐渐应用到图像风格迁移问题上,并且已在风格迁移问题上取得了显著的成绩。如CycleGAN利用两组生成器和判别器,通过循环一致性损失,有效地学习了源域和目标域之间的映射和逆映射,并在风格迁移问题上取得了不错的成绩(Zhu J Y,Park T,Isola P,et al.Unpairedimage-to-image translation using cycle-consistent adversarial networks.InICCV.2017,2242-2251.)。
但是,CycleGAN存在一个重要的问题,就是输出缺乏多样性,只能模拟确定的分布。而在处理多域风格迁移问题时,需要为每对图像域单独地构建和训练模型。因此,针对这一问题,最近的一些研究提出了几个新的方法和模型。Anoosheh等人则在CycleGAN的基础上提出了ComboGAN,一种多分量图像转换模型和训练方案,它的资源消耗以及训练所需的时间与域的数量呈线形比例(Anoosheh A,Agustsson E,Timofte R,et al.Combogan:Unrestrained scalability for image domain translation.In CVPR.2018,783-790.)。
针对上述问题,本发明提出了一种基于GAN的多域图像风格迁移方法,用于实现图像从源域到多个目标域的风格迁移。该网络设计了一个专家风格网络,通过一组双向重构损失,来抽取输入的不同目标域的图像中包含各自域独特信息的风格特征编码。同时通过一个迁移网络,结合自适应实例标准化(Adaptive Instance Normalization,AdaIN),将抽取到的风格特征编码与源域图像的语义信息重新组合,生成新的图像,从而实现图像从源域到多个目标域的风格迁移。实验表明模型能够有效地将任意照片的内容与众多艺术品的风格相结合,产生新的图像。
发明内容
在风格迁移任务中,关键的两点是如何有效地学习到图像的风格信息,以及如何有效地将风格信息融合到图像的语义信息中。针对这两个问题,本发明提出一种基于GAN的多域图像风格迁移方法,用于实现图像从源域到多个目标域的风格迁移。该方法充分发挥了GAN的优势,借助一组双向重构损失和自适应实例标准化,成功地将照片的内容与众多艺术品的风格相结合,产生新的图像。
本发明的技术方案:
一种基于生成对抗网络的多域图像风格迁移方法,包括如下步骤:
步骤一图像的预处理:通过Python的图像处理模块,对真实图像xi,i=1,2,...,n进行统一的处理,并把它们缩放为统一的像素大小。特别注意的是,将真实图像x1称为真实的源域图像,将真实图像xi,i=2,...,n称为真实的目标域图像。
步骤二提取语义内容:将真实的源域图像x1输入到内容编码器Ec中。Ec通过解码真实的源域图像x1,抽取出在迁移过程中共享的语义内容,即内容特征c1=Ec(x1)。
步骤三提取风格特征:将真实图像xi,i=1,2,...,n分别输入到风格编码器Es中。Es通过解码图像,抽取出包含各个域独特信息的风格特征si=Es(xi),i=1,2,..,n。
步骤四生成图像:将抽取出的内容特征c1和抽取出的风格特征si输入到迁移网络T中,迁移网络将内容特征与风格特征重新组合,生成新的图像,该图像具有真实的源域图像x1的内容特征和真实图像xi,i=1,2,...,n的风格特征。同时,我们从高斯分布中随机采样风格特征sri,同样将内容特征c1和随机采样来的风格特征sri输入到迁移网络T中,生成新的图像。
步骤五判别图像:将步骤四中生成的两种新的图像均输入判别器D进行判别,判别器将区分输入图像是真实图像,还是风格迁移后的图像。
步骤六计算损失函数:为了学习风格编码器Es、内容编码器Ec和迁移网络T,我们使用一组双向重构损失,即自重构损失和内容特征重构损失风格特征重构损失来鼓励风格编码器Es、内容编码器Ec和迁移网络T的学习。
其中,i=2,..,n,x1是真实的源域图像,p(x1)是x1的分布,c1是内容特征,p(c1)是c1的分布,sri是随机采样的风格特征,q(sri)是sri的分布,服从高斯分布。
其中,i=2,..,n,si是抽取出的风格特征,p(si)是si的分布,xi是真实的目标域图像,p(xi)是xi的数据分布,D(xi)表示判别真实图像。
步骤七网络优化及参数调整:模型通过一个联合损失函数L(Ec,Es,T,D),采用Adam优化算法,更新Ec,Es,T和D的网络参数。
其中,λ1,λ2,λ3,λ4为超参数。
步骤八重复T次步骤二至步骤七。
步骤九测试阶段,将真实的源域图像x1输入内容编码器,将任意的真实的目标域图像xi输入风格编码器,经过迁移网络T转换后,即可得到具有源域内容与目标域风格的图像。
本发明的有益效果:基于GAN的多域图像风格迁移方法充分发挥了GAN的优势,借助一组双向重构损失和自适应实例标准化,该模型能够稳定地进行训练,并成功地将照片的内容与众多艺术品的风格相结合,产生新的图像。
附图说明
图1是基于生成对抗网络的多域图像风格迁移方法示意图;
图2是风格编码器的结构示意图;
图3是迁移网络的结构示意图;
图4基于生成对抗网络的多域图像风格迁移方法的结果样例。其中(a)和(d)是提供内容的真实的源域图像,(b-1)、(b-2)、(b-3)和(e-1)、(e-2)、(e-3)分别是提供风格的真实的目标域图像,(c-1)、(c-2)、(c-3)和(f-1)、(f-2)、(f-3)分别是结合了对应内容和风格的迁移结果。
具体实施方式
本发明提供一种基于生成对抗网络的多域图像风格迁移方法。所论述的具体实施例仅用于说明本发明的实现方式,而不限制本发明的范围。下面结合附图对本发明的实施方式进行详细说明,具体包括以下步骤:
1.图像的预处理:以将照片转换到具有莫奈、浮世绘和梵高风格的迁移任务为例。从真实数据分布xi,i=1,2,3,4中采样得到真实图像xi,其中,我们将真实图像x1称为真实的源域图像,即像素大小为256*256的真实场景的照片;将真实图像xi,i=2,3,4称为真实的目标域图像,即像素大小为256*256的莫奈、浮世绘和梵高的作品。使用Python的图像处理模块,对真实的源域图像x1和真实的目标域图像xi,i=2,3,4进行统一的处理,同时对图像像素值进行了归一化处理。
2.提取语义内容:将归一化好的真实的源域图像x1输入到内容编码器Ec中。Ec通过解码x1,抽取出在迁移过程中,在不同域之间保持不变的语义内容,即内容特征c1=Ec(x1),包含对象的类别、形状和空间布局等公共信息。
3.提取风格特征:将真实的源域图像x1和真实的目标域图像xi,i=2,3,4分别输入到风格编码器Es中。Es通过解码真实图像,抽取出包含各个域独特信息,如颜色和纹理的风格特征si=Es(xi),i=1,2,..,n。我们将风格特征的大小设置为8维。
风格编码器Es的结构如图2所示。首先是一个通道数为64,步长为2的卷积层,接着是3个下采样是平均池化层的残差块,通道数如图所示,其中激活函数均采用LeakyReLU,其斜率设为0.2。之后是一个全局平均池化层(global average pooling,GAP),一个全连接层(fully connected layer,FC),最后输出一个8维的风格特征向量。
4.生成图像:将抽取出的内容特征c1和抽取出的风格特征si输入到迁移网络T中,迁移网络将内容特征与风格特征重新组合,生成新的图像x1→i=T(c1,si),该图像具有真实的源域图像x1的内容特征和真实图像xi,i=1,2,...,n的风格特征,大小为256*256。同时,我们从高斯分布中随机采样风格特征sri,同样将内容特征c1和随机采样来的风格特征sri输入到迁移网络T中,生成新的图像,大小同样为256*256。
受最近在标准化层中使用仿射变换参数来表示风格样式的工作的启发,我们在T的残差块中应用了AdaIN层,通过风格特征来标准化内容特征,从而生成目标特征图。最后通过上采样将目标特征图解码得到输出图像。由于不同的仿射参数以不同的方式标准化特征统计,通过使用不同目标域中的图像作为输入,我们可以将源域中的图像转换为具有不同风格的图像。
迁移网络T的结构图如图3所示。首先是4层具有AdaIN的残差块,之后是3层反卷积层,每层的通道数和步长如图所示。
5.判别图像:将步骤四中生成的两种新的图像均输入判别器D进行判别,判别器将区分输入图像是真实图像,还是风格迁移后的图像。我们采用Wang等人提出的多尺度判别器(Wang T C,Liu M Y,Zhu J Y,et al.High-resolution image synthesis andsemantic manipulation with conditional gans.In CVPR.2018,8798-8807.)。通过3个结构相同的判别器D1,D2和D3在不同尺度对图像进行判别,来引导迁移网络T生成具有逼真的细节和正确的全局结构的图像。具体来说,将真实图像和生成的图像下采样2倍和4倍,以创建3个尺度的图像金字塔。然后训练判别器D1,D2和D3以分别在3个不同的尺度上区分真实图像和生成图像。
6.计算损失函数:为了学习风格编码器Es、内容编码器Ec和迁移网络T,我们使用一组双向重构损失,即自重构损失和内容特征重构损失风格特征重构损失来鼓励两个方向的重构:图像-潜在特征-图像和潜在特征-图像-潜在特征。全部的重构损失都使用L1距离来计算,因为它能够产生更加锐利的输出图像。此外,为了将生成图像的分布匹配到目标域图像的分布,我们还采用了对抗性损失。
其中,x1是真实图像,p(x1)是真实图像x1的分布。
其中,i=2,..,n,c1是内容特征,p(c1)是内容特征的分布,sri是随机采样的风格特征,q(sri)是sri的分布,服从高斯分布。
内容重构损失鼓励转换后的图像保留输入图像的语义内容。而风格重构损失则鼓励图像和隐空间之间的可逆映射,同时,采用不同的风格特征编码有助于鼓励多样化的输出。
其中,i=2,..,n,si是抽取出的风格特征,p(si)是si的分布,D(xi)表示判别真实图像。
7.网络优化及参数调整:所有网络模块,包括内容编码器、风格编码器、迁移网络和判别器,通过一个联合损失函数L(Ec,Es,T,D),采用Adam优化算法,更新Ec,Es,T和D的网络参数,其中,学习率设置为0.0001,指数衰减率β1=0.5,β2=0.999。
其中,λ1,λ2,λ3,λ4为超参数,考虑到各损失项的数量级不同,为了使各项均发挥作用,我们将超参数进行了适当的设置:λ1=1,λ2=100,λ3=10,λ4=10。
8.重复T次步骤2至步骤7。
9.测试阶段,将真实的源域图像x1,如图4中的(a),输入内容编码器,将任意的真实的目标域图像xi,如图4中的(b-1),输入风格编码器,经过迁移网络T转换后,即可得到具有源域内容与目标域风格的图像,如图4中的(c-1)。
Claims (1)
1.一种基于生成对抗网络的多域图像风格迁移方法,其特征在于,包括如下步骤:
步骤一图像的预处理
通过Python的图像处理模块,对真实图像xi,i=1,2,...,n进行统一的处理,并把它们缩放为统一的像素大小;其中,将真实图像x1称为真实的源域图像,将真实图像xi,i=2,...,n称为真实的目标域图像;
步骤二提取语义内容
将真实的源域图像x1输入到内容编码器Ec中;Ec通过解码真实的源域图像x1,抽取出在迁移过程中共享的语义内容,即内容特征c1=Ec(x1);
步骤三提取风格特征
将真实图像xi,i=1,2,...,n分别输入到风格编码器Es中;Es通过解码图像,抽取出包含各个域独特信息的风格特征si=Es(xi),i=1,2,..,n;
步骤四生成图像
将抽取出的内容特征c1和抽取出的风格特征si输入到迁移网络T中,迁移网络将内容特征与风格特征重新组合,生成新的图像,该图像具有真实的源域图像x1的内容特征和真实图像xi,i=1,2,...,n的风格特征;从高斯分布中随机采样风格特征sri,将内容特征c1和随机采样来的风格特征sri输入到迁移网络T中,生成新的图像;
步骤五判别图像
将步骤四中生成的两种新的图像均输入判别器D进行判别,判别器将区分输入图像是真实图像,还是风格迁移后的图像;
步骤六计算损失函数
其中,p(x1)是x1的分布,p(c1)是c1的分布,q(sri)是sri的分布,服从高斯分布;
其中,p(si)是si的分布,p(xi)是xi的数据分布,D(xi)表示判别真实图像;
步骤七网络优化及参数调整
模型通过一个联合损失函数L(Ec,Es,T,D),采用Adam优化算法,更新Ec,Es,T和D的网络参数:
其中,λ1,λ2,λ3,λ4为超参数;
步骤八重复T次步骤二至步骤七;
步骤九测试阶段
将真实的源域图像x1输入内容编码器,将任意的真实的目标域图像xi输入风格编码器,经过迁移网络T转换后,即得到具有源域内容与目标域风格的图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910515527.0A CN110310221B (zh) | 2019-06-14 | 2019-06-14 | 一种基于生成对抗网络的多域图像风格迁移方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910515527.0A CN110310221B (zh) | 2019-06-14 | 2019-06-14 | 一种基于生成对抗网络的多域图像风格迁移方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110310221A CN110310221A (zh) | 2019-10-08 |
CN110310221B true CN110310221B (zh) | 2022-09-20 |
Family
ID=68077154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910515527.0A Active CN110310221B (zh) | 2019-06-14 | 2019-06-14 | 一种基于生成对抗网络的多域图像风格迁移方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110310221B (zh) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110992252B (zh) * | 2019-11-29 | 2023-05-12 | 北京航空航天大学合肥创新研究院 | 一种基于潜变量特征生成的图像多风格转化方法 |
CN111127309B (zh) * | 2019-12-12 | 2023-08-11 | 杭州格像科技有限公司 | 肖像风格迁移模型训练方法、肖像风格迁移方法以及装置 |
CN111161239B (zh) * | 2019-12-27 | 2024-02-27 | 上海联影智能医疗科技有限公司 | 医学图像分析方法、装置、存储介质及计算机设备 |
CN111275713B (zh) * | 2020-02-03 | 2022-04-12 | 武汉大学 | 一种基于对抗自集成网络的跨域语义分割方法 |
CN111402118B (zh) * | 2020-03-17 | 2023-03-24 | 腾讯科技(深圳)有限公司 | 图像替换方法、装置、计算机设备和存储介质 |
CN111539255B (zh) * | 2020-03-27 | 2023-04-18 | 中国矿业大学 | 基于多模态图像风格转换的跨模态行人重识别方法 |
CN111724299B (zh) * | 2020-05-21 | 2023-08-08 | 同济大学 | 一种基于深度学习的超现实主义绘画图像风格迁移方法 |
CN111783610B (zh) * | 2020-06-23 | 2022-03-15 | 西北工业大学 | 一种基于解纠缠图像迁移的跨域人群计数方法 |
CN111815506A (zh) * | 2020-07-17 | 2020-10-23 | 上海眼控科技股份有限公司 | 图像生成方法、装置、计算机设备和存储介质 |
CN112017301A (zh) * | 2020-07-24 | 2020-12-01 | 武汉纺织大学 | 用于服装图像特定相关区域的风格迁移模型及方法 |
CN112184846A (zh) * | 2020-09-16 | 2021-01-05 | 上海眼控科技股份有限公司 | 图像生成方法、装置、计算机设备和可读存储介质 |
CN112232485B (zh) * | 2020-10-15 | 2023-03-24 | 中科人工智能创新技术研究院(青岛)有限公司 | 漫画风格图像转换模型的训练方法、图像生成方法及装置 |
CN112383765B (zh) * | 2020-11-10 | 2023-04-07 | 中移雄安信息通信科技有限公司 | 一种vr图像传输方法及装置 |
CN112633071B (zh) * | 2020-11-30 | 2022-09-16 | 之江实验室 | 基于数据风格解耦内容迁移的行人重识别数据域适应方法 |
CN112561785B (zh) * | 2020-12-21 | 2021-11-16 | 东华大学 | 基于风格迁移的丝绸文物图像数据扩充方法 |
CN112766079B (zh) * | 2020-12-31 | 2023-05-26 | 北京航空航天大学 | 一种基于内容风格分离的无监督图像到图像翻译方法 |
CN112669308A (zh) * | 2021-01-06 | 2021-04-16 | 携程旅游信息技术(上海)有限公司 | 基于风格迁移的图像生成方法、系统、设备及存储介质 |
CN112802160B (zh) * | 2021-01-12 | 2023-10-17 | 西北大学 | 一种基于u-gat-it改进的秦腔角色卡通化风格迁移的方法 |
CN112883806B (zh) * | 2021-01-21 | 2024-03-22 | 杭州广电云网络科技有限公司 | 基于神经网络的视频风格迁移方法、装置、计算机设备和存储介质 |
CN112967174B (zh) * | 2021-01-21 | 2024-02-09 | 北京达佳互联信息技术有限公司 | 图像生成模型训练、图像生成方法、装置及存储介质 |
CN112884636B (zh) * | 2021-01-28 | 2023-09-26 | 南京大学 | 一种自动生成风格化视频的风格迁移方法 |
CN112861806B (zh) * | 2021-03-17 | 2023-08-22 | 网易(杭州)网络有限公司 | 基于生成对抗网络的字体数据处理方法及装置 |
CN113111947B (zh) * | 2021-04-16 | 2024-04-09 | 北京沃东天骏信息技术有限公司 | 图像处理方法、装置和计算机可读存储介质 |
CN113436060B (zh) * | 2021-06-29 | 2023-03-10 | 东莞理工学院 | 一种异源遥感图像风格迁移方法和装置 |
CN113537401B (zh) * | 2021-08-13 | 2022-08-02 | 哈尔滨工程大学 | 一种基于改进的生成对抗网络的水下图像翻译方法 |
CN113822236A (zh) * | 2021-11-22 | 2021-12-21 | 杭州云栖智慧视通科技有限公司 | 一种基于人体语义部件的上衣颜色替换方法 |
CN113837934B (zh) * | 2021-11-26 | 2022-02-22 | 北京市商汤科技开发有限公司 | 图像生成方法及装置、电子设备和存储介质 |
CN114882220B (zh) * | 2022-05-20 | 2023-02-28 | 山东力聚机器人科技股份有限公司 | 基于域自适应先验知识引导gan的图像生成方法及系统 |
CN115795039B (zh) * | 2023-02-08 | 2023-06-02 | 成都索贝数码科技股份有限公司 | 基于深度学习的风格标题生成方法、设备及介质 |
CN116137060B (zh) * | 2023-04-20 | 2023-07-18 | 城云科技(中国)有限公司 | 一种同场景多风格图像匹配方法、装置及应用 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106651766A (zh) * | 2016-12-30 | 2017-05-10 | 深圳市唯特视科技有限公司 | 一种基于深度卷积神经网络的图像风格迁移方法 |
CN107705242A (zh) * | 2017-07-20 | 2018-02-16 | 广东工业大学 | 一种结合深度学习与深度感知的图像风格化迁移方法 |
CN109753992A (zh) * | 2018-12-10 | 2019-05-14 | 南京师范大学 | 基于条件生成对抗网络的无监督域适应图像分类方法 |
-
2019
- 2019-06-14 CN CN201910515527.0A patent/CN110310221B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106651766A (zh) * | 2016-12-30 | 2017-05-10 | 深圳市唯特视科技有限公司 | 一种基于深度卷积神经网络的图像风格迁移方法 |
CN107705242A (zh) * | 2017-07-20 | 2018-02-16 | 广东工业大学 | 一种结合深度学习与深度感知的图像风格化迁移方法 |
CN109753992A (zh) * | 2018-12-10 | 2019-05-14 | 南京师范大学 | 基于条件生成对抗网络的无监督域适应图像分类方法 |
Non-Patent Citations (2)
Title |
---|
基于生成对抗网络的HDR图像风格迁移技术;谢志峰等;《上海大学学报(自然科学版)》;20180831(第04期);全文 * |
基于生成对抗网络的图片风格迁移;许哲豪等;《软件导刊》;20180529(第06期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110310221A (zh) | 2019-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110310221B (zh) | 一种基于生成对抗网络的多域图像风格迁移方法 | |
CN110335193B (zh) | 一种基于生成对抗网络的目标域导向的无监督图像转换方法 | |
Li et al. | Embedding Image Through Generated Intermediate Medium Using Deep Convolutional Generative Adversarial Network. | |
Huang et al. | Underwater image enhancement via adaptive group attention-based multiscale cascade transformer | |
Anvari et al. | Dehaze-GLCGAN: unpaired single image de-hazing via adversarial training | |
CN112884758B (zh) | 一种基于风格迁移方法的缺陷绝缘子样本生成方法及系统 | |
Chen et al. | Domain adaptation for underwater image enhancement via content and style separation | |
CN115936992A (zh) | 一种轻量级Transformer的垃圾图像超分辨方法及系统 | |
Qu et al. | Perceptual-DualGAN: perceptual losses for image to image translation with generative adversarial nets | |
CN116205962A (zh) | 基于完整上下文信息的单目深度估计方法及系统 | |
CN116704079A (zh) | 图像生成方法、装置、设备及存储介质 | |
CN110956575B (zh) | 转变图像风格的方法和装置、卷积神经网络处理器 | |
Zhang et al. | Generative adversarial and self-supervised dehazing network | |
CN113379606A (zh) | 一种基于预训练生成模型的人脸超分辨方法 | |
CN117499711A (zh) | 视频生成模型的训练方法、装置、设备及存储介质 | |
CN113538608A (zh) | 基于生成对抗网络的可控人物图像生成方法 | |
CN116958324A (zh) | 图像生成模型的训练方法、装置、设备及存储介质 | |
CN116385667A (zh) | 三维模型的重建方法、纹理重构模型的训练方法以及装置 | |
Liu et al. | Image superresolution reconstruction via granular computing clustering | |
Fang et al. | A New Method of Image Restoration Technology Based on WGAN. | |
Wei et al. | Comic style transfer based on generative confrontation network | |
CN114494387A (zh) | 一种生成数据集网络模型及雾图生成方法 | |
Khan et al. | Face recognition via multi-level 3D-GAN colorization | |
Wu et al. | Generative adversarial networks with enhanced symmetric residual units for single image super-resolution | |
Zhuang et al. | Dimensional transformation mixer for ultra-high-definition industrial camera dehazing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |