CN112561791B - 一种基于优化AnimeGAN的图像风格迁移 - Google Patents

一种基于优化AnimeGAN的图像风格迁移 Download PDF

Info

Publication number
CN112561791B
CN112561791B CN202011551122.1A CN202011551122A CN112561791B CN 112561791 B CN112561791 B CN 112561791B CN 202011551122 A CN202011551122 A CN 202011551122A CN 112561791 B CN112561791 B CN 112561791B
Authority
CN
China
Prior art keywords
image
network
type
convolution
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011551122.1A
Other languages
English (en)
Other versions
CN112561791A (zh
Inventor
林光涵
于威威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Maritime University
Original Assignee
Shanghai Maritime University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Maritime University filed Critical Shanghai Maritime University
Priority to CN202011551122.1A priority Critical patent/CN112561791B/zh
Publication of CN112561791A publication Critical patent/CN112561791A/zh
Application granted granted Critical
Publication of CN112561791B publication Critical patent/CN112561791B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于优化AnimeGAN的图像风格迁移,具体包含以下过程:建立风格迁移的训练集,包含原风格图像集和目标风格图像集;构建生成网络:所述生成网络为编码器‑解码器结构,包含标准卷积块、下采样卷积块、倒置残差块、上采样卷积块和深度可分离卷积;构建判别网络:所述判别网络中的卷积层为标准卷积;进行生成网络与判别网络的对抗训练,得到训练成熟的生成网络;采用训练成熟的生成网络对图像进行目标风格迁移,生成目标风格迁移图像。本发明基于优化后的AnimeGAN进行图像风格迁移,著降低了图像训练时间;将优化后的AnimeGAN应用于非成对图像之间的风格迁移,使得生成的图像具有明显的目标风格纹理、内容迁移的效果更好,且图像边缘清晰。

Description

一种基于优化AnimeGAN的图像风格迁移
技术领域
本发明属于图像处理技术领域,具体涉及一种基于优化AnimeGAN的图像风格迁移。
背景技术
图像处理是一种具有巨大的社会和经济效益的实用技术,被广泛应用于各行各业以及人们的日常生活中。图像处理中常见的一个技术就是图像的风格迁移,图像风格迁移的目的是对图像的纹理、色彩、内容等进行定向的改变,使得图像从一种风格变化为另一种风格,例如,将照片进行风格迁移,得到宫崎骏动漫风格的图像,将光线较昏暗的条件下拍摄得到的风景照片进行风格迁移,得到光线较为明亮条件下的图像等。
现有的风格迁移技术通常存在着一些问题,比如生成的图像没有明显的目标风格纹理、生成的图像丢失了原有图像的边缘和内容、网络参数的存储容量要求太大等。生成对抗网络(Generative Adversarial Networks,GAN)被认为能够有效解决上述问题。
生成对抗网络是由Ian J.Goodfellow等人在2014年提出的,是一种非监督式的学习方法,通过两个神经网络相互博弈的方式进行学习。生成对抗网络由一个生成网络和一个判别网络组成的,其中生成网络从潜在空间中随机取样作为输入,输出的结果需要尽量模仿训练集中的样本,判别网络的输入为真实样本或者生成网络的输出,其目的是将生成网络的输出从真实样本中尽可能分辨出来,而生成网络则尽可能欺骗判别网络。两个网络通过互相对抗、不断调整参数,最终的目的是使判别网络无法判断生成网络的输出结果是否真实。
AnimeGAN(图像卡通风格迁移算法)是生成对抗网络的一个变体,AnimeGAN使用未配对的训练数据进行端到端训练,实现图片的风格迁移。
发明内容
为了解决风格迁移时生成的图像目标风格纹理不明显、内容迁移效果不佳、图像边缘不清晰等问题,本发明提出了一种基于优化AnimeGAN的图像风格迁移,将优化后的AnimeGAN(图像卡通风格迁移算法)应用于非成对图像之间的风格迁移。
本发明提出的一种基于优化AnimeGAN的图像风格迁移,包含以下步骤:
S1、建立风格迁移的训练集,包含原风格图像集和目标风格图像集;
S2、构建生成网络G:所述生成网络G为编码器-解码器结构,包含标准卷积块、下采样卷积块、倒置残差块、上采样卷积块和深度可分离卷积;
S3、构建判别网络D:所述判别网络D中的卷积层为标准卷积;
S4、进行生成网络G与判别网络D的对抗训练,得到训练成熟的生成网络G;
S5、采用训练成熟的生成网络G对图像进行目标风格迁移,生成目标风格迁移图像。
优选地,原风格图像集包含若干第一类图像,第一类图像为原风格图像,用来进行目标风格迁移;
对第一类图像进行转化,生成第一类图像的YUV格式三通道图像。
优选地,目标风格图像集包含若干第二类图像和若干第三类图像,第二类图像为第一类图像对应的目标风格图像,第三类图像为第二类图像平滑处理后的图像;
对第三类图像进行转化,生成第三类图像的灰度图和第三类图像的YUV格式三通道图像。
优选地,所述生成网络G的编码器通过一层标准卷积块输入,将该标准卷积块与一层标准卷积块、一个下采样卷积块、一个标准卷积块、一个深度可分离卷积、一个下采样卷积块、一个标准卷积块以及8块倒置残差块依次连接,形成所述编码器;
所述生成网络G的解码器通过一个卷积层输出,依次连接一层标准卷积块、一个上采样卷积块、一个深度可分离卷积、一个标准卷积块、一个上采样卷积块、两个标准卷积块和该卷积层,形成所述解码器。
优选地,所述生成网络G通过所述标准卷积块提取图像的特征,通过所述下采样块避免池化带来的图像特征信息的丢失,通过所述倒置残差块降低训练时所需参数、提升训练速度,通过所述上采样块提高特征图的分辨率,通过所述深度可分离卷积减少计算量、加快图像的生成速度。
优选地,所述判别网络D包含七个卷积层:第一卷积层~第七卷积层;七个卷积层均为标准卷积层,第一卷积层至第七卷积层依次连接形成所述判别网络D。
优选地,所述判别网络D通过第一卷积层输入,并对第一卷积层、第二卷积层和第四卷积层分别进行LRelu激活函数操作,对第三卷积层、第五卷积层和第六卷积层分别进行实例正则化函数和LRelu激活函数操作,所述判别网络D通过第七卷积层输出。
优选地,所述生成网络G与判别网络D的对抗训练包含以下过程:
S41、所述生成网络D的预训练:
将第一类图像和第一类图像的YUV格式三通道图像,以及第三类图像和第三类图像的YUV格式三通道图像,输入所述生成网络D;
采用VGG19网络模型对所述生成网络D进行预训练,预训练过程采用L1稀疏正则化方法计算图像内容损失函数Lcon(G,D)和灰度损失函数Lgra(G,D),计算公式如下:
其中,公式(1)中G表示所述生成网络,D表示所述判别网络,pi表示第i张第一类图像,G(pi)表示第一类图像pi输入所述生成网络G生成的图像,表示第一类图像pi的YUV格式三通道图像的数学期望,VGGl(pi)表示输入第一类图像pi的VGG19网络模型、第l层的特征映射,VGGl(G(pi))表示输入G(pi)的VGG19网络模型、第l层的特征映射;
公式(2)中表示输入所述生成网络G的、第三类图像的灰度图像xi的数学期望,Gram表示特征图的Gram矩阵;
S42、训练所述判别网络D:
将与第一类图像pi对应的第二类图像、所述生成网络G生成的图像G(pi)输入所述判别网络D,对该第二类图像进行区分识别;识别过程中采用的损失函数计算公式如下:
其中,公式(3)中ωadv表示权重;表示第三类图像的YUV格式三通道图像ai的数学期望,该第三类图像与第一类图像pi对应;/>表示第一类图像pi的YUV格式三通道图像的数学期望;/>表示第三类图像的灰度图xi的数学期望,该第三类图像与第一类图像pi对应;/>表示图像G(pi)的灰度图像yi的数学期望;D(ai)、D(xi)、D(yi)分别表示判别网络判别输入的第三类图像的YUV格式三通道图像、第三类图像的灰度图、第一类图像的YUV格式三通道图像是否是真实;
S43、训练生成网络G:
将第一类图像的YUV格式三通道图像输入生成网络G,生成目标风格的图像并输出;
所述生成网络G将RGB格式的图像颜色转换为YUV格式来构建颜色重构损失Lcol(G,D),计算公式如下:
其中,Y(G(pi))、U(G(pi))、V(G(pi))分别表示所述生成网络G生成的图像G(pi)在YUV格式下的三个通道,H表示Huber损失,pi表示第i张第一类图像;
S44、重复步骤S41~S43,对第i+1张第一类图像进行生成网络G与判别网络D的对抗训练;
以原风格图像集中每张第一类图像完成生成网络G与判别网络D的对抗训练,作为一个epoch。
优选地,epoch为超参数,epoch值为原风格图像集中第一类图像的个数。
与现有技术相比,本发明基于优化后的AnimeGAN进行图像风格迁移,著降低了图像训练时间;将优化后的AnimeGAN应用于非成对图像之间的风格迁移,使得生成的图像具有明显的目标风格纹理、内容迁移的效果更好,且图像边缘清晰。
附图说明
图1为本发明所述基于优化AnimeGAN的图像风格迁移流程图;
图2为本发明中优化后的AnimeGAN的生成网络结构示意图;
图3为本发明中优化后的AnimeGAN的判别网络结构示意图;
图4为风格迁移前后的图像对比图。
具体实施方式
以下结合附图,通过详细说明较佳的具体实施例,对本发明进行详细介绍。
图1为本发明所述基于优化AnimeGAN的图像风格迁移流程图。如图1所示,本发明提出的一种基于优化AnimeGAN的图像风格迁移,包含以下步骤:
S1、建立风格迁移的训练集,包含原风格图像集和目标风格图像集。
所述原风格图像集包含若干第一类图像,第一类图像为原风格图像,用来进行目标风格迁移。所述目标风格图像集包含若干第二类图像和若干第三类图像,第二类图像为第一类图像对应的目标风格图像,第三类图像为第二类图像平滑处理后的图像。第一类图像的数量与第二类图像或第三类图像的数量相等。本发明实施例中以现实生活风格图像为原风格图像,即第一类图像;以宫崎骏动漫风格图像为目标风格图像,即第二类图像;第三类图像即为宫崎骏动漫风格图像平滑处理后的图像。
对第一类图像进行转化,生成第一类图像的YUV格式三通道图像;对第三类图像进行转化,生成第三类图像的灰度图和第三类图像的YUV格式三通道图像。
S2、构建生成网络G:所述生成网络G为编码器-解码器结构,包含标准卷积块(Conv-Block)、下采样卷积块(Down-Conv)、倒置残差块(Inverted Residual Blocks,IRBs)、上采样卷积块(Up-Conv)和深度可分离卷积(DSC-Conv)。
图2为本发明中优化后的AnimeGAN的生成网络结构示意图。如图2所示,所述生成网络G结构具体结构如下:
所述生成网络G的编码器通过一层标准卷积块输入,将该标准卷积块还与一层标准卷积块、一个下采样卷积块(步长为2)、一个标准卷积块、一个深度可分离卷积、一个下采样卷积块(步长为2)、一个标准卷积块以及8块倒置残差块依次连接,形成所述编码器;所述生成网络G的解码器与上述编码器连接;所述生成网络G的解码器通过一个卷积层输出,通过依次连接一层标准卷积块、一个上采样卷积块、一个深度可分离卷积、一个标准卷积块(卷积核为3×3)、一个上采样卷积块、两个标准卷积块和该卷积层,形成所述解码器。
所述卷积层(卷积核为1×1))没有使用归一化层,激化函数采用的是tanh,公式为:其中,x是自变量,y为因变量,e为常数。
所述生成网络G中,所述标准卷积块用于提取图像的特征,所述下采样块用来避免池化带来的图像特征信息的丢失,所述倒置残差块用来降低训练时所需参数、提升训练速度,所述上采样块用来提高特征图的分辨率,所述深度可分离卷积用来减少计算量、加快图像的生成速度。
S3、构建判别网络D:所述判别网络D中的卷积层为标准卷积。
图3为本发明中优化后的AnimeGAN的判别网络结构示意图。如图3所示,所述判别网络D包含七个卷积层:第一卷积层~第七卷积层;七个卷积层均为标准卷积层(Conv);每个卷积层的权值采用谱归一化使网络训练更加稳定;第一卷积层至第七卷积层依次连接形成所述判别网络D,具体结构如下:
所述判别网络D通过第一卷积层输入,并对第一卷积层进行LRelu激活函数操作,对第二卷积层进行LRelu激活函数操作,对第三卷积层进行实例正则化函数(Instance_Norma)和LRelu激活函数操作,对第四卷积层进行LRelu激活函数操作,对第五卷积层进行实例正则化函数和LRelu激活函数操作,对第六卷积层进行实例正则化函数和LRelu激活函数操作,最后,所述判别网络D通过第七卷积层输出。LRelu激活函数公式为:其中,x是自变量,y为因变量。实例正则化是一个批次中单个图片进行归一化处理。
S4、进行生成网络G与判别网络D的对抗训练,得到训练成熟的生成网络G,具体过程如下:
S41、所述生成网络D的预训练:
将第一类图像和第一类图像的YUV格式三通道图像,以及第三类图像和第三类图像的YUV格式三通道图像,输入所述生成网络D。
采用VGG19网络模型对所述生成网络D进行预训练,预训练过程采用L1稀疏正则化方法计算图像内容损失函数Lcon(G,D)和灰度损失函数Lgra(G,D),计算公式如下:
其中,公式(1)中G表示所述生成网络,D表示所述判别网络,pi表示第i张第一类图像,G(pi)表示第一类图像pi输入所述生成网络G生成的图像,表示第一类图像pi的YUV格式三通道图像的数学期望,VGGl(pi)表示输入第一类图像pi的VGG19网络模型、第l层的特征映射,VGGl(G(pi))表示输入G(pi)的VGG19网络模型、第l层的特征映射;
公式(2)中表示输入所述生成网络G的、第三类图像的灰度图像xi的数学期望,Gram表示特征图的Gram矩阵;
S42、训练所述判别网络D:
将与第一类图像pi对应的第二类图像、所述生成网络G生成的图像G(pi)输入所述判别网络D,对该第二类图像进行区分识别;识别过程中采用的损失函数计算公式如下:
其中,公式(3)中ωadv表示权重;表示第三类图像的YUV格式三通道图像ai的数学期望,该第三类图像与第一类图像pi对应;/>表示第一类图像pi的YUV格式三通道图像的数学期望;/>表示第三类图像的灰度图xi的数学期望,该第三类图像与第一类图像pi对应;/>表示图像G(pi)的灰度图像yi的数学期望;D(ai)、D(xi)、D(yi)分别表示判别网络判别输入的第三类图像的YUV格式三通道图像、第三类图像的灰度图、第一类图像的YUV格式三通道图像是否是真实。
S43、训练生成网络G:
将第一类图像的YUV格式三通道图像输入生成网络G,生成目标风格的图像并输出;
所述生成网络G将RGB格式的图像颜色转换为YUV格式来构建颜色重构损失Lcol(G,D),计算公式如下:
其中,Y(G(pi))、U(G(pi))、V(G(pi))分别表示所述生成网络G生成的图像G(pi)在YUV格式下的三个通道,H表示Huber损失,pi表示第i张第一类图像;
S44、重复步骤S41~S43,对第i+1张第一类图像进行生成网络G与判别网络D的对抗训练;
以原风格图像集中每张第一类图像完成生成网络G与判别网络D的对抗训练,作为一个epoch。epoch为超参数,epoch值为原风格图像集中第一类图像的个数。
S5、采用训练成熟的生成网络G对图像进行目标风格迁移,生成目标风格迁移图像。图4为风格迁移前后的图像对比图。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。

Claims (6)

1.一种基于优化AnimeGAN的图像风格迁移,其特征在于,包含以下步骤:
S1、建立风格迁移的训练集,包含原风格图像集和目标风格图像集;
S2、构建生成网络G:所述生成网络G为编码器-解码器结构,包含标准卷积块、下采样卷积块、倒置残差块、上采样卷积块和深度可分离卷积;
S3、构建判别网络D:所述判别网络D中的卷积层为标准卷积;
S4、进行生成网络G与判别网络D的对抗训练,得到训练成熟的生成网络G;
S5、采用训练成熟的生成网络G对图像进行目标风格迁移,生成目标风格迁移图像;
所述生成网络G的编码器通过一层标准卷积块输入,将该标准卷积块与一层标准卷积块、一个下采样卷积块、一个标准卷积块、一个深度可分离卷积、一个下采样卷积块、一个标准卷积块以及8块倒置残差块依次连接,形成所述编码器;
所述生成网络G的解码器通过一个卷积层输出,依次连接一层标准卷积块、一个上采样卷积块、一个深度可分离卷积、一个标准卷积块、一个上采样卷积块、两个标准卷积块和该卷积层,形成所述解码器;
所述判别网络D通过第一卷积层输入,并对第一卷积层、第二卷积层和第四卷积层分别进行LRelu激活函数操作,对第三卷积层、第五卷积层和第六卷积层分别进行实例正则化函数和LRelu激活函数操作,所述判别网络D通过第七卷积层输出;
所述生成网络G与判别网络D的对抗训练包含以下过程:
S41、所述生成网络D的预训练:
将第一类图像和第一类图像的YUV格式三通道图像,以及第三类图像和第三类图像的YUV格式三通道图像,输入所述生成网络D;
采用VGG19网络模型对所述生成网络D进行预训练,预训练过程采用L1稀疏正则化方法计算图像内容损失函数Lcon(G,D)和灰度损失函数Lgra(G,D),计算公式如下:
其中,公式(1)中G表示所述生成网络,D表示所述判别网络,pi表示第i张第一类图像,G(pi)表示第一类图像pi输入所述生成网络G生成的图像,表示第一类图像pi的YUV格式三通道图像的数学期望,VGGl(pi)表示输入第一类图像pi的VGG19网络模型、第l层的特征映射,VGGl(G(pi))表示输入G(pi)的VGG19网络模型、第l层的特征映射;
公式(2)中表示输入所述生成网络G的、第三类图像的灰度图像xi的数学期望,Gram表示特征图的Gram矩阵;
S42、训练所述判别网络D:
将与第一类图像pi对应的第二类图像、所述生成网络G生成的图像G(pi)输入所述判别网络D,对该第二类图像进行区分识别;识别过程中采用的损失函数计算公式如下:
其中,公式(3)中ωadv表示权重;表示第三类图像的YUV格式三通道图像ai的数学期望,该第三类图像与第一类图像pi对应;/>表示第一类图像pi的YUV格式三通道图像的数学期望;/>表示第三类图像的灰度图xi的数学期望,该第三类图像与第一类图像pi对应;/>表示图像G(pi)的灰度图像yx的数学期望;D(ai)、D(xi)、D(yi)分别表示判别网络判别输入的第三类图像的YUV格式三通道图像、第三类图像的灰度图、第一类图像的YUV格式三通道图像是否是真实;
S43、训练生成网络G:
将第一类图像的YUV格式三通道图像输入生成网络G,生成目标风格的图像并输出;
所述生成网络G将RGB格式的图像颜色转换为YUV格式来构建颜色重构损失Lcol(G,D),计算公式如下:
其中,Y(G(pi))、U(G(pi))、V(G(pi))分别表示所述生成网络G生成的图像G(pi)在YUV格式下的三个通道,H表示Huber损失,pi表示第i张第一类图像;
S44、重复步骤S41~S43,对第i+1张第一类图像进行生成网络G与判别网络D的对抗训练;
以原风格图像集中每张第一类图像完成生成网络G与判别网络D的对抗训练,作为一个epoch。
2.如权利要求1所述基于优化AnimeGAN的图像风格迁移,其特征在于,原风格图像集包含若干第一类图像,第一类图像为原风格图像,用来进行目标风格迁移;
对第一类图像进行转化,生成第一类图像的YUV格式三通道图像。
3.如权利要求1所述基于优化AnimeGAN的图像风格迁移,其特征在于,目标风格图像集包含若干第二类图像和若干第三类图像,第二类图像为第一类图像对应的目标风格图像,第三类图像为第二类图像平滑处理后的图像;
对第三类图像进行转化,生成第三类图像的灰度图和第三类图像的YUV格式三通道图像。
4.如权利要求1所述基于优化AnimeGAN的图像风格迁移,其特征在于,所述生成网络G通过所述标准卷积块提取图像的特征,通过所述下采样块避免池化带来的图像特征信息的丢失,通过所述倒置残差块降低训练时所需参数、提升训练速度,通过所述上采样块提高特征图的分辨率,通过所述深度可分离卷积减少计算量、加快图像的生成速度。
5.如权利要求1所述基于优化AnimeGAN的图像风格迁移,其特征在于,所述判别网络D包含七个卷积层:第一卷积层~第七卷积层;七个卷积层均为标准卷积层,第一卷积层至第七卷积层依次连接形成所述判别网络D。
6.如权利要求1所述基于优化AnimeGAN的图像风格迁移,其特征在于,epoch为超参数,epoch值为原风格图像集中第一类图像的个数。
CN202011551122.1A 2020-12-24 2020-12-24 一种基于优化AnimeGAN的图像风格迁移 Active CN112561791B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011551122.1A CN112561791B (zh) 2020-12-24 2020-12-24 一种基于优化AnimeGAN的图像风格迁移

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011551122.1A CN112561791B (zh) 2020-12-24 2020-12-24 一种基于优化AnimeGAN的图像风格迁移

Publications (2)

Publication Number Publication Date
CN112561791A CN112561791A (zh) 2021-03-26
CN112561791B true CN112561791B (zh) 2024-04-09

Family

ID=75033453

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011551122.1A Active CN112561791B (zh) 2020-12-24 2020-12-24 一种基于优化AnimeGAN的图像风格迁移

Country Status (1)

Country Link
CN (1) CN112561791B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113284042B (zh) * 2021-05-31 2023-11-07 大连民族大学 一种多路并行图像内容特征优化风格迁移方法及系统
CN113870102B (zh) * 2021-12-06 2022-03-08 深圳市大头兄弟科技有限公司 图像的动漫化方法、装置、设备及存储介质
CN115115905B (zh) * 2022-06-13 2023-06-27 苏州大学 基于生成模型的高可迁移性图像对抗样本生成方法
CN115100312B (zh) * 2022-07-14 2023-08-22 猫小兜动漫影视(深圳)有限公司 一种图像动漫化的方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109949214A (zh) * 2019-03-26 2019-06-28 湖北工业大学 一种图像风格迁移方法及系统
WO2020172838A1 (zh) * 2019-02-26 2020-09-03 长沙理工大学 一种改进辅助分类器gan的图像分类方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020172838A1 (zh) * 2019-02-26 2020-09-03 长沙理工大学 一种改进辅助分类器gan的图像分类方法
CN109949214A (zh) * 2019-03-26 2019-06-28 湖北工业大学 一种图像风格迁移方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
吴岳 ; 宋建国 ; .基于改进AdaIN的图像风格迁移.软件导刊.2020,(09),全文. *
李君艺 ; 尧雪娟 ; 李海林 ; .基于感知对抗网络的图像风格迁移方法研究.合肥工业大学学报(自然科学版).2020,(05),全文. *

Also Published As

Publication number Publication date
CN112561791A (zh) 2021-03-26

Similar Documents

Publication Publication Date Title
CN112561791B (zh) 一种基于优化AnimeGAN的图像风格迁移
CN109509152B (zh) 一种基于特征融合的生成对抗网络的图像超分辨率重建方法
CN109426858B (zh) 神经网络、训练方法、图像处理方法及图像处理装置
CN113240580B (zh) 一种基于多维度知识蒸馏的轻量级图像超分辨率重建方法
CN108510456B (zh) 基于感知损失的深度卷积神经网络的草图简化方法
CN111242841B (zh) 一种基于语义分割和深度学习的图片背景风格迁移方法
CN107977932A (zh) 一种基于可鉴别属性约束生成对抗网络的人脸图像超分辨率重建方法
CN112307714B (zh) 一种基于双阶段深度网络的文字风格迁移方法
CN110097609B (zh) 一种基于样本域的精细化绣花纹理迁移方法
CN109948692B (zh) 基于多颜色空间卷积神经网络及随机森林的计算机生成图片检测方法
CN109685716A (zh) 一种基于高斯编码反馈的生成对抗网络的图像超分辨率重建方法
CN109949224B (zh) 一种基于深度学习的联级超分辨率重建的方法及装置
CN111986075B (zh) 一种目标边缘清晰化的风格迁移方法
CN109035267B (zh) 一种基于深度学习的图像目标抠取方法
CN112818764B (zh) 一种基于特征重建模型的低分辨率图像人脸表情识别方法
CN111402138A (zh) 一种基于多尺度特征提取融合的监督卷积神经网络的图像超分辨率重建方法
CN109447897B (zh) 一种真实场景图像合成方法及系统
CN112270366B (zh) 基于自适应多特征融合的微小目标检测方法
CN113724354A (zh) 基于参考图颜色风格的灰度图像着色方法
CN115936992A (zh) 一种轻量级Transformer的垃圾图像超分辨方法及系统
CN114066871A (zh) 一种新冠肺炎病灶区域分割模型训练的方法
CN111583412B (zh) 构建书法浮雕深度学习网络的方法及构建书法浮雕的方法
CN111767842B (zh) 基于迁移学习和自编码器数据增强的微表情种类判别方法
CN116934613A (zh) 一种用于文字修复的分支卷积通道注意力模块
CN113344110B (zh) 一种基于超分辨率重建的模糊图像分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant