CN112232485A - 漫画风格图像转换模型的训练方法、图像生成方法及装置 - Google Patents
漫画风格图像转换模型的训练方法、图像生成方法及装置 Download PDFInfo
- Publication number
- CN112232485A CN112232485A CN202011104745.4A CN202011104745A CN112232485A CN 112232485 A CN112232485 A CN 112232485A CN 202011104745 A CN202011104745 A CN 202011104745A CN 112232485 A CN112232485 A CN 112232485A
- Authority
- CN
- China
- Prior art keywords
- cartoon
- style
- photo
- conversion
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 118
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000012549 training Methods 0.000 title claims abstract description 58
- 239000011159 matrix material Substances 0.000 claims abstract description 12
- 230000008569 process Effects 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 36
- 238000004590 computer program Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 4
- 230000003042 antagnostic effect Effects 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 claims description 3
- 230000014759 maintenance of location Effects 0.000 claims description 3
- 208000032538 Depersonalisation Diseases 0.000 claims description 2
- 239000000126 substance Substances 0.000 claims description 2
- 238000005457 optimization Methods 0.000 abstract 1
- 238000005070 sampling Methods 0.000 abstract 1
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/49—Analysis of texture based on structural texture description, e.g. using primitives or placement rules
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本公开涉及一种漫画风格图像转换模型的训练方法、图像生成方法及装置,具体方法包括:输入的人脸照片送入到编码器,编码器将照片编码到一个公共隐空间,再从隐空间中进行随机采样,利用漫画域的解码器解码后得到风格转换后的图片。同时输入的人脸照片还要送入照片域的形变预测网络,来预测一组扭曲关键点,来对风格转换后的图片进行形状扭曲,之后就得到了最终转换后的漫画图片。本公开提出了一个相对风格损失,该损失将传统的相对损失中的欧氏距离利用格里姆矩阵改进为风格距离。在网络结构优化过程中,可以拉近生成漫画与真实漫画之间的风格距离,同时拉远生成漫画与照片之间的风格距离。从而提升生成图片的纹理质量,减少伪影。
Description
技术领域
本公开属于计算机图形处理技术领域,具体涉及一种漫画风格图像转换模型的训练方法、图像生成方法及装置。
背景技术
人脸照片到漫画的转换是特殊的图像到图像转换任务,具有一定的商业价值,在娱乐、出版业都有应用。
漫画的生成需要夸大面部特征,并重新渲染面部纹理以形成肖像。现有方法主要分为三类:基于变形,基于纹理和同时考虑这两个方面的方法。基于变形的方法通过使用某些引导信息(例如2D标志点,3D网格或绘图线)来关注几何变形。但是,要保证精确的引导信息是一项挑战。此外,它们生成的结果缺少纹理的转换。基于纹理的方法通过广泛使用的生成对抗网络获得漫画的风格,比如使用循环生成器来保持漫画生成中的纹理一致性;以及通过弱监督的对抗学习传递输入图像的纹理。但是,他们仅在表示空间处理形变,因此导致变形能力有限。为了获得在提升纹理效果的同时获得更好的形变效果,以及生成对抗网络及其各种变体的发展,产生了很多同时基于纹理渲染和形变的工作。
发明人认为,大多数风格转换网络并没有对纹理渲染网络进行进一步处理,而漫画数据往往纹理非常的多样化,导致了生成图片的纹理产生许多的伪影。同时训练时身份等标签的需求也不够契合实际应用。
发明内容
本公开的目的是为克服上述现有技术的不足,本公开提出了一种漫画风格图像转换模型的训练方法、图像生成方法及装置,能够至少解决上述技术问题之一。
本公开的第一方面提出一种漫画风格图像转换模型的训练方法,包括以下步骤:
步骤S1、定义相对风格损失,具体定义为:
给定输入为三张图片:照片、纹理转换后的照片、漫画,将照片和纹理转换后的照片作为负样本对,将纹理转换后的照片和漫画作为正样本对,对样本对的三通道求出格里姆矩阵,再对求出的格里姆矩阵求均方差即定义为风格距离;将相对损失中的欧氏距离替换为风格距离,获得相对风格损失;
步骤S2、利用相对风格损失,通过迭代训练得到可以进行照片到漫画转换的对抗生成网络模型。
本公开的第二方面提供一种漫画风格图像转换方法,利用了所述的漫画风格图像转换模型的训练方法,包括以下步骤:
获取目标照片;
将目标照片输入预先训练的漫画风格图像转换模型,对测试用的目标照片进行到漫画域的风格转换,并进行几何形变。
本公开的第三方面提供一种漫画风格图像转换模型的训练装置,包括:
图像获取单元:用于获取图片;
网络获取单元:用于获取预设的对抗生成网络;
模型训练单元:通过机器学习的方式,经多次迭代得到稳定的漫画风格图像转换模型。
本公开的第四方面提供一种漫画风格图像转换装置,包括:
照片获取单元,用于获取待处理的目标照片;
图像生成单元,用于将待处理的目标照片输入至预先训练的漫画风格图像转换模型,以得到漫画风格的图像。
本公开的第五方面提供一种计算机设备,所述计算机设备包括存储器和处理器;
所述存储器用于存储计算机程序;
所述处理器,用于执行所述计算机程序并在执行所述计算机程序时实现所述的漫画风格图像转换模型的训练方法,或实现所述的漫画风格图像转换方法。
本公开的第六方面提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如所述的漫画风格图像转换模型的训练方法,或实现所述的漫画风格图像转换方法。以上一个或多个技术方案的有益效果在于:
本公开利用格里姆矩阵可以放大特征细节的特性来定义风格距离,来改进相对损失中的欧氏距离,进而定义相对风格损失,拉近生成漫画与真实漫画之间的纹理差距,推远生成漫画与照片之间的纹理差距,从而提升纹理效果。此外利用神经网络直接为输入照片预测控制点来进行几何形变。同时省去了身份等标签的使用,提高了模型的实际应用价值。
本公开使用隐空间共享的理论作为基础假设,利用编码器解码器作为基础模型框架,设计了一个两分支对称的转换模型,同时对输入照片进行纹理渲染与几何形变。
附图说明
图1是本公开实施例中在漫画数据库WebCar i cature上进行照片到漫画转换的真实例子,其中第一行为输入的照片,第二行为转换后的漫画图片;
图2是本公开实施例中基于自动形变和相对风格损失的照片到漫画合成方法流程图;
图3是本公开实施例中在有无内容损失和相对风格损失的情况下生成的漫画效果对比情况。
具体实施方式
应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
随着现代科技的发展,人们的需求在不断提高,包括电影广告动画制作、网络游戏、娱乐等领域,本课题都有着应用前景与商业价值。因此在这种背景下,开发一种不需要标签的、基于自动形变和相对风格损失的照片到漫画转换方法是很有必要的。
实施例1
如图1-图3所示,本实施例提供一种漫画风格图像转换模型的训练方法,具体按照以下步骤实施:
步骤S1、定义相对风格损失,具体定义为:给定输入为三张图片:照片、纹理转换后的照片、漫画,将照片和纹理转换后的照片作为负样本对,将纹理转换后的照片和漫画作为正样本对,对样本对的三通道求出格里姆矩阵,再对求出的格里姆矩阵求均方差即定义为风格距离。将相对损失中的欧氏距离替换为风格距离即可获得相对风格损失。
定义风格转换网络训练过程中转换网络的相对风格损失函数,具体定义为:
Lctr=β1Ctr(xr,x,0)+β2Ctr(xr,y,1)+β3Ctr(yr,y,0)+β4Ctr(yr,y,1)
其中,xr、yr分别为纹理转换后的照片和漫画,x、y分别为输入的真实照片和漫画,β1,β2,β3,β4为权重系数,函数Ctr(·)定义为:
其中,l∈[0,1]是图像对[i1,i2]的标签,d(i1,i2)为图像对[i1,i2]的风格距离,mg为优化风格距离的阈值,风格距离函数d(m,n)定义为:
其中,Gm和Gn是m和n的格里姆矩阵,nc,nh,nw分别为通道数、高、宽。
步骤S2、利用相对风格损失,通过迭代训练得到可以进行照片到漫画转换的对抗生成网络模型,包括:
任取一张照片和漫画图片作为输入,分别送入各自的风格转换网络和形变预测网络,风格转换网络对输入的照片进行纹理上的转换,获得目标域纹理的照片,再利用形变预测网络上输出的控制点进行薄板样条插值,从而获得漫画风格的照片。纹理转换后的图片以及经过纹理转换及几何形变后的图片,分别在两个判别器中进行对抗损失的计算。正样本为真实的漫画图片。
训练分为两个部分:先进行风格转换网络的训练,网络中包括两个域的编码器与解码器,解码器解码生成纹理转换后的图片,转换后的图片与真实漫画之间计算相对风格损失,加入到生成器的总损失中,与两个尺度的风格判别器一同迭代多次达到稳定后完成模型的训练。风格转换网络训练完成后,将其固定后,再利用该网络来训练几何形变网络,几何形变网络与一个几何判别器一同训练迭代多次达到稳定后完成模型的训练。
具体的,利用任意一张256*256的照片和漫画作为输入,训练纹理转换网络和几何预测网络,来对输入照片进行纹理转换和几何形变。
所述的纹理转换网络为编码解码的结构,对于输入的照片和漫画,分别送入本域的编码器,获得内容编码,然后将内容编码送入目标域的解码器,进行解码,来进行纹理转换。所述编码器利用卷积神经网络结构来进行编码,在一实施例中,所述编码器卷积神经网络结构由3个残差块构成,被编码成256*64*64,所述解码器由一个残差块、两层卷积层以及两个上采样层构成,解码器接受内容编码为输入,将其解码回3*256*256。卷积层的层数和每层卷积层中滤波器的个数及大小可根据实际情况进行选择设置。在判别器中,采用卷积神经网络结构将真实图像对和假图像对作为输入,输出采用对抗损失函数来判断真假。
该步骤中,利用照片与/漫画作为网络输入,真实的图像是漫画/照片,训练一对编码器与解码器来进行纹理转换,纹理转换后的照片/漫画与真实的照片/漫画、漫画/照片一起进行相对风格损失的计算,以及对抗损失等损失的计算,迭代多次达到稳定后完成模型的计算。
在所述纹理转换网络训练完成后,固定住该部分的参数,继续训练下一部分的几何形变网络。输入的照片/漫画在形变网络中预测出一组控制点,然后利用控制点对纹理转换后的照片/漫画通过薄板样条插值来进行形变。所述几何形变网络由卷积神经网络组成,在一实施例中,卷积神经网络由两层卷积层和三层全连接层组成,两个卷积核的滤波器大小分别为32*32和4*4,步长分别为4和2。卷积层的层数和每层卷积层中滤波器的个数及大小可根据实际情况进行选择设置。几何形变及纹理转换后的照片/漫画即为最终输出,在判别器中,采用卷积神经网络结构将真实图像对和假图像对作为输入,输出采用对抗损失函数来判断真假。迭代训练多次达到稳定后完成模型的训练。
本公开中利用所述生成对抗网络的高度非线性拟合能力,针对照片到漫画转换的任务,将转换过程分解为纹理转换和几何形变两个部分。特别的,相对风格损失可以提高生成图片的纹理效果。在测试阶段,只需要一张照片,即可通过解码器、编码器、形变网络来完成转换,而不需要漫画图片。
具体的,所述步骤S2包括:
步骤S21:初始化风格转换网络的权重参数,其中风格转换网络的总损失函数为LG,判别器的总对抗损失函数为LD。
几何形变网络在训练过程中转换网络和判别器的目标函数如下所示:
其中,{αr,αK,αa,αc,αctr,β1,β2,β3,β4,mg}被设置为:{10,1,1,1,0.5,0.5,0.5,1,1,2.0}。
步骤S22:输入的照片和漫画分别被编码器Enca和Encb编码到同一个公共内容空间中,照片和漫画的内容编码分别送入到漫画和照片解码器Decb和Deca中解码,得到纹理转换后的照片和漫画。分别构成假样本,再将漫画和照片分别作为真样本送入到判别器和中去,依次迭代训练使得网络的损失函数LG和LD均降低至趋于稳定。
步骤S23:固定住S22中训练好的风格转换网络(包括两个编码器、两个解码器),初始化形变预测网络的权重参数。其中几何形变网络的总损失函数为判别器的总对抗损失函数为其中参数{αi,αa}设置为{8,1}。
步骤S24:将输入的照片和漫画分别输入到照片和漫画的形变预测网络DPMa和DPMb中,为照片和漫画分别预测出一组形变控制点va和vb,分别利用va和vb对纹理转换后的照片和漫画进行薄板样条插值来进行几何扭曲,得到最终转换后的照片和漫画。经过几何形变和风格转换的照片和漫画作为假样本,漫画和照片作为真样本,送入判别器Db和Da中去,依次迭代训练使得网络的训练函数和均降低至趋于稳定。
纹理转换网络中的转换网络对抗损失函数为:
其中,xr为纹理转换后的照片,yr为纹理转换后的漫画,Db、Da分别为漫画和照片域的判别器。
纹理转换网络中的判别器对抗损失函数为:
其中,xr、yr分别为纹理转换后的照片和漫画,x、y分别为输入的真实照片和漫画,Db、Da分别为漫画和照片域的判别器。
纹理转换网络中的转换网络的重建损失函数为:
Lrec=||Deca(ca)-x||1+||Decb(cb)-y||1
其中,Deca和Decb分别为照片和漫画域的解码器,x、y分别为输入的真实照片和漫画,ca和cb分别为照片和漫画的内容编码。
纹理转换网络中的转换网络的KL损失函数为:
LKL=KL(qa(ca|x)||ps(c))+KL(qb(cb|y)||ps(c))
其中,x、y分别为输入的真实照片和漫画,ca和cb分别为照片和漫画的内容编码。函数KL(·)为KL散度,ps(c)为标准正态分布,qa和qb为照片和漫画待求的分布。
纹理转换网络中的转换网络的内容损失函数为:
Lcont=||ξ(x)-ξ(xr)||1+||ξ(y)-ξ(yr)||1
其中,x、y分别为输入的真实照片和漫画,xr、yr分别为纹理转换后的照片和漫画,ξ(·)为预训练好的VGG网络。
几何形变网络中预测网络的对抗损失函数如下表示:
几何形变网络中判别器的对抗损失函数如下表示:
几何形变网络中预测网络的身份保持损失函数如下表示:
Lidt=E||xy-x||1+E||yx-y||1
其中,x、y分别为输入的真实照片和漫画,xy和yx分别为经过几何形变和纹理转换后的照片与漫画。
为了详细说明本公开的具体实施方式及验证本公开的有效性,我们将本公开提出的方法应用于一个公开的漫画数据库——WebCaricature数据库。该数据库包括252个人,6042张漫画,5974张照片。具体的,我们随机挑选100张人脸照片作为测试使用,其余照片与漫画都作为训练集,用于训练网络模型。使用我们所设计的网络结构与损失函数,利用生成器和判别器之间的对抗及梯度反传训练该神经网络。训练过程中不断调整不同任务的权重,直至最后网络收敛,得到用来转换人脸照片的模型。
为了测试该模型的有效性,使用测试人脸照片进行向漫画域转换的操作,生成的结果如图1所示。同时,我们验证了相对风格损失函数和内容损失对模型性能的影响,并与原模型的生成结果进行对比,实验结果如图3所示。该实施例有效证明了本公开所提出方法对照片到漫画转换任务的有效性。
实施例2
本实施例提供一种漫画风格图像转换方法,利用了上述的漫画风格图像转换模型的训练方法,包括以下步骤:获取目标照片;将目标照片输入预先训练的漫画风格图像转换模型,对测试用的目标照片进行到漫画域的风格转换,并进行几何形变。
实施例3
本实施例提供一种漫画风格图像转换模型的训练装置,包括:
图像获取单元:用于获取图片;网络获取单元:用于获取预设的对抗生成网络;模型训练单元:通过机器学习的方式,经多次迭代得到稳定的漫画风格图像转换模型。
实施例4
本实施例提供一种漫画风格图像转换装置,包括:照片获取单元,用于获取待处理的目标照片;图像生成单元,用于将待处理的目标照片输入至预先训练的漫画风格图像转换模型,以得到漫画风格的图像。
实施例5
本实施例提供一种计算机设备,所述计算机设备包括存储器和处理器;
所述存储器用于存储计算机程序;所述处理器,用于执行所述计算机程序并在执行所述计算机程序时实现如所述的漫画风格图像转换模型的训练方法,或实现所述的漫画风格图像转换方法。
实施例6
本实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现所述的漫画风格图像转换模型的训练方法,或实现所述的漫画风格图像转换方法。
以上所述的具体实施例,对本公开的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本公开的具体实施例而已,并不用于限制本公开,凡在本公开的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
Claims (10)
1.一种漫画风格图像转换模型的训练方法,其特征在于,包括以下步骤:
步骤S1、定义相对风格损失,具体定义为:
给定输入为三张图片:照片、纹理转换后的照片、漫画,将照片和纹理转换后的照片作为负样本对,将纹理转换后的照片和漫画作为正样本对,对样本对的三通道求出格里姆矩阵,再对求出的格里姆矩阵求均方差即定义为风格距离;将相对损失中的欧氏距离替换为风格距离,获得相对风格损失;
步骤S2、利用相对风格损失,通过迭代训练得到可以进行照片到漫画转换的对抗生成网络模型。
2.根据权利要求1所述的漫画风格图像转换模型的训练方法,其特征在于,步骤2中,任取一张照片和漫画图片作为输入,分别送入各自的风格转换网络和形变预测网络,风格转换网络对输入的照片进行纹理上的转换,获得目标域纹理的照片,再利用形变预测网络上输出的控制点进行薄板样条插值,从而获得漫画风格的照片;纹理转换后的图片以及经过纹理转换及几何形变后的图片,分别在两个判别器中进行对抗损失的计算;正样本为真实的漫画图片;
训练分为两部分:先进行风格转换网络的训练,网络中包括两个域的编码器与解码器,解码器解码生成纹理转换后的图片,转换后的图片与真实漫画之间计算相对风格损失,加入到生成器的总损失中,与两个尺度的风格判别器一同迭代多次达到稳定后完成模型的训练;风格转换网络训练完成后,将其固定后,再利用该网络来训练几何形变网络,几何形变网络与一个几何判别器一同训练迭代多次达到稳定后完成模型的训练。
3.根据权利要求1所述的漫画风格图像转换模型的训练方法,其特征在于,风格转换网络训练过程中转换网络的相对风格损失函数如下表示:
Lctr=β1Ctr(xr,x,0)+β2Ctr(xr,y,1)+β3Ctr(yr,y,0)+β4Ctr(yr,y,1)
其中,xr、yr分别为纹理转换后的照片和漫画,x、y分别为输入的真实照片和漫画,β1,β2,β3,β4为权重系数,函数Ctr(·)定义为:
其中,l∈[0,1]是图像对[i1,i2]的标签,d(i1,i2)为图像对[i1,i2]的风格距离,风格距离函数d(m,n)定义为:
其中,Gm和Gn是m和n的格里姆矩阵,nc,nh,nw分别为通道数、高、宽。
4.根据权利要求2所述的漫画风格图像转换模型的训练方法,其特征在于,所述步骤S2包括:
步骤S21:初始化风格转换网络的权重参数,其中转换网络的总损失函数为LG,判别器的总对抗损失函数为LD;
步骤S22:输入的照片和漫画分别被编码器Enca和Encb编码到同一个公共内容空间中,照片和漫画的内容编码分别送入到漫画和照片解码器Decb和Deca中解码,得到纹理转换后的照片和漫画;分别构成假样本,再将漫画和照片分别作为真样本送入到判别器和中去,依次迭代训练使得网络的损失函数LG和LD均降低至趋于稳定;
6.一种漫画风格图像转换方法,利用了权利要求1-5中任意一项所述的漫画风格图像转换模型的训练方法,其特征在于,包括以下步骤:
获取目标照片;
将目标照片输入预先训练的漫画风格图像转换模型,对测试用的目标照片进行到漫画域的风格转换,并进行几何形变。
7.一种漫画风格图像转换模型的训练装置,特征在于,包括:
图像获取单元:用于获取图片;
网络获取单元:用于获取预设的对抗生成网络;
模型训练单元:通过机器学习的方式,经多次迭代得到稳定的漫画风格图像转换模型。
8.一种漫画风格图像转换装置,其特征在于,包括:
照片获取单元,用于获取待处理的目标照片;
图像生成单元,用于将待处理的目标照片输入至预先训练的漫画风格图像转换模型,以得到漫画风格的图像。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器;
所述存储器用于存储计算机程序;
所述处理器,用于执行所述计算机程序并在执行所述计算机程序时实现如权利要求1至5中任一项所述的漫画风格图像转换模型的训练方法,或实现如权利要求6所述的漫画风格图像转换方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如权利要求1至5中任一项所述的漫画风格图像转换模型的训练方法,或实现如权利要求6所述的漫画风格图像转换方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011104745.4A CN112232485B (zh) | 2020-10-15 | 2020-10-15 | 漫画风格图像转换模型的训练方法、图像生成方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011104745.4A CN112232485B (zh) | 2020-10-15 | 2020-10-15 | 漫画风格图像转换模型的训练方法、图像生成方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112232485A true CN112232485A (zh) | 2021-01-15 |
CN112232485B CN112232485B (zh) | 2023-03-24 |
Family
ID=74118409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011104745.4A Active CN112232485B (zh) | 2020-10-15 | 2020-10-15 | 漫画风格图像转换模型的训练方法、图像生成方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112232485B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112883826A (zh) * | 2021-01-28 | 2021-06-01 | 南京大学 | 一种基于学习几何和纹理风格迁移的人脸漫画生成方法 |
CN112967174A (zh) * | 2021-01-21 | 2021-06-15 | 北京达佳互联信息技术有限公司 | 图像生成模型训练、图像生成方法、装置及存储介质 |
CN113111791A (zh) * | 2021-04-16 | 2021-07-13 | 深圳市格灵人工智能与机器人研究院有限公司 | 图像滤镜转换网络训练方法、计算机可读存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107730474A (zh) * | 2017-11-09 | 2018-02-23 | 京东方科技集团股份有限公司 | 图像处理方法、处理装置和处理设备 |
CN107767343A (zh) * | 2017-11-09 | 2018-03-06 | 京东方科技集团股份有限公司 | 图像处理方法、处理装置和处理设备 |
US20180150947A1 (en) * | 2016-11-28 | 2018-05-31 | Adobe Systems Incorporated | Facilitating sketch to painting transformations |
CN109800732A (zh) * | 2019-01-30 | 2019-05-24 | 北京字节跳动网络技术有限公司 | 用于生成漫画头像生成模型的方法和装置 |
CN109949214A (zh) * | 2019-03-26 | 2019-06-28 | 湖北工业大学 | 一种图像风格迁移方法及系统 |
CN110310221A (zh) * | 2019-06-14 | 2019-10-08 | 大连理工大学 | 一种基于生成对抗网络的多域图像风格迁移方法 |
US20190370936A1 (en) * | 2018-06-04 | 2019-12-05 | Adobe Inc. | High Resolution Style Transfer |
CN110930295A (zh) * | 2019-10-25 | 2020-03-27 | 广东开放大学(广东理工职业学院) | 一种图像风格迁移方法、系统、装置和存储介质 |
CN111160264A (zh) * | 2019-12-30 | 2020-05-15 | 中山大学 | 一种基于生成对抗网络的漫画人物身份识别方法 |
CN111508048A (zh) * | 2020-05-22 | 2020-08-07 | 南京大学 | 一种可交互任意形变风格人脸漫画自动生成方法 |
-
2020
- 2020-10-15 CN CN202011104745.4A patent/CN112232485B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180150947A1 (en) * | 2016-11-28 | 2018-05-31 | Adobe Systems Incorporated | Facilitating sketch to painting transformations |
CN107730474A (zh) * | 2017-11-09 | 2018-02-23 | 京东方科技集团股份有限公司 | 图像处理方法、处理装置和处理设备 |
CN107767343A (zh) * | 2017-11-09 | 2018-03-06 | 京东方科技集团股份有限公司 | 图像处理方法、处理装置和处理设备 |
US20190370936A1 (en) * | 2018-06-04 | 2019-12-05 | Adobe Inc. | High Resolution Style Transfer |
CN109800732A (zh) * | 2019-01-30 | 2019-05-24 | 北京字节跳动网络技术有限公司 | 用于生成漫画头像生成模型的方法和装置 |
CN109949214A (zh) * | 2019-03-26 | 2019-06-28 | 湖北工业大学 | 一种图像风格迁移方法及系统 |
CN110310221A (zh) * | 2019-06-14 | 2019-10-08 | 大连理工大学 | 一种基于生成对抗网络的多域图像风格迁移方法 |
CN110930295A (zh) * | 2019-10-25 | 2020-03-27 | 广东开放大学(广东理工职业学院) | 一种图像风格迁移方法、系统、装置和存储介质 |
CN111160264A (zh) * | 2019-12-30 | 2020-05-15 | 中山大学 | 一种基于生成对抗网络的漫画人物身份识别方法 |
CN111508048A (zh) * | 2020-05-22 | 2020-08-07 | 南京大学 | 一种可交互任意形变风格人脸漫画自动生成方法 |
Non-Patent Citations (3)
Title |
---|
MINGYU LIU 等: ""unsupervised image to image translation networks"", 《ARXIV》 * |
栾奕欣: ""基于深度学习的图像风格化处理"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
梁小娟: ""基于风格迁移的人脸卡通漫画生成方法研究"", 《中国优秀博硕士学位论文全文数据库(硕士)哲学与人文科学辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112967174A (zh) * | 2021-01-21 | 2021-06-15 | 北京达佳互联信息技术有限公司 | 图像生成模型训练、图像生成方法、装置及存储介质 |
CN112967174B (zh) * | 2021-01-21 | 2024-02-09 | 北京达佳互联信息技术有限公司 | 图像生成模型训练、图像生成方法、装置及存储介质 |
CN112883826A (zh) * | 2021-01-28 | 2021-06-01 | 南京大学 | 一种基于学习几何和纹理风格迁移的人脸漫画生成方法 |
CN112883826B (zh) * | 2021-01-28 | 2024-04-09 | 南京大学 | 一种基于学习几何和纹理风格迁移的人脸漫画生成方法 |
CN113111791A (zh) * | 2021-04-16 | 2021-07-13 | 深圳市格灵人工智能与机器人研究院有限公司 | 图像滤镜转换网络训练方法、计算机可读存储介质 |
CN113111791B (zh) * | 2021-04-16 | 2024-04-09 | 深圳市格灵人工智能与机器人研究院有限公司 | 图像滤镜转换网络训练方法、计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112232485B (zh) | 2023-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112232485B (zh) | 漫画风格图像转换模型的训练方法、图像生成方法及装置 | |
CN109919204B (zh) | 一种面向噪声图像的深度学习聚类方法 | |
CN113177882B (zh) | 一种基于扩散模型的单帧图像超分辨处理方法 | |
CN113658051A (zh) | 一种基于循环生成对抗网络的图像去雾方法及系统 | |
CN110728219A (zh) | 基于多列多尺度图卷积神经网络的3d人脸生成方法 | |
CN113822437B (zh) | 深度分层的变分自动编码器 | |
CN110751649B (zh) | 视频质量评估方法、装置、电子设备及存储介质 | |
CN112541864A (zh) | 一种基于多尺度生成式对抗网络模型的图像修复方法 | |
CN113901894A (zh) | 一种视频生成方法、装置、服务器及存储介质 | |
CN111161405B (zh) | 一种动物毛发三维重建方法 | |
Zhao et al. | CREAM: CNN-REgularized ADMM framework for compressive-sensed image reconstruction | |
CN113613010A (zh) | 基于稀疏卷积神经网络的点云几何无损压缩方法 | |
CN110188667B (zh) | 一种基于三方对抗生成网络的人脸摆正方法 | |
CN115984117B (zh) | 基于通道注意力的变分自编码图像超分辨率方法及系统 | |
CN116740223A (zh) | 基于文本生成图像的方法 | |
Shin et al. | Binary radiance fields | |
CN116385667B (zh) | 三维模型的重建方法、纹理重构模型的训练方法以及装置 | |
CN112686817A (zh) | 一种基于不确定性估计的图像补全方法 | |
CN116721200A (zh) | 一种基于扩散模型和语义引导的三维物体生成方法 | |
CN116912268A (zh) | 一种皮肤病变图像分割方法、装置、设备及存储介质 | |
CN116863053A (zh) | 一种基于知识蒸馏的点云渲染增强方法 | |
Gupta et al. | MCNeRF: Monte Carlo rendering and denoising for real-time NeRFs | |
Liu et al. | Diverse Hyperspectral Remote Sensing Image Synthesis With Diffusion Models | |
CN115393452A (zh) | 一种基于非对称自编码器结构的点云几何压缩方法 | |
CN115984911A (zh) | 属性生成对抗网络以及基于该网络的人脸图像连续变换方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |