CN113129409B - 一种基于深度学习的漫画线稿上色方法 - Google Patents
一种基于深度学习的漫画线稿上色方法 Download PDFInfo
- Publication number
- CN113129409B CN113129409B CN202110512222.1A CN202110512222A CN113129409B CN 113129409 B CN113129409 B CN 113129409B CN 202110512222 A CN202110512222 A CN 202110512222A CN 113129409 B CN113129409 B CN 113129409B
- Authority
- CN
- China
- Prior art keywords
- cartoon
- coloring
- representing
- model
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/40—Filling a planar surface by adding surface attributes, e.g. colour or texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于深度学习的漫画线稿上色方法,包括:获取成对的彩色漫画图片和漫画线稿图片作为训练样本;建立全自动上色模型和用户交互式半自动上色模型,利训练样本对全自动上色模型和用户交互式半自动上色模型进行训练,获得训练好的全自动上色模型或用户交互式半自动上色模型;选择上色方式,将待上色的漫画线稿输入训练好的全自动上色模型或用户交互式半自动上色模型中,从全自动上色模型中输出不同上色方案的上色图片,或从用户交互式半自动上色模型中输出用户指定上色方案的上色图片。本发明能够实现输入一张待上色的漫画线稿,输出多张不同上色方案的上色图片,上色效率高,上色效果好,并且还能输出用户指定上色方案的上色图片。
Description
技术领域
本发明涉及图像处理的技术领域,更具体地,涉及一种基于深度学习的漫画线稿上色方法。
背景技术
在人工智能的许多领域,深度网络已经取得了远远超过传统方法的表现,包括语音、自然语言、视觉、游戏等领域。在许多任务中,经典的机器学习方法无法与深度学习比较。过去对于漫画自动上色的方法大多基于Pix2PixGAN模型,该模型架构一个重要的缺点在于:在不加入颜色提示的情况下,对于一个线稿输入,只能对应唯一的输出。对于漫画线稿上色任务来说,漫画的上色策略应该是多样化的,对于同一个漫画线稿,我们可以选择不同的配色策略(例如不同的发色、服装颜色、肤色等)来对线稿进行着色。Paintschainer是现有基于深度学习的漫画线稿上色应用,先后发表了3个模型来实现漫画线稿上色,分别是Tanpopo、Satsuki和Canna,分别具有不同的上色风格。这三种模型都具有不同的缺点:Tanpopo模型存在明显的噪声,Satsuki模型在颜色交汇的位置会产生“光晕”现象,Canna提供了一个粉色的上色风格,上色位置、颜色不精准,在某些颜色上存在严重的色差,存在颜色溢出、分界模糊、不自然的问题。
2019年3月29日公开的中国专利CN109544662A中提供了一种基于SRUnet的动漫风格线稿上色方法及系统。首先建立由激励层和残差U网组成的动漫风格线稿上色网络模型SRUnet;然后采用训练集中的图片对所述SRUnet模型进行训练,获得SRUnet生成的动漫风格彩色图像;根据实际彩色图像和所述动漫风格彩色图像确定SRUnet的总损失值;根据所述总损失值优化SRUnet的网络参数,得到训练后的SRUnet,采用所述训练后的SRUnet即可对待上色的黑白线稿图进行上色。该方法输入一张待上色的黑白线稿图,只能输出一张上色图片,上色效率低,上色效果不好。
发明内容
本发明为克服上述现有上色方法输出唯一上色图片上色效率低并且上色效果差的缺陷,提供一种基于深度学习的漫画线稿上色方法,实现了全自动上色时输出不同上色方案的上色图片,用户交互式半自动上色时输出用户指定上色方案的上色图片,上色效率高并且上色图片具有优秀的上色效果。
为解决上述技术问题,本发明的技术方案如下:
本发明提供一种基于深度学习的漫画线稿上色方法,所述方法包括以下步骤:
S1:获取成对的彩色漫画图片和漫画线稿图片作为训练样本,组成训练集;
S2:建立全自动上色模型和用户交互式半自动上色模型,利用训练集中的训练样本对全自动上色模型和用户交互式半自动上色模型进行训练,获得训练好的全自动上色模型或用户交互式半自动上色模型;
S3:获取待上色的漫画线稿,选择上色方式,将待上色的漫画线稿输入相应训练好的全自动上色模型或用户交互式半自动上色模型中进行上色;
S4:从全自动上色模型中输出不同上色方案的上色图片,或从用户交互式半自动上色模型中输出用户指定上色方案的上色图片。
优选地,所述步骤S1中,漫画线稿图片为合成模拟漫画线稿图片,获得合成模拟漫画线稿图片的方法:
使用边界检测器XDoG对彩色漫画图片进行线稿提取,通过改变边界检测器XDoG的参数,获得不同级别线宽的漫画线稿图片;对漫画线稿图片进行位图-矢量-位图处理,统一线条后得到合成模拟漫画线稿图片。手工漫画线稿通常不具有固定的风格与线条样式,使用其来训练模型,很容易会导致模型过拟合,所以采用模拟漫画线稿图片作为训练集。
优选地,所述获得训练好的全自动上色模型的方法为:
建立全自动上色模型,包括第一特征编码器、第一空间自适应归一化模块、第一生成器、第一判别器和第二判别器;
将漫画线稿图片输入至第一特征编码器中进行特征提取,获得漫画线稿图片的特征图;
将特征图输入第一空间自适应归一化模块进行归一化,获得归一化的特征图;
将归一化的特征图输入第一生成器中,并向第一生成器输入随机隐变量,获得上色图片;
将上色图片和漫画线稿图片对应的彩色漫画图片输入第一判别器和第二判别器中,设置全自动上色模型损失函数,改变随机隐变量,对全自动上色模型进行训练,直到全自动上色模型损失函数收敛,获得训练好的全自动上色模型。
优选地,所述全自动上色模型损失函数为:
式中:
其中,pA表示彩色漫画图片数据分布,pB表示漫画线稿图片数据分布,x,y表示采样的图片,x~pA表示x采样自彩色漫画图片,y~pB表示y采样自漫画线稿图片,z1表示随机隐变量,z1~pz表示随机隐变量z1采样自标准高斯分布;G1表示第一生成器,Dk表示第k判别器,k=1,2;表示第k判别器对抗损失函数,Ladv,G(G)表示第一生成器对抗损失函数,E(*)表示分布函数的期望值。
优选地,所述获得训练好的用户交互式半自动上色模型的方法为:
建立用户交互式半自动上色模型,包括第二特征编码器、第二空间自适应归一化模块、第二生成器、第三判别器、第四判别器和预训练VGG16网络模块;
将漫画线稿图片输入至第二特征编码器中进行特征提取,获得漫画线稿图片的特征图;
将特征图输入第二空间自适应归一化模块进行归一化,获得归一化的特征图;
将归一化的特征图输入第二生成器中,并向第二生成器输入模拟颜色提示,获得上色图片;
将上色图片和漫画线稿图片对应的彩色漫画图片输入第三判别器、第四判别器和预训练VGG16网络模块中,设置用户交互式半自动上色模型损失函数,输入不同的模拟颜色提示,对用户交互式半自动上色模型进行训练,直到用户交互式半自动上色模型收敛,获得训练好的用户交互式半自动上色模型。
优选地,获得所述模拟颜色提示的方法为:
将彩色漫画图片转化为灰度图;使用二值化方法提取灰度图中图像的区域二值图mask;
生成随机矩阵S和随机值α,将随机矩阵S中小于α的元素设置为1,大于α的元素设置为0;
将随机矩阵S与区域二值图mask相乘,获得采样矩阵K,并将采样矩阵K扩展到3通道与彩色漫画图片相乘,获得模拟颜色提示。
优选地,用户交互式半自动上色模型损失函数为:
式中:
其中,pA表示彩色漫画图片数据分布,pB表示漫画线稿图片数据分布,x,y表示采样的图片,x~pA表示x采样自彩色漫画图片,y~pB表示y采样自漫画线稿图片,z2表示模拟颜色提示,z2~pz表示模拟颜色提示z2采样自标准高斯分布;G2表示第二生成器,Dk表示第k判别器,k=3,4;表示第k判别器对抗损失函数,/>表示第二生成器对抗损失函数,Lcont表示感知损失函数,E(*)表示分布函数的期望值;h、w、c分别代表预训练VGG16网络模块的高、宽、通道数。
优选地,获得归一化的特征图的方法为:
其中,c表示输入特征图的通道维度,n表示入batchsize的维度,u表示不同的空间自适应归一化模块,i和j分别表示特征图中元素的横纵坐标;表示归一化处理前的输入,/>表示特征图的均值,/>表示特征图的标准差;/>和/>表示空间自适应归一化模块的学习参数。
优选地,所述将上色图片和漫画线稿图片对应的彩色漫画图片输入第二判别器或第四判别器之前,还需要对上色图片和彩色漫画图片进行下采样。
优选地,对全自动上色模型和用户交互式半自动上色模型进行训练时,采用Adam梯度下降算法进行训练。
与现有技术相比,本发明技术方案的有益效果是:
本发明通过获取成对的彩色漫画图片和漫画线稿图片作为训练样本,对建立的全自动上色模型和用户交互式半自动上色模型进行训练,获得训练好的全自动上色模型或用户交互式半自动上色模型;选择上色方式,将待上色的漫画线稿输入训练好的全自动上色模型中输出不同上色方案的上色图片,或输入训练好的用户交互式半自动上色模型中输出用户指定上色方案的上色图片。本发明能够实现输入一张待上色的漫画线稿,输出多张不同上色方案的上色图片,上色效率高,上色效果好,并且还能输出用户指定上色方案的上色图片。
附图说明
图1为实施例所述的基于深度学习的漫画线稿上色方法的流程图;
图2为实施例所述的合成模拟漫画线稿图片的示意图;
图3为实施例所述的全自动上色模型的数据流向图;
图4为实施例所述的用户交互式半自动上色模型的数据流向图;
图5为实施例所述的获得模拟颜色提示的数据流向图
图6为实施例所述的全自动上色模型的上色效果图;
图7为实施例所述的用户交互式半自动上色模型的上色效果图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例
本实施例提供一种基于深度学习的漫画线稿上色方法,如图1所示所述方法包括以下步骤:
S1:获取成对的彩色漫画图片和漫画线稿图片作为训练样本,组成训练集;
所述漫画线稿图片为合成模拟漫画线稿图片,获得合成模拟漫画线稿图片的方法:
使用边界检测器XDoG对彩色漫画图片进行线稿提取,通过改变边界检测器XDoG的参数,获得不同级别线宽的漫画线稿图片;对不同级别线宽的漫画线稿图片进行位图-矢量-位图处理,统一线条后得到合成模拟漫画线稿图片;
手工线稿通常不具有固定的风格与线条样式,使用手工线稿来训练模型,很容易会导致模型对于手工线稿形式的过拟合。为了缓解这种现象,我们使用多种不同的方法合成多种不同样式的线稿图片作为训练集。具体地,应用边界检测器XDoG以生成更多具有不同样式的漫画线稿图片,为了模拟艺术家绘制的线稿图,我们将XDoG算法的参数设置为以使草图线条的边界处保持逐步过渡;将将其他默认值设置为τ=0.95,κ=4.5,参数σ设置为0.3/0.4/0.5,以获得不同级别的线宽,对不同级别线宽的漫画线稿图片进行位图-矢量-位图处理,统一线条后得到合成模拟漫画线稿图片。如图2所示,分别是使用XDoG算法,参数σ设定为0.3/0.4/0.5提取的漫画线稿图片。
S2:建立全自动上色模型和用户交互式半自动上色模型,利用训练集中的训练样本对全自动上色模型和用户交互式半自动上色模型进行训练,获得训练好的全自动上色模型或用户交互式半自动上色模型;训练时,采用Adam梯度下降算法进行训练;
建立全自动上色模型并训练的具体方法为:建立全自动上色模型,包括第一特征编码器、第一空间自适应归一化模块、第一生成器、第一判别器和第二判别器;
如图3所示,将漫画线稿图片输入至第一特征编码器中进行特征提取,获得漫画线稿图片的特征图;第一特征编码器由Conv2d-InstanceNormal-LeakyRelu(α=0.2)模块组成;
将特征图输入第一空间自适应归一化模块进行归一化,获得归一化的特征图;获得归一化的特征图的方法为:
其中,c表示输入特征图的通道维度,n表示入batchsize的维度,u表示不同的空间自适应归一化模块,i和j分别表示特征图中元素的横纵坐标;表示归一化处理前的输入,/>表示特征图的均值,/>表示特征图的标准差;/>和/>表示空间自适应归一化模块的学习参数;
将归一化的特征图输入第一生成器中,并向第一生成器输入随机隐变量,获得上色图片;
将上色图片和漫画线稿图片对应的彩色漫画图片输入第一判别器和第二判别器中,设置全自动上色模型损失函数,改变随机隐变量,对全自动上色模型进行训练,直到全自动上色模型损失函数收敛,获得训练好的全自动上色模型;
随机隐变量是一个256维服从标准高斯分布的随机变量,对生成器输入随机隐变量的目的是控制上色图片的生成;
使用两个不同尺度的PatchGAN判别器,在不同的尺度下对生成图片进行评价,获得更加准确的评价结果。第一判别器和第二判别器均由Conv2d-InstanceNomalization-Relu Block组成,卷积层步长均为2;第一判别器中输入的上色图片和彩色漫画图片为256*256*3,第二判别器中输入的上色图片和彩色漫画图片需要下采样为128*128*3。
所述全自动上色模型损失函数为:
式中:
其中,pA表示彩色漫画图片数据分布,pB表示漫画线稿图片数据分布,x,y表示采样的图片,x~pA表示x采样自彩色漫画图片,y~pB表示y采样自漫画线稿图片,z1表示随机隐变量,z1~pz表示随机隐变量z1采样自标准高斯分布;G1表示第一生成器,Dk表示第k判别器,k=1,2;表示第k判别器对抗损失函数,Ladv,G(G)表示第一生成器对抗损失函数,E(*)表示分布函数的期望值。
建立用户交互式半自动上色模型并训练的具体方法为:
建立用户交互式半自动上色模型,包括第二特征编码器、第二空间自适应归一化模块、第二生成器、第三判别器、第四判别器和预训练VGG16网络模块;
如图4所示,将漫画线稿图片输入至第二特征编码器中进行特征提取,获得漫画线稿图片的特征图;第二特征编码器由Conv2d-InstanceNormal-LeakyRelu(α=0.2)模块组成;
将特征图输入第二空间自适应归一化模块进行归一化,获得归一化的特征图;获得归一化的特征图的方法与全自动上色模型中的方法相同;
将归一化的特征图输入第二生成器中,并向第二生成器输入模拟颜色提示,模拟颜色提示与归一化的特征图在通道C维度上连接,获得上色图片;如图5所示,获得所述模拟颜色提示的方法为:
将彩色漫画图片转化为灰度图;使用二值化方法提取灰度图中图像的区域二值图mask,彩色漫画图片均为纯白背景,所以二值化阈值取250,即图片>255的值设置为1,<=255的值设置为0;
生成服从均匀分布值域为0~1的256*256维随机矩阵S和取值范围为0~0.002随机值α,将随机矩阵S中小于α的元素设置为1,大于α的元素设置为0;
将随机矩阵S与区域二值图mask相乘,获得采样矩阵K,并将采样矩阵K扩展到3通道与彩色漫画图片相乘,获得256*256*3的模拟用户颜色提示矩阵,作为模拟颜色提示。
将上色图片和漫画线稿图片对应的彩色漫画图片输入第三判别器、第四判别器和预训练VGG16网络模块中,设置用户交互式半自动上色模型损失函数,输入不同的模拟颜色提示,对用户交互式半自动上色模型进行训练,直到用户交互式半自动上色模型收敛,获得训练好的用户交互式半自动上色模型。
使用两个不同尺度的PatchGAN判别器,在不同的尺度下对生成图片进行评价,获得更加准确的评价结果。第三判别器和第四判别器均由Conv2d-InstanceNomalization-Relu Block组成,卷积层步长均为2;第三判别器中输入的上色图片和彩色漫画图片为256*256*3,第四判别器中输入的上色图片和彩色漫画图片需要下采样为128*128*3。
所述用户交互式半自动上色模型损失函数为:
式中:
其中,pA表示彩色漫画图片数据分布,pB表示漫画线稿图片数据分布,x,y表示采样的图片,x~pA表示x采样自彩色漫画图片,y~pB表示y采样自漫画线稿图片,z2表示模拟颜色提示,z2~pz表示模拟颜色提示z2采样自标准高斯分布;G2表示第二生成器,Dk表示第k判别器,k=3,4;表示第k判别器对抗损失函数,/>表示第二生成器对抗损失函数,Lcont表示感知损失函数,E(*)表示分布函数的期望值;h、w、c分别代表预训练VGG16网络模块的高、宽、通道数。
S3:获取待上色的漫画线稿,选择上色方式,将待上色的漫画线稿输入相应训练好的全自动上色模型或用户交互式半自动上色模型中进行上色;
S4:从全自动上色模型中输出不同上色方案的上色图片,或从用户交互式半自动上色模型中输出用户指定上色方案的上色图片。
在实际应用过程中,使用Anime sketch colorization Pair数据集中的彩色漫画图片和漫画线稿图片作为训练集,该数据集的图片全部都是漫画人物图片,均不存在背景。选用tensorflow 2.3.0框架建立全自动上色模型和用户交互式半自动上色模型,其中全自动上色模型和用户交互式半自动上色模型可以共用一套特征编码器、空间自适应归一化模块、生成器和两个不同尺度的判别器;训练过程中,采用Adam优化器,利用梯度下降算法对全自动上色模型和用户交互式半自动上色模型进行训练,生成器和判别器的学习率分别设置为0.0001和0.0004,每批大小设置为16。
对于全自动上色,将彩色漫画图片和漫画线稿图片输入全自动上色模型中,并输入随机隐变量,在训练集上训练130轮后,全自动上色模型损失函数收敛,获得训练好的全自动上色模型,模型会表现出多模态合成的性质;对于用户交互式半自动上色,将彩色漫画图片和漫画线稿图片输入用户交互式半自动上色模型中,并输入模拟颜色提示,在训练集上训练130轮后,用户交互式半自动上色模型损失函数收敛,获得训练好的用户交互式半自动上色模型;
训练好后,获取待上色的漫画线稿,选择上色方式,将待上色的漫画线稿输入相应的训练好的上色模型中。选择全自动上色时,将待上色的漫画线稿输入训练好的全自动上色模型,改变输入的随机隐变量的数值,如图6所示,获得不同的上色图片,还可以获得从一种颜色到另一种颜色过渡的一组上色图片;选择用户交互式上色时,将待上色的漫画线稿输入训练好的用户交互式半自动上色模型中,并且模拟颜色提示通过交互软件以用户手动打点的形式生成后输入模型中,如图7所示,生成与用户选择的模拟颜色提示相同颜色的上色图片。
FID用于评估真实图像和生成图像的特征向量之间的距离。较小的FID分数表示两组图像的分布更紧密。我们使用FID将我们的全自动上色模型和用户交互式半自动上色模型与相同数据集下传统的上色的模型AutoPainter和AlacGAN进行比较,评估上色效果。FID分数如下表所示:
model | val set without hint | val set with hints | Real Line Art without hint |
AutoPainter | 47.70 | 47.55 | 125.12 |
AlacGAN | 31.67 | 31.33 | 68.36 |
Ours(auto-color) | 28.80 | \ | 62.88 |
Ours(user-guide) | 34.14 | 17.85 | 35.81 |
从表中可以看出,第二列是基于没有模拟颜色提示的合成模拟漫画线稿图片,第三列是基于有模拟颜色提示的合成模拟漫画线稿图片,第四列是基于没有模拟颜色提示的手工线稿图片;全自动上色模型(Ours(auto-color))在没有模拟颜色提示的情况下,FID分数小于传统的上色的模型AutoPainter和AlacGAN的FID分数;用户交互式半自动上色模型(Ours(user-guide))在有模拟颜色提示的情况下,FID分数小于传统的上色的模型AutoPainter和AlacGAN的FID分数。综上所述,本实施例提供的基于深度学习的漫画线稿上色方法具有优秀的上色效果。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (7)
1.一种基于深度学习的漫画线稿上色方法,其特征在于,包括以下步骤:
S1:获取成对的彩色漫画图片和漫画线稿图片作为训练样本,组成训练集;
S2:建立全自动上色模型和用户交互式半自动上色模型,利用训练集中的训练样本对全自动上色模型和用户交互式半自动上色模型进行训练,获得训练好的全自动上色模型或用户交互式半自动上色模型;具体的:
获得训练好的全自动上色模型的方法为:
建立全自动上色模型,包括第一特征编码器、第一空间自适应归一化模块、第一生成器、第一判别器和第二判别器;
将漫画线稿图片输入至第一特征编码器中进行特征提取,获得漫画线稿图片的特征图;
将特征图输入第一空间自适应归一化模块进行归一化,获得归一化的特征图;
将归一化的特征图输入第一生成器中,并向第一生成器输入随机隐变量,获得上色图片;
将上色图片和漫画线稿图片对应的彩色漫画图片输入第一判别器和第二判别器中,设置全自动上色模型损失函数,改变随机隐变量,对全自动上色模型进行训练,直到全自动上色模型损失函数收敛,获得训练好的全自动上色模型;
获得训练好的用户交互式半自动上色模型的方法为:
建立用户交互式半自动上色模型,包括第二特征编码器、第二空间自适应归一化模块、第二生成器、第三判别器、第四判别器和预训练VGG16网络模块;
将漫画线稿图片输入至第二特征编码器中进行特征提取,获得漫画线稿图片的特征图;
将特征图输入第二空间自适应归一化模块进行归一化,获得归一化的特征图;
将归一化的特征图输入第二生成器中,并向第二生成器输入模拟颜色提示,获得上色图片;
将上色图片和漫画线稿图片对应的彩色漫画图片输入第三判别器、第四判别器和预训练VGG16网络模块中,设置用户交互式半自动上色模型损失函数,输入不同的模拟颜色提示,对用户交互式半自动上色模型进行训练,直到用户交互式半自动上色模型收敛,获得训练好的用户交互式半自动上色模型;
获得归一化的特征图的方法为:
其中,c表示输入特征图的通道维度,n表示batchsize的维度,u表示不同的空间自适应归一化模块,i和j分别表示特征图中元素的横纵坐标;表示归一化处理前的输入,表示特征图的均值,/>表示特征图的标准差;/>和/>表示空间自适应归一化模块的学习参数;
S3:获取待上色的漫画线稿,选择上色方式,将待上色的漫画线稿输入相应训练好的全自动上色模型或用户交互式半自动上色模型中进行上色;
S4:从全自动上色模型中输出不同上色方案的上色图片,或从用户交互式半自动上色模型中输出用户指定上色方案的上色图片。
2.根据权利要求1所述的基于深度学习的漫画线稿上色方法,其特征在于,所述步骤S1中,漫画线稿图片为合成模拟漫画线稿图片,获得合成模拟漫画线稿图片的方法:
使用边界检测器XDoG对彩色漫画图片进行线稿提取,通过改变边界检测器XDoG的参数,获得不同级别线宽的漫画线稿图片;对漫画线稿图片进行位图-矢量-位图处理,统一线条后得到合成模拟漫画线稿图片。
3.根据权利要求1所述的基于深度学习的漫画线稿上色方法,其特征在于,所述全自动上色模型损失函数为:
式中:
其中,pA表示彩色漫画图片数据分布,pB表示漫画线稿图片数据分布,x,y表示采样的图片,x~pA表示x采样自彩色漫画图片,y~pB表示y采样自漫画线稿图片,z1表示随机隐变量,z1~pz表示随机隐变量z1采样自标准高斯分布;G1表示第一生成器,Dk表示第k判别器,k=1,2;表示第k判别器对抗损失函数,/>表示第一生成器对抗损失函数,E(*)表示分布函数的期望值。
4.根据权利要求1所述的基于深度学习的漫画线稿上色方法,其特征在于,获得所述模拟颜色提示的方法为:
将彩色漫画图片转化为灰度图;使用二值化方法提取灰度图中图像的区域二值图mask;
生成随机矩阵S和随机值α,将随机矩阵S中小于α的元素设置为1,大于α的元素设置为0;
将随机矩阵S与区域二值图mask相乘,获得采样矩阵K,并将采样矩阵K扩展到3通道与彩色漫画图片相乘,获得模拟颜色提示。
5.根据权利要求1所述的基于深度学习的漫画线稿上色方法,其特征在于,所述用户交互式半自动上色模型损失函数为:
式中:
其中,pA表示彩色漫画图片数据分布,pB表示漫画线稿图片数据分布,x,y表示采样的图片,x~pA表示x采样自彩色漫画图片,y~pB表示y采样自漫画线稿图片,z2表示模拟颜色提示,z2~pz表示模拟颜色提示z2采样自标准高斯分布;G2表示第二生成器,Dk表示第k判别器,k=3,4;表示第k判别器对抗损失函数,/>表示第二生成器对抗损失函数,Lcont表示感知损失函数,E(*)表示分布函数的期望值;h、w、c分别代表预训练VGG16网络模块的高、宽、通道数。
6.根据权利要求1所述的基于深度学习的漫画线稿上色方法,其特征在于,所述将上色图片和漫画线稿图片对应的彩色漫画图片输入第二判别器或第四判别器之前,还需要对上色图片和彩色漫画图片进行下采样。
7.根据权利要求1所述的基于深度学习的漫画线稿上色方法,其特征在于,对全自动上色模型和用户交互式半自动上色模型进行训练时,采用Adam梯度下降算法进行训练。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2021104858026 | 2021-04-30 | ||
CN202110485802 | 2021-04-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113129409A CN113129409A (zh) | 2021-07-16 |
CN113129409B true CN113129409B (zh) | 2023-07-25 |
Family
ID=76781595
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110512222.1A Active CN113129409B (zh) | 2021-04-30 | 2021-05-11 | 一种基于深度学习的漫画线稿上色方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113129409B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115937356A (zh) * | 2022-04-25 | 2023-04-07 | 北京字跳网络技术有限公司 | 图像处理方法、装置、设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109544662A (zh) * | 2018-11-29 | 2019-03-29 | 文创智慧科技(武汉)有限公司 | 一种基于SRUnet的动漫风格线稿上色方法及系统 |
CN110223359A (zh) * | 2019-05-27 | 2019-09-10 | 浙江大学 | 一种基于生成对抗网络的双阶段多配色线稿上色模型及其构建方法和应用 |
CN111862270A (zh) * | 2020-07-16 | 2020-10-30 | 大连理工大学 | 一种基于双色彩空间引导的动漫线稿自动上色方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8913074B2 (en) * | 2004-05-05 | 2014-12-16 | Yissum Research Development Company Of The Hebrew University Of Jerusalem | Colorization method and apparatus |
-
2021
- 2021-05-11 CN CN202110512222.1A patent/CN113129409B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109544662A (zh) * | 2018-11-29 | 2019-03-29 | 文创智慧科技(武汉)有限公司 | 一种基于SRUnet的动漫风格线稿上色方法及系统 |
CN110223359A (zh) * | 2019-05-27 | 2019-09-10 | 浙江大学 | 一种基于生成对抗网络的双阶段多配色线稿上色模型及其构建方法和应用 |
CN111862270A (zh) * | 2020-07-16 | 2020-10-30 | 大连理工大学 | 一种基于双色彩空间引导的动漫线稿自动上色方法 |
Non-Patent Citations (1)
Title |
---|
注意力引导的交互式工笔花卉上色算法;李媛 等;模式识别与人工智能;第33卷(第07期);第575-587段 * |
Also Published As
Publication number | Publication date |
---|---|
CN113129409A (zh) | 2021-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107330956B (zh) | 一种漫画手绘图无监督上色方法及装置 | |
CN111563841B (zh) | 一种基于生成对抗网络的高分辨率图像生成方法 | |
CN110378985B (zh) | 一种基于gan的动漫绘画辅助创作方法 | |
CN110097609B (zh) | 一种基于样本域的精细化绣花纹理迁移方法 | |
CN111724299B (zh) | 一种基于深度学习的超现实主义绘画图像风格迁移方法 | |
CN110458844A (zh) | 一种低光照场景的语义分割方法 | |
CN108665005B (zh) | 一种利用dcgan提高基于cnn图像识别性能的方法 | |
CN109544662B (zh) | 一种基于SRUnet的动漫风格线稿上色方法及系统 | |
CN109376582A (zh) | 一种基于生成对抗网络的交互式人脸卡通方法 | |
CN110827213A (zh) | 一种基于生成式对抗网络的超分辨率图像修复方法 | |
CN110414519A (zh) | 一种图片文字的识别方法及其识别装置 | |
CN113724354B (zh) | 基于参考图颜色风格的灰度图像着色方法 | |
CN109948714A (zh) | 基于残差卷积和递归神经网络的中文场景文本行识别方法 | |
CN105488472A (zh) | 一种基于样本模板的数字化妆方法 | |
CN111986075A (zh) | 一种目标边缘清晰化的风格迁移方法 | |
CN113870371B (zh) | 基于生成对抗网络的图片颜色变换装置、方法和存储介质 | |
CN111161137A (zh) | 一种基于神经网络的多风格国画花生成方法 | |
CN112529789B (zh) | 一种城市可见光遥感图像阴影去除的弱监督方法 | |
CN112991493A (zh) | 基于vae-gan和混合密度网络的灰度图像着色方法 | |
CN113129409B (zh) | 一种基于深度学习的漫画线稿上色方法 | |
CN115018729B (zh) | 一种面向内容的白盒图像增强方法 | |
CN117333359A (zh) | 基于可分离卷积网络的山水画图像超分辨率重建方法 | |
CN111583412A (zh) | 构建书法浮雕深度学习网络的方法及构建书法浮雕的方法 | |
CN114187380B (zh) | 基于视觉显著性和通道注意力机制的色彩传递方法 | |
CN114627010B (zh) | 一种基于染色密度图的染色空间迁移方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |