CN111627080B - 基于卷积神经与条件生成对抗性网络的灰度图像上色方法 - Google Patents
基于卷积神经与条件生成对抗性网络的灰度图像上色方法 Download PDFInfo
- Publication number
- CN111627080B CN111627080B CN202010427953.1A CN202010427953A CN111627080B CN 111627080 B CN111627080 B CN 111627080B CN 202010427953 A CN202010427953 A CN 202010427953A CN 111627080 B CN111627080 B CN 111627080B
- Authority
- CN
- China
- Prior art keywords
- image
- network
- coloring
- images
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000004040 coloring Methods 0.000 title claims abstract description 88
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000003042 antagnostic effect Effects 0.000 title claims abstract description 16
- 210000005036 nerve Anatomy 0.000 title claims abstract description 7
- 238000012549 training Methods 0.000 claims abstract description 39
- 238000013526 transfer learning Methods 0.000 claims abstract description 8
- 239000003086 colorant Substances 0.000 claims abstract description 4
- 206010047571 Visual impairment Diseases 0.000 claims abstract 2
- 230000006870 function Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 7
- 230000006835 compression Effects 0.000 claims description 6
- 238000007906 compression Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 230000001537 neural effect Effects 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 4
- 210000002569 neuron Anatomy 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 14
- 230000000007 visual effect Effects 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提成一种基于卷积神经与条件生成对抗性网络的灰度图像上色方法,其采用基于残差网络的迁移学习方法对图像进行分类后,将原始灰色图像与该图像的标签一起输入到图像自动上色网络中,图像自动上色网络根据图像的标签为该图像匹配相对应的上色模型进行图像自动上色。该方法与以往传统的上色方法相比,此方法能够全面地对提取到的特征进行分类,再根据图像的分类,有目的地对目标对象进行自动上色,从而使图片上色效果更接近人们心中预设的视觉效果,且在相同的训练次数和学习率的条件下,该方法能够实现更好的上色效果。
Description
技术领域
本发明涉及图像处理技术领域,特别涉及一种基于卷积神经与条件生成对抗性网络的灰度图像上色方法。
背景技术
目前,对于图片上色主要还是运用Photoshop等软件手工完成。对于设计师来说,一张图片的上色,往往不仅需要花费很长的时间去完成,还要经过不断地研究、不断地调整和修改,才能得到满意的效果。因此,如果能够输入一张图片,就能够生成已经上色好的图片,仅仅需要几秒钟就可以自动完成手工可能需要一个月时间才能完成的工作,这样的方法会显得十分的重要且有意义。
图像着色技术在图像处理领域是非常重要的研究话题,其发展也越来越快,目前我们所公知的图片自动上色的技术中,大多数用的是条件生成对抗性网络,通过设计生成器和判别器。其中生成器的作用是生成图片并设法骗过判别器,而判别器则要区分图片的真假,通过对抗学习使得两者越来越强,使生成器生成的图片能够达到以假乱真的效果,最终经过生成器对图片进行上色。由于没有经过系统的图像分类,这样往往需要庞大且广泛的样本数和足够多的训练次数,要耗费比较长的时间去训练生成器和判别器,才能有比较好的上色效果,如果样本数和训练次数不够,因为受到图片类型或者图片色调的限制,上色后生成图片可能出现颜色比较单一或者颜色与图片不匹配的问题,和人们预设的上色效果差距过大。因此,如果能够加入图像分类模块,对图片的类型进行分类(如按照动物、植物、动漫、食物等等分类),将获得标签的图片输入到对抗网络中,根据标签的值选取对应的生成器进行上色,这样的上色效果会更好。另外,图像分类采用的是迁移学习的方法,传统的图像分类方法需要消耗大量的时间,且分类效果相对较差,而迁移学习的方法只需在一个特定的数据集上,重新利用已经训练过的卷积神经网络(CNN),并将其改造或迁移到一个不同的数据集中,重复使用训练过的卷积神经网络,这样能够有效的解决耗时较长的问题。
综上所述,基于卷积神经网络与条件生成对抗网络的灰度图片自动上色的方法研究中,如果按照现有的方法去实现,就需要去收集较多类型广泛的样本数据,并且需要耗费大量时间去训练条件生成网络的生成器和判别器,最终才能生成上色效果较好的图片,这样的方法耗时长、效果欠佳,不是一种理想的方法。
发明内容
鉴于以上内容,有必要提供一种基于卷积神经与条件生成对抗性网络的灰度图像上色方法,其利用深度学习与生成对抗网络(GANs)、迁移学习等技术,提供一个能够准确快速以及精确上色的全自动灰度图像彩色化的方法,从而给输入的灰度图片自动上色,省去手工上色所需花费的大量时间,同时耗时短、效果好。
为达到上述目的,本发明所采用的技术方案是:
一种基于卷积神经与条件生成对抗性网络的灰度图像上色方法,其采用基于残差网络的迁移学习方法对图像进行分类后,将原始灰色图像与该图像的标签一起输入到图像自动上色网络中,图像自动上色网络根据图像的标签为该图像匹配相对应的上色模型进行图像自动上色,该上色方法具体包括如下步骤:
(一)模型建立
1)收集数据
1.1)收集大量的彩色图片,并对收集到的数据做数据增操作处理,数据增操作包括图像旋转、图像亮度调整等;然后,将数据的尺寸通过图像裁剪,处理成相同的大小;
1.2)给数据集中的图像添加标签,同一类的图像标签相同,不同类的图像标签不同,图像类别数设为N;
1.3)划分收集的数据,其中90%作为训练集,10%作为测试集;
2)建立图像分类网络模型
图像分类网络模型由残差网络结构组成,该残差结构包含五个卷积层组、一个全局平均池化层、一个全连接层和一个Softmax层,其中,将Softmax层的神经元数目设为N;
3)建立图像自动上色网络模型
图像自动上色网络选用带有条件生成对抗性网络的Pix2Pix模型,该Pix2Pix模型由生成器网络与判别器网络两部分组成;其中,生成器网络选用U-Net结构,该U-Net结构由压缩路径和扩展路径组成,在压缩路径,其重复采用两个卷积层和一个最大池化层的结构,在扩展路径,其重复采用一个反卷积层和两个卷积层的结构;判别器网络使用PatchGAN,其将图像分割成每个大小为M x M的图像块(patch),判别器对每一个patch做真假判别,将一张图片所有patch的结果取平均作为最终的判别器输出;
(二)图像上色
1)加载训练好的图像分类网络模型与图像自动上色网络模型;
2)输入待上色的灰色图像,该灰色图像经过图像分类网络获得标签后再连同所获得的标签输入到图像自动上色网络中;
3)在图像自动上色网络中,根据输入的图像标签,加载对应的图像上色模型,将待上色的灰色图像送入该图像上色模型中进行上色,得到一张彩色图像。
进一步地,图像分类网络模型的训练过程包括以下步骤:
2.1)获得做了标签的数据集;
2.2)向残差网络结构中输入数据集中的训练集图像;
2.3)图像经过残差网络结构输出该图像是某个类别的概率,所输出的所有类别的概率之和为1;
2.4)通过比较所有类别的概率,输出概率最大的标签值,该标签值所对应的类别即为图像分类网络针对该图像判别出来其所属于的类别,将该标签值与图像真实的标签值比较,并根据比较结果优化网络的参数;
2.5)重复步骤2.2)-2.4),直到训练图像完全输入或者图像分类网络的正确率符合预先的期望值为止,保存图像分类网络模型。
进一步地,图像自动上色网络模型的训练过程包括以下步骤:
3.1)获得做了标签的数据集;
3.2)将数据集所有类别中没有训练过的某一类别图像的训练集输入到图像自动上色网络中;
3.3)对输入到图像自动上色网络中的彩色图像x进行灰度化处理,灰度化图像y作为生成器网络G的输入,生成器网络G使用U-Net结构通过对灰度化图像y进行特征提取与上采样后,输出图像特征张量,该图像特征张量是生成器网络G对输出图像的a*,b*颜色通道的预测值;最后,生成器网络G将得到的图像特征张量与灰度化图像中包含的L*通道结合到一起,获得基于CIE色彩空间并与原输入图像底层结构大致相同的上色图像G(y),生成器网络G在不断的训练中学习从灰度图像到彩色图像的非线性映射;
3.4)上色图像G(y)与原始彩色图像x构成图像对(x,G(y)),彩色图像x与彩色图像x构成图像对(x,x),将(x,G(y))、(x,x)作为判别器网络D的输入,判别器网络D通过PatchGAN对图像的每一个patch做真假判断,进而得出图像对之间是否真的是对应的,即G(y)是否就是x,x是否就是x;
3.5)判别器网络D与生成器网络G通过损失函数交替优化自己的参数,生成器网络G的优化目标是使(G(y),x)之间的损失越小越好,判别器网络D的目标则是(G(y),x)之间的损失尽可能的大,(x,x)之间的损失尽可能的小;
3.6)训练完输入的图像,根据标签保存模型到该类别对应的模型保存路径中;
3.7)重复步骤3.2)-3.6),直到所有类别都训练完成。
进一步地,在将训练集图像输入到图像分类网络中训练前,将图像通过中心裁剪的方法进行尺寸上的裁剪,但不改变原始图像的尺寸。
与现有技术相比,本发明具有以下有益效果:
1、用户可以方便快捷地对灰度图像进行自动上色,其无需提取构建映射集合的特征,只需输入图像训练系统即可利用模型完成对灰度图像的自动上色。
2、本发明采用条件生成对抗网络,得到的深度学习模型减少了图像到图像的结构化损失,不出现模糊图像,使生成的图像的着色效果更趋近于饱和,更真实,并且,条件生成对抗网络网络层数较少,训练时间快,方法简单实用。
3、我们在图像上色前加入了一个采用迁移学习方法的图像分类系统,迁移学习网络方便增加、删除类别,图像通过图像分类后再输入图像上色模型使得彩色化后的图像细节更加丰富,物体颜色更加一致,极大的简化了模型着色的难度。
总而言之,本发明的上色方法与以往传统的上色方法相比,能够全面地对提取到的特征进行分类,再根据图像的分类,有目的地对目标对象进行自动上色,从而使图片上色效果更接近人们心中预设的视觉效果,且在相同的训练次数和学习率的条件下,该方法能够实现更好的上色效果。
附图说明
图1为本发明的流程图,
图2为ResNet-50结构图,
图3为图像数据输入网络的流程图,
图4为动漫类图像上色效果,
图5为食物类图像上色效果。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行进一步的描述,但不以任何方式限制本发明的范围,此外,对实施例的各种特征的引用并不代表所有的实施例都必须包括所引用的特征。
清参阅图1所给的本发明的流程框图,本发明提供的一种基于卷积神经与条件生成对抗性网络的灰度图像上色方法,其采用基于残差网络的迁移学习方法对图像进行分类后,将原始灰色图像与该图像的标签一起输入到图像自动上色网络中,图像自动上色网络根据图像的标签为该图像匹配相对应的上色模型进行图像自动上色,该上色方法具体包括如下步骤:
(一)模型建立
1)收集数据
1.1)收集大量的彩色图片,并对收集到的数据做数据增操作处理,数据增操作包括图像旋转、图像亮度调整等;然后,将数据的尺寸通过图像裁剪,处理成相同的大小,例如,大小均为256*256。
1.2)给数据集中的图像添加标签,同一类的图像标签相同,不同类的图像标签不同,图像类别数设为N。
1.3)划分收集的数据,其中90%作为训练集,10%作为测试集。
基于上述收集数据的步骤,在本实施方式中,其具体可为:
(1)在收集图像时,按类别分多个文件保存,并依次对各个文件夹的数据单独进行数据增强操作时。
(2)对各个类别的图像添加标签,每个类别的图像标签均进行编码,确定好各个类别所对应的编码后,对各个类别的文件夹进行重命名操作,重命名的方式为“类别编码_文件夹原名”;在该步中,对类别进行编码时,根据设定类别数N的位数进行编码,如,N为两位数,则标签所对应的编码就分别为00、01、02...N-1;N为三位数,标签所对应的编码就分别为000、001、002...N-1,需要说明的是,在编码时,要保证各编码出现的次数近似,即保证在收集数据时各个类别的均匀性。
(3)从各个类别的文件夹中各取出10%的图像作为测试集,测试集中的图像存储方式同训练集。
(4)需要获取图像的标签时,可按N的位数从图像的文件路径中提取。
2)建立图像分类网络模型
图像分类网络模型由残差网络结构组成,该残差结构包含五个卷积层组、一个全局平均池化层、一个全连接层和一个Softmax层,其中,将Softmax层的神经元数目设为N。
本发明的图像分类网络模型利用残差网络结构实现,在本实施方式中,具体采用的是ResNet-50网络结构,ResNet-50结构如图2所示,在该网络模型中,残差结构能够对每层的输入做一个参考,它学习的是残差函数,而不是其他一些没有参考的函数,残差函数可以保证更深一层的网络起码等于上一层的网络,而不会比它更差。
3)建立图像自动上色网络模型
图像自动上色网络选用带有条件生成对抗性网络的Pix2Pix模型,该Pix2Pix模型由生成器网络与判别器网络两部分组成;其中,生成器网络选用U-Net结构,该U-Net结构由压缩路径和扩展路径组成,在压缩路径,其重复采用两个卷积层和一个最大池化层的结构,在扩展路径,其重复采用一个反卷积层和两个卷积层的结构;判别器网络使用PatchGAN,其将图像分割成每个大小为M x M的图像块(patch),例如,在本实施方式中,M取70,判别器对每一个patch做真假判别,将一张图片所有patch的结果取平均作为最终的判别器输出。
需要说明的是,生成器网络的激活函数除了最后一层都采用ReLu函数,最后一层采用tanh函数,这是因为最后一层需要输出图像,图像的像素值是有取值范围的(例如,0~255),而ReLU函数的输出可能会很大。判别器网络的激活函数全部采用ReLU函数。
(二)图像上色
1)加载训练好的图像分类网络模型与图像自动上色网络模型。
2)输入待上色的灰色图像,该灰色图像经过图像分类网络获得标签后再连同所获得的标签输入到图像自动上色网络中;
3)在图像自动上色网络中,根据输入的图像标签,加载对应的图像上色模型,将待上色的灰色图像送入该图像上色模型中进行上色,得到一张彩色图像。
在本发明中,图像分类网络模型与图像自动上色网络模型的训练过程分别如下:
图像分类网络模型的训练过程包括以下步骤:
2.1)获得做了标签的数据集。
2.2)向残差网络结构中输入数据集中的训练集图像;其中,在本实施方式中,所输入的图像规格为224*224。
2.3)图像经过残差网络结构输出该图像是某个类别的概率,所输出的所有类别的概率之和为1。
2.4)通过比较所有类别的概率,输出概率最大的标签值,也就是,经过softmax层后,系统输出的是概率最大的label值,该标签值所对应的类别即为图像分类网络针对该图像判别出来其所属于的类别,将该标签值与图像真实的标签值比较,并根据比较结果优化网络的参数。
2.5)重复步骤2.2)-2.4),直到训练图像完全输入或者图像分类网络的正确率符合预先的期望值为止,保存图像分类网络模型。
图像自动上色网络模型的训练过程包括以下步骤:
3.1)获得做了标签的数据集。
3.2)将数据集所有类别中没有训练过的某一类别图像的训练集输入到图像自动上色网络中。
3.3)对输入到图像自动上色网络中的彩色图像x进行灰度化处理,灰度化图像y作为生成器网络G的输入,生成器网络G使用U-Net结构通过对灰度化图像y进行特征提取与上采样后,输出图像特征张量,在本实施方式中,该图像特征张量的尺寸为256*256*2,该图像特征张量是生成器网络G对输出图像的a*,b*颜色通道的预测值;最后,生成器网络G将得到的图像特征张量与灰度化图像中包含的L*通道结合到一起,获得基于CIE色彩空间并与原输入图像底层结构大致相同的上色图像G(y),生成器网络G在不断的训练中学习从灰度图像到彩色图像的非线性映射。
在该步中,生成器网络G输出图像特征张量的同时,U-Net采取的对i层与n-i层做一个残差连接(skip-connect)的方法让G(y)尽可能的保存了y的一些信息,从而时G(y)能更接近x。
3.4)上色图像G(y)与原始彩色图像x构成图像对(x,G(y)),彩色图像x与彩色图像x构成图像对(x,x),将(x,G(y))、(x,x)作为判别器网络D的输入,判别器网络D通过PatchGAN对图像的每一个patch做真假判断,进而得出图像对之间是否真的是对应的,即G(y)是否就是x,x是否就是x。
3.5)判别器网络D与生成器网络G通过损失函数交替优化自己的参数,生成器网络G的优化目标是使(G(y),x)之间的损失越小越好,判别器网络D的目标则是(G(y),x)之间的损失尽可能的大,(x,x)之间的损失尽可能的小。在本实施方式中,使用梯度下降法对D和G的参数交替做优化。
3.6)训练完输入的图像,根据标签保存模型到该类别对应的模型保存路径中;即,一个类别的图像自动上色网络训练完成之后,保存模型到该类别对应的模型保存文件夹中。
3.7)重复步骤3.2)-3.6),直到所有类别都训练完成,此时,每个类别都有了对应的图像上色模型。
需要说明是的,由于图像自动上色网络的训练需要大量的彩色-灰度相对应的图像,所以本实施方式中默认收集的图像都是彩色图像,图像自动上色网络输入图像的规格是256*256。
进一步地,由于图像分类网络的输入规格与图像自动上色网络的输入规格不一致,在将训练集图像输入到图像分类网络中训练前,将图像通过中心裁剪的方法进行尺寸上的裁剪,例如,剪裁为尺寸为224*224的图像,但不改变原始图像的尺寸,具体实现方法如图3所示。
上述说明是针对本发明较佳可行实施例的详细说明,但实施例并非用以限定本发明的专利申请范围,凡本发明所提示的技术精神下所完成的同等变化或修饰变更,均应属于本发明所涵盖专利范围。
Claims (4)
1.一种基于卷积神经与条件生成对抗性网络的灰度图像上色方法,其特征在于,其采用基于残差网络的迁移学习方法对图像进行分类后,将原始灰色图像与该图像的标签一起输入到图像自动上色网络中,图像自动上色网络根据图像的标签为该图像匹配相对应的上色模型进行图像自动上色,该上色方法具体包括如下步骤:
(一)模型建立
1)收集数据
1.1)收集大量的彩色图片,并对收集到的数据做数据增操作处理,数据增操作包括图像旋转、图像亮度调整等;然后,将数据的尺寸通过图像裁剪,处理成相同的大小;
1.2)给数据集中的图像添加标签,同一类的图像标签相同,不同类的图像标签不同,图像类别数设为N;
1.3)划分收集的数据,其中90%作为训练集,10%作为测试集;
2)建立图像分类网络模型
图像分类网络模型由残差网络结构组成,该残差结构包含五个卷积层组、一个全局平均池化层、一个全连接层和一个Softmax层,其中,将Softmax层的神经元数目设为N;
3)建立图像自动上色网络模型
图像自动上色网络选用带有条件生成对抗性网络的Pix2Pix模型,该Pix2Pix模型由生成器网络与判别器网络两部分组成;其中,生成器网络选用U-Net结构,该U-Net结构由压缩路径和扩展路径组成,在压缩路径,其重复采用两个卷积层和一个最大池化层的结构,在扩展路径,其重复采用一个反卷积层和两个卷积层的结构;判别器网络使用PatchGAN,其将图像分割成每个大小为M x M的图像块(patch),判别器对每一个patch做真假判别,将一张图片所有patch的结果取平均作为最终的判别器输出;
(二)图像上色
1)加载训练好的图像分类网络模型与图像自动上色网络模型;
2)输入待上色的灰色图像,该灰色图像经过图像分类网络获得标签后再连同所获得的标签输入到图像自动上色网络中;
3)在图像自动上色网络中,根据输入的图像标签,加载对应的图像上色模型,将待上色的灰色图像送入该图像上色模型中进行上色,得到一张彩色图像。
2.如权利要求1所述的基于卷积神经与条件生成对抗性网络的灰度图像上色方法,其特征在于,图像分类网络模型的训练过程包括以下步骤:
2.1)获得做了标签的数据集;
2.2)向残差网络结构中输入数据集中的训练集图像;
2.3)图像经过残差网络结构输出该图像是某个类别的概率,所输出的所有类别的概率之和为1;
2.4)通过比较所有类别的概率,输出概率最大的标签值,该标签值所对应的类别即为图像分类网络针对该图像判别出来其所属于的类别,将该标签值与图像真实的标签值比较,并根据比较结果优化网络的参数;
2.5)重复步骤2.2)-2.4),直到训练图像完全输入或者图像分类网络的正确率符合预先的期望值为止,保存图像分类网络模型。
3.如权利要求1所述的基于卷积神经与条件生成对抗性网络的灰度图像上色方法,其特征在于,图像自动上色网络模型的训练过程包括以下步骤:
3.1)获得做了标签的数据集;
3.2)将数据集所有类别中没有训练过的某一类别图像的训练集输入到图像自动上色网络中;
3.3)对输入到图像自动上色网络中的彩色图像x进行灰度化处理,灰度化图像y作为生成器网络G的输入,生成器网络G使用U-Net结构通过对灰度化图像y进行特征提取与上采样后,输出图像特征张量,该图像特征张量是生成器网络G对输出图像的a*,b*颜色通道的预测值;最后,生成器网络G将得到的图像特征张量与灰度化图像中包含的L*通道结合到一起,获得基于CIE色彩空间并与原输入图像底层结构大致相同的上色图像G(y),生成器网络G在不断的训练中学习从灰度图像到彩色图像的非线性映射;
3.4)上色图像G(y)与原始彩色图像x构成图像对(x,G(y)),彩色图像x与彩色图像x构成图像对(x,x),将(x,G(y))、(x,x)作为判别器网络D的输入,判别器网络D通过PatchGAN对图像的每一个patch做真假判断,进而得出图像对之间是否真的是对应的,即G(y)是否就是x,x是否就是x;
3.5)判别器网络D与生成器网络G通过损失函数交替优化自己的参数,生成器网络G的优化目标是使(G(y),x)之间的损失越小越好,判别器网络D的目标则是(G(y),x)之间的损失尽可能的大,(x,x)之间的损失尽可能的小;
3.6)训练完输入的图像,根据标签保存模型到该类别对应的模型保存路径中;
3.7)重复步骤3.2)-3.6),直到所有类别都训练完成。
4.如权利要求1所述的基于卷积神经与条件生成对抗性网络的灰度图像上色方法,其特征在于,在将训练集图像输入到图像分类网络中训练前,将图像通过中心裁剪的方法进行尺寸上的裁剪,但不改变原始图像的尺寸。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010427953.1A CN111627080B (zh) | 2020-05-20 | 2020-05-20 | 基于卷积神经与条件生成对抗性网络的灰度图像上色方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010427953.1A CN111627080B (zh) | 2020-05-20 | 2020-05-20 | 基于卷积神经与条件生成对抗性网络的灰度图像上色方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111627080A CN111627080A (zh) | 2020-09-04 |
CN111627080B true CN111627080B (zh) | 2022-11-18 |
Family
ID=72259996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010427953.1A Expired - Fee Related CN111627080B (zh) | 2020-05-20 | 2020-05-20 | 基于卷积神经与条件生成对抗性网络的灰度图像上色方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111627080B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11720647B2 (en) * | 2020-08-21 | 2023-08-08 | GE Precision Healthcare LLC | Synthetic training data generation for improved machine learning model generalizability |
CN112084728B (zh) * | 2020-09-07 | 2022-11-01 | 中国人民解放军战略支援部队信息工程大学 | 基于pix2pix的PCB灰度图像着色方法及系统 |
CN112164017B (zh) * | 2020-09-27 | 2023-11-17 | 中国兵器工业集团第二一四研究所苏州研发中心 | 一种基于深度学习的偏振彩色化方法 |
CN112446382B (zh) * | 2020-11-12 | 2022-03-25 | 云南师范大学 | 一种基于细粒度语义级的民族服饰灰度图像着色方法 |
CN112700366A (zh) * | 2021-01-04 | 2021-04-23 | 北京工业大学 | 一种基于ivus图像的血管伪彩图像重建方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107833183A (zh) * | 2017-11-29 | 2018-03-23 | 安徽工业大学 | 一种基于多任务深度神经网络的卫星图像同时超分辨和着色的方法 |
CN107886510A (zh) * | 2017-11-27 | 2018-04-06 | 杭州电子科技大学 | 一种基于三维全卷积神经网络的前列腺mri分割方法 |
CN110533578A (zh) * | 2019-06-05 | 2019-12-03 | 广东世纪晟科技有限公司 | 一种基于条件对抗神经网络的图像翻译方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2018100325A4 (en) * | 2018-03-15 | 2018-04-26 | Nian, Xilai MR | A New Method For Fast Images And Videos Coloring By Using Conditional Generative Adversarial Networks |
US10896524B2 (en) * | 2018-05-18 | 2021-01-19 | The Governing Council Of The University Of Toronto | Method and system for color representation generation |
CN109543827B (zh) * | 2018-12-02 | 2020-12-29 | 清华大学 | 生成式对抗网络装置及训练方法 |
CN109859288B (zh) * | 2018-12-25 | 2023-01-10 | 苏州飞搜科技有限公司 | 基于生成对抗网络的图像上色方法及装置 |
CN110335324A (zh) * | 2019-05-22 | 2019-10-15 | 湖南大学 | 一种基于rgb三通道多路合成的灰度图像着色方法及系统 |
CN111027575B (zh) * | 2019-12-13 | 2022-06-17 | 广西师范大学 | 一种自注意对抗学习的半监督语义分割方法 |
-
2020
- 2020-05-20 CN CN202010427953.1A patent/CN111627080B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107886510A (zh) * | 2017-11-27 | 2018-04-06 | 杭州电子科技大学 | 一种基于三维全卷积神经网络的前列腺mri分割方法 |
CN107833183A (zh) * | 2017-11-29 | 2018-03-23 | 安徽工业大学 | 一种基于多任务深度神经网络的卫星图像同时超分辨和着色的方法 |
CN110533578A (zh) * | 2019-06-05 | 2019-12-03 | 广东世纪晟科技有限公司 | 一种基于条件对抗神经网络的图像翻译方法 |
Non-Patent Citations (2)
Title |
---|
林家骏 等."基于像素级生成对抗网络的复杂场景灰度图像彩色化".《计算机辅助设计与图形学学报》.2019,第31卷(第3期), * |
滕文秀等.基于深度迁移学习的无人机高分影像树种分类与制图.《激光与光电子学进展》.2018,第56卷(第07期),第072801-2 - 072810-10页. * |
Also Published As
Publication number | Publication date |
---|---|
CN111627080A (zh) | 2020-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111627080B (zh) | 基于卷积神经与条件生成对抗性网络的灰度图像上色方法 | |
CN107527318B (zh) | 一种基于生成对抗式网络模型的发型更换方法 | |
CN109086722B (zh) | 混合车牌识别方法、装置、电子设备 | |
CN104866578B (zh) | 一种不完整物联网数据混合填充方法 | |
CN107526785A (zh) | 文本分类方法及装置 | |
CN106528826A (zh) | 一种基于深度学习的多视图外观专利图像检索方法 | |
CN103942571B (zh) | 一种基于遗传规划算法的图形图像分类方法 | |
CN109948692B (zh) | 基于多颜色空间卷积神经网络及随机森林的计算机生成图片检测方法 | |
CN111833322B (zh) | 一种基于改进YOLOv3的垃圾多目标检测方法 | |
CN111178312B (zh) | 基于多任务特征学习网络的人脸表情识别方法 | |
CN107480723B (zh) | 基于局部二进制阈值学习网络的纹理识别方法 | |
CN107516103A (zh) | 一种影像分类方法和系统 | |
CN107506362B (zh) | 基于用户群优化的图像分类仿脑存储方法 | |
CN107958219A (zh) | 基于多模型和多尺度特征的图像场景分类方法 | |
CN111160481A (zh) | 基于深度学习的adas目标检测方法及系统 | |
CN117788957B (zh) | 一种基于深度学习的资质图像分类方法及系统 | |
CN110163206B (zh) | 车牌识别方法、系统、存储介质和装置 | |
CN111815526A (zh) | 基于图像滤波和cnn的有雨图像雨条纹去除方法及系统 | |
CN112836755B (zh) | 基于深度学习的样本图像生成方法及其系统 | |
CN113888505A (zh) | 一种基于语义分割的自然场景文本检测方法 | |
CN111461135B (zh) | 利用卷积神经网络集成的数字图像局部滤波取证方法 | |
US20230360294A1 (en) | Unsupervised style and color cues for transformer-based image generation | |
CN115100509B (zh) | 基于多分支块级注意力增强网络的图像识别方法及系统 | |
CN116091918A (zh) | 一种基于数据增强的土地利用分类方法及系统 | |
CN114332491A (zh) | 一种基于特征重构的显著性目标检测算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20221118 |
|
CF01 | Termination of patent right due to non-payment of annual fee |