CN107862668A - 一种基于gnn的文物图像复原方法 - Google Patents
一种基于gnn的文物图像复原方法 Download PDFInfo
- Publication number
- CN107862668A CN107862668A CN201711189780.9A CN201711189780A CN107862668A CN 107862668 A CN107862668 A CN 107862668A CN 201711189780 A CN201711189780 A CN 201711189780A CN 107862668 A CN107862668 A CN 107862668A
- Authority
- CN
- China
- Prior art keywords
- msub
- mrow
- image
- gnn
- networks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000010422 painting Methods 0.000 claims abstract description 11
- 238000012549 training Methods 0.000 claims abstract description 11
- 238000010276 construction Methods 0.000 claims abstract 3
- 230000006870 function Effects 0.000 claims description 38
- 230000004913 activation Effects 0.000 claims description 10
- 238000009826 distribution Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 4
- 238000011478 gradient descent method Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 230000004069 differentiation Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 claims description 2
- 230000002950 deficient Effects 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims description 2
- 230000001771 impaired effect Effects 0.000 claims description 2
- 238000003475 lamination Methods 0.000 claims description 2
- 238000002203 pretreatment Methods 0.000 claims description 2
- 230000011218 segmentation Effects 0.000 claims description 2
- 238000010187 selection method Methods 0.000 claims 1
- 238000011084 recovery Methods 0.000 abstract description 2
- 238000007781 pre-processing Methods 0.000 abstract 1
- 238000013461 design Methods 0.000 description 4
- 230000005012 migration Effects 0.000 description 3
- 238000013508 migration Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005562 fading Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于GNN的文物图像复原方法,把掉色、轻微残缺文物照片复原成较为完整的彩色图像,包括以下步骤:a)采集训练图像;b)图像预处理;c)基于深度卷积网络构造GNN网络;d)对GNN网络进行训练;e)根据训练好的GNN网络生成文物复原图像。本发明的一种基于GNN网络的文物图像复原方法,能够非人工地生成掉色文物可能的颜色特征,把边角有轻微损坏的部分自动补全。比如对损坏的壁画进行恢复,复原其残缺的部分或者恢复其原色彩,本发明可以省去人工设计、还原的繁琐步骤。
Description
技术领域
本发明属于计算机视觉和模式识别领域,涉及模式识别、数字图像处理、人工智能、计算机科学等多门学科,具体涉及一种基于GNN网络的文物图像复原方法。
背景技术
壁画等文物具有丰富的艺术价值和历史意义,运用深度学习迁移图像风格能够节省很多人力、物力去设计、构想被破坏的文物。本文以迁移图像风格,给褪色或轻微残缺的文物上色或自动构造其残缺的形态部分,能够给文物工作者减轻构想、设计方面极大的工作量。
发明内容
发明目的:针对现有技术中存在的问题,本发明提供一种基于GNN网络的文物图像复原方法。
技术方案:为解决上述技术问题,本发明的一种基于GNN网络的文物图像复原方法采用如下技术方案:
一种GNN网络的文物图像复原方法,包括以下步骤:
a、采集文物图像;
b、预处理步骤a中采集到的图像,对训练图像进行大小归一化处理,把较大像素的图像分割或者提取重要的部分,得到若干个训练样本,将其处理为256*256像素;
c、基于深度卷积网络构造GNN网络;
d、对GNN网络进行训练;
e、根据训练好的GNN网络复原受损的文物的图像;
f、如果在步骤b中把图像分割成较小的部分,需要将它们拼接起来;
更进一步的,步骤b中所述预处理包括图像的像素缩放,图像类型转换。
更进一步的,步骤b中所述文物图像像素过大时,裁剪需要处理的图像部分,分别处理,再组合成整张图像,或者挑取其中重点需要的某个部分。
更进一步的,已有的图像迁移研究成果经常为配对式的,物体转换跨度不大,比如不能把单色图像变成不同风格的彩色图像,步骤c采用了如下步骤实现了跨度较大的风格迁移,但是这个跨度又在可控的范围之内:
(1)将原GNN网络的输入噪声用一幅图像代替,使原始图像风格向着有较大可控方向上的迁移;
(2)采用一个自编码器对原图进行处理,输出新特征的图像,新特征图像与原图相比基本特征不变,而风格有所改变;
(3)把新特征的图像通过与(2)结构相同的自编码器进行操作得到新图像;
(4)把(1)的原始图像与(3)中得到的新图像进行相似度比较,得到一个改造的损失函数,使得共享特征后图像的变化范围在一个可控的区域内;
更进一步的,步骤c为了使得到的网络较为稳定,朝某种角度变化或色调迁移不会失真,采用两条路径双向操作,使用了以下步骤:
(1)将第一类图像作为判别器的真实输入,第二类图像经过一次自编码器后的图像作为判别器的虚假的输入,比例为1:1;
(2)将第二类图像作为判别器的真实输入,第一类图像经过一次自编码器后的图像作为判别器的虚假的输入,比例为1:1;
其中,第一类图像是原始图像,第二类图像是希望复原成某种风格的目标图像。
(3)把(1)和(2)两个步骤得到的判别器的损失函数相加得到总的损失函数;
(4)GNN网络的损失函数为非结构化的原图与经过两次自编码器后生成的图像的相似度的损失函数和生成器损失函数之和;
(5)最优化损失函数的和,使得生成图像比较稳定;
更进一步的,步骤c把判别网络(比如)的损失函数最大化右部分式子变成最小化看它的变化曲线能够满足梯度下降时,梯度变化由快到慢,结果可能会较为精确;
更进一步的,步骤c中不用k次迭代调整判别网络后再调整一次GNN网络,可以同时训练生成器和判别器;
更进一步的,步骤f中如果拼接的图像之间纹路不能很好的吻合,采用不同的分割方式,再运行一次算法,将间隙拼接起来。
有益效果:本发明的一种基于GNN网络的文物图像复原方法,能够很好的给文物着色,修复轻微残缺的部分。相比已有的方法,人为的学习当时的风俗环境,查阅各种资料,减轻了繁琐的工作量,能够自动化的完成这些工作,并且更为精准。
附图说明
图1为本发明基于GNN网络的文物图像复原方法流程图。
具体实施方式
下面结合具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
一种基于GNN网络的文物图像复原方法,把掉色、轻微残缺的壁画文物的照片风格迁移成较为完整的彩色图像,用以较佳的实施及附图配合详细说明,说明如下:
如图1所示,本发明所述一种基于GNN网络的文物图像复原方法,生成壁画复原图像,包括以下步骤
第一步,采集壁画图像;
第二步,预处理相应图像,对训练图像进行大小归一化处理,把较大像素的图像分割或者提取重要的部分,得到若干个训练样本,将其处理为256*256像素;
第三步,基于深度卷积网络构造GNN网络,能够生成相应风格的壁画图像。由于壁画图像比较精细复杂,相对一般的图像比较复杂,不一定完整,用该GNN网络能够减小实验的复杂性,产生更逼真的图像。
其具体步骤如下:
生成判别式网络:
(1)设置卷积神经网络模型的网络层为4层;
(2)每一层的卷积核为4*4,使用LeakyReLU激活函数,步长为2,每经过一层,长、宽分别缩小至原来的1/2;
(3)设置反卷积网络为4层,反卷积层是卷积层网络的逆过程;
(4)前三层的反卷积核为4*4,使用LeakyReLU激活函数,步长为2,每经过一层,长宽分别扩大至原来的2倍;
(5)第四层的反卷积核为4*4,不使用激活函数,反卷积的输出即为生成器的输出,它是256*256像素的一幅图像;
生成对抗网络:
(1)设置对抗层网络模型的网络层为5层;
(2)前4层卷积核是4*4,使用LeakyReLU激活函数,步长为2,每经过一层,长、宽分别缩小至原来的1/2;
(3)第五层卷积核为4*4,不使用激活函数,步长为4,输出即为对抗网络的输出,它是256*256的一幅图像;
连接生成网络和判别网络,包括以下步骤:
(1)将原始图像输入到GNN网络中,得到第一张不同风格的图像,把得到的这张图像继续放入GNN网络中,得到第二张生成的图像;
(2)为了经过一个序列的两个生成器后,图像的变化量尽量小,使类似于加入噪声的图像输入变化范围在一定的区域内,使输入和输出共享一些特征,计算原始图像与第二张图像的相似度,通过调整这个相似度控制生成器的变化范围;
(3)使用另一张原始图像,重复步骤(1)和(2),得到另一组两个生成器组成的序列结构;
(4)把第一组序列的初始图像当做真样本输入第一个判别器,把第二组序列中通过第一个生成器产生的图像作为假样本输入第一个判别器;
(5)与(4)类似,把第二组序列的初始图像当做真样本输入第二个判别器,把第一组序列中通过第一个生成器产生的图像作为假样本输入第二个判别器;
第四步,对该GNN网络进行训练,包括以下步骤:
(1)将一张图像XA,经过GNN网络GAB变成另一种风格的图像XAB,公式如下:
GAB(XA)=XAB
(2)通过判别器DB来衡量生成器的效果,计算生成XAB的损失函数,PA为XA的分布,公式如下:
(3)让XAB通过生成网络GBA,尽量还原成与XA相似的图像XABA,公式如下:
(4)计算XA与XABA的相似度LCONSTA,公式如下:
d()表示距离函数;
(5)与(1)类似,将一张图像XB,通过生成网络GBA变成另一种风格的图像XBA,公式如下:
GBA(XB)=XBA
(6)通过判别器GBA来衡量生成器的效果,计算生成XBA的损失函数,PB为XB的分布,公式如下:
(7)让XBA通过生成网络GAB,尽量还原成与XB相似的图像XBAB;
(8)与(4)类似计算XB与XBAB的相似度LCONSTB,公式如下:
(9)将(5)的原始图像XB作为真样本输入判别器(1)生成的图像XAB作为假样本输入判别器公式如下:
(10)与(9)类似,将(1)的原始图像XA作为真样本输入判别器(5)生成的图像XBA作为假样本输入判别器公式如下:
(11)计算判别器的损失函数,即两个判别式的损失函数之和,公式如下:
(12)分别计算两个序列的GNN网络的损失函数,每个GNN网络的损失函数都是生成器的损失函数与非结构化的损失函数之和,公式如下:
(13)总的GNN网络的损失函数,是两个序列GNN网络之和,公式如下:
(14)通过迭代,使得判别器的期望最大化,即(9)和(10)取和且期望取正数时期望最大化,能让判别器尽可能的辨别真伪,与此同时需要生成器生成的假样本尽可能骗过判别器,最大化(2)和(6)的相反数,即最大化生成器的期望值。从损失函数的角度看,就是把期望取反,使损失函数LD取最小,与此同时使GNN网络的损失函数LG最小化,它除了包括生成器的损失函数外还包括非结构化相似度的损失函数。
选取适当的样本通过损失函数训练调整网络:
(1)选取2组m幅图像,可以作为噪声,也可以作为输入,一组先验概率分布为PB(X),标记为{XB (1),...,XB (m)},另一组先验概率分布为PA(X),标记为{XA (1),...,XA (m)},选取有限个特征;
(2)θd为与判别器有关的参数,θg为与生成器有关的参数,随机初始化这两个值;
(3)用随机梯度下降法求判别式网络的最小值,表示梯度,公式如下:
(4)用随机梯度下降法求GNN网络的最小值,公式如下:
(5)判别式网络与GNN网络同时进行训练,之后再进行一次生成器的训练更新,反复进行上述迭代,当判别网络判定图像正确的概率趋近于0.5时,训练完成。
第五步,生成图像,输入2组m幅图像,通过生成与判别的交替进行,可以生成m幅复原的壁画图像。
第六步,处理像素过大的问题,把生成的分割成小块的图像拼接起来,如果有明显的分界线,可以重新分割成新的区域,将拼接有瑕疵的地方用新生成的图像再次补充。
本发明运用深度学习复原壁画图像能够节省很多人力、物力去设计、构想被破坏的壁画文物。本文给褪色或轻微残缺的壁画文物上色或自动构造其残缺的形态部分,能够给文物工作者减轻构想、设计方面极大的工作量。
Claims (8)
1.一种基于GNN的文物图像复原方法,其特征在于,包括以下步骤:
a、采集文物图像;
b、预处理步骤a中采集到的图像,对训练图像进行大小归一化处理,把较大像素的图像分割或者提取重要的部分,得到若干个训练样本,将其处理为256*256像素;
c、基于深度卷积网络构造GNN网络;
d、对GNN网络进行训练;
e、根据训练好的GNN网络复原受损文物的图像;
f、如果在步骤b中把图像分割成较小的部分,需要将它们拼接起来。
2.如权利要求1所述的一种基于GNN网络的文物图像复原方法,其特征在于,步骤c中使用卷积神经网络构造GNN的生成器,包括以下步骤:
(1)设置卷积神经网络模型的网络层为4层;
(2)每一层的卷积核为4*4,使用LeakyReLU激活函数,步长为2,每经过一层,长、宽分别缩小至原来的1/2;
(3)设置反卷积网络为4层,反卷积层是卷积层网络的逆过程;
(4)前三层的反卷积核为4*4,使用LeakyReLU激活函数,步长为2,每经过一层,长宽分别扩大至原来的2倍;
(5)第四层的反卷积核为4*4,不使用激活函数,反卷积的输出即为生成器的输出,它是256*256像素的一幅图像。
3.如权利要求1所述的一种基于GNN网络的文物图像复原方法,其特征在于,步骤c中使用多层卷积网络构造GNN的判别器,包括以下步骤:
(1)设置判别子网络模型的网络层数为5层;
(2)前4层卷积核是4*4,使用LeakyReLU激活函数,步长为2,每经过一层,长、宽分别缩小至原来的1/2;
(3)第五层卷积核为4*4,不使用激活函数,步长为4,输出即为对抗网络的输出,它是256*256的一幅图像。
4.如权利要求1所述的一种基于GNN网络的文物图像复原方法,其特征在于,步骤c中,连接生成器和判别器,包括以下步骤:
(1)将原始图像输入到GNN中,得到第一张不同风格的图像,把得到的这张图像继续输入GNN中,得到第二张生成的图像;
(2)为了经过一个序列的两个生成器后,图像的变化量尽量小,使类似于加入噪声的图像输入变化范围在一定的区域内,使输入和输出共享一些特征,计算原始图像与第二张图像的相似度,通过调整这个相似度控制生成器的变化范围;
(3)使用另一张原始图像,重复步骤(1)和(2),得到另一组两个生成器的输出组成的序列结构;
(4)把第一组序列的初始图像当做真样本输入第一个判别器,把第二组序列中通过第一个生成器产生的图像作为假样本输入第一个判别器;
(5)与(4)类似,把第二组序列的初始图像当做真样本输入第二个判别器,把第一组序列中通过第一个生成器产生的图像作为假样本输入第二个判别器。
5.如权利要求1所述的一种基于GNN网络的文物图像复原方法,其特征在于,步骤d中对该GNN网络进行训练,包括以下步骤:
(1)将一张图像XA,经过GNN网络GAB变成另一种风格的图像XAB,公式如下:
GAB(XA)=XAB
(2)通过判别器DB来衡量生成器的效果,计算生成XAB的损失函数,PA为XA的分布,公式如下:
<mrow>
<msub>
<mi>L</mi>
<mrow>
<msub>
<mi>GAN</mi>
<mi>B</mi>
</msub>
</mrow>
</msub>
<mo>=</mo>
<mo>-</mo>
<msub>
<mi>E</mi>
<mrow>
<msub>
<mi>X</mi>
<mi>A</mi>
</msub>
<mo>~</mo>
<msub>
<mi>P</mi>
<mi>A</mi>
</msub>
</mrow>
</msub>
<mo>&lsqb;</mo>
<mi>l</mi>
<mi>o</mi>
<mi>g</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>D</mi>
<mi>B</mi>
</msub>
<mo>(</mo>
<msub>
<mi>G</mi>
<mrow>
<mi>A</mi>
<mi>B</mi>
</mrow>
</msub>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>A</mi>
</msub>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
</mrow>
(3)让XAB通过生成器GBA,还原成与XA相似的图像XABA,公式如下:
(4)计算XA与XABA的相似度LCONSTA,公式如下:
(5)与(1)类似,将一张图像XB,通过生成器GBA变成另一种风格的图像XBA,公式如下:
GBA(XB)=XBA
(6)通过判别器GBA来衡量生成器的效果,计算生成XBA的损失函数,PB为XB的分布,公式如下:
<mrow>
<msub>
<mi>L</mi>
<mrow>
<msub>
<mi>GAN</mi>
<mi>A</mi>
</msub>
</mrow>
</msub>
<mo>=</mo>
<mo>-</mo>
<msub>
<mi>E</mi>
<mrow>
<msub>
<mi>X</mi>
<mi>B</mi>
</msub>
<mo>~</mo>
<msub>
<mi>P</mi>
<mi>B</mi>
</msub>
</mrow>
</msub>
<mo>&lsqb;</mo>
<mi>l</mi>
<mi>o</mi>
<mi>g</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>D</mi>
<mi>A</mi>
</msub>
<mo>(</mo>
<msub>
<mi>G</mi>
<mrow>
<mi>B</mi>
<mi>A</mi>
</mrow>
</msub>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>B</mi>
</msub>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
</mrow>
(7)让XBA通过生成器GAB,尽量还原成与XB相似的图像XBAB;
(8)与(4)类似计算XB与XBAB的相似度LCONSTB,公式如下:
(9)将(5)的原始图像XB作为真样本输入判别器(1)生成的图像XAB作为假样本输入判别器公式如下:
<mrow>
<msub>
<mi>L</mi>
<msub>
<mi>D</mi>
<mi>B</mi>
</msub>
</msub>
<mo>=</mo>
<mo>-</mo>
<msub>
<mi>E</mi>
<mrow>
<msub>
<mi>X</mi>
<mi>B</mi>
</msub>
<mo>~</mo>
<msub>
<mi>P</mi>
<mi>B</mi>
</msub>
</mrow>
</msub>
<mo>&lsqb;</mo>
<mi>l</mi>
<mi>o</mi>
<mi>g</mi>
<mi> </mi>
<msub>
<mi>D</mi>
<mi>B</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>B</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
<mo>-</mo>
<msub>
<mi>E</mi>
<mrow>
<msub>
<mi>X</mi>
<mi>A</mi>
</msub>
<mo>~</mo>
<msub>
<mi>P</mi>
<mi>A</mi>
</msub>
</mrow>
</msub>
<mo>&lsqb;</mo>
<mi>l</mi>
<mi>o</mi>
<mi>g</mi>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>D</mi>
<mi>B</mi>
</msub>
<mo>(</mo>
<mrow>
<msub>
<mi>G</mi>
<mrow>
<mi>A</mi>
<mi>B</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>A</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
</mrow>
(10)与(9)类似,将(1)的原始图像XA作为真样本输入判别器(5)生成的图像XBA作为假样本输入判别器公式如下:
<mrow>
<msub>
<mi>L</mi>
<msub>
<mi>D</mi>
<mi>A</mi>
</msub>
</msub>
<mo>=</mo>
<mo>-</mo>
<msub>
<mi>E</mi>
<mrow>
<msub>
<mi>X</mi>
<mi>A</mi>
</msub>
<mo>~</mo>
<msub>
<mi>P</mi>
<mi>A</mi>
</msub>
</mrow>
</msub>
<mo>&lsqb;</mo>
<mi>l</mi>
<mi>o</mi>
<mi>g</mi>
<mi> </mi>
<msub>
<mi>D</mi>
<mi>A</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>A</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
<mo>-</mo>
<msub>
<mi>E</mi>
<mrow>
<msub>
<mi>X</mi>
<mi>B</mi>
</msub>
<mo>~</mo>
<msub>
<mi>P</mi>
<mi>B</mi>
</msub>
</mrow>
</msub>
<mo>&lsqb;</mo>
<mi>l</mi>
<mi>o</mi>
<mi>g</mi>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>D</mi>
<mi>A</mi>
</msub>
<mo>(</mo>
<mrow>
<msub>
<mi>G</mi>
<mrow>
<mi>B</mi>
<mi>A</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>B</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
</mrow>
(11)计算判别器的损失函数,即两个判别式的损失函数之和,公式如下:
<mrow>
<msub>
<mi>L</mi>
<mi>D</mi>
</msub>
<mo>=</mo>
<msub>
<mi>L</mi>
<msub>
<mi>D</mi>
<mi>A</mi>
</msub>
</msub>
<mo>+</mo>
<msub>
<mi>L</mi>
<msub>
<mi>D</mi>
<mi>B</mi>
</msub>
</msub>
</mrow>
(12)分别计算两个序列的GNN网络的损失函数,每个GNN网络的损失函数都是生成器的损失函数与非结构化的损失函数之和,公式如下:
<mrow>
<msub>
<mi>L</mi>
<msub>
<mi>G</mi>
<mrow>
<mi>A</mi>
<mi>B</mi>
</mrow>
</msub>
</msub>
<mo>=</mo>
<msub>
<mi>L</mi>
<mrow>
<msub>
<mi>GAN</mi>
<mi>B</mi>
</msub>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>L</mi>
<mrow>
<mi>C</mi>
<mi>O</mi>
<mi>N</mi>
<mi>S</mi>
<mi>T</mi>
<mi>A</mi>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>L</mi>
<msub>
<mi>G</mi>
<mrow>
<mi>B</mi>
<mi>A</mi>
</mrow>
</msub>
</msub>
<mo>=</mo>
<msub>
<mi>L</mi>
<mrow>
<msub>
<mi>GAN</mi>
<mi>A</mi>
</msub>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>L</mi>
<mrow>
<mi>C</mi>
<mi>O</mi>
<mi>N</mi>
<mi>S</mi>
<mi>T</mi>
<mi>B</mi>
</mrow>
</msub>
</mrow>
(13)总的GNN网络的损失函数是两个序列GNN网络之和,即:
<mrow>
<msub>
<mi>L</mi>
<mi>G</mi>
</msub>
<mo>=</mo>
<msub>
<mi>L</mi>
<msub>
<mi>G</mi>
<mrow>
<mi>A</mi>
<mi>B</mi>
</mrow>
</msub>
</msub>
<mo>+</mo>
<msub>
<mi>L</mi>
<msub>
<mi>G</mi>
<mrow>
<mi>B</mi>
<mi>A</mi>
</mrow>
</msub>
</msub>
</mrow>
(14)通过迭代,使得判别器的期望最大化,即(9)和(10)取和且期望取正数时期望最大化,能让判别器尽可能的辨别真伪,与此同时需要生成器生成的假样本尽可能骗过判别器,最大化(2)和(6)的相反数,即最大化生成器的期望值。从损失函数的角度看,就是把期望取反,使损失函数LD取最小,与此同时使GNN网络的损失函数LG最小化,它除了包括生成器的损失函数外还包括非结构化相似度的损失函数。
6.如权利要求1所述的一种基于GNN网络的文物图像复原方法,其特征在于,步骤d训练GNN网络选择过程和调整参数,过程如下:
(1)选取2组m个图像,可以作为噪声,也可以作为输入,一组先验概率分布为PB(X),标记为{XB (1),...,XB (m)},另一组先验概率分布为PA(X),标记为{XA (1),...,XA (m)},选取有穷个特征;
(2)θd为与判别器有关的参数,用随机梯度下降法求判别式网络的最小值;
(3)θg为与生成器有关的参数,用随机梯度下降法求GNN网络的最小值;
(4)判别式网络与GNN网络同时进行训练,之后再进行一次生成器的训练更新,反复迭代以上过程,当判别网络判定正确的概率趋近于0.5时,训练完成。
7.如权利要求1所述的一种基于GNN网络的文物图像复原方法,其特征在于,步骤e输入2组m幅图像,通过生成与判别的交替进行,可以生成m幅文物壁画的复原图像。
8.如权利要求1所述的一种基于GNN网络的文物图像复原方法,其特征在于,步骤f处理像素过大的问题,把生成的分割成小块的图像拼接起来,如果有明显的分界线,可以重新分割成新的区域,将拼接有瑕疵的地方用新生成的图像再次补充。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711189780.9A CN107862668A (zh) | 2017-11-24 | 2017-11-24 | 一种基于gnn的文物图像复原方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711189780.9A CN107862668A (zh) | 2017-11-24 | 2017-11-24 | 一种基于gnn的文物图像复原方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107862668A true CN107862668A (zh) | 2018-03-30 |
Family
ID=61702781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711189780.9A Pending CN107862668A (zh) | 2017-11-24 | 2017-11-24 | 一种基于gnn的文物图像复原方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107862668A (zh) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108573479A (zh) * | 2018-04-16 | 2018-09-25 | 西安电子科技大学 | 基于对偶生成对抗式网络的人脸图像去模糊和恢复方法 |
CN108711141A (zh) * | 2018-05-17 | 2018-10-26 | 重庆大学 | 利用改进的生成式对抗网络的运动模糊图像盲复原方法 |
CN108875818A (zh) * | 2018-06-06 | 2018-11-23 | 西安交通大学 | 基于变分自编码机与对抗网络结合的零样本图像分类方法 |
CN108876870A (zh) * | 2018-05-30 | 2018-11-23 | 福州大学 | 一种考虑纹理复杂性的域映射GANs图像着色方法 |
CN109191402A (zh) * | 2018-09-03 | 2019-01-11 | 武汉大学 | 基于对抗生成神经网络的图像修复方法和系统 |
CN109272463A (zh) * | 2018-09-06 | 2019-01-25 | 西安建筑科技大学 | 一种壁画颜色复原方法 |
CN109308689A (zh) * | 2018-10-15 | 2019-02-05 | 聚时科技(上海)有限公司 | 基于掩码生成对抗网络迁移学习的无监督图像修复方法 |
CN109345448A (zh) * | 2018-09-25 | 2019-02-15 | 广东工业大学 | 一种轮廓图上色方法及装置 |
CN109360159A (zh) * | 2018-09-07 | 2019-02-19 | 华南理工大学 | 一种基于生成对抗网络模型的图像补全方法 |
CN109697694A (zh) * | 2018-12-07 | 2019-04-30 | 山东科技大学 | 基于多头注意力机制的高分辨率的图片的生成方法 |
CN109712203A (zh) * | 2018-12-29 | 2019-05-03 | 福建帝视信息科技有限公司 | 一种基于自注意力生成对抗网络的图像着色方法 |
CN109727209A (zh) * | 2018-12-13 | 2019-05-07 | 北京爱奇艺科技有限公司 | 一种确定残缺文物完整图像的方法及装置 |
CN109741268A (zh) * | 2018-12-05 | 2019-05-10 | 天津大学 | 一种针对壁画的破损图像补全方法 |
CN109934880A (zh) * | 2019-03-18 | 2019-06-25 | 广州欧科信息技术股份有限公司 | 基于人工智能的文物图像复原方法、装置和设备 |
CN110009013A (zh) * | 2019-03-21 | 2019-07-12 | 腾讯科技(深圳)有限公司 | 编码器训练及表征信息提取方法和装置 |
CN110399834A (zh) * | 2019-07-25 | 2019-11-01 | 北京邮电大学 | 一种基于人工智能的艺术特征迁移系统及应用 |
CN110473160A (zh) * | 2019-08-21 | 2019-11-19 | 西安工程大学 | 一种基于ssgan的古代残损纺织物图像修复方法 |
CN110570358A (zh) * | 2018-09-04 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 基于gan网络的车损图像增强方法和装置 |
CN111402266A (zh) * | 2020-03-13 | 2020-07-10 | 中国石油大学(华东) | 一种构建数字岩心的方法及系统 |
CN111402151A (zh) * | 2020-03-09 | 2020-07-10 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读介质 |
CN111815506A (zh) * | 2020-07-17 | 2020-10-23 | 上海眼控科技股份有限公司 | 图像生成方法、装置、计算机设备和存储介质 |
CN112465006A (zh) * | 2020-11-24 | 2021-03-09 | 中国人民解放军海军航空大学 | 一种图神经网络目标跟踪方法及装置 |
CN112561785A (zh) * | 2020-12-21 | 2021-03-26 | 东华大学 | 基于风格迁移的丝绸文物图像数据扩充方法 |
CN114239083A (zh) * | 2021-11-30 | 2022-03-25 | 西安电子科技大学 | 一种基于图神经网络的高效状态寄存器识别方法 |
CN116777848A (zh) * | 2023-06-06 | 2023-09-19 | 北京师范大学 | 一种玉石器相似度分析方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106803082A (zh) * | 2017-01-23 | 2017-06-06 | 重庆邮电大学 | 一种基于条件式生成对抗网络的在线笔迹识别方法 |
CN106951919A (zh) * | 2017-03-02 | 2017-07-14 | 浙江工业大学 | 一种基于对抗生成网络的流速监测实现方法 |
CN107103590A (zh) * | 2017-03-22 | 2017-08-29 | 华南理工大学 | 一种基于深度卷积对抗生成网络的图像反射去除方法 |
CN107274358A (zh) * | 2017-05-23 | 2017-10-20 | 广东工业大学 | 基于cGAN算法的图像超分辨恢复技术 |
CN107369134A (zh) * | 2017-06-12 | 2017-11-21 | 上海斐讯数据通信技术有限公司 | 一种模糊图像的图像复原方法 |
-
2017
- 2017-11-24 CN CN201711189780.9A patent/CN107862668A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106803082A (zh) * | 2017-01-23 | 2017-06-06 | 重庆邮电大学 | 一种基于条件式生成对抗网络的在线笔迹识别方法 |
CN106951919A (zh) * | 2017-03-02 | 2017-07-14 | 浙江工业大学 | 一种基于对抗生成网络的流速监测实现方法 |
CN107103590A (zh) * | 2017-03-22 | 2017-08-29 | 华南理工大学 | 一种基于深度卷积对抗生成网络的图像反射去除方法 |
CN107274358A (zh) * | 2017-05-23 | 2017-10-20 | 广东工业大学 | 基于cGAN算法的图像超分辨恢复技术 |
CN107369134A (zh) * | 2017-06-12 | 2017-11-21 | 上海斐讯数据通信技术有限公司 | 一种模糊图像的图像复原方法 |
Non-Patent Citations (3)
Title |
---|
JUNYAN ZHU ET AL.: "Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks", 《ARXIV:1703.10593V1 [CS.CV] 30 MAR 2017》 * |
KARLA BRKIC ET AL.: "I Know That Person: Generative Full Body and Face De-Identification of People in Images", 《2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS (CVPRW)》 * |
RAYMOND A. YEH ET AL: "Semantic Image Inpainting with Perceptual and Contextual Losses", 《RESEARCHGATE》 * |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108573479A (zh) * | 2018-04-16 | 2018-09-25 | 西安电子科技大学 | 基于对偶生成对抗式网络的人脸图像去模糊和恢复方法 |
CN108711141A (zh) * | 2018-05-17 | 2018-10-26 | 重庆大学 | 利用改进的生成式对抗网络的运动模糊图像盲复原方法 |
CN108711141B (zh) * | 2018-05-17 | 2022-02-15 | 重庆大学 | 利用改进的生成式对抗网络的运动模糊图像盲复原方法 |
CN108876870A (zh) * | 2018-05-30 | 2018-11-23 | 福州大学 | 一种考虑纹理复杂性的域映射GANs图像着色方法 |
CN108876870B (zh) * | 2018-05-30 | 2022-12-13 | 福州大学 | 一种考虑纹理复杂性的域映射GANs图像着色方法 |
CN108875818A (zh) * | 2018-06-06 | 2018-11-23 | 西安交通大学 | 基于变分自编码机与对抗网络结合的零样本图像分类方法 |
CN109191402A (zh) * | 2018-09-03 | 2019-01-11 | 武汉大学 | 基于对抗生成神经网络的图像修复方法和系统 |
CN110570358A (zh) * | 2018-09-04 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 基于gan网络的车损图像增强方法和装置 |
CN109272463A (zh) * | 2018-09-06 | 2019-01-25 | 西安建筑科技大学 | 一种壁画颜色复原方法 |
CN109360159A (zh) * | 2018-09-07 | 2019-02-19 | 华南理工大学 | 一种基于生成对抗网络模型的图像补全方法 |
CN109345448A (zh) * | 2018-09-25 | 2019-02-15 | 广东工业大学 | 一种轮廓图上色方法及装置 |
CN109308689A (zh) * | 2018-10-15 | 2019-02-05 | 聚时科技(上海)有限公司 | 基于掩码生成对抗网络迁移学习的无监督图像修复方法 |
CN109741268B (zh) * | 2018-12-05 | 2023-05-09 | 天津大学 | 一种针对壁画的破损图像补全方法 |
CN109741268A (zh) * | 2018-12-05 | 2019-05-10 | 天津大学 | 一种针对壁画的破损图像补全方法 |
CN109697694B (zh) * | 2018-12-07 | 2023-04-07 | 山东科技大学 | 基于多头注意力机制的高分辨率的图片的生成方法 |
CN109697694A (zh) * | 2018-12-07 | 2019-04-30 | 山东科技大学 | 基于多头注意力机制的高分辨率的图片的生成方法 |
CN109727209A (zh) * | 2018-12-13 | 2019-05-07 | 北京爱奇艺科技有限公司 | 一种确定残缺文物完整图像的方法及装置 |
CN109712203B (zh) * | 2018-12-29 | 2020-11-17 | 福建帝视信息科技有限公司 | 一种基于自注意力生成对抗网络的图像着色方法 |
CN109712203A (zh) * | 2018-12-29 | 2019-05-03 | 福建帝视信息科技有限公司 | 一种基于自注意力生成对抗网络的图像着色方法 |
CN109934880A (zh) * | 2019-03-18 | 2019-06-25 | 广州欧科信息技术股份有限公司 | 基于人工智能的文物图像复原方法、装置和设备 |
CN110009013B (zh) * | 2019-03-21 | 2021-04-27 | 腾讯科技(深圳)有限公司 | 编码器训练及表征信息提取方法和装置 |
CN110009013A (zh) * | 2019-03-21 | 2019-07-12 | 腾讯科技(深圳)有限公司 | 编码器训练及表征信息提取方法和装置 |
CN110399834B (zh) * | 2019-07-25 | 2021-06-15 | 北京邮电大学 | 一种基于人工智能的艺术特征迁移系统及应用 |
CN110399834A (zh) * | 2019-07-25 | 2019-11-01 | 北京邮电大学 | 一种基于人工智能的艺术特征迁移系统及应用 |
CN110473160A (zh) * | 2019-08-21 | 2019-11-19 | 西安工程大学 | 一种基于ssgan的古代残损纺织物图像修复方法 |
CN111402151A (zh) * | 2020-03-09 | 2020-07-10 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读介质 |
CN111402266A (zh) * | 2020-03-13 | 2020-07-10 | 中国石油大学(华东) | 一种构建数字岩心的方法及系统 |
CN111815506A (zh) * | 2020-07-17 | 2020-10-23 | 上海眼控科技股份有限公司 | 图像生成方法、装置、计算机设备和存储介质 |
CN112465006B (zh) * | 2020-11-24 | 2022-08-05 | 中国人民解放军海军航空大学 | 一种图神经网络目标跟踪方法及装置 |
CN112465006A (zh) * | 2020-11-24 | 2021-03-09 | 中国人民解放军海军航空大学 | 一种图神经网络目标跟踪方法及装置 |
CN112561785B (zh) * | 2020-12-21 | 2021-11-16 | 东华大学 | 基于风格迁移的丝绸文物图像数据扩充方法 |
CN112561785A (zh) * | 2020-12-21 | 2021-03-26 | 东华大学 | 基于风格迁移的丝绸文物图像数据扩充方法 |
CN114239083A (zh) * | 2021-11-30 | 2022-03-25 | 西安电子科技大学 | 一种基于图神经网络的高效状态寄存器识别方法 |
CN116777848A (zh) * | 2023-06-06 | 2023-09-19 | 北京师范大学 | 一种玉石器相似度分析方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107862668A (zh) | 一种基于gnn的文物图像复原方法 | |
CN109345507B (zh) | 一种基于迁移学习的大坝图像裂缝检测方法 | |
CN106157319B (zh) | 基于卷积神经网络的区域和像素级融合的显著性检测方法 | |
CN107301387A (zh) | 一种基于深度学习的图像高密度人群计数方法 | |
CN107945118B (zh) | 一种基于生成式对抗网络的人脸图像修复方法 | |
CN105701507B (zh) | 基于动态随机池化卷积神经网络的图像分类方法 | |
CN108038821A (zh) | 一种基于生成式对抗网络的图像风格迁移方法 | |
CN104217214B (zh) | 基于可配置卷积神经网络的rgb‑d人物行为识别方法 | |
CN105139395B (zh) | 基于小波池化卷积神经网络的sar图像分割方法 | |
CN108399406A (zh) | 基于深度学习的弱监督显著性物体检测的方法及系统 | |
CN106920243A (zh) | 改进的全卷积神经网络的陶瓷材质件序列图像分割方法 | |
CN108986050A (zh) | 一种基于多分支卷积神经网络的图像和视频增强方法 | |
CN108021947B (zh) | 一种基于视觉的分层极限学习机目标识别方法 | |
CN106981080A (zh) | 基于红外图像和雷达数据的夜间无人车场景深度估计方法 | |
CN109255364A (zh) | 一种基于深度卷积生成对抗网络的场景识别方法 | |
CN107403430A (zh) | 一种rgbd图像语义分割方法 | |
CN108921822A (zh) | 基于卷积神经网络的图像目标计数方法 | |
CN107103613A (zh) | 一种三维手势姿态估计方法 | |
Mohabey et al. | Rough set theory based segmentation of color images | |
CN107423747A (zh) | 一种基于深度卷积网络的显著性目标检测方法 | |
CN107292885A (zh) | 一种基于自动编码器的产品缺陷分类识别方法及装置 | |
CN108363961A (zh) | 基于卷积神经网络间迁移学习的桥梁支座病害识别方法 | |
CN110084304A (zh) | 一种基于合成数据集的目标检测方法 | |
CN105678248A (zh) | 基于深度学习的人脸关键点对齐算法 | |
CN108596243A (zh) | 基于分级注视图和条件随机场的眼动注视图预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180330 |