CN111583101A - 基于深度学习的图像防盗系统和方法 - Google Patents
基于深度学习的图像防盗系统和方法 Download PDFInfo
- Publication number
- CN111583101A CN111583101A CN202010401776.XA CN202010401776A CN111583101A CN 111583101 A CN111583101 A CN 111583101A CN 202010401776 A CN202010401776 A CN 202010401776A CN 111583101 A CN111583101 A CN 111583101A
- Authority
- CN
- China
- Prior art keywords
- image
- generator
- layer
- discriminator
- last layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000013135 deep learning Methods 0.000 title claims abstract description 14
- 238000012549 training Methods 0.000 claims abstract description 30
- 238000012545 processing Methods 0.000 claims abstract description 7
- 238000005070 sampling Methods 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 18
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 230000002265 prevention Effects 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 5
- 125000004122 cyclic group Chemical group 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 14
- 238000004364 calculation method Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000011084 recovery Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005336 cracking Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度学习的图像防盗系统和方法,系统包括生成器、判别器和优化器,优化器配置损失函数,生成器与判别器形成对抗网络。生成器的倒数第三层将通道维度降低到3通道,倒数第二层将通道提升到12维,最后一层将通道维度降低到3通道;判别器通过不断下采样并扩展通道,输出feature map,据此判断图形的真假;优化器通过MSE损失和GAN损失相结合的方式,对生成器和判别器分别进行优化。生成器和判别器交叉训练,训练完成的生成器的倒数第三层的输出作为用户可访问的对象,用户确定访问对象后,通过优化器最后两层处理得到效果与原图像一致的图像进行展示。本发明不影响对图像的展示效果,用户仅能访问中间图像,防盗效果好。
Description
技术领域
本发明涉及机器学习领域,尤其是一种基于深度学习的图像防盗系统,和采用该系统网络结构进行训练后运行的图像防盗方法。
背景技术
现在互联网上随处可见的图像资源,大部分都是可以随意下载使用的,对于一些公司来说是很不友好的,比如某些课程售卖方,对图像资源是非常需要进行防盗保护的。
目前大部分防盗技术都是通过以下方式实现的,其一也是最简单的是对图像增加水印,贴上设置的标签,该种方式一是影响图像内容的展现,另一个是水印也是可以一定程度的被去掉,安全性较弱。另一种防盗技术是限制向外暴露的图片URL,匿名访问者只能获取到经过缩略处理或者添加水印后的图片而无法下载到原图片,但是该种方式对展示效果有较大影响。
发明内容
本发明的发明目的在于:针对上述存在的问题,提供一种基于深度学习的图像防盗系统,以在保证图像展示效果的情况下,提高对图像防盗的效果。
本发明采用的技术方案如下:
一种基于深度学习的图像防盗系统,其包括生成器、判别器和优化器,所述优化器配置损失函数,所述生成器与判别器形成对抗网络;
所述生成器的输入层到倒数第四层的结构为残差网络结构,所述生成器的倒数第三层将通道维度降低到3通道,通过激活函数tanh将输出控制在(-1,1)内,所述生成器的倒数第二层将通道提升到12维,所述生成器的最后一层将通道维度降低到3通道;所述生成器倒数第三层输出中间图像,所述中间图像经生成器倒数第二层和最后一层后生成最终的生成图像;
所述判别器的输入层接收原图像和待判别图像,通过不断下采样,并扩展通道,最后输出feature map,据此来判断待判别图像是否与原图像一致;所述待判别图像包括生成图像和标签图像,所述标签图像与所述原图像一致;
所述优化器配置了MSE损失和GAN损失,以GAN损失来优化生成器,以MSE损失和GAN损失来对判别器进行梯度优化。
将上述结构的系统(神经网络)中的生成器和判别器进行交叉训练,最后生成器能够输出判别器无法判别真假的生成图像,该生成图像与原图像一致(而非原图像)。在此基础上,将生成器倒数第三层的输出作为中间图像,该中间图像作为用户可访问的对象,这样,用户仅能获取到中间图像(无有效信息),并不能访问到原图像,而在观看上,用户又能够观看到与原图效果一致的生成图像,这是通过加水印进行图像保护的方式所不能达到的效果。另外,将系统模型配置在后端,系统模型结构对用户来讲是保密的,因此,用户也无法从中间图像恢复出生成图像或原图像,即本系统对原图像的保护效果更高。
进一步的,所述生成器包括一个循环残差快,残差是cancatenate的方式,循环次数为2;以及包括一个外层残差块,残差是add的方式,循环调用所述循环残差块,循环次数为2。这样设计可以减少系统模型参数。
进一步的,所述生成器不包括下采样层。这样设计可以避免因输入图像分辨率为奇数时卷积或者池化操作如果strides>1将导致图像无法恢复到原分辨率的问题。
为解决上述全部或部分问题,本发明提供了一种基于深度学习的图像防盗方法,其包括以下步骤:
A.将训练样本输入到预配的神经网络进行训练:
所述神经网络的结构与上述的图像防盗系统结构相同,将神经网络中生成器与判别器的交叉训练,在生成器与判别器达到纳什均衡时完成训练;
B.将需要保护的图像输入到训练完成的生成器,并将生成器倒数第三层输出图像作为用户可访问对象;
C.等待用户访问中间图像,并在用户访问中间图像时,将所访问的中间图像输入到生成器倒数第二层,依次经过生成器的倒数第二层和最后一层的处理后,得到生成图像。
对于训练完成的生成器,其可以输出与原图像一致的图像(生成图像),将生成器划分为两部分,以中间图像作为用户可访问的对象存放于公共服务器上,匿名用户由于无法获取神经网络模型和训练好的神经网络(网络参数),因此,仅能得到中间图像,没有实际意义。同时,由于没有网络模型和参数,用户也无法通过中间图像恢复出原图像。这样就起到了很好的防盗目的。
进一步的,所述B中,将需要保护的图像输入到训练完成的生成器之前,先将图像切割为若干图像块,并对每个图像块加padding。由于网络的计算受硬件算力的限制,无法设置较大的处理尺寸,这样设计,可以有效解决算力的问题,同时放置边缘问题。
进一步的,所述训练完成的生成器的倒数第二层和最后一层被配置于前端,所述前端展示所述生成器最后一层输出的图像。
进一步的,所述前端被配置为:不可下载所展示的图像。
进一步的,所述生成器倒数第三层输出的图像为png格式,且将3通道png压缩为单通道png进行保存。png格式为无损格式,可以保留原图像的特征,将3通道压缩为单通道,可以压缩消耗的存储空间。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
1、本发明的模型结构可输出与原图像效果一致的生成图像,因此,在展示上不影响用户的观看效果;用户仅能访问中间图像,无法获知网络结构及网络参数,因此,无法恢复出原图像,由此实现图像防盗的目的。现有的水印防盗方式,一方面会丢失原图像的一些特征,另一方面,水印也可能被抹掉,安全性并不高。
2、本发明充分考虑了待保护图像的分辨率尺寸,采用分割+padding的方式进行批处理,即解决了硬件算力问题,又防止边缘问题。
3、本发明通过png格式保存中间图像,其不会丢失原图像应有的特征,在后两层恢复阶段,可以恢复出于原图像一致的图像,而jpg属于有损压缩,在恢复时,无法恢复出与原图像一致的图像。而png文件较jpg的数据量大,本发明将三通道压缩为单通道,能将文件大小压缩为原来的1/3。
附图说明
本发明将通过例子并参照附图的方式说明,其中:
图1是图像防盗系统的结构图。
图2是生成器的结构图。
图3是判别器的结构图。
图4是原图像-中间图像-生成图像的一个实施例。
具体实施方式
本说明书中公开的所有特征,或公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合。
本说明书(包括任何附加权利要求、摘要)中公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换。即,除非特别叙述,每个特征只是一系列等效或类似特征中的一个例子而已。
实施例一
本实施例公开了一种基于深度学习的图像防盗系统,包括生成器、判别器和优化器,优化器配置损失函数;生成器与判别器形成对抗网络。生成器负责中间图像和最终图像的生成,判别器负责最终图像真假的判别,两者交替训练来提高生成器输出图像与输入图像的一致性。
生成器为神经网络结构。考虑到当输入图像分辨率为奇数时卷积或者池化操作如果strides>1将导致图像无法恢复到原分辨率,所以整个生成器没有进行下采样。为了让模型参数减少,构造了一个循环残差快,残差是cancatenate的方式(循环次数为2),一个外层残差块,残差是add的方式,循环调用前一个残差块(循环次数为2)。最后倒数第三层,通过1*1的卷积核,将通道维度降低到3通道,通过激活函数tanh将输出控制在(-1,1)内,这样通过(out/2+0.5)*255即可转化为图像格式显示出来为中间图像。而倒数第二层通过3*3卷积核将通道提升到12维,再经过最后一层将通道降低到3通道,输出生成图像。以64*64的分辨率作为样本尺寸为例,生成器的具体网络结构如图2所示,其中(a)、(b)两部分相连构成生成器的整体结构。
判别器的结构为:判别器的输入层接收原图像和待判别图像,通过不断下采样,并扩展通道,最后输出6*6*1的feature map,据此来判断待判别图像是否与原图像一致。当判别器接收原图像和标签图像(与原图像一致)时,判别为真,当判别器接收原图像和生成图像(生成器的输出)时,判别为假。判别器的结构如图3所示。
损失函数部分采用MSE损失+GAN损失相结合的方式。MSE损失即将原图像与生成图像(生成器最终输出的图像)对应像素点作差取绝对值,使生成图像尽量与原图像一致;GAN损失则通过上述判别器判别真假的方式来提高生成器生成图像的质量,避免生成图像生硬失真。两种损失函数均为现有设计,本发明中,为将两种损失函数联合使用。
将样本从生成器输入层输入到系统网络中进行训练,在训练过程中,向判别器输入的数据一半来自于真实的训练数据,另一半来自于由生成器生成的生成图像。在训练的过程中,对于标签图像,判别器向样本分配一个接近1的概率(为更好泛化,通常将labels设为略小于1的值);而对于生成器生成的生成图像(非原图像),判别器向样本分配一个接近0的概率。即对于标签图像,使用label=1计算代价函数来训练判别器,对于生成图像,使用label=0计算代价函数来训练判别器,因此,判别器的损失函数包括样本为标签图像和样本为生成图像两种情况。
而生成器与判别器间构成对抗网络,其目的是训练出使判别器分配接近1的概率(即判别为真)的生成图像。因此,生成器的损失用输入图像的logits来计算。在训练时,所有的labels全部设为1。
通过上述系统网络中生成器与判别器的交叉训练,在生成器与判别器达到纳什均衡时完成训练,此时,生成器输出的生成图像即可在判别器处判断为真,即生成器输出图像与原图像一致。
对于训练完成的生成器,以其倒数第三层的输出(即中间图像)作为匿名用户可访问的对象进行存储。匿名用户仅能直接访问到中间图像,在展示时,中间图像被输入到生成器倒数第二层进行通道扩展后,再经最后一层将通道降低到3通道,完成对中间图像的恢复,展示给用户。由于模型的结构和训练好的模型文件对匿名用户而言,均是不可访问的,用户只能访问到中间图像,虽然最终展示出的图像与原图像高度一致,但并非原图。进一步的,在显示端,设定用户无法对展示的图像进行存储,则用户无法将生成器输出的图像进行存储,即使其通过截屏的方式将展示的图像截取到本地,但在分别率、清晰度等上会与生成图像存在较大的差异,也并不能获得原图。由此,实现对原图像的保护。
本发明的方法在展示给用户的图像上看,与原图基本一模一样,几乎看不出任何瑕疵,该效果是加水印或者展示缩略图等都难以做到的。而在匿名用户破解上,由于模型架构(包括参数)和训练好的模型对于用户来讲是不可访问的,因此,其无法从中间图像逆向还原出原图像,安全性极高。
在实际中,大部分图像(原图像)的分辨率都比较高,一般都超过了1000*1000。但是,生成器从算力和开销出发,无法按1000*1000的分别率直接进行设计,例如上述实施例中设计的64*64的训练分辨率,当然也可以是其他尺寸,但是硬件上,需要进行对应的配置,高分辨率容易出现现存不足的问题。
对于高分辨率图像,采用将高分辨率图像进行分割处理的方式,切割为60*60的图像块,且对每个图像块加padding=2,防止边缘问题。若图像块某边缘不足60,则加padding到60。这样,对图像块分批次进行网络计算,以解决硬件算力问题。
对于中间图像(生成器倒数第三层输出)的保存问题,优选将其保存为png的无损格式,以便于之后层的还原。jpg格式属于有损压缩格式,会导致图像像素值的微笑变化,从而影响生成器最终输出的图像的效果。png格式相比jpg的文件大小要大不少,通过将3通道的png压缩为单通道的png的方式,将其大小压缩为原来的1/3。
实施例二
如图4所示,本实施例借助于实施例一中的系统,以图4(a)作为原图像,输入到生成器中,得到的中间图像如图4(b)所示,将其保存到服务器中供用户访问。在此基础上,将生成器的倒数第二层和最后层配置到系统的显示单元中,在匿名用户访问中间图像时,将中间图像作为倒数第二层的输入,最终由最后一层输出生成图像展示给用户,得到如图4(c)的生成图像。并且,显示单元所展示的图像不可被下载。
实施例三
本实施例公开了一种基于深度学习的图像防盗系统,包括生成器、判别器和优化器,优化器配置损失函数;生成器与判别器形成对抗网络。生成器将输入的原图像生成为中间图像和最终的生成图像,生成图像与原图像一致,判别器负责最终图像真假的判断,即判断生成图像是否与原图像一致;两者交替训练来提高生成器输出图像(即生成图像)与输入图像(即原图像)的一致性。
以64*64分辨率作为图像训练的尺寸为例,生成器的网络结构如图2所示,(a)和(b)相连即得到生成器的网络结构。考虑到当输入图像分辨率为奇数时卷积或者池化操作如果strides>1将导致图像无法恢复到原分辨率,所以整个生成器没有进行下采样。为了让生辰器的模型参数减少,构造了一个循环残差快,残差是cancatenate的方式(循环次数为2),一个外层残差块,残差是add的方式,循环调用前一个残差块(循环次数为2)。最后倒数第三层,通过1*1的卷积核,将通道维度降低到3通道,通过激活函数tanh将输出控制在(-1,1)内,这样通过(out/2+0.5)*255即可转化为图像格式显示出来为中间图像。生辰器倒数第二层通过3*3卷积核将通道提升到12维,再经过最后一层将通道降低到3通道,输出生成图像。
判别器的结构如图3所示,判别器的输入层接收原图像和待判别图像,通过不断下采样,并扩展通道,最后输出6*6*1的feature map,据此来判断待判别图像是否与原图像一致。当判别器接收原图像和标签图像(与原图像一致)时,判别为真,当判别器接收原图像和生成图像(生成器的输出)时,判别为假。
优化器配置了两个损失函数:MSE Loss和GAN Loss。MSE Loss即将原图像与生成图像(生成器最终输出的图像)对应像素点作差取绝对值,GAN Loss则计算待判别图像为真时,feature map与全1矩阵的距离。优化器以GAN Loss来优化生成器,以MSE Loss和GANLoss来对判别器进行梯度优化。通过上述系统网络中生成器与判别器的交叉训练,在生成器与判别器达到纳什均衡时完成训练,此时,生成器输出的生成图像即可在判别器处判断为真,即生成器输出图像与原图像一致。
对于训练完成的生成器(即训练好的网络模型),将资源图像输入到生成器,以生成器倒数第三层的输出(即中间图像)存储到服务器上供用户访问,而原始的资源图像不公开,用户仅能访问到中间图像。将生成器的后两层(倒数第二层和最后层)配置到显示单元中,以将用户访问的中间图像处理为与原图像一致的图像并展示。对于显示单元,可以设定不允许下载所展示的图像(即生成图像),这样,用户最多只能通过拍照或者截图的方式保存图像,但是其分辨率、清晰度等方面均与原图像相差甚远。
在具体应用时,可将训练好的生成器从输入层到倒数第三层封装为一个模块-加密块,将生成器的倒数第二层到最后一层封装为一个模块-解密块。将需要保护的原图像作为加密块的输入,将加密块的输出存储到服务器供用户访问。在用户访问中间图像时,将对应的中间图像作为解密块的输入,以得到最终的生成图像,该生成图像与原图像是一致的,因此不影响用户的观看效果,但是用户始终无法访问到原图像,因此,不可能下载到原图像,仅能下载到中间图像,从而实现图像防盗的目的。
由于图像的分辨率通常较高,一般都超过了1000*1000,而受硬件算力的限制,又无法将系统网络接受输入图像的尺寸设置得太大,因此,对于输入的图像,采用图像切块的方式,将原图像切割为N*N的M个图像块,且对每个图像块加padding=X(X为正整数),防止边缘问题。若图像块某边缘不足N,则加padding到N。这样,对图像块分批次进行网络计算,以解决硬件算力问题。
实施例四
本实施例公开了一种基于深度学习的图像防盗方法,包括以下流程:
A.将训练样本输入到预配的神经网络进行训练;
神经网络包括生成器、判别器和优化器,生成器与判别器形成对抗网络,优化器配置损失函数。
生成器结构为:生成器没有进行下采样,生成器包括一个循环残差快,残差是cancatenate的方式(循环次数为2),一个外层残差块,残差是add的方式,循环调用前一个残差块(循环次数为2)。最后倒数第三层,通过1*1的卷积核,将通道维度降低到3通道,通过激活函数tanh将输出控制在(-1,1)内,这样通过(out/2+0.5)*255即可转化为图像格式显示出来为中间图像。生辰器倒数第二层通过3*3卷积核将通道提升到12维,再经过最后一层将通道降低到3通道,输出生成图像。以64*64分辨率的训练尺寸为例,生成器的结构如图2所示。
判别器的输入层接收原图像和待判别图像,通过不断下采样,并扩展通道,最后输出6*6*1的feature map,据此来判断待判别图像是否与原图像一致。
优化器配置了两个损失函数,MSE Loss和GAN Loss,MSE Loss和GAN Loss联合优化判别器,GAN Loss优化生成器。MSE Loss即将原图像与生成图像(生成器最终输出的图像)对应像素点作差取绝对值,GAN Loss则计算待判别图像为真时,feature map与全1矩阵的距离。
通过上述网络中生成器与判别器的交叉训练,在生成器与判别器达到纳什均衡时完成训练。
B.将需要保护的图像输入到训练完成的生成器,并将生成器倒数第三层输出图像进行保存。这样,用户仅能访问所保存的图像(中间图像),无法访问到原图像,从而实现了对原图像的保护(防盗)。在后续流程中,再将用户访问的中间图像输入到生成器倒数第二层中,从生成器最后一层输出并展示给用户。
由于原图像的分辨率往往比生成器生成尺寸大,因此,采用图像切割的方式对原图像进行处理:将原图像切割为N*N的M个图像块,且对每个图像块加padding=X(X为正整数),防止边缘问题。若图像块某边缘不足N,则加padding到N。这样,对图像块分批次进行网络计算,以解决硬件算力问题。
C.等待用户访问中间图像,并在用户访问中间图像时,将所访问的中间图像输入到生成器倒数第二层,依次经过生成器的倒数第二层和最后一层的处理后,得到生成图像。
在一个实施例中,将训练完成的生成器从输入层到倒数第三层封装为一个模块-加密块,训练完成的生成器的倒数第二层到最后一层封装为另一个模块-解密块,需要保护(防盗)的图像输入到加密块后,加密块的输出(即中间图像)保存到服务器中供用户访问,待用户确定需要访问的目标(中间图像)后,解密块对该目标进行处理并展示给用户,解密块对中间图像的处理是将中间图像处理得如原始图像与一致。在具体开发时,将加密块配置在后台管理侧,加密块的输出连接到公共服务器,以将中间图像上传到公共服务器供用户访问,解密块被配置在前端,在用户选择访问目标(中间图像)后,前端将中间图像处理得到与原图像一致的生成图像并展示给用户。前端被配置为不可下载所展示的图像。
本发明并不局限于前述的具体实施方式。本发明扩展到任何在本说明书中披露的新特征或任何新的组合,以及披露的任一新的方法或过程的步骤或任何新的组合。
Claims (8)
1.一种基于深度学习的图像防盗系统,其特征在于,包括生成器、判别器和优化器,所述优化器配置损失函数,所述生成器与判别器形成对抗网络;
所述生成器的输入层到倒数第四层的结构为残差网络结构,所述生成器的倒数第三层将通道维度降低到3通道,通过激活函数tanh将输出控制在(-1,1)内,所述生成器的倒数第二层将通道提升到12维,所述生成器的最后一层将通道维度降低到3通道;所述生成器倒数第三层输出中间图像,所述中间图像经生成器倒数第二层和最后一层后生成最终的生成图像;
所述判别器的输入层接收原图像和待判别图像,通过不断下采样,并扩展通道,最后输出feature map,据此来判断待判别图像是否与原图像一致;所述待判别图像包括生成图像和标签图像,所述标签图像与所述原图像一致;
所述优化器配置了MSE损失和GAN损失,以GAN损失来优化生成器,以MSE损失和GAN损失来对判别器进行梯度优化。
2.如权利要求1所述的基于深度学习的图像防盗系统,其特征在于,所述生成器包括一个循环残差快,残差是cancatenate的方式,循环次数为2;以及包括一个外层残差块,残差是add的方式,循环调用所述循环残差块,循环次数为2。
3.如权利要求1所述的基于深度学习的图像防盗系统,其特征在于,所述生成器不包括下采样层。
4.一种基于深度学习的图像防盗方法,其特征在于,包括以下步骤:
A.将训练样本输入到预配的神经网络进行训练:
所述神经网络的结构与权利要求1~3任一所述的图像防盗系统结构相同,将神经网络中生成器与判别器的交叉训练,在生成器与判别器达到纳什均衡时完成训练;
B.将需要保护的图像输入到训练完成的生成器,并将生成器倒数第三层输出图像作为用户可访问对象;
C.等待用户访问中间图像,并在用户访问中间图像时,将所访问的中间图像输入到生成器倒数第二层,依次经过生成器的倒数第二层和最后一层的处理后,得到生成图像。
5.如权利要求4所述的图像防盗方法,其特征在于,所述B中,将需要保护的图像输入到训练完成的生成器之前,先将图像切割为若干图像块,并对每个图像块加padding。
6.如权利要求4所述的图像防盗方法,其特征在于,所述训练完成的生成器的倒数第二层和最后一层被配置于前端,所述前端展示所述生成器最后一层输出的图像。
7.如权利要求6所述的图像防盗方法,其特征在于,所述前端被配置为:不可下载所展示的图像。
8.如权利要求4~7任一所述的图像防盗方法,其特征在于,所述生成器倒数第三层输出的图像为png格式,且将3通道png压缩为单通道png进行保存。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010401776.XA CN111583101B (zh) | 2020-05-13 | 2020-05-13 | 基于深度学习的图像防盗系统和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010401776.XA CN111583101B (zh) | 2020-05-13 | 2020-05-13 | 基于深度学习的图像防盗系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111583101A true CN111583101A (zh) | 2020-08-25 |
CN111583101B CN111583101B (zh) | 2023-06-27 |
Family
ID=72124912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010401776.XA Active CN111583101B (zh) | 2020-05-13 | 2020-05-13 | 基于深度学习的图像防盗系统和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111583101B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107563493A (zh) * | 2017-07-17 | 2018-01-09 | 华南理工大学 | 一种多生成器卷积合成图像的对抗网络算法 |
CN108564611A (zh) * | 2018-03-09 | 2018-09-21 | 天津大学 | 一种基于条件生成对抗网络的单目图像深度估计方法 |
US20190046068A1 (en) * | 2017-08-10 | 2019-02-14 | Siemens Healthcare Gmbh | Protocol independent image processing with adversarial networks |
CN109360171A (zh) * | 2018-10-26 | 2019-02-19 | 北京理工大学 | 一种基于神经网络的视频图像实时去模糊方法 |
CN109829891A (zh) * | 2019-01-02 | 2019-05-31 | 浙江大学 | 一种基于密集生成对抗神经网络的磁瓦表面缺陷检测方法 |
US20190220977A1 (en) * | 2018-01-16 | 2019-07-18 | Siemens Healthcare Gmbh | Cross-Domain Image Analysis and Cross-Domain Image Synthesis Using Deep Image-to-Image Networks and Adversarial Networks |
CN110223259A (zh) * | 2019-06-14 | 2019-09-10 | 华北电力大学(保定) | 一种基于生成式对抗网络的道路交通模糊图像增强方法 |
US20190295302A1 (en) * | 2018-03-22 | 2019-09-26 | Northeastern University | Segmentation Guided Image Generation With Adversarial Networks |
US20200111194A1 (en) * | 2018-10-08 | 2020-04-09 | Rensselaer Polytechnic Institute | Ct super-resolution gan constrained by the identical, residual and cycle learning ensemble (gan-circle) |
CN111105336A (zh) * | 2019-12-04 | 2020-05-05 | 山东浪潮人工智能研究院有限公司 | 一种基于对抗网络的图像去水印的方法 |
CN111145116A (zh) * | 2019-12-23 | 2020-05-12 | 哈尔滨工程大学 | 一种基于生成对抗网络的海面雨天图像样本增广方法 |
-
2020
- 2020-05-13 CN CN202010401776.XA patent/CN111583101B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107563493A (zh) * | 2017-07-17 | 2018-01-09 | 华南理工大学 | 一种多生成器卷积合成图像的对抗网络算法 |
US20190046068A1 (en) * | 2017-08-10 | 2019-02-14 | Siemens Healthcare Gmbh | Protocol independent image processing with adversarial networks |
US20190220977A1 (en) * | 2018-01-16 | 2019-07-18 | Siemens Healthcare Gmbh | Cross-Domain Image Analysis and Cross-Domain Image Synthesis Using Deep Image-to-Image Networks and Adversarial Networks |
CN108564611A (zh) * | 2018-03-09 | 2018-09-21 | 天津大学 | 一种基于条件生成对抗网络的单目图像深度估计方法 |
US20190295302A1 (en) * | 2018-03-22 | 2019-09-26 | Northeastern University | Segmentation Guided Image Generation With Adversarial Networks |
US20200111194A1 (en) * | 2018-10-08 | 2020-04-09 | Rensselaer Polytechnic Institute | Ct super-resolution gan constrained by the identical, residual and cycle learning ensemble (gan-circle) |
CN109360171A (zh) * | 2018-10-26 | 2019-02-19 | 北京理工大学 | 一种基于神经网络的视频图像实时去模糊方法 |
CN109829891A (zh) * | 2019-01-02 | 2019-05-31 | 浙江大学 | 一种基于密集生成对抗神经网络的磁瓦表面缺陷检测方法 |
CN110223259A (zh) * | 2019-06-14 | 2019-09-10 | 华北电力大学(保定) | 一种基于生成式对抗网络的道路交通模糊图像增强方法 |
CN111105336A (zh) * | 2019-12-04 | 2020-05-05 | 山东浪潮人工智能研究院有限公司 | 一种基于对抗网络的图像去水印的方法 |
CN111145116A (zh) * | 2019-12-23 | 2020-05-12 | 哈尔滨工程大学 | 一种基于生成对抗网络的海面雨天图像样本增广方法 |
Non-Patent Citations (1)
Title |
---|
KHA CONG NGUYEN等: "A Character Attention Generative Adversarial Network for Degraded Historical Document Restoration", 2019 INTERNATIONAL CONFERENCE ON DOCUMENT ANALYSIS AND RECOGNITION (ICDAR) * |
Also Published As
Publication number | Publication date |
---|---|
CN111583101B (zh) | 2023-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110866509B (zh) | 动作识别方法、装置、计算机存储介质和计算机设备 | |
US20200098139A1 (en) | Systems and Methods for Generating and Transmitting Image Sequences Based on Sampled Color Information | |
CN112598579B (zh) | 面向监控场景的图像超分辨率方法、装置及存储介质 | |
CN112561766B (zh) | 图像隐写及提取方法、装置及电子设备 | |
WO2021047482A1 (en) | Method and system for performing steganographic technique | |
CN117974414B (zh) | 基于融合新闻素材的数字水印签名校验方法、装置和设备 | |
Khan et al. | Sparse to dense depth completion using a generative adversarial network with intelligent sampling strategies | |
Chai et al. | CSENMT: A deep image compressed sensing encryption network via multi-color space and texture feature | |
CN116957893B (zh) | 水印生成方法、装置、电子设备和计算机可读介质 | |
CN117314750A (zh) | 一种基于残差生成网络的图像超分辨率重建方法 | |
CN114493971B (zh) | 媒体数据转换模型训练、数字水印嵌入方法和装置 | |
CN111583101A (zh) | 基于深度学习的图像防盗系统和方法 | |
CN112052863B (zh) | 一种图像检测方法及装置、计算机存储介质、电子设备 | |
Muhammad et al. | Evaluating the suitability of color spaces for image steganography and its application in wireless capsule endoscopy | |
Kaimal et al. | A modified anti-forensic technique for removing detectable traces from digital images | |
CN116958317A (zh) | 一种结合边缘信息和外观流操作的图像修复方法及系统 | |
CN114861904A (zh) | 图像训练数据的生成方法、装置、终端设备及存储介质 | |
Sulaiman et al. | Detection and Localization of Splicing Forgery in Digital Videos Using Convolutional Auto-Encoder And Goturn Algorithm | |
Koshkina | J-UNIWARD Steganoanalysis | |
Patil et al. | A Detailed Analysis of Image Forgery Detection Techniques and Tools | |
CN115620013B (zh) | 语义分割方法、装置、计算机设备及计算机可读存储介质 | |
CN115690332B (zh) | 点云数据处理方法、装置、可读存储介质及电子设备 | |
CN116071478B (zh) | 图像重建模型的训练方法和虚拟场景渲染方法 | |
CN107093163B (zh) | 基于深度学习的图像融合方法与计算机存储介质 | |
Kumar et al. | Survey: Neural Network Authentication and Tampering Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address | ||
CP03 | Change of name, title or address |
Address after: 312000, Building A-208, No.1 Tianhuangping Road, Tianhuangping Town, Anji County, Huzhou City, Zhejiang Province, China (self declared) Patentee after: Huzhou Yunti Technology Co.,Ltd. Country or region after: China Address before: Room 3013, block a, new era Internet Plaza, 669 Fengtan Road, Xihu District, Hangzhou City, Zhejiang Province 310011 Patentee before: Hangzhou Yunti Technology Co.,Ltd. Country or region before: China |