CN113450271B - 一种基于人类视觉模型的鲁棒自适应对抗样本生成方法 - Google Patents
一种基于人类视觉模型的鲁棒自适应对抗样本生成方法 Download PDFInfo
- Publication number
- CN113450271B CN113450271B CN202110647462.2A CN202110647462A CN113450271B CN 113450271 B CN113450271 B CN 113450271B CN 202110647462 A CN202110647462 A CN 202110647462A CN 113450271 B CN113450271 B CN 113450271B
- Authority
- CN
- China
- Prior art keywords
- image
- disturbance
- gradient
- calculating
- human visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 230000000007 visual effect Effects 0.000 title claims abstract description 22
- 239000011159 matrix material Substances 0.000 claims abstract description 15
- 238000001914 filtration Methods 0.000 claims abstract description 6
- 230000000873 masking effect Effects 0.000 claims abstract description 5
- 238000004364 calculation method Methods 0.000 claims abstract description 3
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 230000003042 antagnostic effect Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 241000710169 Helenium virus S Species 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000003094 perturbing effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于人类视觉模型的鲁棒自适应对抗样本生成方法,包括以下步骤:利用人类视觉模型寻找最合适的对抗扰动,为每幅图像选择最佳的扰动嵌入区域;利用梯度攻击的方式,对于图像中梯度值较大的像素进行扰动,提高损失增长的速度;通过基于纹理掩蔽理论设计噪声可见函数,针对每幅图像的颜色和内容计算出一个动态的自适应系数矩阵;通过滤波式计算来提高计算图像局部方差的速度;通过自定义扰动的上限和下限来有效的控制对抗扰动的强度和不可见性进行平衡。本发明在保证人眼观察不到嵌入的对抗性扰动的前提下,使扰动强度最大化,且生成的对抗样本具备优良的不可见性和鲁棒性。
Description
技术领域
本发明涉及数字图像取证,特别是一种基于人类视觉模型的鲁棒自适应对抗样本生成方法。
背景技术
近年来,机器学习技术日益普及,尤其是深度学习的性能,在图像分类、图像生成、语义分割等方面已经远远超过了传统的方法。研究人员发现,尽管深度学习方法可以利用大量的训练数据集来获得较高的准确度,但它们很容易受到人为修改的输入的影响。对于图像分类任务,可以欺骗神经网络分类器的图像被称为对抗样本。
Szegedy等人提出了L-BFG方法来计算对抗样本,然而,他们提出的基于优化的方法是耗时的,不能快速和大量的生成对抗样本;Goodfellow等人提出了“快速梯度符号法(FGSM)”,它可以快速且有效地生成对抗样本;但这种方法需要手动选择扰动步长,并且在图像的大部分区域扰动强度相近,会导致样本的视觉质量较差;Kurakin在FGSM的基础上提出了“迭代法(I-FGSM)”,解决了扰动步长的选择问题,然而,由于每次迭代的扰动步长是相同的,I-FGSM只在一定程度上提高了视觉质量;除此之外还有C&W方法,该方法通过限制扰动的L范数,使扰动更难以被察觉,但是,C&W方法的效率很低且非常耗时。
目前在主流的对抗样本生成算法中,研究者主要集中在尽量减小对图像的扰动,使得神经网络发生误判。然而,由于对抗扰动的低强度,扰动可以被JPEG压缩、旋转、缩放、高斯噪声和高斯模糊等变换所破坏,从而失去对抗性。
发明内容
发明目的:本发明的目的是提供一种具备优良的不可见性和鲁棒性的基于人类视觉模型的鲁棒自适应对抗样本生成方法。
技术方案:本发明所述的一种基于人类视觉模型的鲁棒自适应对抗样本生成方法,包括以下步骤:
(1)利用人类视觉模型寻找最合适的对抗扰动,为每幅图像选择最佳的扰动嵌入区域;
(2)利用梯度攻击的方式,对于图像中梯度值较大的像素进行扰动,提高损失增长的速度;
(3)通过基于纹理掩蔽理论设计噪声可见函数,针对每幅图像的颜色和内容计算出一个动态的自适应系数矩阵;
(4)通过滤波式计算来提高计算图像局部方差的速度;
(5)通过自定义扰动的上限和下限来有效的控制对抗扰动的强度和不可见性进行平衡。
所述步骤(1)具体为:
(1.1)引入HVS来寻找最合适的对抗扰动;
(1.2)为每幅图像选择最佳的扰动嵌入区域。
所述步骤(2)具体为:
(2.1)将待生成对抗样本的图像输入目标网络进行分类;
(2.2)根据分类结果和给定的损失函数进行反向传播,获取并保存图像的梯度信息;
(2.3)利用梯度攻击的方式,对于图像中梯度值较大的像素进行扰动。
所述步骤(3)具体为:
(3.1)获取图像每个区域中心位置的像素的方差;
(3.2)结合每个像素的方差,根据所设计的噪声可见函数,计算出每个像素点位置的NVF值;
(3.3)根据需求选定扰动值上限和下限,以获取自适应系数矩阵。
所述步骤(4)具体为:
(4.1)设计3×3的均值滤波器对图像进行过滤;
(4.2)设计3×3的均值滤波器对图像的平方进行过滤;
(4.3)将(4.1)和(4.2)的滤波结果做差获取方差。
所述步骤(5)具体为:
(5.1)根据系数矩阵和梯度信息,采用梯度攻击计算出对抗扰动;
(5.2)将该对抗扰动叠加到原始输入的图像上,获取最终的对抗样本。
技术理论:对抗攻击的初衷是寻找小扰动,使得神经网络分类器给出错误的分类结果。然而,这种扰动非常脆弱,很容易被各种有意的变换所破坏。为了解决这个问题,引入HVS来寻找最合适的对抗扰动。最合适的而不是最小的对抗扰动是指在人眼看不见的前提下,扰动强度尽可能大。为每幅图像选择最佳的扰动嵌入区域。该方法提高对抗样本的鲁棒性和视觉质量。
随着网络层的深入,对抗扰动不断扩大,最终增加了正确标签上的分类损失。通过选择梯度值较大的像素并对其进行扰动,对抗扰动将随着网络层的加深更加迅速的膨胀。通过这样的方式,可以以更低的代价,生成同样甚至更好的对抗样本。
基于上述理论,首先本发明实现了梯度攻击而不是梯度符号攻击。然而,由于图像内部和图像之间存在较大的梯度差异,仅去除符号函数仍然不能很好地生成对抗样本。当乘以相同的扰动系数∈时,由于梯度值很大,某些像素的扰动可能变得太大而无法被人眼忽略。在某些情况下,扰动可能很小,即使经过多次迭代,目标神经网络也不会输出错误的分类结果。
为了解决这个问题,本发明提出了一种新的基于纹理掩蔽理论的NVF。通过这种NVF,可以根据每幅图像的颜色和内容得到一个系数矩阵。每个像素都有一个对应的NVF值。本发明提出了一种新的基于图像局部方差的NVF算法来提高该函数的性能。NVF分别计算一幅图像的三个通道,因此可以获取图像的颜色信息。基于NVF的对抗性扰动对图像不同通道上的不同区域具有自适应性。基于NVF的值计算允许对像素(i,j,k)一次扰动的步长Δ(i,j,k)。S0和S1分别是纹理和平滑区域中允许的最大像素修改值。根据HVS中的纹理掩蔽性,人眼对复杂纹理区域中像素值的变化不敏感,但很容易观察到平滑区域的像素变化。当纹理区域的Δ(i,j,k)大于平滑区域的Δ(i,j,k),并不会造成大规模的视觉质量下降。因此,在纹理极其复杂的区域,Δ(i,j,k)将达到上限S0。相反,区域越平滑,该区域的Δ(i,j,k)越小。
为了使每个图像的Δ(i,j,k)尽可能均匀地分布在S0和S1之间,计算图像的局部方差的平均值当前像素/>的方差越接近图像局部方差的平均值/>NVF的值就越接近1/2。当当前像素的/>较大时,NVF的值接近于0。相反,当/>越小时,NVF的值更接近1。对于3通道尺寸为m×n的彩色图像,新的NVF定义为:
利用矩阵指数计算局部方差既复杂又耗时。因此,本发明引入均值滤波器来快速求解。对于大小为m×n的图像的通道,局部方差是相同大小的矩阵。矩阵中的每个元素对应于原始图像中像素的3×3邻域的方差。以像素(i,j)为例,可以通过使图像的平方的平均值/>与图像的平均值的平方/>的差来获得。该过程可表述为:
在获得每个像素的NVF值之后,我们可以定制S0和S1来计算系数矩阵。系数矩阵中的每个元素Δ(i,j,k)是对应像素(i,j,k)的扰动步长。为了进一步降低计算复杂度和提高视觉质量,S1等于零。因此,图像区域越平滑,扰动就越接近于0,即不干扰图像中非常平滑的区域。Δ(i,j,k)可以简化为:
最后,我们可以根据所提的Δ(i,j,k)和对应梯度攻击计算出的梯度信息矩阵的结合,计算适应于每一副图像内容的对抗扰动,从而生成一种基于人类视觉模型的鲁棒自适应对抗样本。
有益效果:与现有技术相比,本发明具有如下优点:1、本发明在保证人眼观察不到嵌入的对抗性扰动的前提下,使扰动强度最大化;2、本发明生成的对抗样本具备优良的不可见性和鲁棒性。
附图说明
图1为自适应鲁棒对抗样本生成方法流程图;
图2为对抗扰动与I-FGSM算法的视觉对比图,其中图2a是I-FGSM生成的对抗扰动,图2bIAAP所生成的对抗扰动。
具体实施方式
下面结合附图对本发明的技术方案作进一步说明。
如图1所示为IAAP生成对抗样本的过程。Netf是指被攻击的神经网络分类器。根据噪声可见性函数计算图像X各通道的系数矩阵。通过反向求导计算出图像在损失函数Loss下的梯度并作为扰动生成的方向,以系数矩阵中的元素为扰动步长计算自适应对抗扰动。
如图2所示为I-FGSM与IAAP生成的对抗扰动及最终的对抗样本在的视觉效果比较。两种方法生成的对抗样本与原始图像的峰值信噪比(PSNR)均为40,说明两种方法所生成的扰动强度总体相等。I-FGSM与IAAP在结构化相似性(SSIM)上的得分为0.9455和0.9919。说明本发明所生成对抗样本的视觉质量要远远高于传统方法所生成的对抗样本。
如表1所示,不同攻击算法在不同网络结构下生成对抗样本的成功率(SR)、PSNR和SSIM。PSNR和SSIM反映了C&W攻击嵌入的扰动最小,因此视觉质量最好。当扰动强度相同(PSNR=40)时,IAAP的表现最好,证明了本发明能够在不同的网络结构下,以100%的成功率,在相同的扰动强度下,生成拥有更好视觉质量的对抗样本。
表1不同目标网络结构下的攻击成功率及视觉质量
如表2、3所示,不同算法生成的对抗样本对于JPEG压缩和高斯噪声的鲁棒性中,IAAP的表现最好。在不同质量因子的JPEG压缩条件下,对比相同扰动强度的I-FGSM,IAAP的鲁棒性最高提升了49.74%。在不同强度的高斯噪声下,IAAP的鲁棒性比I-FGSM提升了43.95%。对比其他算法,IAAP在鲁棒性的提升更加明显。
表2生成的对抗样本对抗JEPG压缩的鲁棒性
表3生成的对抗样本对抗高斯噪声的鲁棒性
Claims (4)
1.一种基于人类视觉模型的鲁棒自适应对抗样本生成方法,其特征在于,包括以下步骤:
(1)利用人类视觉模型寻找最合适的对抗扰动,为每幅图像选择最佳的扰动嵌入区域;
(2)利用梯度攻击的方式,对于图像中梯度值较大的像素进行扰动,提高损失增长的速度;
(3)通过基于纹理掩蔽理论设计噪声可见函数,针对每幅图像的颜色和内容计算出一个动态的自适应系数矩阵;
(3.1)获取图像每个区域中心位置的像素的方差;
(3.2)结合每个像素的方差,根据所设计的噪声可见函数,计算出每个像素点位置的NVF值;
(3.3)根据需求选定扰动值上限和下限,以获取自适应系数矩阵;
(4)通过滤波式计算来提高计算图像局部方差的速度;
(5)通过自定义扰动的上限和下限来有效的控制对抗扰动的强度和不可见性进行平衡;
(5.1)根据系数矩阵和梯度信息,采用梯度攻击计算出对抗扰动;
(5.2)将该对抗扰动叠加到原始输入的图像上,获取最终的对抗样本。
2.根据权利要求1所述的方法,其特征在于,所述步骤(1)具体为:
(1.1)引入HVS来寻找最合适的对抗扰动;
(1.2)为每幅图像选择最佳的扰动嵌入区域。
3.根据权利要求1所述的方法,其特征在于,所述步骤(2)具体为:
(2.1)将待生成对抗样本的图像输入目标网络进行分类;
(2.2)根据分类结果和给定的损失函数进行反向传播,获取并保存图像的梯度信息;
(2.3)利用梯度攻击的方式,对于图像中梯度值较大的像素进行扰动。
4.根据权利要求1所述的方法,其特征在于,所述步骤(4)具体为:
(4.1)设计的均值滤波器对图像进行过滤;
(4.2)设计的均值滤波器对图像的平方进行过滤;
(4.3)将(4.1)和(4.2)的滤波结果做差获取方差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110647462.2A CN113450271B (zh) | 2021-06-10 | 2021-06-10 | 一种基于人类视觉模型的鲁棒自适应对抗样本生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110647462.2A CN113450271B (zh) | 2021-06-10 | 2021-06-10 | 一种基于人类视觉模型的鲁棒自适应对抗样本生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113450271A CN113450271A (zh) | 2021-09-28 |
CN113450271B true CN113450271B (zh) | 2024-02-27 |
Family
ID=77811201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110647462.2A Active CN113450271B (zh) | 2021-06-10 | 2021-06-10 | 一种基于人类视觉模型的鲁棒自适应对抗样本生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113450271B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101246588A (zh) * | 2008-03-20 | 2008-08-20 | 复旦大学 | 彩色图像超复数空间的自适应水印算法 |
CN105472479A (zh) * | 2015-12-11 | 2016-04-06 | 上海紫竹数字创意港有限公司 | 基于小波高频子带补偿的视频添加和检测数字水印的方法 |
CN110276377A (zh) * | 2019-05-17 | 2019-09-24 | 杭州电子科技大学 | 一种基于贝叶斯优化的对抗样本生成方法 |
CN111047006A (zh) * | 2019-10-28 | 2020-04-21 | 浙江工业大学 | 一种基于对偶式生成网络的对抗攻击防御模型及应用 |
CN111160217A (zh) * | 2019-12-25 | 2020-05-15 | 中山大学 | 一种行人重识别系统对抗样本生成方法及系统 |
CN111177757A (zh) * | 2019-12-27 | 2020-05-19 | 支付宝(杭州)信息技术有限公司 | 一种图片中隐私信息保护的处理方法及装置 |
CN111539916A (zh) * | 2020-04-08 | 2020-08-14 | 中山大学 | 一种对抗鲁棒的图像显著性检测方法及系统 |
CN111680292A (zh) * | 2020-06-10 | 2020-09-18 | 北京计算机技术及应用研究所 | 一种基于高隐蔽性通用扰动的对抗样本生成方法 |
CN111768325A (zh) * | 2020-04-03 | 2020-10-13 | 南京信息工程大学 | 大数据隐私保护中基于生成对抗样本的安全性提升方法 |
CN112285664A (zh) * | 2020-12-18 | 2021-01-29 | 南京信息工程大学 | 一种雷达-飞行器体系对抗仿真置信度评估方法 |
CN112633280A (zh) * | 2020-12-31 | 2021-04-09 | 西北大学 | 一种对抗样本生成方法及系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200272726A1 (en) * | 2019-02-25 | 2020-08-27 | Advanced Micro Devices, Inc. | Method and apparatus for generating artificial intelligence resistant verification images |
US11443069B2 (en) * | 2019-09-03 | 2022-09-13 | International Business Machines Corporation | Root cause analysis of vulnerability of neural networks to adversarial examples |
-
2021
- 2021-06-10 CN CN202110647462.2A patent/CN113450271B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101246588A (zh) * | 2008-03-20 | 2008-08-20 | 复旦大学 | 彩色图像超复数空间的自适应水印算法 |
CN105472479A (zh) * | 2015-12-11 | 2016-04-06 | 上海紫竹数字创意港有限公司 | 基于小波高频子带补偿的视频添加和检测数字水印的方法 |
CN110276377A (zh) * | 2019-05-17 | 2019-09-24 | 杭州电子科技大学 | 一种基于贝叶斯优化的对抗样本生成方法 |
CN111047006A (zh) * | 2019-10-28 | 2020-04-21 | 浙江工业大学 | 一种基于对偶式生成网络的对抗攻击防御模型及应用 |
CN111160217A (zh) * | 2019-12-25 | 2020-05-15 | 中山大学 | 一种行人重识别系统对抗样本生成方法及系统 |
CN111177757A (zh) * | 2019-12-27 | 2020-05-19 | 支付宝(杭州)信息技术有限公司 | 一种图片中隐私信息保护的处理方法及装置 |
CN111768325A (zh) * | 2020-04-03 | 2020-10-13 | 南京信息工程大学 | 大数据隐私保护中基于生成对抗样本的安全性提升方法 |
CN111539916A (zh) * | 2020-04-08 | 2020-08-14 | 中山大学 | 一种对抗鲁棒的图像显著性检测方法及系统 |
CN111680292A (zh) * | 2020-06-10 | 2020-09-18 | 北京计算机技术及应用研究所 | 一种基于高隐蔽性通用扰动的对抗样本生成方法 |
CN112285664A (zh) * | 2020-12-18 | 2021-01-29 | 南京信息工程大学 | 一种雷达-飞行器体系对抗仿真置信度评估方法 |
CN112633280A (zh) * | 2020-12-31 | 2021-04-09 | 西北大学 | 一种对抗样本生成方法及系统 |
Non-Patent Citations (7)
Title |
---|
A Survey on Adversarial Example;Jinwei Zhang 等;《Journal of Information Hiding and Privacy Protection》;47-57 * |
Intriguing properties of neural networks;Christian Szegedy 等;《arXiv:1312.6199》;1-10 * |
Potential adversarial samples for white-box attacks;Amir Nazemi 等;《arXiv:1912.06409》;1-5 * |
图象认证和证件防伪中的数字水印实现方法研究;马天明;《中国优秀硕士学位论文全文数据库 信息科技辑》;I138-59 * |
基于SmsGAN的对抗样本修复;赵俊杰 等;《郑州大学学报(工学版)》;50-55 * |
小波变换结合噪声可见度函数的立体匹配;李超 等;《光电工程》;54-59 * |
面向保真印刷的彩色图像鲁棒水印方法研究;王彩印;《《中国博士论文全文数据库 信息科技辑》》;I138-4 * |
Also Published As
Publication number | Publication date |
---|---|
CN113450271A (zh) | 2021-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110782399B (zh) | 一种基于多任务cnn的图像去模糊方法 | |
CN111275643B (zh) | 基于通道和空间注意力的真实噪声盲去噪网络系统及方法 | |
Tang et al. | Single image dehazing via lightweight multi-scale networks | |
CN108564549A (zh) | 一种基于多尺度稠密连接网络的图像去雾方法 | |
CN112950477B (zh) | 一种基于双路径处理的高分辨率显著性目标检测方法 | |
CN111292258A (zh) | 一种基于暗通道和亮通道先验的图像去雾方法 | |
CN109377450B (zh) | 一种边缘保护的去噪方法 | |
CN110807742B (zh) | 一种基于一体式网络的微光图像增强方法 | |
CN112287973A (zh) | 基于截尾奇异值和像素插值的数字图像对抗样本防御方法 | |
CN111223034A (zh) | 基于深度学习的大容量抗打印/拍摄盲水印系统及方法 | |
CN108154487A (zh) | 基于多通道分解的屏摄图像摩尔纹消除方法 | |
CN116823686B (zh) | 一种基于图像增强的夜间红外与可见光图像融合方法 | |
CN108154482A (zh) | 基于暗通道先验和多方向加权tv的图像盲去模糊方法 | |
CN114219732A (zh) | 基于天空区域分割和透射率细化的图像去雾方法及系统 | |
CN106910170A (zh) | 一种图像椒盐噪声的去除方法 | |
CN112419163B (zh) | 一种基于先验知识和深度学习的单张图像弱监督去雾方法 | |
CN109829890B (zh) | 一种jpeg图像载体安全性评价方法 | |
CN111192213A (zh) | 图像去雾自适应参数的计算方法、图像去雾方法及系统 | |
CN113450271B (zh) | 一种基于人类视觉模型的鲁棒自适应对抗样本生成方法 | |
CN113962878A (zh) | 一种低能见度图像去雾模型方法 | |
CN108765267A (zh) | 一种基于误差扩散抖动算法的数码迷彩生成方法及系统 | |
Chen et al. | An L0-regularized global anisotropic gradient prior for single-image de-raining | |
Zhou et al. | Single image dehazing based on weighted variational regularized model | |
Zhong et al. | Undetectable adversarial examples based on microscopical regularization | |
Pramunendar et al. | A novel approach for underwater image enhancement based on improved dark channel prior with colour correction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |