CN115063492B - 一种抵抗jpeg压缩的对抗样本的生成方法 - Google Patents
一种抵抗jpeg压缩的对抗样本的生成方法 Download PDFInfo
- Publication number
- CN115063492B CN115063492B CN202210463842.5A CN202210463842A CN115063492B CN 115063492 B CN115063492 B CN 115063492B CN 202210463842 A CN202210463842 A CN 202210463842A CN 115063492 B CN115063492 B CN 115063492B
- Authority
- CN
- China
- Prior art keywords
- image
- size
- block
- multiplied
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 238000007906 compression Methods 0.000 title claims abstract description 54
- 230000006835 compression Effects 0.000 title claims abstract description 48
- 238000012360 testing method Methods 0.000 claims abstract description 57
- 238000012549 training Methods 0.000 claims abstract description 32
- 238000011176 pooling Methods 0.000 claims abstract description 16
- 238000005070 sampling Methods 0.000 claims abstract description 7
- 230000004913 activation Effects 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 20
- 239000011159 matrix material Substances 0.000 claims description 18
- 238000010606 normalization Methods 0.000 claims description 18
- 238000010586 diagram Methods 0.000 claims description 14
- 230000003213 activating effect Effects 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 10
- 238000013139 quantization Methods 0.000 claims description 10
- 210000002569 neuron Anatomy 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 4
- 230000001131 transforming effect Effects 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 230000008485 antagonism Effects 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 40
- 230000000007 visual effect Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/168—Segmentation; Edge detection involving transform domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Quality & Reliability (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明公开了一种抵抗JPEG压缩的对抗样本的生成方法,其利用设计好的空间形变网络对图像形变,使得生成的对抗样本在公共信道传播时能抵抗可能的压缩;空间形变网络由定位网络和取样模块组成,定位网络由多个卷积层和池化层等组成,通过对图像进行对应空间坐标值的计算得到形变图像;将训练集中的图像块放入空间形变网络进行训练,得到形变图像块,然后将得到的形变图像块进行提取、拼接得到与原始样本相同大小的对抗样本;在测试阶段,通过对得到的对抗样本进行图像质量的评估来衡量对抗样本经过JPEG压缩后的对抗性是否下降;优点是其生成的对抗样本在公共信道上进行传播时能更好地抵抗JPEG压缩,进而保证了经过传播后的对抗样本依然具有很好的攻击性。
Description
技术领域
本发明涉及一种对抗样本生成技术,尤其是涉及一种抵抗JPEG(JointPhotographicExperts Group,联合图像专家小组)压缩的对抗样本的生成方法,其生成的对抗样本可以更好地抵抗JPEG压缩。
背景技术
随着社交网络等新媒体技术的飞速发展,大量图片在互联网上传播。若这些图片在信道上以原始图片的方式进行传输时,需要占用大量的传输空间和存储空间,增加相关内容服务提供商的存储成本。因此,为了解决这个问题,传输前需要对原始图片进行压缩,以减少图片传输和存储所需要的成本。传统的压缩方法可分为有损压缩和无损压缩。无损压缩是指数据经过压缩后,信息不被破坏,压缩过程完全可逆,即可以将数据恢复原样。有损压缩是指将次要的数据舍弃,牺牲一些质量来减少数据量、提高压缩比。无损压缩常用于对图像质量要求较高的应用场景;有损压缩则更适合用户规模较大的场景,如社交网络。JPEG压缩技术是图像中最常见也是最通用的有损压缩技术,其特点是可以根据不同的压缩因子,对图像进行不同强度的压缩。JPEG压缩的一般流程如图1所示,编码过程首先将RGB格式的图像转换为YCrCb格式,然后进行分块和离散余弦变换(Discrete Cosine Transform,DCT),再对DCT系数进行量化,最后将量化后的系数进行熵编码;解码过程首先进行熵解码得到DCT系数,然后将解码后的DCT系数进行逆DCT变换,转换到像素空间,最后将得到的像素块组成图像,并由YCrCb格式转换回RGB格式,得到JPEG压缩后的图像。在JPEG压缩的流程中,量化操作是有损的,同时也是不可微的,对图像进行JPEG压缩后,由于量化的影响,因此每个8×8的像素块边界均会出现失真,严重影响了图像的视觉质量。
然而,评价一幅图像是否“好看”有很多种方法,传统的方法只能通过指标去静态的衡量图像的好坏,和人类的视觉无法联系在一起,因此,以人作为观测者,对图像进行主观评价,力求能够真实地反应人的视觉感知。基于深度学习的图像质量评价器相比于传统的方法能更直观地反应图像的视觉质量。以使用广泛的图像质量评价器(NIMA)为例,它在分类网络的基础上进行改造。将VGG16的最后一层用含有10个神经元的全连接层代替,其他部分的结构保持不变,然后使用数据对NIMA进行端到端的训练。由于训练集中的图片的长宽比例各不相同,因此在输入到NIMA之前会对训练集中的图片进行预处理,将图片变为256×256大小,随后将图片随机裁剪为224×224大小,最后每一张图片输入NIMA后会得到10个概率值,这10个概率值代表该图片落在1~10分中每个分数段的概率值,然后对这10个概率值进行加权平均得到该图片在NIMA中的图像质量得分。通过对NIMA进行端到端的训练,使其更加贴近人眼观察图像的好坏。
随着深度学习技术在各个领域的优异表现,深度学习模型的安全性也存在隐患。对抗样本是指在数据集中通过故意添加细微的干扰所形成的输入样本,其会导致深度学习模型以高置信度给出一个错误的输出,从而欺骗深度学习模型。对抗攻击可以分为白盒攻击和黑盒攻击,白盒攻击是指知道所攻击模型的网络结构以及参数等模型的具体信息,可以通过梯度对模型进行攻击;黑盒攻击是指不知道所攻击模型的具体结构和参数等信息,攻击者只能通过对模型进行输入和输出的方式进行查询,然后建立替代模型,实现对模型的攻击。现有的白盒对抗样本生成方法一般分为两种:基于加性噪声的对抗样本生成方法和基于优化的对抗样本生成方法。
以最常用的FGSM(Fast Gradient Sign Method,快速梯度下降法方法)和PGD(Project Gradient Descent,投影梯度下降法)方法作为示例。FGSM方法在白盒环境下,通过求出模型对输入的导数,然后用符号函数得到其具体的梯度方向,接着乘以一个步长,得到的“扰动”加在原来的输入上就得到了在FGSM攻击下的样本。虽然利用FGSM方法生成对抗样本的速度很快,但是由于FGSM只经过一次迭代,所添加的噪声是比较大的,因此利用FGSM生成的对抗样本有着肉眼可见的噪声,视觉质量较差。PGD方法可以看作是FGSM的翻版——K-FGSM(K表示迭代的次数),大概的思路就是,FGSM是仅仅做一次迭代,走一大步,而PGD是做多次迭代,每次走一小步,每次迭代都会将扰动clip(截剪)到规定范围(即限制到0~1)内。一般来说,PGD的攻击效果比FGSM要好,但是速度相对于FGSM较慢。利用PGD方法生成的对抗样本相比利用FGSM方法生成的对抗样本噪声更小,但是噪声依旧是肉眼可见的,视觉质量有待提高。
发明内容
本发明所要解决的技术问题是提供一种抵抗JPEG压缩的对抗样本的生成方法,其生成的对抗样本在公共信道上进行传播时能够更好地抵抗JPEG压缩,进而保证了经过传播后的对抗样本依然具有很好的攻击性,且视觉质量好。
本发明解决上述技术问题所采用的技术方案为:一种抵抗JPEG压缩的对抗样本的生成方法,其特征在于包括训练阶段和测试阶段;
所述的训练阶段的具体过程为:
步骤1_1:选取Q张原始RGB图像;然后将每张原始RGB图像缩放成256×256大小的图像;再对每张256×256大小的图像在其中心区域内进行随机裁剪,裁剪成224×224大小的图像,定义为裁剪图像;接着将每张裁剪图像输入到图像质量评价器中,图像质量评价器输出每张裁剪图像的质量得分,作为对应的原始RGB图像的真实质量得分;之后将所有原始RGB图像及每张原始RGB图像的真实质量得分构成训练集;再将训练集中的每张原始RGB图像对应的裁剪图像分割成625个相互重叠的32×32大小的图像块;其中,Q≥1,图像块与图像块之间重叠8个像素点;
步骤1_2:构建空间形变网络:该空间形变网络包括定位网络和取样模块;
定位网络为一个卷积神经网络,其由依次连接的第一卷积块、第二卷积块、第三卷积块、第四卷积块、全连接层组成,第一卷积块由依次连接的第一卷积层、第一批归一化层、第一LeakyReLu激活函数组成,第二卷积块由依次连接的第二卷积层、第二批归一化层、第二LeakyReLu激活函数组成,第三卷积块由依次连接的第三卷积层、第三批归一化层、第三LeakyReLu激活函数、平均池化层组成,第四卷积块由依次连接的第四卷积层、第四批归一化层、第四LeakyReLu激活函数组成,第一卷积层的输入端接收一张32×32大小的RGB图像的三通道,第一批归一化层的输入端接收第一卷积层的输出端输出的64张15×15大小的特征图,第一LeakyReLu激活函数的输入端接收第一批归一化层的输出端输出的64张15×15大小的特征图,第二卷积层的输入端接收第一LeakyReLu激活函数的输出端输出的64张15×15大小的特征图,第二批归一化层的输入端接收第二卷积层的输出端输出的64张7×7大小的特征图,第二LeakyReLu激活函数的输入端接收第二批归一化层的输出端输出的64张7×7大小的特征图,第三卷积层的输入端接收第二LeakyReLu激活函数的输出端输出的64张7×7大小的特征图,第三批归一化层的输入端接收第三卷积层的输出端输出的64张3×3大小的特征图,第三LeakyReLu激活函数的输入端接收第三批归一化层的输出端输出的64张3×3大小的特征图,平均池化层的输入端接收第三LeakyReLu激活函数的输出端输出的64张3×3大小的特征图,第四卷积层的输入端接收平均池化层的输出端输出的64张2×2大小的特征图,第四批归一化层的输入端接收第四卷积层的输出端输出的6张2×2大小的特征图,第四LeakyReLu激活函数的输入端接收第四批归一化层的输出端输出的6张2×2大小的特征图,全连接层的输入端接收第四LeakyReLu激活函数的输出端输出的6张2×2大小的特征图,全连接层的输出端输出由6个数值构成的向量;
其中,第一卷积层的输入通道数为3、输出通道数为64、卷积核的大小为5、卷积核的步长为2、填充为1,第二卷积层的输入通道数为64、输出通道数为64、卷积核的大小为5、卷积核的步长为2、填充为1,第三卷积层的输入通道数为64、输出通道数为64、卷积核的大小为5、卷积核的步长为2、填充为1,平均池化层的平均池化核的大小为2×2,第四卷积层的输入通道数为64、输出通道数为6、卷积核的大小为1、卷积核的步长为1、填充为0,第一LeakyReLu激活函数、第二LeakyReLu激活函数、第三LeakyReLu激活函数、第四LeakyReLu激活函数的激活参数均为0.2,全连接层的神经元个数为6;
取样模块将全连接层的输出端输出的向量中的前3个数值作为第一行、后3个数值作为第二行构成一个矩阵,记为θ;然后将输入定位网络的32×32大小的RGB图像及对应的矩阵θ输入到网格函数中,网格函数输出形变后的32×32大小的块,定义为形变块;再计算形变块中的每个像素点的像素值,对于形变块中的任一个像素点,当在输入定位网络的32×32大小的RGB图像中找到与该像素点的坐标位置有对应关系的坐标位置时,该像素点的像素值等于找到的坐标位置上的像素点的像素值;当在输入定位网络的32×32大小的RGB图像中找不到与该像素点的坐标位置有对应关系的坐标位置时,先使用双线性插值法获取该像素点的插值坐标位置,再在输入定位网络的32×32大小的RGB图像中找出与该像素点的插值坐标位置有对应关系的坐标位置,该像素点的像素值等于找出的坐标位置上的像素点的像素值;其中,θ的维数为2×3;
步骤1_3:将训练集中的每张原始RGB图像对应的裁剪图像作为原始样本;然后将每个原始样本中的每个32×32大小的图像块作为输入图像,输入到空间形变网络中,空间形变网络输出每个原始样本中的每个32×32大小的图像块对应的形变块;
步骤1_4:对每个原始样本中的每个32×32大小的图像块对应的形变块进行JPEG压缩,得到每个原始样本中的每个32×32大小的图像块对应的形变压缩块,在JPEG压缩过程中将形变块从RGB格式转换为YCrCb格式,然后将YCrCb格式的形变块分割成16个互不重叠的8×8大小的子块,接着对YCrCb格式的形变块中的每个子块进行DCT变换,得到每个子块的DCT系数矩阵,再采用一个三阶函数模拟量化操作,对每个子块的DCT系数矩阵进行处理,将得到的结果记为Xapprox,Xapprox=Round(Round(X)+(X-Round(X))3);其中,Xapprox的维数为8×8,Round()表示四舍五入取整函数,X表示子块的DCT系数矩阵,X的维数为8×8;
步骤1_5:从每个原始样本中的每个32×32大小的图像块对应的形变压缩块中,提取出以该形变压缩块的中心为中心的8×8大小区域作为提取块;然后针对每个原始样本,将提取出的625个提取块按该原始样本分割成的625个32×32大小的图像块的顺序组合成新的图像,再将该原始样本的四周每侧12个像素点宽的区域作为边缘外框、将新的图像作为中心区域拼接形成224×224大小的对抗样本;再将每个对抗样本输入到图像质量评价器中,图像质量评价器输出每个对抗样本的质量得分;
步骤1_6:计算每个原始样本与对应的对抗样本之间的损失函数,将第q个原始样本与对应的对抗样本之间的损失函数记为Lossq,其中,1≤q≤Q,/>表示第q个原始样本对应的对抗样本的质量得分,s0表示设定的质量分,s0∈[1,10],xq表示第q个原始样本,/>表示第q个原始样本对应的对抗样本,α为用于控制与/>之间的重要程度的权重,0<α<1,/>表示/>与s0的均方根误差,/>表示xq与/>之间的差异;
步骤1_7:重复执行步骤1_3至步骤1_6更新空间形变网络中的参数,直至损失函数收敛,得到空间形变网络训练模型;
所述的测试阶段的具体过程为:
步骤2_1:对于任意一张测试RGB图像,将测试RGB图像缩放成256×256大小的图像;再对256×256大小的图像在其中心区域内进行随机裁剪,裁剪成224×224大小的图像,定义为测试裁剪图像;接着将测试裁剪图像分割成625个相互重叠的32×32大小的图像块;
步骤2_2:将测试裁剪图像中的每个32×32大小的图像块作为输入图像,输入到训练好的空间形变网络训练模型中,空间形变网络训练模型输出测试裁剪图像中的每个32×32大小的图像块对应的形变块;然后按照步骤1_4的过程,以相同的方式对测试裁剪图像中的每个32×32大小的图像块对应的形变块进行JPEG压缩,得到测试裁剪图像中的每个32×32大小的图像块对应的形变压缩块;
步骤2_3:从测试裁剪图像中的每个32×32大小的图像块对应的形变压缩块中,提取出以该形变压缩块的中心为中心的8×8大小区域作为测试提取块;然后将提取出的625个测试提取块按测试裁剪图像分割成的625个32×32大小的图像块的顺序组合成新的图像,再将测试裁剪图像的四周每侧12个像素点宽的区域作为边缘外框、将新的图像作为中心区域拼接形成224×224大小的测试对抗样本。
所述的步骤1_6中,的获取过程为:将xq和/>同时输入到VGG16中的第二个卷积层中,获得xq对应的一张特征图和/>对应的一张特征图;然后计算两张特征图的L2范数距离,作为/>
与现有技术相比,本发明的优点在于:
1)本发明方法生成的对抗样本可以显著提高对抗样本在经过JPEG等压缩后的攻击性,同时还能保持更加良好的视觉观感。
2)本发明方法构建的空间形变网络的结构非常轻量化,因此利用本发明方法可以在很短的时间内生成对抗样本,生成对抗样本的速度很快。
3)本发明方法对空间形变网络输出的形变块进行JPEG压缩时采用一个三阶函数模拟量化操作,保证了后面的梯度是可以正常回传的,因此可以完整地训练出空间形变网络训练模型。
附图说明
图1为JPEG压缩过程的示意图;
图2为本发明方法的总体实现框图;
图3为本发明方法中构建的空间形变网络的组成结构示意图;
图4a为一张原始图像;
图4b为利用FGSM算法生成的对抗样本;
图4c为利用FGSM算法生成的对抗样本与原始样本的差值;
图4d为利用PGD算法生成的对抗样本;
图4e为利用PGD算法生成的对抗样本与原始样本的差值;
图4f为利用本发明方法生成的对抗样本;
图4g为利用本发明方法生成的对抗样本与原始样本的差值。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种抵抗JPEG压缩的对抗样本的生成方法,其总体实现框图如图2所示,其包括训练阶段和测试阶段。
所述的训练阶段的具体过程为:
步骤1_1:选取Q张原始RGB图像;然后将每张原始RGB图像缩放成256×256大小的图像;再对每张256×256大小的图像在其中心区域内进行随机裁剪,裁剪成224×224大小的图像,定义为裁剪图像;接着将每张裁剪图像输入到图像质量评价器(Neural ImageAssessment,NIMA)中,图像质量评价器输出每张裁剪图像的质量得分,作为对应的原始RGB图像的真实质量得分;之后将所有原始RGB图像及每张原始RGB图像的真实质量得分构成训练集;再将训练集中的每张原始RGB图像对应的裁剪图像分割成625个相互重叠的32×32大小的图像块;其中,Q≥1,Q张原始RGB图像的大小不一,对每张256×256大小的图像在其中心区域内进行随机裁剪即256×256大小的图像的边缘部分不裁剪进,图像块与图像块之间重叠8个像素点,即在一行图像块中左边的图像块与右边的图像块之间重叠8个像素点,一列图像块中上边的图像块与下边的图像块之间重叠8个像素点,例如:第1个图像块取的是[0,32]的正方形区域,第2个图像块取的是[8,40]的正方形区域,其中有[8,32]的重叠部分,重叠的目的是为了避免边界伪影的出现。
由于所使用的图像质量评价器只接收224×224大小的RGB图像,而Q张原始RGB图像的大小各不相同,因此需要先对原始RGB图像进行预处理,即先缩放成256×256大小的图像,再随机裁剪成224×224大小的图像。
由于后续生成对抗样本的要求是不可以和原始样本即裁剪图像有着很大的视觉差异,因此采取局部微小形变的方式生成对抗样本,故对原始样本即裁剪图像进行分块,以此来获得局部微小形变的效果。
步骤1_2:构建空间形变网络:如图3所示,该空间形变网络包括定位网络和取样模块;
定位网络为一个卷积神经网络,其由依次连接的第一卷积块、第二卷积块、第三卷积块、第四卷积块、全连接层组成,第一卷积块由依次连接的第一卷积层、第一批归一化层、第一LeakyReLu激活函数组成,第二卷积块由依次连接的第二卷积层、第二批归一化层、第二LeakyReLu激活函数组成,第三卷积块由依次连接的第三卷积层、第三批归一化层、第三LeakyReLu激活函数、平均池化层组成,第四卷积块由依次连接的第四卷积层、第四批归一化层、第四LeakyReLu激活函数组成,第一卷积层的输入端接收一张32×32大小的RGB图像的三通道,第一批归一化层的输入端接收第一卷积层的输出端输出的64张15×15大小的特征图,第一LeakyReLu激活函数的输入端接收第一批归一化层的输出端输出的64张15×15大小的特征图,第二卷积层的输入端接收第一LeakyReLu激活函数的输出端输出的64张15×15大小的特征图,第二批归一化层的输入端接收第二卷积层的输出端输出的64张7×7大小的特征图,第二LeakyReLu激活函数的输入端接收第二批归一化层的输出端输出的64张7×7大小的特征图,第三卷积层的输入端接收第二LeakyReLu激活函数的输出端输出的64张7×7大小的特征图,第三批归一化层的输入端接收第三卷积层的输出端输出的64张3×3大小的特征图,第三LeakyReLu激活函数的输入端接收第三批归一化层的输出端输出的64张3×3大小的特征图,平均池化层的输入端接收第三LeakyReLu激活函数的输出端输出的64张3×3大小的特征图,第四卷积层的输入端接收平均池化层的输出端输出的64张2×2大小的特征图,第四批归一化层的输入端接收第四卷积层的输出端输出的6张2×2大小的特征图,第四LeakyReLu激活函数的输入端接收第四批归一化层的输出端输出的6张2×2大小的特征图,全连接层的输入端接收第四LeakyReLu激活函数的输出端输出的6张2×2大小的特征图,全连接层的输出端输出由6个数值构成的向量。
其中,第一卷积层的输入通道数为3、输出通道数为64、卷积核的大小为5、卷积核的步长为2、填充为1,第二卷积层的输入通道数为64、输出通道数为64、卷积核的大小为5、卷积核的步长为2、填充为1,第三卷积层的输入通道数为64、输出通道数为64、卷积核的大小为5、卷积核的步长为2、填充为1,平均池化层的平均池化核的大小为2×2,第四卷积层的输入通道数为64、输出通道数为6、卷积核的大小为1、卷积核的步长为1、填充为0,第一LeakyReLu激活函数、第二LeakyReLu激活函数、第三LeakyReLu激活函数、第四LeakyReLu激活函数的激活参数均为0.2,全连接层的神经元个数为6,由于在此只是对图像进行2D变换,因此全连接层的输出端输出由6个数值构成的向量,如果对图像进行3D变换,那么全连接层的输出端输出由9个数值构成的向量。
通过定位网络,将一张32×32大小的RGB图像经过一系列的卷积等操作变成了由6个数值构成的向量。
取样模块将全连接层的输出端输出的向量中的前3个数值作为第一行、后3个数值作为第二行构成一个矩阵,记为θ;然后将输入定位网络的32×32大小的RGB图像及对应的矩阵θ输入到网格函数(grid generator)中,网格函数输出形变后的32×32大小的块,定义为形变块;再计算形变块中的每个像素点的像素值,对于形变块中的任一个像素点,当在输入定位网络的32×32大小的RGB图像中找到与该像素点的坐标位置有对应关系的坐标位置时,该像素点的像素值等于找到的坐标位置上的像素点的像素值;当在输入定位网络的32×32大小的RGB图像中找不到与该像素点的坐标位置有对应关系的坐标位置时(即该像素点的坐标位置不是整数时),先使用双线性插值法获取该像素点的插值坐标位置,再在输入定位网络的32×32大小的RGB图像中找出与该像素点的插值坐标位置有对应关系的坐标位置,该像素点的像素值等于找出的坐标位置上的像素点的像素值;其中,θ的维数为2×3。
步骤1_3:将训练集中的每张原始RGB图像对应的裁剪图像作为原始样本;然后将每个原始样本中的每个32×32大小的图像块作为输入图像,输入到空间形变网络中,空间形变网络输出每个原始样本中的每个32×32大小的图像块对应的形变块。
步骤1_4:对每个原始样本中的每个32×32大小的图像块对应的形变块进行JPEG压缩,得到每个原始样本中的每个32×32大小的图像块对应的形变压缩块,在JPEG压缩过程中将形变块从RGB格式转换为YCrCb格式,然后将YCrCb格式的形变块分割成16个互不重叠的8×8大小的子块,接着对YCrCb格式的形变块中的每个子块进行DCT变换(DiscreteCosine Transform,离散余弦变换),得到每个子块的DCT系数矩阵,再采用一个三阶函数模拟量化操作,对每个子块的DCT系数矩阵进行处理,将得到的结果记为Xapprox,Xapprox=Round(Round(X)+(X-Round(X))3),JPEG压缩的后续过程不变;其中,Xapprox的维数为8×8,Round()表示四舍五入取整函数,X表示子块的DCT系数矩阵,X的维数为8×8。
由于JPEG压缩过程中的量化操作是不可微分的,而本发明需要最后的梯度回传来调节空间形变网络的参数,因此采用一个三阶函数模拟量化操作,从而使整个JPEG压缩过程由不可微分变成可以微分。
步骤1_5:从每个原始样本中的每个32×32大小的图像块对应的形变压缩块中,提取出以该形变压缩块的中心为中心的8×8大小区域作为提取块;然后针对每个原始样本,将提取出的625个提取块按该原始样本分割成的625个32×32大小的图像块的顺序组合成新的图像,再将该原始样本的四周每侧12个像素点宽的区域作为边缘外框、将新的图像作为中心区域拼接形成224×224大小的对抗样本;再将每个对抗样本输入到图像质量评价器中,图像质量评价器输出每个对抗样本的质量得分。
由于JPEG压缩时将图像划分成互不重叠的8×8大小的子块后会再进行DCT变换,因此从形变压缩块中提取出中心的8×8大小区域作为提取块,这有利于抵抗JPEG的压缩过程。
获得的对抗样本不仅可以攻击图像质量评价器,而且相比其他生成方法生成的对抗样本拥有更好的视觉质量。
步骤1_6:计算每个原始样本与对应的对抗样本之间的损失函数,将第q个原始样本与对应的对抗样本之间的损失函数记为Lossq,其中,1≤q≤Q,/>表示第q个原始样本对应的对抗样本的质量得分,s0表示设定的质量分,s0∈[1,10],xq表示第q个原始样本,/>表示第q个原始样本对应的对抗样本,α为用于控制与/>之间的重要程度的权重,0<α<1,在本实施例中取α=0.2,表示/>与s0的均方根误差,/>表示xq与/>之间的差异,/>可以容忍微小形变。
数理统计中均方根误差是指参数估计值与参数真值之差平方的期望值,记为MSE,MSE是衡量“平均误差”的一种较方便的方法,MSE可以评价数据的变化程度,MSE的值越小,说明预测模型描述实验数据具有更好的精确度。
在本实施例中,步骤1_6中,的获取过程为:将xq和/>同时输入到VGG16中的第二个卷积层中,获得xq对应的一张特征图和/>对应的一张特征图;然后计算两张特征图的L2范数距离,作为/>
步骤1_7:重复执行步骤1_3至步骤1_6更新空间形变网络中的参数,直至损失函数收敛,得到空间形变网络训练模型。
所述的测试阶段的具体过程为:
步骤2_1:对于任意一张测试RGB图像,将测试RGB图像缩放成256×256大小的图像;再对256×256大小的图像在其中心区域内进行随机裁剪,裁剪成224×224大小的图像,定义为测试裁剪图像;接着将测试裁剪图像分割成625个相互重叠的32×32大小的图像块。
步骤2_2:将测试裁剪图像中的每个32×32大小的图像块作为输入图像,输入到训练好的空间形变网络训练模型中,空间形变网络训练模型输出测试裁剪图像中的每个32×32大小的图像块对应的形变块;然后按照步骤1_4的过程,以相同的方式对测试裁剪图像中的每个32×32大小的图像块对应的形变块进行JPEG压缩,得到测试裁剪图像中的每个32×32大小的图像块对应的形变压缩块。
步骤2_3:从测试裁剪图像中的每个32×32大小的图像块对应的形变压缩块中,提取出以该形变压缩块的中心为中心的8×8大小区域作为测试提取块;然后将提取出的625个测试提取块按测试裁剪图像分割成的625个32×32大小的图像块的顺序组合成新的图像,再将测试裁剪图像的四周每侧12个像素点宽的区域作为边缘外框、将新的图像作为中心区域拼接形成224×224大小的测试对抗样本;再将每个测试对抗样本输入到图像质量评价器中,图像质量评价器输出每个测试对抗样本的质量得分。
由于本发明的最终目的是训练一个空间形变网络,使得使用训练好的空间形变网络模型对图像进行处理后,生成图像质量评价器的对抗样本,且要求损失函数可以容忍微小的形变,因此不能用传统的L1或者L2等来测量两张图像之间的差异。
为了进一步说明本发明方法的可行性和有效性,对本发明方法进行实验。
使用基于python的深度学习库Pytorch1.8.0搭建空间形变网络的架构。采用最大的真实图像数据集AVA中的图像测试集来分析利用本发明方法生成的对抗样本到底效果如何。
实验中采用的对比方法为两种传统的对抗样本生成方法,分别为FGSM(FastGradient Sign Method,快速梯度下降法)和PGD(Project Gradient Descent,投影梯度下降法)。
将真实图像数据集AVA中的图像测试集中的每张图像作为测试图像,利用本发明方法、FGSM和PGD分别对每张测试图像进行对抗样本的生成,进而获取对抗样本与测试图像对应的测试裁剪图像之间的差异,以及对抗样本在经过不同量化系数的JPEG压缩后攻击性的下降程度。
表1给出了利用本发明方法、FGSM和PGD分别生成的所有对抗样本在经过图像质量评价器后的质量得分的平均值、经过JPEG压缩(QF=90)后的质量得分的平均值、PSNR平均值。这里,QF代表JPEG压缩的量化系数,QF越大表明经过JPEG压缩后得到的图像质量越好,即JPEG压缩过程中丢掉的信息越少,由于现在的社交网络中的JPEG压缩的量化系数大部分都是分布在90附近,因此令QF=90更加接近社交网络的使用场景;PSNR即峰值信噪比,是常用的评价图像质量的客观指标,PSNR用于评价图像的失真程度。
表1 利用本发明方法、FGSM和PGD分别生成的所有对抗样本在经过图像质量评价器后的质量得分的平均值、经过JPEG压缩(QF=90)后的质量得分的平均值、PSNR平均值
表1中,经过图像质量评价器后的质量得分是生成的对抗样本在图像质量评价器中所得到的质量得分,质量得分越接近3,说明攻击成功率越高;经过JPEG压缩后的质量得分是生成的对抗样本在经过QF=90的JPEG压缩后再进入图像质量评价器中所得到的质量得分,这个质量得分越接近经过图像质量评价器后的质量得分,说明对应的生成方法抵抗JPEG压缩的能力越强;
从表1中的数据可知,按照本发明方法生成的对抗样本的结果是较好的,在抵抗JPEG压缩方面,利用本发明方法生成的对抗样本失真更小,说明利用本发明方法生成的对抗样本抵抗JPEG压缩的能力是最强的,同时还保持了更好的图像感知质量。
图4a给出了一张原始图像,图4b给出了利用FGSM算法生成的对抗样本,图4c给出了利用FGSM算法生成的对抗样本与原始样本的差值,图4d给出了利用PGD算法生成的对抗样本,图4e给出了利用PGD算法生成的对抗样本与原始样本的差值,图4f给出了利用本发明方法生成的对抗样本,图4g给出了利用本发明方法生成的对抗样本与原始样本的差值。对比图4c、图4e、图4g,可以明显看出,利用本发明方法生成的对抗样本与原始样本的差值明显小于其他两种经典的对抗样本生成方法,这充分说明了利用本发明方法生成的对抗样本对原始图像的改变是最不明显的,即利用本发明方法生成的对抗样本是最接近原始图像的,这就意味着利用本发明方法生成的对抗样本是三种方法中最好的。
Claims (2)
1.一种抵抗JPEG压缩的对抗样本的生成方法,其特征在于包括训练阶段和测试阶段;
所述的训练阶段的具体过程为:
步骤1_1:选取Q张原始RGB图像;然后将每张原始RGB图像缩放成256×256大小的图像;再对每张256×256大小的图像在其中心区域内进行随机裁剪,裁剪成224×224大小的图像,定义为裁剪图像;接着将每张裁剪图像输入到图像质量评价器中,图像质量评价器输出每张裁剪图像的质量得分,作为对应的原始RGB图像的真实质量得分;之后将所有原始RGB图像及每张原始RGB图像的真实质量得分构成训练集;再将训练集中的每张原始RGB图像对应的裁剪图像分割成625个相互重叠的32×32大小的图像块;其中,Q≥1,图像块与图像块之间重叠8个像素点;
步骤1_2:构建空间形变网络:该空间形变网络包括定位网络和取样模块;
定位网络为一个卷积神经网络,其由依次连接的第一卷积块、第二卷积块、第三卷积块、第四卷积块、全连接层组成,第一卷积块由依次连接的第一卷积层、第一批归一化层、第一LeakyReLu激活函数组成,第二卷积块由依次连接的第二卷积层、第二批归一化层、第二LeakyReLu激活函数组成,第三卷积块由依次连接的第三卷积层、第三批归一化层、第三LeakyReLu激活函数、平均池化层组成,第四卷积块由依次连接的第四卷积层、第四批归一化层、第四LeakyReLu激活函数组成,第一卷积层的输入端接收一张32×32大小的RGB图像的三通道,第一批归一化层的输入端接收第一卷积层的输出端输出的64张15×15大小的特征图,第一LeakyReLu激活函数的输入端接收第一批归一化层的输出端输出的64张15×15大小的特征图,第二卷积层的输入端接收第一LeakyReLu激活函数的输出端输出的64张15×15大小的特征图,第二批归一化层的输入端接收第二卷积层的输出端输出的64张7×7大小的特征图,第二LeakyReLu激活函数的输入端接收第二批归一化层的输出端输出的64张7×7大小的特征图,第三卷积层的输入端接收第二LeakyReLu激活函数的输出端输出的64张7×7大小的特征图,第三批归一化层的输入端接收第三卷积层的输出端输出的64张3×3大小的特征图,第三LeakyReLu激活函数的输入端接收第三批归一化层的输出端输出的64张3×3大小的特征图,平均池化层的输入端接收第三LeakyReLu激活函数的输出端输出的64张3×3大小的特征图,第四卷积层的输入端接收平均池化层的输出端输出的64张2×2大小的特征图,第四批归一化层的输入端接收第四卷积层的输出端输出的6张2×2大小的特征图,第四LeakyReLu激活函数的输入端接收第四批归一化层的输出端输出的6张2×2大小的特征图,全连接层的输入端接收第四LeakyReLu激活函数的输出端输出的6张2×2大小的特征图,全连接层的输出端输出由6个数值构成的向量;
其中,第一卷积层的输入通道数为3、输出通道数为64、卷积核的大小为5、卷积核的步长为2、填充为1,第二卷积层的输入通道数为64、输出通道数为64、卷积核的大小为5、卷积核的步长为2、填充为1,第三卷积层的输入通道数为64、输出通道数为64、卷积核的大小为5、卷积核的步长为2、填充为1,平均池化层的平均池化核的大小为2×2,第四卷积层的输入通道数为64、输出通道数为6、卷积核的大小为1、卷积核的步长为1、填充为0,第一LeakyReLu激活函数、第二LeakyReLu激活函数、第三LeakyReLu激活函数、第四LeakyReLu激活函数的激活参数均为0.2,全连接层的神经元个数为6;
取样模块将全连接层的输出端输出的向量中的前3个数值作为第一行、后3个数值作为第二行构成一个矩阵,记为θ;然后将输入定位网络的32×32大小的RGB图像及对应的矩阵θ输入到网格函数中,网格函数输出形变后的32×32大小的块,定义为形变块;再计算形变块中的每个像素点的像素值,对于形变块中的任一个像素点,当在输入定位网络的32×32大小的RGB图像中找到与该像素点的坐标位置有对应关系的坐标位置时,该像素点的像素值等于找到的坐标位置上的像素点的像素值;当在输入定位网络的32×32大小的RGB图像中找不到与该像素点的坐标位置有对应关系的坐标位置时,先使用双线性插值法获取该像素点的插值坐标位置,再在输入定位网络的32×32大小的RGB图像中找出与该像素点的插值坐标位置有对应关系的坐标位置,该像素点的像素值等于找出的坐标位置上的像素点的像素值;其中,θ的维数为2×3;
步骤1_3:将训练集中的每张原始RGB图像对应的裁剪图像作为原始样本;然后将每个原始样本中的每个32×32大小的图像块作为输入图像,输入到空间形变网络中,空间形变网络输出每个原始样本中的每个32×32大小的图像块对应的形变块;
步骤1_4:对每个原始样本中的每个32×32大小的图像块对应的形变块进行JPEG压缩,得到每个原始样本中的每个32×32大小的图像块对应的形变压缩块,在JPEG压缩过程中将形变块从RGB格式转换为YCrCb格式,然后将YCrCb格式的形变块分割成16个互不重叠的8×8大小的子块,接着对YCrCb格式的形变块中的每个子块进行DCT变换,得到每个子块的DCT系数矩阵,再采用一个三阶函数模拟量化操作,对每个子块的DCT系数矩阵进行处理,将得到的结果记为Xapprox,Xapprox=Round(Round(X)+(X-Round(X))3);其中,Xapprox的维数为8×8,Round()表示四舍五入取整函数,X表示子块的DCT系数矩阵,X的维数为8×8;
步骤1_5:从每个原始样本中的每个32×32大小的图像块对应的形变压缩块中,提取出以该形变压缩块的中心为中心的8×8大小区域作为提取块;然后针对每个原始样本,将提取出的625个提取块按该原始样本分割成的625个32×32大小的图像块的顺序组合成新的图像,再将该原始样本的四周每侧12个像素点宽的区域作为边缘外框、将新的图像作为中心区域拼接形成224×224大小的对抗样本;再将每个对抗样本输入到图像质量评价器中,图像质量评价器输出每个对抗样本的质量得分;
步骤1_6:计算每个原始样本与对应的对抗样本之间的损失函数,将第q个原始样本与对应的对抗样本之间的损失函数记为Lossq,其中,1≤q≤Q,/>表示第q个原始样本对应的对抗样本的质量得分,s0表示设定的质量分,s0∈[1,10],xq表示第q个原始样本,/>表示第q个原始样本对应的对抗样本,α为用于控制/>与之间的重要程度的权重,0<α<1,/>表示/>与s0的均方根误差,表示xq与/>之间的差异;
步骤1_7:重复执行步骤1_3至步骤1_6更新空间形变网络中的参数,直至损失函数收敛,得到空间形变网络训练模型;
所述的测试阶段的具体过程为:
步骤2_1:对于任意一张测试RGB图像,将测试RGB图像缩放成256×256大小的图像;再对256×256大小的图像在其中心区域内进行随机裁剪,裁剪成224×224大小的图像,定义为测试裁剪图像;接着将测试裁剪图像分割成625个相互重叠的32×32大小的图像块;
步骤2_2:将测试裁剪图像中的每个32×32大小的图像块作为输入图像,输入到训练好的空间形变网络训练模型中,空间形变网络训练模型输出测试裁剪图像中的每个32×32大小的图像块对应的形变块;然后按照步骤1_4的过程,以相同的方式对测试裁剪图像中的每个32×32大小的图像块对应的形变块进行JPEG压缩,得到测试裁剪图像中的每个32×32大小的图像块对应的形变压缩块;
步骤2_3:从测试裁剪图像中的每个32×32大小的图像块对应的形变压缩块中,提取出以该形变压缩块的中心为中心的8×8大小区域作为测试提取块;然后将提取出的625个测试提取块按测试裁剪图像分割成的625个32×32大小的图像块的顺序组合成新的图像,再将测试裁剪图像的四周每侧12个像素点宽的区域作为边缘外框、将新的图像作为中心区域拼接形成224×224大小的测试对抗样本。
2.根据权利要求1所述的一种抵抗JPEG压缩的对抗样本的生成方法,其特征在于所述的步骤1_6中,的获取过程为:将xq和/>同时输入到VGG16中的第二个卷积层中,获得xq对应的一张特征图和/>对应的一张特征图;然后计算两张特征图的L2范数距离,作为
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210463842.5A CN115063492B (zh) | 2022-04-28 | 2022-04-28 | 一种抵抗jpeg压缩的对抗样本的生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210463842.5A CN115063492B (zh) | 2022-04-28 | 2022-04-28 | 一种抵抗jpeg压缩的对抗样本的生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115063492A CN115063492A (zh) | 2022-09-16 |
CN115063492B true CN115063492B (zh) | 2023-08-08 |
Family
ID=83196841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210463842.5A Active CN115063492B (zh) | 2022-04-28 | 2022-04-28 | 一种抵抗jpeg压缩的对抗样本的生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115063492B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115481719B (zh) * | 2022-09-20 | 2023-09-15 | 宁波大学 | 一种防御基于梯度的对抗攻击的方法 |
WO2024077348A1 (en) * | 2022-10-11 | 2024-04-18 | Commonwealth Scientific And Industrial Research Organisation | Saliency maps for classification of images |
CN115496973B (zh) * | 2022-11-17 | 2023-02-21 | 南京信息工程大学 | 一种基于分块域变换模拟技术的jpeg对抗样本生成方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263192A (zh) * | 2019-06-06 | 2019-09-20 | 西安交通大学 | 一种基于条件生成对抗网络的磨粒形貌数据库创建方法 |
CN110490082A (zh) * | 2019-07-23 | 2019-11-22 | 浙江科技学院 | 一种有效融合神经网络特征的道路场景语义分割方法 |
WO2020062846A1 (en) * | 2018-09-30 | 2020-04-02 | Boe Technology Group Co., Ltd. | Apparatus and method for image processing, and system for training neural network |
WO2022018427A2 (en) * | 2020-07-20 | 2022-01-27 | Deep Render Ltd | Image compression and decoding, video compression and decoding: training methods and training systems |
-
2022
- 2022-04-28 CN CN202210463842.5A patent/CN115063492B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020062846A1 (en) * | 2018-09-30 | 2020-04-02 | Boe Technology Group Co., Ltd. | Apparatus and method for image processing, and system for training neural network |
CN110263192A (zh) * | 2019-06-06 | 2019-09-20 | 西安交通大学 | 一种基于条件生成对抗网络的磨粒形貌数据库创建方法 |
CN110490082A (zh) * | 2019-07-23 | 2019-11-22 | 浙江科技学院 | 一种有效融合神经网络特征的道路场景语义分割方法 |
WO2022018427A2 (en) * | 2020-07-20 | 2022-01-27 | Deep Render Ltd | Image compression and decoding, video compression and decoding: training methods and training systems |
Non-Patent Citations (1)
Title |
---|
Targeted Speech Adversarial Example Generation With Generative Adversarial Network;DONGHUA WANG;《IEEE Access》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN115063492A (zh) | 2022-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115063492B (zh) | 一种抵抗jpeg压缩的对抗样本的生成方法 | |
CN111798400B (zh) | 基于生成对抗网络的无参考低光照图像增强方法及系统 | |
KR101664913B1 (ko) | 영상의 멀티레벨 분해를 이용하여 영상에 대한 품질 측정을 결정하는 방법 및 시스템 | |
KR101929221B1 (ko) | 왜곡 영상 품질 계산 방법 및 시스템 | |
Zhang et al. | Fine-grained quality assessment for compressed images | |
CN104036502B (zh) | 一种无参考模糊失真立体图像质量评价方法 | |
CN110136057B (zh) | 一种图像超分辨率重建方法、装置及电子设备 | |
CN1842822A (zh) | 在频域对胶片颗粒图案进行建模的方法和设备 | |
CN104376565A (zh) | 基于离散余弦变换和稀疏表示的无参考图像质量评价方法 | |
CN111127298B (zh) | 一种全景图像盲质量评估方法 | |
Ma et al. | Entropy of primitive: From sparse representation to visual information evaluation | |
US20240054605A1 (en) | Methods and systems for wavelet domain-based normalizing flow super-resolution image reconstruction | |
Löhdefink et al. | On low-bitrate image compression for distributed automotive perception: Higher peak snr does not mean better semantic segmentation | |
Tang et al. | Training-free referenceless camera image blur assessment via hypercomplex singular value decomposition | |
Gao et al. | Point cloud compression based on joint optimization of graph transform and entropy coding for efficient data broadcasting | |
CN106960432B (zh) | 一种无参考立体图像质量评价方法 | |
CN103578104B (zh) | 一种针对高斯模糊图像的部分参考图像客观质量评价方法 | |
Kekre et al. | Image Reconstruction using Fast Inverse Half tone and Huffman Coding Technique | |
CN114549302A (zh) | 一种图像超分辨率重建方法及系统 | |
CN115205658A (zh) | 一种无参考全面感知全景图像质量的评价方法 | |
CN115361555A (zh) | 图像编码方法、图像编码方法、装置以及计算机存储介质 | |
CN111652311B (zh) | 基于稀疏椭圆rbf神经网络的图像稀疏表示方法 | |
Xiao et al. | No-reference quality assessment of stereoscopic video based on deep frequency perception | |
Avadhanam et al. | Evaluation of a human-vision-system-based image fidelity metric for image compression | |
CN118200573B (zh) | 图像压缩方法、图像压缩模型的训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |