CN113139618B - 一种基于集成防御的鲁棒性增强的分类方法及装置 - Google Patents

一种基于集成防御的鲁棒性增强的分类方法及装置 Download PDF

Info

Publication number
CN113139618B
CN113139618B CN202110520353.4A CN202110520353A CN113139618B CN 113139618 B CN113139618 B CN 113139618B CN 202110520353 A CN202110520353 A CN 202110520353A CN 113139618 B CN113139618 B CN 113139618B
Authority
CN
China
Prior art keywords
image
original
model
denoising
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110520353.4A
Other languages
English (en)
Other versions
CN113139618A (zh
Inventor
张小松
牛伟纳
丁康一
周杰
李信强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110520353.4A priority Critical patent/CN113139618B/zh
Publication of CN113139618A publication Critical patent/CN113139618A/zh
Application granted granted Critical
Publication of CN113139618B publication Critical patent/CN113139618B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明属于人工智能科学领域,提供了一种基于集成防御的鲁棒性增强的分类方法及装置,主旨在于解决传统图像去噪、自编码网络去噪和原有蒸馏防御的问题。主要方案包括首先将取自图像的原始数据集经过数据预处理后进行特征提取;然后对图像进行是否是对抗样本的分类检测,主要步骤为将图像分别进行传统图像去噪、深度学习去噪,将原对抗样本和两种去噪图像分三次输入到原始分类模型中进行预测,分别计算两次去噪图像预测的标签概率与原图像预测概率之差,并取差值的最大值,若差值大于某阈值则判别输出为对抗样本,反之则不是;最后对模型进行梯度平滑的鲁棒性增强,鲁棒性增强模型。

Description

一种基于集成防御的鲁棒性增强的分类方法及装置
技术领域
本发明属于人工智能科学领域,其用途是利用对抗样本检测和模型平滑的集成防御方式对原始网络进行鲁棒性增强,首先用对抗样本检测检测出部分对抗样本,无法正确分类的对抗样本进一步使用梯度平滑后的模型进行正确分类,梯度平滑主要利用了软标签来替代硬标签,最后达到对原始神经网络模型进行鲁棒性增强和区分出对抗样本的效果,同时涉及了一种提升深度神经网络模型鲁棒性的装置。
背景技术
深度学习是目前研究最活跃的计算机领域之一,其已被证明在很多机器学习的问题上处理表现优异,如人脸识别、图片分类和物品跟踪等。这些深度神经网络(DNN)能够有效地从大量训练样本中学习高度精确的模型,然后以非常高的准确度对看不见的样本进行分类。然而,这种用于分类的模型却极易遭受由攻击者精心设计的对抗样本的攻击,这种攻击能使原始的分类模型的准确率大大下降,甚至能使模型将数据分类为攻击者想要的类别。这种对抗样本对于深度学习的应用产生极大的威胁,引发了相关安全问题的广泛讨论。
在此之前有人提出了知识蒸馏的方法,其最初设计是用于使用从不同DNN传输的知识来训练DNN。有研究者基于此制定了一种新的蒸馏变体来提供防御训练:使用从原始DNN中提取的知识来提高其对抗样本的适应能力,而不是在不同的体系结构之间传递知识。
但是传统的蒸馏防御技术限制了用于蒸馏的小规模的学生模型的结构,一些扰动较大的对抗样本本身非常难以分类准确,单纯使用学生模型难以提升包含对抗样本的大规模数据集的分类准确率,同时会进一步降低原始干净图像的分类准确率;此外,传统的对抗样本防御方法成本更高,对于模型的改动更大,难以部署到真实场景中。使用对抗样本检测的方法能够将扰动特性难以确定、扰动大的图像进行检测性二分类,再结合提升模型鲁棒性的方法能够对剩余分类后的样本进行更准确的分类,综合来看成本更低,防御效果更好。
发明内容
针对上述研究的问题,本发明的目的在于提供一种基于集成防御的鲁棒性增强的分类方法及装置,解决传统图像去噪、自编码网络去噪和原有蒸馏防御方法。
为了达到上述目的,本发明采用如下技术方案:
一种基于集成防御的鲁棒性增强的分类方法,
数据预处理:计算机获取训练集中的原始训练数据和原始训练数据的真实标签进行预处理,原始训练数据包括多张图像,图像为基本的图像数据集mnist或cifar10数据集,并将原始训练数据集通过对抗样本生成算法fgsm、BIM、CW生成原始对抗样本,最后输入进行分类检测的原始图像数据集包括原始训练数据和原始对抗样本数据;
对抗样本去噪:将预处理后的各图像分别进行图像位数压缩去噪和深度学习自编码网络去噪;
对抗样本分类预测:将原始图像数据和两种去噪图像分三次输入到原始分类模型中进行预测,得到原始干净图像的预测值p1,压缩去噪图像预测值p2和自编码网络去噪预测值p3
对抗样本分类检测:分别计算压缩去噪图像预测值p2和自编码网络去噪预测值p3与原始干净图像的预测值p1之差,即p3和p1的差值d2,p2和p1的差值d1,取差值d2和d1中的最大值,若差值大于给定阈值则判别输入为对抗样本,反之则不是;
模型增强:经检测后的图像数据无法保证将对抗样本进行完全的分类,被分类为非对抗样本的图像数据中仍然可能包含一定数量的对抗样本,这些样本需要依靠模型进行自动正确分类,对模型进行进一步的鲁棒性增强从而增加正确分类对抗样本的概率,对教师神经网络进行知识蒸馏,将教师神经网络的知识迁移到小规模低复杂度的学生模型,利用得到的第二次概率分布向量对学生模型进行训练得到最终的鲁棒性增强模型;
鲁棒性增强模型分类:将分类检测中分类为非对抗样本的图像输入鲁棒性增强模型进行分类,提高模型对于对抗样本的防御能力;
进一步,图像进行图像位数压缩去噪的具体步骤如下:
首先将图像的输入像素值乘以2i-1,并取整,i指i位图像;
将该整数归一化至[0,1],并除以2i-1;
通过整数舍入运算,将i位图像压缩至低于i位图像。
进一步,深度学习自编码网络去噪采用编码器与解码器结构,两种结构均为卷积神经网络结构;
编码器采用卷积层Conv2d-池化层MaxPooling2D-卷积层Conv2d-池化层的双层结构;
解码器采用卷积层Conv2d-上采样层UpSampling2D-卷积层Conv2d-上采样层UpSampling2D的双层结构;
其中,池化层使得数据降维,上采样层UpSampling2D进行图像上采样将特征图进行放大,图像输入深度学习自编码网络进行降维并重新重构将图像进行去噪。
进一步,采用卷积深度学习网络结构Mobile Net作为原始分类模型。
进一步,得到第二次概率分布向量的具体步骤为:
将原始训练数据和原始训练数据的真实标签在蒸馏温度T下用于待增强的教师训练模型进行训练,得到第一次概率分布向量;
将原始训练数据与第一次概率分布向量作为新的数据集,在蒸馏温度T下训练规模和复杂度较小的学生模型,但其结构与原始教师模型类似,从而得到第二次概率分布向量。
一种基于集成防御的鲁棒性增强的分类装置,该装置主要包括处理器、存储器、通信组件、电源组件、多媒体组件及输入/输出接口。其中,存储器、通信组件、传感器组件、电源组件、多媒体组件及输入/输出接口均与该处理器连接,处理器主要用于对输入的图像数据进行对抗样本的检测分类处理以及模型的鲁棒性增强再训练处理。设备中的存储器主要用于存储原始图像数据及分类为对抗样本和非对抗本的数据,可以选择静态随机存取存储器(SRAM)、电可擦除可编程只读存储器(EEPROM)、可擦除可编程只读存储器(EPROM)、可编程只读存储器(PROM)、只读存储器(ROM)、磁存储器、快闪存储器等;处理器可以选择中央处理器(CPU)、图形处理器(GPU)、现场可编程逻辑门阵列(FPGA)、专用集成电路(ASIC)、数字信号处理(DSP)芯片等。其他通信组件、电源组件、多媒体组件等均可以采用现有智能手机通用部件实现。
本发明同现有技术相比,其有益效果表现在:
本发明在经典CNN神经网络模型外部加上了图像去噪的对抗样本分类检测,有效去除大量对抗样本。剩余少部分未去除的对抗样本依靠增强模型再分类准确,对经典CNN模型进行梯度平滑操作得到鲁棒性增强CNN模型,这种方法能够大大提高模型的泛化能力和对于对抗样本的抵抗能力,并且保持不降低原有模型的分类准确率,该方法在分析对抗样本生成原理的基础上进行针对性的防御,为深度神经网络模型针对对抗样本攻击方面的安全性验证和测试,为防御性的对抗训练方法提供数据来源,综上所述,本发明能有效针对图像进行分类,对输入中包含的恶意对抗样本有明显的分类效果,在保证干净图像的分类效果不大幅下降的情况下提高了CNN模型的鲁棒性。此外,本集成防御的鲁棒性增强方法也能够推广到除了图像数据集的场景中,如文字、语音和流量监测等需要数据安全性的场景当中。
附图说明
图1是本发明的总体架构图;
图2是本发明中总体流程图;
图3为本发明对抗样本检测图;
图4为本发明中模型平滑图;
图5为本发明提供的装置结构图。
具体实施方式
下面将结合附图及具体实施方式对本发明作进一步的描述。
实施例
本实验步骤基于x86/Windows10平台,所用语言为python3.6,依赖关系tensorflow、theano、keras等,编译软件为pycharm,代码量在2000行python源码左右。
具体实施步骤按照上述模块执行:
为了达到上述目的,本发明采用如下技术方案,包括
(1)数据预处理,过程如下:
步骤(1)中,所述的待测样本限于图像数据集,图像数据预处理的办法包括:直方图均衡化;图像的几何变换;图像预处理;图像数字化等。对于统一使用的图像数据集需要使其图像格式、大小和清晰度保持一致,同时保证数据集限制于对应标签类别中。
(2)将处理的图像进行传统的图像位数压缩去噪和深度学习自编码网络去噪,过程如下:
针对三通道图像数据集cifar10、ImageNet分别进行图像位数压缩。cifar10数据集包含60000张图像,每张图像像素值32*32,以24位编码并分成10类。ImageNet包含1200000张图像,验证数据集50000张,每张图像像素值224*224,以24位编码并分成1000类。
将i位图像压缩至小于i位图像(1<i<24),首先将输入像素值乘以2i-1(考虑0值,需要减1),并取整;将该整数归一化至[0,1],并除以2i-1。通过整数舍入运算,将24位图像压缩至低于24位图像。
自编码网络去噪采用编码器与解码器结构,两种结构均为卷积神经网络结构,编码器采用卷积层Conv2d-池化层MaxPooling2D-卷积层Conv2d-池化层的双层结构,解码器采用卷积层Conv2d-上采样层UpSampling2D-卷积层Conv2d-上采样层UpSampling2D的双层结构。其中池化层使得数据降维,而上采样层进行图像上采样从而将特征图进行放大。图像输入自编码网络进行降维并重新重构将图像进行一定程度去噪。
(3)进行对抗样本分类预测,过程如下:采用卷积深度学习网络结构Mobile Net作为原始模型,将原对抗样本和两种去噪图像分三次输入到原始分类模型中进行预测,分别得到原始干净图像的预测值p1,压缩去噪图像预测值p2和自编码网络去噪预测值p3。这些值均作为概率分布向量值。
(4)进行对抗样本分类检测,过程如下:
分别计算两次去噪图像预测的标签概率与原图像预测概率之差,即p3和p1的差值d2,p2和p1的差值d1。取差值d2和d1的最大值,若差值大于某阈值T(T经实验人为设定)则判别输入为对抗样本,反之则不是。实验设定阈值T为0.15,如果输入样本为干净样本,经过传统图像去噪和自编码网络去噪方式后图像像素值差值丢失数量较少,经原始模型训练后,预测值差值不会发生较大变化;如果输入样本为对抗样本,经过传统图像去噪和自编码网络去噪方式后图像像素值丢失数量较大,经原始模型训练后,预测值差值会发生较大变化,当大于0.15,判别为对抗样本,反之则不是。
(5)教师网络训练,过程如下:
步骤(2)中,采取较大规模、高复杂度的卷积深度学习网络结构Google InceptionNet为教师训练模型M1,同时采用大规模数据集ImageNet,将数据集中的80%分作为训练集,20%作为测试集,使用格式转换的脚本将已有图片转换为tfecord格式,从而达到初步提取图像信息的效果。保持模型未训练,权重值为初始状态。调用Tensorflow Slim微调模型中训练好的卷积网络模型Google Inception Net,提取数据集中的训练数据及其对应标签,输入深度学习模型,此时对应的标签作为hard target,即硬标签。
训练过程前,改动原有模型结构最后一层softmax层,添加蒸馏温度T,
该超参数人为设定,值1-100不等。具体公式为:
Figure BDA0003062853250000051
该训练结果F1(X)优选采用概率分布向量表示F1(X)=[p1,p2,p3,...],其中每一个分量代表输入原样本在每一个类别的预测概率。取该向量中最大概率p所对应的标签y,作为原样本x的预测结果,该标签F1(X)作为soft target,即软标签。
(6)学生网络训练,过程如下:
所述的学生网络训练取较小规模、低复杂度、结构与原始教师模型相近的学生模型M2,通常为去除M1中重复训练模块后的模型作为参数和结构简化后的模型作为M2,取原数据集中训练数据X和第一次训练过程后生成的概率分布F1(X)作为输入,此时F1(X)作为对应于X的软标签,重复训练学生模型M2两次。第一次与步骤(2)相近,改动学生模型的softmax层,添加与教师模型中数值相同的蒸馏温度T,以交叉熵categorical_crossentropy作为损失函数,得到第一次训练的损失函数L(soft);第二次训练不改动原有学生模型,得到第二次训练的损失函数L(hard),学生模型需要优化的损失函数为两次损失函数的权重和,并保持软标签损失函数L(soft)的权重高于硬目标L(hard),计算公式为:
L=αL(soft)+(1-α)L(hard)
对损失函数用优化器进行求导优化,得到第二次概率分布向量F2(X)。
本发明还提供了一种用以提高神经网络模型鲁棒性的装置。如图5所示,该装置主要包括处理器、存储器、通信组件、电源组件、多媒体组件及输入/输出接口。其中,存储器、通信组件、传感器组件、电源组件、多媒体组件及输入/输出接口均与该处理器连接,处理器主要用于对输入的图像数据进行对抗样本的检测分类处理以及模型的鲁棒性增强再训练处理。设备中的存储器主要用于存储原始图像数据及分类为对抗样本和非对抗本的数据,可以选择静态随机存取存储器(SRAM)、电可擦除可编程只读存储器(EEPROM)、可擦除可编程只读存储器(EPROM)、可编程只读存储器(PROM)、只读存储器(ROM)、磁存储器、快闪存储器等;处理器可以选择中央处理器(CPU)、图形处理器(GPU)、现场可编程逻辑门阵列(FPGA)、专用集成电路(ASIC)、数字信号处理(DSP)芯片等。其他通信组件、电源组件、多媒体组件等均可以采用现有智能手机通用部件实现。
另一方面,在提升神经网络模型鲁棒性的装置中,所述处理器读取所述存储器中的计算机程序,用以执行以下操作:原始图像数据的去噪与检测;教师网络训练;缩小教师模型训练规模和复杂度作为学生网络,重新进行学生网络训练,得到第二次概率向量分布F2(X)。
本实施方式提出的对神经模型的鲁棒性增强方式有效且简单,针对主流分类模型有着较好地对抗样本去除和抵御效果,同时也保证不降低原模型的正确率。
以上仅是本发明众多具体应用范围中的代表性实施例,对本发明的保护范围不构成任何限制。凡采用变换或是等效替换而形成的技术方案,均落在本发明权利保护范围之内。

Claims (6)

1.一种基于集成防御的鲁棒性增强的分类方法,其特征在于:
数据预处理:计算机获取训练集中的原始训练数据和原始训练数据的真实标签进行预处理,原始训练数据包括多张图像,图像为基本的图像数据集mnist或cifar10数据集,并将原始训练数据通过对抗样本生成算法fgsm、BIM、CW生成原始对抗样本,最后输入到分类检测的原始图像数据包括原始训练数据和原始对抗样本数据;
对抗样本去噪:将预处理后的原始图像数据分别进行图像位数压缩去噪和深度学习自编码网络去噪,得到去噪后的原始训练数据和原始对抗样本数据;
对抗样本分类预测:将原始图像数据和去噪后的原始训练数据和原始对抗样本数据分三次输入到原始分类模型中进行预测,得到原始干净图像的预测值p1,压缩去噪图像预测值p2和自编码网络去噪预测值p3
对抗样本分类检测:分别计算压缩去噪图像预测值p2和自编码网络去噪预测值p3与原始干净图像的预测值p1之差,即p3和p1的差值d2,p2和p1的差值d1,取差值d2和d1中的最大值,若差值大于给定阈值则判别输入为对抗样本,反之则不是;
模型增强:对教师神经网络进行知识蒸馏,将教师神经网络的知识迁移到小规模低复杂度的学生模型,利用得到的第二次概率分布向量对学生模型进行训练得到最终的鲁棒性增强模型;
鲁棒性增强模型分类:将分类检测中分类为非对抗样本的图像输入鲁棒性增强模型进行分类。
2.根据权利要求1所述的一种基于集成防御的鲁棒性增强的分类方法,其特征在于:图像进行图像位数压缩去噪的具体步骤如下:
首先将图像的输入像素值乘以2i-1,并取整,i指i位图像;
将得到的整数归一化至[0,1],并除以2i-1;
通过整数舍入运算,将i位图像压缩至低于i位图像。
3.根据权利要求1所述的一种基于集成防御的鲁棒性增强的分类方法,其特征在于:深度学习自编码网络去噪采用编码器与解码器结构,两种结构均为卷积神经网络结构;
编码器采用卷积层Conv2d-池化层MaxPooling2D-卷积层Conv2d-池化层的双层结构;
解码器采用卷积层Conv2d-上采样层UpSampling2D-卷积层Conv2d-上采样层UpSampling2D的双层结构;
其中,池化层使得数据降维,上采样层UpSampling2D进行图像上采样将特征图进行放大,图像输入深度学习自编码网络进行降维并重新重构将图像进行去噪。
4.根据权利要求1所述的一种基于集成防御的鲁棒性增强的分类方法,其特征在于:采用卷积深度学习网络结构Mobile Net作为原始分类模型。
5.根据权利要求1所述的一种基于集成防御的鲁棒性增强的分类方法,其特征在于:得到第二次概率分布向量的具体步骤为:
将原始训练数据和原始训练数据的真实标签在蒸馏温度T下用于待增强的教师训练模型进行训练,得到第一次概率分布向量;
将原始训练数据与第一次概率分布向量作为新的数据集,在蒸馏温度T下训练规模和复杂度较小的学生模型,但其结构与原始教师模型类似,从而得到第二次概率分布向量。
6.一种基于集成防御的鲁棒性增强的分类装置,该装置主要包括处理器、存储器、通信组件、电源组件、多媒体组件及输入/输出接口,其中,存储器、通信组件、传感器组件、电源组件、多媒体组件及输入/输出接口均与该处理器连接,其特征在于,所述处理器读取所述存储器中的计算机程序,用以执行如权利要求1-5任一项所述的一种基于集成防御的鲁棒性增强的分类方法。
CN202110520353.4A 2021-05-12 2021-05-12 一种基于集成防御的鲁棒性增强的分类方法及装置 Active CN113139618B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110520353.4A CN113139618B (zh) 2021-05-12 2021-05-12 一种基于集成防御的鲁棒性增强的分类方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110520353.4A CN113139618B (zh) 2021-05-12 2021-05-12 一种基于集成防御的鲁棒性增强的分类方法及装置

Publications (2)

Publication Number Publication Date
CN113139618A CN113139618A (zh) 2021-07-20
CN113139618B true CN113139618B (zh) 2022-10-14

Family

ID=76817867

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110520353.4A Active CN113139618B (zh) 2021-05-12 2021-05-12 一种基于集成防御的鲁棒性增强的分类方法及装置

Country Status (1)

Country Link
CN (1) CN113139618B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113554089B (zh) * 2021-07-22 2023-04-18 西安电子科技大学 一种图像分类对抗样本防御方法、系统及数据处理终端
CN114723960B (zh) * 2022-04-02 2023-04-28 湖南三湘银行股份有限公司 一种增强银行账号安全的附加验证方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537271A (zh) * 2018-04-04 2018-09-14 重庆大学 一种基于卷积去噪自编码机防御对抗样本攻击的方法
CN110443367A (zh) * 2019-07-30 2019-11-12 电子科技大学 一种增强神经网络模型鲁棒性能的方法
CN111027060A (zh) * 2019-12-17 2020-04-17 电子科技大学 基于知识蒸馏的神经网络黑盒攻击型防御方法
CN111598805A (zh) * 2020-05-13 2020-08-28 华中科技大学 一种基于vae-gan的对抗样本防御方法及系统
WO2020192471A1 (zh) * 2019-03-26 2020-10-01 腾讯科技(深圳)有限公司 一种图像分类模型训练的方法、图像处理的方法及装置
CN111950628A (zh) * 2020-08-11 2020-11-17 上海交通大学 人工智能图像分类模型的鲁棒性评估与增强系统
CN112396129A (zh) * 2020-12-08 2021-02-23 中山大学 一种对抗样本检测方法及通用对抗攻击防御系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537271A (zh) * 2018-04-04 2018-09-14 重庆大学 一种基于卷积去噪自编码机防御对抗样本攻击的方法
WO2020192471A1 (zh) * 2019-03-26 2020-10-01 腾讯科技(深圳)有限公司 一种图像分类模型训练的方法、图像处理的方法及装置
CN110443367A (zh) * 2019-07-30 2019-11-12 电子科技大学 一种增强神经网络模型鲁棒性能的方法
CN111027060A (zh) * 2019-12-17 2020-04-17 电子科技大学 基于知识蒸馏的神经网络黑盒攻击型防御方法
CN111598805A (zh) * 2020-05-13 2020-08-28 华中科技大学 一种基于vae-gan的对抗样本防御方法及系统
CN111950628A (zh) * 2020-08-11 2020-11-17 上海交通大学 人工智能图像分类模型的鲁棒性评估与增强系统
CN112396129A (zh) * 2020-12-08 2021-02-23 中山大学 一种对抗样本检测方法及通用对抗攻击防御系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Defense against adversarial attacks using DRAGAN;A. ArjomandBigdeli et al.;《2020 6th Iranian Conference on Signal Processing and Intelligent Systems (ICSPIS)》;20210215;第1-5页 *
机器学习的安全问题及隐私保护;魏立斐;《计算机研究与发展》;20201031;第57卷(第10期);第2066-2085页 *

Also Published As

Publication number Publication date
CN113139618A (zh) 2021-07-20

Similar Documents

Publication Publication Date Title
CN111079683B (zh) 基于卷积神经网络的遥感图像云雪检测方法
CN113780149B (zh) 一种基于注意力机制的遥感图像建筑物目标高效提取方法
CN113139618B (zh) 一种基于集成防御的鲁棒性增强的分类方法及装置
CN111612017A (zh) 一种基于信息增强的目标检测方法
Alqahtani et al. Pruning CNN filters via quantifying the importance of deep visual representations
CN110569738A (zh) 基于密集连接网络的自然场景文本检测方法、设备和介质
CN113191489B (zh) 二值神经网络模型的训练方法、图像处理方法和装置
Alhichri et al. Multi-scale convolutional neural network for remote sensing scene classification
CN109741340B (zh) 基于fcn-aspp网络的冰盖雷达图像冰层精细化分割方法
CN113379618B (zh) 基于残差密集连接和特征融合的光学遥感图像去云方法
CN115619743A (zh) Oled新型显示器件表面缺陷检测模型的构建方法及其应用
Jia et al. Tiny-BDN: An efficient and compact barcode detection network
CN112288026A (zh) 一种基于类激活图的红外弱小目标检测方法
CN116524189A (zh) 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法
CN115410081A (zh) 一种多尺度聚合的云和云阴影辨识方法、系统、设备及存储介质
Bacea et al. Single stage architecture for improved accuracy real-time object detection on mobile devices
CN114882278A (zh) 一种基于注意力机制和迁移学习的轮胎花纹分类方法和装置
Chen et al. HRCP: High-ratio channel pruning for real-time object detection on resource-limited platform
CN116977694A (zh) 一种基于不变特征提取的高光谱对抗样本防御方法
CN110969128A (zh) 一种基于多特征融合的海面背景下红外船舰的检测方法
CN111461259B (zh) 基于红黑形态小波池化网络的图像分类方法及系统
CN115272865A (zh) 一种基于自适应激活函数和注意力机制的目标检测方法
CN114359786A (zh) 一种基于改进时空卷积网络的唇语识别方法
Li et al. Distribution-transformed network for impulse noise removal
Pang et al. PTRSegNet: A Patch-to-Region Bottom-Up Pyramid Framework for the Semantic Segmentation of Large-Format Remote Sensing Images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant