CN113378988A - 基于粒子群算法的深度学习系统鲁棒性增强方法及装置 - Google Patents

基于粒子群算法的深度学习系统鲁棒性增强方法及装置 Download PDF

Info

Publication number
CN113378988A
CN113378988A CN202110762593.5A CN202110762593A CN113378988A CN 113378988 A CN113378988 A CN 113378988A CN 202110762593 A CN202110762593 A CN 202110762593A CN 113378988 A CN113378988 A CN 113378988A
Authority
CN
China
Prior art keywords
deep learning
model
robustness
learning model
test
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110762593.5A
Other languages
English (en)
Other versions
CN113378988B (zh
Inventor
陈晋音
金海波
陈若曦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202110762593.5A priority Critical patent/CN113378988B/zh
Publication of CN113378988A publication Critical patent/CN113378988A/zh
Application granted granted Critical
Publication of CN113378988B publication Critical patent/CN113378988B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于粒子群算法的深度学习系统鲁棒性增强方法及装置,其中公开的方法的步骤为:获取图像数据集并整理分类为训练集和测试集;利用训练集进行对抗攻击预训练干净深度学习模型;构建鲁棒评估指标评估训练好的深度学习模型;构建零阶和一阶损失函数度量用于评估测试集与训练好的深度学习模型之间的关系;将一阶鲁棒性度量指标作为优化目标函数,从测试集中采集部分良性图像作为初始粒子并初始化粒子的位置和速度,以优化目标函数为最大目标采用粒子群优化算法对初始粒子的位置和速度进行迭代更新以生成测试样本;利用生成的测试样本与测试数据集重新训练深度学习模型获得鲁棒防御模型;对防御后模型受攻击的敏感性进行评估。

Description

基于粒子群算法的深度学习系统鲁棒性增强方法及装置
技术领域
本发明涉及深度学习安全领域,特别涉及一种基于粒子群算法的深度学习系统鲁棒性增强方法及装置。
背景技术
随着深度学习的快速发展,许多现实世界问题达到前所未有的突破的背后都是深度学习作为核心驱动力。
深度学习尽管已经取得了巨大的发展,但是深度学习系统易受到对抗性攻击的影响,对抗性攻击的对抗样本是在原始样本的基础上增加轻微扰动,与人类观察者的正常输入有着轻微的不同,但很容易欺骗深度学习系统做出错误的决策。对抗性攻击的存在不仅损害了深度学习系统的可靠性和鲁棒性,还导致了在人脸识别、恶意软件检测、医疗诊断、自动驾驶等安全等应用中不数深度学习系统的安全性问题。
在软件工程社区中已经做出了显著的努力来减轻对抗攻击的威胁,并在对抗样本存在的情况下提高深度学习系统的鲁棒性。现有的测试方法分为形式化的鲁棒性验证和系统测试两个方向,旨在及时发现深度学习模型的潜在缺陷以便进行理想的缺陷修复。
形式验证旨在证明在给定输入的邻域内不存在敌对的攻击样本,使用抽象解释、决策边界鲁棒性分析和可达性分析等方法已经取得了实质性进展。然而,形式验证技术通常是昂贵的,并且仅适用于有限的模型结构和属性。
系统测试旨在生成可以暴露深度学习模型漏洞的测试样本,然后,测试样本可以通过重新训练模型来提高模型的鲁棒性;但是,最近的研究结果表明,即使是基于现有的测试度量生成的测试样本与模型的鲁棒性并无直接的关系,这将导致重训练后的深度学习模型的鲁棒性提升度将受限。
对于以上问题,一方面,需要构建具有代表性的测试指标与模型的鲁棒性直接相关联,实现细粒度的深度学习模型详尽测试;另一方面,对于重训练来说,需要生成与鲁棒性提升直接相关的具有代表性的测试样本。
发明内容
为解决现有技术中存在的问题,本发明提供一种基于粒子群算法的深度学习系统鲁棒性增强方法及装置,该方法具有良好的适用性,能够有效的评估模型的安全性,获得的样本能够良好的修复模型潜在缺陷,并且不影响正常样本的正确率。
一种基于粒子群算法的深度学习系统鲁棒性增强方法,所述方法包括如下步骤:
获取图像数据集,并将图像数据集进行整理分类为训练集和测试集;并利用训练集进行对抗攻击,预训练干净深度学习模型;
构建鲁棒评估指标对训练好的深度学习模型的鲁棒性进行评估;
构建零阶和一阶损失函数度量用于评估图像测试集与训练好的深度学习模型之间的关系;
将一阶鲁棒性度量指标作为优化目标函数,
从图像测试集中采集部分良性图像作为初始粒子,并初始化粒子的位置和速度,以优化目标函数为最大目标,采用粒子群优化算法对初始粒子的位置和速度进行迭代更新以生成测试样本;
利用生成的测试样本与测试数据集一起重新训练深度学习模型,获得鲁棒防御模型;
对防御后模型受攻击的敏感性进行评估。
所述获取的图像数据集包括MNIST数据集、CIFAR-10数据集和ImageNet数据集,将获取的图像数据集保存为X以及每张图像相应的类标Y。
预训练干净深度模型包括如下步骤:
将划分好的训练集和测试集通过one-hot编码将图片数据集中每个样本的标签转化为一维向量;
收集模型对抗攻击方法FGSM和PGD,将获得的图像数据集进行两种攻击后获取对抗样本X’并保存;
将干净的图像数据输入到深度学习中进行训练,获得高分类置信度的深度学习模型。
所述鲁棒性评估指标包括全局鲁棒性评估指标和经验鲁棒性评估指标;
构建全局鲁棒性指标步骤如下:
设给定一个输入区域,若一个深度学习模型f:R→Y是全局鲁棒的,那么存在一个(σ,ε)领域,使得
Figure BDA0003150516060000031
并且深度学习模型输出||f(x1)-f(x2)||p≤ε,其中||·||p表示p范数约束;
构建经验鲁棒性指标步骤如下:
设给定一个深度学习模型f:X→Y,从获得的攻击数据集ATT,定义经验鲁棒性评估指标u:(f,ATT)→[0,1]为γ,其中γ表示为对抗攻击数据集对于深度学习模型的攻击准确率。
给定一组测试数据集xi∈X,i=1,2,...,一个深度学习模型f:X→Y,则零阶损失函数度量构建为:
ZOL(xi,f)=ξ(f(θ,xi),yi)
其中,ξ(·)表示深度学习模型的损失损失函数,θ表示为当前模型训练完成后的参数,yi∈Y,i=1,2,...表示测试输入的真实类标;
零阶损失函数直接计算与深度学习模型相关的测试样本的当前损失值。
给定一个输入xi∈X,i=1,2,...和它的ε邻域内的样本{x|||x-xi||p≤ε}和一组测试样本xt,则一阶损失函数度量表示为:
Figure BDA0003150516060000032
对于不同的种子,生成的测试样本的损失可能有很大的不同,一般来说,更容易生成种子丢失率高的测试样本,因此采用一阶损失函数度量来进行优化。
所述优化目标函数表示为:
fit[i]=P(Ci)-P(Cj,j≠i)+λ·FOL(x,xt,f)
其中,P(·)表示为概率密度函数,Ci,Cj表示第i类和第j类(i≠j),f为深度学习模型。
所述初始粒子的位置和速度的标准更新方式表示为:
vi(t+1)=vi(t)+c1r1(t)[pbest(t)-xi(t)]+c2r2(t)[gbest(t)-xi(t)]
xi(t+1)=xi(t)+vi(t+1)
其中,其中t代表的是迭代的轮数,c1和c2为学习因子,r1和r2为0~1内的随机数,增加了粒子飞行的随机性,vi为速度,xi为位置,pbest为个体极值,gbest为全局极值。
具体过程为,从样本集中采集部分良性图像作为初始粒子,并初始化粒子的位置vi和速度xi,其中,位置vi和速度xi均为样本空间的维度,i为粒子的索引;
将每个粒子作为输入图像,根据目标函数计算每个粒子的适应度值fit[i];比较每个粒子的适应度值fit[i]和个体极值pbest,如果fit[i]<pbest[i],则fit[i]用替代pbest,以更新个体极值pbest
比较每个粒子的适应度值fit[i]和全局极值gbest,如果fit[i]<gbest,则tif[i]用替代gbest,以更新全局极值gbest
所述鲁棒性防御模型表示如下:
Figure BDA0003150516060000041
其中,yi∈Y,i=1,2,...表示测试输入的真实类标,ξ(·)表示深度学习模型的损失损失函数,f为深度学习模型,xti表示测试一组样本集合xt中的第i个。。
对防御后模型的敏感性进行评估利用如下模型:
Figure BDA0003150516060000042
值越小表示模型防御效果越好;
其中,ASR(·)衡量测试模型对于对抗攻击的敏感性,f’为增加防御机制后的深度学习模型。
一种基于粒子群算法的深度学习系统鲁棒性增强装置,包括:
收集模块,收集图像并对图像进行整理分类;
预训练模块,根据获得的图像进行对抗攻击,预训练干净深度学习模型;
评估指标模块,构建全局鲁棒评估指标和经验鲁棒评估指标,对模型的鲁棒性提供评估,并且构建零阶和一阶鲁棒性度量用于评估样本与模型鲁棒性之间的关系;
测试样本生成模块,通过一阶鲁棒性度量指标作为优化目标函数,粒子群优化算法以优化目标函数作为最大目标,采用粒子群优化算法对初始粒子的位置和速度进行迭代更新以生成测试样本;
防御机制模块,通过生成的测试样本测试数据集一起对深度学习模型参数进行更新,获得鲁棒防御模型;
评估模块,通过评估防御后模型受攻击的敏感性,来判断模型是否理想地修复潜在的缺陷,并获得一定的防御能力。
与现有技术相比,本发明的有益之处在于:
(1)本方法通过一阶损失函数与模型鲁棒性之间建立关系,通过粒子群优化算法寻找适应度函数最大的粒子生成测试样本,并将样本与真实类标一起重新更新模型参数对于中毒模型,通过衡量鲁棒增强后的防御模型对于对抗样本的敏感度,来判断模型是否理想地修复潜在的缺陷,实现自我防御机制,具有良好的适用性,能够有效的评估模型的安全性,获得的样本能够良好的修复模型潜在缺陷,并且不影响正常样本的正确率。
附图说明
图1是本发明提供的基于粒子群算法的深度学习系统鲁棒性增强方法框图;
图2是本发明提供的基于粒子群算法的深度学习系统鲁棒性增强装置的结构示意图。
具体实施方式
下面结合附图和具体实施方式对本发明做进一步说明。
基于粒子群算法的深度学习系统鲁棒性增强方法,通过一阶损失函数与模型鲁棒性之间建立关系,通过粒子群优化算法寻找适应度函数最大的粒子生成测试样本,并将样本与真实类标一起重新更新模型参数对于中毒模型。通过衡量鲁棒增强后的防御模型对于对抗样本的敏感度,来判断模型是否理想地修复潜在的缺陷,实现自我防御机制。
图1为本实施例提供的基于粒子群算法的深度学习系统鲁棒性增强方法框图,实施例提供的基于粒子群算法的深度学习系统鲁棒性增强方法可以用于自动驾驶领域,深度学习模型依据采集的图像数据构建神经通路,用于建立防御机制,以保证自动驾驶的安全性。如图1所示,基于粒子群算法的深度学习系统的鲁棒性增强方法包括如下步骤:
一种基于粒子群算法的深度学习系统鲁棒性增强方法,所述方法包括如下步骤:
(1)获取图像数据集,并将图像数据集进行整理分类为训练集和测试集;所述获取的图像数据集包括MNIST数据集、CIFAR-10数据集和ImageNet数据集,将获取的图像数据集保存为X以及每张图像相应的类标Y。
(2)利用训练集进行对抗攻击,预训练干净深度学习模型;预训练干净深度模型包括如下步骤:
(2-1)将划分好的训练集和测试集通过one-hot编码将图片数据集中每个样本的标签转化为一维向量;
(2-2)收集模型对抗攻击方法FGSM和PGD,将获得的图像数据集进行两种攻击后获取对抗样本X’并保存;
(2-3)将干净的图像数据输入到深度学习中进行训练,获得高分类置信度的深度学习模型。
(3)构建鲁棒评估指标对训练好的深度学习模型的鲁棒性进行评估;所述鲁棒性评估指标包括全局鲁棒性评估指标和经验鲁棒性评估指标;
(3-1)构建全局鲁棒性指标步骤如下:
设给定一个输入区域,若一个深度学习模型f:R→Y是全局鲁棒的,那么存在一个(σ,ε)领域,使得
Figure BDA0003150516060000061
并且深度学习模型输出||f(x1)-f(x2)||p≤ε,其中||·||p表示p范数约束;
(3-2)构建经验鲁棒性指标步骤如下:
设给定一个深度学习模型f:X→Y,从获得的攻击数据集ATT,定义经验鲁棒性评估指标u:(f,ATT)→[0,1]为γ,其中γ表示为对抗攻击数据集对于深度学习模型的攻击准确率。
(4)构建零阶和一阶损失函数度量用于评估图像测试集与训练好的深度学习模型之间的关系;
(4-1)给定一组测试数据集xi∈X,i=1,2,...,一个深度学习模型f:X→Y,则零阶损失函数度量构建为:
ZOL(xi,f)=ξ(f(θ,xi),yi)
其中,ξ(·)表示深度学习模型的损失损失函数,θ表示为当前模型训练完成后的参数,yi∈Y,i=1,2,...表示测试输入的真实类标;
(4-2)给定一个输入xi∈X,i=1,2,...和它的ε邻域内的样本{x|||x-xi||p≤ε}和一组测试样本xt,则一阶损失函数度量表示为:
Figure BDA0003150516060000071
(5)利用深度学习模型得到的不同类的类标标签的置信度的差异与一阶鲁棒性度量指标作为优化目标函数,
所述优化目标函数表示为:
fit[i]=P(Ci)-P(Cj,j≠i)+λ·FOL(x,xt,f)
其中,P(·)表示为概率密度函数,Ci,Cj表示第i类和第j类(i≠j),f为深度学习模型。
(6)从图像测试集中采集部分良性图像作为初始粒子,并初始化粒子的位置和速度,以优化目标函数为最大目标,采用粒子群优化算法对初始粒子的位置和速度进行迭代更新以生成测试样本;
所述初始粒子的位置和速度的标准更新方式表示为:
vi(t+1)=vi(t)+c1r1(t)[pbest(t)-xi(t)]+c2r2(t)[gbest(t)-xi(t)]
xi(t+1)=xi(t)+vi(t+1)
其中,其中t代表的是迭代的轮数,c1和c2为学习因子,r1和r2为0~1内的随机数,增加了粒子飞行的随机性,vi为速度,xi为位置,pbest为个体极值,gbest为全局极值。
(7)利用生成的测试样本与测试数据集一起重新训练深度学习模型,获得鲁棒防御模型;
所述鲁棒性防御模型表示如下:
Figure BDA0003150516060000081
其中,yi∈Y,i=1,2,...表示测试输入的真实类标,ξ(·)表示深度学习模型的损失损失函数,f为深度学习模型,xti表示测试一组样本集合xt中的第i个。。
(8)对防御后模型受攻击的敏感性进行评估;
对防御后模型的敏感性进行评估利用如下模型:
Figure BDA0003150516060000082
值越小表示模型防御效果越好;
其中,ASR(·)衡量测试模型对于对抗攻击的敏感性,f’为增加防御机制后的深度学习模型。
图2为基于粒子群算法的深度学习系统鲁棒性增强装置,包括:
收集模块,收集图像并对图像进行整理分类;
预训练模块,根据获得的图像进行对抗攻击,预训练干净深度学习模型;
评估指标模块,构建全局鲁棒评估指标和经验鲁棒评估指标,对模型的鲁棒性提供评估,并且构建零阶和一阶鲁棒性度量用于评估样本与模型鲁棒性之间的关系;
测试样本生成模块,通过一阶鲁棒性度量指标作为优化目标函数,粒子群优化算法以优化目标函数作为最大目标,采用粒子群优化算法对初始粒子的位置和速度进行迭代更新以生成测试样本;
防御机制模块,通过生成的测试样本测试数据集一起对深度学习模型参数进行更新,获得鲁棒防御模型;
评估模块,通过评估防御后模型受攻击的敏感性,来判断模型是否理想地修复潜在的缺陷,并获得一定的防御能力。

Claims (10)

1.一种基于粒子群算法的深度学习系统鲁棒性增强方法,其特征在于,所述方法包括如下步骤:
获取图像数据集,并将图像数据集进行整理分类为训练集和测试集;并利用训练集进行对抗攻击,预训练干净深度学习模型;
构建鲁棒评估指标对训练好的深度学习模型的鲁棒性进行评估;
构建零阶和一阶损失函数度量用于评估测试集与训练好的深度学习模型之间的关系;
将一阶鲁棒性度量指标作为优化目标函数;
从测试集中采集部分良性图像作为初始粒子,并初始化粒子的位置和速度,以优化目标函数为最大目标,采用粒子群优化算法对初始粒子的位置和速度进行迭代更新以生成测试样本;
利用生成的测试样本与测试数据集一起重新训练深度学习模型,获得鲁棒防御模型;
对防御后模型受攻击的敏感性进行评估。
2.根据权利要求1所述的基于粒子群算法的深度学习系统鲁棒性增强方法,其特征在于,所述获取的图像数据集包括MNIST数据集、CIFAR-10数据集和ImageNet数据集,将获取的图像数据集保存为X以及每张图像相应的类标Y。
3.根据权利要求1所述的基于粒子群算法的深度学习系统鲁棒性增强方法,其特征在于,预训练干净深度模型包括如下步骤:
将划分好的训练集和测试集通过one-hot编码将图片数据集中每个样本的标签转化为一维向量;
收集模型对抗攻击方法FGSM和PGD,将获得的图像数据集进行两种攻击后获取对抗样本X’并保存;
将干净的图像数据输入到深度学习中进行训练,获得高分类置信度的深度学习模型。
4.根据权利要求3所述的基于粒子群算法的深度学习系统鲁棒性增强方法,其特征在于,所述鲁棒性评估指标包括全局鲁棒性评估指标和经验鲁棒性评估指标;
构建全局鲁棒性指标步骤如下:
设给定一个输入区域,若一个深度学习模型f:R→Y是全局鲁棒的,那么存在一个(σ,ε)领域,使得
Figure FDA0003150516050000021
并且深度学习模型输出||f(x1)-f(x2)||p≤ε,其中||·||p表示p范数约束;
构建经验鲁棒性指标步骤如下:
设给定一个深度学习模型f:X→Y,从获得的攻击数据集ATT,定义经验鲁棒性评估指标u:(f,ATT)→[0,1]为γ,其中γ表示为对抗攻击数据集对于深度学习模型的攻击准确率。
5.根据权利要求4所述的基于粒子群算法的深度学习系统鲁棒性增强方法,其特征在于,给定一组测试数据集xi∈X,i=1,2,...,一个深度学习模型f:X→Y,则零阶损失函数度量构建为:
ZOL(xi,f)=ξ(f(θ,xi),yi)
其中,ξ(·)表示深度学习模型的损失损失函数,θ表示为当前模型训练完成后的参数,yi∈Y,i=1,2,...表示测试输入的真实类标;
给定一个输入xi∈X,i=1,2,...和它的ε邻域内的样本{x|||x-xi||p≤ε}和一组测试样本xt,则一阶损失函数度量表示为:
Figure FDA0003150516050000022
6.根据权利要求5所述的基于粒子群算法的深度学习系统鲁棒性增强方法,其特征在于,所述优化目标函数表示为:
fit[i]=P(Ci)-P(Cj,j≠i)+λ·FOL(x,xt,f)
其中,P(·)表示为概率密度函数,Ci,Cj表示第i类和第j类(i≠j),f为深度学习模型。
7.根据权利要求6所述的基于粒子群算法的深度学习系统鲁棒性增强方法,其特征在于,所述初始粒子的位置和速度的标准更新方式表示为:
vi(t+1)=vi(t)+c1r1(t)[pbest(t)-xi(t)]+c2r2(t)[gbest(t)-xi(t)]
xi(t+1)=xi(t)+vi(t+1)
其中,其中t代表的是迭代的轮数,c1和c2为学习因子,r1和r2为0~1内的随机数,增加了粒子飞行的随机性,vi为速度,xi为位置,pbest为个体极值,gbest为全局极值。
8.根据权利要求7所述的基于粒子群算法的深度学习系统鲁棒性增强方法,其特征在于,所述鲁棒性防御模型表示如下:
Figure FDA0003150516050000031
其中,yi∈Y,i=1,2,...表示测试输入的真实类标,ξ(·)表示深度学习模型的损失损失函数,f为深度学习模型,xti表示测试一组样本集合xt中的第i个。
9.根据权利要求8所述的基于粒子群算法的深度学习系统鲁棒性增强方法,其特征在于,对防御后模型的敏感性进行评估利用如下模型:
Figure FDA0003150516050000032
值越小表示模型防御效果越好;
其中,ASR(·)衡量测试模型对于对抗攻击的敏感性,f’为增加防御机制后的深度学习模型。
10.一种基于粒子群算法的深度学习系统鲁棒性增强装置,其特征在于,包括:
收集模块,收集图像并对图像进行整理分类;
预训练模块,根据获得的图像进行对抗攻击,预训练干净深度学习模型;
评估指标模块,构建全局鲁棒评估指标和经验鲁棒评估指标,对模型的鲁棒性提供评估,并且构建零阶和一阶鲁棒性度量用于评估样本与模型鲁棒性之间的关系;
测试样本生成模块,将一阶鲁棒性度量指标作为优化目标函数,粒子群优化算法以优化目标函数作为最大目标,采用粒子群优化算法对初始粒子的位置和速度进行迭代更新以生成测试样本;
防御机制模块,通过生成的测试样本测试数据集一起对深度学习模型参数进行更新,获得鲁棒防御模型;
评估模块,通过评估防御后模型受攻击的敏感性,来判断模型是否理想地修复潜在的缺陷,并获得一定的防御能力。
CN202110762593.5A 2021-07-06 2021-07-06 基于粒子群算法的深度学习系统鲁棒性增强方法及装置 Active CN113378988B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110762593.5A CN113378988B (zh) 2021-07-06 2021-07-06 基于粒子群算法的深度学习系统鲁棒性增强方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110762593.5A CN113378988B (zh) 2021-07-06 2021-07-06 基于粒子群算法的深度学习系统鲁棒性增强方法及装置

Publications (2)

Publication Number Publication Date
CN113378988A true CN113378988A (zh) 2021-09-10
CN113378988B CN113378988B (zh) 2024-02-13

Family

ID=77581151

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110762593.5A Active CN113378988B (zh) 2021-07-06 2021-07-06 基于粒子群算法的深度学习系统鲁棒性增强方法及装置

Country Status (1)

Country Link
CN (1) CN113378988B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114043476A (zh) * 2021-11-04 2022-02-15 同济大学 一种拒止环境下基于粒子群算法的群体机器人控制方法
CN114419346A (zh) * 2021-12-31 2022-04-29 北京瑞莱智慧科技有限公司 一种模型的鲁棒性检测方法、装置、设备及介质
CN114580745A (zh) * 2022-03-04 2022-06-03 中国工商银行股份有限公司 针对表单识别模型的鲁棒性调优方法及装置
CN116866084A (zh) * 2023-08-30 2023-10-10 国网山东省电力公司信息通信公司 基于强化学习的入侵响应决策方法及系统
CN117934819A (zh) * 2024-03-20 2024-04-26 中铁第六勘察设计院集团有限公司 一种轨道缺陷检测系统鲁棒性提升方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109858368A (zh) * 2018-12-29 2019-06-07 浙江工业大学 一种基于Rosenbrock-PSO的人脸识别攻击防御方法
CN110175513A (zh) * 2019-04-15 2019-08-27 浙江工业大学 一种基于多目标路优化的路牌识别攻击防御方法
US20210012188A1 (en) * 2019-07-09 2021-01-14 Baidu Usa Llc Systems and methods for defense against adversarial attacks using feature scattering-based adversarial training
CN113033822A (zh) * 2021-03-30 2021-06-25 中山大学 基于预测校正和随机步长优化的对抗性攻击与防御方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109858368A (zh) * 2018-12-29 2019-06-07 浙江工业大学 一种基于Rosenbrock-PSO的人脸识别攻击防御方法
CN110175513A (zh) * 2019-04-15 2019-08-27 浙江工业大学 一种基于多目标路优化的路牌识别攻击防御方法
US20210012188A1 (en) * 2019-07-09 2021-01-14 Baidu Usa Llc Systems and methods for defense against adversarial attacks using feature scattering-based adversarial training
CN113033822A (zh) * 2021-03-30 2021-06-25 中山大学 基于预测校正和随机步长优化的对抗性攻击与防御方法及系统

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114043476A (zh) * 2021-11-04 2022-02-15 同济大学 一种拒止环境下基于粒子群算法的群体机器人控制方法
CN114419346A (zh) * 2021-12-31 2022-04-29 北京瑞莱智慧科技有限公司 一种模型的鲁棒性检测方法、装置、设备及介质
CN114580745A (zh) * 2022-03-04 2022-06-03 中国工商银行股份有限公司 针对表单识别模型的鲁棒性调优方法及装置
CN116866084A (zh) * 2023-08-30 2023-10-10 国网山东省电力公司信息通信公司 基于强化学习的入侵响应决策方法及系统
CN116866084B (zh) * 2023-08-30 2023-11-21 国网山东省电力公司信息通信公司 基于强化学习的入侵响应决策方法及系统
CN117934819A (zh) * 2024-03-20 2024-04-26 中铁第六勘察设计院集团有限公司 一种轨道缺陷检测系统鲁棒性提升方法

Also Published As

Publication number Publication date
CN113378988B (zh) 2024-02-13

Similar Documents

Publication Publication Date Title
CN113378988B (zh) 基于粒子群算法的深度学习系统鲁棒性增强方法及装置
CN112132042A (zh) 基于对抗域适应的sar图像目标检测方法
Wang et al. Densely connected convolutional networks for vibration based structural damage identification
US20200065664A1 (en) System and method of measuring the robustness of a deep neural network
CN110942094B (zh) 一种基于范数的对抗性样本检测分类方法
Messay-Kebede et al. Combination of traditional and deep learning based architectures to overcome class imbalance and its application to malware classification
Savino et al. Automated classification of civil structure defects based on convolutional neural network
CN114758230A (zh) 基于注意力机制的地下目标体分类识别方法
CN112738092A (zh) 一种日志数据增强方法、分类检测方法及系统
Du et al. Convolutional neural network-based data anomaly detection considering class imbalance with limited data
CN112882382B (zh) 一种评价分类深度神经网络鲁棒性的几何方法
Jeong et al. Enriching SAR ship detection via multistage domain alignment
CN115081618A (zh) 一种提升深度神经网络模型鲁棒性的方法及装置
CN114627424A (zh) 一种基于视角转化的步态识别方法和系统
CN114299291A (zh) 一种可解释的人工智能医疗图像语义分割方法
CN111563532B (zh) 一种基于属性权重融合的未知目标识别方法
CN113065395A (zh) 一种基于生成对抗网络的雷达目标新类检测方法
CN111782805A (zh) 一种文本标签分类方法及系统
Schwerdtner et al. Risk assessment for machine learning models
CN115147684A (zh) 基于深度学习的目标打击效果评估方法
CN115223033A (zh) 一种合成孔径声呐图像目标分类方法及系统
CN112014821B (zh) 一种基于雷达宽带特征的未知车辆目标识别方法
Adaïmé et al. Deep learning approaches to the phylogenetic placement of extinct pollen morphotypes
Farag et al. Inductive Conformal Prediction for Harvest-Readiness Classification of Cauliflower Plants: A Comparative Study of Uncertainty Quantification Methods
CN116844059B (zh) 基于双对角变化的极化sar图像目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant