CN113378988A - 基于粒子群算法的深度学习系统鲁棒性增强方法及装置 - Google Patents
基于粒子群算法的深度学习系统鲁棒性增强方法及装置 Download PDFInfo
- Publication number
- CN113378988A CN113378988A CN202110762593.5A CN202110762593A CN113378988A CN 113378988 A CN113378988 A CN 113378988A CN 202110762593 A CN202110762593 A CN 202110762593A CN 113378988 A CN113378988 A CN 113378988A
- Authority
- CN
- China
- Prior art keywords
- deep learning
- model
- robustness
- learning model
- test
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000002245 particle Substances 0.000 title claims abstract description 67
- 238000005457 optimization Methods 0.000 title claims abstract description 47
- 238000013135 deep learning Methods 0.000 title claims abstract description 37
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000012360 testing method Methods 0.000 claims abstract description 72
- 238000013136 deep learning model Methods 0.000 claims abstract description 62
- 230000006870 function Effects 0.000 claims abstract description 43
- 238000012549 training Methods 0.000 claims abstract description 30
- 238000011156 evaluation Methods 0.000 claims abstract description 23
- 230000007123 defense Effects 0.000 claims abstract description 15
- 238000005259 measurement Methods 0.000 claims abstract description 6
- 230000002708 enhancing effect Effects 0.000 claims description 12
- 230000035945 sensitivity Effects 0.000 claims description 12
- 230000007547 defect Effects 0.000 claims description 8
- 230000008260 defense mechanism Effects 0.000 claims description 7
- 230000008439 repair process Effects 0.000 claims description 7
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 231100000572 poisoning Toxicity 0.000 description 2
- 230000000607 poisoning effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000010004 neural pathway Effects 0.000 description 1
- 210000000118 neural pathway Anatomy 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013432 robust analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于粒子群算法的深度学习系统鲁棒性增强方法及装置,其中公开的方法的步骤为:获取图像数据集并整理分类为训练集和测试集;利用训练集进行对抗攻击预训练干净深度学习模型;构建鲁棒评估指标评估训练好的深度学习模型;构建零阶和一阶损失函数度量用于评估测试集与训练好的深度学习模型之间的关系;将一阶鲁棒性度量指标作为优化目标函数,从测试集中采集部分良性图像作为初始粒子并初始化粒子的位置和速度,以优化目标函数为最大目标采用粒子群优化算法对初始粒子的位置和速度进行迭代更新以生成测试样本;利用生成的测试样本与测试数据集重新训练深度学习模型获得鲁棒防御模型;对防御后模型受攻击的敏感性进行评估。
Description
技术领域
本发明涉及深度学习安全领域,特别涉及一种基于粒子群算法的深度学习系统鲁棒性增强方法及装置。
背景技术
随着深度学习的快速发展,许多现实世界问题达到前所未有的突破的背后都是深度学习作为核心驱动力。
深度学习尽管已经取得了巨大的发展,但是深度学习系统易受到对抗性攻击的影响,对抗性攻击的对抗样本是在原始样本的基础上增加轻微扰动,与人类观察者的正常输入有着轻微的不同,但很容易欺骗深度学习系统做出错误的决策。对抗性攻击的存在不仅损害了深度学习系统的可靠性和鲁棒性,还导致了在人脸识别、恶意软件检测、医疗诊断、自动驾驶等安全等应用中不数深度学习系统的安全性问题。
在软件工程社区中已经做出了显著的努力来减轻对抗攻击的威胁,并在对抗样本存在的情况下提高深度学习系统的鲁棒性。现有的测试方法分为形式化的鲁棒性验证和系统测试两个方向,旨在及时发现深度学习模型的潜在缺陷以便进行理想的缺陷修复。
形式验证旨在证明在给定输入的邻域内不存在敌对的攻击样本,使用抽象解释、决策边界鲁棒性分析和可达性分析等方法已经取得了实质性进展。然而,形式验证技术通常是昂贵的,并且仅适用于有限的模型结构和属性。
系统测试旨在生成可以暴露深度学习模型漏洞的测试样本,然后,测试样本可以通过重新训练模型来提高模型的鲁棒性;但是,最近的研究结果表明,即使是基于现有的测试度量生成的测试样本与模型的鲁棒性并无直接的关系,这将导致重训练后的深度学习模型的鲁棒性提升度将受限。
对于以上问题,一方面,需要构建具有代表性的测试指标与模型的鲁棒性直接相关联,实现细粒度的深度学习模型详尽测试;另一方面,对于重训练来说,需要生成与鲁棒性提升直接相关的具有代表性的测试样本。
发明内容
为解决现有技术中存在的问题,本发明提供一种基于粒子群算法的深度学习系统鲁棒性增强方法及装置,该方法具有良好的适用性,能够有效的评估模型的安全性,获得的样本能够良好的修复模型潜在缺陷,并且不影响正常样本的正确率。
一种基于粒子群算法的深度学习系统鲁棒性增强方法,所述方法包括如下步骤:
获取图像数据集,并将图像数据集进行整理分类为训练集和测试集;并利用训练集进行对抗攻击,预训练干净深度学习模型;
构建鲁棒评估指标对训练好的深度学习模型的鲁棒性进行评估;
构建零阶和一阶损失函数度量用于评估图像测试集与训练好的深度学习模型之间的关系;
将一阶鲁棒性度量指标作为优化目标函数,
从图像测试集中采集部分良性图像作为初始粒子,并初始化粒子的位置和速度,以优化目标函数为最大目标,采用粒子群优化算法对初始粒子的位置和速度进行迭代更新以生成测试样本;
利用生成的测试样本与测试数据集一起重新训练深度学习模型,获得鲁棒防御模型;
对防御后模型受攻击的敏感性进行评估。
所述获取的图像数据集包括MNIST数据集、CIFAR-10数据集和ImageNet数据集,将获取的图像数据集保存为X以及每张图像相应的类标Y。
预训练干净深度模型包括如下步骤:
将划分好的训练集和测试集通过one-hot编码将图片数据集中每个样本的标签转化为一维向量;
收集模型对抗攻击方法FGSM和PGD,将获得的图像数据集进行两种攻击后获取对抗样本X’并保存;
将干净的图像数据输入到深度学习中进行训练,获得高分类置信度的深度学习模型。
所述鲁棒性评估指标包括全局鲁棒性评估指标和经验鲁棒性评估指标;
构建全局鲁棒性指标步骤如下:
构建经验鲁棒性指标步骤如下:
设给定一个深度学习模型f:X→Y,从获得的攻击数据集ATT,定义经验鲁棒性评估指标u:(f,ATT)→[0,1]为γ,其中γ表示为对抗攻击数据集对于深度学习模型的攻击准确率。
给定一组测试数据集xi∈X,i=1,2,...,一个深度学习模型f:X→Y,则零阶损失函数度量构建为:
ZOL(xi,f)=ξ(f(θ,xi),yi)
其中,ξ(·)表示深度学习模型的损失损失函数,θ表示为当前模型训练完成后的参数,yi∈Y,i=1,2,...表示测试输入的真实类标;
零阶损失函数直接计算与深度学习模型相关的测试样本的当前损失值。
给定一个输入xi∈X,i=1,2,...和它的ε邻域内的样本{x|||x-xi||p≤ε}和一组测试样本xt,则一阶损失函数度量表示为:
对于不同的种子,生成的测试样本的损失可能有很大的不同,一般来说,更容易生成种子丢失率高的测试样本,因此采用一阶损失函数度量来进行优化。
所述优化目标函数表示为:
fit[i]=P(Ci)-P(Cj,j≠i)+λ·FOL(x,xt,f)
其中,P(·)表示为概率密度函数,Ci,Cj表示第i类和第j类(i≠j),f为深度学习模型。
所述初始粒子的位置和速度的标准更新方式表示为:
vi(t+1)=vi(t)+c1r1(t)[pbest(t)-xi(t)]+c2r2(t)[gbest(t)-xi(t)]
xi(t+1)=xi(t)+vi(t+1)
其中,其中t代表的是迭代的轮数,c1和c2为学习因子,r1和r2为0~1内的随机数,增加了粒子飞行的随机性,vi为速度,xi为位置,pbest为个体极值,gbest为全局极值。
具体过程为,从样本集中采集部分良性图像作为初始粒子,并初始化粒子的位置vi和速度xi,其中,位置vi和速度xi均为样本空间的维度,i为粒子的索引;
将每个粒子作为输入图像,根据目标函数计算每个粒子的适应度值fit[i];比较每个粒子的适应度值fit[i]和个体极值pbest,如果fit[i]<pbest[i],则fit[i]用替代pbest,以更新个体极值pbest;
比较每个粒子的适应度值fit[i]和全局极值gbest,如果fit[i]<gbest,则tif[i]用替代gbest,以更新全局极值gbest。
所述鲁棒性防御模型表示如下:
其中,yi∈Y,i=1,2,...表示测试输入的真实类标,ξ(·)表示深度学习模型的损失损失函数,f为深度学习模型,xti表示测试一组样本集合xt中的第i个。。
对防御后模型的敏感性进行评估利用如下模型:
值越小表示模型防御效果越好;
其中,ASR(·)衡量测试模型对于对抗攻击的敏感性,f’为增加防御机制后的深度学习模型。
一种基于粒子群算法的深度学习系统鲁棒性增强装置,包括:
收集模块,收集图像并对图像进行整理分类;
预训练模块,根据获得的图像进行对抗攻击,预训练干净深度学习模型;
评估指标模块,构建全局鲁棒评估指标和经验鲁棒评估指标,对模型的鲁棒性提供评估,并且构建零阶和一阶鲁棒性度量用于评估样本与模型鲁棒性之间的关系;
测试样本生成模块,通过一阶鲁棒性度量指标作为优化目标函数,粒子群优化算法以优化目标函数作为最大目标,采用粒子群优化算法对初始粒子的位置和速度进行迭代更新以生成测试样本;
防御机制模块,通过生成的测试样本测试数据集一起对深度学习模型参数进行更新,获得鲁棒防御模型;
评估模块,通过评估防御后模型受攻击的敏感性,来判断模型是否理想地修复潜在的缺陷,并获得一定的防御能力。
与现有技术相比,本发明的有益之处在于:
(1)本方法通过一阶损失函数与模型鲁棒性之间建立关系,通过粒子群优化算法寻找适应度函数最大的粒子生成测试样本,并将样本与真实类标一起重新更新模型参数对于中毒模型,通过衡量鲁棒增强后的防御模型对于对抗样本的敏感度,来判断模型是否理想地修复潜在的缺陷,实现自我防御机制,具有良好的适用性,能够有效的评估模型的安全性,获得的样本能够良好的修复模型潜在缺陷,并且不影响正常样本的正确率。
附图说明
图1是本发明提供的基于粒子群算法的深度学习系统鲁棒性增强方法框图;
图2是本发明提供的基于粒子群算法的深度学习系统鲁棒性增强装置的结构示意图。
具体实施方式
下面结合附图和具体实施方式对本发明做进一步说明。
基于粒子群算法的深度学习系统鲁棒性增强方法,通过一阶损失函数与模型鲁棒性之间建立关系,通过粒子群优化算法寻找适应度函数最大的粒子生成测试样本,并将样本与真实类标一起重新更新模型参数对于中毒模型。通过衡量鲁棒增强后的防御模型对于对抗样本的敏感度,来判断模型是否理想地修复潜在的缺陷,实现自我防御机制。
图1为本实施例提供的基于粒子群算法的深度学习系统鲁棒性增强方法框图,实施例提供的基于粒子群算法的深度学习系统鲁棒性增强方法可以用于自动驾驶领域,深度学习模型依据采集的图像数据构建神经通路,用于建立防御机制,以保证自动驾驶的安全性。如图1所示,基于粒子群算法的深度学习系统的鲁棒性增强方法包括如下步骤:
一种基于粒子群算法的深度学习系统鲁棒性增强方法,所述方法包括如下步骤:
(1)获取图像数据集,并将图像数据集进行整理分类为训练集和测试集;所述获取的图像数据集包括MNIST数据集、CIFAR-10数据集和ImageNet数据集,将获取的图像数据集保存为X以及每张图像相应的类标Y。
(2)利用训练集进行对抗攻击,预训练干净深度学习模型;预训练干净深度模型包括如下步骤:
(2-1)将划分好的训练集和测试集通过one-hot编码将图片数据集中每个样本的标签转化为一维向量;
(2-2)收集模型对抗攻击方法FGSM和PGD,将获得的图像数据集进行两种攻击后获取对抗样本X’并保存;
(2-3)将干净的图像数据输入到深度学习中进行训练,获得高分类置信度的深度学习模型。
(3)构建鲁棒评估指标对训练好的深度学习模型的鲁棒性进行评估;所述鲁棒性评估指标包括全局鲁棒性评估指标和经验鲁棒性评估指标;
(3-1)构建全局鲁棒性指标步骤如下:
(3-2)构建经验鲁棒性指标步骤如下:
设给定一个深度学习模型f:X→Y,从获得的攻击数据集ATT,定义经验鲁棒性评估指标u:(f,ATT)→[0,1]为γ,其中γ表示为对抗攻击数据集对于深度学习模型的攻击准确率。
(4)构建零阶和一阶损失函数度量用于评估图像测试集与训练好的深度学习模型之间的关系;
(4-1)给定一组测试数据集xi∈X,i=1,2,...,一个深度学习模型f:X→Y,则零阶损失函数度量构建为:
ZOL(xi,f)=ξ(f(θ,xi),yi)
其中,ξ(·)表示深度学习模型的损失损失函数,θ表示为当前模型训练完成后的参数,yi∈Y,i=1,2,...表示测试输入的真实类标;
(4-2)给定一个输入xi∈X,i=1,2,...和它的ε邻域内的样本{x|||x-xi||p≤ε}和一组测试样本xt,则一阶损失函数度量表示为:
(5)利用深度学习模型得到的不同类的类标标签的置信度的差异与一阶鲁棒性度量指标作为优化目标函数,
所述优化目标函数表示为:
fit[i]=P(Ci)-P(Cj,j≠i)+λ·FOL(x,xt,f)
其中,P(·)表示为概率密度函数,Ci,Cj表示第i类和第j类(i≠j),f为深度学习模型。
(6)从图像测试集中采集部分良性图像作为初始粒子,并初始化粒子的位置和速度,以优化目标函数为最大目标,采用粒子群优化算法对初始粒子的位置和速度进行迭代更新以生成测试样本;
所述初始粒子的位置和速度的标准更新方式表示为:
vi(t+1)=vi(t)+c1r1(t)[pbest(t)-xi(t)]+c2r2(t)[gbest(t)-xi(t)]
xi(t+1)=xi(t)+vi(t+1)
其中,其中t代表的是迭代的轮数,c1和c2为学习因子,r1和r2为0~1内的随机数,增加了粒子飞行的随机性,vi为速度,xi为位置,pbest为个体极值,gbest为全局极值。
(7)利用生成的测试样本与测试数据集一起重新训练深度学习模型,获得鲁棒防御模型;
所述鲁棒性防御模型表示如下:
其中,yi∈Y,i=1,2,...表示测试输入的真实类标,ξ(·)表示深度学习模型的损失损失函数,f为深度学习模型,xti表示测试一组样本集合xt中的第i个。。
(8)对防御后模型受攻击的敏感性进行评估;
对防御后模型的敏感性进行评估利用如下模型:
值越小表示模型防御效果越好;
其中,ASR(·)衡量测试模型对于对抗攻击的敏感性,f’为增加防御机制后的深度学习模型。
图2为基于粒子群算法的深度学习系统鲁棒性增强装置,包括:
收集模块,收集图像并对图像进行整理分类;
预训练模块,根据获得的图像进行对抗攻击,预训练干净深度学习模型;
评估指标模块,构建全局鲁棒评估指标和经验鲁棒评估指标,对模型的鲁棒性提供评估,并且构建零阶和一阶鲁棒性度量用于评估样本与模型鲁棒性之间的关系;
测试样本生成模块,通过一阶鲁棒性度量指标作为优化目标函数,粒子群优化算法以优化目标函数作为最大目标,采用粒子群优化算法对初始粒子的位置和速度进行迭代更新以生成测试样本;
防御机制模块,通过生成的测试样本测试数据集一起对深度学习模型参数进行更新,获得鲁棒防御模型;
评估模块,通过评估防御后模型受攻击的敏感性,来判断模型是否理想地修复潜在的缺陷,并获得一定的防御能力。
Claims (10)
1.一种基于粒子群算法的深度学习系统鲁棒性增强方法,其特征在于,所述方法包括如下步骤:
获取图像数据集,并将图像数据集进行整理分类为训练集和测试集;并利用训练集进行对抗攻击,预训练干净深度学习模型;
构建鲁棒评估指标对训练好的深度学习模型的鲁棒性进行评估;
构建零阶和一阶损失函数度量用于评估测试集与训练好的深度学习模型之间的关系;
将一阶鲁棒性度量指标作为优化目标函数;
从测试集中采集部分良性图像作为初始粒子,并初始化粒子的位置和速度,以优化目标函数为最大目标,采用粒子群优化算法对初始粒子的位置和速度进行迭代更新以生成测试样本;
利用生成的测试样本与测试数据集一起重新训练深度学习模型,获得鲁棒防御模型;
对防御后模型受攻击的敏感性进行评估。
2.根据权利要求1所述的基于粒子群算法的深度学习系统鲁棒性增强方法,其特征在于,所述获取的图像数据集包括MNIST数据集、CIFAR-10数据集和ImageNet数据集,将获取的图像数据集保存为X以及每张图像相应的类标Y。
3.根据权利要求1所述的基于粒子群算法的深度学习系统鲁棒性增强方法,其特征在于,预训练干净深度模型包括如下步骤:
将划分好的训练集和测试集通过one-hot编码将图片数据集中每个样本的标签转化为一维向量;
收集模型对抗攻击方法FGSM和PGD,将获得的图像数据集进行两种攻击后获取对抗样本X’并保存;
将干净的图像数据输入到深度学习中进行训练,获得高分类置信度的深度学习模型。
6.根据权利要求5所述的基于粒子群算法的深度学习系统鲁棒性增强方法,其特征在于,所述优化目标函数表示为:
fit[i]=P(Ci)-P(Cj,j≠i)+λ·FOL(x,xt,f)
其中,P(·)表示为概率密度函数,Ci,Cj表示第i类和第j类(i≠j),f为深度学习模型。
7.根据权利要求6所述的基于粒子群算法的深度学习系统鲁棒性增强方法,其特征在于,所述初始粒子的位置和速度的标准更新方式表示为:
vi(t+1)=vi(t)+c1r1(t)[pbest(t)-xi(t)]+c2r2(t)[gbest(t)-xi(t)]
xi(t+1)=xi(t)+vi(t+1)
其中,其中t代表的是迭代的轮数,c1和c2为学习因子,r1和r2为0~1内的随机数,增加了粒子飞行的随机性,vi为速度,xi为位置,pbest为个体极值,gbest为全局极值。
10.一种基于粒子群算法的深度学习系统鲁棒性增强装置,其特征在于,包括:
收集模块,收集图像并对图像进行整理分类;
预训练模块,根据获得的图像进行对抗攻击,预训练干净深度学习模型;
评估指标模块,构建全局鲁棒评估指标和经验鲁棒评估指标,对模型的鲁棒性提供评估,并且构建零阶和一阶鲁棒性度量用于评估样本与模型鲁棒性之间的关系;
测试样本生成模块,将一阶鲁棒性度量指标作为优化目标函数,粒子群优化算法以优化目标函数作为最大目标,采用粒子群优化算法对初始粒子的位置和速度进行迭代更新以生成测试样本;
防御机制模块,通过生成的测试样本测试数据集一起对深度学习模型参数进行更新,获得鲁棒防御模型;
评估模块,通过评估防御后模型受攻击的敏感性,来判断模型是否理想地修复潜在的缺陷,并获得一定的防御能力。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110762593.5A CN113378988B (zh) | 2021-07-06 | 2021-07-06 | 基于粒子群算法的深度学习系统鲁棒性增强方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110762593.5A CN113378988B (zh) | 2021-07-06 | 2021-07-06 | 基于粒子群算法的深度学习系统鲁棒性增强方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113378988A true CN113378988A (zh) | 2021-09-10 |
CN113378988B CN113378988B (zh) | 2024-02-13 |
Family
ID=77581151
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110762593.5A Active CN113378988B (zh) | 2021-07-06 | 2021-07-06 | 基于粒子群算法的深度学习系统鲁棒性增强方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113378988B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114043476A (zh) * | 2021-11-04 | 2022-02-15 | 同济大学 | 一种拒止环境下基于粒子群算法的群体机器人控制方法 |
CN114419346A (zh) * | 2021-12-31 | 2022-04-29 | 北京瑞莱智慧科技有限公司 | 一种模型的鲁棒性检测方法、装置、设备及介质 |
CN114580745A (zh) * | 2022-03-04 | 2022-06-03 | 中国工商银行股份有限公司 | 针对表单识别模型的鲁棒性调优方法及装置 |
CN114723990A (zh) * | 2022-03-31 | 2022-07-08 | 南京大学 | 一种基于度量学习的图像分类鲁棒性提升方法 |
CN116866084A (zh) * | 2023-08-30 | 2023-10-10 | 国网山东省电力公司信息通信公司 | 基于强化学习的入侵响应决策方法及系统 |
CN117934819A (zh) * | 2024-03-20 | 2024-04-26 | 中铁第六勘察设计院集团有限公司 | 一种轨道缺陷检测系统鲁棒性提升方法 |
CN118133002A (zh) * | 2024-05-10 | 2024-06-04 | 华能山东发电有限公司众泰电厂 | 基于人工智能的电厂环保指标监测预警方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109858368A (zh) * | 2018-12-29 | 2019-06-07 | 浙江工业大学 | 一种基于Rosenbrock-PSO的人脸识别攻击防御方法 |
CN110175513A (zh) * | 2019-04-15 | 2019-08-27 | 浙江工业大学 | 一种基于多目标路优化的路牌识别攻击防御方法 |
US20210012188A1 (en) * | 2019-07-09 | 2021-01-14 | Baidu Usa Llc | Systems and methods for defense against adversarial attacks using feature scattering-based adversarial training |
CN113033822A (zh) * | 2021-03-30 | 2021-06-25 | 中山大学 | 基于预测校正和随机步长优化的对抗性攻击与防御方法及系统 |
-
2021
- 2021-07-06 CN CN202110762593.5A patent/CN113378988B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109858368A (zh) * | 2018-12-29 | 2019-06-07 | 浙江工业大学 | 一种基于Rosenbrock-PSO的人脸识别攻击防御方法 |
CN110175513A (zh) * | 2019-04-15 | 2019-08-27 | 浙江工业大学 | 一种基于多目标路优化的路牌识别攻击防御方法 |
US20210012188A1 (en) * | 2019-07-09 | 2021-01-14 | Baidu Usa Llc | Systems and methods for defense against adversarial attacks using feature scattering-based adversarial training |
CN113033822A (zh) * | 2021-03-30 | 2021-06-25 | 中山大学 | 基于预测校正和随机步长优化的对抗性攻击与防御方法及系统 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114043476A (zh) * | 2021-11-04 | 2022-02-15 | 同济大学 | 一种拒止环境下基于粒子群算法的群体机器人控制方法 |
CN114419346A (zh) * | 2021-12-31 | 2022-04-29 | 北京瑞莱智慧科技有限公司 | 一种模型的鲁棒性检测方法、装置、设备及介质 |
CN114580745A (zh) * | 2022-03-04 | 2022-06-03 | 中国工商银行股份有限公司 | 针对表单识别模型的鲁棒性调优方法及装置 |
CN114723990A (zh) * | 2022-03-31 | 2022-07-08 | 南京大学 | 一种基于度量学习的图像分类鲁棒性提升方法 |
CN116866084A (zh) * | 2023-08-30 | 2023-10-10 | 国网山东省电力公司信息通信公司 | 基于强化学习的入侵响应决策方法及系统 |
CN116866084B (zh) * | 2023-08-30 | 2023-11-21 | 国网山东省电力公司信息通信公司 | 基于强化学习的入侵响应决策方法及系统 |
CN117934819A (zh) * | 2024-03-20 | 2024-04-26 | 中铁第六勘察设计院集团有限公司 | 一种轨道缺陷检测系统鲁棒性提升方法 |
CN118133002A (zh) * | 2024-05-10 | 2024-06-04 | 华能山东发电有限公司众泰电厂 | 基于人工智能的电厂环保指标监测预警方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113378988B (zh) | 2024-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113378988B (zh) | 基于粒子群算法的深度学习系统鲁棒性增强方法及装置 | |
Wang et al. | Densely connected convolutional networks for vibration based structural damage identification | |
CN111126134B (zh) | 基于非指纹信号消除器的雷达辐射源深度学习识别方法 | |
CN112132042A (zh) | 基于对抗域适应的sar图像目标检测方法 | |
US20200065664A1 (en) | System and method of measuring the robustness of a deep neural network | |
Savino et al. | Automated classification of civil structure defects based on convolutional neural network | |
Dong et al. | An empirical study on correlation between coverage and robustness for deep neural networks | |
CN110942094B (zh) | 一种基于范数的对抗性样本检测分类方法 | |
CN114758230A (zh) | 基于注意力机制的地下目标体分类识别方法 | |
CN112738092A (zh) | 一种日志数据增强方法、分类检测方法及系统 | |
Du et al. | Convolutional neural network-based data anomaly detection considering class imbalance with limited data | |
Jeong et al. | Enriching SAR ship detection via multistage domain alignment | |
CN112882382B (zh) | 一种评价分类深度神经网络鲁棒性的几何方法 | |
CN114627424A (zh) | 一种基于视角转化的步态识别方法和系统 | |
CN111210018A (zh) | 一种提升深度神经网络模型鲁棒性的方法及装置 | |
CN114299291A (zh) | 一种可解释的人工智能医疗图像语义分割方法 | |
CN113065395A (zh) | 一种基于生成对抗网络的雷达目标新类检测方法 | |
Farag et al. | Inductive Conformal Prediction for Harvest-Readiness Classification of Cauliflower Plants: A Comparative Study of Uncertainty Quantification Methods | |
Li et al. | Quantifying predictive uncertainty in damage classification for nondestructive evaluation using Bayesian approximation and deep learning | |
Cheng et al. | Kernel two-sample tests for manifold data | |
Adaïmé et al. | Deep learning approaches to the phylogenetic placement of extinct pollen morphotypes | |
CN115147684A (zh) | 基于深度学习的目标打击效果评估方法 | |
Linmans et al. | The Latent Doctor Model for Modeling Inter-Observer Variability | |
CN113378985B (zh) | 一种基于逐层相关性传播的对抗样本检测方法和装置 | |
CN112014821B (zh) | 一种基于雷达宽带特征的未知车辆目标识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |