CN113343225B - 一种基于神经通路的深度学习的中毒防御方法及装置 - Google Patents

一种基于神经通路的深度学习的中毒防御方法及装置 Download PDF

Info

Publication number
CN113343225B
CN113343225B CN202110697441.1A CN202110697441A CN113343225B CN 113343225 B CN113343225 B CN 113343225B CN 202110697441 A CN202110697441 A CN 202110697441A CN 113343225 B CN113343225 B CN 113343225B
Authority
CN
China
Prior art keywords
deep learning
poisoning
layer
model
neurons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110697441.1A
Other languages
English (en)
Other versions
CN113343225A (zh
Inventor
陈晋音
金海波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202110697441.1A priority Critical patent/CN113343225B/zh
Publication of CN113343225A publication Critical patent/CN113343225A/zh
Application granted granted Critical
Publication of CN113343225B publication Critical patent/CN113343225B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/55Detecting local intrusion or implementing counter-measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Security & Cryptography (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于神经通路的深度学习的中毒防御方法及装置,其中公开了基于神经通路的深度学习的中毒防御方法,利用中毒模型,通过特征提取层产生导向性样本从而构建深度学习模型的关键神经通路,模拟触发样本的数据流动过程,对激活值异常的神经元通过人工神经元来抑制激活值,增加新的权重使得模型实现自我防御机制。本发明还公开了一种基于神经通路的深度学习的中毒防御装置,包括收集模块,预训练模块,构建通路模块,构建防御机制模块,评估模块。

Description

一种基于神经通路的深度学习的中毒防御方法及装置
技术领域
本发明涉及深度学习的中毒防御领域,特别涉及一种基于神经通路的深度学习的中毒防御方法及装置。
背景技术
由于高度可并行化的算法(CNN)的新变种的发展以及针对现代图像处理单元(GPU)优化的高效并行网络框架的出现,是的深度神经网络具有十分良好的商业前景。
然而,虽然深度学习模型能较好的适用于各种场景并展现出其独有的精确、高效的性能,但它非常容易受到恶意数据的攻击。对于深度学习模型的攻击,分为对抗攻击和中毒攻击,相对对抗攻击而言,中毒攻击往往对深度学习的安全性威胁性更大。中毒攻击通常针对深度学习模型的训练阶段,通过对干净样本添加一定的扰动或将两张干净样本的特征混合实现毒药样本的构建,并标注错误的标签混入干净样本中进行训练;在预测阶段,潜在的触发样本输入到深度学习模型中,将会使模型内部发生混乱从而导致错误分类,值得注意的是,触发样本可能与干净样本无异。因此,特别是在自动驾驶和人脸识别等安全性相关领域中,注入毒药样本训练后的中毒模型对一些潜在的触发样本造成误分类的现象,将会对人工智能安全乃至人生安全产生严重的威胁。因此建立深度学习的中毒防御是必要的。
现有的用于对抗中毒攻击的方法如公开号为CN112905997A的中国专利申请中公开的面向深度学习模型中毒攻击的检测方法、装置及系统,包括如下步骤:获取样本集和待检测模型;预训练与待检测模型结构相同的良性模型;对部分样本进行数据增广,组成新样本集;将每一类新样本作为目标类,剩下的所有类新样本作为源类,对预训练后的良性模型进行目标类的多种中毒攻击,获得多种中毒模型和多种中毒样本;获得中毒样本在所有非所出中毒模型下的检测结果,依据检测结果筛选并构建中毒模型池和中毒样本池;依据中毒样本在待检测深度学习模型的检测结果和中毒样本在非所出中毒模型下的检测结果来判断待检测深度学习模型是否中毒。来实现对面向深度学习模型中毒攻击的快速准确检测。
上述专利申请公开的方法仅能对中毒攻击进行检测,并未形成防御机制,用于对抗中毒攻击不够完善。
发明内容
为解决现有技术中存在的问题,本发明提供一种基于神经通路的深度学习的中毒防御方法及装置,通过模拟异常样本在深度学习模型中的数据流动过程增加防御机制,从而使深度学习模型在实际部署和应用时更加安全可靠。
一种基于神经通路的深度学习的中毒防御方法,包括如下步骤:
(1)获取图像数据集;
(2)根据获取的图像数据集预训练样本在模型卷积层与池化层的嵌入特征;
(3)根据预训练好的中毒深度学习模型构建Top-k神经通路;
(4)根据Top-k神经通路构建防御机制;
(5)对防御机制进行评估。
步骤(1)中所述的图像数据集包括MNIST数据集、CIFAR-10数据集和ImageNet数据集,将获取的图像数据集保存为X以及每张图像相应的类标Y。
步骤(2)中所述的预训练中毒深度学习模型包括如下步骤:
(2.1)将图像数据集按预设比例划分为训练集和测试集,通过one-hot编码将图片数据集中每个样本的标签转化为一维向量;
(2.2)收集并保存模型中毒攻击方法;
(2.3)选取中毒攻击方法,利用该中毒攻击方法对对获取的图像数据进行下毒操作,并将中毒的图像数据混入到干净样本中进行模型训练。
中毒攻击方法包括BadNets、Dynamic Backdoor Attack、Feature CollisionAttack和Trojan Attack等。
所述步骤(3)中构建Top-k神经通路包括如下步骤:
(3.1)利用干净图像数据构建特征图通路,将特征图中激活值最大的Top-k神经元进行累加,构成损失函数:
Figure GDA0003669749750000031
Figure GDA0003669749750000032
其中,TKFeature(X)表示取X样本集中的Top-k特征图通路,λ表示平衡参数;maxk(femb(xi))表示第e层激活值最大的k个特征图;femb(xi)为样本在中毒深度学习模型卷积层与池化层的嵌入特征,xi∈X,i=1,2,...;
Figure GDA0003669749750000033
表示取当xi∈X,i=1,2,...时,激活值最大的前k个特征图的集合。
N={n1,n2,...}为深度学习模型的一组神经元,将干净图像数据集X输入到步骤(2.3)预训练好的中毒深度学习模型f(·)中,并计算样本在中毒深度学习模型f(·)卷积层与池化层的嵌入特征femb(xi);
(3.2)通过对像素值进行变异构建变异样本,通过对损失函数梯度上升作为导向对原始图像的像素进行改变,即:
Figure GDA0003669749750000034
xi′=xi+s*grad
其中s为迭代步长,xi∈X,i=1,2,...,xi'表示由xi像素改变的后得到的样本;
改变图像的像素值时需满足:
Figure GDA0003669749750000035
其中,L0表示已更改像素的最大数量;L∞表示像素更改的最大值;size(xi)是图像中0<xi的像素数量;0<α,β<1;
(3.3)从步骤(2.1)中选取的数据集的测试集中随机选取样本作为测试种子样本输入到给定深度学习模型中Top-k整体神经通路定义如下:
Figure GDA0003669749750000036
其中,N={n1,n2,...}为深度学习模型的一组神经元;T={x'1,x'2,...}为深度学习模型的一组变异输入;φi(x',n)代表在给定输入x'i∈T,n∈N时,第i层所得到的神经元输出值,maxki(x',n))表示第i层激活值最大的k个神经元。
将神经网络的前向传播过程表示为f:RD→RC,其中D表示输入的维度,C表示输出的维度。对于L层网络结构,以输入的某个神经元为起始节点,每层中间运算层的某个神经元为中间节点,最后输出的某个神经元为末节点,节点间串联构成一条有向无环图,这就是主要研究的第L-1级神经通路,称为最长神经通路,定义为集合PL-1={pL-1(1,·,...,·)}。对集合中所有神经通路的计算构成了神经网络的前向传播过程,并且决定了最后的输出结果。由于卷积层、池化层和全连接层对于深度学习模型分类过程的意义不同,卷积层、池化层主要用于模拟中毒数据特征提取过程,对下层起导向作用;全连接层则是图像增加的扰动像素的直观表现形式,因此将对两部分分别构建神经通路。
所述步骤(4)中构建防御机制包括如下步骤:
(4.1)通过神经通路的激活状态增加人工神经元;
对每层神经元后安插一层人工神经元作为评判指标,假设i层有p个神经元,则每层神经元激活值记为
Figure GDA0003669749750000041
神经元的激活值与该层权重
Figure GDA0003669749750000042
密切相关,则触发人工神经元AT激活的条件为:
Figure GDA0003669749750000043
当输入样本的进入该层,该层激活值达到阈值θT,说明可能触发潜在后门最终导致深度学习模型发生错误,需要通过人工神经元来进行调整;
(4.2)计算连接下层神经元的权重;
设正常输入时第i+1层神经元的激活值为Zi+1,通路产生的样本刺激时得到的激活值记为
Figure GDA0003669749750000044
我们利用函数计算需要的优化权重向量ζ*
Figure GDA0003669749750000045
Figure GDA0003669749750000046
其中,wi+1为下层神经元的权重。
所述步骤(5)中对防御机制进行评估包括如下步骤:
(5.1)将步骤(3.2)中生成的变异样本输入到增加防御机制后的深度学习模型中,统计模型的标签变化率:
Figure GDA0003669749750000051
Figure GDA0003669749750000052
小于一定阈值Tth说明模型得到了一定的修复,当
Figure GDA0003669749750000053
小于一定阈值Tth重复步骤(3);且
Figure GDA0003669749750000054
值越大表示模型防御效果越好;
其中,
Figure GDA0003669749750000055
衡量测试模型的敏感性。
本发明还提供一种基于神经通路的深度学习的中毒防御装置,包括:
收集模块,收集图像并对图像进行整理分类;
预训练模块,根据获得的图像进行中毒,预训练中毒深度学习模型;
构建通路模块,利用卷积和池化层构建初始化变异种子,通过对模型进行刺激模拟触发样本的数据流动方向;
构建防御机制模块,通过神经通路的激活状态增加人工神经元,并获得连接下层神经元的权重;
评估模块,通过评估防御后模型与防御前模型的敏感性指标来评判是否需要迭代,当敏感性指标大于一定阈值则表明模型达到一定程度上的修复。
与现有技术相比,本发明的有益效果在于:
1、通过模拟异常样本在深度学习模型中的数据流动过程增加防御机制,从而使深度学习模型在实际部署和应用时更加安全可靠。
附图说明
图1是本发明提供的基于神经通路的深度学习的中毒防御方法框图;
图2是本发明提供的基于神经通路的深度学习的中毒防御装置的结构示意图。
具体实施方式
下面结合附图和具体实施例,对本发明的方案作进一步说明。
基于神经通路的深度学习的中毒防御方法,利用中毒模型,通过特征提取层产生导向性样本从而构建深度学习模型的关键神经通路,模拟触发样本的数据流动过程,对激活值异常的神经元通过人工神经元来抑制激活值,增加新的权重使得模型实现自我防御机制。
图1为本实施例提供的基于神经通路的深度学习的中毒防御方法框图。实施例提供的基于神经通路的深度学习的中毒防御方法可以用于自动驾驶领域,深度学习模型依据采集的图像数据构建神经通路,用于建立防御机制,以保证自动驾驶的安全性。如图1所示,基于神经通路的深度学习的中毒防御方法包括如下步骤:
获取图像数据集并选择干净样本构建神经通路;通过深度神经网络(CNN)的出特征图;利用特征图构建TOP-K特征图并得出损失函数:
Figure GDA0003669749750000061
Figure GDA0003669749750000062
计算损失函数的梯度;
Figure GDA0003669749750000063
xi′=xi+s*grad
并构建变异样本,将变异样本反馈至CNN;
根据预训练好的中毒深度学习模型构建Top-k神经通路;Top-k神经通路定义如下:
Figure GDA0003669749750000064
根据Top-k神经通路构建防御机制;对每层神经元后安插一层人工神经元作为评判指标,假设i层有p个神经元,则每层神经元激活值记为
Figure GDA0003669749750000065
神经元的激活值与该层权重
Figure GDA0003669749750000066
密切相关,则触发人工神经元激活的条件为:
Figure GDA0003669749750000067
当输入样本的进入该层,该层激活值达到阈值θT,说明可能触发潜在后门最终导致深度学习模型发生错误,需要通过人工神经元来进行调整;
计算人工神经元连接的权重,具体操作包括:
设正常输入时第i+1层神经元的激活值为Zi+1,通路产生的样本刺激时得到的激活值记为
Figure GDA0003669749750000071
我们利用函数计算需要的优化权重向量ζ*
Figure GDA0003669749750000072
Figure GDA0003669749750000073
即获得连接下层的权重。
对防御机制进行评估;
将生成的变异样本输入到增加防御机制后的深度学习模型中,统计模型的标签变化率:
Figure GDA0003669749750000074
其中,
Figure GDA0003669749750000075
衡量测试模型的敏感性,值越大表示模型防御效果越好。当
Figure GDA0003669749750000076
小于一定阈值Tth则重复步骤3,否则则说明模型得到了一定的修复。
图2为本实施例提供的基于神经通路的深度学习的中毒防御装置的结构示意图。如图2所示,
基于神经通路的深度学习的中毒防御装置,包括:
收集模块,收集图像并对图像进行整理分类;
预训练模块,根据获得的图像进行中毒,预训练中毒深度学习模型;
构建通路模块,利用卷积和池化层构建初始化变异种子,通过对模型进行刺激模拟触发样本的数据流动方向;
构建防御机制模块,通过神经通路的激活状态增加人工神经元,并获得连接下层神经元的权重;
评估模块,通过评估防御后模型与防御前模型的敏感性指标来评判是否需要迭代,当敏感性指标大于一定阈值则表明模型达到一定程度上的修复。

Claims (4)

1.一种基于神经通路的深度学习的中毒防御方法,其特征在于,包括如下步骤:
(1)获取图像数据集;
(2)根据获取的图像数据集预训练中毒深度学习模型;
(3)根据预训练好的中毒深度学习模型构建Top-k神经通路;
构建Top-k神经通路包括如下步骤:
(3.1)利用干净图像数据构建特征图通路,将特征图中激活值最大的Top-k神经元进行累加,构成损失函数:
Figure FDA0003669749740000011
Figure FDA0003669749740000012
其中,TKFeature(X)表示取X样本集中的Top-k特征图通路,λ表示平衡参数;maxk(femb(xi))表示第e层激活值最大的k个特征图;femb(xi)为样本在中毒深度学习模型卷积层与池化层的嵌入特征,xi∈X,i=1,2,...;
Figure FDA0003669749740000013
表示取当xi∈X,i=1,2,...时,激活值最大的前k个特征图的集合;
(3.2)通过对像素值进行变异构建变异样本,通过对损失函数梯度上升作为导向对原始图像的像素进行改变,即:
Figure FDA0003669749740000014
x′i=xi+s*grad
其中s为迭代步长,xi∈X,i=1,2,...,xi'表示由xi像素改变的后得到的样本;
(3.3)Top-k整体神经通路定义如下:
Figure FDA0003669749740000015
其中,N={n1,n2,...}为深度学习模型的一组神经元;T={x'1,x'2,...}为深度学习模型的一组变异输入;φi(x',n)代表在给定输入x'i∈T,n∈N时,第i层所得到的神经元输出值,maxki(x',n))表示第i层激活值最大的k个神经元;
(4)根据Top-k神经通路构建防御机制;
构建防御机制包括如下步骤:
(4.1)通过神经通路的激活状态增加人工神经元;
对每层神经元后安插一层人工神经元作为评判指标,假设i层有p个神经元,则每层神经元激活值记为
Figure FDA0003669749740000021
神经元的激活值与该层权重
Figure FDA0003669749740000022
密切相关,则触发人工神经元AT激活的条件为:
Figure FDA0003669749740000023
当输入样本的进入该层,该层激活值达到阈值θT,说明可能触发潜在后门最终导致深度学习模型发生错误,需要通过人工神经元来进行调整;
(4.2)计算连接下层神经元的权重;
设正常输入时第i+1层神经元的激活值为Zi+1,通路产生的样本刺激时得到的激活值记为
Figure FDA0003669749740000024
我们利用函数计算需要的优化权重向量ζ*
Figure FDA0003669749740000025
Figure FDA0003669749740000026
其中,wi+1为下层神经元的权重;
(5)对防御机制进行评估;
对防御机制进行评估包括如下步骤:
(5.1)将步骤(3.2)中生成的变异样本输入到增加防御机制后的深度学习模型中,统计模型的标签变化率:
Figure FDA0003669749740000027
Figure FDA0003669749740000028
小于一定阈值Tth说明模型得到了一定的修复,当
Figure FDA0003669749740000029
小于一定阈值Tth重复步骤(3);
其中,
Figure FDA00036697497400000210
衡量测试模型的敏感性。
2.根据权利要求1所述的基于神经通路的深度学习的中毒防御方法,其特征在于:步骤(1)中所述的图像数据集包括MNIST数据集、CIFAR-10数据集和ImageNet数据集,将获取的图像数据集保存为X以及每张图像相应的类标Y。
3.根据权利要求2所述的基于神经通路的深度学习的中毒防御方法,其特征在于,步骤(2)中所述的预训练中毒深度学习模型包括如下步骤:
(2.1)将图像数据集按预设比例划分为训练集和测试集,通过one-hot编码将图片数据集中每个样本的标签转化为一维向量;
(2.2)收集并保存模型中毒攻击方法;
(2.3)选取中毒攻击方法,利用该中毒攻击方法对获取的图像数据进行下毒操作,并将中毒的图像数据混入到干净样本中进行模型训练。
4.一种基于神经通路的深度学习的中毒防御装置,其特征在于,包括:
收集模块,收集图像并对图像进行整理分类;
预训练模块,根据获得的图像进行中毒,预训练中毒深度学习模型;
构建通路模块,利用卷积和池化层构建初始化变异种子,通过对模型进行刺激模拟触发样本的数据流动方向;
构建防御机制模块,通过神经通路的激活状态增加人工神经元,并获得连接下层神经元的权重;
评估模块,通过评估防御后模型与防御前模型的敏感性指标来评判是否需要迭代,当敏感性指标大于一定阈值则表明模型达到一定程度上的修复。
CN202110697441.1A 2021-06-23 2021-06-23 一种基于神经通路的深度学习的中毒防御方法及装置 Active CN113343225B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110697441.1A CN113343225B (zh) 2021-06-23 2021-06-23 一种基于神经通路的深度学习的中毒防御方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110697441.1A CN113343225B (zh) 2021-06-23 2021-06-23 一种基于神经通路的深度学习的中毒防御方法及装置

Publications (2)

Publication Number Publication Date
CN113343225A CN113343225A (zh) 2021-09-03
CN113343225B true CN113343225B (zh) 2022-08-05

Family

ID=77478052

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110697441.1A Active CN113343225B (zh) 2021-06-23 2021-06-23 一种基于神经通路的深度学习的中毒防御方法及装置

Country Status (1)

Country Link
CN (1) CN113343225B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3961520A1 (en) * 2020-08-14 2022-03-02 Tata Consultancy Services Limited Method and system for secure online-learning against data poisoning attack
CN113806754A (zh) * 2021-11-17 2021-12-17 支付宝(杭州)信息技术有限公司 一种后门防御方法和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110647918A (zh) * 2019-08-26 2020-01-03 浙江工业大学 面向深度学习模型对抗攻击的拟态防御方法
WO2020263389A1 (en) * 2019-06-26 2020-12-30 Hrl Laboratories, Llc System and method fdr detecting backdoor attacks in convolutional neural networks
CN112905997A (zh) * 2021-01-29 2021-06-04 浙江工业大学 面向深度学习模型中毒攻击的检测方法、装置及系统
CN112948237A (zh) * 2021-01-29 2021-06-11 浙江工业大学 基于神经通路的中毒模型测试方法、装置及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10007866B2 (en) * 2016-04-28 2018-06-26 Microsoft Technology Licensing, Llc Neural network image classifier

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020263389A1 (en) * 2019-06-26 2020-12-30 Hrl Laboratories, Llc System and method fdr detecting backdoor attacks in convolutional neural networks
CN110647918A (zh) * 2019-08-26 2020-01-03 浙江工业大学 面向深度学习模型对抗攻击的拟态防御方法
CN112905997A (zh) * 2021-01-29 2021-06-04 浙江工业大学 面向深度学习模型中毒攻击的检测方法、装置及系统
CN112948237A (zh) * 2021-01-29 2021-06-11 浙江工业大学 基于神经通路的中毒模型测试方法、装置及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Backdoor learning: A;Yiming Li;《Cryptology and Security》;20201231;全文 *
DeepPoison:Feature Transfer Based Stealthly Poisoning Attack;Jinyin Chen;《Cryptology and Security》;20210108;全文 *
Invisible Poisoning:Highly Stealthy Targeted Poisoning Attack;Jinyin Chen;《Information Security and Cryptology》;20200313;全文 *
深度学习模型的中毒攻击与防御综述;陈晋音;《信息安全学报》;20200831;全文 *

Also Published As

Publication number Publication date
CN113343225A (zh) 2021-09-03

Similar Documents

Publication Publication Date Title
CN109978893B (zh) 图像语义分割网络的训练方法、装置、设备及存储介质
US11402496B2 (en) Method and apparatus for enhancing semantic features of SAR image oriented small set of samples
Tobiyama et al. Malware detection with deep neural network using process behavior
CN106776842B (zh) 多媒体数据检测方法及装置
CN111428818B (zh) 基于神经通路激活状态的深度学习模型测试方法与装置
CN113343225B (zh) 一种基于神经通路的深度学习的中毒防御方法及装置
CN109302410B (zh) 一种内部用户异常行为检测方法、系统及计算机存储介质
KR102263397B1 (ko) 뉴럴 네트워크 학습에 이용될 오토 라벨링된 이미지 중에서 라벨 검수를 위한 샘플 이미지를 획득하는 방법 및 이를 이용한 샘플 이미지 획득 장치
CN111753881B (zh) 一种基于概念敏感性量化识别对抗攻击的防御方法
CN111783442A (zh) 入侵检测方法、设备和服务器、存储介质
CN109902018B (zh) 一种智能驾驶系统测试案例的获取方法
CN112668809B (zh) 建立自闭症儿童康复效果预测模型的方法
CN112668804A (zh) 一种地波雷达船只断裂航迹预测方法
KR20200095334A (ko) 이미지를 분석하기 위해, 딥러닝 네트워크에 이용하기 위한 트레이닝 이미지에 대한 라벨링 신뢰도를 자동으로 평가하기 위한 방법 및 이를 이용한 신뢰도 평가 장치
CN113297572B (zh) 基于神经元激活模式的深度学习样本级对抗攻击防御方法及其装置
CN114118361A (zh) 一种基于深度学习参数锚定的态势评估方法
CN115081618A (zh) 一种提升深度神经网络模型鲁棒性的方法及装置
Ding et al. Towards backdoor attack on deep learning based time series classification
CN110769196A (zh) 一种用于非连续监控路段的视频预测方法
CN112818774A (zh) 一种活体检测方法及装置
CN115861804A (zh) 基于最优特征归因选择的sar图像对抗样本检测系统与方法
CN113468046B (zh) 一种面向多目标的dnn模型的诱导输入生成的方法
CN113902954A (zh) 基于主特征增强的图像中毒防御方法、装置及其应用
CN113239809A (zh) 基于多尺度稀疏sru分类模型的水声目标识别方法
Carrara et al. Defending neural ODE image classifiers from adversarial attacks with tolerance randomization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant