CN113343225A - 一种基于神经通路的深度学习的中毒防御方法及装置 - Google Patents

一种基于神经通路的深度学习的中毒防御方法及装置 Download PDF

Info

Publication number
CN113343225A
CN113343225A CN202110697441.1A CN202110697441A CN113343225A CN 113343225 A CN113343225 A CN 113343225A CN 202110697441 A CN202110697441 A CN 202110697441A CN 113343225 A CN113343225 A CN 113343225A
Authority
CN
China
Prior art keywords
deep learning
poisoning
layer
model
neurons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110697441.1A
Other languages
English (en)
Other versions
CN113343225B (zh
Inventor
陈晋音
金海波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202110697441.1A priority Critical patent/CN113343225B/zh
Publication of CN113343225A publication Critical patent/CN113343225A/zh
Application granted granted Critical
Publication of CN113343225B publication Critical patent/CN113343225B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/55Detecting local intrusion or implementing counter-measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Security & Cryptography (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于神经通路的深度学习的中毒防御方法及装置,其中公开了基于神经通路的深度学习的中毒防御方法,利用中毒模型,通过特征提取层产生导向性样本从而构建深度学习模型的关键神经通路,模拟触发样本的数据流动过程,对激活值异常的神经元通过人工神经元来抑制激活值,增加新的权重使得模型实现自我防御机制。本发明还公开了一种基于神经通路的深度学习的中毒防御装置,包括收集模块,预训练模块,构建通路模块,构建防御机制模块,评估模块。

Description

一种基于神经通路的深度学习的中毒防御方法及装置
技术领域
本发明涉及深度学习的中毒防御领域,特别涉及一种基于神经通路的深度学习的中毒防御方法及装置。
背景技术
由于高度可并行化的算法(CNN)的新变种的发展以及针对现代图像处理单元(GPU)优化的高效并行网络框架的出现,是的深度神经网络具有十分良好的商业前景。
然而,虽然深度学习模型能较好的适用于各种场景并展现出其独有的精确、高效的性能,但它非常容易受到恶意数据的攻击。对于深度学习模型的攻击,分为对抗攻击和中毒攻击,相对对抗攻击而言,中毒攻击往往对深度学习的安全性威胁性更大。中毒攻击通常针对深度学习模型的训练阶段,通过对干净样本添加一定的扰动或将两张干净样本的特征混合实现毒药样本的构建,并标注错误的标签混入干净样本中进行训练;在预测阶段,潜在的触发样本输入到深度学习模型中,将会使模型内部发生混乱从而导致错误分类,值得注意的是,触发样本可能与干净样本无异。因此,特别是在自动驾驶和人脸识别等安全性相关领域中,注入毒药样本训练后的中毒模型对一些潜在的触发样本造成误分类的现象,将会对人工智能安全乃至人生安全产生严重的威胁。因此建立深度学习的中毒防御是必要的。
现有的用于对抗中毒攻击的方法如公开号为CN112905997A的中国专利申请中公开的面向深度学习模型中毒攻击的检测方法、装置及系统,包括如下步骤:获取样本集和待检测模型;预训练与待检测模型结构相同的良性模型;对部分样本进行数据增广,组成新样本集;将每一类新样本作为目标类,剩下的所有类新样本作为源类,对预训练后的良性模型进行目标类的多种中毒攻击,获得多种中毒模型和多种中毒样本;获得中毒样本在所有非所出中毒模型下的检测结果,依据检测结果筛选并构建中毒模型池和中毒样本池;依据中毒样本在待检测深度学习模型的检测结果和中毒样本在非所出中毒模型下的检测结果来判断待检测深度学习模型是否中毒。来实现对面向深度学习模型中毒攻击的快速准确检测。
上述专利申请公开的方法仅能对中毒攻击进行检测,并未形成防御机制,用于对抗中毒攻击不够完善。
发明内容
为解决现有技术中存在的问题,本发明提供一种基于神经通路的深度学习的中毒防御方法及装置,通过模拟异常样本在深度学习模型中的数据流动过程增加防御机制,从而使深度学习模型在实际部署和应用时更加安全可靠。
一种基于神经通路的深度学习的中毒防御方法,包括如下步骤:
(1)获取图像数据集;
(2)根据获取的图像数据集预训练样本在模型卷积层与池化层的嵌入特征;
(3)根据预训练好的中毒深度学习模型构建Top-k神经通路;
(4)根据Top-k神经通路构建防御机制;
(5)对防御机制进行评估。
步骤(1)中所述的图像数据集包括MNIST数据集、CIFAR-10数据集和ImageNet数据集,将获取的图像数据集保存为X以及每张图像相应的类标Y。
步骤(2)中所述的预训练中毒深度学习模型包括如下步骤:
(2.1)将图像数据集按预设比例划分为训练集和测试集,通过one-hot编码将图片数据集中每个样本的标签转化为一维向量;
(2.2)收集并保存模型中毒攻击方法;
(2.3)选取中毒攻击方法,利用该中毒攻击方法对对获取的图像数据进行下毒操作,并将中毒的图像数据混入到干净样本中进行模型训练。
中毒攻击方法包括BadNets、Dynamic Backdoor Attack、Feature CollisionAttack和Trojan Attack等。
所述步骤(3)中构建Top-k神经通路包括如下步骤:
(3.1)利用干净图像数据构建特征图通路,将特征图中激活值最大的Top-k神经元进行累加,构成损失函数:
Figure BDA0003129078490000031
Figure BDA0003129078490000032
其中,TKFeature(X)表示取X样本集中的Top-k特征图通路,λ表示平衡参数;maxk(·)表示该层激活值最大的k个特征图;femb(xi)为样本在中毒深度学习模型卷积层与池化层的嵌入特征卷积层与池化层的嵌入特征,xi∈X,i=1,2,...;
Figure BDA0003129078490000033
表示取当xi∈X,i=1,2,...时,激活值最大的前k个特征图的集合。
N={n1,n2,...}为深度学习模型的一组神经元,将干净图像数据集X输入到步骤(2.3)预训练好的中毒深度学习模型f(·)中,并计算样本在中毒深度学习模型f(·)卷积层与池化层的嵌入特征femb(xi)。
(3.2)通过对像素值进行变异构建变异样本,通过对损失函数梯度上升作为导向对原始图像的像素进行改变,即:
Figure BDA0003129078490000034
xi°=xi+s*grad
其中s为迭代步长,xi∈X,i=1,2,...,xi'表示由xi像素改变的后得到的样本;
改变图像的像素值时需满足:
Figure BDA0003129078490000035
其中,L0表示已更改像素的最大数量;L∞表示像素更改的最大值;size(xi)是图像中0<xi的像素数量;0<α,β<1。
(3.3)从步骤(2.1)中选取的数据集的测试集中随机选取样本作为测试种子样本输入到给定深度学习模型中Top-k整体神经通路定义如下:
Figure BDA0003129078490000036
其中,N={n1,n2,...}为深度学习模型的一组神经元;T={x'1,x'2,...}为深度学习模型的一组变异输入;φi(x',n)代表在给定输入x'i∈T,n∈N时,第i层所得到的神经元输出值,maxk(·)表示该层激活值最大的k个神经元。
将神经网络的前向传播过程表示为f:RD→RC,其中D表示输入的维度,C表示输出的维度。对于L层网络结构,以输入的某个神经元为起始节点,每层中间运算层的某个神经元为中间节点,最后输出的某个神经元为末节点,节点间串联构成一条有向无环图,这就是主要研究的第L-1级神经通路,称为最长神经通路,定义为集合PL-1={pL-1(1,·,...,·)}。对集合中所有神经通路的计算构成了神经网络的前向传播过程,并且决定了最后的输出结果。由于卷积层、池化层和全连接层对于深度学习模型分类过程的意义不同,卷积层、池化层主要用于模拟中毒数据特征提取过程,对下层起导向作用;全连接层则是图像增加的扰动像素的直观表现形式,因此将对两部分分别构建神经通路。
所述步骤(4)中构建防御机制包括如下步骤:
(4.1)通过神经通路的激活状态增加人工神经元;
对每层神经元后安插一层人工神经元作为评判指标,假设i层有p个神经元,则每层神经元激活值记为
Figure BDA0003129078490000041
神经元的激活值与该层权重
Figure BDA0003129078490000042
密切相关,则触发人工神经元AT激活的条件为:
Figure BDA0003129078490000043
当输入样本的进入该层,该层激活值达到阈值θT,说明可能触发潜在后门最终导致深度学习模型发生错误,需要通过人工神经元来进行调整;
(4.2)计算连接下层神经元的权重;
设正常输入时第i+1层神经元的激活值为Zi+1,通路产生的样本刺激时得到的激活值记为
Figure BDA0003129078490000044
我们利用函数计算需要的优化权重向量ζ*
Figure BDA0003129078490000045
Figure BDA0003129078490000046
其中,wi+1为下层神经元的权重。
所述步骤(5)中对防御机制进行评估包括如下步骤:
(5.1)将步骤(3.2)中生成的变异样本输入到增加防御机制后的深度学习模型中,统计模型的标签变化率:
Figure BDA0003129078490000051
Figure BDA0003129078490000052
小于一定阈值Tth说明模型得到了一定的修复,当
Figure BDA0003129078490000053
小于一定阈值Tth重复步骤(3);且
Figure BDA0003129078490000054
值越大表示模型防御效果越好;
其中,
Figure BDA0003129078490000055
衡量测试模型的敏感性。
本发明还提供一种基于神经通路的深度学习的中毒防御装置,包括:
收集模块,收集图像并对图像进行整理分类;
预训练模块,根据获得的图像进行中毒,预训练中毒深度学习模型;
构建通路模块,利用卷积和池化层构建初始化变异种子,通过对模型进行刺激模拟触发样本的数据流动方向;
构建防御机制模块,通过神经通路的激活状态增加人工神经元,并获得连接下层神经元的权重;
评估模块,通过评估防御后模型与防御前模型的敏感性指标来评判是否需要迭代,当敏感性指标大于一定阈值则表明模型达到一定程度上的修复。
与现有技术相比,本发明的有益效果在于:
1、通过模拟异常样本在深度学习模型中的数据流动过程增加防御机制,从而使深度学习模型在实际部署和应用时更加安全可靠。
附图说明
图1是本发明提供的基于神经通路的深度学习的中毒防御方法框图;
图2是本发明提供的基于神经通路的深度学习的中毒防御装置的结构示意图。
具体实施方式
下面结合附图和具体实施例,对本发明的方案作进一步说明。
基于神经通路的深度学习的中毒防御方法,利用中毒模型,通过特征提取层产生导向性样本从而构建深度学习模型的关键神经通路,模拟触发样本的数据流动过程,对激活值异常的神经元通过人工神经元来抑制激活值,增加新的权重使得模型实现自我防御机制。
图1为本实施例提供的基于神经通路的深度学习的中毒防御方法框图。实施例提供的基于神经通路的深度学习的中毒防御方法可以用于自动驾驶领域,深度学习模型依据采集的图像数据构建神经通路,用于建立防御机制,以保证自动驾驶的安全性。如图1所示,基于神经通路的深度学习的中毒防御方法包括如下步骤:
获取图像数据集并选择干净样本构建神经通路;通过深度神经网络(CNN)的出特征图;利用特征图构建TOP-K特征图并得出损失函数:
Figure BDA0003129078490000061
Figure BDA0003129078490000062
计算损失函数的梯度;
Figure BDA0003129078490000063
xi′=xi+s*grad
并构建变异样本,将变异样本反馈至CNN;
根据预训练好的中毒深度学习模型构建Top-k神经通路;Top-k神经通路定义如下:
Figure BDA0003129078490000064
根据Top-k神经通路构建防御机制;对每层神经元后安插一层人工神经元作为评判指标,假设i层有p个神经元,则每层神经元激活值记为
Figure BDA0003129078490000065
神经元的激活值与该层权重
Figure BDA0003129078490000066
密切相关,则触发人工神经元激活的条件为:
Figure BDA0003129078490000067
当输入样本的进入该层,该层激活值达到阈值θT,说明可能触发潜在后门最终导致深度学习模型发生错误,需要通过人工神经元来进行调整;
计算人工神经元连接的权重,具体操作包括:
设正常输入时第i+1层神经元的激活值为Zi+1,通路产生的样本刺激时得到的激活值记为
Figure BDA0003129078490000071
我们利用函数计算需要的优化权重向量ζ*
Figure BDA0003129078490000072
Figure BDA0003129078490000073
即获得连接下层的权重。
对防御机制进行评估;
将生成的变异样本输入到增加防御机制后的深度学习模型中,统计模型的标签变化率:
Figure BDA0003129078490000074
其中,
Figure BDA0003129078490000075
衡量测试模型的敏感性,值越大表示模型防御效果越好。当
Figure BDA0003129078490000076
小于一定阈值Tth则重复步骤3,否则则说明模型得到了一定的修复。
图2为本实施例提供的基于神经通路的深度学习的中毒防御装置的结构示意图。如图2所示,
基于神经通路的深度学习的中毒防御装置,包括:
收集模块,收集图像并对图像进行整理分类;
预训练模块,根据获得的图像进行中毒,预训练中毒深度学习模型;
构建通路模块,利用卷积和池化层构建初始化变异种子,通过对模型进行刺激模拟触发样本的数据流动方向;
构建防御机制模块,通过神经通路的激活状态增加人工神经元,并获得连接下层神经元的权重;
评估模块,通过评估防御后模型与防御前模型的敏感性指标来评判是否需要迭代,当敏感性指标大于一定阈值则表明模型达到一定程度上的修复。

Claims (7)

1.一种基于神经通路的深度学习的中毒防御方法,其特征在于,包括如下步骤:
(1)获取图像数据集;
(2)根据获取的图像数据集预训练中毒深度学习模型;
(3)根据预训练好的中毒深度学习模型构建Top-k神经通路;
(4)根据Top-k神经通路构建防御机制;
(5)对防御机制进行评估。
2.根据权利要求1所述的基于神经通路的深度学习的中毒防御方法,其特征在于:步骤(1)中所述的图像数据集包括MNIST数据集、CIFAR-10数据集和ImageNet数据集,将获取的图像数据集保存为X以及每张图像相应的类标Y。
3.根据权利要求2所述的基于神经通路的深度学习的中毒防御方法,其特征在于,步骤(2)中所述的预训练中毒深度学习模型包括如下步骤:
(2.1)将图像数据集按预设比例划分为训练集和测试集,通过one-hot编码将图片数据集中每个样本的标签转化为一维向量;
(2.2)收集并保存模型中毒攻击方法;
(2.3)选取中毒攻击方法,利用该中毒攻击方法对获取的图像数据进行下毒操作,并将中毒的图像数据混入到干净样本中进行模型训练。
4.根据权利要求3所述的基于神经通路的深度学习的中毒防御方法,其特征在于,所述步骤(3)中构建Top-k神经通路包括如下步骤:
(3.1)利用干净图像数据构建特征图通路,将特征图中激活值最大的Top-k神经元进行累加,构成损失函数:
Figure FDA0003129078480000011
Figure FDA0003129078480000012
其中,TKFeature(X)表示取X样本集中的Top-k特征图通路,λ表示平衡参数;maxk(·)表示该层激活值最大的k个特征图;femb(xi)为样本在中毒深度学习模型卷积层与池化层的嵌入特征卷积层与池化层的嵌入特征,xi∈X,i=1,2,...;
Figure FDA0003129078480000013
表示取当xi∈X,i=1,2,...时,激活值最大的前k个特征图的集合。
(3.2)通过对像素值进行变异构建变异样本,通过对损失函数梯度上升作为导向对原始图像的像素进行改变,即:
Figure FDA0003129078480000021
xi′=xi+s*grad
其中s为迭代步长,xi∈X,i=1,2,...,xi'表示由xi像素改变的后得到的样本;
(3.3)Top-k整体神经通路定义如下:
Figure FDA0003129078480000022
其中,N={n1,n2,...}为深度学习模型的一组神经元;T={x'1,x'2,...}为深度学习模型的一组变异输入;φi(x',n)代表在给定输入x'i∈T,n∈N时,第i层所得到的神经元输出值,maxk(·)表示该层激活值最大的k个神经元。
5.根据权利要求4所述的基于神经通路的深度学习的中毒防御方法,其特征在于,所述步骤(4)中构建防御机制包括如下步骤:
(4.1)通过神经通路的激活状态增加人工神经元;
对每层神经元后安插一层人工神经元作为评判指标,假设i层有p个神经元,则每层神经元激活值记为
Figure FDA0003129078480000023
神经元的激活值与该层权重
Figure FDA0003129078480000024
密切相关,则触发人工神经元AT激活的条件为:
Figure FDA0003129078480000025
当输入样本的进入该层,该层激活值达到阈值θT,说明可能触发潜在后门最终导致深度学习模型发生错误,需要通过人工神经元来进行调整;
(4.2)计算连接下层神经元的权重;
设正常输入时第i+1层神经元的激活值为Zi+1,通路产生的样本刺激时得到的激活值记为
Figure FDA0003129078480000026
我们利用函数计算需要的优化权重向量ζ*
Figure FDA0003129078480000031
Figure FDA0003129078480000032
其中,wi+1为下层神经元的权重。
6.根据权利要求5所述的基于神经通路的深度学习的中毒防御方法,其特征在于,所述步骤(5)中对防御机制进行评估包括如下步骤:
(5.1)将步骤(3.2)中生成的变异样本输入到增加防御机制后的深度学习模型中,统计模型的标签变化率:
Figure FDA0003129078480000033
Figure FDA0003129078480000034
小于一定阈值Tth说明模型得到了一定的修复,当
Figure FDA0003129078480000035
小于一定阈值Tth重复步骤(3);
其中,
Figure FDA0003129078480000036
衡量测试模型的敏感性。
7.一种基于神经通路的深度学习的中毒防御装置,其特征在于,包括:
收集模块,收集图像并对图像进行整理分类;
预训练模块,根据获得的图像进行中毒,预训练中毒深度学习模型;
构建通路模块,利用卷积和池化层构建初始化变异种子,通过对模型进行刺激模拟触发样本的数据流动方向;
构建防御机制模块,通过神经通路的激活状态增加人工神经元,并获得连接下层神经元的权重;
评估模块,通过评估防御后模型与防御前模型的敏感性指标来评判是否需要迭代,当敏感性指标大于一定阈值则表明模型达到一定程度上的修复。
CN202110697441.1A 2021-06-23 2021-06-23 一种基于神经通路的深度学习的中毒防御方法及装置 Active CN113343225B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110697441.1A CN113343225B (zh) 2021-06-23 2021-06-23 一种基于神经通路的深度学习的中毒防御方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110697441.1A CN113343225B (zh) 2021-06-23 2021-06-23 一种基于神经通路的深度学习的中毒防御方法及装置

Publications (2)

Publication Number Publication Date
CN113343225A true CN113343225A (zh) 2021-09-03
CN113343225B CN113343225B (zh) 2022-08-05

Family

ID=77478052

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110697441.1A Active CN113343225B (zh) 2021-06-23 2021-06-23 一种基于神经通路的深度学习的中毒防御方法及装置

Country Status (1)

Country Link
CN (1) CN113343225B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113806754A (zh) * 2021-11-17 2021-12-17 支付宝(杭州)信息技术有限公司 一种后门防御方法和系统
US20220050928A1 (en) * 2020-08-14 2022-02-17 Tata Consultancy Services Limited Method and system for secure online-learning against data poisoning attack

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170316281A1 (en) * 2016-04-28 2017-11-02 Microsoft Technology Licensing, Llc Neural network image classifier
CN110647918A (zh) * 2019-08-26 2020-01-03 浙江工业大学 面向深度学习模型对抗攻击的拟态防御方法
WO2020263389A1 (en) * 2019-06-26 2020-12-30 Hrl Laboratories, Llc System and method fdr detecting backdoor attacks in convolutional neural networks
CN112905997A (zh) * 2021-01-29 2021-06-04 浙江工业大学 面向深度学习模型中毒攻击的检测方法、装置及系统
CN112948237A (zh) * 2021-01-29 2021-06-11 浙江工业大学 基于神经通路的中毒模型测试方法、装置及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170316281A1 (en) * 2016-04-28 2017-11-02 Microsoft Technology Licensing, Llc Neural network image classifier
WO2020263389A1 (en) * 2019-06-26 2020-12-30 Hrl Laboratories, Llc System and method fdr detecting backdoor attacks in convolutional neural networks
CN110647918A (zh) * 2019-08-26 2020-01-03 浙江工业大学 面向深度学习模型对抗攻击的拟态防御方法
CN112905997A (zh) * 2021-01-29 2021-06-04 浙江工业大学 面向深度学习模型中毒攻击的检测方法、装置及系统
CN112948237A (zh) * 2021-01-29 2021-06-11 浙江工业大学 基于神经通路的中毒模型测试方法、装置及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JINYIN CHEN: "DeepPoison:Feature Transfer Based Stealthly Poisoning Attack", 《CRYPTOLOGY AND SECURITY》 *
JINYIN CHEN: "Invisible Poisoning:Highly Stealthy Targeted Poisoning Attack", 《INFORMATION SECURITY AND CRYPTOLOGY》 *
YIMING LI: "Backdoor learning: A", 《CRYPTOLOGY AND SECURITY》 *
陈晋音: "深度学习模型的中毒攻击与防御综述", 《信息安全学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220050928A1 (en) * 2020-08-14 2022-02-17 Tata Consultancy Services Limited Method and system for secure online-learning against data poisoning attack
US11829193B2 (en) * 2020-08-14 2023-11-28 Tata Consultancy Services Limited Method and system for secure online-learning against data poisoning attack
CN113806754A (zh) * 2021-11-17 2021-12-17 支付宝(杭州)信息技术有限公司 一种后门防御方法和系统

Also Published As

Publication number Publication date
CN113343225B (zh) 2022-08-05

Similar Documents

Publication Publication Date Title
Tobiyama et al. Malware detection with deep neural network using process behavior
CN109978893B (zh) 图像语义分割网络的训练方法、装置、设备及存储介质
Tikhonov et al. Using joint species distribution models for evaluating how species‐to‐species associations depend on the environmental context
CN106776842B (zh) 多媒体数据检测方法及装置
CN111428818B (zh) 基于神经通路激活状态的深度学习模型测试方法与装置
CN113343225B (zh) 一种基于神经通路的深度学习的中毒防御方法及装置
Inazumi et al. Artificial intelligence system for supporting soil classification
CN109302410B (zh) 一种内部用户异常行为检测方法、系统及计算机存储介质
CN109902018B (zh) 一种智能驾驶系统测试案例的获取方法
CN111783442A (zh) 入侵检测方法、设备和服务器、存储介质
Jain et al. Neural network based non‐invasive method to detect anemia from images of eye conjunctiva
Wang et al. Densely connected convolutional networks for vibration based structural damage identification
CN112668809B (zh) 建立自闭症儿童康复效果预测模型的方法
CN112668804A (zh) 一种地波雷达船只断裂航迹预测方法
CN113297572B (zh) 基于神经元激活模式的深度学习样本级对抗攻击防御方法及其装置
CN112285664A (zh) 一种雷达-飞行器体系对抗仿真置信度评估方法
CN114118361A (zh) 一种基于深度学习参数锚定的态势评估方法
CN114692156A (zh) 内存片段恶意代码入侵检测方法、系统、存储介质及设备
Ding et al. Towards backdoor attack on deep learning based time series classification
CN110769196A (zh) 一种用于非连续监控路段的视频预测方法
Azari et al. Modeling the Neuman’s well function by an artificial neural network for the determination of unconfined aquifer parameters
KR20190100518A (ko) 소프트 타겟 학습 기법에 의해 경량화된 랜덤 포레스트 분류 방법을 이용한 보행자 검출 방법 및 시스템
Saad et al. Recognizing the ripeness of bananas using artificial neural network based on histogram approach
WO2023212804A1 (en) Producing an augmented dataset to improve performance of a machine learning model
CN115392434A (zh) 一种基于图结构变异测试的深度模型加固方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant