CN117332409A - 一种针对图像分类模型的窃取攻击检测方法 - Google Patents
一种针对图像分类模型的窃取攻击检测方法 Download PDFInfo
- Publication number
- CN117332409A CN117332409A CN202311374247.5A CN202311374247A CN117332409A CN 117332409 A CN117332409 A CN 117332409A CN 202311374247 A CN202311374247 A CN 202311374247A CN 117332409 A CN117332409 A CN 117332409A
- Authority
- CN
- China
- Prior art keywords
- decision tree
- sample set
- tree model
- sample
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000013145 classification model Methods 0.000 title claims abstract description 10
- 238000003066 decision tree Methods 0.000 claims abstract description 56
- 238000012549 training Methods 0.000 claims abstract description 23
- 238000001514 detection method Methods 0.000 claims abstract description 19
- 238000004364 calculation method Methods 0.000 claims abstract description 13
- 238000000638 solvent extraction Methods 0.000 claims description 16
- 238000012795 verification Methods 0.000 claims description 8
- 238000005192 partition Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 3
- 239000000523 sample Substances 0.000 description 50
- 238000010801 machine learning Methods 0.000 description 5
- 230000007547 defect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 239000013074 reference sample Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/55—Detecting local intrusion or implementing counter-measures
- G06F21/556—Detecting local intrusion or implementing counter-measures involving covert channels, i.e. data leakage between processes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/96—Management of image or video recognition tasks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Computer Security & Cryptography (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种针对图像分类模型的窃取攻击检测方法,实现步骤为:初始化数据集;构建决策树模型;对决策树模型进行训练;计算训练后的两个决策树模型信息增益的差值;计算良性样本集和待检测样本集中OOD图像所占比例的差值;获取窃取攻击检测结果。本发明通过训练后的两个决策树模型信息增益的差值以及良性样本集和待检样本集中OOD图像所占比例的差值的加权求和结果判断模型是否受到窃取攻击,信息增益能够有效地检测到攻击者和良性用户之间的查询分布差异,进而保证了较高的检测准确率;OOD图像所占的比例可以在用户进行少量查询输入时,即可判断该用户是否为模型窃取攻击者,降低了计算开销。
Description
技术领域
本发明属于机器学习模型安全技术领域,涉及一种针对图像分类模型的窃取攻击检测方法,可应用于信息安全行业、金融服务、医疗保健和电子商务等领域。
背景技术
近年来,随着互联网技术的快速发展,数据的产生量呈现爆炸式增长,这也催生了机器学习模型的兴起,并日益普及。其中基于深度神经网络的深度学习模型广泛应用于计算机视觉、图像分类、自然语言处理等领域。由于收集数据并训练一个高性能的深度神经网络模型需要耗费巨大的财力和人力,这也推动了一种新的商业模式——机器学习即服务(MLaaS)的兴起。服务提供商将模型本身部署在安全的云服务器上,向没有资源训练模型的用户提供服务,只有管理者才能访问模型的参数和架构,用户只能通过基于云的应用程序接口(API)进行黑盒查询并获得模型的输出预测。
最近的研究表明,部署在MLaaS上的模型容易受到模型窃取攻击,攻击者即使在数据受限的情况下,也能通过黑盒查询获取目标模型内部参数或构造一个无限逼近目标模型的替代模型,从而达到窃取模型信息的目的,这种攻击称为模型窃取攻击。这些模型可以在攻击者手中以各种方式被滥用,例如攻击者可以使用复制的模型来向用户提供同样的服务,从而侵犯模型拥有者的利益。此外,目标模型可用于制作对抗性样本,通过成员推理攻击损害用户隐私,并通过模型反演攻击泄露用于训练模型的敏感用户数据。在此背景下,检测模型窃取攻击对机器学习即服务提供商至关重要。
在现有的技术中,针对模型窃取攻击的检测方法主要通过检测用户的查询分布与良性查询分布之间的差异来判断用户是否为攻击者。攻击者想要达到窃取目标模型信息的目的往往需要对目标模型进行大量的查询,因此攻击者的查询行为与良性行为会有较大的不同。但现有针对模型窃取攻击的检测方法仍存在以下不足:通过攻击者采用向与目标模型训练数据同分布的一小部分种子样本中添加轻微的噪声的方法来构建攻击数据集,从而增加样本的隐蔽性,但如果想要检测到攻击者和良性用户之间这种轻微的查询分布差异,并保持较高的检测准确率,则需要对攻击者大量的查询数据进行检测,这会造成较大的计算开销。
例如北京理工大学在其申请的专利文献“结合训练集数据分布和W距离的模型窃取检测方法”(专利申请号:CN202211346069.0,申请公布号:CN115935179A)中,公开了一种结合训练集数据分布和W距离的模型窃取检测方法,该发明首先利用VAE方法对训练集和查询集降维;其次利用极大似然估计计算查询集概率分布,依概率分布采样得到多组待检测样本;随后,对每组待检测样本,在训练集中随机采样得到相同数量的参考样本,计算每组待检测样本与参考样本间的W距离;最后,使用参考样本中类别数和总类别数的比值为权值,加权计算所有的W距离,当加权计算结果大于检测阈值时判定检测出为模型窃取。该发明提出关联训练集数据分布的模型窃取检测方法,同时考虑查询集和训练集样本分布特点,改进W距离计算方法,有效提升模型窃取检测的准确率。该方法存在的不足在于需要采样得到多组待检测样本,并需要计算每组待检测样本与参考样本间的W距离,这要求查询集包含较大的数量,会造成较大的计算开销。
发明内容
本发明的目的在于克服上述现有技术存在的不足,提出了一种针对图像分类模型的窃取攻击检测方法,旨在保持较高检测准确率的前提下降低计算开销。
为实现上述目的,本发明采取的技术方案包括如下步骤:
(1)初始化数据集:
将从图像分类模型的训练集中选取的包括K个目标类别的M幅图像Dtr-d及其对应的标签Dtr-l构成良性样本集A,N幅图像及其对应的标签构成验证样本集S,将从待检测用户的查询数据集中选取的M幅图像构成待检测图像Duser及其对应的标签Dlabel构成待检样本集B,其中,M≥100,N≥100,K≥2;
(2)构建决策树模型:
构建以良性样本集A中图像的每个像素值作为特征属性,以信息增益为划分准则,在分裂时考虑所有特征属性的第一决策树模型Ta,和以待检样本集B中图像的每个像素值作为特征属性,以信息增益为划分准则,在分裂时考虑所有特征属性的第二决策树模型Tb,并初始化Ta和Tb的深度为md,最大深度为MD,叶子节点所需的最小样本数为ML;
(3)对决策树模型进行训练:
通过良性样本集A、待检样本集B分别对第一决策树模型Ta、第二决策树模型Tb进行训练,得到训练后的第一决策树模型To和第二决策树模型Tu;
(4)计算训练后的两个决策树模型信息增益的差值:
将验证样本集S分别作为训练后的第一决策树模型To和第二决策树模型Tu的输入进行分类,并通过分类结果计算To、Tu的信息增益InG(S,To)、InG(S,Tu),然后计算InG(S,To)与InG(S,Tu)的差值H1=|InG(S,To)-InG(S,Tu)|;
(5)计算良性样本集和待检样本集中OOD图像所占比例的差值:
对良性样本集A和待检样本集B中的每个标签进行归一化,并将归一化得到的每个软标签中的最大值pmax与预先设定的阈值α满足pmax<α时该软标签对应的图像作为OOD图像,否则作为ID图像,然后计算A、B中OOD图像所占比例Po、Pu,再计算Po与Pu的差值H2=|Po-Pu|;
(6)获取窃取攻击检测结果:
对InG(S,To)与InG(S,Tu)的差值H1和Po与Pu的差值H2进行加权求和,并判断加权求和的结果H与设定的窃取攻击检测阈值τ是否满足H>τ,若是,用户认定为模型窃取攻击者,反之则认定为良性用户。
本发明与现有技术相比,具有以下优点:
本发明通过训练后的两个决策树模型信息增益的差值以及良性样本集和待检样本集中OOD图像所占比例的差值的加权求和结果判断模型是否受到窃取攻击,信息增益能够有效地检测到攻击者和良性用户之间的查询分布差异,进而保证了较高的检测准确率;OOD图像所占的比例可以在用户进行少量查询输入时,即可判断该用户是否为模型窃取攻击者,降低了计算开销;与现有技术相比,在保持较高检测准确率的前提下,降低了检测过程中的计算开销。
附图说明
图1为本发明的实现流程图。
具体实施方式
下面结合附图和具体实施例,对本发明作进一步详细描述。
参照图1,本发明包括如下步骤:
步骤1)初始化数据集:
将从图像分类模型的训练集中选取的包括K个目标类别的M幅图像Dtr-d及其对应的标签Dtr-l构成良性样本集A,N幅图像及其对应的标签构成验证样本集S,将从待检测用户的查询数据集中选取的M幅图像构成待检测图像Duser及其对应的标签Dlabel构成待检样本集B,其中,M≥100,N≥100,K≥2,在本实施例中采用的数据集为MNIST数据集,MNIST数据集是由0到9的数字图像构成,每个图像都是28×28像素的灰度图像,包含60000训练样本和10000测试样本,图像分类模型为对MNIST数据集进行分类的机器学习模型,M=100,N=1000,K=10。
步骤2)构建决策树模型:
构建以良性样本集A中图像的每个像素值作为特征属性,以信息增益为划分准则,在分裂时考虑所有特征属性的第一决策树模型Ta,和以待检样本集B中图像的每个像素值作为特征属性,以信息增益为划分准则,在分裂时考虑所有特征属性的第二决策树模型Tb,并初始化Ta和Tb的深度为md,最大深度为MD,叶子节点所需的最小样本数为ML,决策树代表的是特征属性和特征值之间的映射关系,决策树的每个非叶子节点表示一个特征属性的测试,每个分支代表这个特征属性在某个值域上的输出,而每个叶子结点存放一个输出类别,本实施例中共有784个特征属性,md=0,MD=21,ML=1。
步骤3)对决策树模型进行训练:
通过良性样本集A、待检样本集B分别对第一决策树模型Ta、第二决策树模型Tb进行训练,得到训练后的第一决策树模型To和第二决策树模型Tu,实现步骤为:
(3a)将从良性样本集A中所有特征属性中随机选取的一个特征属性作为第一决策树模型Ta根节点的划分属性,并将选取该属性下每个属性值信息增益最大时的属性值作为Ta根节点的划分条件;同时将从待检样本集B中所有特征属性中随机选取的一个特征属性作为第二决策树模型Tb根节点的划分属性,并将选取该属性下每个属性值信息增益最大时的属性值作为Tb根节点的划分条件;
(3b)根据Ta根节点的划分属性和划分条件将根节点代表的数据集划分成包含满足划分条件的样本子集和不满足划分条件的样本子集;同时根据Tb根节点的划分属性和划分条件将根节点代表的数据集划分成包含满足划分条件的样本子集和不满足划分条件的样本子集;
(3d)分别对Ta和Tb创建两个子节点,每个子节点代表一个子集,这两个子节点将成为决策树模型的第一层节点,即根节点的子节点;
(3e)判断md=MD是否成立,或子节点的样本数是否为1,若是,将节点标记为叶子节点,并标记叶子节点的类别,得到训练后的第一决策树模型To和第二决策树模型Tu,否则,令md=md+1,并执行步骤(3a)。
步骤4)计算训练后的两个决策树模型信息增益的差值:
将验证样本集S分别作为训练后的第一决策树模型To和第二决策树模型Tu的输入进行分类,并通过分类结果计算To、Tu的信息增益InG(S,To)、InG(S,Tu),然后计算InG(S,To)与InG(S,Tu)的差值H1=|InG(S,To)-InG(S,Tu)|;
在本步骤中,计算To、Tu的信息增益InG(S,To)、InG(S,Tu),计算公式分别为:
其中,∑表示求和操作,分别表示训练后的第一决策树模型To和第二决策树模型Tu对验证样本集S进行分类得到的分类结果中属于类别k的样本集,|S|=N表示S中的样本数量,/>分别表示/>中的样本数量,Entropy(S)、分别表示S、/>的信息熵,p'k、p”k、p”'k分别表示从S、中随机选取一个样本,该样本属于类别k的概率,k=1,2,...,10;
步骤5)计算良性样本集和待检样本集中OOD图像所占比例的差值:
对良性样本集A和待检样本集B中的每个标签进行归一化,并将归一化得到的每个软标签中的最大值pmax与预先设定的阈值α满足pmax<α时该软标签对应的图像作为OOD图像,否则作为ID图像,然后计算A、B中OOD图像所占比例Po、Pu,再计算Po与Pu的差值H2=|Po-Pu|;
在本步骤中,对良性样本集A和待检样本集B中的每个标签进行归一化,归一化采用的是softmax函数,softmax函数是逻辑函数的一种推广,它能将一个含任意实数的R维向量z压缩到另一个R维实向量σ(z)中,使得每一个元素的范围都在(0,1)之间,并且所有元素的和为1,归一化的公式为:
其中,σ(zm)表示第m个良性样本或待检样本的软标签,表示第m个良性样本或待检样本的软标签中属于第k个类别的软标签值,m=1,2,...,M,e表示自然对数的底数;
在本步骤中,每个软标签中的最大值pmax,计算公式为:
在本步骤中,计算良性样本集A、待检样本集中OOD图像所占比例Po、Pu,计算公式分别为:
步骤6)获取窃取攻击检测结果:
对InG(S,To)与InG(S,Tu)的差值H1和Po与Pu的差值H2进行加权求和,并判断加权求和的结果H与设定的窃取攻击检测阈值τ是否满足H>τ,若是,用户认定为模型窃取攻击者,反之则认定为良性用户;
在本步骤中,对InG(S,To)与InG(S,Tu)的差值H1和Po与Pu的差值H2进行加权求和,求和公式为:
H=w1H1+w2H2
其中,w1、w2分别表示H1、H2的权重,且w1+w2=1,本实施例中,w1=w2=0.5。
Claims (7)
1.一种针对图像分类模型的窃取攻击检测方法,其特征在于,包括以下步骤:
(1)初始化数据集:
将从图像分类模型的训练集中选取的包括K个目标类别的M幅图像Dtr-d及其对应的标签Dtr-l构成良性样本集A,N幅图像及其对应的标签构成验证样本集S,将从待检测用户的查询数据集中选取的M幅图像构成待检测图像Duser及其对应的标签Dlabel构成待检样本集B,其中,M≥100,N≥100,K≥2;
(2)构建决策树模型:
构建以良性样本集A中图像的每个像素值作为特征属性,以信息增益为划分准则,在分裂时考虑所有特征属性的第一决策树模型Ta,和以待检样本集B中图像的每个像素值作为特征属性,以信息增益为划分准则,在分裂时考虑所有特征属性的第二决策树模型Tb,并初始化Ta和Tb的深度为md,最大深度为MD,叶子节点所需的最小样本数为ML;
(3)对决策树模型进行训练:
通过良性样本集A、待检样本集B分别对第一决策树模型Ta、第二决策树模型Tb进行训练,得到训练后的第一决策树模型To和第二决策树模型Tu;
(4)计算训练后的两个决策树模型信息增益的差值:
将验证样本集S分别作为训练后的第一决策树模型To和第二决策树模型Tu的输入进行分类,并通过分类结果计算To、Tu的信息增益InG(S,To)、InG(S,Tu),然后计算InG(S,To)与InG(S,Tu)的差值H1=|InG(S,To)-InG(S,Tu)|;
(5)计算良性样本集和待检样本集中OOD图像所占比例的差值:
对良性样本集A和待检样本集B中的每个标签进行归一化,并将归一化得到的每个软标签中的最大值pmax与预先设定的阈值α满足pmax<α时该软标签对应的图像作为OOD图像,否则作为ID图像,然后计算A、B中OOD图像所占比例Po、Pu,再计算Po与Pu的差值H2=|Po-Pu|;
(6)获取窃取攻击检测结果:
对InG(S,To)与InG(S,Tu)的差值H1和Po与Pu的差值H2进行加权求和,并判断加权求和的结果H与设定的窃取攻击检测阈值τ是否满足H>τ,若是,用户认定为模型窃取攻击者,反之则认定为良性用户。
2.根据权利要求1所述的方法,其特征在于,步骤(3)中所述的对第一决策树模型Ta、第二决策树模型Tb进行训练,实现步骤为:
(3a)将从良性样本集A中所有特征属性中随机选取的一个特征属性作为第一决策树模型Ta根节点的划分属性,并将选取该属性下每个属性值信息增益最大时的属性值作为Ta根节点的划分条件;同时将从待检样本集B中所有特征属性中随机选取的一个特征属性作为第二决策树模型Tb根节点的划分属性,并将选取该属性下每个属性值信息增益最大时的属性值作为Tb根节点的划分条件;
(3b)根据Ta根节点的划分属性和划分条件将根节点代表的数据集划分成包含满足划分条件的样本子集和不满足划分条件的样本子集;同时根据Tb根节点的划分属性和划分条件将根节点代表的数据集划分成包含满足划分条件的样本子集和不满足划分条件的样本子集;
(3d)分别对Ta和Tb创建两个子节点,每个子节点代表一个子集,这两个子节点将成为决策树模型的第一层节点,即根节点的子节点;
(3e)判断md=MD是否成立,或子节点的样本数是否为ML,若是,将节点标记为叶子节点,并标记叶子节点的类别,得到训练后的第一决策树模型To和第二决策树模型Tu,否则,令md=md+1,并执行步骤(3a)。
3.根据权利要求1所述的方法,其特征在于,步骤(4)中所述的计算To、Tu的信息增益InG(S,To)、InG(S,Tu),计算公式分别为:
其中,∑表示求和操作,分别表示训练后的第一决策树模型To和第二决策树模型Tu对验证样本集S进行分类得到的分类结果中属于类别k的样本集,|S|=N表示S中的样本数量,/>分别表示/>中的样本数量,Entropy(S)、分别表示S、/>的信息熵,p'k、p”k、p”'k分别表示从S、中随机选取一个样本,该样本属于类别k的概率,k=1,2,…,K。
4.根据权利要求1所述的方法,其特征在于,步骤(5)中所述的对良性样本集A和待检样本集B中的每个标签进行归一化,归一化公式为:
其中,σ(zm)表示第m个良性样本或待检样本的软标签,表示第m个良性样本或待检样本的软标签中属于第k个类别的软标签值,m=1,2,...,M,e表示自然对数的底数。
5.根据权利要求1所述的方法,其特征在于,步骤(5)中所述的每个软标签中的最大值pmax,计算公式为:
6.根据权利要求1所述的方法,其特征在于,步骤(5)中所述的计算A、B中OOD图像所占比例Po、Pu,计算公式分别为:
7.根据权利要求1所述的方法,其特征在于,步骤(6)中所述的对InG(S,To)与InG(S,Tu)的差值H1和Po与Pu的差值H2进行加权求和,求和公式为:
H=w1H1+w2H2
其中,w1、w2分别表示H1、H2的权重,且w1+w2=1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311374247.5A CN117332409A (zh) | 2023-10-23 | 2023-10-23 | 一种针对图像分类模型的窃取攻击检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311374247.5A CN117332409A (zh) | 2023-10-23 | 2023-10-23 | 一种针对图像分类模型的窃取攻击检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117332409A true CN117332409A (zh) | 2024-01-02 |
Family
ID=89295079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311374247.5A Pending CN117332409A (zh) | 2023-10-23 | 2023-10-23 | 一种针对图像分类模型的窃取攻击检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117332409A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117834302A (zh) * | 2024-03-05 | 2024-04-05 | 东北大学 | 一种基于马氏距离ood得分的can总线攻击检测方法 |
-
2023
- 2023-10-23 CN CN202311374247.5A patent/CN117332409A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117834302A (zh) * | 2024-03-05 | 2024-04-05 | 东北大学 | 一种基于马氏距离ood得分的can总线攻击检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107704877B (zh) | 一种基于深度学习的图像隐私感知方法 | |
Tingting et al. | Three‐stage network for age estimation | |
CN111371806A (zh) | 一种Web攻击检测方法及装置 | |
CN112019651B (zh) | 利用深度残差网络和字符级滑动窗口的dga域名检测方法 | |
CN109873810B (zh) | 一种基于樽海鞘群算法支持向量机的网络钓鱼检测方法 | |
CN111818198B (zh) | 域名检测方法、域名检测装置和设备以及介质 | |
CN112231570B (zh) | 推荐系统托攻击检测方法、装置、设备及存储介质 | |
CN111144566B (zh) | 神经网络权重参数的训练方法、特征分类方法及对应装置 | |
CN111835763B (zh) | 一种dns隧道流量检测方法、装置及电子设备 | |
CN117332409A (zh) | 一种针对图像分类模型的窃取攻击检测方法 | |
CN113271292B (zh) | 一种基于词向量的恶意域名集群检测方法及装置 | |
CN109359551A (zh) | 一种基于机器学习的敏感图像识别方法与系统 | |
Gabryel et al. | Browser fingerprint coding methods increasing the effectiveness of user identification in the web traffic | |
CN114050912A (zh) | 一种基于深度强化学习的恶意域名检测方法和装置 | |
CN110457992A (zh) | 基于贝叶斯优化技术的行人重识别方法、装置和系统 | |
CN116109898A (zh) | 基于双向对抗训练与关系度量约束的广义零样本学习方法 | |
He et al. | Malicious domain detection via domain relationship and graph models | |
CN111967503A (zh) | 多类型异常网页分类模型的构建方法、异常网页检测方法 | |
CN110958244A (zh) | 一种基于深度学习的仿冒域名检测方法及装置 | |
Peng et al. | Malicious URL recognition and detection using attention-based CNN-LSTM | |
CN113905016A (zh) | 一种dga域名检测方法、检测装置及计算机存储介质 | |
CN111310743B (zh) | 人脸识别方法、装置、电子设备及可读存储介质 | |
CN112215300A (zh) | 一种基于网络结构增强的图卷积模型防御方法、装置和系统 | |
CN112364198A (zh) | 一种跨模态哈希检索方法、终端设备及存储介质 | |
CN109992960B (zh) | 一种伪造参数检测方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |