CN117332409A - 一种针对图像分类模型的窃取攻击检测方法 - Google Patents

一种针对图像分类模型的窃取攻击检测方法 Download PDF

Info

Publication number
CN117332409A
CN117332409A CN202311374247.5A CN202311374247A CN117332409A CN 117332409 A CN117332409 A CN 117332409A CN 202311374247 A CN202311374247 A CN 202311374247A CN 117332409 A CN117332409 A CN 117332409A
Authority
CN
China
Prior art keywords
decision tree
sample set
tree model
sample
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311374247.5A
Other languages
English (en)
Inventor
马卓
董嘉康
刘洋
刘心晶
张俊伟
李腾
马卓然
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202311374247.5A priority Critical patent/CN117332409A/zh
Publication of CN117332409A publication Critical patent/CN117332409A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/55Detecting local intrusion or implementing counter-measures
    • G06F21/556Detecting local intrusion or implementing counter-measures involving covert channels, i.e. data leakage between processes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种针对图像分类模型的窃取攻击检测方法,实现步骤为:初始化数据集;构建决策树模型;对决策树模型进行训练;计算训练后的两个决策树模型信息增益的差值;计算良性样本集和待检测样本集中OOD图像所占比例的差值;获取窃取攻击检测结果。本发明通过训练后的两个决策树模型信息增益的差值以及良性样本集和待检样本集中OOD图像所占比例的差值的加权求和结果判断模型是否受到窃取攻击,信息增益能够有效地检测到攻击者和良性用户之间的查询分布差异,进而保证了较高的检测准确率;OOD图像所占的比例可以在用户进行少量查询输入时,即可判断该用户是否为模型窃取攻击者,降低了计算开销。

Description

一种针对图像分类模型的窃取攻击检测方法
技术领域
本发明属于机器学习模型安全技术领域,涉及一种针对图像分类模型的窃取攻击检测方法,可应用于信息安全行业、金融服务、医疗保健和电子商务等领域。
背景技术
近年来,随着互联网技术的快速发展,数据的产生量呈现爆炸式增长,这也催生了机器学习模型的兴起,并日益普及。其中基于深度神经网络的深度学习模型广泛应用于计算机视觉、图像分类、自然语言处理等领域。由于收集数据并训练一个高性能的深度神经网络模型需要耗费巨大的财力和人力,这也推动了一种新的商业模式——机器学习即服务(MLaaS)的兴起。服务提供商将模型本身部署在安全的云服务器上,向没有资源训练模型的用户提供服务,只有管理者才能访问模型的参数和架构,用户只能通过基于云的应用程序接口(API)进行黑盒查询并获得模型的输出预测。
最近的研究表明,部署在MLaaS上的模型容易受到模型窃取攻击,攻击者即使在数据受限的情况下,也能通过黑盒查询获取目标模型内部参数或构造一个无限逼近目标模型的替代模型,从而达到窃取模型信息的目的,这种攻击称为模型窃取攻击。这些模型可以在攻击者手中以各种方式被滥用,例如攻击者可以使用复制的模型来向用户提供同样的服务,从而侵犯模型拥有者的利益。此外,目标模型可用于制作对抗性样本,通过成员推理攻击损害用户隐私,并通过模型反演攻击泄露用于训练模型的敏感用户数据。在此背景下,检测模型窃取攻击对机器学习即服务提供商至关重要。
在现有的技术中,针对模型窃取攻击的检测方法主要通过检测用户的查询分布与良性查询分布之间的差异来判断用户是否为攻击者。攻击者想要达到窃取目标模型信息的目的往往需要对目标模型进行大量的查询,因此攻击者的查询行为与良性行为会有较大的不同。但现有针对模型窃取攻击的检测方法仍存在以下不足:通过攻击者采用向与目标模型训练数据同分布的一小部分种子样本中添加轻微的噪声的方法来构建攻击数据集,从而增加样本的隐蔽性,但如果想要检测到攻击者和良性用户之间这种轻微的查询分布差异,并保持较高的检测准确率,则需要对攻击者大量的查询数据进行检测,这会造成较大的计算开销。
例如北京理工大学在其申请的专利文献“结合训练集数据分布和W距离的模型窃取检测方法”(专利申请号:CN202211346069.0,申请公布号:CN115935179A)中,公开了一种结合训练集数据分布和W距离的模型窃取检测方法,该发明首先利用VAE方法对训练集和查询集降维;其次利用极大似然估计计算查询集概率分布,依概率分布采样得到多组待检测样本;随后,对每组待检测样本,在训练集中随机采样得到相同数量的参考样本,计算每组待检测样本与参考样本间的W距离;最后,使用参考样本中类别数和总类别数的比值为权值,加权计算所有的W距离,当加权计算结果大于检测阈值时判定检测出为模型窃取。该发明提出关联训练集数据分布的模型窃取检测方法,同时考虑查询集和训练集样本分布特点,改进W距离计算方法,有效提升模型窃取检测的准确率。该方法存在的不足在于需要采样得到多组待检测样本,并需要计算每组待检测样本与参考样本间的W距离,这要求查询集包含较大的数量,会造成较大的计算开销。
发明内容
本发明的目的在于克服上述现有技术存在的不足,提出了一种针对图像分类模型的窃取攻击检测方法,旨在保持较高检测准确率的前提下降低计算开销。
为实现上述目的,本发明采取的技术方案包括如下步骤:
(1)初始化数据集:
将从图像分类模型的训练集中选取的包括K个目标类别的M幅图像Dtr-d及其对应的标签Dtr-l构成良性样本集A,N幅图像及其对应的标签构成验证样本集S,将从待检测用户的查询数据集中选取的M幅图像构成待检测图像Duser及其对应的标签Dlabel构成待检样本集B,其中,M≥100,N≥100,K≥2;
(2)构建决策树模型:
构建以良性样本集A中图像的每个像素值作为特征属性,以信息增益为划分准则,在分裂时考虑所有特征属性的第一决策树模型Ta,和以待检样本集B中图像的每个像素值作为特征属性,以信息增益为划分准则,在分裂时考虑所有特征属性的第二决策树模型Tb,并初始化Ta和Tb的深度为md,最大深度为MD,叶子节点所需的最小样本数为ML;
(3)对决策树模型进行训练:
通过良性样本集A、待检样本集B分别对第一决策树模型Ta、第二决策树模型Tb进行训练,得到训练后的第一决策树模型To和第二决策树模型Tu
(4)计算训练后的两个决策树模型信息增益的差值:
将验证样本集S分别作为训练后的第一决策树模型To和第二决策树模型Tu的输入进行分类,并通过分类结果计算To、Tu的信息增益InG(S,To)、InG(S,Tu),然后计算InG(S,To)与InG(S,Tu)的差值H1=|InG(S,To)-InG(S,Tu)|;
(5)计算良性样本集和待检样本集中OOD图像所占比例的差值:
对良性样本集A和待检样本集B中的每个标签进行归一化,并将归一化得到的每个软标签中的最大值pmax与预先设定的阈值α满足pmax<α时该软标签对应的图像作为OOD图像,否则作为ID图像,然后计算A、B中OOD图像所占比例Po、Pu,再计算Po与Pu的差值H2=|Po-Pu|;
(6)获取窃取攻击检测结果:
对InG(S,To)与InG(S,Tu)的差值H1和Po与Pu的差值H2进行加权求和,并判断加权求和的结果H与设定的窃取攻击检测阈值τ是否满足H>τ,若是,用户认定为模型窃取攻击者,反之则认定为良性用户。
本发明与现有技术相比,具有以下优点:
本发明通过训练后的两个决策树模型信息增益的差值以及良性样本集和待检样本集中OOD图像所占比例的差值的加权求和结果判断模型是否受到窃取攻击,信息增益能够有效地检测到攻击者和良性用户之间的查询分布差异,进而保证了较高的检测准确率;OOD图像所占的比例可以在用户进行少量查询输入时,即可判断该用户是否为模型窃取攻击者,降低了计算开销;与现有技术相比,在保持较高检测准确率的前提下,降低了检测过程中的计算开销。
附图说明
图1为本发明的实现流程图。
具体实施方式
下面结合附图和具体实施例,对本发明作进一步详细描述。
参照图1,本发明包括如下步骤:
步骤1)初始化数据集:
将从图像分类模型的训练集中选取的包括K个目标类别的M幅图像Dtr-d及其对应的标签Dtr-l构成良性样本集A,N幅图像及其对应的标签构成验证样本集S,将从待检测用户的查询数据集中选取的M幅图像构成待检测图像Duser及其对应的标签Dlabel构成待检样本集B,其中,M≥100,N≥100,K≥2,在本实施例中采用的数据集为MNIST数据集,MNIST数据集是由0到9的数字图像构成,每个图像都是28×28像素的灰度图像,包含60000训练样本和10000测试样本,图像分类模型为对MNIST数据集进行分类的机器学习模型,M=100,N=1000,K=10。
步骤2)构建决策树模型:
构建以良性样本集A中图像的每个像素值作为特征属性,以信息增益为划分准则,在分裂时考虑所有特征属性的第一决策树模型Ta,和以待检样本集B中图像的每个像素值作为特征属性,以信息增益为划分准则,在分裂时考虑所有特征属性的第二决策树模型Tb,并初始化Ta和Tb的深度为md,最大深度为MD,叶子节点所需的最小样本数为ML,决策树代表的是特征属性和特征值之间的映射关系,决策树的每个非叶子节点表示一个特征属性的测试,每个分支代表这个特征属性在某个值域上的输出,而每个叶子结点存放一个输出类别,本实施例中共有784个特征属性,md=0,MD=21,ML=1。
步骤3)对决策树模型进行训练:
通过良性样本集A、待检样本集B分别对第一决策树模型Ta、第二决策树模型Tb进行训练,得到训练后的第一决策树模型To和第二决策树模型Tu,实现步骤为:
(3a)将从良性样本集A中所有特征属性中随机选取的一个特征属性作为第一决策树模型Ta根节点的划分属性,并将选取该属性下每个属性值信息增益最大时的属性值作为Ta根节点的划分条件;同时将从待检样本集B中所有特征属性中随机选取的一个特征属性作为第二决策树模型Tb根节点的划分属性,并将选取该属性下每个属性值信息增益最大时的属性值作为Tb根节点的划分条件;
(3b)根据Ta根节点的划分属性和划分条件将根节点代表的数据集划分成包含满足划分条件的样本子集和不满足划分条件的样本子集;同时根据Tb根节点的划分属性和划分条件将根节点代表的数据集划分成包含满足划分条件的样本子集和不满足划分条件的样本子集;
(3d)分别对Ta和Tb创建两个子节点,每个子节点代表一个子集,这两个子节点将成为决策树模型的第一层节点,即根节点的子节点;
(3e)判断md=MD是否成立,或子节点的样本数是否为1,若是,将节点标记为叶子节点,并标记叶子节点的类别,得到训练后的第一决策树模型To和第二决策树模型Tu,否则,令md=md+1,并执行步骤(3a)。
步骤4)计算训练后的两个决策树模型信息增益的差值:
将验证样本集S分别作为训练后的第一决策树模型To和第二决策树模型Tu的输入进行分类,并通过分类结果计算To、Tu的信息增益InG(S,To)、InG(S,Tu),然后计算InG(S,To)与InG(S,Tu)的差值H1=|InG(S,To)-InG(S,Tu)|;
在本步骤中,计算To、Tu的信息增益InG(S,To)、InG(S,Tu),计算公式分别为:
其中,∑表示求和操作,分别表示训练后的第一决策树模型To和第二决策树模型Tu对验证样本集S进行分类得到的分类结果中属于类别k的样本集,|S|=N表示S中的样本数量,/>分别表示/>中的样本数量,Entropy(S)、分别表示S、/>的信息熵,p'k、p”k、p”'k分别表示从S、中随机选取一个样本,该样本属于类别k的概率,k=1,2,...,10;
步骤5)计算良性样本集和待检样本集中OOD图像所占比例的差值:
对良性样本集A和待检样本集B中的每个标签进行归一化,并将归一化得到的每个软标签中的最大值pmax与预先设定的阈值α满足pmax<α时该软标签对应的图像作为OOD图像,否则作为ID图像,然后计算A、B中OOD图像所占比例Po、Pu,再计算Po与Pu的差值H2=|Po-Pu|;
在本步骤中,对良性样本集A和待检样本集B中的每个标签进行归一化,归一化采用的是softmax函数,softmax函数是逻辑函数的一种推广,它能将一个含任意实数的R维向量z压缩到另一个R维实向量σ(z)中,使得每一个元素的范围都在(0,1)之间,并且所有元素的和为1,归一化的公式为:
其中,σ(zm)表示第m个良性样本或待检样本的软标签,表示第m个良性样本或待检样本的软标签中属于第k个类别的软标签值,m=1,2,...,M,e表示自然对数的底数;
在本步骤中,每个软标签中的最大值pmax,计算公式为:
在本步骤中,计算良性样本集A、待检样本集中OOD图像所占比例Po、Pu,计算公式分别为:
步骤6)获取窃取攻击检测结果:
对InG(S,To)与InG(S,Tu)的差值H1和Po与Pu的差值H2进行加权求和,并判断加权求和的结果H与设定的窃取攻击检测阈值τ是否满足H>τ,若是,用户认定为模型窃取攻击者,反之则认定为良性用户;
在本步骤中,对InG(S,To)与InG(S,Tu)的差值H1和Po与Pu的差值H2进行加权求和,求和公式为:
H=w1H1+w2H2
其中,w1、w2分别表示H1、H2的权重,且w1+w2=1,本实施例中,w1=w2=0.5。

Claims (7)

1.一种针对图像分类模型的窃取攻击检测方法,其特征在于,包括以下步骤:
(1)初始化数据集:
将从图像分类模型的训练集中选取的包括K个目标类别的M幅图像Dtr-d及其对应的标签Dtr-l构成良性样本集A,N幅图像及其对应的标签构成验证样本集S,将从待检测用户的查询数据集中选取的M幅图像构成待检测图像Duser及其对应的标签Dlabel构成待检样本集B,其中,M≥100,N≥100,K≥2;
(2)构建决策树模型:
构建以良性样本集A中图像的每个像素值作为特征属性,以信息增益为划分准则,在分裂时考虑所有特征属性的第一决策树模型Ta,和以待检样本集B中图像的每个像素值作为特征属性,以信息增益为划分准则,在分裂时考虑所有特征属性的第二决策树模型Tb,并初始化Ta和Tb的深度为md,最大深度为MD,叶子节点所需的最小样本数为ML;
(3)对决策树模型进行训练:
通过良性样本集A、待检样本集B分别对第一决策树模型Ta、第二决策树模型Tb进行训练,得到训练后的第一决策树模型To和第二决策树模型Tu
(4)计算训练后的两个决策树模型信息增益的差值:
将验证样本集S分别作为训练后的第一决策树模型To和第二决策树模型Tu的输入进行分类,并通过分类结果计算To、Tu的信息增益InG(S,To)、InG(S,Tu),然后计算InG(S,To)与InG(S,Tu)的差值H1=|InG(S,To)-InG(S,Tu)|;
(5)计算良性样本集和待检样本集中OOD图像所占比例的差值:
对良性样本集A和待检样本集B中的每个标签进行归一化,并将归一化得到的每个软标签中的最大值pmax与预先设定的阈值α满足pmax<α时该软标签对应的图像作为OOD图像,否则作为ID图像,然后计算A、B中OOD图像所占比例Po、Pu,再计算Po与Pu的差值H2=|Po-Pu|;
(6)获取窃取攻击检测结果:
对InG(S,To)与InG(S,Tu)的差值H1和Po与Pu的差值H2进行加权求和,并判断加权求和的结果H与设定的窃取攻击检测阈值τ是否满足H>τ,若是,用户认定为模型窃取攻击者,反之则认定为良性用户。
2.根据权利要求1所述的方法,其特征在于,步骤(3)中所述的对第一决策树模型Ta、第二决策树模型Tb进行训练,实现步骤为:
(3a)将从良性样本集A中所有特征属性中随机选取的一个特征属性作为第一决策树模型Ta根节点的划分属性,并将选取该属性下每个属性值信息增益最大时的属性值作为Ta根节点的划分条件;同时将从待检样本集B中所有特征属性中随机选取的一个特征属性作为第二决策树模型Tb根节点的划分属性,并将选取该属性下每个属性值信息增益最大时的属性值作为Tb根节点的划分条件;
(3b)根据Ta根节点的划分属性和划分条件将根节点代表的数据集划分成包含满足划分条件的样本子集和不满足划分条件的样本子集;同时根据Tb根节点的划分属性和划分条件将根节点代表的数据集划分成包含满足划分条件的样本子集和不满足划分条件的样本子集;
(3d)分别对Ta和Tb创建两个子节点,每个子节点代表一个子集,这两个子节点将成为决策树模型的第一层节点,即根节点的子节点;
(3e)判断md=MD是否成立,或子节点的样本数是否为ML,若是,将节点标记为叶子节点,并标记叶子节点的类别,得到训练后的第一决策树模型To和第二决策树模型Tu,否则,令md=md+1,并执行步骤(3a)。
3.根据权利要求1所述的方法,其特征在于,步骤(4)中所述的计算To、Tu的信息增益InG(S,To)、InG(S,Tu),计算公式分别为:
其中,∑表示求和操作,分别表示训练后的第一决策树模型To和第二决策树模型Tu对验证样本集S进行分类得到的分类结果中属于类别k的样本集,|S|=N表示S中的样本数量,/>分别表示/>中的样本数量,Entropy(S)、分别表示S、/>的信息熵,p'k、p”k、p”'k分别表示从S、中随机选取一个样本,该样本属于类别k的概率,k=1,2,…,K。
4.根据权利要求1所述的方法,其特征在于,步骤(5)中所述的对良性样本集A和待检样本集B中的每个标签进行归一化,归一化公式为:
其中,σ(zm)表示第m个良性样本或待检样本的软标签,表示第m个良性样本或待检样本的软标签中属于第k个类别的软标签值,m=1,2,...,M,e表示自然对数的底数。
5.根据权利要求1所述的方法,其特征在于,步骤(5)中所述的每个软标签中的最大值pmax,计算公式为:
6.根据权利要求1所述的方法,其特征在于,步骤(5)中所述的计算A、B中OOD图像所占比例Po、Pu,计算公式分别为:
7.根据权利要求1所述的方法,其特征在于,步骤(6)中所述的对InG(S,To)与InG(S,Tu)的差值H1和Po与Pu的差值H2进行加权求和,求和公式为:
H=w1H1+w2H2
其中,w1、w2分别表示H1、H2的权重,且w1+w2=1。
CN202311374247.5A 2023-10-23 2023-10-23 一种针对图像分类模型的窃取攻击检测方法 Pending CN117332409A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311374247.5A CN117332409A (zh) 2023-10-23 2023-10-23 一种针对图像分类模型的窃取攻击检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311374247.5A CN117332409A (zh) 2023-10-23 2023-10-23 一种针对图像分类模型的窃取攻击检测方法

Publications (1)

Publication Number Publication Date
CN117332409A true CN117332409A (zh) 2024-01-02

Family

ID=89295079

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311374247.5A Pending CN117332409A (zh) 2023-10-23 2023-10-23 一种针对图像分类模型的窃取攻击检测方法

Country Status (1)

Country Link
CN (1) CN117332409A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117834302A (zh) * 2024-03-05 2024-04-05 东北大学 一种基于马氏距离ood得分的can总线攻击检测方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117834302A (zh) * 2024-03-05 2024-04-05 东北大学 一种基于马氏距离ood得分的can总线攻击检测方法

Similar Documents

Publication Publication Date Title
CN107704877B (zh) 一种基于深度学习的图像隐私感知方法
Tingting et al. Three‐stage network for age estimation
CN111371806A (zh) 一种Web攻击检测方法及装置
CN112019651B (zh) 利用深度残差网络和字符级滑动窗口的dga域名检测方法
CN109873810B (zh) 一种基于樽海鞘群算法支持向量机的网络钓鱼检测方法
CN111818198B (zh) 域名检测方法、域名检测装置和设备以及介质
CN112231570B (zh) 推荐系统托攻击检测方法、装置、设备及存储介质
CN111144566B (zh) 神经网络权重参数的训练方法、特征分类方法及对应装置
CN111835763B (zh) 一种dns隧道流量检测方法、装置及电子设备
CN117332409A (zh) 一种针对图像分类模型的窃取攻击检测方法
CN113271292B (zh) 一种基于词向量的恶意域名集群检测方法及装置
CN109359551A (zh) 一种基于机器学习的敏感图像识别方法与系统
Gabryel et al. Browser fingerprint coding methods increasing the effectiveness of user identification in the web traffic
CN114050912A (zh) 一种基于深度强化学习的恶意域名检测方法和装置
CN110457992A (zh) 基于贝叶斯优化技术的行人重识别方法、装置和系统
CN116109898A (zh) 基于双向对抗训练与关系度量约束的广义零样本学习方法
He et al. Malicious domain detection via domain relationship and graph models
CN111967503A (zh) 多类型异常网页分类模型的构建方法、异常网页检测方法
CN110958244A (zh) 一种基于深度学习的仿冒域名检测方法及装置
Peng et al. Malicious URL recognition and detection using attention-based CNN-LSTM
CN113905016A (zh) 一种dga域名检测方法、检测装置及计算机存储介质
CN111310743B (zh) 人脸识别方法、装置、电子设备及可读存储介质
CN112215300A (zh) 一种基于网络结构增强的图卷积模型防御方法、装置和系统
CN112364198A (zh) 一种跨模态哈希检索方法、终端设备及存储介质
CN109992960B (zh) 一种伪造参数检测方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination