CN111460456B - 一种基于敏感度实现清晰决策树与模糊决策树的攻击方法 - Google Patents

一种基于敏感度实现清晰决策树与模糊决策树的攻击方法 Download PDF

Info

Publication number
CN111460456B
CN111460456B CN202010207227.9A CN202010207227A CN111460456B CN 111460456 B CN111460456 B CN 111460456B CN 202010207227 A CN202010207227 A CN 202010207227A CN 111460456 B CN111460456 B CN 111460456B
Authority
CN
China
Prior art keywords
decision tree
sample
sensitivity
fuzzy
clear
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010207227.9A
Other languages
English (en)
Other versions
CN111460456A (zh
Inventor
郑娟
陈百基
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202010207227.9A priority Critical patent/CN111460456B/zh
Publication of CN111460456A publication Critical patent/CN111460456A/zh
Application granted granted Critical
Publication of CN111460456B publication Critical patent/CN111460456B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/57Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
    • G06F21/577Assessing vulnerabilities and evaluating computer system security
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/02Computing arrangements based on specific mathematical models using fuzzy logic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Computational Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Fuzzy Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Algebra (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于敏感度实现清晰决策树与模糊决策树的攻击方法,包括:获取数据并进行数据处理;将处理后的数据划分为训练集和测试集,通过从训练样本中学习,测试集上验证,获得清晰决策树和模糊决策树;利用学习到的清晰决策树和模糊决策树的模型信息,计算样本被分为真实类别的置信度,计算特征的敏感度;选择有最大敏感度的特征进行修改;迭代获得伪造的攻击样本;将伪造的攻击样本集攻击学习到的决策树,比较决策树在测试集和伪造的样本集上的准确率,进而对攻击进行评估。本发明基于特征敏感度信息,减少对攻击目标的模型信息了解量;开辟了研究模糊系统在恶意环境中的鲁棒性的道路,发现数据模糊化对机器学习模型的鲁棒性的提升。

Description

一种基于敏感度实现清晰决策树与模糊决策树的攻击方法
技术领域
本发明涉及机器学习和对抗学习的技术领域,尤其是指一种基于敏感度实现清晰决策树与模糊决策树的攻击方法。
背景技术
人工智能在电商、农业、医疗、教育、医疗零售、金融、汽车、广告等领域的应用,各种机器学习系统被部署在人们的生活中,如何保证机器学习模型的安全性显得越来越重要。决策树,一种在数据挖掘中被广泛使用的机器学习模型之一,对它的安全性研究也显得十分必要。
目前攻击清晰决策树的方法按照攻击者对目标模型的了解程度有以下两种方法:1、白盒攻击:攻击者了解清晰决策树的所有信息,包括处理的任务信息,清晰决策树的结构信息,攻击者根据决策树的参数与结构信息,首先定位到清晰决策树对原样本的分类路径与分类结果,然后寻找临近的有不同分类结果的路径,根据路径中的条件,来修改样本,进而实现伪造样本的目的。2、黑盒攻击:每次通过询问攻击目标清晰决策树对构造的样本的分类结果,获取目标决策树的结构信息,即分支条件,然后递归地进行样本特征的修改与询问攻击目标清晰决策树的过程,最后根据获取的关于攻击目标的所有结构信息,构建一个替代清晰决策树模型,然后再基于替代清晰决策树,伪造恶意样本攻击目标清晰决策树。总体而言,两种攻击方法都非常依赖于攻击目标清晰决策树的结构信息,这意味着一方面攻击者必须获取攻击目标清晰决策树的所有信息;另一方面,由于模糊决策树与清晰决策树的结构差异,目前攻击清晰决策树的方法难以应用到攻击模糊决策树。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提出了一基于敏感度实现清晰决策树与模糊决策树的攻击方法,减少攻击者对攻击目标清晰决策树的结构信息量,让攻击者无需获取攻击目标的所有内部结构信息;利用样本输入的改动对决策树输出的影响计算特征的敏感度,进一步实现对模糊决策树的攻击,填补目前没有针对模糊决策树的攻击方法的空白。
为实现上述目的,本发明所提供的技术方案为:一种基于敏感度实现清晰决策树与模糊决策树的攻击方法,包括以下步骤:
1)获取数据并进行数据处理;
2)将处理后的数据划分为训练集和测试集,通过从训练样本中学习,测试集上验证,获得清晰决策树和模糊决策树;
3)利用学习到的清晰决策树和模糊决策树的模型信息,计算样本被分为真实类别的置信度,进一步计算特征的敏感度;
4)根据特征的敏感度,选择有最大敏感度的特征进行修改;
5)迭代执行步骤3)和4),直到满足终止条件,获得伪造的攻击样本集;
6)将伪造的攻击样本集攻击学习到的清晰决策树和模糊决策树,然后比较清晰决策树和模糊决策树在测试集和伪造的样本集上的准确率,进而对攻击进行评估。
在步骤1)中,所述数据是指从网上获取的公开数据集;所述数据处理是指对数据集的数据量、维度大小进行处理,以及特征标准化和特征模糊化。
在步骤2)中,将处理后的数据分层划分为训练集和测试集,其中训练集占70%,测试集占30%;然后用训练集训练清晰决策树和模糊决策树,用测试集来评估训练后的清晰决策树和模糊决策树的泛化能力;最后重复训练和测试清晰决策树和模糊决策树5次,然后用5次测试结果的平均值衡量清晰决策树和模糊决策树的泛化能力。
在步骤3)中,利用步骤2)中训练好的清晰决策树和模糊决策树的模型信息,计算样本被分为真实类别的置信度,进一步计算特征的敏感度,包括以下步骤:
3.1)选取需要修改特征,确定样本x的改动大小Δx:
Δx=[Δx1,Δx2,......,Δxn]
式中,n为样本的维度,Δxi是对特征i的改动大小;当i≠f时,Δxi=0;否则,Δxf=ε,ε表示特征修改大小;
3.2)根据清晰决策树与模糊决策树的模型信息,分别计算清晰决策树和模糊决策树将样本分为真实类别t的置信度Ct
清晰决策树:
Figure BDA0002421542010000031
式中,Ht表示清晰决策树的所有路径中能将样本分为真实类别t的路径集合,D(h,x)代表路径h中被满足的条件数量,L(h)是该路径的条件数量;
模糊决策树:
Figure BDA0002421542010000032
式中,H表示模糊决策树的所有路径的集合,lt(h,x)表示模糊决策树的路径h将样本分为t类的概率,m(h,x)表示样本x属于路径h的程度;
3.3)计算每个特征的敏感度
根据清晰决策树和模糊决策树对原样本x和修改后的样本x+Δxf或者x-Δxf的置信度差异,计算得到敏感度:
Figure BDA0002421542010000033
Figure BDA0002421542010000034
式中,f表示特征的索引,
Figure BDA00024215420100000410
表示正向修改特征f的敏感度,/>
Figure BDA00024215420100000411
表示负向修改特征f的敏感度,Ct()表示清晰决策树或者模糊决策树对样本分为t类的置信度计算函数。
在步骤4)中,利用步骤3)所有特征的敏感度,首先从所有特征的正或负向敏感度选取敏感度最大的特征:
Figure BDA0002421542010000041
/>
Figure BDA0002421542010000042
式中,
Figure BDA0002421542010000043
表示正向修改特征f的敏感度,/>
Figure BDA00024215420100000412
表示负向修改特征f的敏感度;然后再从两者中选择有最大敏感度的特征作为最优特征进行修改:
Figure BDA0002421542010000044
式中,
Figure BDA0002421542010000045
表示样本x的第/>
Figure BDA0002421542010000046
个特征的值,/>
Figure BDA00024215420100000413
表示样本x的第/>
Figure BDA00024215420100000414
个特征的值;ε表示特征修改大小;/>
Figure BDA0002421542010000047
是正向修改样本x的最优特征/>
Figure BDA0002421542010000048
的敏感度,/>
Figure BDA0002421542010000049
是负向修改样本x的最优特征f-*的敏感度。
在步骤5)中,考虑到攻击效率,从三个方面来终止样本的特征修改程序,只要任意一个条件满足,就终止程序:
a、当清晰决策树和模糊决策树将伪造的样本分为其它类别时,终止程序;
b、当伪造的样本与原样本之间的欧氏距离超过最大限制时,终止程序;
c、当迭代次数超过最大迭代次数限制时,终止程序。
在步骤6)中,用伪造的攻击样本集分别在训练后的清晰决策树和模糊决策树上测试,然后比较清晰决策树和模糊决策树在测试集和伪造的攻击样本集上的准确率;若准确率降低,则说明攻击有效;若清晰决策树的准确率减少量比模糊决策树多,则表示清晰决策树比模糊决策树的鲁棒性差;反之,则清晰决策树比模糊决策树的鲁棒性好。
本发明与现有技术相比,具有如下优点与有益效果:
1、本发明使用询问清晰决策树的策略计算特征的敏感度,减少了攻击者需要了解的信息量,使得攻击策略更符合实际应用。
2、本发明通过计算特征的敏感度,引导攻击者对特征的修改,达到伪造攻击样本的目的,忽略了模糊决策树与清晰决策树的结构差异,使得攻击方法更易拓展到攻击模糊决策树。
3、本发明首次实现了对模糊决策树的攻击方法,填补了目前检测模糊决策树在恶意环境中的安全漏洞的空白。
4、本发明方法开辟了研究模糊系统在恶意环境中的鲁棒性的道路,发现了数据模糊化对机器学习模型的鲁棒性的提升,这为设计对机器学习模型防御攻击的方法提供了思路。
附图说明
图1为本发明逻辑流程示意图。
图2为清晰决策树和模糊决策树构建流程图。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
如图1和图2所示,本实施例所提供的基于敏感度实现清晰决策树与模糊决策树的攻击方法,使用了三个数据集、ID3清晰决策树和FID3模糊决策树为例子来进行说明,其包括以下步骤:
1)所述数据是指从网上获取的公开数据集,比如PDF恶意代码检测数据集,UCI机器学习库中的垃圾邮件数据集等;所述数据处理是指对数据集的数据量,维度大小进行处理,以及特征标准化和特征模糊化。
本实例选用了PDF,Spam,Spambase三个数据集来完成实验。三个数据集的详细信息见表1。
表1数据集信息
数据集 类别数目 样本数目 特征数目
PDF 2 1000 114
Spam 2 2000 200
Spambase 2 4600 57
2)将处理后的数据分层划分为训练集和测试集,其中训练集占70%,测试集占30%;然后用训练集训练ID3清晰决策树和FID3模糊决策树,ID采用信息增益选择特征,FID3采用模糊信息增益选择特征;然后用测试集来评估训练后的决策树的泛化能力;最后重复训练和测试决策树5次,然后用5次测试结果的平均值衡量决策树的泛化能力。
3)利用步骤2)中训练好的ID3清晰决策树和FID模糊决策树的模型信息,计算样本被分为真实类别的置信度,进一步计算特征的敏感度,包括以下步骤:
3.1)选取需要修改特征,确定样本x的改动大小Δx:
Δx=[Δx1,Δx2,......,Δxn]
式中,n为样本的维度,Δxi是对特征i的改动大小;当i≠f时,Δxi=0;否则,Δxf=ε。
3.2)根据ID3清晰决策树与FID3模糊决策树的模型信息,分别计算清晰决策树和模糊决策树将样本分为真实类别t的置信度Ct
Figure BDA0002421542010000061
式中,Ht表示清晰决策树ID3的所有路径中能将样本分为真实类别t的路径集合,D(h,x)代表路径h中被满足的条件数量,L(h)是该路径的条件数量。
Figure BDA0002421542010000071
式中,H表示模糊决策树FID3的所有路径的集合,lt(h,x)表示模糊决策树FID3的路径h将样本分为t类的概率,m(h,x)表示样本x属于路径h的程度。
3.3)计算每个特征的敏感度。根据清晰和模糊决策树对原样本x和修改后的样本(x+Δxf或者x-Δxf)的置信度差异,计算得到敏感度:
Figure BDA00024215420100000715
Figure BDA00024215420100000716
/>
式中,f表示特征的索引,
Figure BDA00024215420100000717
表示正向修改特征f的敏感度,/>
Figure BDA00024215420100000718
表示负向修改特征f的敏感度,Ct()表示清晰决策树或者是模糊决策树对样本分为t类的置信度计算函数。
4)利用步骤3)所有特征的敏感度,首先从所有特征的正(负)向敏感度选取敏感度最大的特征。
Figure BDA0002421542010000072
Figure BDA0002421542010000073
Figure BDA0002421542010000074
表示正向修改特征f的敏感度,/>
Figure BDA0002421542010000075
表示负向修改特征f的敏感度。然后再从两者中选择有最大敏感度的特征作为最优特征进行修改。
Figure BDA0002421542010000076
式中,ε表示特征修改大小,在程序中设为0.05;
Figure BDA0002421542010000077
表示样本x的第/>
Figure BDA0002421542010000078
个特征的值,/>
Figure BDA0002421542010000079
表示样本x的第/>
Figure BDA00024215420100000710
个特征的值;/>
Figure BDA00024215420100000711
是正向修改样本x的最优特征/>
Figure BDA00024215420100000712
的敏感度,
Figure BDA00024215420100000713
是负向修改样本x的最优特征/>
Figure BDA00024215420100000714
的敏感度。
5)考虑到攻击效率,从三个方面来终止样本的特征修改程序。只要任意一个条件满足,就终止程序:
a、当清晰决策树和模糊决策树将伪造的样本分为其它类别时,终止程序。
b、当伪造的样本与原样本之间的欧氏距离超过最大限制(dmax=0.15)时,终止程序。
c、当迭代次数超过最大迭代次数限制(500)时,终止程序。
6)用伪造的攻击样本集分别在训练后的清晰决策树和模糊决策树上测试,然后比较ID3清晰决策树和FID3模糊决策树在测试集和伪造的攻击样本集上的准确率。在下表2中,当dmax=0.15时,ID3清晰决策树和FID3模糊决策树的准确率降低,则说明攻击有效;而且清晰决策树的准确率减少量比模糊决策树多0.8左右,即清晰决策树比模糊决策树的鲁棒性差。
表2 ID3清晰决策树和FID3模糊决策树在测试集(dmax=0)与伪造的样本集(dmax=0.15)的准确率比较
Figure BDA0002421542010000081
综上所述,在采用以上方案后,本发明为攻击清晰决策树提供了新的方法,基于特征敏感度信息,减少对攻击目标的模型信息了解量;首次提出可以攻击模糊决策树的方法,开辟了研究模糊系统在恶意环境中的鲁棒性的道路,同时发现数据模糊化对机器学习模型的鲁棒性的提升,为设计针对机器学习模型防御攻击的方法提供思路,值得推广。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。

Claims (5)

1.一种基于敏感度实现清晰决策树与模糊决策树的攻击方法,其特征在于,包括以下步骤:
1)获取数据并进行数据处理;
2)将处理后的数据划分为训练集和测试集,通过从训练样本中学习,测试集上验证,获得清晰决策树和模糊决策树;
3)利用步骤2)中训练好的清晰决策树和模糊决策树的模型信息,计算样本被分为真实类别的置信度,进一步计算特征的敏感度,包括以下步骤:
3.1)选取需要修改特征,确定样本x的改动大小Δx:
Δx=[Δx1,Δx2,......,Δxn]
式中,n为样本的维度,Δxi是对特征i的改动大小;当i≠f时,Δxi=0;否则,Δxf=ε,ε表示特征修改大小;
3.2)根据清晰决策树与模糊决策树的模型信息,分别计算清晰决策树和模糊决策树将样本分为真实类别t的置信度Ct
清晰决策树:
Figure FDA0004000366740000011
式中,Ht表示清晰决策树的所有路径中能将样本分为真实类别t的路径集合,D(h,x)代表路径h中被满足的条件数量,L(h)是该路径的条件数量;
模糊决策树:
Figure FDA0004000366740000012
式中,H表示模糊决策树的所有路径的集合,lt(h,x)表示模糊决策树的路径h将样本分为t类的概率,m(h,x)表示样本x属于路径h的程度;
3.3)计算每个特征的敏感度
根据清晰决策树和模糊决策树对原样本x和修改后的样本x+Δxf或者x-Δxf的置信度差异,计算得到敏感度:
Mf+(x)=Ct(x)-Ct(x+Δxf),
Mf-(x)=Ct(x)-Ct(x-Δxf)
式中,f表示特征的索引,
Figure FDA0004000366740000021
表示正向修改特征f的敏感度,
Figure FDA0004000366740000022
表示负向修改特征f的敏感度,Ct()表示清晰决策树或者模糊决策树对样本分为t类的置信度计算函数;
4)根据特征的敏感度,选择有最大敏感度的特征进行修改;
5)迭代执行步骤3)和4),直到满足终止条件,获得伪造的攻击样本集;
6)用伪造的攻击样本集分别在训练后的清晰决策树和模糊决策树上测试,然后比较清晰决策树和模糊决策树在测试集和伪造的攻击样本集上的准确率;若准确率降低,则说明攻击有效;若清晰决策树的准确率减少量比模糊决策树多,则表示清晰决策树比模糊决策树的鲁棒性差;反之,则清晰决策树比模糊决策树的鲁棒性好。
2.根据权利要求1所述的一种基于敏感度实现清晰决策树与模糊决策树的攻击方法,其特征在于:在步骤1)中,所述数据是指从网上获取的公开数据集;所述数据处理是指对数据集的数据量、维度大小进行处理,以及特征标准化和特征模糊化。
3.根据权利要求1所述的一种基于敏感度实现清晰决策树与模糊决策树的攻击方法,其特征在于:在步骤2)中,将处理后的数据分层划分为训练集和测试集,其中训练集占70%,测试集占30%;然后用训练集训练清晰决策树和模糊决策树,用测试集来评估训练后的清晰决策树和模糊决策树的泛化能力;最后重复训练和测试清晰决策树和模糊决策树5次,然后用5次测试结果的平均值衡量清晰决策树和模糊决策树的泛化能力。
4.根据权利要求1所述的一种基于敏感度实现清晰决策树与模糊决策树的攻击方法,其特征在于:在步骤4)中,利用步骤3)所有特征的敏感度,首先从所有特征的正或负向敏感度选取敏感度最大的特征:
Figure FDA0004000366740000031
Figure FDA0004000366740000032
式中,Mf+(x)表示正向修改特征f的敏感度,Mf-(x)表示负向修改特征f的敏感度;然后再从两者中选择有最大敏感度的特征作为最优特征进行修改:
Figure FDA0004000366740000033
式中,
Figure FDA0004000366740000034
表示样本x的第
Figure FDA0004000366740000035
个特征的值,
Figure FDA0004000366740000036
表示样本x的第
Figure FDA0004000366740000037
个特征的值;ε表示特征修改大小;
Figure FDA0004000366740000038
是正向修改样本x的最优特征
Figure FDA0004000366740000039
的敏感度,
Figure FDA00040003667400000310
是负向修改样本x的最优特征f-*的敏感度。
5.根据权利要求1所述的一种基于敏感度实现清晰决策树与模糊决策树的攻击方法,其特征在于:在步骤5)中,考虑到攻击效率,从三个方面来终止样本的特征修改程序,只要任意一个条件满足,就终止程序:
a、当清晰决策树和模糊决策树将伪造的样本分为其它类别时,终止程序;
b、当伪造的样本与原样本之间的欧氏距离超过最大限制时,终止程序;
c、当迭代次数超过最大迭代次数限制时,终止程序。
CN202010207227.9A 2020-03-23 2020-03-23 一种基于敏感度实现清晰决策树与模糊决策树的攻击方法 Active CN111460456B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010207227.9A CN111460456B (zh) 2020-03-23 2020-03-23 一种基于敏感度实现清晰决策树与模糊决策树的攻击方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010207227.9A CN111460456B (zh) 2020-03-23 2020-03-23 一种基于敏感度实现清晰决策树与模糊决策树的攻击方法

Publications (2)

Publication Number Publication Date
CN111460456A CN111460456A (zh) 2020-07-28
CN111460456B true CN111460456B (zh) 2023-03-24

Family

ID=71682927

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010207227.9A Active CN111460456B (zh) 2020-03-23 2020-03-23 一种基于敏感度实现清晰决策树与模糊决策树的攻击方法

Country Status (1)

Country Link
CN (1) CN111460456B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7197504B1 (en) * 1999-04-23 2007-03-27 Oracle International Corporation System and method for generating decision trees
CN104573873A (zh) * 2015-01-23 2015-04-29 哈尔滨工业大学 一种基于模糊决策树的航站楼离港旅客流量预测方法
CN108764267A (zh) * 2018-04-02 2018-11-06 上海大学 一种基于对抗式决策树集成的拒绝服务攻击检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190258953A1 (en) * 2018-01-23 2019-08-22 Ulrich Lang Method and system for determining policies, rules, and agent characteristics, for automating agents, and protection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7197504B1 (en) * 1999-04-23 2007-03-27 Oracle International Corporation System and method for generating decision trees
CN104573873A (zh) * 2015-01-23 2015-04-29 哈尔滨工业大学 一种基于模糊决策树的航站楼离港旅客流量预测方法
CN108764267A (zh) * 2018-04-02 2018-11-06 上海大学 一种基于对抗式决策树集成的拒绝服务攻击检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
决策树ID3新属性选择方法;王子京等;《现代电子技术》;20181203(第23期);全文 *
基于模糊ID3决策树的快速角点检测算法;段汝娇等;《清华大学学报(自然科学版)》;20111215(第12期);全文 *

Also Published As

Publication number Publication date
CN111460456A (zh) 2020-07-28

Similar Documents

Publication Publication Date Title
CN103020978B (zh) 结合多阈值分割与模糊聚类的sar图像变化检测方法
CN111753985B (zh) 基于神经元覆盖率的图像深度学习模型测试方法与装置
CN111126386B (zh) 场景文本识别中基于对抗学习的序列领域适应方法
CN102938071B (zh) 基于非局部均值的sar图像变化检测模糊聚类分析方法
CN109165688A (zh) 一种安卓恶意软件家族分类器构建方法及其分类方法
CN111753881A (zh) 一种基于概念敏感性量化识别对抗攻击的防御方法
CN110688968B (zh) 基于多示例深度卷积记忆网络的高光谱目标检测方法
CN114595732B (zh) 基于深度聚类的雷达辐射源分选方法
CN111382438B (zh) 基于多尺度卷积神经网络的恶意软件检测方法
CN113657491A (zh) 一种用于信号调制类型识别的神经网络设计方法
CN112560596B (zh) 一种雷达干扰类别识别方法及系统
CN114255403A (zh) 基于深度学习的光学遥感图像数据处理方法及系统
CN113297572A (zh) 基于神经元激活模式的深度学习样本级对抗攻击防御方法及其装置
CN114139631B (zh) 一种面向多目标训练对象可选择的灰盒的对抗样本生成方法
CN113177520B (zh) 一种基于集成学习的智能辐射源识别方法
CN113343123A (zh) 一种生成对抗多关系图网络的训练方法和检测方法
CN111460456B (zh) 一种基于敏感度实现清晰决策树与模糊决策树的攻击方法
CN116977834A (zh) 一种开放条件下分布内外图像识别方法
CN111368625A (zh) 一种基于级联优化的行人目标检测方法
CN116452876A (zh) 一种弱监督多标签分布外样本分类检测方法
CN113887633B (zh) 基于il的闭源电力工控系统恶意行为识别方法及系统
CN113190851B (zh) 恶意文档检测模型的主动学习方法、电子设备及存储介质
CN115409705A (zh) 一种面向sar图像目标识别模型的对抗样本生成方法
CN115659323A (zh) 一种基于信息熵理论结合卷积神经网络的入侵检测方法
CN114818845A (zh) 一种噪声稳健的高分辨距离像特征选择方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant