CN111460456B - 一种基于敏感度实现清晰决策树与模糊决策树的攻击方法 - Google Patents
一种基于敏感度实现清晰决策树与模糊决策树的攻击方法 Download PDFInfo
- Publication number
- CN111460456B CN111460456B CN202010207227.9A CN202010207227A CN111460456B CN 111460456 B CN111460456 B CN 111460456B CN 202010207227 A CN202010207227 A CN 202010207227A CN 111460456 B CN111460456 B CN 111460456B
- Authority
- CN
- China
- Prior art keywords
- decision tree
- sample
- sensitivity
- fuzzy
- clear
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003066 decision tree Methods 0.000 title claims abstract description 162
- 230000035945 sensitivity Effects 0.000 title claims abstract description 57
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000012360 testing method Methods 0.000 claims abstract description 30
- 230000004048 modification Effects 0.000 claims abstract description 25
- 238000012549 training Methods 0.000 claims abstract description 24
- 238000012986 modification Methods 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims abstract description 9
- 230000008859 change Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- 150000001875 compounds Chemical class 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 abstract description 10
- 230000006872 improvement Effects 0.000 abstract description 3
- 238000005242 forging Methods 0.000 description 3
- 101710156645 Peptide deformylase 2 Proteins 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/57—Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
- G06F21/577—Assessing vulnerabilities and evaluating computer system security
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/02—Computing arrangements based on specific mathematical models using fuzzy logic
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Automation & Control Theory (AREA)
- Biomedical Technology (AREA)
- Fuzzy Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于敏感度实现清晰决策树与模糊决策树的攻击方法,包括:获取数据并进行数据处理;将处理后的数据划分为训练集和测试集,通过从训练样本中学习,测试集上验证,获得清晰决策树和模糊决策树;利用学习到的清晰决策树和模糊决策树的模型信息,计算样本被分为真实类别的置信度,计算特征的敏感度;选择有最大敏感度的特征进行修改;迭代获得伪造的攻击样本;将伪造的攻击样本集攻击学习到的决策树,比较决策树在测试集和伪造的样本集上的准确率,进而对攻击进行评估。本发明基于特征敏感度信息,减少对攻击目标的模型信息了解量;开辟了研究模糊系统在恶意环境中的鲁棒性的道路,发现数据模糊化对机器学习模型的鲁棒性的提升。
Description
技术领域
本发明涉及机器学习和对抗学习的技术领域,尤其是指一种基于敏感度实现清晰决策树与模糊决策树的攻击方法。
背景技术
人工智能在电商、农业、医疗、教育、医疗零售、金融、汽车、广告等领域的应用,各种机器学习系统被部署在人们的生活中,如何保证机器学习模型的安全性显得越来越重要。决策树,一种在数据挖掘中被广泛使用的机器学习模型之一,对它的安全性研究也显得十分必要。
目前攻击清晰决策树的方法按照攻击者对目标模型的了解程度有以下两种方法:1、白盒攻击:攻击者了解清晰决策树的所有信息,包括处理的任务信息,清晰决策树的结构信息,攻击者根据决策树的参数与结构信息,首先定位到清晰决策树对原样本的分类路径与分类结果,然后寻找临近的有不同分类结果的路径,根据路径中的条件,来修改样本,进而实现伪造样本的目的。2、黑盒攻击:每次通过询问攻击目标清晰决策树对构造的样本的分类结果,获取目标决策树的结构信息,即分支条件,然后递归地进行样本特征的修改与询问攻击目标清晰决策树的过程,最后根据获取的关于攻击目标的所有结构信息,构建一个替代清晰决策树模型,然后再基于替代清晰决策树,伪造恶意样本攻击目标清晰决策树。总体而言,两种攻击方法都非常依赖于攻击目标清晰决策树的结构信息,这意味着一方面攻击者必须获取攻击目标清晰决策树的所有信息;另一方面,由于模糊决策树与清晰决策树的结构差异,目前攻击清晰决策树的方法难以应用到攻击模糊决策树。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提出了一基于敏感度实现清晰决策树与模糊决策树的攻击方法,减少攻击者对攻击目标清晰决策树的结构信息量,让攻击者无需获取攻击目标的所有内部结构信息;利用样本输入的改动对决策树输出的影响计算特征的敏感度,进一步实现对模糊决策树的攻击,填补目前没有针对模糊决策树的攻击方法的空白。
为实现上述目的,本发明所提供的技术方案为:一种基于敏感度实现清晰决策树与模糊决策树的攻击方法,包括以下步骤:
1)获取数据并进行数据处理;
2)将处理后的数据划分为训练集和测试集,通过从训练样本中学习,测试集上验证,获得清晰决策树和模糊决策树;
3)利用学习到的清晰决策树和模糊决策树的模型信息,计算样本被分为真实类别的置信度,进一步计算特征的敏感度;
4)根据特征的敏感度,选择有最大敏感度的特征进行修改;
5)迭代执行步骤3)和4),直到满足终止条件,获得伪造的攻击样本集;
6)将伪造的攻击样本集攻击学习到的清晰决策树和模糊决策树,然后比较清晰决策树和模糊决策树在测试集和伪造的样本集上的准确率,进而对攻击进行评估。
在步骤1)中,所述数据是指从网上获取的公开数据集;所述数据处理是指对数据集的数据量、维度大小进行处理,以及特征标准化和特征模糊化。
在步骤2)中,将处理后的数据分层划分为训练集和测试集,其中训练集占70%,测试集占30%;然后用训练集训练清晰决策树和模糊决策树,用测试集来评估训练后的清晰决策树和模糊决策树的泛化能力;最后重复训练和测试清晰决策树和模糊决策树5次,然后用5次测试结果的平均值衡量清晰决策树和模糊决策树的泛化能力。
在步骤3)中,利用步骤2)中训练好的清晰决策树和模糊决策树的模型信息,计算样本被分为真实类别的置信度,进一步计算特征的敏感度,包括以下步骤:
3.1)选取需要修改特征,确定样本x的改动大小Δx:
Δx=[Δx1,Δx2,......,Δxn]
式中,n为样本的维度,Δxi是对特征i的改动大小;当i≠f时,Δxi=0;否则,Δxf=ε,ε表示特征修改大小;
3.2)根据清晰决策树与模糊决策树的模型信息,分别计算清晰决策树和模糊决策树将样本分为真实类别t的置信度Ct;
式中,Ht表示清晰决策树的所有路径中能将样本分为真实类别t的路径集合,D(h,x)代表路径h中被满足的条件数量,L(h)是该路径的条件数量;
式中,H表示模糊决策树的所有路径的集合,lt(h,x)表示模糊决策树的路径h将样本分为t类的概率,m(h,x)表示样本x属于路径h的程度;
3.3)计算每个特征的敏感度
根据清晰决策树和模糊决策树对原样本x和修改后的样本x+Δxf或者x-Δxf的置信度差异,计算得到敏感度:
在步骤4)中,利用步骤3)所有特征的敏感度,首先从所有特征的正或负向敏感度选取敏感度最大的特征:
在步骤5)中,考虑到攻击效率,从三个方面来终止样本的特征修改程序,只要任意一个条件满足,就终止程序:
a、当清晰决策树和模糊决策树将伪造的样本分为其它类别时,终止程序;
b、当伪造的样本与原样本之间的欧氏距离超过最大限制时,终止程序;
c、当迭代次数超过最大迭代次数限制时,终止程序。
在步骤6)中,用伪造的攻击样本集分别在训练后的清晰决策树和模糊决策树上测试,然后比较清晰决策树和模糊决策树在测试集和伪造的攻击样本集上的准确率;若准确率降低,则说明攻击有效;若清晰决策树的准确率减少量比模糊决策树多,则表示清晰决策树比模糊决策树的鲁棒性差;反之,则清晰决策树比模糊决策树的鲁棒性好。
本发明与现有技术相比,具有如下优点与有益效果:
1、本发明使用询问清晰决策树的策略计算特征的敏感度,减少了攻击者需要了解的信息量,使得攻击策略更符合实际应用。
2、本发明通过计算特征的敏感度,引导攻击者对特征的修改,达到伪造攻击样本的目的,忽略了模糊决策树与清晰决策树的结构差异,使得攻击方法更易拓展到攻击模糊决策树。
3、本发明首次实现了对模糊决策树的攻击方法,填补了目前检测模糊决策树在恶意环境中的安全漏洞的空白。
4、本发明方法开辟了研究模糊系统在恶意环境中的鲁棒性的道路,发现了数据模糊化对机器学习模型的鲁棒性的提升,这为设计对机器学习模型防御攻击的方法提供了思路。
附图说明
图1为本发明逻辑流程示意图。
图2为清晰决策树和模糊决策树构建流程图。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
如图1和图2所示,本实施例所提供的基于敏感度实现清晰决策树与模糊决策树的攻击方法,使用了三个数据集、ID3清晰决策树和FID3模糊决策树为例子来进行说明,其包括以下步骤:
1)所述数据是指从网上获取的公开数据集,比如PDF恶意代码检测数据集,UCI机器学习库中的垃圾邮件数据集等;所述数据处理是指对数据集的数据量,维度大小进行处理,以及特征标准化和特征模糊化。
本实例选用了PDF,Spam,Spambase三个数据集来完成实验。三个数据集的详细信息见表1。
表1数据集信息
数据集 | 类别数目 | 样本数目 | 特征数目 |
2 | 1000 | 114 | |
Spam | 2 | 2000 | 200 |
Spambase | 2 | 4600 | 57 |
2)将处理后的数据分层划分为训练集和测试集,其中训练集占70%,测试集占30%;然后用训练集训练ID3清晰决策树和FID3模糊决策树,ID采用信息增益选择特征,FID3采用模糊信息增益选择特征;然后用测试集来评估训练后的决策树的泛化能力;最后重复训练和测试决策树5次,然后用5次测试结果的平均值衡量决策树的泛化能力。
3)利用步骤2)中训练好的ID3清晰决策树和FID模糊决策树的模型信息,计算样本被分为真实类别的置信度,进一步计算特征的敏感度,包括以下步骤:
3.1)选取需要修改特征,确定样本x的改动大小Δx:
Δx=[Δx1,Δx2,......,Δxn]
式中,n为样本的维度,Δxi是对特征i的改动大小;当i≠f时,Δxi=0;否则,Δxf=ε。
3.2)根据ID3清晰决策树与FID3模糊决策树的模型信息,分别计算清晰决策树和模糊决策树将样本分为真实类别t的置信度Ct:
式中,Ht表示清晰决策树ID3的所有路径中能将样本分为真实类别t的路径集合,D(h,x)代表路径h中被满足的条件数量,L(h)是该路径的条件数量。
式中,H表示模糊决策树FID3的所有路径的集合,lt(h,x)表示模糊决策树FID3的路径h将样本分为t类的概率,m(h,x)表示样本x属于路径h的程度。
3.3)计算每个特征的敏感度。根据清晰和模糊决策树对原样本x和修改后的样本(x+Δxf或者x-Δxf)的置信度差异,计算得到敏感度:
4)利用步骤3)所有特征的敏感度,首先从所有特征的正(负)向敏感度选取敏感度最大的特征。
5)考虑到攻击效率,从三个方面来终止样本的特征修改程序。只要任意一个条件满足,就终止程序:
a、当清晰决策树和模糊决策树将伪造的样本分为其它类别时,终止程序。
b、当伪造的样本与原样本之间的欧氏距离超过最大限制(dmax=0.15)时,终止程序。
c、当迭代次数超过最大迭代次数限制(500)时,终止程序。
6)用伪造的攻击样本集分别在训练后的清晰决策树和模糊决策树上测试,然后比较ID3清晰决策树和FID3模糊决策树在测试集和伪造的攻击样本集上的准确率。在下表2中,当dmax=0.15时,ID3清晰决策树和FID3模糊决策树的准确率降低,则说明攻击有效;而且清晰决策树的准确率减少量比模糊决策树多0.8左右,即清晰决策树比模糊决策树的鲁棒性差。
表2 ID3清晰决策树和FID3模糊决策树在测试集(dmax=0)与伪造的样本集(dmax=0.15)的准确率比较
综上所述,在采用以上方案后,本发明为攻击清晰决策树提供了新的方法,基于特征敏感度信息,减少对攻击目标的模型信息了解量;首次提出可以攻击模糊决策树的方法,开辟了研究模糊系统在恶意环境中的鲁棒性的道路,同时发现数据模糊化对机器学习模型的鲁棒性的提升,为设计针对机器学习模型防御攻击的方法提供思路,值得推广。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。
Claims (5)
1.一种基于敏感度实现清晰决策树与模糊决策树的攻击方法,其特征在于,包括以下步骤:
1)获取数据并进行数据处理;
2)将处理后的数据划分为训练集和测试集,通过从训练样本中学习,测试集上验证,获得清晰决策树和模糊决策树;
3)利用步骤2)中训练好的清晰决策树和模糊决策树的模型信息,计算样本被分为真实类别的置信度,进一步计算特征的敏感度,包括以下步骤:
3.1)选取需要修改特征,确定样本x的改动大小Δx:
Δx=[Δx1,Δx2,......,Δxn]
式中,n为样本的维度,Δxi是对特征i的改动大小;当i≠f时,Δxi=0;否则,Δxf=ε,ε表示特征修改大小;
3.2)根据清晰决策树与模糊决策树的模型信息,分别计算清晰决策树和模糊决策树将样本分为真实类别t的置信度Ct;
式中,Ht表示清晰决策树的所有路径中能将样本分为真实类别t的路径集合,D(h,x)代表路径h中被满足的条件数量,L(h)是该路径的条件数量;
式中,H表示模糊决策树的所有路径的集合,lt(h,x)表示模糊决策树的路径h将样本分为t类的概率,m(h,x)表示样本x属于路径h的程度;
3.3)计算每个特征的敏感度
根据清晰决策树和模糊决策树对原样本x和修改后的样本x+Δxf或者x-Δxf的置信度差异,计算得到敏感度:
Mf+(x)=Ct(x)-Ct(x+Δxf),
Mf-(x)=Ct(x)-Ct(x-Δxf)
4)根据特征的敏感度,选择有最大敏感度的特征进行修改;
5)迭代执行步骤3)和4),直到满足终止条件,获得伪造的攻击样本集;
6)用伪造的攻击样本集分别在训练后的清晰决策树和模糊决策树上测试,然后比较清晰决策树和模糊决策树在测试集和伪造的攻击样本集上的准确率;若准确率降低,则说明攻击有效;若清晰决策树的准确率减少量比模糊决策树多,则表示清晰决策树比模糊决策树的鲁棒性差;反之,则清晰决策树比模糊决策树的鲁棒性好。
2.根据权利要求1所述的一种基于敏感度实现清晰决策树与模糊决策树的攻击方法,其特征在于:在步骤1)中,所述数据是指从网上获取的公开数据集;所述数据处理是指对数据集的数据量、维度大小进行处理,以及特征标准化和特征模糊化。
3.根据权利要求1所述的一种基于敏感度实现清晰决策树与模糊决策树的攻击方法,其特征在于:在步骤2)中,将处理后的数据分层划分为训练集和测试集,其中训练集占70%,测试集占30%;然后用训练集训练清晰决策树和模糊决策树,用测试集来评估训练后的清晰决策树和模糊决策树的泛化能力;最后重复训练和测试清晰决策树和模糊决策树5次,然后用5次测试结果的平均值衡量清晰决策树和模糊决策树的泛化能力。
5.根据权利要求1所述的一种基于敏感度实现清晰决策树与模糊决策树的攻击方法,其特征在于:在步骤5)中,考虑到攻击效率,从三个方面来终止样本的特征修改程序,只要任意一个条件满足,就终止程序:
a、当清晰决策树和模糊决策树将伪造的样本分为其它类别时,终止程序;
b、当伪造的样本与原样本之间的欧氏距离超过最大限制时,终止程序;
c、当迭代次数超过最大迭代次数限制时,终止程序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010207227.9A CN111460456B (zh) | 2020-03-23 | 2020-03-23 | 一种基于敏感度实现清晰决策树与模糊决策树的攻击方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010207227.9A CN111460456B (zh) | 2020-03-23 | 2020-03-23 | 一种基于敏感度实现清晰决策树与模糊决策树的攻击方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111460456A CN111460456A (zh) | 2020-07-28 |
CN111460456B true CN111460456B (zh) | 2023-03-24 |
Family
ID=71682927
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010207227.9A Active CN111460456B (zh) | 2020-03-23 | 2020-03-23 | 一种基于敏感度实现清晰决策树与模糊决策树的攻击方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111460456B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7197504B1 (en) * | 1999-04-23 | 2007-03-27 | Oracle International Corporation | System and method for generating decision trees |
CN104573873A (zh) * | 2015-01-23 | 2015-04-29 | 哈尔滨工业大学 | 一种基于模糊决策树的航站楼离港旅客流量预测方法 |
CN108764267A (zh) * | 2018-04-02 | 2018-11-06 | 上海大学 | 一种基于对抗式决策树集成的拒绝服务攻击检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190258953A1 (en) * | 2018-01-23 | 2019-08-22 | Ulrich Lang | Method and system for determining policies, rules, and agent characteristics, for automating agents, and protection |
-
2020
- 2020-03-23 CN CN202010207227.9A patent/CN111460456B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7197504B1 (en) * | 1999-04-23 | 2007-03-27 | Oracle International Corporation | System and method for generating decision trees |
CN104573873A (zh) * | 2015-01-23 | 2015-04-29 | 哈尔滨工业大学 | 一种基于模糊决策树的航站楼离港旅客流量预测方法 |
CN108764267A (zh) * | 2018-04-02 | 2018-11-06 | 上海大学 | 一种基于对抗式决策树集成的拒绝服务攻击检测方法 |
Non-Patent Citations (2)
Title |
---|
决策树ID3新属性选择方法;王子京等;《现代电子技术》;20181203(第23期);全文 * |
基于模糊ID3决策树的快速角点检测算法;段汝娇等;《清华大学学报(自然科学版)》;20111215(第12期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111460456A (zh) | 2020-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111753985B (zh) | 基于神经元覆盖率的图像深度学习模型测试方法与装置 | |
CN111126386B (zh) | 场景文本识别中基于对抗学习的序列领域适应方法 | |
CN102938071B (zh) | 基于非局部均值的sar图像变化检测模糊聚类分析方法 | |
CN109165688A (zh) | 一种安卓恶意软件家族分类器构建方法及其分类方法 | |
CN111753881A (zh) | 一种基于概念敏感性量化识别对抗攻击的防御方法 | |
CN110688968B (zh) | 基于多示例深度卷积记忆网络的高光谱目标检测方法 | |
CN114595732B (zh) | 基于深度聚类的雷达辐射源分选方法 | |
CN111382438B (zh) | 基于多尺度卷积神经网络的恶意软件检测方法 | |
CN113657491A (zh) | 一种用于信号调制类型识别的神经网络设计方法 | |
CN114330652B (zh) | 一种目标检测攻击方法和装置 | |
CN113297572A (zh) | 基于神经元激活模式的深度学习样本级对抗攻击防御方法及其装置 | |
CN114255403A (zh) | 基于深度学习的光学遥感图像数据处理方法及系统 | |
CN104680549A (zh) | 基于高阶邻域tmf模型的sar图像变化检测方法 | |
CN116977834B (zh) | 一种开放条件下分布内外图像识别方法 | |
CN113343123A (zh) | 一种生成对抗多关系图网络的训练方法和检测方法 | |
CN111368625B (zh) | 一种基于级联优化的行人目标检测方法 | |
CN111460456B (zh) | 一种基于敏感度实现清晰决策树与模糊决策树的攻击方法 | |
CN113177520A (zh) | 一种基于集成学习的智能辐射源识别方法 | |
CN116721343A (zh) | 一种基于深度卷积神经网络的跨域田间棉铃识别方法 | |
CN116452876A (zh) | 一种弱监督多标签分布外样本分类检测方法 | |
CN113887633B (zh) | 基于il的闭源电力工控系统恶意行为识别方法及系统 | |
CN113190851B (zh) | 恶意文档检测模型的主动学习方法、电子设备及存储介质 | |
CN115409705A (zh) | 一种面向sar图像目标识别模型的对抗样本生成方法 | |
CN115659323A (zh) | 一种基于信息熵理论结合卷积神经网络的入侵检测方法 | |
CN114818845A (zh) | 一种噪声稳健的高分辨距离像特征选择方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |