CN113132398A - 一种基于q学习的阵列蜜罐系统防御策略预测方法 - Google Patents
一种基于q学习的阵列蜜罐系统防御策略预测方法 Download PDFInfo
- Publication number
- CN113132398A CN113132398A CN202110439448.3A CN202110439448A CN113132398A CN 113132398 A CN113132398 A CN 113132398A CN 202110439448 A CN202110439448 A CN 202110439448A CN 113132398 A CN113132398 A CN 113132398A
- Authority
- CN
- China
- Prior art keywords
- array
- honeypot
- payoff
- learning
- cost
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000007123 defense Effects 0.000 title claims abstract description 52
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000008569 process Effects 0.000 claims description 12
- 230000006399 behavior Effects 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 5
- 230000009471 action Effects 0.000 claims description 4
- 230000008901 benefit Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000035772 mutation Effects 0.000 description 2
- 241000700605 Viruses Species 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/14—Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic
- H04L63/1441—Countermeasures against malicious traffic
- H04L63/1491—Countermeasures against malicious traffic using deception as countermeasure, e.g. honeypots, honeynets, decoys or entrapment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/147—Network analysis or design for predicting network behaviour
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明属于网络安全领域,涉及一种阵列蜜罐系统防御策略预测方法,所述方法首先确定博弈的参与者、选定参与者的策略集,构建阵列蜜罐攻防演化博弈模型,然后根据阵列蜜罐系统可以同时提供真实服务和蜜罐服务的特征计算参与者的收益,利用基于玻尔兹曼探索的Q学习复制者动态方程分析阵列蜜罐系统防御策略的演化过程,最后求解阵列蜜罐攻防系统的演化博弈均衡,预测阵列蜜罐系统本次博弈的最优防御策略。将基于玻尔兹曼探索的Q学习方程与复制者动态相结合,通过不断地学习、试错和调整可以有效克服传统演化博弈中复制者动态局部贪婪的问题,促使系统探索更多的可用策略以达到阵列蜜罐系统最优防御的目的。
Description
技术领域
本发明属于网络安全领域,特别涉及一种基于Q学习的阵列蜜罐系统防御策略预测方法。
背景技术
随着互联网的普及,网络系统的安全受到了各种病毒、蠕虫和木马的威胁。然而,现有的被动式防御,如防火墙、入侵检测技术等已经无法抵御当今世界的网络攻击威胁。幸运的是,主动防御技术弥补了被动式防御的不足,如阵列蜜罐技术,通过多台任务主机协同工作且任意地伪随机切换形成一个不断变化的阵列陷阱,以抵御愈发动态化的攻击威胁。为了增强阵列蜜罐系统抵御攻击的能力,应该重点加强系统在应对攻击时做出正确防御决策和准确分析的能力,这对于网络安全防护具有重要意义。
博弈论是研究决策主体的行为发生直接相互作用时候的决策以及这种决策的均衡问题。由于阵列蜜罐系统攻防过程中,攻防双方的对立性、非合作性以及策略依存性的特征与博弈论的思想高度一致,博弈论已被应用于阵列蜜罐攻防过程的防御策略选取和优化研究中。事实上,阵列蜜罐系统攻防过程相当于是攻防双方在不完全信息条件下的一种有限理性的动态对抗过程,而现有的阵列蜜罐博弈模型几乎都是基于完全理性的静态博弈模型,这与现实并不相符。
演化博弈理论是基于有限理性状态且参与人的行为在不完全信息条件下进行的一种强调动态均衡的动态演化理论。因此,用演化博弈理论推理阵列蜜罐攻防系统的防御策略准确度更高。传统的演化博弈模型采用具有选择机制的复制者动态方程,该方程推理出来的最优策略要求个体的期望收益必须高于整体的平均收益,这样会使得策略陷入局部最优解。如果参与者能够探索更多的可用策略,就可以追求更好的攻防效果,使得攻防双方的收益达到最优化。
Q学习是强化学习的一种经典算法,该算法使得智能体无需环境模型,把学习看成“尝试-评价”的过程,通过迭代机制实现马尔可夫决策过程下的最优策略选择。因此,针对阵列蜜罐演化博弈模型中复制者动态方程具有局部贪婪的问题,将Q学习引入复制者动态方程,使得复制者动态方程同时具有选择项和突变项,以更加准确地提供一种基于Q学习的阵列蜜罐系统防御策略预测方法。
发明内容
为了克服传统演化博弈中复制者动态局部贪婪的问题,本发明提供一种基于Q学习的阵列蜜罐系统防御策略预测方法,所述方法首先确定博弈的参与者、选定参与者的策略集,构建阵列蜜罐攻防演化博弈模型,然后根据阵列蜜罐系统可以同时提供真实服务和蜜罐服务的特征计算参与者的收益,利用基于玻尔兹曼探索的Q学习复制者动态方程分析阵列蜜罐系统防御策略的演化过程,最后求解阵列蜜罐攻防系统的演化博弈均衡,预测阵列蜜罐系统本次博弈的最优防御策略。本发明将基于玻尔兹曼探索的Q学习方程与复制者动态相结合可促使系统探索更多的可用策略以达到阵列蜜罐系统最优防御的目的。
本发明解决其技术问题所采用的技术方案:
一种基于Q学习的阵列蜜罐系统防御策略预测方法,所述方法包括以下步骤:
a.确定博弈的参与者为防御者、攻击者和用户,随后选定防御者的策略集为{SDefender1,SDefender2},攻击者的策略集为{SAttacker1,SAttacker2},用户的策略集为{SUser1,SUser2},其中,SDefender1表示防御者提供服务,SDefender2表示防御者不提供服务,SAttacker1表示攻击者攻击系统,SAttacker2表示攻击者不攻击系统,SUser1表示用户访问系统,SUser2表示用户不访问系统;
b.构建阵列蜜罐攻防演化博弈模型AHADEGM,该模型用五元组表示为AHADEGM=<N,S,P,Q,T>,其中,N表示博弈参与人空间,S表示攻防策略空间,P表示攻防信念空间,Q表示攻防博弈受益函数集合,T表示温度参数;
c.根据阵列蜜罐系统可以同时提供真实服务和蜜罐服务的特征计算参与者的收益
所述参与者收益为,当阵列蜜罐系统提供蜜罐服务时,防御者的收益UDefender=Networkpayoff+Dpayoff-Dcost,攻击者的收益UAttacker=-Dpayoff-Acost,合法用户的收益UUser=-Ucost,当阵列蜜罐系统提供真实服务时,防御者的收益UDefender=-Apayoff-Dcost,攻击者的收益UAttacker=Apayoff-Acost,合法用户的收益UUser=Upayoff,其中,Networkpayoff表示系统的正常收益,Dpayoff表示蜜罐系统被攻击后防御者的收益且等价于攻击蜜罐系统后攻击者的损失,Apayoff表示攻击者攻击正常系统所获收益且等价于正常系统被攻击后防御者的损失,Dcost表示防御者部署蜜罐的防御成本,Acost表示攻击者攻击服务器的攻击成本,Upayoff表示合法用户访问正常系统所获收益,Ucost表示合法用户误入蜜罐系统所受损失;
d.利用基于玻尔兹曼探索的Q学习复制者动态方程分析阵列蜜罐系统防御策略的演化过程
所述局中人的基于玻尔兹曼探索的Q学习复制者动态方程可以描述博弈参与者群体行为的演化趋势,方程表示为:
e.求解阵列蜜罐攻防系统的演化博弈均衡,预测阵列蜜罐系统本次博弈的最优防御策略
所述演化均衡方法为,联立阵列蜜罐系统博弈三方基于玻尔兹曼探索的Q学习复制者动态方程并令其为0,求解演化稳定平衡点,然后根据李雅普诺夫定理,通过分析雅可比矩阵特征值实部的正负可获得稳定均衡点,从而可预测阵列蜜罐系统的最优防御策略。
本发明是一种基于Q学习的阵列蜜罐系统防御策略预测方法,与现有技术相比,具有以下优点:
采用基于玻尔兹曼分布的Q学习复制者动态方程分析阵列蜜罐系统防御策略的演化过程,使系统在演化过程中能够探索更多的信息,解决了策略选取的局部贪婪问题,并且展示了系统的持续稳定性,也反应了攻防主体在不同初始状态下的最优防御策略形成过程。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面结合附图与具体实施方案对本发明做进一步说明:
图1是一种基于Q学习的阵列蜜罐系统防御策略预测方法的流程图。
图2是阵列蜜罐系统演化博弈树。
具体实施方式
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
本发明提供了一种基于Q学习的阵列蜜罐系统防御策略预测方法,所述方法包括以下步骤:
a.阵列蜜罐攻防演化博弈系统是一个由防御者、攻击者和用户组成的三方演化博弈系统。并且,阵列蜜罐系统选定防御者的策略集为{SDefender1,SDefender2},攻击者的策略集为{SAttacker1,SAttacker2},用户的策略集为{SUser1,SUser2},其中,SDefender1表示防御者提供服务,SDefender2表示防御者不提供服务,SAttacker1表示攻击者攻击系统,SAttacker2表示攻击者不攻击系统,SUser1表示用户访问系统,SUser2表示用户不访问系统。
b.构建阵列蜜罐攻防演化博弈模型AHADEGM,该模型用五元组表示为AHADEGM=<N,S,P,Q,T>,其中,N表示博弈参与人空间,S表示攻防策略空间,P表示攻防信念空间,Q表示攻防博弈受益函数集合,T表示温度参数。
所述步骤b中,参与人相互博弈后,根据自身的收益情况以一定的概率向有利于自身的策略进行转移,转移概率采用玻尔兹曼分布描述为:
其中,Paj(k)表示第k次攻防博弈时选择策略aj的概率,Qaj(k)代表选择此策略的期望收益。T为温度参数,高温导致策略选择的随机性和随机探索;低温导致策略选择时对Q值的高度利用;温度参数T会随时间而降低,以允许参与者对策略进行最初的随机探索和最终的选择挖掘。
c.根据阵列蜜罐系统可以同时提供真实服务和蜜罐服务的特征计算参与者的收益。
所述步骤c中,当阵列蜜罐系统提供蜜罐服务时,防御者的收益UDefender=Networkpayoff+Dpayoff-Dcost,攻击者的收益UAttacker=-Dpayoff-Acost,合法用户的收益UUser=-Ucost,当阵列蜜罐系统提供真实服务时,防御者的收益UDefender=-Apayoff-Dcost,攻击者的收益UAttacker=Apayoff-Acost,合法用户的收益UUser=Upayoff,其中,Networkpayoff表示系统的正常收益,Dpayoff表示蜜罐系统被攻击后防御者的收益且等价于攻击蜜罐系统后攻击者的损失,Apayoff表示攻击者攻击正常系统所获收益且等价于正常系统被攻击后防御者的损失,Dcost表示防御者部署蜜罐的防御成本,Acost表示攻击者攻击服务器的攻击成本,Upayoff表示合法用户访问正常系统所获收益,Ucost表示合法用户误入蜜罐系统所受损失。
d.利用基于玻尔兹曼探索的Q学习复制者动态方程分析阵列蜜罐系统防御策略的演化过程。
所述步骤d中,基于玻尔兹曼探索的Q学习复制者动态方程可以描述博弈参与者群体行为的演化趋势,分为选择项和突变项,则三方复制者动态方程为:
其中,表示t时刻防御者i选择提供服务的变化率,代表t时刻攻击者j选择攻击服务的变化率,代表t时刻合法用户p选择访问服务的变化率;UDefender1表示防御者i选择提供服务时的收益,表示防御者i的期望收益;UAttacker1表示攻击者j选择攻击服务时的收益,表示攻击者j的期望收益;UUser表示合法用户p选择访问服务时的收益,表示合法用户p的期望收益;T代表温度参数;α∈[0,1]为学习速率,在博弈参与者学习过程中为了加速算法收敛,α可以随时间适当减小。
e.求解阵列蜜罐攻防系统的演化博弈均衡,预测阵列蜜罐系统本次博弈的最优防御策略。
所述步骤e中,当联立阵列蜜罐系统博弈三方基于玻尔兹曼探索的Q学习复制者动态方程并令其为0时,阵列蜜罐系统本次演化博弈将达到稳定状态,此时方程组满足以下条件:
通过计算该方程组可求解演化稳定平衡点,然后令三方基于玻尔兹曼探索的Q学习复制者动态方程分别对x,y,z求偏导得到雅克比矩阵:
根据李雅普诺夫定理,将平衡点带入雅克比矩阵,通过分析雅可比矩阵特征值实部的正负可获得稳定均衡点,从而预测阵列蜜罐系统的最优防御策略。
Claims (3)
1.一种基于Q学习的阵列蜜罐系统防御策略预测方法,其特征在于,所述方法包含以下步骤:
a.确定博弈的参与者为防御者、攻击者和用户,随后选定防御者的策略集为提供服务和不提供服务,攻击者的策略集为攻击系统和不攻击系统,用户的策略集为访问系统和不访问系统;
b.构建阵列蜜罐攻防演化博弈模型,分别由参与者、策略集、策略转移概率、参与者的收益、温度参数五要素组成;
c.根据阵列蜜罐系统可以同时提供真实服务和蜜罐服务的特征计算参与者的收益为,当系统提供蜜罐服务时,防御者的收益UDefender=Networkpayoff+Dpayoff-Dcost,攻击者的收益UAttacker=-Dpayoff-Acost,合法用户的收益UUser=-Ucost,当系统提供真实服务时,防御者的收益UDefender=-Apayoff-Dcost,攻击者的收益UAttacker=Apayoff-Acost,合法用户的收益UUser=Upayoff,其中,Networkpayoff表示系统的正常收益,Dpayoff表示蜜罐系统被攻击后防御者的收益且等价于攻击蜜罐系统后攻击者的损失,Apayoff表示攻击者攻击正常系统所获收益且等价于正常系统被攻击后防御者的损失,Dcost表示防御者部署蜜罐的防御成本,Acost表示攻击者攻击服务器的攻击成本,Upayoff表示合法用户访问正常系统所获收益,Ucost表示合法用户误入蜜罐系统所受损失;
d.利用基于玻尔兹曼探索的Q学习复制者动态方程分析阵列蜜罐系统防御策略的演化过程;
e.求解阵列蜜罐攻防系统的演化博弈均衡,根据均衡分析预测阵列蜜罐系统的最优防御策略。
3.根据权利要求1所述的一种基于Q学习的阵列蜜罐系统防御策略预测方法,其特征在于,所述步骤e中,联立阵列蜜罐系统博弈三方的基于玻尔兹曼探索的Q学习复制者动态方程并令其为0,可求解演化稳定平衡点,然后根据李雅普诺夫定理,通过分析雅可比矩阵特征值实部的正负可获得稳定均衡点,从而预测阵列蜜罐系统的最优防御策略。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110439448.3A CN113132398B (zh) | 2021-04-23 | 2021-04-23 | 一种基于q学习的阵列蜜罐系统防御策略预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110439448.3A CN113132398B (zh) | 2021-04-23 | 2021-04-23 | 一种基于q学习的阵列蜜罐系统防御策略预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113132398A true CN113132398A (zh) | 2021-07-16 |
CN113132398B CN113132398B (zh) | 2022-05-31 |
Family
ID=76779419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110439448.3A Active CN113132398B (zh) | 2021-04-23 | 2021-04-23 | 一种基于q学习的阵列蜜罐系统防御策略预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113132398B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114978731A (zh) * | 2022-05-30 | 2022-08-30 | 北京计算机技术及应用研究所 | 一种基于多样性扩展的诱捕蜜罐实现系统及方法 |
CN116827685A (zh) * | 2023-08-28 | 2023-09-29 | 成都乐超人科技有限公司 | 基于深度强化学习的微服务系统动态防御策略方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106488393A (zh) * | 2016-09-30 | 2017-03-08 | 天津大学 | 基于演化博弈机制的分簇无线传感器网络簇头选举模型 |
CN107483486A (zh) * | 2017-09-14 | 2017-12-15 | 中国人民解放军信息工程大学 | 基于随机演化博弈模型的网络防御策略选取方法 |
CN108512837A (zh) * | 2018-03-16 | 2018-09-07 | 西安电子科技大学 | 一种基于攻防演化博弈的网络安全态势评估的方法及系统 |
CN108833401A (zh) * | 2018-06-11 | 2018-11-16 | 中国人民解放军战略支援部队信息工程大学 | 基于贝叶斯演化博弈的网络主动防御策略选取方法及装置 |
CN108833402A (zh) * | 2018-06-11 | 2018-11-16 | 中国人民解放军战略支援部队信息工程大学 | 一种基于有限理性博弈理论的网络最优防御策略选取方法及装置 |
CN110166428A (zh) * | 2019-04-12 | 2019-08-23 | 中国人民解放军战略支援部队信息工程大学 | 基于强化学习和攻防博弈的智能防御决策方法及装置 |
CN111224966A (zh) * | 2019-12-31 | 2020-06-02 | 中国人民解放军战略支援部队信息工程大学 | 基于演化网络博弈的最优防御策略选取方法 |
-
2021
- 2021-04-23 CN CN202110439448.3A patent/CN113132398B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106488393A (zh) * | 2016-09-30 | 2017-03-08 | 天津大学 | 基于演化博弈机制的分簇无线传感器网络簇头选举模型 |
CN107483486A (zh) * | 2017-09-14 | 2017-12-15 | 中国人民解放军信息工程大学 | 基于随机演化博弈模型的网络防御策略选取方法 |
CN108512837A (zh) * | 2018-03-16 | 2018-09-07 | 西安电子科技大学 | 一种基于攻防演化博弈的网络安全态势评估的方法及系统 |
CN108833401A (zh) * | 2018-06-11 | 2018-11-16 | 中国人民解放军战略支援部队信息工程大学 | 基于贝叶斯演化博弈的网络主动防御策略选取方法及装置 |
CN108833402A (zh) * | 2018-06-11 | 2018-11-16 | 中国人民解放军战略支援部队信息工程大学 | 一种基于有限理性博弈理论的网络最优防御策略选取方法及装置 |
CN110166428A (zh) * | 2019-04-12 | 2019-08-23 | 中国人民解放军战略支援部队信息工程大学 | 基于强化学习和攻防博弈的智能防御决策方法及装置 |
CN111224966A (zh) * | 2019-12-31 | 2020-06-02 | 中国人民解放军战略支援部队信息工程大学 | 基于演化网络博弈的最优防御策略选取方法 |
Non-Patent Citations (1)
Title |
---|
朱建明: "基于系统动力学的网络安全攻防演化博弈模型", 《通信学报》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114978731A (zh) * | 2022-05-30 | 2022-08-30 | 北京计算机技术及应用研究所 | 一种基于多样性扩展的诱捕蜜罐实现系统及方法 |
CN116827685A (zh) * | 2023-08-28 | 2023-09-29 | 成都乐超人科技有限公司 | 基于深度强化学习的微服务系统动态防御策略方法 |
CN116827685B (zh) * | 2023-08-28 | 2023-11-14 | 成都乐超人科技有限公司 | 基于深度强化学习的微服务系统动态防御策略方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113132398B (zh) | 2022-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Adversarial attacks against deep learning-based network intrusion detection systems and defense mechanisms | |
Hu et al. | Optimal decision making approach for cyber security defense using evolutionary game | |
CN110460572B (zh) | 基于Markov信号博弈的移动目标防御策略选取方法及设备 | |
CN109327427A (zh) | 一种面对未知威胁的动态网络变化决策方法及其系统 | |
Yamany et al. | OQFL: An optimized quantum-based federated learning framework for defending against adversarial attacks in intelligent transportation systems | |
Chukwudi et al. | Game theory basics and its application in cyber security | |
CN113132398B (zh) | 一种基于q学习的阵列蜜罐系统防御策略预测方法 | |
CN109714364A (zh) | 一种基于贝叶斯改进模型的网络安全防御方法 | |
Lu et al. | Intrusion detection of wireless sensor networks based on IPSO algorithm and BP neural network | |
CN114491541B (zh) | 基于知识图谱路径分析的安全运营剧本自动化编排方法 | |
CN112003854B (zh) | 基于时空博弈的网络安全动态防御决策方法 | |
CN111064702A (zh) | 基于双向信号博弈的主动防御策略选取方法及装置 | |
Jakóbik | Stackelberg game modeling of cloud security defending strategy in the case of information leaks and corruption | |
Miah et al. | Concealing Cyber-Decoys using Two-Sided Feature Deception Games. | |
CN113194059B (zh) | 移动目标防御策略选择的方法 | |
Haopu | Method for behavior-prediction of APT attack based on dynamic Bayesian game | |
Şeker | Use of Artificial Intelligence Techniques/Applications in Cyber Defense | |
Guan et al. | A Bayesian Improved Defense Model for Deceptive Attack in Honeypot-Enabled Networks | |
CN115296830B (zh) | 基于博弈论的网络协同攻击建模和危害定量分析方法 | |
CN114666107B (zh) | 移动雾计算中一种高级持续性威胁防御方法 | |
CN116248335A (zh) | 基于智能演化博弈的网络攻防策略选取方法及系统 | |
Chen et al. | Dynamic threshold strategy optimization for security protection in Internet of Things: An adversarial deep learning‐based game‐theoretical approach | |
Talompo et al. | NAIDS design using ChiMIC-KGS | |
Alavizadeh et al. | Cloud-based intrusion detection system using a deep neural network and human-in-the-loop decision making | |
Malik et al. | Network Intrusion Detection System Using Reinforcement Learning Techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |