CN113987512A - 一种信息系统安全风险评估方法 - Google Patents

一种信息系统安全风险评估方法 Download PDF

Info

Publication number
CN113987512A
CN113987512A CN202111269641.3A CN202111269641A CN113987512A CN 113987512 A CN113987512 A CN 113987512A CN 202111269641 A CN202111269641 A CN 202111269641A CN 113987512 A CN113987512 A CN 113987512A
Authority
CN
China
Prior art keywords
information system
model
attack
state
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111269641.3A
Other languages
English (en)
Other versions
CN113987512B (zh
Inventor
周晏平
尹俊
华国忠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Antai Information Technology Development Co ltd
Original Assignee
Jiangsu Antai Information Technology Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Antai Information Technology Development Co ltd filed Critical Jiangsu Antai Information Technology Development Co ltd
Priority to CN202111269641.3A priority Critical patent/CN113987512B/zh
Publication of CN113987512A publication Critical patent/CN113987512A/zh
Application granted granted Critical
Publication of CN113987512B publication Critical patent/CN113987512B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/57Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
    • G06F21/577Assessing vulnerabilities and evaluating computer system security
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/71Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer to assure secure computing or processing of information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/14Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic
    • H04L63/1441Countermeasures against malicious traffic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Computer And Data Communications (AREA)

Abstract

本发明涉及一种信息安全技术领域,公开了一种信息系统安全风险评估方法,包括:构建动态安全博弈模型;基于动态安全博弈模型,求解得到最优攻击策略;依据最优攻击策略以及信息系统状态作为输入,将信息系统安全风险级别作为输出,构建神经网络模型进行训练,得到最优模型参数;利用动态安全博弈模型生成信息系统的最优攻击策略,将最优攻击策略以及信息系统状态作为神经网络模型输入,神经网络模型输出得到的值为信息系统安全级别。本发明通过构建动态安全博弈模型,实现动态攻防环境下的信息安全博弈,并利用动态安全博弈模型生成信息系统的最优攻击策略,利用神经网络模型实时生成信息系统安全级别,实现信息系统安全风险的实时评估。

Description

一种信息系统安全风险评估方法
技术领域
本发明涉及信息安全的技术领域,尤其涉及一种信息系统安全风险评估方法。
背景技术
随着信息化进程的不断发展,信息管理系统与现代信息技术融合越来越深入,传统信息管理系统与互联网的界限逐渐被打破,并逐渐摆脱传统的封闭性转型为互联性的系统。因此网络攻击的存在不仅局限于网络信息安全领域,也逐渐蔓延到信息管理系统领域。各种行业信息面临被窃取、篡改、删除等危险,严重的信息管理系统攻击事故时有发生。
由于信息系统中攻击者和防御者之间信息的不确定性,传统完全信息静态博弈模型不能满足信息系统中更复杂的安全风险评估场景。
鉴于此,如何实现信息系统安全风险的实时评估,成为本领域技术人员亟待解决的问题。
发明内容
本发明提供一种信息系统安全风险评估方法,目的在于(1)实现动态攻防环境下的信息安全博弈;(2)实现信息系统安全风险的实时评估。
实现上述目的,本发明提供的一种信息系统安全风险评估方法,包括以下步骤:
S1:构建动态安全博弈模型;
S2:基于动态安全博弈模型,求解得到最优攻击策略;
S3:依据最优攻击策略以及信息系统状态作为输入,将信息系统安全风险级别作为输出,构建神经网络模型进行训练,得到最优模型参数;
S4:将最优模型参数作为神经网络模型参数,利用动态安全博弈模型生成信息系统的最优攻击策略,将最优攻击策略以及信息系统状态作为神经网络模型输入,神经网络模型输出得到的值为信息系统安全级别,即为信息系统风险评估结果。
作为本发明的进一步改进方法:
所述S1步骤中构建信息系统的动态安全博弈模型,包括:
建立信息系统环境下的动态安全博弈模型(S,A,P,ε,V);
S表示信息系统中的状态集合,每种状态即为网络节点在信息系统中可能存在的状态,所述状态为信息系统中网络实体的特权状态,分为无任何特权、远程访问特权、本地用户特权以及根特权;
A表示信息系统中攻击者和防御者的动作集合,攻击者动作为信息系统网络中存在的弱点信息,防御者动作为预设定的防御策略集合中的防御动作策略;
P表示状态转移概率,P(s,a,s′)∈[0,1],表示攻击者和防御者在当前网络节点状态s中执行动作a,到达下一个网络节点状态s′的概率,其中s,s′∈S,a∈A;所述状态转移为信息系统上网络节点的特权状态变化,状态转移公式为:
P(st+1=s′|st,at,st-1,at-1,…,s0,a0)=P(st+1=s′|st,at)
其中:
st+1表示在t+1时刻的网络节点特权状态;
at表示在t时刻攻击者和防御者执行动作at
P(st+1=s′|st,at)表示在t时刻攻击者和防御者执行动作at,网络节点特权状态转换为s′的状态转移概率;
ε∈[0,1]为防御策略因子,ε越接近1,则表示防御者在选择防御动作时更关注长期回报;
V(s,a,s′)表示攻击者和防御者在当前网络节点状态s中执行动作a,到达下一个网络节点状态s′的信息系统回报值,将信息系统中易被攻击的网络节点设置为较大的系统回报值;所述系统回报值的设定是基于网络节点的基本分数和环境分数,基本分数为供应商给出的网络节点漏洞得分,环境得分表示用户队网络节点的评价得分,分数越高表示网络节点越容易遭受攻击,则网络节点的系统回报值越大。
所述S2步骤中基于动态安全博弈模型确定信息系统中的攻击策略函数,包括:
将动态安全博弈模型中防御者的动作空间设置为Adef,攻击者的动作空间设置为Aatt,则当防御者选择防御动作d∈Adef,攻击者选择攻击动作g∈Aatt时,将攻击者的最大回报值收益作为攻击策略函数,所述攻击策略函数为:
Figure BDA0003328230620000021
Figure BDA0003328230620000022
Figure BDA0003328230620000023
其中:
(d,g)为攻击-防御动作对;
V[s,(d,g),s′]表示执行攻击-防御动作对(d,g)后,信息系统网络节点特权状态由s转换为s′的回报值;
R(d)表示执行防御动作d时,攻击者的最大回报值收益;
π[s,(d,g)]表示信息系统网络节点在特权状态为s时执行攻击-防御动作对(d,g);
Kπ(s′)表示特权状态为s′的值函数。
所述S2步骤中将攻击策略函数扩展到信息系统中的n个网络节点,包括:
建立信息系统中n个网络节点的攻击策略函数:
Figure BDA0003328230620000024
其中:
Ri(di)表示信息系统中网络节点i采用防御动作di时,攻击者的最大回报值收益;
gi表示攻击者对网络节点i采用的攻击动作;
si表示网络节点i的特权状态;
(di,gi)表示信息系统中网络节点i的攻击-防御动作对。
所述S2步骤中基于信息系统中的攻击策略函数,求解得到最优攻击策略,包括:
信息系统中攻击者的回报值收益M为:
Figure BDA0003328230620000025
其中:
n表示信息系统中网络节点的数目;
计算每个网络节点在采用防御动作后,能获得最大回报值收益M的攻击动作集合
Figure BDA0003328230620000026
其中,
Figure BDA0003328230620000027
表示攻击者对信息系统中网络节点i的攻击动作,将攻击动作集合
Figure BDA0003328230620000028
作为信息系统的最优攻击策略。
所述S3步骤中以最优攻击策略以及信息系统状态作为输入,将信息系统安全风险级别作为输出,构建神经网络模型,包括:
所述神经网络模型的输入为最优攻击策略向量
Figure BDA0003328230620000029
以及系统状态B,输出为信息系统的安全风险级别,所述神经网络模型的计算流程为:
1)将最优攻击策略向量以及系统状态
Figure BDA00033282306200000210
作为神经网络模型输入层的输入值;
2)隐藏层对输入的最优攻击策略向量进行特征映射:
y=σ(wG+b)
其中:
σ(·)表示激活函数,其中激活函数为Softmax函数;
w表示隐藏层中的权重值;
b表示隐藏层中的偏置量;
y表示识别的信息系统安全风险级别。
所述S3步骤中训练神经网络模型,得到最优模型参数,包括:
获取U组攻击策略向量、攻击策略向量对应的信息系统状态及安全风险级别的训练数据,构建神经网络模型的损失函数:
Figure BDA0003328230620000031
其中:
Figure BDA0003328230620000032
为神经网络模型对第i组训练数据的信息系统安全风险级别输出值;
Figure BDA0003328230620000033
为神经网络模型对第i组训练数据的信息系统状态输出值;
yi为第i组训练数据的信息系统安全风险级别实际值;
Bi为第i组训练数据的信息系统状态实际值;
利用梯度下降算法对隐藏层中的参数进行更新,参数更新公式如下:
Figure BDA0003328230620000034
Figure BDA0003328230620000035
其中:
α为学习率,将其设置为0.6;
重复上述更新步骤,直到损失函数值Loss达到最小,此时的参数即为模型最优参数,完成模型训练。
所述S4步骤中利用动态安全博弈模型生成信息系统的最优攻击策略,将最优攻击策略作为神经网络模型输入,神经网络模型输出得到的值为信息系统安全级别,包括:
将神经网络模型中初始隐藏层参数替换为训练得到的模型最优参数,得到更新后的神经网络模型;
对于任意信息系统,利用动态安全博弈模型生成信息系统的最优攻击策略,将最优攻击策略作为神经网络模型输入,神经网络模型输出得到的值为信息系统安全级别,即为信息系统风险评估结果。
相对于现有技术,本发明提出一种信息系统安全风险评估方法,该技术具有以下优势:
首先,本方案提出一种信息系统环境下的动态安全博弈模型建立方法,所建立的动态安全博弈模型为(S,A,P,ε,V),其中S表示信息系统中的状态集合,A表示信息系统中攻击者和防御者的动作集合,ε∈[0,1]为防御策略因子,ε越接近1,则表示防御者在选择防御动作时更关注长期回报;V(s,a,s′)表示攻击者和防御者在当前网络节点状态s中执行动作a,到达下一个网络节点状态s′的信息系统回报值,将信息系统中易被攻击的网络节点设置为较大的系统回报值;所述系统回报值的设定是基于网络节点的基本分数和环境分数,基本分数为供应商给出的网络节点漏洞得分,环境得分表示用户队网络节点的评价得分,分数越高表示网络节点越容易遭受攻击,则网络节点的系统回报值越大。通过将动态安全博弈模型中防御者的动作空间设置为Adef,攻击者的动作空间设置为Aatt,则当防御者选择防御动作d∈Adef,攻击者选择攻击动作g∈Aatt时,将攻击者的最大回报值收益作为攻击策略函数,所述攻击策略函数为:
Figure BDA0003328230620000041
Figure BDA0003328230620000042
Figure BDA0003328230620000043
其中:(d,g)为攻击-防御动作对;V[s,(d,g),s′]表示执行攻击-防御动作对(d,g)后,信息系统网络节点特权状态由s转换为s′的回报值;R(d)表示执行防御动作d时,攻击者的最大回报值收益;π[s,(d,g)]表示信息系统网络节点在特权状态为s时执行攻击-防御动作对(d,g);Kπ(s′)表示特权状态为s′的值函数,从而实现信息系统动态攻防环境下的信息安全博弈,且考虑到了攻防双方的信息不对称性,即攻击者信息要高于防御方。同时相较于传统方案,本方案将攻击策略函数扩展到信息系统中的n个网络节点,则信息系统中攻击者的回报值收益M为:
Figure BDA0003328230620000044
其中:n表示信息系统中网络节点的数目;计算每个网络节点在采用防御动作后,能获得最大回报值收益M的攻击动作集合
Figure BDA0003328230620000045
其中,
Figure BDA0003328230620000046
表示攻击者对信息系统中网络节点i的攻击动作,将攻击动作集合
Figure BDA0003328230620000047
作为信息系统的最优攻击策略,表明本方案具有较好的扩展性,通过实时计算信息系统中攻击者的回报值收益,实现最优攻击策略的实时更新。
同时,本方案以最优攻击策略以及信息系统状态作为输入,将信息系统安全风险级别作为输出,构建神经网络模型,所述神经网络模型的输入为最优攻击策略向量
Figure BDA0003328230620000048
以及系统状态B,输出为信息系统的安全风险级别,所述神经网络模型的计算流程为:将最优攻击策略向量以及系统状态
Figure BDA0003328230620000049
作为神经网络模型输入层的输入值;隐藏层对输入的最优攻击策略向量进行特征映射:
y=σ(wG+b)
其中:y表示识别的信息系统安全风险级别。获取U组攻击策略向量、攻击策略向量对应的信息系统状态及安全风险级别的训练数据,构建神经网络模型的损失函数:
Figure BDA00033282306200000410
其中:
Figure BDA00033282306200000411
为神经网络模型对第i组训练数据的信息系统安全风险级别输出值;
Figure BDA00033282306200000412
为神经网络模型对第i组训练数据的信息系统状态输出值;yi为第i组训练数据的信息系统安全风险级别实际值;Bi为第i组训练数据的信息系统状态实际值;利用梯度下降算法对隐藏层中的参数进行更新,参数更新公式如下:
Figure BDA00033282306200000413
Figure BDA00033282306200000414
其中:α为学习率,将其设置为0.6;重复上述更新步骤,直到损失函数值Loss达到最小,此时的参数即为模型最优参数,完成模型训练。将神经网络模型中初始隐藏层参数替换为训练得到的模型最优参数,得到更新后的神经网络模型;对于任意信息系统,利用动态安全博弈模型生成信息系统的最优攻击策略,将最优攻击策略作为神经网络模型输入,神经网络模型输出得到的值为信息系统安全级别,即为信息系统风险评估结果,实现信息系统安全级别的实时评估。
附图说明
图1为本发明一实施例提供的一种信息系统安全风险评估方法的流程示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
S1:构建动态安全博弈模型。
所述S1步骤中构建信息系统的动态安全博弈模型,包括:
建立信息系统环境下的动态安全博弈模型(S,A,P,ε,V);
S表示信息系统中的状态集合,每种状态即为网络节点在信息系统中可能存在的状态,所述状态为信息系统中网络实体的特权状态,分为无任何特权、远程访问特权、本地用户特权以及根特权;
A表示信息系统中攻击者和防御者的动作集合,攻击者动作为信息系统网络中存在的弱点信息,防御者动作为预设定的防御策略集合中的防御动作策略;
P表示状态转移概率,P(s,a,s′)∈[0,1],表示攻击者和防御者在当前网络节点中执行动作a,使得网络节点状态由状态s转换为状态s′的概率,其中s,s′∈S,a∈A;所述状态转移为信息系统上网络节点的特权状态变化,状态转移公式为:
P(st+1=s′|st,at,st-1,at-1,…,s0,a0)=P(st+1=s′|st,at)
其中:
st+1表示在t+1时刻的网络节点特权状态;
at表示在t时刻攻击者和防御者执行动作at
P(st+1=s′|st,at)表示在t时刻攻击者和防御者执行动作at,网络节点特权状态转换为s′的状态转移概率;
ε∈[0,1]为防御策略因子,ε越接近1,则表示防御者在选择防御动作时更关注长期回报;
V(s,a,s′)表示攻击者和防御者在当前网络节点状态s中执行动作a,到达下一个网络节点状态s′的信息系统回报值,将信息系统中易被攻击的网络节点设置为较大的系统回报值;所述系统回报值的设定是基于网络节点的基本分数和环境分数,基本分数为供应商给出的网络节点漏洞得分,环境得分表示用户队网络节点的评价得分,分数越高表示网络节点越容易遭受攻击,则网络节点的系统回报值越大。
S2:基于动态安全博弈模型,求解得到最优攻击策略。
所述S2步骤中基于动态安全博弈模型确定信息系统中的攻击策略函数,包括:
将动态安全博弈模型中防御者的动作空间设置为Adef,攻击者的动作空间设置为Aatt,则当防御者选择防御动作d∈Adef,攻击者选择攻击动作g∈Aatt时,将攻击者的最大回报值收益作为攻击策略函数,所述攻击策略函数为:
Figure BDA0003328230620000051
Figure BDA0003328230620000052
Figure BDA0003328230620000053
其中:
(d,g)为攻击-防御动作对;
V[s,(d,g),s′]表示执行攻击-防御动作对(d,g)后,信息系统网络节点特权状态由s转换为s′的回报值;
R(d)表示执行防御动作d时,攻击者的最大回报值收益;
π[s,(d,g)]表示信息系统网络节点在特权状态为s时执行攻击-防御动作对(d,g);
Kπ(s′)表示特权状态为s′的值函数。
所述S2步骤中将攻击策略函数扩展到信息系统中的n个网络节点,包括:
建立信息系统中n个网络节点的攻击策略函数:
Figure BDA0003328230620000061
其中:
Ri(di)表示信息系统中网络节点i采用防御动作di时,攻击者的最大回报值收益;
gi表示攻击者对网络节点i采用的攻击动作;
si表示网络节点i的特权状态;
9di,gi)表示信息系统中网络节点i的攻击-防御动作对。
所述S2步骤中基于信息系统中的攻击策略函数,求解得到最优攻击策略,包括:
信息系统中攻击者的回报值收益M为:
Figure BDA0003328230620000062
其中:
n表示信息系统中网络节点的数目;
计算每个网络节点在采用防御动作后,能获得最大回报值收益M的攻击动作集合
Figure BDA0003328230620000063
其中,
Figure BDA0003328230620000064
表示攻击者对信息系统中网络节点i的攻击动作,将攻击动作集合
Figure BDA0003328230620000065
作为信息系统的最优攻击策略。
S3:依据最优攻击策略以及信息系统状态作为输入,将信息系统安全风险级别作为输出,构建神经网络模型进行训练,得到最优模型参数。
所述S3步骤中以最优攻击策略以及信息系统状态作为输入,将信息系统安全风险级别作为输出,构建神经网络模型,包括:
所述神经网络模型的输入为最优攻击策略向量
Figure BDA0003328230620000066
以及系统状态B,输出为信息系统的安全风险级别,所述神经网络模型的计算流程为:
1)将最优攻击策略向量以及系统状态
Figure BDA0003328230620000067
作为神经网络模型输入层的输入值;
2)隐藏层对输入的最优攻击策略向量进行特征映射:
y=σ(wG+b)
其中:
σ(·)表示激活函数,其中激活函数为Softmax函数;
w表示隐藏层中的权重值;
b表示隐藏层中的偏置量;
y表示识别的信息系统安全风险级别。
所述S3步骤中训练神经网络模型,得到最优模型参数,包括:
获取U组攻击策略向量、攻击策略向量对应的信息系统状态及安全风险级别的训练数据,构建神经网络模型的损失函数:
Figure BDA0003328230620000068
其中:
Figure BDA0003328230620000069
为神经网络模型对第i组训练数据的信息系统安全风险级别输出值;
Figure BDA00033282306200000610
为神经网络模型对第i组训练数据的信息系统状态输出值;
yi为第i组训练数据的信息系统安全风险级别实际值;
Bi为第i组训练数据的信息系统状态实际值;
利用梯度下降算法对隐藏层中的参数进行更新,参数更新公式如下:
Figure BDA0003328230620000071
Figure BDA0003328230620000072
其中:
α为学习率,将其设置为0.6;
重复上述更新步骤,直到损失函数值Loss达到最小,此时的参数即为模型最优参数,完成模型训练。
S4:将最优模型参数作为神经网络模型参数,利用动态安全博弈模型生成信息系统的最优攻击策略,将最优攻击策略以及信息系统状态作为神经网络模型输入,神经网络模型输出得到的值为信息系统安全级别,即为信息系统风险评估结果。
所述S4步骤中利用动态安全博弈模型生成信息系统的最优攻击策略,将最优攻击策略作为神经网络模型输入,神经网络模型输出得到的值为信息系统安全级别,包括:
将神经网络模型中初始隐藏层参数替换为训练得到的模型最优参数,得到更新后的神经网络模型;
对于任意信息系统,利用动态安全博弈模型生成信息系统的最优攻击策略,将最优攻击策略作为神经网络模型输入,神经网络模型输出得到的值为信息系统安全级别,即为信息系统风险评估结果。
需要说明的是,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (8)

1.一种信息系统安全风险评估方法,其特征在于,所述方法包括:
S1:构建动态安全博弈模型;
S2:基于动态安全博弈模型,求解得到最优攻击策略;
S3:依据最优攻击策略以及信息系统状态作为输入,将信息系统安全风险级别作为输出,构建神经网络模型进行训练,得到最优模型参数;
S4:将最优模型参数作为神经网络模型参数,利用动态安全博弈模型生成信息系统的最优攻击策略,将最优攻击策略以及信息系统状态作为神经网络模型输入,神经网络模型输出得到的值为信息系统安全级别,即为信息系统风险评估结果。
2.如权利要求1所述的一种信息系统安全风险评估方法,其特征在于,所述S1步骤中构建信息系统的动态安全博弈模型,包括:
建立信息系统环境下的动态安全博弈模型(S,A,P,ε,V);
S表示信息系统中的状态集合,每种状态即为网络节点在信息系统中可能存在的状态,所述状态为信息系统中网络实体的特权状态,分为无任何特权、远程访问特权、本地用户特权以及根特权;
A表示信息系统中攻击者和防御者的动作集合,攻击者动作为信息系统网络中存在的弱点信息,防御者动作为预设定的防御策略集合中的防御动作策略;
P表示状态转移概率,P(s,a,s′)∈[0,1],表示攻击者和防御者在当前网络节点中执行动作a,使得网络节点状态由状态s转换为状态s′的概率,其中s,s′∈S,a∈A;所述状态转移为信息系统上网络节点的特权状态变化,状态转移公式为:
P(st+1=s′|st,at,st-1,at-1,...,s0,a0)=P(st+1=s′|st,at)
其中:
st+1表示在t+1时刻的网络节点特权状态;
at表示在t时刻攻击者和防御者执行动作at
P(st+1=s′|st,at)表示在t时刻攻击者和防御者执行动作at,网络节点特权状态转换为s′的状态转移概率;
ε∈[0,1]为防御策略因子,ε越接近1,则表示防御者在选择防御动作时更关注长期回报;
V(s,a,s′)表示攻击者和防御者在当前网络节点状态s中执行动作a,到达下一个网络节点状态s′的信息系统回报值,将信息系统中易被攻击的网络节点设置为较大的系统回报值。
3.如权利要求2所述的一种信息系统安全风险评估方法,其特征在于,所述S2步骤中基于动态安全博弈模型确定信息系统中的攻击策略函数,包括:
将动态安全博弈模型中防御者的动作空间设置为Adef,攻击者的动作空间设置为Aatt,则当防御者选择防御动作d∈Adef,攻击者选择攻击动作g∈Aatt时,将攻击者的最大回报值收益作为攻击策略函数,所述攻击策略函数为:
Figure FDA0003328230610000011
Figure FDA0003328230610000012
Figure FDA0003328230610000013
其中:
(d,g)为攻击-防御动作对;
V[s,(d,g),s′]表示执行攻击-防御动作对(d,g)后,信息系统网络节点特权状态由s转换为s′的回报值;
R(d)表示执行防御动作d时,攻击者的最大回报值收益;
π[s,(d,g)]表示信息系统网络节点在特权状态为s时执行攻击-防御动作对(d,g);
Kπ(s′)表示特权状态为s′的值函数。
4.如权利要求3所述的一种信息系统安全风险评估方法,其特征在于,所述S2步骤中将攻击策略函数扩展到信息系统中的n个网络节点,包括:
建立信息系统中n个网络节点的攻击策略函数:
Figure FDA0003328230610000021
其中:
Ri(di)表示信息系统中网络节点i采用防御动作di时,攻击者的最大回报值收益;
gi表示攻击者对网络节点i采用的攻击动作;
si表示网络节点i的特权状态;
(di,gi)表示信息系统中网络节点i的攻击-防御动作对。
5.如权利要求4所述的一种信息系统安全风险评估方法,其特征在于,所述s2步骤中基于信息系统中的攻击策略函数,求解得到最优攻击策略,包括:
信息系统中攻击者的回报值收益M为:
Figure FDA0003328230610000022
其中:
n表示信息系统中网络节点的数目;
计算每个网络节点在采用防御动作后,能获得最大回报值收益M的攻击动作集合
Figure FDA0003328230610000023
其中,
Figure FDA0003328230610000024
表示攻击者对信息系统中网络节点i的攻击动作,将攻击动作集合
Figure FDA0003328230610000025
作为信息系统的最优攻击策略。
6.如权利要求5所述的一种信息系统安全风险评估方法,其特征在于,所述S3步骤中以最优攻击策略以及信息系统状态作为输入,将信息系统安全风险级别作为输出,构建神经网络模型,包括:
所述神经网络模型的输入为最优攻击策略向量
Figure FDA0003328230610000026
以及系统状态B,输出为信息系统的安全风险级别,所述神经网络模型的计算流程为:
1)将最优攻击策略向量以及系统状态
Figure FDA0003328230610000027
作为神经网络模型输入层的输入值;
2)隐藏层对输入的最优攻击策略向量进行特征映射:
y=σ(wG+b)
其中:
σ(·)表示激活函数;
w表示隐藏层中的权重值;
b表示隐藏层中的偏置量;
y表示识别的信息系统安全风险级别。
7.如权利要求6所述的一种信息系统安全风险评估方法,其特征在于,所述S3步骤中训练神经网络模型,得到最优模型参数,包括:
获取U组攻击策略向量、攻击策略向量对应的信息系统状态及安全风险级别的训练数据,构建神经网络模型的损失函数:
Figure FDA0003328230610000028
其中:
Figure FDA0003328230610000029
为神经网络模型对第i组训练数据的信息系统安全风险级别输出值;
Figure FDA0003328230610000031
为神经网络模型对第i组训练数据的信息系统状态输出值;
yi为第i组训练数据的信息系统安全风险级别实际值;
Bi为第i组训练数据的信息系统状态实际值;
利用梯度下降算法对隐藏层中的参数进行更新,参数更新公式如下:
Figure FDA0003328230610000032
Figure FDA0003328230610000033
其中:
α为学习率,将其设置为0.6;
重复上述更新步骤,直到损失函数值Loss达到最小,此时的参数即为模型最优参数,完成模型训练。
8.如权利要求7所述的一种信息系统安全风险评估方法,其特征在于,所述S4步骤中利用动态安全博弈模型生成信息系统的最优攻击策略,将最优攻击策略作为神经网络模型输入,神经网络模型输出得到的值为信息系统安全级别,包括:
将神经网络模型中初始隐藏层参数替换为训练得到的模型最优参数,得到更新后的神经网络模型;
对于任意信息系统,利用动态安全博弈模型生成信息系统的最优攻击策略,将最优攻击策略作为神经网络模型输入,神经网络模型输出得到的值为信息系统安全级别,即为信息系统风险评估结果。
CN202111269641.3A 2021-10-29 2021-10-29 一种信息系统安全风险评估方法 Active CN113987512B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111269641.3A CN113987512B (zh) 2021-10-29 2021-10-29 一种信息系统安全风险评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111269641.3A CN113987512B (zh) 2021-10-29 2021-10-29 一种信息系统安全风险评估方法

Publications (2)

Publication Number Publication Date
CN113987512A true CN113987512A (zh) 2022-01-28
CN113987512B CN113987512B (zh) 2022-09-30

Family

ID=79744133

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111269641.3A Active CN113987512B (zh) 2021-10-29 2021-10-29 一种信息系统安全风险评估方法

Country Status (1)

Country Link
CN (1) CN113987512B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115630754A (zh) * 2022-12-19 2023-01-20 北京云驰未来科技有限公司 智能网联汽车信息安全的预测方法、装置、设备及介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101420442A (zh) * 2008-12-11 2009-04-29 北京航空航天大学 基于博弈理论的网络安全风险评估系统
US20130273514A1 (en) * 2007-10-15 2013-10-17 University Of Southern California Optimal Strategies in Security Games
CN107623697A (zh) * 2017-10-11 2018-01-23 北京邮电大学 一种基于攻防随机博弈模型的网络安全态势评估方法
CN108322478A (zh) * 2018-03-05 2018-07-24 西安邮电大学 一种基于攻防博弈的网站防御策略选取方法
CN108400895A (zh) * 2018-03-19 2018-08-14 西北大学 一种基于遗传算法改进的bp神经网络安全态势评估算法
CN110278198A (zh) * 2019-06-04 2019-09-24 西安邮电大学 基于博弈论的网络中资产的安全风险评估方法
CN113509726A (zh) * 2021-04-16 2021-10-19 超参数科技(深圳)有限公司 交互模型训练方法、装置、计算机设备和存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130273514A1 (en) * 2007-10-15 2013-10-17 University Of Southern California Optimal Strategies in Security Games
CN101420442A (zh) * 2008-12-11 2009-04-29 北京航空航天大学 基于博弈理论的网络安全风险评估系统
CN107623697A (zh) * 2017-10-11 2018-01-23 北京邮电大学 一种基于攻防随机博弈模型的网络安全态势评估方法
CN108322478A (zh) * 2018-03-05 2018-07-24 西安邮电大学 一种基于攻防博弈的网站防御策略选取方法
CN108400895A (zh) * 2018-03-19 2018-08-14 西北大学 一种基于遗传算法改进的bp神经网络安全态势评估算法
CN110278198A (zh) * 2019-06-04 2019-09-24 西安邮电大学 基于博弈论的网络中资产的安全风险评估方法
CN113509726A (zh) * 2021-04-16 2021-10-19 超参数科技(深圳)有限公司 交互模型训练方法、装置、计算机设备和存储介质

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
XIAOYU WANG等: "Security situation prediction method of industrial control network based on ant colony-RBF neural network", 《2021 IEEE 2ND INTERNATIONAL CONFERENCE ON BIG DATA, ARTIFICIAL INTELLIGENCE AND INTERNET OF THINGS ENGINEERING (ICBAIE)》 *
刘江等: "基于不完全信息动态博弈的动态目标防御最优策略选取研究", 《电子学报》 *
张小飞等: "基于机器学习算法的电力信息网络安全态势感知研究", 《电器与能效管理技术》 *
李玺等: "基于Markov game模型的装备保障信息网络安全态势感知方法研究", 《计算机应用研究》 *
葛潇月等: "基于Stackelberg安全博弈的动态防御策略选取方法", 《计算机工程与应用》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115630754A (zh) * 2022-12-19 2023-01-20 北京云驰未来科技有限公司 智能网联汽车信息安全的预测方法、装置、设备及介质

Also Published As

Publication number Publication date
CN113987512B (zh) 2022-09-30

Similar Documents

Publication Publication Date Title
Wang et al. When blockchain meets AI: Optimal mining strategy achieved by machine learning
Nguyen et al. Deception in finitely repeated security games
CN107612878B (zh) 基于博弈论的动态窗口选择方法及无线网络信任管理系统
CN111625820A (zh) 一种基于面向AIoT安全的联邦防御方法
CN113987512B (zh) 一种信息系统安全风险评估方法
CN112560059B (zh) 一种基于神经通路特征提取的垂直联邦下模型窃取防御方法
CN112039864B (zh) 一种电力cps跨层安全风险分析的方法
Alcantara-Jimenez et al. Repeated Stackelberg security games: Learning with incomplete state information
CN113553591A (zh) 一种基于进化博弈论的多阶段动态防御的方法
CN114417427A (zh) 一种面向深度学习的数据敏感属性脱敏系统及方法
CN113708976A (zh) 一种基于深度强化学习的异质作战网络瓦解方法
JP2022013823A (ja) 人工ニューラルネットワークによって分散型ネットワークの健全性ステータス(health status)を予測するための方法
Zhang Impact of defending strategy decision on DDoS attack
Ma et al. Vulnerability association evaluation of internet of thing devices based on attack graph
CN114024738A (zh) 一种基于多阶段攻防信号的网络防御方法
Pricop et al. Fuzzy approach on modelling cyber attacks patterns on data transfer in industrial control systems
CN106411923B (zh) 基于本体建模的网络风险评估方法
CN115118462B (zh) 一种基于卷积增强链的数据隐私保护方法
Luo et al. A fictitious play‐based response strategy for multistage intrusion defense systems
CN116248335A (zh) 基于智能演化博弈的网络攻防策略选取方法及系统
CN115510986A (zh) 一种基于AdvGAN的对抗样本生成方法
CN115983389A (zh) 一种基于强化学习的攻防博弈决策方法
CN113935039A (zh) 基于模糊矩阵和纳什均衡的安全评估方法、设备及介质
Sun Research on the optimization management of cloud privacy strategy based on evolution game
CN113392141A (zh) 一种抗欺骗攻击的分布式数据多类别逻辑回归方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant