CN115619607A - 基于强化学习的多阶段资源攻防分配方法及系统 - Google Patents
基于强化学习的多阶段资源攻防分配方法及系统 Download PDFInfo
- Publication number
- CN115619607A CN115619607A CN202211096394.6A CN202211096394A CN115619607A CN 115619607 A CN115619607 A CN 115619607A CN 202211096394 A CN202211096394 A CN 202211096394A CN 115619607 A CN115619607 A CN 115619607A
- Authority
- CN
- China
- Prior art keywords
- stage
- resource
- target
- resource allocation
- scheme
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000002787 reinforcement Effects 0.000 title claims abstract description 37
- 230000007123 defense Effects 0.000 title claims abstract description 30
- 238000013468 resource allocation Methods 0.000 claims abstract description 84
- 230000008901 benefit Effects 0.000 claims abstract description 31
- 230000006399 behavior Effects 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 14
- 238000011835 investigation Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 9
- 230000006378 damage Effects 0.000 claims description 8
- 230000004083 survival effect Effects 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 5
- 229910052731 fluorine Inorganic materials 0.000 claims description 3
- 125000001153 fluoro group Chemical group F* 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 2
- 238000013461 design Methods 0.000 claims description 2
- 238000011161 development Methods 0.000 abstract description 2
- 238000001514 detection method Methods 0.000 description 5
- 230000003014 reinforcing effect Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000001186 cumulative effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008485 antagonism Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0637—Strategic management or analysis, e.g. setting a goal or target of an organisation; Planning actions based on goals; Analysis or evaluation of effectiveness of goals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/04—Constraint-based CAD
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Educational Administration (AREA)
- Tourism & Hospitality (AREA)
- Evolutionary Computation (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Development Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- General Business, Economics & Management (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Game Theory and Decision Science (AREA)
- Quality & Reliability (AREA)
- Health & Medical Sciences (AREA)
- Operations Research (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Primary Health Care (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于强化学习的多阶段资源攻防分配方法及系统,属于装备发展规划技术领域。所述方法包括接收多阶段资源分配规划数据;构建博弈资源对抗模型;利用强化学习求解所述博弈资源对抗模型;根据求解结果,选取各阶段Q‑Value最大的对应方案,生成总的规划期内,各阶段双方的具体资源分配方案。所述系统基于上述方法进行多阶段资源攻防分配。本发明考虑了多阶段的资源分配问题,生成整个周期内的最优资源分配策略,能够为多阶段的攻防博弈资源分配提供辅助决策,使资源效益最大化。
Description
技术领域
本发明属于装备发展规划技术领域,具体涉及一种基于强化学习的多阶段资源分配方法及系统。
背景技术
目前,国土安全防御方面的研究已引起广泛关注,主要聚焦如何利用有限资源实现效益最大化。通常来说,防守方需要合理部署防护资源,保护自身重要目标;而进攻方合理部署资源实施打击,旨在摧毁重要目标已提出不同博弈模型,以丰富现实中各种可能情形下的资源分配问题。针对上述攻防问题,不同研究人员基于博弈论展开了广泛研究,以更好表征和度量攻防双方的对抗行为。
很多研究中已提出不同博弈模型,以丰富现实中各种情形下的资源分配问题。。然而目前大部分研究局限于考虑单阶段单进攻者的情况,而多阶段的资源分配在现实中同样常见,但现有研究中鲜有研究考虑多阶段多进攻者情况下的资源分配情况。通常在多阶段情况发生时,仅是将单阶段的资源分配进行简单叠加。但随着规划周期和阶段的增多,现有的方法已经难以满足需求。
发明内容
技术问题:本发明提供一种考虑多阶段情形的基于强化学习的多阶段资源攻防分配方法及系统,从而为多阶段的攻防博弈资源分配提供辅助决策,使资源效益最大化。
技术方案:第一方面,本发明提供一种基于强化学习的多阶段资源攻防分配方法,其特征在于,包括:
接收多阶段资源分配规划数据;
构建博弈资源对抗模型;
利用强化学习求解所述博弈资源对抗模型;
根据求解结果,选取各阶段Q-Value最大的对应方案,生成总的规划期内,各阶段双方的具体资源分配方案。
进一步地,所述的博弈资源对抗模型包括:
在任一阶段t,存在如下资源约束:
在nt次侦查后剩余伪装目标个数为:
其中,Ht表示防守者在t阶段新部署的伪装目标数目;Jt表示防守者在t阶段未被识别的伪装目标数目;w表示各阶段伪装目标被识别出来的概率;
在识别出Kt个伪装目标的情形下,防守者的真实目标在阶段t被击毁的概率:
若真实目标未被击毁,则其在当前阶段t发挥效益为:
vt=σ*t
进一步地,所述的利用强化学习求解所述博弈资源对抗模型的方法包括:
在每个阶段,基于当前攻防双方的资源剩余情况,更新当前阶段的解空间;
通过序列博弈理论求得各阶段下的纳什均衡解;
基于上个阶段优化过程获得的解,利用最优Q-Value选择一个资源分配方案,并更新当前阶段下选择该资源分配方案解的Q-Value。
进一步地,在获取最优Q-Value时,需要构建回报函数,所述回报函数为:
其中,pt为t阶段成功击毁真实目标的概率;1-pt为在t时刻真实目标存活的概率,vt为真实目标t时刻发挥的价值,x'为防守者在下一阶段的可能方案,Nx'为下一阶段所有可能的防守方部署方案个数,pt+1为防守者采取方案x'后的击毁概率。
进一步地,更新当前阶段下选择该资源分配方案解的Q-Value的方法为
其中,Q(St,at)代表在状态St下选择方案at的Q-Value,α是学习率,γ代表折扣因素。
第二方面,本发明提供一种基于强化学习的多阶段资源攻防分配系统,包括:
数据接收模块,其被配置为接收多阶段资源分配规划数据;
模型构建模块,其被配置为用于构建博弈资源对抗模型;
求解模块,其被配置为利用强化学习求解所述博弈资源对抗模型;
方案生成模块,其被配置为根据求解结果,选取各阶段Q-Value最大的对应方案,生成总的规划期内,各阶段双方的具体资源分配方案。
进一步地,所述的博弈资源对抗模型包括:
在任一阶段t,存在如下资源约束:
在nt次侦查后剩余伪装目标个数为:
其中,Ht表示防守者在t阶段新部署的伪装目标数目;Jt表示防守者在t阶段未被识别的伪装目标数目;w表示各阶段伪装目标被识别出来的概率;
在识别出Kt个伪装目标的情形下,防守者的真实目标在阶段t被击毁的概率:
若真实目标未被击毁,则其在当前阶段t发挥效益为:
vt=σ*t
进一步地,所述的利用强化学习求解所述博弈资源对抗模型的方法包括:
在每个阶段,基于当前攻防双方的资源剩余情况,更新当前阶段的解空间;
通过序列博弈理论求得各阶段下的纳什均衡解;
基于上个阶段优化过程获得的解,利用最优Q-Value选择一个资源分配方案,并更新当前阶段下选择该资源分配方案解的Q-Value。
进一步地,在获取最优Q-Value时,需要构建回报函数,所述回报函数为:
其中,pt为t阶段成功击毁真实目标的概率;1-pt为在t时刻真实目标存活的概率,vt为真实目标t时刻发挥的价值,x'为防守者在下一阶段的可能方案,Nx'为下一阶段所有可能的防守方部署方案个数,pt+1为防守者采取方案x'后的击毁概率。
进一步地,更新当前阶段下选择该资源分配方案解的Q-Value的方法为
其中,Q(St,at)代表在状态St下选择方案at的Q-Value,α是学习率,γ代表折扣因素。
本发明与现有技术相比,研究了多阶段下考虑多进攻者威胁的资源分配,并将将强化学习应用于多阶段的资源分配,借鉴博弈论均衡解的概念,模型在各阶段的分配中,防守者旨在最大化目标效益,而进攻者旨在最大化摧毁真实目标。采用强化学习可有效对多阶段问题进行水平搜索,形成任意阶段的策略规则,从而有效保证决策结果在整个阶段的最优性。本发明能够生成整个周期内的最优资源分配策略,能够为多阶段的攻防博弈资源分配提供辅助决策,使资源效益最大化。
附图说明
图1为本发明实施例中基于强化学习的多阶段资源攻防分配方法的流程图;
图2为本发明的示例中各阶段双方资源分配结果示意图;
图3为本发明的示例中是否采取强化学习下防守者各阶段期望效益图;
图4为本发明的示例中进攻者是否合作情形下防守者各阶段期望效益图。
具体实施方式
下面结合实施例和说明书附图对本发明作进一步的说明。
首先,对实施例中涉及的符号进行解释说明:
M:进攻者个数;
m={1,…,M}:进攻者的指标;
T:阶段个数;
t={1,…,T}:阶段的指标;
X:防守者资源约束;
Ym:第m个进攻者的资源约束,m={1,…,M};
xt1:防守者在t阶段用于部署伪装目标的资源;
xt2:防守者在t阶段用于加强真实目标的资源;
s:部署一个伪装目标所需消耗资源;
c:进攻者发动一次侦查行为所需消耗资源;
W:各阶段伪装目标被识别出来的概率;
Ht:防守者在t阶段新部署的伪装目标数目;
Kt:防守者在t阶段被识别的伪装目标数目;
Jt:防守者在t阶段未被识别的伪装目标数目;
pt:t阶段成功击毁真实目标的概率;
vt:防守者真实目标在t阶段发挥的效用;
β:攻防双方在实施打击中的对抗强度指标;
g:防守者在各阶段的资源分配比例;
h:进攻者在各阶段的资源分配比例。
图1示出了本发明所提出的基于强化学习的多阶段资源攻防分配方法的流程图。结合图1所示,本发明包括如下步骤:
步骤S100:接收多阶段资源分配规划数据。可能需要的数据包括:进攻者个数、阶段个数、防守者资源约束、进攻者资源约束、部署一个伪装目标所需资源、识别一个伪装目标所需资源、伪装目标被识别的概率、真实目标价值增长率、攻防双方对抗强度指标、防守者各阶段资源分配比例和进攻者各阶段资源分配比例等。
步骤S200:构建博弈资源对抗模型。
本发明重点聚焦一个防守者与多个进攻者之间的序列博弈中,多阶段情形下的防护资源分配问题:有限的资源条件下,防守者如何将防护措施按阶段合理分配以最大程度发挥真实目标的效益?进攻者集体在观察到防守者的动作后,如何相互配合选择各自的进攻策略,以获取集体最大的收益?相比于传统的序列对抗,多阶段资源分配,更加突出时间维度,并非将单阶段下的资源分配进行简单叠加。其特点在于之前阶段的策略选择直接影响后续阶段的解空间,阶段之间相互紧密关联。本发明基于如下基本假设:
(1)各阶段中,防守者可分配资源用于加固真实目标,也可部署伪装目标以迷惑进攻者;
(2)各阶段中,各进攻者可分配资源识别伪装目标,也可在剩余目标之间平均分配资源实施无差别打击;
(3)进攻者实施打击成功概率取决于双方在该目标上投入的资源,下文中采用“对抗函数”进行度量;
(4)进攻者各阶段可分配一定资源(比如发动一次侦查行为)以一定概率识别出伪装目标,也可发动多次侦查,每次侦查行为相对独立;
(5)一次成功的攻击可摧毁真实目标,而失败的攻击不会对真实目标产生损伤;
(6)攻、防双方在各阶段存在资源约束,且当前阶段的资源不累加到下个阶段使用;
(7)进攻者之间协同合作,进攻者的资源分配可以叠加使用,最大化集体的效益价值;
(8)进攻者在各阶段选择最大化自身利益的资源分配策略,即最小化真实目标发挥的效用;
(9)防守者旨在最大化真实目标在多个阶段中发挥的累积效用,进攻者旨在最小化该目标在各阶段中发挥的累积效用。
在序列博弈中,各阶段攻防双方存在两次交互行为。第一次交互行为聚焦于防守者部署伪装目标迷惑进攻者,而进攻者分配一定资源识别伪装目标。第二次交互行为聚焦于防守者部署资源加强真实目标,而进攻者分配一定资源攻击剩余未被识别目标。
在任一阶段t,由于进攻者无法准确识别真实目标和伪装目标,假设在该阶段进攻者共发动了nt次侦查行为(nt≥0),则当前阶段存在如下资源约束:
假设任一阶段新部署Ht个伪装目标,上一阶段剩余Jt-1个未被成功识别伪装目标。由于各阶段的多次侦查行为相对独立,则在nt次侦查后剩余伪装目标个数为:
其中,Ht+Jt-1为发动侦查行为之前当前阶段所有的伪装目标个数之和,
Jt≥0,J0=0。
在任一阶段t,进攻者识别完伪装目标后,在剩余未被识别的伪装目标Jt和真实目标之间实施无差别攻击。防守者在该阶段分配资源xt2加固真实目标,而攻击者在剩余目标之间平均分配资源,则分配在真实目标上的攻击资源为因此,在识别出Kt个伪装目标的情形下,防守者的真实目标在阶段t被击毁的概率采用如下竞赛函数来表示:
此处,β为博弈竞赛强度。当β=0时,双方对博弈结果影响相同。0<β<1时候,投入较少资源的选手具备更大的优势;该β=1时,双方对抗结果与双方投入的资源成正比;当β趋于无穷大时候,会出现“获胜者赢取一切”的现象。
若真实目标未被击毁,则其在当前阶段t发挥效益为
vt=σ*t (4)
防守者旨在最大化各阶段的累加期望效用,而不同进攻者旨在最小化真实目标的累加期望效用。同时,进攻者可以相互合作,共享各自的资源来对防守者实施攻击行为,若不合作,则各自相互独立,每名进攻者仅根据自身的资源约束进行决策。
步骤S300:利用强化学习求解所述博弈资源对抗模型。
基于强化学习的多阶段资源分配问题求解步骤如下:
(1)在每个阶段,基于当前攻防双方的资源剩余情况,更新当前阶段的解空间;
(2)序列博弈理论求得各阶段下的纳什均衡解。即防守者先分配资源用于加固真实目标和部署伪装目标;进攻者分配资源识别伪装目标和对剩余目标实施无差别打击;
(3)基于上个阶段优化过程获得的解,采用随机探索或者利用最优Q-Value选择一个资源分配方案,并更新当前阶段下选择该资源分配方案解的Q-Value;
(4)迭代上述步骤,直到达到停止标准。
在每一次的迭代计算中,通过计算当前阶段序列博弈问题生成资源分配方案。各个阶段存在资源约束情形下,防守者对应不同部署伪装目标个数以及加强真实目标的策略选择,每一个防守方案下进攻者也存在一个最优进攻选择,从所有选择组合中选择Value值最高的资源分配方案,即Q-Learning行为。在t=0处进行选择之后,然后根据所选动作生成下一个状态St+1。
在步骤(3)中涉及回报函数的构建,是衡量和计算资源分配方案Q-Value的重要依据。对于防守者,假设当前阶段St选择某个资源分配方案at的回报值Rt可以通过下式计算:
其中,1-pt为在t时刻真实目标存活的概率,vt为真实目标t时刻发挥的价值。本发明以真实目标发挥的期望效益来衡量当前资源分配方案的回报值。x'为防守者在下一阶段的可能方案,Nx'为下一阶段所有可能的防守方部署方案个数,pt+1为防守者采取方案x'后的击毁概率。传统的博弈论求解方法关注当前阶段的期望收益,即式子中(1-pt)×vt部分,来衡量资源分配效果,本发明回报函数的设定同时不仅仅考虑当前阶段的收益,同时考虑下一阶段的期望收益。通过两者的加和来衡量方案的优劣。
一旦计算出选中的资源分配方案对应的回报值Rt,则可通过如下公式对Q-Value进行更新:
其中,Q(St,at)代表在状态St下,选择方案at的Q-Value,α∈[0,1]是学习率,用于决定新信息被采用的程度,α=0代表不学习新信息,α=1代表只学习最近更新的信息。通常随机环境下选择一个较小。
步骤S400:根据求解结果,选取各阶段Q-Value最大的对应方案,生成总的规划期内,各阶段双方的具体资源分配方案。求解后可生成不同阶段的Q-Value矩阵,对应不同的攻防资源分配方案,选取各阶段Q-Value最大的对应方案,生成总的规划期内,各阶段双方的具体资源分配方案。
进一步地,为了验证本发明所提供方法的有效性,提供一个仿真示例进行验证。该示例中,参数设置如下:
(1)进攻者个数:假定存在3个进攻者,M=3;
(2)阶段个数:假定存在3个攻防阶段,T=3;
(3)防守者资源约束:X=25亿元;
(4)进攻者资源约束:Y=[8 12 10]亿元;
(5)部署一个伪装目标所需资源:s=1.6亿元;
(6)识别一个伪装目标所需资源:c=1.1亿元;
(7)伪装目标被识别的概率:w=0.3;
(9)攻防双方对抗强度指标:β=0.5;
(10)防守者各阶段资源分配比例:g=[0.3 0.5 0.2];
(11)进攻者各阶段资源分配比例:h=[0.2 0.6 0.20.3 0.5 0.20.4 0.3 0.3]。
基于上述方法,运行后可生成不同阶段的Q值矩阵,对应不同的攻防资源分配方案。选取各阶段Q值最大的对应方案,生成总的规划期内,各阶段双方的具体资源分配方案如图2所示。
上图分别展示了攻防双方在三个阶段上对资源的分配情况。其中,蓝色柱体表示防守者/进攻者在部署/识别伪装目标上的资源分配情况,而黄色柱体表示防守者/进攻者在巩固真实目标/攻击真实目标上的资源分配情况。
由图2知,防守者在第一阶段消耗3.2个单位资源部署了2个伪装目标,而三名进攻者联合分别分配0.545、0.737和0.918个单位资源,发动2次侦查行为用于识别伪装目标,攻防双方都将该阶段剩余资源全部用于防护/攻击真实目标。第二阶段,防守者仍然消耗1.6个单位资源部署1个伪装目标迷惑进攻者,而三名进攻者分别分配1.594、2.218和0.588个单位资源,共发起4轮侦查行为用于识别伪装目标,之后将当前阶段全部资源都用于在剩余目标之间实行无差别攻击。在第三阶段,防守者仍然消耗1.6个单位资源部署1个伪装目标,而三名进攻者分别分配0.336、0.277和0.487个单位资源,实施1次侦查行为识别伪装目标,之后将全部资源用于攻击所有剩余目标。
通过此资源分配方案,防守者真实目标在三个阶段的存活概率分别为0.52,0.57和0.52,且真实目标在整个阶段发挥的期望效益值累计达到7.91。
为验证参数对模型结果的影响,保持其他相关参数设置不变,分别改变目标价值增长率指标以及攻防对抗强度指标,对不同参数下的方案结果进行对比分析。
分别设置真实目标价值增长率为5、10、15、20和25,生成5种情形下的资源分配方案。
表1不同价值增长率下攻防资源分配对比
表1展示了不同真实目标价值增长率下攻防双方在各阶段的资源分配部署。其中,选取部署伪装目标/识别伪装目标的侦查行为次数来衡量各阶段双方的资源分配,剩余各阶段资源即全部用于加强真实目标和攻击真实目标。结果发现各情形下双方的最优资源分配结果一致,即防守者分别在三个阶段部署2、1和1个伪装目标,而进攻者分别在各个阶段实施2、4和1次侦查行为。防守者的期望效用随着真实目标价值的增大而增大。研究结果表明,攻防双方的资源分配策略不随真实目标的价值而改变。
分别设置攻防对抗强度指标为0.1、0.5、1、5和10,生成5种情形下的资源分配方案。
表2不同价值增长率下攻防资源分配对比
表2结果表明,对抗强度参数的变化导致攻防双方的资源分配结果略有差异。当β不超过1时候,攻防双方在三种情形下的资源分配相同,但效用随着β的增大而增大,主要得益于真实目标在各阶段的存活率不断增大。相比于其他阶段的资源分配,当β为5的时候,防守者分别在三个阶段部署2、3和1个伪装目标,而进攻者分别在三个阶段实施2、5和1次侦查行为。当β为10的时候,防守者分别在三个阶段部署1、4和1个伪装目标,而进攻者分别在三个阶段实施1、5和1次侦查行为。相比与之前行为,当β增大时候,防守者和进攻者分别在第二阶段加大了部署伪装目标和侦查行为的力度。当β不断增大时候,防守者不断调整自身在各阶段的资源分配情况,使得真实目标在各阶段的存活概率不断增大。
进一步地,为验证是否采用Q学习对防守者资源分配策略的影响,继续开展对比实验。采用强化学习策略依据Q函数选取策略时,不仅仅考虑当前阶段最优,同时考虑下一阶段。不采取强化学习策略时,防守者只选取当前阶段的纳什均衡最优解。图3给出了是否采取强化学习策略下防守者真实目标在各阶段发挥的期望效益结果。
由图3知,第一阶段考虑强化学习策略的分配方案所产生的期望收益略低于不考虑强化学习策略对应的收益,原因可能在于真实目标发挥的效益随着时间不断增大,因此防守者期望真实目标在下一阶段能发挥更大效益。对比发现第二阶段和第三阶段下的期望效益,采用强化学习策略下真实目标发挥期望效益要高于不采取强化学习。且利用Q学习策略生成的资源方案,可以保证真实目标在整个阶段发挥的期望效益累计值更优。
上文中各场景实验均假设不同的攻击者相互合作,即以最大化群体的效益为目标,共享支配各自的资源分配。下文拟假设各位进攻者不相互合作,即各阶段的进攻资源分配选择仅从最大化自身的效益出发。图4给出了进攻者是否合作策略下防守者的真实目标在各阶段发挥的期望效益结果。
由图4知,第一阶段两种策略的期望收益相同,在后面的第二和第三两个阶段,进攻者不合作情形下防守者真实目标发挥的期望效益都相对更高。即进攻者不合作对防守者更加有利,真实目标具备更高的存活概率且可以发挥更高的效益价值。对比两种情形下的资源分配方案,防守者的资源策略保持不变,但任一进攻者都不再分配资源去识别伪装目标。此分配策略的部分原因是任一单独进攻者在各阶段的资源有限,可能无法有效支撑用于识别伪装目标,因此单个进攻者更倾向于将有限的资源用于实施攻击。
进一步地,本发明提供一种基于强化学习的多阶段资源攻防分配系统,该系统主要是基于上文所提出的任一基于强化学习的多阶段资源攻防分配方法进行多阶段资源攻防分配。该系统包括:数据接收模块、模型构建模块、求解模块和方案生成模块。其中,数据接收模块被配置为接收多阶段资源分配规划数据;模型构建模块被配置为用于构建博弈资源对抗模型;求解模块被配置为利用强化学习求解所述博弈资源对抗模型;方案生成模块被配置为根据求解结果,选取各阶段Q-Value最大的对应方案,生成总的规划期内,各阶段双方的具体资源分配方案。对于各模块具体如何实现其功能,与所提供的方法的相应步骤相对应,此处不再赘述。
资源分配是攻防博弈中十分重要的现实问题,针对多阶段的攻防资源分配,本发明重点研究了多阶段下考虑多进攻者威胁的资源分配。本发明将强化学习应用于多阶段的资源分配中,借鉴博弈论均衡解的概念,模型在各阶段的分配中,防守者旨在最大化目标效益,而进攻者旨在最大化摧毁真实目标。采用强化学习可有效对多阶段问题进行水平搜索,形成任意阶段的策略规则,从而有效保证决策结果在整个阶段的最优性。
上述实施例仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和等同替换,这些对本发明权利要求进行改进和等同替换后的技术方案,均落入本发明的保护范围。
Claims (10)
1.一种基于强化学习的多阶段资源攻防分配方法,其特征在于,包括:
接收多阶段资源分配规划数据;
构建博弈资源对抗模型;
利用强化学习求解所述博弈资源对抗模型;
根据求解结果,选取各阶段Q-Value最大的对应方案,生成总的规划期内,各阶段双方的具体资源分配方案。
2.根据权利要求1所述的方法,其特征在于,所述的博弈资源对抗模型包括:
在任一阶段t,存在如下资源约束:
在nt次侦查后剩余伪装目标个数为:
其中,Ht表示防守者在t阶段新部署的伪装目标数目;Jt表示防守者在t阶段未被识别的伪装目标数目;w表示各阶段伪装目标被识别出来的概率;
在识别出Kt个伪装目标的情形下,防守者的真实目标在阶段t被击毁的概率:
若真实目标未被击毁,则其在当前阶段t发挥效益为:
vt=σ*t
其中,б表示真实目标发挥价值增长率。
3.根据权利要求2所述的方法,其特征在于,所述的利用强化学习求解所述博弈资源对抗模型的方法包括:
在每个阶段,基于当前攻防双方的资源剩余情况,更新当前阶段的解空间;
通过序列博弈理论求得各阶段下的纳什均衡解;
基于上个阶段优化过程获得的解,利用最优Q-Value选择一个资源分配方案,并更新当前阶段下选择该资源分配方案解的Q-Value。
6.一种基于强化学习的多阶段资源攻防分配系统,其特征在于,包括:
数据接收模块,其被配置为接收多阶段资源分配规划数据;
模型构建模块,其被配置为用于构建博弈资源对抗模型;
求解模块,其被配置为利用强化学习求解所述博弈资源对抗模型;
方案生成模块,其被配置为根据求解结果,选取各阶段Q-Value最大的对应方案,生成总的规划期内,各阶段双方的具体资源分配方案。
7.根据权利要求6所述的系统,其特征在于,所述的博弈资源对抗模型包括:
在任一阶段t,存在如下资源约束:
在nt次侦查后剩余伪装目标个数为:
其中,Ht表示防守者在t阶段新部署的伪装目标数目;Jt表示防守者在t阶段未被识别的伪装目标数目;w表示各阶段伪装目标被识别出来的概率;
在识别出Kt个伪装目标的情形下,防守者的真实目标在阶段t被击毁的概率:
若真实目标未被击毁,则其在当前阶段t发挥效益为:
vt=σ*t
其中,б表示真实目标发挥价值增长率。
8.根据权利要求7所述的系统,其特征在于,所述的利用强化学习求解所述博弈资源对抗模型的方法包括:
在每个阶段,基于当前攻防双方的资源剩余情况,更新当前阶段的解空间;
通过序列博弈理论求得各阶段下的纳什均衡解;
基于上个阶段优化过程获得的解,利用最优Q-Value选择一个资源分配方案,并更新当前阶段下选择该资源分配方案解的Q-Value。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211096394.6A CN115619607B (zh) | 2022-09-06 | 2022-09-06 | 基于强化学习的多阶段资源攻防分配方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211096394.6A CN115619607B (zh) | 2022-09-06 | 2022-09-06 | 基于强化学习的多阶段资源攻防分配方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115619607A true CN115619607A (zh) | 2023-01-17 |
CN115619607B CN115619607B (zh) | 2023-06-30 |
Family
ID=84858745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211096394.6A Active CN115619607B (zh) | 2022-09-06 | 2022-09-06 | 基于强化学习的多阶段资源攻防分配方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115619607B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117852650A (zh) * | 2024-01-05 | 2024-04-09 | 中国人民解放军国防科技大学 | 一种考虑时间约束的多目标攻防资源分配方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110300106A (zh) * | 2019-06-24 | 2019-10-01 | 中国人民解放军战略支援部队信息工程大学 | 基于Markov时间博弈的移动目标防御决策选取方法、装置及系统 |
CN113052289A (zh) * | 2021-03-16 | 2021-06-29 | 东南大学 | 一种基于博弈论的无人艇集群打击位置的选取方法 |
-
2022
- 2022-09-06 CN CN202211096394.6A patent/CN115619607B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110300106A (zh) * | 2019-06-24 | 2019-10-01 | 中国人民解放军战略支援部队信息工程大学 | 基于Markov时间博弈的移动目标防御决策选取方法、装置及系统 |
CN113052289A (zh) * | 2021-03-16 | 2021-06-29 | 东南大学 | 一种基于博弈论的无人艇集群打击位置的选取方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117852650A (zh) * | 2024-01-05 | 2024-04-09 | 中国人民解放军国防科技大学 | 一种考虑时间约束的多目标攻防资源分配方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115619607B (zh) | 2023-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xin et al. | An efficient rule-based constructive heuristic to solve dynamic weapon-target assignment problem | |
Hausken | Defense and attack for interdependent systems | |
Matlin | A review of the literature on the missile-allocation problem | |
EP0602673B1 (en) | System for allocating resources | |
CN108364138B (zh) | 基于对抗视角的武器装备发展规划建模与求解方法 | |
US20100250319A1 (en) | Methods and apparatus for optimal resource allocation | |
CN110300106A (zh) | 基于Markov时间博弈的移动目标防御决策选取方法、装置及系统 | |
Nguyen et al. | Regret-based optimization and preference elicitation for Stackelberg security games with uncertainty | |
CN109327427A (zh) | 一种面对未知威胁的动态网络变化决策方法及其系统 | |
Lenin et al. | Attacker profiling in quantitative security assessment based on attack trees | |
CN107566387A (zh) | 基于攻防演化博弈分析的网络防御行动决策方法 | |
CN111652475A (zh) | 联合作战体系作战能力多层次分析评估方法以及存储介质 | |
CN110401675A (zh) | 一种传感云环境下不确定性DDoS攻击防御方法 | |
CN115619607A (zh) | 基于强化学习的多阶段资源攻防分配方法及系统 | |
CN115328189B (zh) | 多无人机协同博弈决策方法和系统 | |
CN107277065A (zh) | 基于强化学习的检测高级持续威胁的资源调度方法 | |
CN117272306A (zh) | 基于交替最小化的联邦学习半目标投毒攻击方法及系统 | |
Wu et al. | Risk-attitude-based defense strategy considering proactive strike, preventive strike and imperfect false targets | |
CN110442146B (zh) | 无人机编队目标分配与空间占位联合决策方法及系统 | |
CN113792985B (zh) | 一种传感器-武器动态联合任务多目标分配方法 | |
Qiu et al. | Mt-mtd: muti-training based moving target defense trojaning attack in edged-AI network | |
CN113098908B (zh) | 一种基于多阶段博弈的虚假数据注入攻击防御方法及装置 | |
CN116708042B (zh) | 一种用于网络防御博弈决策的策略空间探索方法 | |
CN116579430A (zh) | 一种求解网络攻防博弈精炼bne的方法及系统 | |
CN116167723A (zh) | 多方阵营博弈的武器装备发展规划策略选择方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |