CN110119773B - 战略博弈系统的全局态势评估方法、系统和装置 - Google Patents
战略博弈系统的全局态势评估方法、系统和装置 Download PDFInfo
- Publication number
- CN110119773B CN110119773B CN201910377094.7A CN201910377094A CN110119773B CN 110119773 B CN110119773 B CN 110119773B CN 201910377094 A CN201910377094 A CN 201910377094A CN 110119773 B CN110119773 B CN 110119773B
- Authority
- CN
- China
- Prior art keywords
- cell
- unit
- game
- control force
- force
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000011156 evaluation Methods 0.000 claims abstract description 38
- 238000004364 calculation method Methods 0.000 claims description 22
- 238000003860 storage Methods 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 10
- 238000001816 cooling Methods 0.000 claims description 9
- 239000008280 blood Substances 0.000 claims description 7
- 210000004369 blood Anatomy 0.000 claims description 7
- 230000032823 cell division Effects 0.000 claims description 6
- 238000010801 machine learning Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 238000012876 topography Methods 0.000 claims 2
- 230000008569 process Effects 0.000 abstract description 13
- 230000010365 information processing Effects 0.000 abstract description 2
- 230000000007 visual effect Effects 0.000 abstract description 2
- 238000012800 visualization Methods 0.000 abstract description 2
- 238000013473 artificial intelligence Methods 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 8
- 239000003086 colorant Substances 0.000 description 7
- 238000011161 development Methods 0.000 description 7
- 238000011160 research Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000005855 radiation Effects 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 241000408655 Dispar Species 0.000 description 2
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 150000001875 compounds Chemical class 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000004575 stone Substances 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 239000009891 weiqi Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000016571 aggressive behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- XEYBRNLFEZDVAW-ARSRFYASSA-N dinoprostone Chemical compound CCCCC[C@H](O)\C=C\[C@H]1[C@H](O)CC(=O)[C@@H]1C\C=C/CCCC(O)=O XEYBRNLFEZDVAW-ARSRFYASSA-N 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 239000002243 precursor Substances 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明属于信息处理技术领域,具体涉及一种战略博弈系统的全局态势评估方方法、系统、装置,旨在为了解决在游戏地图上进行战略博弈对抗的全局态势直观可视化问题。本发明方法包括S100,提取待评估的博弈双方在战略博弈对抗中的复盘数据;S200,对复盘数据中的对战地图进行网格化,将地图划分为面积相等的单元格;S300,基于预设的博弈信息类型数据,通过预设的事态评估权重,计算博弈双方对各单元格的控制力;S400,对每一个单元格,基于博弈双方控制力确定该单元格的归属权;基于各单元格的归属权绘制全局态势图。本发明可以更好地模仿人类直觉的方式直观评估博弈过程中全局态势的演进与胜负观判断。
Description
技术领域
本发明属于信息处理技术领域,具体涉及一种战略博弈系统的全局态势评估方法、系统和装置。
背景技术
人工智能的概念最早是在20世纪50年代提出来的。随着20世纪60年代末和70年代专家系统的出现,人工智能被引入实际应用。1969年,国际人工智能联合会议(IJCAI)成立。到20世纪80年代末,第五代计算机的诞生及神经网络技术的成熟对人工智能的发展起到了很好的推动作用。互联网技术作为人工智能最有利推动者,90年代互联网及爆发式发展也给人工智能带来了研究热潮。21世纪以来,由于人工智能算法的进步,人工智能技术由于计算条件和计算能力的提高而进入了一个快速发展的时期。基于神经网络的深度学习算法开始了大规摸的实践。特别是随着互联网的发展,人工智能技术已经广泛应用于生活的各个方面。
在人工智能的发展历程中,人机博弈作为其中重要的研究内容,它的发展一直标志着人工智能理论与技术的阶段性目标。其中有三次可以称为里程碑式的人机博弈。第一次是1997年IBM公司的“深蓝”击败国际象棋大师卡斯帕罗夫,“深蓝”是基于知识规则引擎和强大计算机硬件的人工智能系统;第二次是2011年IBM公司的问答机器人“沃森”在美国智力问答竞赛节目中大胜人类冠军,“沃森”是基于自然语言理解和知识图谱的人工智能系统;第三次就是2016年的AlphaGo与李世石的围棋大战,AlphaGo最终以4:1的战绩战胜李世石,AlphaGo是基于蒙特卡洛树搜索和深度学习的人工智能系统。其中,由DeepMind公司推出的AhphaGo更是将人机博弈推向了研究制高点。AlphaGo中有两个突破性的进展,一个是监督学习的策略网络,该网络能够自主完成下一步最优落子的选择。第二个是价值网络,该网络能够通过整体局势来辅助落子。
目前的人工智能技术不光在AlphaGo中获得了较好的应用,在Atari游戏、围棋和第一人称3D射击游戏上达到了超越以前最优水平的表现。但时至目前,对与一些战略类游戏,AI还没有较好的表现。原因是相对于围棋、第一人称射击等游戏,这类游戏的动作空间和状态空间显得极其巨大,而且与围棋等完全公开环境不同,这类游戏的战争迷雾等设定使得对手状态不完全可知。
在战略类游戏中,大多数研究集中于即时制战略博弈系统星际争霸。但是目前根据DeepMind的研究表明,想要训练基于深度学习的端到端的星际争霸的AI智能体非常的困难。在最近的研究中,研究人员认为整合微观操作、建造指令预测和全局状态评估等能力的AI将会下下一步的研究方向。这也与AlphaGo中的“全局视野”不谋而合。
发明内容
为了解决现有技术中的上述问题,即为了解决在游戏地图上进行战略博弈对抗的全局态势直观可视化问题,本发明的第一方面,提出了一种战略博弈系统的全局态势评估方法,用于评估战略博弈对抗中博弈各个时刻的全局态势,该方法包括以下步骤:
步骤S100,提取待评估的博弈双方在战略博弈对抗中的复盘数据;
步骤S200,对复盘数据中的对战地图进行网格化,将地图划分为面积相等的单元格;
步骤S300,基于预设的博弈信息类型数据,通过预设的事态评估权重,计算博弈双方对各单元格的控制力;
步骤S400,对每一个单元格,基于博弈双方控制力确定该单元格的归属权;基于各单元格的归属权绘制全局态势图。
在一些优选实施方式中,所述预设的事态评估权重,基于胜率预测模型中博弈信息类型数据的特征贡献度设置;所述胜率预测模型基于机器学习模型构建,用于通过训练样本中的博弈信息类型数据及博弈对象胜负标签,获取各博弈信息类型数据的特征贡献度。
在一些优选实施方式中,所述预设的博弈信息类型数据包括兵力部署数据、经济利用数据、地形利用数据。
在一些优选实施方式中,所述预设的事态评估权重包括G组权重数据,其中G为战略博弈对抗所划分的阶段数量;所述胜率预测模型为G个,分别与战略博弈对抗所划分的阶段对应。
在一些优选实施方式中,所述单元格的控制力,其计算方法为:
其中,Control为博弈对象在单元格的控制力,为兵力控制权重,β为经济利用权重,γ为地形利用权重,Cunit为兵力部署对单元格的控制力值,Cland为经济策略对单元格的控制力值,Ceconomy为地形利用对单元格的控制力值。
在一些优选实施方式中,步骤S400中“基于各单元格的归属权绘制全局态势图”,其方法包括:
根据单元各归属权进行确定单元格的颜色;
根据单元格归属方控制力的占比确定颜色深度;
基于所获取的网格化对战地图中各单元格对应的颜色和颜色深度,确定各单元各的色彩,得到全局态势图。
在一些优选实施方式中,步骤S400中“基于各单元格的归属权绘制全局态势图”,其方法还包括:
将网格化对战地图中属于同一博弈方、控制力相同且相邻的多个单元格进行线条连接,绘制态势线。
本发明的第二方面,提出了一种战略博弈系统的全局态势评估系统,用于评估战略博弈对抗中博弈各个时刻的全局态势,该系统包括数据获取单元、单元格划分单元、控制力计算单元、全局态势图绘制单元;
所述数据获取单元,配置为提取待评估的博弈双方在战略博弈对抗中的复盘数据;
所述单元格划分单元,配置为对复盘数据中的对战地图进行网格化,将地图划分为面积相等的单元格;
所述控制力计算单元,配置为基于预设的博弈信息类型数据,通过预设的事态评估权重,计算博弈双方对各单元格的控制力;
所述全局态势图绘制单元,配置为对每一个单元格,基于博弈双方控制力确定该单元格的归属权;基于各单元格的归属权绘制全局态势图。
本发明的第三方面,提出了一种存储装置,其中存储有多条程序,其特征在于,所述程序适于由处理器加载并执行以实现上述战略博弈系统的全局态势评估方法。
本发明的第四方面,提出了一种处理装置,包括处理器、存储装置;处理器,适于执行各条程序;存储装置,适于存储多条程序;其特征在于,所述程序适于由处理器加载并执行以实现上述战略博弈系统的全局态势评估方法。
本发明的有益效果:
本发明可以更好地模仿人类直觉的方式直观评估博弈过程中全局态势的演进与胜负观判断,并有效的获取能够体现全局势态对战地图带色彩的网格图像。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本发明一种实施例的战略博弈系统的全局态势评估方法流程示意图;
图2是本发明一种实施例中的全局态势图示例。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
在对一盘博弈进行态势评估时,为了能对态势进行更好的可视化,需要将地图网格化,将地图划分为面积相等的单元格,通过博弈双方对地图中每一个格的控制力来评估对战双方的态势。以星际争霸为例,每一单元格的控制力计算应考虑态势的三个方面,包括兵力部署、经济策略、地形利用。兵力部署的评估主要通过提取当前时刻单位的属性、状态信息,根据单位的状态来计算单位对每个单元格的控制力。地形利用的评估主要通过判断重要地物的归属权来对周围的单元格进行控制力的辐射加强。经济利用的评估主要是通过一些经济利用类的建筑对周围的单元格进行辐射加强。在综合考虑全局态势时,需要对这三个方面的指标进行一定的权重赋值,以表明不同对抗阶段博弈者的侧重方向。通过计算地图中各个单元格的双方控制力度,就可以判断单元格中的博弈双方的控制力度对比,从而得到该单元格的归属权。这样可以将地图分成两块区域,一块区域属于第一博弈方,一块区域属于第二博弈方。同时,通过设置不同深度颜色来表现控制力强弱,可以得到一张战场全局态势图。
态势评估中控制力可以通过预设的胜率预测模型获取,该模型可以基于机器学习模型进行设计,然后通过模型训练进行参数调整。针对态势评估的三个方面,在综合考虑计算单元格控制力的时候,需要对兵力部署、经济策略、地形利用这三个方面进行一定的权重赋值,为了让权重更具有客观性。本发明构建了针对三种类型特征的特征空间,用以评价博弈者在这三个方面的情况。通过对大量的高质量的复盘数据利用机器学习算法进行模型训练,就可得到一个胜率预测模型。最后还需用胜率模型的特征贡献度指标来对控制力计算时三种类型数据的权重进行参数调整。
本发明的思路为先将博弈系统地图网格化,即将地图划分为面积相等的单元格,其次综合考虑兵力部署、经济策略、地形利用三方面的因素来评估博弈红蓝双方对地图中每一个单元格的控制力百分比,最后根据每个单元格中的红蓝方控制力百分比得到该单元格的归属权,同时通过设置不同深度颜色来表现控制力强弱,最终得到一张战场全局态势图。
本发明的一种战略博弈系统的全局态势评估方法,用于评估战略博弈对抗中博弈各个时刻的全局态势,该方法包括以下步骤:
步骤S100,提取待评估的博弈双方在战略博弈对抗中的复盘数据;
步骤S200,对复盘数据中的对战地图进行网格化,将地图划分为面积相等的单元格;
步骤S300,基于预设的博弈信息类型数据,通过预设的事态评估权重,计算博弈双方对各单元格的控制力;
步骤S400,对每一个单元格,基于博弈双方控制力确定该单元格的归属权;基于各单元格的归属权绘制全局态势图。
为了更清晰地对本发明战略博弈系统的全局态势评估方法进行说明,下面以星际争霸二为战略博弈系统,结合附图对本方发明方法一种实施例中各步骤进行展开详述。下面首先描述预设的事态评估权重的获取方法,然后再描述基于预设的事态评估权重的战略博弈系统的全局态势评估方法。
1、预设的事态评估权重的获取
事态评估权重基于训练好的胜率预测模型中各博弈信息类型数据的特征贡献度设置。
胜率预测模型基于机器学习模型,分别从星际争霸二战略博弈过程中经济策略特征、兵力部署特征、地形利用特征三个方面进行构建;通过训练样本中的博弈信息类型数据及博弈对象胜率标签对胜率预测模型进行训练,在训练完毕时可以获得各博弈信息类型数据的特征贡献度。
本实施例中将战略博弈对抗过程分为G个阶段,对获取的多个用于训练胜率预测模型的游戏复盘数据,分别按照G个阶段拆分为G组训练数据,并分别对胜率预测模型进行训练,可以得到G个训练好的胜率预测模型,可以从这G个训练好的胜率预测模型中提取G组博弈信息类型的特征贡献度,进而可以得到G个阶段分别对应的事态评估权重。本发明在一些实施例中,可以将特征贡献度直接作为对应的事态评估权重。
以星际争霸二中的战略博弈对抗为例,采用际争霸二中的StarCraft2-API接口以及Pysc2对星际争霸二的复盘文件进行底层数据的提取,以半分钟为间隔,提取经济利用特征、兵力部署特征、地形利用特征。以6分钟和10分钟为时间节点,利用Xgboost、GBDT、RandamForest等算法分别训练前、中、后期胜率预测模型。为了让胜率模型在模型转变时更加的平滑,在4-7分钟时,将前、中期的模型进行加权平均,形成前中期模型,在9-12分钟,将中、后期的模型进行加权平均,形成中后期模型。
模型选择模块主要是当需要对一场博弈进行实时胜率展示的时候,以一秒为时间间隔得到该时刻的底层全局态势信息,然后抽取特征。如果时间节点小于240秒,将特征送入前期胜率模型;如果时间节点大于240秒、小于420秒,则将特征送入前中期胜率预测模型;如果时间节点大于420秒、小于540秒,则将特征送入中期胜率预测模型;如果时间节点大于540秒、小于720秒,将特征送入中后期胜率预测模型;如果时间节点大于720秒,则将特征送入后期胜率预测模型。
从而得到前、前中、中、中后、后五个阶段的训练好的胜率预测模型,得到对应各阶段的5组特征贡献度,对应各阶段的5组事态评估权重。
2、战略博弈系统的全局态势评估方法实施例
本实施例对星际争霸二的战略博弈过程进行全局态势评估,如图1所示,其方法包括步骤S100-S400。
步骤S100,提取待评估的博弈双方在战略博弈对抗中的复盘数据。
本实施例中,首先要获取待评估的星际争霸二的战略博弈的复盘数据,该数据包括博弈过程中的单位位置信息、地图信息等。可以如上述采用际争霸二中的StarCraft2-API接口以及Pysc2对星际争霸二的复盘文件进行底层数据的提取。
步骤S200,对复盘数据中的对战地图进行网格化,将地图划分为面积相等的单元格。
在本实施例中,可以将对战地图划分为面积相等的的正方形作为单元格。当然也可以其它形状,例如正六边形、菱形、三角形等。
步骤S300,基于预设的博弈信息类型数据,通过预设的事态评估权重,计算博弈双方对各单元格的控制力。
星际争霸二的战略博弈的复盘数据中的博弈信息类型数据可以包括兵力部署数据、经济利用数据、地形利用数据。根据当前战略博弈对抗所处的阶段(可以根据上述描述,按照时间确定所处阶段),选择对应阶段的一组事态评估权重,计算博弈双方对各单元格的控制力。
单元格的控制力,其计算方法如公式(1)所示:
其中,Control为博弈对象在单元格的控制力,为兵力控制权重,β为经济利用权重,γ为地形利用权重,Cunit为兵力部署对单元格的控制力值,Cland为经济策略对单元格的控制力值,Ceconomy为地形利用对单元格的控制力值。下面分别就兵力部署、经济策略、地形利用的控制力计算做详细说明。
(1)兵力部署控制力
兵力部署主要是对对战双方的兵力运用进行评估。星际争霸二靠兵种之间的不同配合以及对重要地形的控制来完成对敌方有生力量的歼灭,以达到博弈的胜利。针对不同的种族,将兵力划分为三种类型,包括视野开阔单位、进攻单位、基础建设单位。视野开阔单位主要用来开阔一方的视野,使一方获得足够多的敌方信息。以便于形成更好的战斗策略。进攻单位主要完成在面对敌方单位时,能够有效歼灭对方。不同的兵种有着不同的配合。将进攻单位再一次进行了细划分,划分为前驱进攻单位和辅助单位。前驱进攻单位主要用于歼灭敌方,辅助单位在歼灭单位的同时,站位较为靠后,为前驱进攻单位提供保障。基础建设单位主要完成对建筑的建设,以及资源的采取。不同的单位有着不同的权重,同时还需要考虑单位目前的状态,包括血量、护甲等因素。
在考虑单位的状态同时,还需要考虑单位本身所具有的技能加成,不同的单位具有不同的技能,有被动技能,也有主动技能。被动技能可分为两种类型,被动增加自身防御能力和被动增加自身攻击力。被动增加自身防御能力主要是在触发被动时进入隐身状态或者是增加自身护甲值。被动增加自身攻击力值被动技能被触发时增加自身战斗能力。本实施例设定隐身状态对其技能加成为5。当触发护甲值、攻击力增加被动技能时,将直接体现在单位状态中。主动技能代表着该单位所具有的潜在特质,可以在需要时释放主动技能来增加自身或者周围友军单位的护甲和攻击力值。主动技能通常具有冷却时间和资源消耗的特质,冷却时间的长短代表了该技能的影响程度,影响越大,技能冷却时间越长。同样资源消耗也是一样。因此对于主动技能对单元格的控制力计算,同时兼顾冷却时间和资源消耗。计算公式如公式(2)所示。
其中,S为单位的技能加成数值,Spassive为被动技能加成数值,K为主动技能的数目,TK为该技能冷却时间,Ti max为该种族最长技能冷却时间,UK为该技能所消耗资源数,Ui max为该种族中最长技能消耗数,Protoss为灵族,Terran为人族,Zerg为虫族。
结合单位状态和单位能力,因此本发明采用如下公式计算兵力部署对单元格的控制力。计算公式如下:
其中,N1为单位总数,ωp(i)为第i个单位属于的单位种类所对应的权重,p(i)为第i个单位对应的单位种类序号,hi为第i个单位的当前血量,Hi为第i个单位的最大血量。Di为第i个单位距离该单元格的距离,Dmax为地图最长距离,通常为地图对角线长度,Ti为第i个单位的护甲值,Si为第i个单位的技能加成数值。
(2)地形利用控制力
地形利用主要是对双方对于地形利用的情况作出评价。星际争霸二中的地图包括两种重要地物:隘口、矿区守卫据点。隘口主要用于利用地形优势,保持一方的战斗队形能够较好的展开,兵种之间能够做到更好的配合对敌方展开攻击,同时对一块区域进行很好的控制。矿区守卫据点主要用来保护一方资源的控制和开产。地形利用对单元格的控制力度大小主要体现在控制力度辐射上,通过判断该重要地物的控制权,来对周围的控制力度进行辐射加强。地形利用控制力Gland的计算如公式(3)、(4)所示:
其中,Rh(i)为第i个重要地物影响半径,h(i)为第i个重要地物所属类型,Di为设定单元格距离第i个重要地物的距离。为第i个重要地物对设定单元格的影响力,Gland为设定单元格中重要地物对控制力的影响总和,N2为设定单元格对应的重要地物的数量。
(3)经济利用控制力
在经济利用策略方面,博弈者需要对地图中的资源进行开采,来满足单位的生产、建筑的建造、科技的升级。在实施例中,为了将经济利用转化为态势的评估,将经济利用转为建筑对周围地区控制力的加强。本实施例根据建筑的不同功能将建筑进行分类,分为建造单位类、经济收入类、科技升级类、可战斗类。同时根据建筑的所属类型来确定影响半径。建筑的基础影响半径为8个单元格距离。在此基础上,增加该建筑所属类型加成半径。
本实施例中将建筑对单元格控制力作为经济利用控制力,其计算如公式(5)、(6)、(7)所示:
其中,Ceconomy为建筑对单元格的控制力,Cpre为兵力部署和地形利用对单元格影响的控制力总和,Re(i)为第i个建筑影响半径,e(i)为第i个建筑所属类型,Rbasis为建筑基础影响半径,Rl add为第i个建筑所属类型加成半径,Di为该单元格距与第i个建筑的距离,N3为该单元格所在建筑影响的区域个数。
按照当前战略博弈对抗所处的阶段对应的一组事态评估权重,通过公式(1)计算计算博弈双方对各单元格的控制力。
步骤S400,对每一个单元格,基于博弈双方控制力确定该单元格的归属权;基于各单元格的归属权绘制全局态势图。
本实施例中,单元格中控制力较大的博弈者拥有该单元格的归属权。
在确定归属权后,需要对单元格进行上色:根据单元各归属权进行确定单元格的颜色;根据单元格归属方控制力的占比确定颜色深度;基于所获取的网格化对战地图中各单元格对应的颜色和颜色深度,确定各单元各的色彩,得到全局态势图。
优选的,还可以将网格化对战地图中属于同一博弈方、控制力相同且相邻的多个单元格进行线条连接,绘制态势线。
本实施例中,获取单元格中博弈双方控制力度的大小对比值,将该值进行归一化到0到1的范围内,得到控制力度比,每个单元格的颜色设置方式如下:
其中一方:R:255×控制力度比,G:220×控制力度比B:0
另一方:R:0,G:220×控制力度比,B:255×控制力度比
本实施例中各单元格可采用上述方法进行着色,在其他一些实施例中还可以采用不同灰度进行着色,效果图如图2所示,该态势图中在双方控制力度相等的区域形成相同的颜色。同时在重要地物坐标点以旗帜表明,当该重要地物被某一方占领,该旗帜以该方的颜色标识。若该重要地物没有被占领,则以绿色标识。态势图的单位以实心圆进行标识。
本发明还可以拓展应用于游戏以外的其他领域,只要具有地图或者等同于地图的要素,以及博弈双方或者多方的单位信息,都可以通过网格化后的地图中各单元的控制力信息进行全局态势图的绘制。本发明实施例中以双方博弈为例进行了说明,在其他实施例中,博弈的对象并不局限于两个,还可以为多个,只需要对其单元格中的主色方案进行重新设定即可。
本发明第二实施例的一种战略博弈系统的全局态势评估系统,用于评估战略博弈对抗中博弈各个时刻的全局态势,该系统包括数据获取单元、单元格划分单元、控制力计算单元、全局态势图绘制单元;
所述数据获取单元,配置为提取待评估的博弈双方在战略博弈对抗中的复盘数据;
所述单元格划分单元,配置为对复盘数据中的对战地图进行网格化,将地图划分为面积相等的单元格;
所述控制力计算单元,基于预设的博弈信息类型数据,通过预设的事态评估权重,计算博弈双方对各单元格的控制力;
所述全局态势图绘制单元,配置为对每一个单元格,基于博弈双方控制力确定该单元格的归属权;基于各单元格的归属权绘制全局态势图。
所属技术领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统的具体工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。
需要说明的是,上述实施例提供的略博弈系统的全局态势评估系统,仅以上述各功能模块的划分进行举例说明,在实际应用中,可以根据需要而将上述功能分配由不同的功能模块来完成,即将本发明实施例中的模块或者步骤再分解或者组合,例如,上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块,以完成以上描述的全部或者部分功能。对于本发明实施例中涉及的模块、步骤的名称,仅仅是为了区分各个模块或者步骤,不视为对本发明的不当限定。
本发明第三实施例的一种存储装置,其中存储有多条程序,所述程序适于由处理器加载并执行以实现上述的略博弈系统的全局态势评估方法。
本发明第四实施例的一种处理装置,包括处理器、存储装置;处理器,适于执行各条程序;存储装置,适于存储多条程序;所述程序适于由处理器加载并执行以实现上述的略博弈系统的全局态势评估方法。
所属技术领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的存储装置、处理装置的具体工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。
本领域技术人员应该能够意识到,结合本文中所公开的实施例描述的各示例的模块、方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,软件模块、方法步骤对应的程序可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。为了清楚地说明电子硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以电子硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
术语“第一”、“第二”等是用于区别类似的对象,而不是用于描述或表示特定的顺序或先后次序。
术语“包括”或者任何其它类似用语旨在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备/装置不仅包括那些要素,而且还包括没有明确列出的其它要素,或者还包括这些过程、方法、物品或者设备/装置所固有的要素。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。
Claims (7)
1.一种战略博弈系统的全局态势评估方法,用于评估战略博弈对抗中博弈各个时刻的全局态势,其特征在于,该方法包括以下步骤:
步骤S100,提取待评估的博弈双方在战略博弈对抗中的复盘数据;
步骤S200,对复盘数据中的对战地图进行网格化,将地图划分为面积相等的单元格;
步骤S300,基于预设的博弈信息类型数据,通过预设的事态评估权重,计算博弈双方对各单元格的控制力;
所述单元格的控制力,其计算方法为:
其中,Control为博弈对象在单元格的控制力,为兵力控制权重,β为经济利用权重,γ为地形利用权重,Cunit为兵力部署对单元格的控制力值,Cland为经济策略对单元格的控制力值,Ceconomy为地形利用对单元格的控制力值;
其中,Cunit兵力部署对单元格的控制力值的计算方法为:
其中,N1为兵力单位总数,ωp(i)为第i个兵力单位属于的单位种类所对应的权重,p(i)为第i个兵力单位对应的单位种类序号,hi为第i个兵力单位的当前血量,Hi为第i个兵力单位的最大血量,Di为第i个兵力单位到设定单元格的距离,Dmax为地图最长距离,为地图对角线长度,Ti为第i个兵力单位的护甲值,Si为第i个兵力单位的技能加成数值;
其中,兵力单位的技能加成数值的计算方法为:
其中,S为兵力单位的技能加成数值,Spassive为被动技能加成数值,K为主动技能的数目,Tk表示第k个主动技能的技能冷却时间,表示种族a最长技能冷却时间,Uk表示第k个主动技能的消耗资源数,表示种族a中最长技能消耗资源数,Protoss为灵族,Terran为人族,Zerg为虫族;
其中,所述经济策略对单元格的控制力值Cland的计算方法为:
其中,Rh(b)为第b个重要地物影响半径,h(b)为第b个重要地物所属类型,Db为设定单元格距离第b个重要地物的距离;为第b个重要地物对设定单元格的影响力,Cland为经济策略对单元格的控制力值,N2为设定单元格对应的重要地物的数量;
其中,所述地形利用对单元格的控制力值Ceconomy的计算方法为:
其中,Ceconomy为地形利用对单元格的控制力值,Cpre为兵力部署和地形利用对单元格影响的控制力总和,Re(c)为第c个建筑影响半径,e(c)为第c个建筑所属类型,Rbasis为建筑基础影响半径,第c个建筑所属类型加成半径,Dc为设定单元格与第c个建筑的距离,N3为设定单元格所在建筑影响的区域个数;
步骤S400,对每一个单元格,基于博弈双方控制力确定设定单元格的归属权;基于各单元格的归属权绘制全局态势图。
2.根据权利要求1所述的战略博弈系统的全局态势评估方法,其特征在于,所述预设的事态评估权重,基于胜率预测模型中博弈信息类型数据的特征贡献度设置;所述胜率预测模型基于机器学习模型构建,用于通过训练样本中的博弈信息类型数据及博弈对象胜负标签,获取各博弈信息类型数据的特征贡献度。
3.根据权利要求2所述的战略博弈系统的全局态势评估方法,其特征在于,所述预设的事态评估权重包括G组权重数据,其中G为战略博弈对抗所划分的阶段数量;所述胜率预测模型为G个,分别与战略博弈对抗所划分的阶段对应。
4.根据权利要求1-3任一项所述的战略博弈系统的全局态势评估方法,其特征在于,步骤S400中基于各单元格的归属权绘制全局态势图,其方法包括:
根据单元格归属权进行确定单元格的颜色;
根据单元格归属方控制力的占比确定颜色深度;
基于所获取的网格化对战地图中各单元格对应的颜色和颜色深度,确定各单元格的色彩,得到全局态势图。
5.一种战略博弈系统的全局态势评估系统,用于评估战略博弈对抗中博弈各个时刻的全局态势,其特征在于,该系统包括数据获取单元、单元格划分单元、控制力计算单元、全局态势图绘制单元;
所述数据获取单元,配置为提取待评估的博弈双方在战略博弈对抗中的复盘数据;
所述单元格划分单元,配置为对复盘数据中的对战地图进行网格化,将地图划分为面积相等的单元格;
所述控制力计算单元,基于预设的博弈信息类型数据,通过预设的事态评估权重,计算博弈双方对各单元格的控制力;
所述单元格的控制力,其计算方法为:
其中,Control为博弈对象在单元格的控制力,为兵力控制权重,β为经济利用权重,γ为地形利用权重,Cunit为兵力部署对单元格的控制力值,Cland为经济策略对单元格的控制力值,Ceconomy为地形利用对单元格的控制力值;
其中,Cunit兵力部署对单元格的控制力值的计算方法为:
其中,N1为兵力单位总数,ωp(i)为第i个兵力单位属于的单位种类所对应的权重,p(i)为第i个兵力单位对应的单位种类序号,hi为第i个兵力单位的当前血量,Hi为第i个兵力单位的最大血量;Di为第i个兵力单位到设定单元格的距离,Dmax为地图最长距离,为地图对角线长度,Ti为第i个兵力单位的护甲值,Si为第i个兵力单位的技能加成数值;
其中,兵力单位的技能加成数值的计算方法为:
其中,S为兵力单位的技能加成数值,Spassive为被动技能加成数值,K为主动技能的数目,Tk表示第k个主动技能的技能冷却时间,表示种族a最长技能冷却时间,Uk表示第k个主动技能的消耗资源数,表示种族a中最长技能消耗资源数,Protoss为灵族,Terran为人族,Zerg为虫族;
其中,所述经济策略对单元格的控制力值Cland的计算方法为:
其中,Rh(b)为第b个重要地物影响半径,h(b)为第b个重要地物所属类型,Db为设定单元格距离第b个重要地物的距离;为第b个重要地物对设定单元格的影响力,Cland为经济策略对单元格的控制力值,N2为设定单元格对应的重要地物的数量;
其中,所述地形利用对单元格的控制力值Ceconomy的计算方法为:
其中,Ceconomy为地形利用对单元格的控制力值,Cpre为兵力部署和地形利用对单元格影响的控制力总和,Re(c)为第c个建筑影响半径,e(c)为第c个建筑所属类型,Rbasis为建筑基础影响半径,为第c个建筑所属类型加成半径,Dc为设定单元格与第c个建筑的距离,N3为设定单元格所在建筑影响的区域个数;
所述全局态势图绘制单元,配置为对每一个单元格,基于博弈双方控制力确定设定单元格的归属权;基于各单元格的归属权绘制全局态势图。
6.一种存储装置,其中存储有多条程序,其特征在于,所述程序适于由处理器加载并执行以实现权利要求1-4任一项所述战略博弈系统的全局态势评估方法。
7.一种处理装置,包括处理器、存储装置;处理器,适于执行各条程序;存储装置,适于存储多条程序;其特征在于,所述程序适于由处理器加载并执行以实现权利要求1-4任一项所述战略博弈系统的全局态势评估方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910377094.7A CN110119773B (zh) | 2019-05-07 | 2019-05-07 | 战略博弈系统的全局态势评估方法、系统和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910377094.7A CN110119773B (zh) | 2019-05-07 | 2019-05-07 | 战略博弈系统的全局态势评估方法、系统和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110119773A CN110119773A (zh) | 2019-08-13 |
CN110119773B true CN110119773B (zh) | 2021-07-23 |
Family
ID=67521859
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910377094.7A Active CN110119773B (zh) | 2019-05-07 | 2019-05-07 | 战略博弈系统的全局态势评估方法、系统和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110119773B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110782039B (zh) * | 2019-10-11 | 2021-10-01 | 南京摄星智能科技有限公司 | 一种基于分层结构、多模块的人工智能即时作战引导平台 |
CN112138409B (zh) * | 2020-09-07 | 2023-11-24 | 腾讯科技(深圳)有限公司 | 游戏结果的预测方法、装置及存储介质 |
CN112138396B (zh) * | 2020-09-23 | 2024-04-12 | 中国电子科技集团公司第十五研究所 | 一种面向无人系统模拟对抗的智能体训练方法及系统 |
CN112717385B (zh) * | 2021-01-20 | 2022-04-22 | 上海莉莉丝网络科技有限公司 | 游戏地图内地图像素的归属控制方法、系统及计算机可读存储介质 |
CN113283110B (zh) * | 2021-06-11 | 2022-05-27 | 中国人民解放军国防科技大学 | 一种用于智能化对抗仿真推演的态势感知方法 |
CN114238648B (zh) * | 2021-11-17 | 2022-11-08 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于知识图谱的博弈对抗行为决策方法及装置 |
CN114247144B (zh) * | 2021-12-21 | 2023-04-14 | 清华大学 | 多智能体对抗仿真方法、装置、电子设备及存储介质 |
CN114548409B (zh) * | 2022-01-30 | 2023-01-10 | 清华大学 | 基于态势场的无人车任务分配博弈方法及装置 |
CN114492059B (zh) * | 2022-02-07 | 2023-02-28 | 清华大学 | 基于场能的多智能体对抗场景态势评估方法及装置 |
CN114832374A (zh) * | 2022-03-30 | 2022-08-02 | 广州简悦信息科技有限公司 | 局势分析方法、装置、电子设备、可读存储介质和程序 |
CN115222199B (zh) * | 2022-05-31 | 2023-11-14 | 中国电子科技集团公司第五十二研究所 | 一种基于胜率预测的空战关键节点确定方法和装置 |
CN116300867A (zh) * | 2022-12-30 | 2023-06-23 | 中电普信(北京)科技发展有限公司 | 复杂战场下对敌方无人装备运动路径的预测方法和装置 |
CN116050515B (zh) * | 2022-12-30 | 2023-11-07 | 中国电子科技集团公司信息科学研究院 | 一种基于XGBoost的平行推演多分支态势预测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104765854A (zh) * | 2015-04-21 | 2015-07-08 | 中国人民解放军装甲兵工程学院 | 一种基于复合信息单元的战场态势实时更新方法 |
CN106878409A (zh) * | 2017-02-09 | 2017-06-20 | 深圳市莫二科技有限公司 | 一种游戏数据处理系统及处理方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107705345A (zh) * | 2017-09-30 | 2018-02-16 | 南威软件股份有限公司 | 一种态势标绘之动态军标的标绘方法 |
CN108509728B (zh) * | 2018-04-04 | 2019-02-19 | 西北工业大学 | 一种对海协同作战飞机生存力权衡设计方法 |
CN108764453B (zh) * | 2018-06-08 | 2021-10-01 | 中国科学技术大学 | 面向多智能体同步博弈的建模方法及动作预测系统 |
-
2019
- 2019-05-07 CN CN201910377094.7A patent/CN110119773B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104765854A (zh) * | 2015-04-21 | 2015-07-08 | 中国人民解放军装甲兵工程学院 | 一种基于复合信息单元的战场态势实时更新方法 |
CN106878409A (zh) * | 2017-02-09 | 2017-06-20 | 深圳市莫二科技有限公司 | 一种游戏数据处理系统及处理方法 |
Non-Patent Citations (3)
Title |
---|
A machine learning approach to predict the winner in StarCraft based on influence maps;Antonio A et al;《Entertainment Computing》;20171231;第19卷;第29-41页 * |
Evaluating Real-Time Strategy Game States Using Convolutional Neural Networks;Marius Stanescu et al;《2016 IEEE conference on computational intelligence and games(CIG)》;20170223;第1-7页 * |
基于支持向量机的近红外特征变量选择算法用于树种快速识别;梁龙 等;《分析测试学报》;20160131;第35卷(第1期);第101-106页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110119773A (zh) | 2019-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110119773B (zh) | 战略博弈系统的全局态势评估方法、系统和装置 | |
Ontanón et al. | A survey of real-time strategy game AI research and competition in StarCraft | |
CN109636699A (zh) | 一种基于深度强化学习的无监督智能作战推演系统 | |
Uriarte et al. | Game-tree search over high-level game states in RTS games | |
Uriarte et al. | Kiting in RTS games using influence maps | |
Stanescu et al. | Hierarchical adversarial search applied to real-time strategy games | |
CN110489340A (zh) | 一种游戏地图平衡性测试方法、装置、设备及存储介质 | |
do Nascimento Silva et al. | On the development of intelligent agents for moba games | |
Uriarte et al. | Combat models for RTS games | |
Uriarte et al. | Automatic learning of combat models for RTS games | |
CN115310345B (zh) | 基于人工势场的智能算法评估方法及装置 | |
CN114841068A (zh) | 一种三维高仿真兵棋推演平台与方法 | |
CN111047053A (zh) | 面向未知策略对手的蒙特卡洛搜索博弈决策方法及系统 | |
Yildirim | Serious game design for military training | |
CN108647374B (zh) | 陆军战术兵棋博弈中坦克战术行为模拟方法及系统和设备 | |
Kim et al. | The StarCraft multi-agent exploration challenges: Learning multi-stage tasks and environmental factors without precise reward functions | |
CN113988301B (zh) | 战术策略生成方法、装置、电子设备及存储介质 | |
Uriarte et al. | A benchmark for starcraft intelligent agents | |
CN113705828A (zh) | 一种基于集群影响度的战场博弈策略强化学习训练方法 | |
Sun et al. | Research and Implementation of Hybrid Intelligent Wargame Based on Prior Knowledge-DQN Algorithm | |
Bowen et al. | Adjutant bot: An evaluation of unit micromanagement tactics | |
Abd El-Sattar | A novel interactive computer-based game framework: From design to implementation | |
Jakhon et al. | Agent grouping recommendation method in edge computing | |
Miles | Co-evolving real-time strategy game players | |
Yang et al. | A Dynamic Hierarchical Evaluating Network for Real-Time Strategy Games |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |