CN111111200A - 战斗策略生成方法及装置 - Google Patents

战斗策略生成方法及装置 Download PDF

Info

Publication number
CN111111200A
CN111111200A CN201911344540.0A CN201911344540A CN111111200A CN 111111200 A CN111111200 A CN 111111200A CN 201911344540 A CN201911344540 A CN 201911344540A CN 111111200 A CN111111200 A CN 111111200A
Authority
CN
China
Prior art keywords
neural network
strategy
parameters
updating
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911344540.0A
Other languages
English (en)
Other versions
CN111111200B (zh
Inventor
何纬朝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Pixel Software Technology Co Ltd
Original Assignee
Beijing Pixel Software Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Pixel Software Technology Co Ltd filed Critical Beijing Pixel Software Technology Co Ltd
Priority to CN201911344540.0A priority Critical patent/CN111111200B/zh
Publication of CN111111200A publication Critical patent/CN111111200A/zh
Application granted granted Critical
Publication of CN111111200B publication Critical patent/CN111111200B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6027Methods for processing data by generating or executing the game program using adaptive systems learning from user actions, e.g. for skill level adjustment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供战斗策略生成方法及装置,涉及战斗策略生成领域。该方法包括:针对更新策略非玩家角色绑定近端策略优化算法并搭建近端策略优化算法的神经网络结构;计算当前策略神经网络的损失值,更新当前策略神经网络的参数,复制当前策略神经网络的参数替换目标策略神经网络的参数;根据目标策略神经网络的参数使更新策略非玩家角色与玩家角色进行对抗,并根据与玩家角色对抗产生的战斗数据对神经网络结构的神经网络参数进行更新,为更新策略非玩家角色生成新的战斗策略。本发明实施例的战斗策略生成方法及装置通过针对更新策略非玩家角色绑定近端策略优化算法,最终生成战斗策略,从而达到了能够根据具体情况输出离散动作或连续动作的技术效果。

Description

战斗策略生成方法及装置
技术领域
本发明涉及战斗策略生成技术领域,尤其是涉及一种战斗策略生成方法及装置。
背景技术
目前,在动作类的三维游戏中,都是利用基于深度学习网络的非玩家战斗策略学习方法来自动生成玩家角色战斗策略,虽然该方法使用血量差作为动作奖励,并且能够自动生成玩家角色战斗策略,但是其输出动作只能是离散动作,而不能是连续动作。
发明内容
有鉴于此,本发明的目的在于提供一种战斗策略生成方法及装置,以改善输出动作只能是离散动作,而不能是连续动作的技术问题。
第一方面,本发明实施例提供了一种战斗策略生成方法,应用于游戏客户端,所述方法包括以下步骤:
针对更新策略非玩家角色绑定近端策略优化算法,并搭建所述近端策略优化算法的神经网络结构;其中,所述神经网络结构包括目标策略神经网络和当前策略神经网络;
计算所述当前策略神经网络的损失值,更新所述当前策略神经网络的参数,复制所述当前策略神经网络的参数替换所述目标策略神经网络的参数;
根据所述目标策略神经网络的参数使所述更新策略非玩家角色与玩家角色进行对抗,并根据与所述玩家角色对抗产生的战斗数据对所述神经网络结构的神经网络参数进行更新,为所述更新策略非玩家角色生成新的战斗策略;其中,所述战斗数据包括所述更新策略非玩家角色的被击杀次数、使玩家角色损失的血量。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,其中,所述神经网络结构还包括值估计神经网络;
所述计算所述当前策略神经网络的损失值,更新所述当前策略神经网络的参数的步骤,包括:
计算所述值估计神经网络的损失值;
将所述值估计神经网络的损失值与所述当前策略神经网络和所述目标策略神经网络的动作概率比相乘,获取所述当前策略神经网络的损失值;
根据所获取的当前策略神经网络的损失值来更新所述当前策略神经网络的参数。
结合第一方面的第一种可能的实施方式,本发明实施例提供了第一方面的第二种可能的实施方式,其中,将状态向量输入至所述当前策略神经网络,获取所述当前策略神经网络的动作概率值;其中,所述状态向量中包含有更新策略非玩家角色的坐标信息、技能信息、生命值信息;
将所述状态向量输入至所述目标策略神经网络,获取所述目标策略神经网络的动作概率值;
将所述当前策略神经网络和所述目标策略神经网络的动作概率值除以所述目标策略神经网络的动作概率值,获取所述当前策略神经网络和所述目标策略神经网络的动作概率比。
结合第一方面,本发明实施例提供了第一方面的第三种可能的实施方式,其中,所述根据所述目标策略神经网络的参数使所述更新策略非玩家角色与玩家角色进行对抗,并根据与所述玩家角色对抗产生的战斗数据对所述神经网络结构的神经网络参数进行更新,为所述更新策略非玩家角色生成新的战斗策略的步骤,包括:
根据所述目标策略神经网络的参数使所述更新策略非玩家角色与玩家角色进行对抗,获取所述玩家角色对抗产生的战斗数据;
将所述战斗数据上传至服务器,所述服务器根据所述战斗数据对所述神经网络结构进行训练更新,为所述更新策略非玩家角色生成新的战斗策略。
结合第一方面,本发明实施例提供了第一方面的第四种可能的实施方式,其中,在根据所述目标策略神经网络的参数使所述更新策略非玩家角色与玩家角色进行对抗,并根据与所述玩家角色对抗产生的战斗数据对所述神经网络结构的神经网络参数进行更新,为所述更新策略非玩家角色生成新的战斗策略之后,所述方法还包括:
根据所述新的战斗策略,对游戏客户端进行热更新。
第二方面,本发明实施例还提供一种战斗策略生成装置,应用于游戏客户端,所述装置包括:
搭建模块,用于针对更新策略非玩家角色绑定近端策略优化算法,并搭建所述近端策略优化算法的神经网络结构;其中,所述神经网络结构包括目标策略神经网络和当前策略神经网络;
更新模块,用于计算所述当前策略神经网络的损失值,更新所述当前策略神经网络的参数,复制所述当前策略神经网络的参数替换所述目标策略神经网络的参数;
生成模块,用于根据所述目标策略神经网络的参数使所述更新策略非玩家角色与玩家角色进行对抗,并根据与所述玩家角色对抗产生的战斗数据对所述神经网络结构的神经网络参数进行更新,为所述更新策略非玩家角色生成新的战斗策略;其中,所述战斗数据包括所述更新策略非玩家角色的被击杀次数、使玩家角色损失的血量。
结合第二方面,本发明实施例提供了第二方面的第一种可能的实施方式,其中,所述神经网络结构还包括值估计神经网络;
所述更新模块用于:
计算所述值估计神经网络的损失值;
将所述值估计神经网络的损失值与所述当前策略神经网络和所述目标策略神经网络的动作概率比相乘,获取所述当前策略神经网络的损失值;
根据所获取的当前策略神经网络的损失值来更新所述当前策略神经网络的参数。
结合第二方面,本发明实施例提供了第二方面的第二种可能的实施方式,其中,所述生成模块用于:
根据所述目标策略神经网络的参数使所述更新策略非玩家角色与玩家角色进行对抗,获取所述玩家角色对抗产生的战斗数据;
将所述战斗数据上传至服务器,所述服务器根据所述战斗数据对所述神经网络结构进行训练更新,为所述更新策略非玩家角色生成新的战斗策略。
第三方面,本发明实施例还提供一种服务器,所述服务器包括:处理器和存储器,所述存储器存储有能够被所述处理器执行的计算机可执行指令,所述处理器执行所述计算机可执行指令以实现上文所述的方法。
第四方面,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令在被处理器调用和执行时,所述计算机可执行指令促使处理器实现上文所述的方法。
本发明实施例带来了以下有益效果:本发明实施例提供的一种战斗策略生成方法及装置,首先搭建近端策略优化算法的神经网络结构,然后计算当前策略神经网络的损失值,更新当前策略神经网络的参数,复制当前策略神经网络的参数替换目标策略神经网络的参数,最后根据目标策略神经网络的参数对神经网络结构的神经网络参数进行更新,为更新策略非玩家角色生成新的战斗策略。本发明实施例的战斗策略生成方法及装置通过针对更新策略非玩家角色绑定近端策略优化算法,最终生成战斗策略,从而达到了能够根据具体情况输出离散动作或连续动作的技术效果。
本发明的其他特征和优点将在随后的说明书中阐述,并且部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构中实现和获得。
为使本发明的上述目的、特征和优点能够更加明显易懂,下文特举优选实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明的具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图进行简单的介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种战斗策略生成方法的流程图;
图2为本发明实施例提供的另一种战斗策略生成方法的流程图;
图3本发明实施例提供的一种战斗策略生成装置的结构框图;
图4为本发明实施例提供的一种服务器的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整的描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,在动作类的三维游戏中,都是利用基于深度学习网络的非玩家战斗策略学习方法来自动生成玩家角色战斗策略,虽然该方法使用血量差作为动作奖励,并且能够自动生成玩家角色战斗策略,但是其输出动作只能是离散动作,而不能是连续动作。基于此,本发明实施例提供了一种战斗策略生成方法及装置,以缓解上述问题。
为了便于对本实施例进行理解,首先对本发明实施例所公开的一种战斗策略生成方法进行详细介绍。
在一种可能的实施方式中,本发明提供了一种战斗策略生成方法,应用于游戏客户端。如图1所示为本发明实施例提供的一种战斗策略生成方法的流程图,该方法包括以下步骤:
步骤S102:针对更新策略非玩家角色绑定近端策略优化算法,并搭建所述近端策略优化算法的神经网络结构。
其中,所述神经网络结构包括目标策略神经网络和当前策略神经网络。
步骤S104:计算所述当前策略神经网络的损失值,更新所述当前策略神经网络的参数,复制所述当前策略神经网络的参数替换所述目标策略神经网络的参数。
其中,重复步骤S104中的过程,在该重复过程中,更新策略非玩家角色的战斗力越来越强。
步骤S106:根据所述目标策略神经网络的参数使所述更新策略非玩家角色与玩家角色进行对抗,并根据与所述玩家角色对抗产生的战斗数据对所述神经网络结构的神经网络参数进行更新,为所述更新策略非玩家角色生成新的战斗策略。
其中,所述战斗数据包括所述更新策略非玩家角色的被击杀次数、使玩家角色损失的血量。
本发明实施例带来了以下有益效果:本发明实施例通过一种战斗策略生成方法,首先搭建近端策略优化算法的神经网络结构,然后计算当前策略神经网络的损失值,更新当前策略神经网络的参数,复制当前策略神经网络的参数替换目标策略神经网络的参数,最后根据目标策略神经网络的参数对神经网络结构的神经网络参数进行更新,为更新策略非玩家角色生成新的战斗策略。本发明实施例的战斗策略生成方法及装置通过针对更新策略非玩家角色绑定近端策略优化算法,最终生成战斗策略,从而达到了能够根据具体情况输出离散动作或连续动作的技术效果。
在实际使用时,为了对计算当前策略神经网络的损失值,更新当前策略神经网络的参数以及为更新策略非玩家角色生成新的战斗策略的过程进行更加详细的描述,本发明实施例在图2中示出了本发明实施例提供的另一种战斗策略生成方法的流程图,该方法包括以下步骤:
步骤S202:针对更新策略非玩家角色绑定近端策略优化算法,并搭建所述近端策略优化算法的神经网络结构。
其中,所述神经网络结构包括目标策略神经网络和当前策略神经网络。
步骤S204:计算所述值估计神经网络的损失值。
步骤S206:将所述值估计神经网络的损失值与所述当前策略神经网络和所述目标策略神经网络的动作概率比相乘,获取所述当前策略神经网络的损失值。
步骤S208:根据所获取的当前策略神经网络的损失值来更新所述当前策略神经网络的参数。
步骤S210:复制所述当前策略神经网络的参数替换所述目标策略神经网络的参数。
步骤S212:根据所述目标策略神经网络的参数使所述更新策略非玩家角色与玩家角色进行对抗,获取所述玩家角色对抗产生的战斗数据。
步骤S214:将所述战斗数据上传至服务器,所述服务器根据所述战斗数据对所述神经网络结构进行训练更新,为所述更新策略非玩家角色生成新的战斗策略。
在本发明实施例中将值估计神经网络的损失值与当前策略神经网络和目标策略神经网络的动作概率比相乘,获取当前策略神经网络的损失值的过程中,需首先获取当前策略神经网络和目标策略神经网络的动作概率值,再进行相除。
具体地,将状态向量输入至所述当前策略神经网络,获取所述当前策略神经网络的动作概率值;其中,所述状态向量中包含有更新策略非玩家角色的坐标信息、技能信息、生命值信息;
将所述状态向量输入至所述目标策略神经网络,获取所述目标策略神经网络的动作概率值;
将所述当前策略神经网络和所述目标策略神经网络的动作概率值除以所述目标策略神经网络的动作概率值,获取所述当前策略神经网络和所述目标策略神经网络的动作概率比。
此外,在为更新策略非玩家角色生成新的战斗策略之后,还需对游戏客户端进行更新。
具体地,在根据所述目标策略神经网络的参数使所述更新策略非玩家角色与玩家角色进行对抗,并根据与所述玩家角色对抗产生的战斗数据对所述神经网络结构的神经网络参数进行更新,为所述更新策略非玩家角色生成新的战斗策略之后,所述方法还包括:
根据所述新的战斗策略,对游戏客户端进行热更新。
其中,热更新是各大手游等众多应用程序常用的更新方式,简而言之就是在用户通下载安装该应用程序之后,打开该应用程序时的即时更新。
综上所述,本发明的战斗策略生成方法及装置,首先搭建近端策略优化算法的神经网络结构,然后计算当前策略神经网络的损失值,更新当前策略神经网络的参数,复制当前策略神经网络的参数替换目标策略神经网络的参数,最后根据目标策略神经网络的参数对神经网络结构的神经网络参数进行更新,为更新策略非玩家角色生成新的战斗策略。本发明实施例的战斗策略生成方法及装置通过针对更新策略非玩家角色绑定近端策略优化算法,最终生成战斗策略,从而达到了能够根据具体情况输出离散动作或连续动作的技术效果。
在另一种可能的实施方式中,对应于上述实施方式提供的战斗策略生成方法,本发明实施例还提供了一种战斗策略生成装置,应用于游戏客户端,图3本发明实施例提供的一种战斗策略生成装置的结构框图。如图3示,该装置包括:
搭建模块301,用于针对更新策略非玩家角色绑定近端策略优化算法,并搭建所述近端策略优化算法的神经网络结构;其中,所述神经网络结构包括目标策略神经网络和当前策略神经网络;
更新模块302,用于计算所述当前策略神经网络的损失值,更新所述当前策略神经网络的参数,复制所述当前策略神经网络的参数替换所述目标策略神经网络的参数;
生成模块303,用于根据所述目标策略神经网络的参数使所述更新策略非玩家角色与玩家角色进行对抗,并根据与所述玩家角色对抗产生的战斗数据对所述神经网络结构的神经网络参数进行更新,为所述更新策略非玩家角色生成新的战斗策略;其中,所述战斗数据包括所述更新策略非玩家角色的被击杀次数、使玩家角色损失的血量。
在实际使用时,所述神经网络结构还包括值估计神经网络;
所述更新模块302用于:
计算所述值估计神经网络的损失值;
将所述值估计神经网络的损失值与所述当前策略神经网络和所述目标策略神经网络的动作概率比相乘,获取所述当前策略神经网络的损失值;
根据所获取的当前策略神经网络的损失值来更新所述当前策略神经网络的参数。
在实际使用时,所述生成模块303用于:
根据所述目标策略神经网络的参数使所述更新策略非玩家角色与玩家角色进行对抗,获取所述玩家角色对抗产生的战斗数据;
将所述战斗数据上传至服务器,所述服务器根据所述战斗数据对所述神经网络结构进行训练更新,为所述更新策略非玩家角色生成新的战斗策略。
在又一种可能的实施方式中,本发明实施例还提供了一种服务器,图4示出了本发明实施例提供的一种服务器的结构示意图,参见图4,该服务器包括:处理器400、存储器401、总线402和通信接口403,该处理器400、存储器401、通信接口403和通过总线402连接;处理器400用于执行存储器401中存储的可执行模块,例如计算机程序。
其中,存储器401存储有能够被处理器400执行的计算机可执行指令,处理器400执行计算机可执行指令以实现上文所述的方法。
进一步地,存储器401可能包含高速随机存取存储器(RAM,Random AccessMemory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口403(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网,广域网,本地网,城域网等。
总线402可以是ISA总线、PCI总线或EISA总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,图4中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
其中,存储器401用于存储程序,处理器400在接收到程序执行指令后,执行所述程序,前述本发明实施例任一实施例揭示的战斗策略生成方法可以应用于处理器400中,或者由处理器400实现。
此外,处理器400可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器400中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器400可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DigitalSignal Processing,简称DSP)、专用集成电路(Application Specific IntegratedCircuit,简称ASIC)、现成可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器401,处理器400读取存储器401中的信息,结合其硬件完成上述方法的步骤。
在又一种可能的实施方式中,本发明实施例还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令在被处理器调用和执行时,计算机可执行指令促使处理器实现上文所述的方法。
本发明实施例提供的战斗策略生成装置,与上述实施例提供的战斗策略生成方法具有相同的技术特征,所以也能解决相同的技术问题,达到相同的技术效果。
本发明实施例所提供的战斗策略生成方法及装置的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
另外,在本发明实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,ReaD-Only Memory)、随机存取存储器(RAM,RanDom Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种战斗策略生成方法,其特征在于,应用于游戏客户端,所述方法包括以下步骤:
针对更新策略非玩家角色绑定近端策略优化算法,并搭建所述近端策略优化算法的神经网络结构;其中,所述神经网络结构包括目标策略神经网络和当前策略神经网络;
计算所述当前策略神经网络的损失值,更新所述当前策略神经网络的参数,复制所述当前策略神经网络的参数替换所述目标策略神经网络的参数;
根据所述目标策略神经网络的参数使所述更新策略非玩家角色与玩家角色进行对抗,并根据与所述玩家角色对抗产生的战斗数据对所述神经网络结构的神经网络参数进行更新,为所述更新策略非玩家角色生成新的战斗策略;其中,所述战斗数据包括所述更新策略非玩家角色的被击杀次数、使玩家角色损失的血量。
2.根据权利要求1所述的方法,其特征在于,所述神经网络结构还包括值估计神经网络;
所述计算所述当前策略神经网络的损失值,更新所述当前策略神经网络的参数的步骤,包括:
计算所述值估计神经网络的损失值;
将所述值估计神经网络的损失值与所述当前策略神经网络和所述目标策略神经网络的动作概率比相乘,获取所述当前策略神经网络的损失值;
根据所获取的当前策略神经网络的损失值来更新所述当前策略神经网络的参数。
3.根据权利要求2所述的方法,其特征在于,将状态向量输入至所述当前策略神经网络,获取所述当前策略神经网络的动作概率值;其中,所述状态向量中包含有更新策略非玩家角色的坐标信息、技能信息、生命值信息;
将所述状态向量输入至所述目标策略神经网络,获取所述目标策略神经网络的动作概率值;
将所述当前策略神经网络和所述目标策略神经网络的动作概率值除以所述目标策略神经网络的动作概率值,获取所述当前策略神经网络和所述目标策略神经网络的动作概率比。
4.根据权利要求1所述的方法,其特征在于,所述根据所述目标策略神经网络的参数使所述更新策略非玩家角色与玩家角色进行对抗,并根据与所述玩家角色对抗产生的战斗数据对所述神经网络结构的神经网络参数进行更新,为所述更新策略非玩家角色生成新的战斗策略的步骤,包括:
根据所述目标策略神经网络的参数使所述更新策略非玩家角色与玩家角色进行对抗,获取所述玩家角色对抗产生的战斗数据;
将所述战斗数据上传至服务器,所述服务器根据所述战斗数据对所述神经网络结构进行训练更新,为所述更新策略非玩家角色生成新的战斗策略。
5.根据权利要求1所述的方法,其特征在于,在根据所述目标策略神经网络的参数使所述更新策略非玩家角色与玩家角色进行对抗,并根据与所述玩家角色对抗产生的战斗数据对所述神经网络结构的神经网络参数进行更新,为所述更新策略非玩家角色生成新的战斗策略之后,所述方法还包括:
根据所述新的战斗策略,对游戏客户端进行热更新。
6.一种战斗策略生成装置,其特征在于,应用于游戏客户端,所述装置包括:
搭建模块,用于针对更新策略非玩家角色绑定近端策略优化算法,并搭建所述近端策略优化算法的神经网络结构;其中,所述神经网络结构包括目标策略神经网络和当前策略神经网络;
更新模块,用于计算所述当前策略神经网络的损失值,更新所述当前策略神经网络的参数,复制所述当前策略神经网络的参数替换所述目标策略神经网络的参数;
生成模块,用于根据所述目标策略神经网络的参数使所述更新策略非玩家角色与玩家角色进行对抗,并根据与所述玩家角色对抗产生的战斗数据对所述神经网络结构的神经网络参数进行更新,为所述更新策略非玩家角色生成新的战斗策略;其中,所述战斗数据包括所述更新策略非玩家角色的被击杀次数、使玩家角色损失的血量。
7.根据权利要求6所述的装置,其特征在于,所述神经网络结构还包括值估计神经网络;
所述更新模块用于:
计算所述值估计神经网络的损失值;
将所述值估计神经网络的损失值与所述当前策略神经网络和所述目标策略神经网络的动作概率比相乘,获取所述当前策略神经网络的损失值;
根据所获取的当前策略神经网络的损失值来更新所述当前策略神经网络的参数。
8.根据权利要求6所述的装置,其特征在于,所述生成模块用于:
根据所述目标策略神经网络的参数使所述更新策略非玩家角色与玩家角色进行对抗,获取所述玩家角色对抗产生的战斗数据;
将所述战斗数据上传至服务器,所述服务器根据所述战斗数据对所述神经网络结构进行训练更新,为所述更新策略非玩家角色生成新的战斗策略。
9.一种服务器,其特征在于,包括处理器和存储器,所述存储器存储有能够被所述处理器执行的计算机可执行指令,所述处理器执行所述计算机可执行指令以实现权利要求1至5任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令在被处理器调用和执行时,所述计算机可执行指令促使处理器实现权利要求1至5任一项所述的方法。
CN201911344540.0A 2019-12-23 2019-12-23 战斗策略生成方法及装置 Active CN111111200B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911344540.0A CN111111200B (zh) 2019-12-23 2019-12-23 战斗策略生成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911344540.0A CN111111200B (zh) 2019-12-23 2019-12-23 战斗策略生成方法及装置

Publications (2)

Publication Number Publication Date
CN111111200A true CN111111200A (zh) 2020-05-08
CN111111200B CN111111200B (zh) 2023-11-14

Family

ID=70501677

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911344540.0A Active CN111111200B (zh) 2019-12-23 2019-12-23 战斗策略生成方法及装置

Country Status (1)

Country Link
CN (1) CN111111200B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113101669A (zh) * 2021-04-20 2021-07-13 网易(杭州)网络有限公司 游戏中虚拟对象的刷新方法、刷新装置、设备和介质
CN117151224A (zh) * 2023-07-27 2023-12-01 中国科学院自动化研究所 兵棋强随机博弈的策略演化训练方法、装置、设备及介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030149675A1 (en) * 2001-06-26 2003-08-07 Intuitive Intelligence, Inc. Processing device with intuitive learning capability
US20090088233A1 (en) * 2007-09-28 2009-04-02 Microsoft Corporation Dynamic problem solving for games
CN105637540A (zh) * 2013-10-08 2016-06-01 谷歌公司 用于强化学习的方法和设备
CN108211362A (zh) * 2017-12-26 2018-06-29 浙江大学 一种基于深度q学习网络的非玩家角色战斗策略学习方法
CN109091867A (zh) * 2018-07-26 2018-12-28 深圳市腾讯网络信息技术有限公司 操作控制方法、装置、设备及存储介质
CN109407682A (zh) * 2018-09-29 2019-03-01 大连海洋大学 基于图像特征深度强化学习的auv管道循管方法
CN109621422A (zh) * 2018-11-26 2019-04-16 腾讯科技(深圳)有限公司 电子棋牌决策模型训练方法及装置、策略生成方法及装置
CN110141867A (zh) * 2019-04-23 2019-08-20 广州多益网络股份有限公司 一种游戏智能体训练方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030149675A1 (en) * 2001-06-26 2003-08-07 Intuitive Intelligence, Inc. Processing device with intuitive learning capability
US20090088233A1 (en) * 2007-09-28 2009-04-02 Microsoft Corporation Dynamic problem solving for games
CN105637540A (zh) * 2013-10-08 2016-06-01 谷歌公司 用于强化学习的方法和设备
CN108211362A (zh) * 2017-12-26 2018-06-29 浙江大学 一种基于深度q学习网络的非玩家角色战斗策略学习方法
CN109091867A (zh) * 2018-07-26 2018-12-28 深圳市腾讯网络信息技术有限公司 操作控制方法、装置、设备及存储介质
CN109407682A (zh) * 2018-09-29 2019-03-01 大连海洋大学 基于图像特征深度强化学习的auv管道循管方法
CN109621422A (zh) * 2018-11-26 2019-04-16 腾讯科技(深圳)有限公司 电子棋牌决策模型训练方法及装置、策略生成方法及装置
CN110141867A (zh) * 2019-04-23 2019-08-20 广州多益网络股份有限公司 一种游戏智能体训练方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113101669A (zh) * 2021-04-20 2021-07-13 网易(杭州)网络有限公司 游戏中虚拟对象的刷新方法、刷新装置、设备和介质
CN117151224A (zh) * 2023-07-27 2023-12-01 中国科学院自动化研究所 兵棋强随机博弈的策略演化训练方法、装置、设备及介质

Also Published As

Publication number Publication date
CN111111200B (zh) 2023-11-14

Similar Documents

Publication Publication Date Title
CN109471712B (zh) 虚拟环境中的虚拟对象的调度方法、装置及设备
CN109814955B (zh) 阵容确定的方法、装置及电子设备
CN107019912B (zh) 角色的配置方法和装置
CN111111200A (zh) 战斗策略生成方法及装置
WO2019062855A1 (zh) 虚拟资源数据处理方法、计算机设备及存储介质
CN110134375B (zh) 游戏角色行为的控制方法、装置及可读存储介质
CN109529352B (zh) 虚拟环境中调度策略的评估方法、装置及设备
CN111330279B (zh) 一种游戏ai的策略决策模型训练方法和装置
CN111589166A (zh) 交互式任务控制、智能决策模型训练方法、设备和介质
US20140157246A1 (en) Building cross-platform asynchronous games
CN111437598B (zh) 游戏中战术预案的交互方法、装置及电子设备
CN113134240B (zh) 游戏成绩更新方法、装置和电子设备
CN115577795A (zh) 策略模型优化方法、装置及存储介质
US11498002B2 (en) Method and system of generating data and training a model, server, and terminal device
US20230311002A1 (en) Decision model training method and apparatus
CN116510300A (zh) 游戏角色的行为控制方法、装置和电子设备
CN117018621A (zh) 游戏参数配置方法、装置、设备以及介质
CN112712179A (zh) 模型训练方法、服务器及终端设备
CN110124306B (zh) 一种资源配置信息推荐的方法、装置、设备和介质
CN112870727B (zh) 一种游戏中智能体的训练及控制方法
CN115957506A (zh) 虚拟对象的渲染方法、装置及电子设备
CN115337638A (zh) 游戏中的信息控件显示控制方法、装置和电子设备
CN114011063A (zh) 游戏中虚拟角色控制方法及电子设备
CN111111189A (zh) 游戏aoi的管理方法、装置及电子设备
CN112365576A (zh) 庄园组件位置的推荐方法、装置及服务器

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant