CN110882542B - 游戏智能体的训练方法、装置、设备及存储介质 - Google Patents
游戏智能体的训练方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN110882542B CN110882542B CN201911106673.4A CN201911106673A CN110882542B CN 110882542 B CN110882542 B CN 110882542B CN 201911106673 A CN201911106673 A CN 201911106673A CN 110882542 B CN110882542 B CN 110882542B
- Authority
- CN
- China
- Prior art keywords
- game
- training
- agent
- heuristic
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 122
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000002787 reinforcement Effects 0.000 claims abstract description 27
- 230000000694 effects Effects 0.000 claims abstract description 24
- 208000027418 Wounds and injury Diseases 0.000 claims abstract description 23
- 230000006378 damage Effects 0.000 claims abstract description 23
- 208000014674 injury Diseases 0.000 claims abstract description 23
- 230000009471 action Effects 0.000 claims description 33
- 210000005155 neural progenitor cell Anatomy 0.000 claims description 28
- 238000004590 computer program Methods 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 9
- 230000006399 behavior Effects 0.000 claims description 8
- 230000003993 interaction Effects 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 230000008901 benefit Effects 0.000 claims description 4
- 238000005295 random walk Methods 0.000 claims description 4
- 238000000137 annealing Methods 0.000 claims description 3
- 230000008520 organization Effects 0.000 claims description 3
- 239000003795 chemical substances by application Substances 0.000 description 88
- 230000000875 corresponding effect Effects 0.000 description 31
- 230000001276 controlling effect Effects 0.000 description 11
- 230000006872 improvement Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000002498 deadly effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000003040 nociceptive effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/56—Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了游戏智能体的训练方法,包括:接收游戏服发送的游戏场景信息;将游戏场景信息中的能产生伤害效果的NPC去掉,所述游戏场景修改为第一寻路跟随场景;控制智能体根据预设的启发式奖励规则进行寻路训练,得到寻路参数;还原所述游戏场景信息中的能产生伤害效果的NPC,所述游戏场景修改为初始寻路跟随场景;根据所述寻路参数控制智能体进行所述寻路训练,直至完成预设的训练目标。本发明实施例还公开了一种游戏智能体的训练装置、设备及存储介质,采用多个实施例有效解决了现有技术强化学习训练效率低下,时间周期长的问题。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种游戏智能体的训练方法、装置、设备及存储介质。
背景技术
传统的寻路跟随算法包括复制轨迹和重新规划路线等方法,这些方法在简单的游戏场景可以取得很好的效果。但是,随着对游戏场景的环境越来越复杂,要求这些算法能迅速响应这些复杂环境的变化,这些传统的寻路跟随算法越来越无法满足对应的要求。
随着深度学习技术的爆发,基于深度学习的强化学习(Reinforcement Learning)技术也得到了飞速发展。深度强化学习技术可以利用不断地试错和学习以及对人类行为的模仿,自发地产生对环境的响应行为,避免了人工设计规则的问题。强化学习利用智能体和环境的不断交互,不断获得回报,通过最大化回报的方式进行学习,目前在游戏中获得比较理想的效果。然而,强化学习的过程需要不断与环境交互,不断地试错,尤其在环境的反馈比较稀疏时候,智能体获得反馈频率很低的情况下,强化学习训练需要耗费大量的时间,训练效率非常低下。游戏跟随正是这样反馈频率很低的场合,需要智能体一直探索试错,直到到达目的地,才能得到正向的反馈。如果路途中间踩到陷阱或者遇到致命的静止和移动的NPC,没有及时躲避可能直接结束回合,无法获得正向反馈。在复杂的游戏场景中通过随机探索试错到达目的地的概率极其低,进而造成强化学习训练效率低下,时间周期长。
发明内容
本发明实施例提供一种游戏智能体的训练方法、装置、设备及存储介质,能有效解决现有技术强化学习训练效率低下,时间周期长的问题。
本发明一实施例提供一种游戏智能体的训练方法,包括:
接收游戏服发送的游戏场景信息;
将游戏场景信息中的能产生伤害效果的NPC去掉,所述游戏场景修改为第一寻路跟随场景;
控制智能体根据预设的启发式奖励规则进行寻路训练,得到寻路参数;其中,所述预设的启发式奖励规则为:当智能体的当前位置与智能体的目标位置之间的曼哈顿距离减少后,则向所述智能体发送对应的启发式奖励信息;
还原所述游戏场景信息中的能产生伤害效果的NPC,所述游戏场景修改为初始寻路跟随场景;
根据所述寻路参数控制智能体进行所述寻路训练,直至完成预设的训练目标。
作为上述方案的改进,所述控制智能体根据预设的启发式奖励规则进行寻路训练,得到寻路参数;其中,所述预设的启发式奖励规则为:当智能体的当前位置与智能体的目标位置间的曼哈顿距离减少后,则向所述智能体发送对应的启发式奖励信息,具体包括:
在所述第一寻路跟随场景中生成所有可以达到的地点,作为所述寻路训练的备用目标点;
从所述备用目标点中随机选择一个第一备用目标点,采用预设的策略梯度强化学习算法控制所述智能体以所述第一备用目标点为目标位置进行所述寻路训练;
当智能体的当前位置与第一备用目标点的位置间的曼哈顿距离减少后,则向所述智能体发送对应的启发式奖励信息;
将对应的所述启发式奖励信息反馈至预设的策略梯度强化学习算法,计算当前回合的最大奖励的梯度,通过梯度下降反向传播,得到最优策略;
根据最优策略进行训练得到最优寻路参数并进行保存。
作为上述方案的改进,所述当智能体的当前位置与第一备用目标点的位置间的曼哈顿距离减少后,则向所述智能体发送对应的启发式奖励信息,具体包括:
当所述智能体未到达所述目标位置时,每一帧的启发式奖励根据第一启发式奖励公式计算;其中,所述第一启发式奖励公式,具体为,R=α(t)*(Dpre-Dnow)-β,Dpre为前一帧的智能体与目标位置的曼哈顿距离,Dnow为在当前帧的智能体与目标位置的曼哈顿距离,α(t)为随游戏帧数以预设的衰减规则不断减小的退火的因子,β为每一帧的惩罚因子;
当所述智能体到达目标位置后,直接获得一个预设的正向奖励。
作为上述方案的改进,在所述接收游戏服发送的游戏场景信息之后,所述将游戏场景信息中的能产生伤害效果的NPC去掉,所述游戏场景修改为第一寻路跟随场景之前,所述方法还包括:
对所述游戏场景信息进行编码作为所述智能体的输入信息;
所述智能体根据所述输入信息输出对应的执行动作,并将对应的执行动作编码后反馈至所述游戏服。
作为上述方案的改进,对所述游戏场景信息编码方式,具体包括:将所述游戏场景信息绘制成对应的二位图像;
将对应的执行动作编码后反馈至所述游戏服,具体包括:
采用one-hot方式对执行动作进行编码,得到输出行为数据;
将所述输出行为数据反馈至所述游戏服。
作为上述方案的改进,所述将对应的所述启发式奖励信息反馈至预设的策略梯度强化学习算法,计算当前回合的最大奖励的梯度,通过梯度下降反向传播,得到最优策略,具体包括:
所述预设的策略梯度强化学习算法包括:动作策略输出网络和价值估计网络;
根据以下公式计算算当前回合的最大奖励的梯度:
其中,为智能体和环境的交互的序列数据τ的集合,每条序列τ长度为最大长度为T,序列中每个时间节点包括状态st,动作at,当前动作策略下执行动作at的概率πθ(at|t),该节点的价值估计/>执行该动作对应奖励rt,/>为该节点的优势估计, 为在t时刻该节点的价值估计,γ为奖励折扣因子,
对策略输出网络参数进行更新的公式如下,
其中,θk为第k次迭代的策略网络参数,αk为策略网络的学习率,为每次神经网络损失函数反向传播的梯度;
对价值估计网络参数进行更新的公式如下,
其中,φk为第k次迭代的价值网络参数, 为时间t节点的实际状态价值。
作为上述方案的改进,所述游戏场景信息,包括:
地形信息、静止的NPC、随机游走的NPC以及游戏中的机关信息。
本发明另一实施例对应提供了一种游戏智能体的训练装置,包括:
接收模块,用于接收游戏服发送的游戏场景信息;
第一游戏场景修改模块,用于将游戏场景信息中的能产生伤害效果的NPC去掉,所述游戏场景修改为第一寻路跟随场景;
第一控制模块,用于控制智能体根据预设的启发式奖励规则进行寻路训练,得到寻路参数;其中,所述预设的启发式奖励规则为:当智能体的当前位置与智能体的目标位置之间的曼哈顿距离减少后,则向所述智能体发送对应的启发式奖励信息;
第二游戏场景修改模块,用于还原所述游戏场景信息中的能产生伤害效果的NPC,所述游戏场景修改为初始寻路跟随场景;
第二控制模块,用于根据所述寻路参数控制智能体进行所述寻路训练,直至完成预设的训练目标。
本发明另一实施例提供了一种游戏智能体的训练设备,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现上述发明实施例所述的游戏智能体的训练方法。
本发明另一实施例提供了一种存储介质,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行上述发明实施例所述的游戏智能体的训练方法。
与现有技术相比,本发明实施例公开的游戏智能体的训练方法、装置、设备及存储介质,通过接收游戏服发送的游戏场景信息,将游戏场景信息中的能产生伤害效果的NPC去掉得到第一寻路跟随场景,在第一寻路跟随场景中控制智能体根据预设的启发式奖励规则进行寻路训练,得到寻路参数,当智能体的当前位置与智能体的目标位置之间的曼哈顿距离减少后向智能体发送对应的启发式奖励信息,再将游戏场景修改为初始寻路跟随场景,根据寻路参数控制智能体再次进行寻路训练,直至完成预设的训练目标。由上分析可知,通过智能体的当前位置与智能体的目标位置之间的曼哈顿距离减少后向智能体发送对应的启发式奖励信息,给予智能体一个启发式的方向,提高寻路效率,从而提高学习训练效率,减少时间周期。
附图说明
图1是本发明训练服与游戏服交互的示意图。
图2是本发明一实施例提供的一种游戏智能体的训练方法的流程示意图;
图3是本发明一实施例提供的智能体当前位置和目标位置启发式奖励示意图;
图4是本发明一实施例提供的一种游戏智能体的训练装置的结构示意图;
图5是本发明一实施例提供的一种游戏智能体的训练设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,在游戏服和训练服之间创建通信连接,游戏服创建游戏环境,实现游戏环境部分的逻辑,训练服负责游戏训练部分逻辑。游戏服把每一帧的游戏数据发送到训练服,训练服对每一帧的数据进行分析训练,返回每一帧对应的动作到游戏服。游戏服创建的环境把每一帧的当前环境的状态(即游戏场景信息)发给训练服,训练服的智能体对环境进行决策分析,得到这一帧应该执行的动作返回给游戏服,游戏服执行这个动作后,把下一帧的状态和执行这个动作对应的奖励信息返回给训练服,一直循环上述操作。
参见图2,是本发明一实施例提供的一种游戏智能体的训练方法的流程示意图。
本发明实施例提供了一种游戏智能体的训练方法,包括:
S10,接收游戏服发送的游戏场景信息。其中,游戏场景信息包括:地形信息、静止的NPC、随机游走的NPC以及游戏中的机关信息。
具体地,训练服接收游戏服发送的游戏场景信息,并对游戏场景信息进行处理。
S20,将游戏场景信息中的能产生伤害效果的NPC去掉,所述游戏场景修改为第一寻路跟随场景。在本实施例中,产生伤害效果的NPC包括:游戏环境中随机游走的致命怪物,静止的致命怪物,跳跃通过河流时候的滚石和机关等。
具体地,把对智能体具有伤害效果的NPC逻辑删除,形成一个没有伤害机制的第一寻路跟随场景。
S30,控制智能体根据预设的启发式奖励规则进行寻路训练,得到寻路参数;其中,所述预设的启发式奖励规则为:当智能体的当前位置与智能体的目标位置之间的曼哈顿距离减少后,则向所述智能体发送对应的启发式奖励信息。
具体地,S301,在所述第一寻路跟随场景中生成所有可以达到的地点,作为所述寻路训练的备用目标点。
S302,从所述备用目标点中随机选择一个第一备用目标点,采用预设的策略梯度强化学习算法控制所述智能体以所述第一备用目标点为目标位置进行所述寻路训练。
在本实施例中,采用策略梯度强化学习算法进行寻路训练,从生成的所有可以到达的点随机出一个备用目标点作为目标位置,智能体随机初始化在任意可以到达的位置,达到目标位置则完成任务,超时没有到达则任务失败。
S303,当智能体的当前位置与第一备用目标点的位置间的曼哈顿距离减少后,则向所述智能体发送对应的启发式奖励信息。从而提高寻路效率,减少时间周期。
S304,将对应的所述启发式奖励信息反馈至预设的策略梯度强化学习算法,计算当前回合的最大奖励的梯度,通过梯度下降反向传播,得到最优策略。
S305,根据最优策略进行训练得到最优寻路参数并进行保存。
S40,还原所述游戏场景信息中的能产生伤害效果的NPC,所述游戏场景修改为初始寻路跟随场景。
具体地,把游戏场景信息还原到原始状态,保留游戏场景中的能产生伤害效果的NPC,让智能体在之前的寻路参数初始化下继续训练复杂场景的寻路跟随。由于智能体已经经过简单寻路场景(即第一寻路跟随场景)下的寻路训练作为启发式训练,智能体具有一定的方向性决策,能提高智能体在复杂场景训练的探索效率,进而在复杂场景中进一步训练后,提高的复杂场景(即初始寻路跟随场景)下的寻路能力。
S50,根据所述寻路参数控制智能体进行所述寻路训练,直至完成预设的训练目标。其中,预设的训练目标为:按时到达目标位置。
具体地,智能体加载之前在第一寻路跟随场景训练的寻路参数,在初始寻路跟随场景生成所有可以达到的点,作为训练的备用目标点,采用上述策略梯度强化学习算法继续导航训练,智能体随机初始化在任意可以到达的位置,从生成的所有可以到达点中随机选取一个点作为目标位置,训练智能体寻路到该目标位置,到达目标位置则完成任务,超时没有到达目标位置则失败,继续训练,直到按时到达目标位置。
综上所述,通过接收游戏服发送的游戏场景信息,将游戏场景信息中的能产生伤害效果的NPC去掉得到第一寻路跟随场景,在第一寻路跟随场景中控制智能体根据预设的启发式奖励规则进行寻路训练,得到寻路参数,当智能体的当前位置与智能体的目标位置之间的曼哈顿距离减少后向智能体发送对应的启发式奖励信息,再将游戏场景修改为初始寻路跟随场景,根据寻路参数控制智能体再次进行寻路训练,直至完成预设的训练目标。由上分析可知,通过智能体的当前位置与智能体的目标位置之间的曼哈顿距离减少后向智能体发送对应的启发式奖励信息,给予智能体一个启发式的方向,提高寻路效率,从而提高学习训练效率,减少时间周期。
作为上述方案的改进,所述当智能体的当前位置与第一备用目标点的位置间的曼哈顿距离减少后,则向所述智能体发送对应的启发式奖励信息,具体包括:
当所述智能体未到达所述目标位置时,每一帧的启发式奖励根据第一启发式奖励公式计算;其中,所述第一启发式奖励公式,具体为,R=α(t)*(Dpre-Dnow)-β,Dpre为前一帧的智能体与目标位置的曼哈顿距离,Dnow为在当前帧的智能体与目标位置的曼哈顿距离,α(t)为随游戏帧数以预设的衰减规则不断减小的退火的因子,β为每一帧的惩罚因子。其中,惩罚因子与当场游戏的时间总长度(游戏帧数)和游戏胜利时候的最终奖励有关,参考值为最终胜利奖励值除以游戏时间总长度,一般小于这个值。预设的衰减规则可以为线性衰减,也可以指数衰减,也可以为间隔固定时间衰减固定数值,让奖励幅度随着时间衰减,衰减程度根据在不同的场合调节对应的值,比如线性衰减,可以初始为0.5倍衰减,后续不断优化这个值到最佳。
当所述智能体到达目标位置后,直接获得一个预设的正向奖励。
在本实施例中,参见图3,带状条表示能够通过的区域,O点为智能体所在的位置,A,B,C,D四点分别为不同的目标点位置,当目标点在不同位置时,和O点的曼哈顿距离的示意图。
直接用当前位置和目标的位置的曼哈顿距离作为启发式奖励的参考依据,当距离减少时候,给予智能体奖励,虽然实际上寻路时候的轨迹大多情况因为有障碍阻挡曼哈顿距离不是最短距离,但是这个奖励是作为强化学习的一个启发式奖励,在智能体探索期间,可以给智能体一个启发式的方向,能够提高搜索效率。同时,启发式奖励一直随着时间在慢慢衰减,直到为零。
作为上述方案的改进,S304,所述将对应的所述启发式奖励信息反馈至预设的策略梯度强化学习算法,计算当前回合的最大奖励的梯度,通过梯度下降反向传播,得到最优策略,具体包括:
所述预设的策略梯度强化学习算法包括:动作策略输出网络和价值估计网络,其中,训练服和游戏服不断交互的状态转移数据(包括游戏场景信息等)和对应的奖励数据,反馈给动作策略输出网络和价值估计网络进行学习,实现最大化每个回合的奖励。从交互序列中获得序列数据,为了获得当前回合的最大奖励,计算当前回合的最大奖励的梯度,通过梯度下降反向传播,得到最优策略。
根据以下公式计算当前回合的最大奖励的梯度:
其中,为智能体和环境的交互的序列数据τ的集合,每条序列τ长度为最大长度为T,序列中每个时间节点包括状态st,动作at,当前动作策略下执行动作at的概率πθ(at|st),该节点的价值估计/>执行该动作对应奖励rt,/>为该节点的优势估计, 为在t时刻该节点的价值估计,γ为奖励折扣因子,
对策略输出网络参数进行更新的公式如下,
其中,θk为第k次迭代的策略网络参数,αk为策略网络的学习率,为每次神经网络损失函数反向传播的梯度;
对价值估计网络参数进行更新的公式如下,
其中,φk为第k次迭代的价值网络参数, 为时间t节点的实际状态价值。
可选的,强化学习网络中的两个学习网络(策略网络和价值估计网络)为共享特征表示层的深度神经网络,输入包括当前游戏画面、玩家当前位置坐标和目标位置坐标。其中,共享特征表示层包括三层卷积层和两层全连接层。三层卷积层把当前帧的游戏画面进行特征提取,得到的特征与智能体的当前位置坐标和目标点位置坐标进行组合,形成新的特征,通过两层全连接层,得到策略网络和价值估计网络的共享特征。
作为上述方案的改进,在所述接收游戏服发送的游戏场景信息之后,所述将游戏场景信息中的能产生伤害效果的NPC去掉,所述游戏场景修改为第一寻路跟随场景之前,所述方法还包括:
对所述游戏场景信息进行编码作为所述智能体的输入信息。
在本实施例中,对所述游戏场景信息编码方式,具体包括:将所述游戏场景信息绘制成对应的二位图像。
所述智能体根据所述输入信息输出对应的执行动作,并将对应的执行动作编码后反馈至所述游戏服。
在本实施例中,智能体的操作包括上下左右行走和跳跃五个操作,作为智能体的输出。
在本实施例中,采用one-hot方式对执行动作进行编码,得到输出行为数据,将所述输出行为数据反馈至所述游戏服。
参见图4,是本发明一实施例提供的一种游戏智能体的训练装置的结构示意图。
本发明实施例对应提供了一种游戏智能体的训练装置,包括:
接收模块10,用于接收游戏服发送的游戏场景信息。
第一游戏场景修改模块20,用于将游戏场景信息中的能产生伤害效果的NPC去掉,所述游戏场景修改为第一寻路跟随场景。
第一控制模块30,用于控制智能体根据预设的启发式奖励规则进行寻路训练,得到寻路参数;其中,所述预设的启发式奖励规则为:当智能体的当前位置与智能体的目标位置之间的曼哈顿距离减少后,则向所述智能体发送对应的启发式奖励信息。
第二游戏场景修改模块40,用于还原所述游戏场景信息中的能产生伤害效果的NPC,所述游戏场景修改为初始寻路跟随场景。
第二控制模块50,用于根据所述寻路参数控制智能体进行所述寻路训练,直至完成预设的训练目标。
综上所述,通过接收游戏服发送的游戏场景信息,将游戏场景信息中的能产生伤害效果的NPC去掉得到第一寻路跟随场景,在第一寻路跟随场景中控制智能体根据预设的启发式奖励规则进行寻路训练,得到寻路参数,当智能体的当前位置与智能体的目标位置之间的曼哈顿距离减少后向智能体发送对应的启发式奖励信息,再将游戏场景修改为初始寻路跟随场景,根据寻路参数控制智能体再次进行寻路训练,直至完成预设的训练目标。由上分析可知,通过智能体的当前位置与智能体的目标位置之间的曼哈顿距离减少后向智能体发送对应的启发式奖励信息,给予智能体一个启发式的方向,提高寻路效率,从而提高学习训练效率,减少时间周期。
参见图5,是本发明一实施例提供的游戏智能体的训练设备的示意图。该实施例的游戏智能体的训练设备包括:处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序。所述处理器执行所述计算机程序时实现上述各个游戏智能体的训练方法实施例中的步骤。或者,所述处理器执行所述计算机程序时实现上述各装置实施例中各模块/单元的功能。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器中,并由所述处理器执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述游戏智能体的训练设备中的执行过程。
所述游戏智能体的训练设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述游戏智能体的训练设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,所述示意图仅仅是游戏智能体的训练设备的示例,并不构成对游戏智能体的训练设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述游戏智能体的训练设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述游戏智能体的训练设备的控制中心,利用各种接口和线路连接整个游戏智能体的训练设备的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述游戏智能体的训练设备的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
其中,所述游戏智能体的训练设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。
需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本发明提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
Claims (9)
1.一种游戏智能体的训练方法,其特征在于,包括:
接收游戏服发送的游戏场景信息;
将游戏场景信息中的能产生伤害效果的NPC去掉,游戏场景修改为第一寻路跟随场景;
控制智能体根据预设的启发式奖励规则进行寻路训练,得到寻路参数;其中,所述预设的启发式奖励规则为:当智能体的当前位置与智能体的目标位置之间的曼哈顿距离减少后,则向所述智能体发送对应的启发式奖励信息;
还原所述游戏场景信息中的能产生伤害效果的NPC,所述游戏场景修改为初始寻路跟随场景;
根据所述寻路参数控制智能体进行所述寻路训练,直至完成预设的训练目标;
所述控制智能体根据预设的启发式奖励规则进行寻路训练,得到寻路参数;其中,所述预设的启发式奖励规则为:当智能体的当前位置与智能体的目标位置间的曼哈顿距离减少后,则向所述智能体发送对应的启发式奖励信息,具体包括:
在所述第一寻路跟随场景中生成所有可以达到的地点,作为所述寻路训练的备用目标点;
从所述备用目标点中随机选择一个第一备用目标点,采用预设的策略梯度强化学习算法控制所述智能体以所述第一备用目标点为目标位置进行所述寻路训练;
当智能体的当前位置与第一备用目标点的位置间的曼哈顿距离减少后,则向所述智能体发送对应的启发式奖励信息;
将对应的所述启发式奖励信息反馈至预设的策略梯度强化学习算法,计算当前回合的最大奖励的梯度,通过梯度下降反向传播,得到最优策略;
根据最优策略进行训练得到最优寻路参数并进行保存。
2.如权利要求1所述的游戏智能体的训练方法,其特征在于,所述当智能体的当前位置与第一备用目标点的位置间的曼哈顿距离减少后,则向所述智能体发送对应的启发式奖励信息,具体包括:
当所述智能体未到达所述目标位置时,每一帧的启发式奖励根据第一启发式奖励公式计算;其中,所述第一启发式奖励公式,具体为,R=α(t)*(Dpre-Dnow)-β,Dpre为前一帧的智能体与目标位置的曼哈顿距离,Dnow为在当前帧的智能体与目标位置的曼哈顿距离,α(t)为随游戏帧数以预设的衰减规则不断减小的退火的因子,β为每一帧的惩罚因子;
当所述智能体到达目标位置后,直接获得一个预设的正向奖励。
3.如权利要求1所述的游戏智能体的训练方法,其特征在于,在所述接收游戏服发送的游戏场景信息之后,所述将游戏场景信息中的能产生伤害效果的NPC去掉,所述游戏场景修改为第一寻路跟随场景之前,所述方法还包括:
对所述游戏场景信息进行编码作为所述智能体的输入信息;
所述智能体根据所述输入信息输出对应的执行动作,并将对应的执行动作编码后反馈至所述游戏服。
4.如权利要求3所述的游戏智能体的训练方法,其特征在于,
对所述游戏场景信息编码方式,具体包括:将所述游戏场景信息绘制成对应的二位图像;
将对应的执行动作编码后反馈至所述游戏服,具体包括:
采用one-hot方式对执行动作进行编码,得到输出行为数据;
将所述输出行为数据反馈至所述游戏服。
5.如权利要求1所述的游戏智能体的训练方法,其特征在于,所述将对应的所述启发式奖励信息反馈至预设的策略梯度强化学习算法,计算当前回合的最大奖励的梯度,通过梯度下降反向传播,得到最优策略,具体包括:
所述预设的策略梯度强化学习算法包括:动作策略输出网络和价值估计网络;
根据以下公式计算算当前回合的最大奖励的梯度:
其中,为智能体和环境的交互的序列数据τ的集合,每条序列τ长度为最大长度为T,序列中每个时间节点包括状态st,动作at,当前动作策略下执行动作at的概率πθ(at|t),该节点的价值估计/>执行该动作对应奖励rt,/>为该节点的优势估计, 为在t时刻该节点的价值估计,γ为奖励折扣因子,
对策略输出网络参数进行更新的公式如下,
其中,θk为第k次迭代的策略网络参数,αk为策略网络的学习率,为每次神经网络损失函数反向传播的梯度;
对价值估计网络参数进行更新的公式如下,
其中,φk为第k次迭代的价值网络参数,为时间t节点的实际状态价值。
6.如权利要求1所述的游戏智能体的训练方法,其特征在于,所述游戏场景信息,包括:
地形信息、静止的NPC、随机游走的NPC以及游戏中的机关信息。
7.一种游戏智能体的训练装置,其特征在于,包括:
接收模块,用于接收游戏服发送的游戏场景信息;
第一游戏场景修改模块,用于将游戏场景信息中的能产生伤害效果的NPC去掉,所述游戏场景修改为第一寻路跟随场景;
第一控制模块,用于控制智能体根据预设的启发式奖励规则进行寻路训练,得到寻路参数;其中,所述预设的启发式奖励规则为:当智能体的当前位置与智能体的目标位置之间的曼哈顿距离减少后,则向所述智能体发送对应的启发式奖励信息;
第二游戏场景修改模块,用于还原所述游戏场景信息中的能产生伤害效果的NPC,所述游戏场景修改为初始寻路跟随场景;
第二控制模块,用于根据所述寻路参数控制智能体进行所述寻路训练,直至完成预设的训练目标;
所述控制智能体根据预设的启发式奖励规则进行寻路训练,得到寻路参数;其中,所述预设的启发式奖励规则为:当智能体的当前位置与智能体的目标位置间的曼哈顿距离减少后,则向所述智能体发送对应的启发式奖励信息,具体包括:
在所述第一寻路跟随场景中生成所有可以达到的地点,作为所述寻路训练的备用目标点;
从所述备用目标点中随机选择一个第一备用目标点,采用预设的策略梯度强化学习算法控制所述智能体以所述第一备用目标点为目标位置进行所述寻路训练;
当智能体的当前位置与第一备用目标点的位置间的曼哈顿距离减少后,则向所述智能体发送对应的启发式奖励信息;
将对应的所述启发式奖励信息反馈至预设的策略梯度强化学习算法,计算当前回合的最大奖励的梯度,通过梯度下降反向传播,得到最优策略;
根据最优策略进行训练得到最优寻路参数并进行保存。
8.一种游戏智能体的训练设备,其特征在于,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至6中任意一项所述的游戏智能体的训练方法。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如权利要求1至6中任意一项所述的游戏智能体的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911106673.4A CN110882542B (zh) | 2019-11-13 | 2019-11-13 | 游戏智能体的训练方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911106673.4A CN110882542B (zh) | 2019-11-13 | 2019-11-13 | 游戏智能体的训练方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110882542A CN110882542A (zh) | 2020-03-17 |
CN110882542B true CN110882542B (zh) | 2023-07-18 |
Family
ID=69747413
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911106673.4A Active CN110882542B (zh) | 2019-11-13 | 2019-11-13 | 游戏智能体的训练方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110882542B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111481935B (zh) * | 2020-04-08 | 2023-04-18 | 网易(杭州)网络有限公司 | 不同风格游戏ai模型的配置方法、装置、设备及介质 |
CN111738098B (zh) * | 2020-05-29 | 2022-06-17 | 浪潮(北京)电子信息产业有限公司 | 一种车辆识别方法、装置、设备及存储介质 |
CN111860777B (zh) * | 2020-07-06 | 2021-07-02 | 中国人民解放军军事科学院战争研究院 | 面向超实时仿真环境的分布式强化学习训练方法及装置 |
CN112169311A (zh) * | 2020-10-20 | 2021-01-05 | 网易(杭州)网络有限公司 | 训练游戏ai的方法、系统、存储介质及计算机设备 |
CN112791411B (zh) * | 2021-01-25 | 2024-06-04 | 网易(杭州)网络有限公司 | Npc控制模型的训练方法、装置及电子设备 |
CN112783781B (zh) * | 2021-01-28 | 2024-06-04 | 网易(杭州)网络有限公司 | 游戏测试方法、装置、电子设备及存储介质 |
CN112843725A (zh) * | 2021-03-15 | 2021-05-28 | 网易(杭州)网络有限公司 | 智能体处理方法及装置 |
CN112836036B (zh) * | 2021-03-18 | 2023-09-08 | 中国平安人寿保险股份有限公司 | 针对智能体的交互式训练方法、装置、终端和存储介质 |
CN113254872B (zh) * | 2021-05-31 | 2023-12-19 | 大连理工大学 | 一种基于智能体通信机制的复杂游戏场景下的策略选择方法 |
CN113269315B (zh) * | 2021-06-29 | 2024-04-02 | 安徽寒武纪信息科技有限公司 | 利用深度强化学习执行任务的设备、方法及可读存储介质 |
CN113750525B (zh) * | 2021-08-20 | 2023-11-28 | 多益网络有限公司 | 一种3d游戏地图地表资源的生成方法、装置及存储介质 |
CN114004370A (zh) * | 2021-12-28 | 2022-02-01 | 中国科学院自动化研究所 | 基于深度强化学习网络构建对区域敏感的模型的方法 |
CN115206157A (zh) * | 2022-08-05 | 2022-10-18 | 白杨时代(北京)科技有限公司 | 一种无人潜航器寻路训练方法、装置及无人潜航器 |
CN116384469B (zh) * | 2023-06-05 | 2023-08-08 | 中国人民解放军国防科技大学 | 一种智能体策略生成方法、装置、计算机设备和存储介质 |
CN116747521B (zh) * | 2023-08-17 | 2023-11-03 | 腾讯科技(深圳)有限公司 | 控制智能体进行对局的方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104102522A (zh) * | 2014-07-30 | 2014-10-15 | 厦门大学 | 交互式游戏中智能非玩家角色的人工情感驱动方法 |
CN109550254A (zh) * | 2019-01-10 | 2019-04-02 | 网易(杭州)网络有限公司 | 一种游戏调整的方法及装置、电子设备、存储介质 |
CN109621431A (zh) * | 2018-11-30 | 2019-04-16 | 网易(杭州)网络有限公司 | 一种游戏动作的处理方法和装置 |
CN110141867A (zh) * | 2019-04-23 | 2019-08-20 | 广州多益网络股份有限公司 | 一种游戏智能体训练方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3400419A2 (en) * | 2016-01-05 | 2018-11-14 | Mobileye Vision Technologies Ltd. | Trained navigational system with imposed constraints |
US11580378B2 (en) * | 2018-03-14 | 2023-02-14 | Electronic Arts Inc. | Reinforcement learning for concurrent actions |
-
2019
- 2019-11-13 CN CN201911106673.4A patent/CN110882542B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104102522A (zh) * | 2014-07-30 | 2014-10-15 | 厦门大学 | 交互式游戏中智能非玩家角色的人工情感驱动方法 |
CN109621431A (zh) * | 2018-11-30 | 2019-04-16 | 网易(杭州)网络有限公司 | 一种游戏动作的处理方法和装置 |
CN109550254A (zh) * | 2019-01-10 | 2019-04-02 | 网易(杭州)网络有限公司 | 一种游戏调整的方法及装置、电子设备、存储介质 |
CN110141867A (zh) * | 2019-04-23 | 2019-08-20 | 广州多益网络股份有限公司 | 一种游戏智能体训练方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110882542A (zh) | 2020-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110882542B (zh) | 游戏智能体的训练方法、装置、设备及存储介质 | |
Kidziński et al. | Learning to run challenge solutions: Adapting reinforcement learning methods for neuromusculoskeletal environments | |
Lakshminarayanan et al. | Dynamic action repetition for deep reinforcement learning | |
US11580378B2 (en) | Reinforcement learning for concurrent actions | |
CN110443284B (zh) | 人工智能ai模型的训练方法、调用方法、服务器及可读存储介质 | |
CN111026272B (zh) | 虚拟对象行为策略的训练方法及装置、电子设备、存储介质 | |
CN115300910B (zh) | 基于多智能体强化学习的去混淆游戏策略模型生成方法 | |
CN110325965B (zh) | 虚拟场景中的对象处理方法、设备及存储介质 | |
CN111701246B (zh) | 一种游戏ai的决策配置方法和装置 | |
Guss et al. | Towards robust and domain agnostic reinforcement learning competitions: MineRL 2020 | |
US20240017175A1 (en) | Adversarial Reinforcement Learning for Procedural Content Generation and Improved Generalization | |
CN116339349A (zh) | 路径规划方法、装置、电子设备及存储介质 | |
CN115457240A (zh) | 图像目标驱动导航方法、装置、设备和存储介质 | |
CN116047902A (zh) | 一种机器人在人群中导航的方法、装置、设备及存储介质 | |
Beaulac et al. | Narrow Artificial Intelligence with Machine Learning for Real‐Time Estimation of a Mobile Agent’s Location Using Hidden Markov Models | |
Zhou et al. | Deep reinforcement learning based intelligent decision making for two-player sequential game with uncertain irrational player | |
CN113743583A (zh) | 一种基于强化学习的智能体无效行为切换抑制方法 | |
Pardo et al. | Goal-oriented trajectories for efficient exploration | |
Chen et al. | Modified PPO-RND method for solving sparse reward problem in ViZDoom | |
KR20210000181A (ko) | 게임 데이터 처리 방법 | |
Dong et al. | Reinforcement learning from algorithm model to industry innovation: A foundation stone of future artificial intelligence | |
Kodama et al. | Distributed deep reinforcement learning method using profit sharing for learning acceleration | |
Kim et al. | Deep q-network for ai soccer | |
NAJIM | Motion Matching with Proximal Optimization Policy | |
CN117899483B (zh) | 一种数据处理方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |