CN109529351B - 游戏中虚拟对象的行为能力控制方法、装置及存储介质 - Google Patents
游戏中虚拟对象的行为能力控制方法、装置及存储介质 Download PDFInfo
- Publication number
- CN109529351B CN109529351B CN201811378858.6A CN201811378858A CN109529351B CN 109529351 B CN109529351 B CN 109529351B CN 201811378858 A CN201811378858 A CN 201811378858A CN 109529351 B CN109529351 B CN 109529351B
- Authority
- CN
- China
- Prior art keywords
- virtual object
- parameter
- control data
- action
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/67—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/822—Strategy games; Role-playing games
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6027—Methods for processing data by generating or executing the game program using adaptive systems learning from user actions, e.g. for skill level adjustment
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/807—Role playing or strategy games
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供一种游戏中虚拟对象的行为能力控制方法、装置及存储介质,通过获取调节参数,其中调节参数包括动作延迟参数、高斯噪声参数和动作次优级别参数;获取与调节参数对应的控制数据;根据控制数据控制虚拟对象的行为能力。通过上述控制方法,实现对虚拟对象行为能力的灵活控制,增加了用户与虚拟对象交互的趣味性,避免基于经验硬编码的固化的虚拟对象较易或较难攻克的情况。
Description
技术领域
本发明实施例涉及AI控制技术领域,尤其涉及一种游戏中虚拟对象的行为能力控制方法、装置及存储介质。
背景技术
强化学习是机器学习的一个子领域,介于有监督学习与无监督学习之间。其理论最初来源于心理学中的行为主义理论以及相关动物行为学研究的启发。主要是通过虚拟对象和其所处的环境之间的交互以及其从环境获得的收益来更新虚拟对象对环境的理解,从而产生更好的策略以提升虚拟对象从环境中获得的收益,经过不断训练,理论上虚拟对象可以逐渐产生出针对一个环境的最优策略。
强化学习方法目前在游戏中训练虚拟对象方面有着亮眼表现,和传统的游戏内置机器人的实现方法(决策树等)不同,强化学习方法更具有通用性,而且其性能更强并且可玩性更高。之所以选择游戏作为常用场景,是因为游戏场景不仅仅是对现实环境的一个模拟,更有着丰富的信息和较低难度的试错代价。Google旗下的DeepMind公司的一篇在著名杂志Nature上发表的关于深度强化学习基础算法DQN的论文就是在Atari游戏环境下开展的。经过多次训练,虚拟对象最终在玩游戏水平上超越了人类。当然,从概念上来讲,这种属于PVE(Player versus Environment,玩家对抗环境)游戏,即尽量按照人类去玩游戏的方式去让虚拟对象进行学习。其实无论是在PVE亦或是PVP(Player versus Player,玩家对抗玩家)游戏中,强化学习都没有去限定进行学习的对象,这个对象可以是类人的智能体,也可以是游戏内的AI,或者称之为Bot,目的都是通过强化学习这种方法,使得虚拟对象逐渐产生一个不错的策略可以最大化自己所获得的奖励。
然而,随着虚拟对象对环境的不断学习,其行为能力可能会越来越强,这样对于不以达到最强为目的游戏场景可能是不友好的。举例来说,在某个游戏中,虚拟对象(AI、Bot)的定位可能是既要有一定的挑战性还要有陪玩性,即需要将虚拟对象控制在一个难度区间内,使得玩家既不会觉得这AI太无趣又不会觉得AI太强。目前,尚未见到对强化学习训练的虚拟对象进行难度控制的方案。
发明内容
本发明提供的游戏中虚拟对象的行为能力控制方法、装置及存储介质,实现对不同场景模式虚拟对象的行为能力的灵活控制。
本发明的第一方面提供一种游戏中虚拟对象的行为能力控制方法,包括:
获取调节参数;所述调节参数包括以下至少一项:动作延迟参数、高斯噪声参数和动作次优级别参数;
获取与所述调节参数对应的控制数据;
根据所述控制数据控制所述虚拟对象的行为能力。
在一种可能的实现方式中,所述获取调节参数,包括:
获取不同场景模式中的调节参数;所述场景模式包括进攻模式和防守模式。
在一种可能的实现方式中,所述动作延迟参数包括动作延迟帧数或者忽略帧数;
所述高斯噪声参数包括高斯噪声的均值和/或高斯噪声的方差。
在一种可能的实现方式中,所述调节参数包括所述动作延迟参数,则所述获取与所述调节参数对应的控制数据,包括:
获取与所述动作延迟参数对应的对所述虚拟对象进行控制的延迟控制数据;所述控制数据包括所述延迟控制数据。
在一种可能的实现方式中,所述调节参数包括高斯噪声参数,则所述获取与所述调节参数对应的控制数据,包括:
获取与所述高斯噪声参数对应的对所述虚拟对象进行控制的位置干扰数据;所述控制数据包括所述位置干扰数据。
在一种可能的实现方式中,所述调节参数包括动作次优级别参数,则所述获取与所述调节参数对应的控制数据,包括:
获取与所述动作次优级别参数对应的对所述虚拟对象进行控制的动作控制数据;所述控制数据包括所述动作控制数据。
本发明的第二方面提供一种虚拟对象的能力控制装置,包括:
获取模块,用于获取调节参数;所述调节参数包括以下至少一项:动作延迟参数、高斯噪声参数和动作次优级别参数;
所述获取模块,还用于获取与所述调节参数对应的控制数据;
控制模块,用于根据所述控制数据控制所述虚拟对象的行为能力。
在一种可能的实现方式中,所述动作延迟参数包括动作延迟帧数或者忽略帧数;
所述高斯噪声参数包括高斯噪声的均值和/或高斯噪声的方差。
本发明的第三方面提供一种虚拟对象的行为能力控制装置,包括:
存储器;
处理器;以及
计算机程序;
其中,所述计算机程序存储在所述存储器中,并被配置为由所述处理器执行以实现如本发明第一方面任一项所述的虚拟对象的行为能力控制方法。
本发明的第四方面提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行以实现如本发明第一方面任一项所述的虚拟对象的行为能力控制方法。
本发明实施例提供一种游戏中虚拟对象的行为能力控制方法、装置及存储介质,通过获取调节参数,其中调节参数包括动作延迟参数、高斯噪声参数和动作次优级别参数;获取与调节参数对应的控制数据;根据控制数据控制虚拟对象的行为能力。通过上述控制方法,实现对游戏中虚拟对象的行为能力的灵活控制,增加了用户与虚拟对象交互的趣味性,避免基于经验硬编码的固化的虚拟对象较易或较难攻克的情况。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1为本发明一实施例提供的游戏中虚拟对象的行为能力控制方法的流程示意图;
图2为本发明一实施例提供的虚拟对象行为能力参数调节界面的示意图;
图3为本发明另一实施例提供的虚拟对象行为能力参数调节界面的示意图;
图4为本发明一实施例提供的虚拟对象的行为能力控制装置的结构示意图;
图5为本发明一实施例提供的虚拟对象的行为能力控制装置的硬件结构示意图。
通过上述附图,已示出本发明明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本发明构思的范围,而是通过参考特定实施例为本领域技术人员说明本发明的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
本发明的说明书和权利要求书中的术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
本发明中的“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
本发明的说明书中通篇提到的“一实施例”或“另一实施例”意味着与实施例有关的特定特征、结构或特性包括在本申请的至少一个实施例中。因此,在整个说明书各处出现的“在一些实施例中”或“在本实施例中”未必一定指相同的实施例。需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
针对虚拟对象行为能力的控制,较为传统的基于规则的方法有:有限状态机(FSM)、分层有限状态机(HFSM)、面向目标的动作规划(GOAP)、分层任务网络(HTN)、行为树(Behavior Tree,BT)等,对虚拟对象的难度控制一般通过规则来实现,是较为确定的描述性语句。例如,在某个战斗游戏场景中,虚拟对象在某个场景下释放某个强力大招的概率为100%,这样会给玩家造成大量伤害,想降低其难度的话,可以将这个概率降低到10%,这样一来,很容易达控制难度的目的。
虽然传统的基于规则的方法比较好控制难度,但是这些虚拟对象的设计一般要依赖于大量的游戏开发者的个人经验,而游戏开发者的个人经验毕竟是有限的,而且这种基于经验硬编码的固化方式容易使得游戏套路较为固定,继而游戏的趣味性会随着玩家的多次探索而逐渐下降。另外,这种传统的编码虚拟对象行为的方式效率较低。
强化学习方法在以上各方面比传统的方法更有优势,虚拟对象的自我学习提升可以极大的增加游戏中创造虚拟对象的效率,而且这种虚拟对象的可玩性也很高。通常强化学习的研究方向都是如何使虚拟对象变得更好、变到更强,如何超越人类水平等等,但是当前未见到针对不同用户对强化学习训练的虚拟对象进行难度控制的技术方案。
本发明实施例提供的游戏中虚拟对象的行为能力控制方法,提供了多种方式针对强化学习的虚拟对象进行行为能力难度控制,只需根据训练好的最强版本的虚拟对象以及各个调节参数,即可得到一系列有难度梯度表现的虚拟对象,极大地提升了强化学习虚拟对象的应用场景和应用效率。
下面以具体的实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
图1为本发明一实施例提供的游戏中虚拟对象的行为能力控制方法的流程示意图,图2为本发明一实施例提供的虚拟对象行为能力参数调节界面的示意图,图3为本发明另一实施例提供的虚拟对象行为能力参数调节界面的示意图。
本实施例提供的虚拟对象行为能力的控制方法可以由任意执行该方法的装置来执行,该装置可以通过软件和/或硬件实现。如图1所示,本实施例提供的虚拟对象的行为能力控制方法包括如下步骤:
S101、获取调节参数;
其中,调节参数包括以下至少一项:动作延迟参数、高斯噪声参数和动作次优级别参数。可选的,装置获取用户在虚拟对象行为能力参数调节界面上输入的不同场景模式下的调节参数。
在本实施例中,获取用户输入的不同场景模式下的调节参数的终端可以为安装PVE游戏或者PVP游戏的用户终端设备,例如智能手机、IPAD、笔记本电脑等,也可以为提供PVE游戏或者PVP游戏的服务器,对此本实施例不作具体限定。对应的,本实施例的用户可以是游戏的开发测试人员,也可以是普通玩家。
本实施例的场景模式包括但不限于进攻模式和防守模式。根据不同游戏场景,场景模式还包括其他特定的场景模式,对此本实施不作具体限定。
用户可以根据自身情况,在虚拟对象行为能力参数调节界面201上输入需要设定的场景模式下的调节参数,虚拟对象行为能力参数调节界面201上可以同时显示不同类型调节参数的设置选项,如图2所示,或者,依次显示不同类型调节参数的设置选项,如图3所示。其中设置选项中的参数可以用户自行填写,或者如图2或图3所示滑块选择,亦或者用户通过下拉选项进行选择。
对于虚拟对象行为能力参数调节界面201的具体显示形式,本实施例不作具体限定。
调节参数中的动作延迟参数,用于降低虚拟对象的反应速度,换句话说,即到达虚拟对象后知后觉、反应慢半拍的效果。该运作延迟参数如果设置过长容易出现虚拟对象的异常行为,因此动作延迟参数的调节应在合理的参数范围内。
运动延迟参数包括延迟帧数或者忽略帧数。其中,
延迟帧数,用于指示将网络返回的动作延迟d帧执行,d为大于等于0的整数。
忽略帧数,用于指示动作的决策频次,正常情况下每一帧决策一次,若修改忽略帧数,例如修改为每三帧决策一次,可以理解,在执行一个动作时,从代码实现角度来说,将忽略掉随后三帧内的动作。
调节参数中的高斯噪声参数,用于指示给虚拟对象自身位置加入的噪声值。具体来说,高斯噪声参数包括高斯噪声的均值和/或高斯噪声的方差,可以通过调整高斯噪声的均值和方差来调整噪声的分布。
理论上的高斯噪声的均值为任意整数或小数,代表噪声对虚拟对象产生迷惑性的均值,方差为任意整数或小数,代表噪声对虚拟对象产生迷惑性的变化幅度,鉴于实际测试中虚拟对象对数据的泛化性,噪声和方差值为小数的意义不大,因此可以直接将均值和方差设置为整数进行调节。高斯噪声的均值和方差均为0时,表示不添加任何噪声,虚拟对象得到的关于自身位置的信息是准确的。
与上述两种调节参数通过改变神经网络外部条件进而调整虚拟对象难度的方式不同,调节参数中的动作次优级别参数主要是通过修改神经网络本身返回的动作值来改变难度。
在正常情况下,神经网络会根据当前的游戏状态返回最优的动作,动作次优级别参数设置为1,表示最优动作,若调整动作次优级别参数,随着数值的递增而变差,动作次优级别参数的最大值为动作空间的总数目,通过控制动作次优级别参数,可以返回次优级别的动作。
S102、获取与调节参数对应的控制数据;
在本实施例中,调节参数包括动作延迟参数、高斯噪声参数和动作次优级别参数的至少一项。
当调节参数包括动作延迟参数时,获取与动作延迟参数对应的对虚拟对象进行控制的延迟控制数据。延迟控制数据用于指示虚拟对象执行何种动作行为。对应的,控制数据包括延迟控制数据。
当调节参数包括高斯噪声参数时,获取与高斯噪声参数对应的对虚拟对象进行控制的位置干扰数据。位置干扰数据用于给虚拟对象当前自身位置加入噪声,具体可以通过调整高斯噪声的均值和方差来调整噪声的分布。对应的,控制数据包括位置干扰数据。
当调节参数包括动作次优级别参数,获取与动作次优级别参数对应的对虚拟对象进行控制的动作控制数据。动作控制数据用于指示虚拟对象执行当前动作的动作级别。对应的,控制数据包括动作控制数据。
本实施例中,可以单独调整上述三种调节参数的其中之一,达到对虚拟对象的难度调控;也可以同时调整上述三种调节参数的部分或全部,以达到在虚拟对象输入状态下,对虚拟对象基于神经网络的输出动作进行难度调控,得到与相关场景匹配的一定难度的虚拟对象。
S103、根据控制数据控制虚拟对象的行为能力。
具体的,根据控制数据控制虚拟对象在不同场景模式中的行为能力。需要指出的是,在不同场景模式下,调节同一调节参数,其对应的控制数据不同,虚拟对象的行为能力也不同。
例如,在进攻模式下调节虚拟对象的动作延迟参数中的延迟帧数,随着延迟帧数的增加,虚拟对象并没有表现出特别明显的异常行为;在防守模式下调节虚拟对象的动作延迟参数中的延迟帧数,随着延迟帧数的增加,虚拟对象比较敏感,在比较小的延迟帧数时已经出现异常行为。
本发明实施例提供的游戏中虚拟对象的行为能力控制方法,通过获取用户在虚拟对象行为能力参数调节界面上输入的不同场景模式下的调节参数,其中调节参数包括动作延迟参数、高斯噪声参数和动作次优级别参数;获取与调节参数对应的控制数据;根据控制数据控制虚拟对象在不同场景模式中的行为能力。本实施例对虚拟对象的控制方法,实现对不同场景模式虚拟对象行为能力的灵活控制,增加了用户与虚拟对象交互的趣味性,避免基于经验硬编码的固化的虚拟对象较易或较难攻克的情况。
下面结合一个具体实例,对本发明上述实施例的技术方案进行详细解读。以下述游戏为例,解析不同技术方案的具体实现、不同场景模式下的测试以及测试结果。在该游戏中,游戏产品方的具体需求是从“变强”到“像人”进行转变,因此其最终目标其实是找到在行为表现较为正常下的各调节因素控制的最弱版本。
经初步测试,不同场景模式下虚拟对象对相同的参数调节方法的敏感性不同,因此需要对不同场景模式的调节参数进行测试分析。本实例测试数据采用控制变量法,即每次测试都是在控制其他调节参数不变的情况下进行的饿,因此不同调节参数的并行控制可能会导致虚拟对象控制数据的浮动,具体细节还需要进一步测试分析。
本实例中的场景模式包括进攻模式、防守模式、无球权模式、转换球权模式。下面针对不同调节参数的不同场景模式进行举例,可参考进行虚拟对象的行为能力难度控制。
实例一:针对动作延迟参数中的延迟帧数的调节,延迟帧数用d值表示,表1为虚拟对象在不同场景模式不同d值的AI表现参考表。
表1
由表1可知,在保持其他调节参数不变的情况下,将AI表现分为高、中、低三个等级,虚拟对象的AI表现(或者说能力)依次随着d值的增加而降低。可以看到,除了防守模式对其扰动比较敏感以外,其他几种模式都不会表现出比较异常的行为。
实例二:针对动作延迟参数中的忽略帧数的调节,忽略帧数用i值表示,表2为虚拟对象在不同场景模式不同i值的AI表现参考表。
表2
需要指出的是,根据本实例游戏的特性,忽略帧数的调节可能只会对运动相关的基础动作有效,而对其他的连贯性动作,例如“突破”+“上篮”的连贯性动作,中间不会考虑到忽略帧数,并不能对该动作实现忽略帧决策。
实例三:针对高斯噪声参数的调节,其中高斯噪声的均值用m值表示,高斯噪声的方差用s值表示。表3为虚拟对象在不同场景模式不同m值不同s值的AI表现参考表,
表3
理论上m值为任意大于等于0的整数,它决定了附加的高斯噪声的均值水平,s值为任意大于等于0的整数,它决定了附加的高斯噪声的波动性。单从噪音水平来看,m=0,s=0为最高水平,即不添加任何噪声,虚拟对象得到的关于自身位置信息是准确的。s值越大,添加的噪声的波动性就越大,对应到虚拟对象的AI表现上,虚拟对象获取自身位置的准确定就越低。
实例四:针对动作次优级别参数的调节,动作次优级别参数用level值表示。表4为虚拟对象在不同场景模式不同level值的AI表现参考表。
表4
由表4可知,level值主要控制返回的次优动作级别,level值为1表示最优动作,level值为2表示次优,…,以此类推,直至某个场景模式下的最大动作数为最差。其中,进攻模式的level值为24,防守模式的level值为26,无球权模式的level值为8,转换球权模式的level值为18。不同场景模式level值越小AI表现越好。
基于上述四种实例的测试分析,用户可以根据个人需求在虚拟对象行为能力参数调节界面上输入不同场景模式下的调节参数,得到具有一定趣味性和挑战性的虚拟对象的模型。
图4为本发明一实施例提供的虚拟对象的行为能力控制装置的结构示意图,如图4所示,本实施例提供的虚拟对象的行为能力控制装置40,包括:
获取模块41,用于获取调节参数;所述调节参数包括以下至少一项:动作延迟参数、高斯噪声参数和动作次优级别参数;
所述获取模块41,还用于获取与所述调节参数对应的控制数据;
控制模块42,用于根据所述控制数据控制所述虚拟对象的行为能力。
可选的,所述获取模块41,具体用于获取不同场景模式中的调节参数;所述场景模式包括进攻模式和防守模式。
可选的,所述动作延迟参数包括动作延迟帧数或者忽略帧数;
所述高斯噪声参数包括高斯噪声的均值和/或高斯噪声的方差。
可选的,所述调节参数包括所述动作延迟参数,则所述获取模块41,具体用于:
获取与所述动作延迟参数对应的对所述虚拟对象进行控制的延迟控制数据;所述控制数据包括所述延迟控制数据。
可选的,所述调节参数包括高斯噪声参数,则所述获取模块41,具体用于:
获取与所述高斯噪声参数对应的对所述虚拟对象进行控制的位置干扰数据;所述控制数据包括所述位置干扰数据。
可选的,所述调节参数包括动作次优级别参数,则所述获取模块41,具体用于:
获取与所述动作次优级别参数对应的对所述虚拟对象进行控制的动作控制数据;所述控制数据包括所述动作控制数据。
本实施例提供的虚拟对象的行为能力控制装置,可以执行上述方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
本发明实施例还提供一种虚拟对象的行为能力控制装置,参见图5所示,本发明实施例仅以图5为例进行说明,并不表示本发明仅限于此。
图5为本发明一实施例提供的虚拟对象的行为能力控制装置的硬件结构示意图,如图5所示,本实施例提供的虚拟对象的行为能力控制装置50,包括:
存储器51;
处理器52;以及
计算机程序;
其中,计算机程序存储在存储器51中,并被配置为由处理器52执行以实现如前述任一项方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
可选的,存储器51既可以是独立的,也可以跟处理器52集成在一起。
当存储器51是独立于处理器52之外的器件时,虚拟对象的行为能力控制装置50还包括:
总线53,用于连接存储器51和处理器52。
本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器52执行以实现如上方法实施例中虚拟对象的行为能力控制装置50所执行的各个步骤。
应理解,上述处理器可以是中央处理单元(英文:Central Processing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:Digital Signal Processor,简称:DSP)、专用集成电路(英文:Application Specific Integrated Circuit,简称:ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合发明所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
存储器可能包含高速RAM存储器,也可能还包括非易失性存储NVM,例如至少一个磁盘存储器,还可以为U盘、移动硬盘、只读存储器、磁盘或光盘等。
总线可以是工业标准体系结构(Industry Standard Architecture,ISA)总线、外部设备互连(Peripheral Component,PCI)总线或扩展工业标准体系结构(ExtendedIndustry Standard Architecture,EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,本申请附图中的总线并不限定仅有一根总线或一种类型的总线。
上述存储介质可以是由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。存储介质可以是通用或专用计算机能够存取的任何可用介质。
一种示例性的存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于专用集成电路(Application Specific Integrated Circuits,简称:ASIC)中。当然,处理器和存储介质也可以作为分立组件存在于电子设备或主控设备中。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (7)
1.一种游戏中虚拟对象的行为能力控制方法,其特征在于,包括:
获取不同场景模式中的调节参数;所述调节参数包括以下至少一项:动作延迟参数、高斯噪声参数和动作次优级别参数,所述调节参数是用户在虚拟对象行为能力参数调节界面上输入的,所述虚拟对象行为能力参数调节界面上同时显示不同类型调节参数的设置选项,或者,依次显示不同类型调节参数的设置选项;
获取与所述调节参数对应的控制数据;
根据所述控制数据控制所述虚拟对象的行为能力;
其中,在不同场景模式下,调节同一调节参数,其对应的控制数据不同,虚拟对象的行为能力也不同;
所述场景模式包括进攻模式、防守模式、无球权模式、转换球权模式;
所述动作延迟参数包括动作延迟帧数或者忽略帧数;
所述高斯噪声参数包括高斯噪声的均值和/或高斯噪声的方差。
2.根据权利要求1所述的方法,其特征在于,所述调节参数包括所述动作延迟参数,则所述获取与所述调节参数对应的控制数据,包括:
获取与所述动作延迟参数对应的对所述虚拟对象进行控制的延迟控制数据;所述控制数据包括所述延迟控制数据。
3.根据权利要求1所述的方法,其特征在于,所述调节参数包括高斯噪声参数,则所述获取与所述调节参数对应的控制数据,包括:
获取与所述高斯噪声参数对应的对所述虚拟对象进行控制的位置干扰数据;所述控制数据包括所述位置干扰数据。
4.根据权利要求1所述的方法,其特征在于,所述调节参数包括动作次优级别参数,则所述获取与所述调节参数对应的控制数据,包括:
获取与所述动作次优级别参数对应的对所述虚拟对象进行控制的动作控制数据;所述控制数据包括所述动作控制数据。
5.一种虚拟对象的行为能力控制装置,其特征在于,包括:
获取模块,用于获取不同场景模式中的调节参数;所述调节参数包括以下至少一项:动作延迟参数、高斯噪声参数和动作次优级别参数,所述调节参数是用户在虚拟对象行为能力参数调节界面上输入的,所述虚拟对象行为能力参数调节界面上同时显示不同类型调节参数的设置选项,或者,依次显示不同类型调节参数的设置选项;
所述获取模块,还用于获取与所述调节参数对应的控制数据;
控制模块,用于根据所述控制数据控制所述虚拟对象的行为能力;
其中,在不同场景模式下,调节同一调节参数,其对应的控制数据不同,虚拟对象的行为能力也不同;
所述场景模式包括进攻模式、防守模式、无球权模式、转换球权模式;
所述动作延迟参数包括动作延迟帧数或者忽略帧数;
所述高斯噪声参数包括高斯噪声的均值和/或高斯噪声的方差。
6.一种虚拟对象的行为能力控制装置,其特征在于,包括:
存储器;
处理器;以及
计算机程序;
其中,所述计算机程序存储在所述存储器中,并被配置为由所述处理器执行以实现如权利要求1-4任一项所述的虚拟对象的行为能力控制方法。
7.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述计算机程序被处理器执行以实现如权利要求1-4任一项所述的虚拟对象的行为能力控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811378858.6A CN109529351B (zh) | 2018-11-19 | 2018-11-19 | 游戏中虚拟对象的行为能力控制方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811378858.6A CN109529351B (zh) | 2018-11-19 | 2018-11-19 | 游戏中虚拟对象的行为能力控制方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109529351A CN109529351A (zh) | 2019-03-29 |
CN109529351B true CN109529351B (zh) | 2023-03-24 |
Family
ID=65848374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811378858.6A Active CN109529351B (zh) | 2018-11-19 | 2018-11-19 | 游戏中虚拟对象的行为能力控制方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109529351B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111111202B (zh) * | 2019-12-26 | 2023-08-29 | 北京像素软件科技股份有限公司 | 游戏ai行为逻辑控制方法和系统 |
CN111803959B (zh) * | 2020-07-21 | 2022-05-31 | 腾讯科技(深圳)有限公司 | 对象控制方法、装置、游戏服务器及介质 |
CN113867530A (zh) * | 2021-09-28 | 2021-12-31 | 深圳市慧鲤科技有限公司 | 虚拟物体控制方法、装置、设备及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102614661A (zh) * | 2011-01-28 | 2012-08-01 | 德信互动科技(北京)有限公司 | 自适应的体感游戏实现方法和系统 |
WO2013180322A1 (ko) * | 2012-05-30 | 2013-12-05 | 주식회사 쏘그웨어 | 게임 사용자 수준에 따른 npc ai제공방법 |
CN104602775A (zh) * | 2012-09-27 | 2015-05-06 | 喀普康有限公司 | 游戏系统、该游戏系统的控制方法以及在计算机装置中能读取的存储介质 |
CN104657689A (zh) * | 2015-03-09 | 2015-05-27 | 广东欧珀移动通信有限公司 | 一种移动终端的触屏操作控制方法及装置 |
CN106390456A (zh) * | 2016-09-30 | 2017-02-15 | 腾讯科技(深圳)有限公司 | 游戏中角色行为的生成方法和装置 |
CN106621320A (zh) * | 2016-11-29 | 2017-05-10 | 维沃移动通信有限公司 | 一种虚拟现实终端的数据处理方法和虚拟现实终端 |
CN106659932A (zh) * | 2014-08-08 | 2017-05-10 | 索尼互动娱乐股份有限公司 | 头戴式显示器中的传感刺激管理 |
CN107158702A (zh) * | 2016-03-08 | 2017-09-15 | 电子技术公司 | 动态难度调整 |
CN107203363A (zh) * | 2017-06-06 | 2017-09-26 | 网易(杭州)网络有限公司 | 用于应用程序的画质调节的方法、装置及电子设备 |
CN108499108A (zh) * | 2017-02-28 | 2018-09-07 | 电子技术公司 | 视频游戏应用程序内玩游戏参数的实时动态修改和优化 |
-
2018
- 2018-11-19 CN CN201811378858.6A patent/CN109529351B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102614661A (zh) * | 2011-01-28 | 2012-08-01 | 德信互动科技(北京)有限公司 | 自适应的体感游戏实现方法和系统 |
WO2013180322A1 (ko) * | 2012-05-30 | 2013-12-05 | 주식회사 쏘그웨어 | 게임 사용자 수준에 따른 npc ai제공방법 |
CN104602775A (zh) * | 2012-09-27 | 2015-05-06 | 喀普康有限公司 | 游戏系统、该游戏系统的控制方法以及在计算机装置中能读取的存储介质 |
CN106659932A (zh) * | 2014-08-08 | 2017-05-10 | 索尼互动娱乐股份有限公司 | 头戴式显示器中的传感刺激管理 |
CN104657689A (zh) * | 2015-03-09 | 2015-05-27 | 广东欧珀移动通信有限公司 | 一种移动终端的触屏操作控制方法及装置 |
CN107158702A (zh) * | 2016-03-08 | 2017-09-15 | 电子技术公司 | 动态难度调整 |
CN106390456A (zh) * | 2016-09-30 | 2017-02-15 | 腾讯科技(深圳)有限公司 | 游戏中角色行为的生成方法和装置 |
CN106621320A (zh) * | 2016-11-29 | 2017-05-10 | 维沃移动通信有限公司 | 一种虚拟现实终端的数据处理方法和虚拟现实终端 |
CN108499108A (zh) * | 2017-02-28 | 2018-09-07 | 电子技术公司 | 视频游戏应用程序内玩游戏参数的实时动态修改和优化 |
CN107203363A (zh) * | 2017-06-06 | 2017-09-26 | 网易(杭州)网络有限公司 | 用于应用程序的画质调节的方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109529351A (zh) | 2019-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109529351B (zh) | 游戏中虚拟对象的行为能力控制方法、装置及存储介质 | |
CN109621422B (zh) | 电子棋牌决策模型训练方法及装置、策略生成方法及装置 | |
CN112348113B (zh) | 离线元强化学习模型的训练方法、装置、设备及存储介质 | |
DE112021000225T5 (de) | Auflösungshochskalierung zur Ereigniserkennung | |
CN109794065B (zh) | 游戏角色创建方法、装置、电子设备及存储介质 | |
WO2015043271A1 (en) | Method and system for implementing artificial intelligence | |
CN107823881A (zh) | 特效显示方法及装置 | |
KR20230133939A (ko) | 금지된 게이밍 콘텐츠의 자동 검출 | |
CN113797534A (zh) | 一种维持画面流畅度的自适应方法和装置 | |
CN111389011B (zh) | 一种游戏模型训练方法、装置、电子设备及介质 | |
US20230334325A1 (en) | Model Training Method and Apparatus, Storage Medium, and Device | |
WO2021183161A1 (en) | Game content choreography based on game context using semantic natural language processing and machine learning | |
CN108549674A (zh) | 一种推荐方法、装置及存储介质 | |
CN113946604A (zh) | 分阶段围棋教学方法、装置、电子设备及存储介质 | |
JP2021013700A (ja) | ゲームを提供するためのシステム、方法、及びプログラム | |
CN110533158A (zh) | 模型建构方法、系统及非易失性电脑可读取记录介质 | |
Chiang et al. | Efficient exploration in side-scrolling video games with trajectory replay | |
CN111651226B (zh) | 虚拟按钮排序方法、装置、电子设备及存储介质 | |
CN110111135A (zh) | 一种发电侧成员动态报价决策方法、装置及设备 | |
Banerjee et al. | Rv σ (t) a unifying approach to performance and convergence in online multiagent learning | |
US20230310995A1 (en) | Detecting personal-space violations in artificial intelligence based non-player characters | |
CN116999840B (zh) | 一种基于数据分析的虚拟对象移动方法及装置 | |
CN113282787B (zh) | 一种基于强化学习的个性化短视频推荐方法以及系统 | |
US20220176249A1 (en) | Non-Transitory Computer-Readable Medium And Video Game Processing System | |
CN112843726A (zh) | 智能体处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |