CN109925712A - 一种虚拟对象控制系统 - Google Patents
一种虚拟对象控制系统 Download PDFInfo
- Publication number
- CN109925712A CN109925712A CN201910205085.XA CN201910205085A CN109925712A CN 109925712 A CN109925712 A CN 109925712A CN 201910205085 A CN201910205085 A CN 201910205085A CN 109925712 A CN109925712 A CN 109925712A
- Authority
- CN
- China
- Prior art keywords
- tactics
- module
- strategy
- submodule
- behavior tree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本发明实施例提供了一种虚拟对象控制系统,包括:战略模块,用于在多个预设战斗策略中,确定目标策略;战术模块,用于生成与所述目标策略对应至少一个战术;所述战术具有行为树链结构;所述战术包括目标虚拟对象;行为模块,用于控制所述目标虚拟对象响应所述战术。本发明实施例可以实现将游戏AI的生成策略、制定战术和行为控制三个维度的数据处理相互独立,提高对虚拟对象的控制效率和智能水平。
Description
技术领域
本发明涉及游戏技术领域,特别是涉及一种虚拟对象控制系统。
背景技术
许多电子游戏中,都会设置有NPC(Non-Player Character,非玩家角色),并为NPC设置对应的AI(Artificial Intelligence,人工智能),以提高用户的游戏体验。而NPC的行为逻辑则称为游戏AI。在一个游戏中,一般设置有不同的游戏AI控制对应的NPC与玩家进行交互。
在现有技术在中,一般采用有限状态机,或者目标驱动,或者行为树的方案设计游戏AI,使得游戏AI具备一定的决策。但是,基于有限状态机的方案设计游戏AI,难以对游戏AI进行扩展;
基于行为树的方案设计游戏AI,难以执行复杂性高的任务;而如果基于行为树的方案设计游戏AI,则行为树中的节点会随着游戏AI的复杂性不断增加,导致游戏AI逻辑的性能、可扩展性、和可维护性都会下降。
发明内容
鉴于上述问题,提出了本发明实施例以便提供一种克服上述问题或者至少部分地解决上述问题的一种虚拟对象控制系统。
为了解决上述问题,本发明实施例公开了一种虚拟对象控制系统,包括:
战略模块,用于在多个预设战斗策略中,确定目标策略;
战术模块,用于生成与所述目标策略对应至少一个战术;所述战术具有行为树链结构;所述战术包括目标虚拟对象;
行为模块,用于控制所述目标虚拟对象响应所述战术。
优选地,所述战略模块包括:
策略评分子模块,用于根据预设公式计算各个战斗策略的第一评分值,以及筛选出第一评分值最高的战斗策略为所述目标策略;
策略栈子模块,用于存储所述目标策略,以及将所述目测策略发送至所述战术模块。
优选地,所述策略栈子模块包括:
策略存储单元,用于存储所述目标策略;
推送单元,用于将位于栈顶的目标策略发送至所述战术模块。
优选地,所述策略评分子模块包括:
状态获取单元,用于确定当前游戏的状态数据;所述状态数据包括多个虚拟对象的状态信息;
评分器单元,用于采用预设公式和所述状态数据,计算与每个预设战斗策略对应的第一评分值;
目标策略确定单元,用于确定第一评分值最大的战斗策略为所述目标策略。
优选地,所述战术模块包括:
战术获取子模块,用于获取与所述目标策略对应的至少一个战术;所述战术包括至少一个行为步骤;
行为树生成子模块,用于生成与所述行为步骤对应的行为树;
行为树链生成子模块,用于采用与同一个战术对应的多个行为树,生成行为树链;
行为树推送子模块,用于将所述行为树发送至所述行为模块;所述行为模块用于响应于所述行为树对应的行为步骤。
优选地,所述策略栈子模块包括:
策略删除单元,用于当所述行为模块完成响应于所述目标策略对应的战术时,删除所述目标策略。
优选地,所述战术模块还包括:
行为树链评分子模块,用于采用所述当前游戏的状态数据,计算与每一个行为树链对应的第二评分值;
行为树链筛选子模块,用于确定第二评分值最大的行为树链为目标行为树链。
优选地,所述系统还包括:
外部驱动模块,用于生成策略变更信息,以及调用所述战略模块或者所述战术模块响应所述策略变更信息。
优选地,所述外部驱动模块包括:
条件触发子模块,用于当所述当前游戏的状态数据满足预设条件时,生成所述策略变更信息;
策略判断子模块,用于判断所述策略变更信息是否满足预设的重新决策条件;若是,则将将所述策略变更信息发送至所述战略模块;若否,则将所述策略变更信息发送至所述战术模块。
优选地,所述系统还包括:
控制模块,用于采用预设的第一频次调用战略模块,采用预设的第二频次调用所述战术模块,采用预设的第三频次调用所述行为模块。
本发明实施例包括以下优点:虚拟控制系统包括有战略模块、战术模块和行为模块,在战略模块采用目标驱动规则,确定目标策略后,将目标策略发送至战术模块,战术模块生成与目标策略匹配的至少一个战术。在同一个战术中,战术为行为树链结构,战术中包括目标虚拟对象和至少一个行为树,行为树与具体的行为步骤对应。在行为模块接收到战术模块发送的战术后,控制目标虚拟对象依次执行行为树对应的行为步骤。从而实现将游戏AI的生成策略、制定战术和行为控制三个维度的数据处理相互独立,提高对虚拟对象的控制效率和智能水平。
附图说明
图1是本发明的一种虚拟对象控制系统实施例的结构框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
参照图1,示出了本发明的一种虚拟对象控制系统实施例的结构框图,具体可以包括如下模块:
战略模块101,用于在多个预设战斗策略中,确定目标策略;
战术模块102,用于生成与所述目标策略对应至少一个战术;所述战术具有行为树链结构;所述战术包括目标虚拟对象;
行为模块103,用于控制所述目标虚拟对象响应所述战术。
游戏AI可以分成三层结构:战略层、战术层和行为层。其中,战略层对应于本发明中的战略模块101,战略模块101用于按照目标驱动规则,在多个预设战斗策略中,确定出优选的目标策略并发送至战术模块102。战术层对应于本发明中的战术模块102,战术模块102用于采用确定的目标策略生成对应的至少一个战术,战术中可能会包含有多个行为步骤,采用行为树链结构的方式建立多个行为步骤的次序关系。战术中还包括目标虚拟对象,目标虚拟对象为执行该战术的虚拟游戏角色(例如:NPC)。行为模块103在接收到战术后,会控制战术对应的目标虚拟对象执行该战术。进一步的,当同一战术包括多个行为树时,目标虚拟对象则按照行为树链中行为树的排序,依次完成执行行为树对应的行为步骤。
例如:游戏中包括游戏地图、用户角色和系统角色。游戏地图中包括多个区域,用户角色为由用户控制的虚拟对象,系统角色为由本发明实施例中行为模块103控制的虚拟对象,目标虚拟对象为系统角色中的一个或多个。其中,地图中的区域沿一个直线方向划分,在该直线上,地图依次划分为区域A、区域B、区域C和区域D。当用户角色A移动至区域A时,战略模块101确定当前系统角色B处于区域D中,战略模块101生成与用户角色A的坐标,以及系统角色B的坐标对应的目标策略,并将目标策略发送至战术模块102,战术模块102采用目标策略生成对应的战术,战术为将系统角色B从区域D移动至区域A,则战术中的目标虚拟对象为系统角色B,行为树1、行为树2和行为树3。行为树1为从区域D移动至区域C、行为树2为从区域C移动至区域B、行为树3为从区域B移动至区域A。行为模块103在接收到该战术后,控制系统角色B从区域D依次经过区域C区域B到达区域A。
在本发明实施例中,虚拟控制系统包括有战略模块101、战术模块102和行为模块103,在战略模块101采用目标驱动规则,确定目标策略后,将目标策略发送至战术模块102,战术模块102生成与目标策略匹配的至少一个战术。在同一个战术中,战术为行为树链结构,战术中包括目标虚拟对象和至少一个行为树,行为树与具体的行为步骤对应。在行为模块103接收到战术模块102发送的战术后,控制目标虚拟对象依次执行行为树对应的行为步骤。从而实现将游戏AI的生成策略、制定战术和行为控制三个维度的数据处理相互独立,提高对虚拟对象的控制效率和智能水平。
在本发明的一种优选实施例中,虚拟对象控制系统还包括:
控制模块,用于采用预设的第一频次调用战略模块101,采用预设的第二频次调用所述战术模块102,采用预设的第三频次调用所述行为模块103。
可以预先设置有第一频次F1、第二频次F2、第三频次F3。采用第一频次调用战略模块101确定目标策略,采用第二频次调用战术模块102生成与当前目标策略对应的战术,采用第三频次调用行为模块103控制目标虚拟对象响应该战术模块102生成的战术。由于频次越大,模块(战略模块101、战术模块102、行为模块103中)占用的计算资源越多,游戏AI的反应越灵敏,AI智能程度越高,通过采用不同的频次调用战略模块101、战术模块102、行为模块103,可以有效地均衡系统功能和系统占用的资源,调整系统的执行效率。
在一种示例中,F3>F2>F1。
在本发明的一种优选实施例中,所述战略模块101包括:
策略评分子模块,用于根据预设公式计算各个战斗策略的第一评分值,以及筛选出第一评分值最高的战斗策略为所述目标策略;
策略栈子模块,用于存储所述目标策略,以及将所述目测策略发送至所述战术模块102。
在虚拟对象控制系统中,每一个预设战斗策略都唯一匹配有一个预设公式,采用该公式可以计算出各个战斗策略对应的第一评分值,第一评分值越高表示对应的战斗策略越有利于系统角色获取当前游戏的胜利。通过将目标策略先进行存储,再按照一定频次发送至战术模块102,能够实现战术模块102异步处理目标策略。
在一示例中,策略评分子模块按照预设的第一频次确定目标策略。
在本发明的一种优选实施例中,所述策略评分子模块包括:
状态获取单元,用于确定当前游戏的状态数据;所述状态数据包括多个虚拟对象的状态信息;
评分器单元,用于采用预设公式和所述状态数据,计算与每个预设战斗策略对应的第一评分值;
目标策略确定单元,用于确定第一评分值最大的战斗策略为所述目标策略。
在获取当前游戏的状态数据后,将状态数据作为预设公式的参数,计算对应战斗策略的第一评分值。根据战斗策略的评分值对战斗策略进行筛选,确定出第一评分值最高的战斗策略的一个为目标策略。具体的,状态数据可以包括但不限于用户角色的状态信息和系统角色的状态信息中的一个或多个,状态信息包括但不限于坐标、虚拟资产、等级、攻击力、血量中的一个或多个。
在一种示例中,状态数据还可以包括游戏地图参数、游戏时间、与用户角色和系统角色均相对的第三阵营角色的状态信息,第三阵营角色为非本实施例中的虚拟对象控制系统所控制的虚拟角色。
在本发明的一种优选实施例中,所述策略栈子模块包括:
策略存储单元,用于存储所述目标策略;
推送单元,用于将位于栈顶的目标策略发送至所述战术模块102。
策略存储单元采用策略栈存储目标策略,策略栈的数据结构为栈,即最后存储至策略栈的目标策略优先从策略栈中输出。最后存储至策略栈的目标策略位于其栈顶的位置,推送单元将栈顶的目标策略发送至战术模块102。战术模块102用于在接收到推送单元发送的目标策略后,生成与目标策略对应的战术。通过设置策略栈对目标策略先存储,后发送只战术模块102,从而实现战术模块102可以异步处理战略模块101确定的目标策略。
在一示例中,推送单元按照预设的第二频次将目标策略发送至战术模块102。
在本发明的一种优选实施例中,所述策略栈子模块还包括:
策略删除单元,用于当所述行为模块103完成响应于所述目标策略对应的战术时,删除所述目标策略。
在一种示例中,策略删除单元仅当在行为模块103完成响应于目标策略对应的战术时,才删除位于策略栈栈顶的目标策略,从而防止由于战术模块102和/或行为模块103出现异常时,战术模块102能够重新生成目标策略对应的战术,行为模块103能够重新响应该战术。
在另外一种示例中,当状态获取单元获取到的状态数据包括指定状态信息(例如:系统角色移动至指定位置)时,可以直接调用策略删除清空策略栈中的所有目标策略。
在本发明的一种优选实施例中,所述战术模块102包括:
战术获取子模块,用于获取与所述目标策略对应的至少一个战术;所述战术包括至少一个行为步骤;
行为树生成子模块,用于生成与所述行为步骤对应的行为树;
行为树链生成子模块,用于采用与同一个战术对应的多个行为树,生成行为树链;
行为树推送子模块,用于将所述行为树发送至所述行为模块103;所述行为模块103用于响应于所述行为树对应的行为步骤。
当战术中包括有需要目标虚拟对象执行的多个行为步骤时,则生成与行为步骤对应的行为树,针对同一战术中的行为树生成行为树链,从而实现将同一战术中的多个行为步骤按照一定次序进行关联。当行为模块103响应于所述行为树对应的行为步骤时,则按照行为树链中行为树的次序,依次完成行为树中对应的行为步骤。具体的,当行为模块103控制目标虚拟对象执行完当前行为树对应的行为步骤时,才控制目标虚拟对象执行下一个行为树对应的行为步骤。
在本发明的一种优选实施例中,所述战术模块102还包括:
行为树链评分子模块,用于采用所述当前游戏的状态数据,计算与每一个行为树链的第二评分值;
行为树链筛选子模块,用于确定第二评分值最大的行为树链为目标行为树链。
在本发明实施例的系统中,可以针对同一战斗策略预先设置有多个战术,战术模块102可以在获取目标策略后,直接提取与目标策略对应的战术,进而生成多个行为树链,采用当前游戏的状态数据,计算每一个行为树链对应的第二评分值,第二评分值越高表示对应的行为树链越有利于系统角色获取当前游戏的胜利。确定出第二评分值最高的行为树链为目标行为树链,并将目标行为树链发送至行为模块103。通过行为模块103响应目标行为树链,提高系统角色获取当前游戏胜率的概率。
在本发明的一种示例中,战术模块102可以在生成到与目标策略的多个战术时,筛选出目标战术,再生成与目标战术对应的目标行为树链。
在本发明的一种优选实施例中,虚拟对象控制系统还包括:
外部驱动模块,用于生成策略变更信息,以及调用所述战略模块101或者所述战术模块102响应所述策略变更信息。
外部驱动模块可以在生成策略变更信息后,依据自定义条件与策略变更信息的匹配情况,调用战略模块101或者战术模块102响应变更信息。
在本发明的一种优选实施例中,所述外部驱动模块包括:
条件触发子模块,用于当所述当前游戏的状态数据满足预设条件时,生成所述策略变更信息。
策略判断子模块,用于判断所述策略变更信息是否满足预设的重新决策条件;若所述策略变更信息满足预设的重新决策条件,则将将所述策略变更信息发送至所述战略模块101;若所述策略变更信息不满足预设的重新决策条件,则将所述策略变更信息发送至所述战术模块102。
在策略判断子模块将策略变更信息发送至战略模块101时,策略变更信息可以是一个触发指令,强制所述战略模块101重新生成目标策略;在策略判断子模块将策略变更信息发送至战术模块102时,策略信息可以是具体的战斗策略或者具体的战术,强制所述战略模块101重新生成目标行为树链。
在一示例中,外部驱动模块可以同样具有战略层、战术层和行为层等三层结构。外部驱动模块在多个预设战斗策略中,确定目标策略,生成与所述目标策略对应至少一个战术,以及控制战术对应的目标虚拟对象响应所述战术。当目标虚拟对象,或者指定类型的虚拟对象的数量达到一定数量时,生成策略变更信息。此时,将策略变更信息直接发送至行为模块103,行为模块103生成与策略变更信息对应的行为树链,并控制与变更信息对应的虚拟对象响应该行为树链。从而实现采用外部驱动模块即可完成对应于多个虚拟对象的统一控制,避免对多个虚拟对象逐一地进行确定目标策略和生成战术,减少了控制多个虚拟对象所消耗的计算资源,提高控制虚拟对象的执行效率。
在另一种示例中,外部驱动模块可以检测用户角色和/或系统角色当前的状态是否满足预设条件,从而确定是否生成策略变更信息。例如:当外部驱动模块检测到目标虚拟对象由于用户对象的干扰而造成无法正常响应战术(例如:目标虚拟对象在释放技能时被用户对象打断)时,生成策略变更信息。
通过外部驱动模块根据当前游戏的状态数据生成策略变更信息,并
将策略变更信息发送至战略模块101,强制所述战略模块101重新生成目标策略;或者将策略变更信息发送至战术模块102,强制所述战略模块101重新生成目标行为树链。从而使得系统角色能够更快速,更有效率地基于当前游戏的状态数据进出策略改变,进一步提高系统的执行效率。
在本发明实施例中,虚拟控制系统包括有战略模块101、战术模块102和行为模块103,在战略模块101采用目标驱动规则,基于当前游戏的状态数据对各个预置的战斗策略计算第一评分值,并在确定第一评分值最高的战斗策略为目标策略后,将目标策略发送至战术模块102,战术模块102生成与目标策略匹配的至少一个战术。在同一个战术中,战术为行为树链结构,战术中包括目标虚拟对象和至少一个行为树,行为树与具体的行为步骤对应。其中,战术模块102根据当前游戏的状态数据生成与行为树链对应的第二评分值,并在确定出第二评分值最高的行为树链为目标行为树链,将目标行为树链发送至行为模块103。行为模块103控制目标虚拟对象依次执行目标行为树链对应的行为步骤。从而实现将游戏AI的生成策略、制定战术和行为控制三个维度的数据处理相互独立,提高对虚拟对象的控制效率和智能水平。
进一步的,由于战略模块101、战术模块102和行为模块103处理过程并涉及游戏内部逻辑,使得针对同一类型的游戏,战略模块101和战术模块102可以无需进行任何修改,使得本发明实施例提供的虚拟对象控制系统具有可扩展性。
进一步的,针对不同类型的的游戏,只需要修改预置的战斗策略和战术的生成方式即可,即本发明实施例提供的由战略模块101、战术模块102和行为模块103的组成方式,对所有类型的游戏具有普遍的适用性。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本发明所提供的一种虚拟对象控制系统,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种虚拟对象控制系统,其特征在于,包括:
战略模块,用于在多个预设战斗策略中,确定目标策略;
战术模块,用于生成与所述目标策略对应至少一个战术;所述战术具有行为树链结构;所述战术包括目标虚拟对象;
行为模块,用于控制所述目标虚拟对象响应所述战术。
2.根据权利要求1所述的系统,其特征在于,所述战略模块包括:
策略评分子模块,用于根据预设公式计算各个战斗策略的第一评分值,以及筛选出第一评分值最高的战斗策略为所述目标策略;
策略栈子模块,用于存储所述目标策略,以及将所述目测策略发送至所述战术模块。
3.根据权利要求2所述的系统,其特征在于,所述策略栈子模块包括:
策略存储单元,用于存储所述目标策略;
推送单元,用于将位于栈顶的目标策略发送至所述战术模块。
4.根据权利要求2或3所述的系统,其特征在于,所述策略评分子模块包括:
状态获取单元,用于确定当前游戏的状态数据;所述状态数据包括多个虚拟对象的状态信息;
评分器单元,用于采用预设公式和所述状态数据,计算与每个预设战斗策略对应的第一评分值;
目标策略确定单元,用于确定第一评分值最大的战斗策略为所述目标策略。
5.根据权利要求3所述的系统,其特征在于,所述战术模块包括:
战术获取子模块,用于获取与所述目标策略对应的至少一个战术;所述战术包括至少一个行为步骤;
行为树生成子模块,用于生成与所述行为步骤对应的行为树;
行为树链生成子模块,用于采用与同一个战术对应的多个行为树,生成行为树链;
行为树推送子模块,用于将所述行为树发送至所述行为模块;所述行为模块用于响应于所述行为树对应的行为步骤。
6.根据权利要求5所述的系统,其特征在于,所述策略栈子模块包括:
策略删除单元,用于当所述行为模块完成响应于所述目标策略对应的战术时,删除所述目标策略。
7.根据权利要求5所述的系统,其特征在于,所述战术模块还包括:
行为树链评分子模块,用于采用所述当前游戏的状态数据,计算与每一个行为树链对应的第二评分值;
行为树链筛选子模块,用于确定第二评分值最大的行为树链为目标行为树链。
8.根据权利要求7所述的系统,其特征在于,所述系统还包括:
外部驱动模块,用于生成策略变更信息,以及调用所述战略模块或者所述战术模块响应所述策略变更信息。
9.根据权利要求8所述的系统,其特征在于,所述外部驱动模块包括:
条件触发子模块,用于当所述当前游戏的状态数据满足预设条件时,生成所述策略变更信息;
策略判断子模块,用于判断所述策略变更信息是否满足预设的重新决策条件;若是,则将将所述策略变更信息发送至所述战略模块;若否,则将所述策略变更信息发送至所述战术模块。
10.根据权利要求1所述的系统,其特征在于,所述系统还包括:
控制模块,用于采用预设的第一频次调用战略模块,采用预设的第二频次调用所述战术模块,采用预设的第三频次调用所述行为模块。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910205085.XA CN109925712B (zh) | 2019-03-18 | 2019-03-18 | 一种虚拟对象控制系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910205085.XA CN109925712B (zh) | 2019-03-18 | 2019-03-18 | 一种虚拟对象控制系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109925712A true CN109925712A (zh) | 2019-06-25 |
CN109925712B CN109925712B (zh) | 2022-11-08 |
Family
ID=66987548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910205085.XA Active CN109925712B (zh) | 2019-03-18 | 2019-03-18 | 一种虚拟对象控制系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109925712B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111054075A (zh) * | 2019-12-24 | 2020-04-24 | 北京像素软件科技股份有限公司 | 虚拟对象的控制方法、装置及电子设备 |
CN111228813A (zh) * | 2020-01-22 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 虚拟对象的控制方法、装置、设备及存储介质 |
CN113769383A (zh) * | 2021-09-14 | 2021-12-10 | 网易(杭州)网络有限公司 | 对战游戏中虚拟对象的控制方法、装置和电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160162794A1 (en) * | 2012-03-16 | 2016-06-09 | Gardner G. Courson | Decision tree data structures generated to determine metrics for child nodes |
CN106155658A (zh) * | 2015-04-08 | 2016-11-23 | 广州四三九九信息科技有限公司 | 基于u3d插件机制实现的行为树编辑器 |
US20160342610A1 (en) * | 2015-05-21 | 2016-11-24 | Dan Tocchini | System and Method for Dynamic Predictive Analytics for Patterns Search and Publishing |
CN106861190A (zh) * | 2017-02-16 | 2017-06-20 | 网易(杭州)网络有限公司 | Ai构建方法及装置、游戏控制方法及装置、ai系统 |
CN108090561A (zh) * | 2017-11-09 | 2018-05-29 | 腾讯科技(成都)有限公司 | 存储介质、电子装置、游戏操作的执行方法和装置 |
-
2019
- 2019-03-18 CN CN201910205085.XA patent/CN109925712B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160162794A1 (en) * | 2012-03-16 | 2016-06-09 | Gardner G. Courson | Decision tree data structures generated to determine metrics for child nodes |
CN106155658A (zh) * | 2015-04-08 | 2016-11-23 | 广州四三九九信息科技有限公司 | 基于u3d插件机制实现的行为树编辑器 |
US20160342610A1 (en) * | 2015-05-21 | 2016-11-24 | Dan Tocchini | System and Method for Dynamic Predictive Analytics for Patterns Search and Publishing |
CN106861190A (zh) * | 2017-02-16 | 2017-06-20 | 网易(杭州)网络有限公司 | Ai构建方法及装置、游戏控制方法及装置、ai系统 |
CN108090561A (zh) * | 2017-11-09 | 2018-05-29 | 腾讯科技(成都)有限公司 | 存储介质、电子装置、游戏操作的执行方法和装置 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111054075A (zh) * | 2019-12-24 | 2020-04-24 | 北京像素软件科技股份有限公司 | 虚拟对象的控制方法、装置及电子设备 |
CN111054075B (zh) * | 2019-12-24 | 2023-06-30 | 北京像素软件科技股份有限公司 | 虚拟对象的控制方法、装置及电子设备 |
CN111228813A (zh) * | 2020-01-22 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 虚拟对象的控制方法、装置、设备及存储介质 |
CN111228813B (zh) * | 2020-01-22 | 2022-05-10 | 腾讯科技(深圳)有限公司 | 虚拟对象的控制方法、装置、设备及存储介质 |
CN113769383A (zh) * | 2021-09-14 | 2021-12-10 | 网易(杭州)网络有限公司 | 对战游戏中虚拟对象的控制方法、装置和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109925712B (zh) | 2022-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10780348B2 (en) | Method and device for generating character behaviors in game and storage medium | |
Churchill et al. | Portfolio greedy search and simulation for large-scale combat in StarCraft | |
CN109925712A (zh) | 一种虚拟对象控制系统 | |
CN103577704B (zh) | 游戏系统中npc处理事件的方法及装置 | |
CN107103089A (zh) | 对象的匹配方法和装置 | |
CN106730850A (zh) | 游戏对手匹配方法和装置 | |
CN108228251B (zh) | 游戏应用中控制目标对象的方法和装置 | |
CN111589166A (zh) | 交互式任务控制、智能决策模型训练方法、设备和介质 | |
CN110507989B (zh) | 一种云游戏的控制方法、装置、电子设备及可读存储介质 | |
Nguyen et al. | Monte carlo tree search for collaboration control of ghosts in ms. pac-man | |
CN113926196A (zh) | 虚拟游戏角色的控制方法、装置、存储介质和电子装置 | |
Gemine et al. | Imitative learning for real-time strategy games | |
CN110102047B (zh) | 游戏操作处理方法和装置、游戏效果展示方法和装置 | |
CN114288639A (zh) | 画面显示方法、提供方法、装置、设备及存储介质 | |
Meisheri et al. | Accelerating training in pommerman with imitation and reinforcement learning | |
CN113440839A (zh) | 非玩家游戏角色的控制方法、装置、设备及存储介质 | |
CN113509726A (zh) | 交互模型训练方法、装置、计算机设备和存储介质 | |
CN117180750A (zh) | 基于行为树的非用户角色控制方法、装置、设备及介质 | |
WO2023138155A1 (zh) | 决策模型的训练方法、装置、计算机设备及存储介质 | |
Dockhorn et al. | Combining cooperative and adversarial coevolution in the context of pac-man | |
McClarron et al. | Effect of constraints on evolving behavior trees for game AI | |
CN109343913A (zh) | 一种游戏行为树控制方法 | |
CN109857567B (zh) | 一种ai状态信息的同步方法和装置 | |
KR20190010949A (ko) | 사용자 상태에 따라 게임 환경을 변화시키는 온라인 게임 제공 시스템 및 이를 이용한 게임 제공 방법 | |
Santoso et al. | Minimax guided reinforcement learning for turn-based strategy games |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |