CN114344905A - 虚拟对象的团队交互处理方法、装置、设备、介质及程序 - Google Patents
虚拟对象的团队交互处理方法、装置、设备、介质及程序 Download PDFInfo
- Publication number
- CN114344905A CN114344905A CN202111660920.2A CN202111660920A CN114344905A CN 114344905 A CN114344905 A CN 114344905A CN 202111660920 A CN202111660920 A CN 202111660920A CN 114344905 A CN114344905 A CN 114344905A
- Authority
- CN
- China
- Prior art keywords
- team
- virtual object
- virtual
- action
- attack
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 83
- 238000003672 processing method Methods 0.000 title claims abstract description 43
- 230000009471 action Effects 0.000 claims abstract description 397
- 230000000875 corresponding effect Effects 0.000 claims abstract description 143
- 238000010801 machine learning Methods 0.000 claims abstract description 106
- 238000012545 processing Methods 0.000 claims abstract description 63
- 238000000034 method Methods 0.000 claims abstract description 28
- 230000001276 controlling effect Effects 0.000 claims abstract description 6
- 230000006399 behavior Effects 0.000 claims description 168
- 239000000463 material Substances 0.000 claims description 95
- 230000007123 defense Effects 0.000 claims description 57
- 239000013077 target material Substances 0.000 claims description 32
- 230000007613 environmental effect Effects 0.000 claims description 28
- 230000015654 memory Effects 0.000 claims description 23
- 239000011159 matrix material Substances 0.000 claims description 22
- 230000015572 biosynthetic process Effects 0.000 claims description 17
- 238000005755 formation reaction Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 14
- 238000003860 storage Methods 0.000 claims description 11
- 230000002452 interceptive effect Effects 0.000 claims description 7
- 238000013473 artificial intelligence Methods 0.000 abstract description 92
- 238000007726 management method Methods 0.000 description 58
- 238000010586 diagram Methods 0.000 description 28
- 230000006870 function Effects 0.000 description 17
- 238000013528 artificial neural network Methods 0.000 description 13
- 230000008859 change Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000008447 perception Effects 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 239000011435 rock Substances 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 239000004575 stone Substances 0.000 description 4
- 230000016776 visual perception Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000002860 competitive effect Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000011068 loading method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 239000004576 sand Substances 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 239000000779 smoke Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- NIOPZPCMRQGZCE-WEVVVXLNSA-N 2,4-dinitro-6-(octan-2-yl)phenyl (E)-but-2-enoate Chemical compound CCCCCCC(C)C1=CC([N+]([O-])=O)=CC([N+]([O-])=O)=C1OC(=O)\C=C\C NIOPZPCMRQGZCE-WEVVVXLNSA-N 0.000 description 1
- 241001529251 Gallinago gallinago Species 0.000 description 1
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 241000272171 Scolopacidae Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- -1 etc.) Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000014860 sensory perception of taste Effects 0.000 description 1
- 239000004505 smoke cartridge Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本申请提供了一种虚拟对象的团队交互处理方法、装置、设备、介质及程序;本申请涉及计算机及人工智能技术领域,方法包括:在人机交互界面中显示虚拟场景,其中,虚拟场景包括第一团队;至少基于第一团队的当前状态确定第一团队的团队行动策略;基于团队行动策略,调用第一团队中的至少一个虚拟对象分别对应的机器学习模型进行预测处理,得到每个虚拟对象的符合团队行动策略的行动;控制第一团队中的至少一个虚拟对象执行对应的行动。通过本申请,能够提升由机器控制的虚拟对象之间的团队协作的智能化程度。
Description
优先权说明
本申请要求申请号为202111350320.6,申请日为2021年11月15日,名称为:虚拟对象的团队交互处理方法、装置、设备、介质及程序的优先权。
技术领域
本申请涉及计算机及人工智能技术,尤其涉及一种虚拟对象的团队交互处理方法、装置、设备、介质及程序。
背景技术
人工智能(AI,Artificial Intelligence)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
目前,基于图形处理硬件的显示技术,扩展了感知环境以及获取信息的渠道,尤其是虚拟场景的显示技术。虚拟场景中除用户控制的虚拟对象之外还存在不同类型的通过人工智能控制的虚拟对象。不同类型的虚拟对象的行为表现是不同的。现有技术为使虚拟对象之间进行团队协作,通常是统一决策团队中的虚拟对象的行为,使得不同类型的虚拟对象的行为表现趋近统一,行为机械僵化,丧失了不同类型的虚拟对象的行为特性,影响了虚拟对象的智能化程度。
发明内容
本申请实施例提供一种虚拟对象的团队交互处理方法、装置、终端设备、计算机可读存储介质以及计算机程序产品,能够提升人工智能控制的虚拟对象之间的团队协作的智能化程度。
本申请实施例的技术方案是这样实现的:
本申请实施例提供一种虚拟对象的团队交互处理方法,所述方法包括:
在人机交互界面中显示虚拟场景,其中,所述虚拟场景包括第一团队;
至少基于所述第一团队的当前状态确定所述第一团队的团队行动策略;
基于所述团队行动策略,调用所述第一团队中的至少一个虚拟对象分别对应的机器学习模型进行预测处理,得到每个所述虚拟对象的符合所述团队行动策略的行为;
控制所述第一团队中的所述至少一个虚拟对象执行对应的行为。
本申请实施例提供一种虚拟对象的团队交互处理装置,所述装置包括:
团队管理模块,配置为:
在人机交互界面中显示虚拟场景,其中,所述虚拟场景包括第一团队;
至少基于所述第一团队的当前状态确定所述第一团队的团队行动策略;
基于所述团队行动策略,调用所述第一团队中的至少一个虚拟对象分别对应的机器学习模型进行预测处理,得到每个所述虚拟对象的符合所述团队行动策略的行为;
行为控制模块,配置为控制所述第一团队中的所述至少一个虚拟对象执行对应的行为。
本申请实施例提供一种用于虚拟对象的团队交互处理的终端设备,所述终端设备包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,实现本申请实施例提供的任意一种虚拟对象的团队交互处理方法。
本申请实施例提供一种计算可读存储介质,存储有可执行指令,用于被处理器执行时实现本申请实施例提供的虚拟对象的团队交互处理方法。
本申请实施例提供一种计算机程序产品,包括计算机程序或指令,所述计算机程序或指令被处理器执行时实现本申请实施例提供的虚拟对象的团队交互处理方法。
本申请实施例具有以下有益效果:
通过第一团队的当前状态确定与第一团队适配的团队行动策略,使每个虚拟对象各自的机器学习模型基于团队行动策略预测虚拟对象的行为,使得团队中的虚拟对象既能进行团队协作又保持了每个虚拟对象自身的行为特性。通过虚拟对象之间的团队协作,使得虚拟对象的行为更接近于真实用户操作的虚拟对象的行为,显著提升人工智能控制的虚拟对象之间的团队协作的智能化程度。
附图说明
图1A是本申请实施例提供的虚拟对象的团队交互处理方法的应用模式示意图;
图1B是本申请实施例提供的虚拟对象的团队交互处理方法的应用模式示意图;
图2A是本申请实施例提供的终端设备400的结构示意图;
图2B是本申请实施例提供的虚拟对象的团队交互处理的逻辑架构示意图;
图3是本申请实施例提供的虚拟对象的团队交互处理方法的流程示意图;
图4A是本申请实施例提供的虚拟对象的团队交互处理方法的流程示意图;
图4B是本申请实施例提供的虚拟对象的团队交互处理方法的流程示意图;
图5A是本申请实施例提供的虚拟对象的团队交互处理方法的交互示意图;
图5B是本申请实施例提供的虚拟对象的团队交互处理方法的交互示意图;
图5C是本申请实施例提供的虚拟对象的团队交互处理方法的交互示意图;
图5D是本申请实施例提供的虚拟对象的团队交互处理方法的交互示意图;
图5E是本申请实施例提供的虚拟对象的团队交互处理方法的交互示意图;
图6是本申请实施例提供的虚拟对象的团队交互处理方法的流程示意图;
图7A是本申请实施例提供的人机交互界面画面的示意图;
图7B是本申请实施例提供的人机交互界面画面的示意图;
图7C是本申请实施例提供的人机交互界面画面的示意图;
图7D是本申请实施例提供的行为树模型的结构示意图;
图8A是本申请实施例提供的游戏AI团队架构示意图;
图8B是本申请实施例提供的虚拟对象的团队交互处理方法的一个可选的流程示意图;
图8C是本申请实施例提供的虚拟对象的团队交互处理方法的一个可选的流程示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,所描述的实施例不应视为对本申请的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
在以下的描述中,所涉及的术语“第一\第二\第三”仅仅是是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
1)虚拟场景,是应用程序在电子设备上运行时显示(或提供)的虚拟场景。该虚拟场景可以是对真实世界的仿真环境,也可以是半仿真半虚构的虚拟场景,还可以是纯虚构的虚拟场景。虚拟场景可以是二维虚拟场景、2.5维虚拟场景或者三维虚拟场景中的任意一种,本申请实施例对虚拟场景的维度不加以限定。例如,虚拟场景可以包括天空、陆地、海洋等,该陆地可以包括沙漠、城市等环境元素,用户可以控制虚拟对象在该虚拟场景中进行移动。
2)虚拟对象,虚拟场景中进行交互的对象,受到用户或机器人程序(例如,基于人工智能的机器人程序)的控制,能够在虚拟场景中静止、移动以及进行各种行为的对象,例如游戏中的各种角色等。
3)游戏AI,是一种特定于游戏的人工智能(AI,Artificial Intelligence)形式,指根据游戏中各种活动需要,能够模拟多种行为的机器人AI。
4)行为树(Behavior Tree),是一棵节点层次分明的树状的数据结构,从树延伸出的每一个节点都对应一个行为,每次调用会从根节点开始遍历,通过检查行动的执行状态来执行不同的节点对应的行为。各种工具节点组成树的分支,来控制AI指令的走向以形成一系列的指令,来满足游戏需要。
5)黑板(Blackboard),是一种数据集中式的设计模式,可以用于多模块间的数据共享。
在游戏的虚拟场景中包括很多由人工智能控制的虚拟对象,不同类型的虚拟对象的行为特性存在差异性。现有技术中,为使虚拟对象之间进行团队配合,通常针对所有虚拟对象进行统一决策,但这种决策方式会使不同类型的虚拟对象的行为表现趋近统一,丧失虚拟对象本身的行为特性,使得虚拟对象的行为机械僵化,降低虚拟对象的智能化程度,影响了游戏的真实感与用户的游戏体验。
针对上述技术问题,本申请实施例提供一种虚拟对象的团队交互处理方法、虚拟对象的团队交互处理装置、用于虚拟对象的团队交互处理的终端设备、计算可读存储介质及计算机程序产品,为便于更容易理解本申请实施例提供的虚拟对象的团队交互处理方法,首先说明本申请实施例提供的虚拟场景中对象控制方法的示例性实施场景,虚拟场景可以完全基于终端设备输出,或者基于终端设备和服务器的协同来输出。
本申请实施例中提供的方法可以应用于虚拟现实应用程序、三维地图程序第一人称射击游戏(First-Person Shooting game,FPS)、第三人称射击游戏、多人在线战术竞技游戏(Multiplayer Online Battle Arena Games,MOBA)等,下文是以在游戏中的应用来举例说明。下面结合终端设备对应用场景进行介绍。
在一个实施场景中,参考图1A,图1A是本申请实施例提供的虚拟对象的团队交互处理方法的应用模式示意图。适用于一些完全依赖于终端设备400的图形处理硬件计算能力即可完成虚拟场景的相关数据计算的应用模式,例如单机版/离线模式的游戏,通过智能手机、平板电脑和虚拟现实/增强现实设备等各种不同类型的终端设备400完成虚拟场景的输出。
当形成虚拟场景的视觉感知时,终端设备400通过图形计算硬件计算显示所需要的数据,并完成显示数据的加载、解析和渲染,在图形输出硬件输出能够对虚拟场景形成视觉感知的视频帧,例如,在智能手机的屏幕呈现二维的视频帧,或者,在增强现实/虚拟现实眼镜的镜片上投射实现三维显示效果的视频帧;此外,为了丰富感知效果,终端设备400还可以借助不同的硬件来形成听觉感知、触觉感知、运动感知和味觉感知的一种或多种。
作为一个示例,终端设备400运行单机版的游戏应用,在游戏应用的运行过程中输出包括有动作角色扮演的虚拟场景,虚拟场景可以是供游戏角色交互的环境,例如可以是用于供游戏角色进行对战的平原、街道、山谷等等;以第三人称视角显示虚拟场景为例,在虚拟场景中显示有虚拟对象。虚拟对象可为受控于真实用户的游戏角色,响应于真实用户针对控制器(例如:陀螺仪、触控屏、声控开关、键盘、鼠标和摇杆等)的操作而在虚拟场景中运动。虚拟对象还可以为由机器控制的虚拟对象,根据虚拟场景中的各种因素,在虚拟场景中运动。
在另一个实施场景中,参见图1B,图1B是本申请实施例提供的虚拟对象的团队交互处理方法的应用模式示意图,应用于终端设备400和服务器200,适用于依赖于服务器200的计算能力完成虚拟场景计算、并在终端设备400输出虚拟场景的应用模式。
以形成虚拟场景的视觉感知为例,服务器200进行虚拟场景相关显示数据(例如场景数据)的计算并通过网络300发送到终端设备400,终端设备400依赖于图形计算硬件完成计算显示数据的加载、解析和渲染,依赖于图形输出硬件输出虚拟场景以形成视觉感知,例如可以在智能手机的显示屏幕呈现二维的视频帧,或者,在增强现实/虚拟现实眼镜的镜片上投射实现三维显示效果的视频帧;对于虚拟场景的形式的感知而言,可以理解,可以借助于终端设备400的相应硬件输出,例如使用麦克风形成听觉感知,使用振动器形成触觉感知等等。
作为示例,终端设备400运行客户端(例如网络版的游戏应用),通过连接游戏服务器(即服务器200)与其他用户进行游戏互动,终端设备400输出游戏应用的虚拟场景,虚拟场景可以是供游戏角色交互的环境,例如可以是用于供游戏角色进行对战的平原、街道、山谷等等;以第三人称视角显示虚拟场景为例,在虚拟场景中显示有虚拟对象,虚拟对象为受控于真实用户的游戏角色,响应于真实用户针对控制器(例如:陀螺仪、触控屏、声控开关、键盘、鼠标和摇杆等)的操作而在虚拟场景中运动。虚拟对象还可以为由机器控制的虚拟对象,根据虚拟场景中的各种因素,在虚拟场景中运动。
在一些实施例中,终端设备400可以通过运行计算机程序来实现本申请实施例提供的虚拟对象的团队交互处理方法,例如,计算机程序可以是操作系统中的原生程序或软件模块;可以是本地(Native)应用程序(APP,Application),即需要在操作系统中安装才能运行的程序,例如游戏APP(即上述的客户端);也可以是小程序,即只需要下载到浏览器环境中就可以运行的程序;还可以是能够嵌入至任意APP中的游戏小程序。总而言之,上述计算机程序可以是任意形式的应用程序、模块或插件。
本申请实施例可以借助于云技术(Cloud Technology)实现,云技术是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。
云游戏(Cloud gaming)又可称为游戏点播(gaming on demand),是一种以云计算技术为基础的在线游戏技术。云游戏技术使图形处理与数据运算能力相对有限的轻端设备(thin client)能运行高品质游戏。在云游戏场景下,游戏并不在玩家游戏终端,而是在云端服务器中运行,并由云端服务器将游戏场景渲染为视频音频流,通过网络传输给玩家游戏终端。玩家游戏终端无需拥有强大的图形运算与数据处理能力,仅需拥有基本的流媒体播放能力与获取玩家输入指令并发送给云端服务器的能力即可。
作为示例,服务器200可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。终端设备400可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、以及智能手表等,但并不局限于此。终端设备400以及服务器200可以通过有线或无线通信方式进行直接或间接地连接,本申请实施例中不做限制。
在上述的示例中,虚拟场景中存在针对虚拟对象的人工智能的需求,以游戏为例,对本申请实施例实现决策虚拟对象的游戏行为的机器学习模型的可选方案进行说明。
在本申请一些实施例中,使用有限状态机实现的机器学习模型,在有限状态机中将游戏中对行为划分为多种状态,当满足事件触发条件时会引发状态的改变,游戏角色执行相应的行为。
在本申请一些实施例中,使用分层状态机实现的机器学习模型,在分层状态机中,为了便于维护大量的游戏角色的行为,将行为分类并将同类型的行为组成一个状态机,然后再将各个状态机组成更高层的状态机,实现对不同类型行为的查询以及执行。
在本申请一些实施例中,使用行为树实现的机器学习模型,行为树的树状结构的每个节点是一种游戏行为,游戏行为的决策过程是从根节点开始按照一定规则搜索行为树,找出符合条件的节点并执行对应节点的游戏行为并执行。
在本申请一些实施例中,使用人工神经网络实现的机器学习模型,从虚拟场景中虚拟对象(包括真实用户控制的虚拟对象及机器控制的虚拟对象)执行的行为、虚拟场景的环境信息进行采样,形成训练样本的集合来训练人工神经网络模型,使得人工神经网络模型学习虚拟对象对于不同外界因素执行的行为,对于训练后的人工神经网络模型,接收虚拟场景中的环境信息、团队行动策略、虚拟对象的当前状态及其他虚拟对象的当前状态,通过控制虚拟对象根据上述数据执行对应的行为。
参见图2A,图2A是本申请实施例提供的终端设备400的结构示意图;图2A所示的终端设备400包括:至少一个处理器410、存储器450、至少一个网络接口420和用户接口430。终端设备400中的各个组件通过总线系统440耦合在一起。可理解,总线系统440用于实现这些组件之间的连接通信。总线系统440除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图2A中将各种总线都标为总线系统440。
处理器410可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(DSP,Digital Signal Processor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。
用户接口430包括使得能够呈现媒体内容的一个或多个输出装置431,包括一个或多个扬声器和/或一个或多个视觉显示屏。用户接口430还包括一个或多个输入装置432,包括有助于用户输入的用户接口部件,比如键盘、鼠标、麦克风、触屏显示屏、摄像头、其他输入按钮和控件。
存储器450可以是可移除的,不可移除的或其组合。示例性的硬件设备包括固态存储器,硬盘驱动器,光盘驱动器等。存储器450可选地包括在物理位置上远离处理器410的一个或多个存储设备。
存储器450包括易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。非易失性存储器可以是只读存储器(ROM,Read Only Memory),易失性存储器可以是随机存取存储器(RAM,Random Access Memory)。本申请实施例描述的存储器450旨在包括任意适合类型的存储器。
在一些实施例中,存储器450能够存储数据以支持各种操作,这些数据的示例包括程序、模块和数据结构或者其子集或超集,下面示例性说明。
操作系统451,包括用于处理各种基本系统服务和执行硬件相关任务的系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。
网络通信模块452,用于经由一个或多个(有线或无线)网络接口420到达其他计算设备,示例性的网络接口420包括:蓝牙、无线相容性认证(WiFi)、和通用串行总线(USB,Universal Serial Bus)等。
呈现模块453,用于经由一个或多个与用户接口430相关联的输出装置431(例如,显示屏、扬声器等)使得能够呈现信息(例如,用于操作外围设备和显示内容和信息的用户接口)。
输入处理模块454,用于对一个或多个来自一个或多个输入装置432之一的一个或多个用户输入或互动进行检测以及翻译所检测的输入或互动。
在一些实施例中,本申请实施例提供的虚拟对象的团队交互处理装置可以采用软件方式实现,图2A示出了存储在存储器450中的虚拟对象的团队交互处理装置455,其可以是程序和插件等形式的软件,包括以下软件模块:团队管理模块4551、行为控制模块4552,这些模块是逻辑上的,因此根据所实现的功能可以进行任意的组合或进一步拆分,将在下文中说明各个模块的功能。
在一些实施例中,参考图2B,图2B是本申请实施例提供的虚拟对象的团队交互处理的逻辑架构示意图。图2B中包括团队管理模块4551、n个(n是大于等于2的正整数)共享数据结构(共享数据结构45541、共享数据结构4554n等)、n个虚拟对象(虚拟对象45551、虚拟对象4555n等);每个虚拟对象对应于一个机器学习模型及一个行为控制模块(图2B中,虚拟对象45551对应于机器学习模型45561及行为控制模块45521;虚拟对象4555n对应于机器学习模型4556n及行为控制模块4552n)。n个虚拟对象属于同一团队,同一团队的虚拟对象对应于同一个团队管理模块4551。同一团队中有多种类型的虚拟对象,不同类型的虚拟对象的机器学习模型是不同的。行为控制模块是针对不同类型的虚拟对象对应设置的,不同类型的虚拟对象对应于不同的行为控制模块。一个虚拟对象对应于一个共享数据结构,共享数据结构可以接收团队管理模块4551或其他数据模块发送的信息,虚拟对象的机器学习模型可以从对应的共享数据结构读取数据,机器学习模型也可以通过其他数据模块接收数据,机器学习模型用于根据这些数据预测虚拟对象的行为,行为控制模块控制虚拟对象执行机器学习模型预测的行为。
在一些实施例中,同类型的虚拟对象的机器学习模型可以是同样的,为减少资源占用率,可以为多个同类型虚拟对象对应于同一个机器学习模型及同一个共享数据结构。不同类型的虚拟对象的机器学习模型不同,不同类型的虚拟对象的机器学习模型基于同一信息预测得到的行为可以是不同的。对于射击游戏,虚拟对象的类型可以为:狙击手、机枪手、卫生员、工兵、通信兵等,这些不同类型的虚拟对象的行为特性是不同的。
本申请实施例提供的虚拟对象的团队交互处理方法可以由图1A中的终端设备400单独执行,也可以由图1B中的终端设备400和服务器200协同执行,例如:步骤101中显示虚拟场景可以由终端设备400和服务器200协同执行,服务器200计算出虚拟场景的显示数据后,将显示数据返回至终端设备400进行显示。
下面,以由图1A中的终端设备400单独执行本申请实施例提供的虚拟对象的团队交互处理方法为例说明。参见图3,图3是本申请实施例提供的虚拟对象的团队交互处理的流程示意图,以执行主体为终端设备,结合图3示出的步骤进行说明。
需要说明的是,图3示出的方法可以由终端设备400运行的各种形式计算机程序执行,并不局限于上述的客户端,例如上文的操作系统451、软件模块和脚本,因此客户端不应视为对本申请实施例的限定。图3中包括步骤101、步骤102、步骤103及步骤104。
在步骤101中,在人机交互界面中显示虚拟场景,其中,虚拟场景包括第一团队。
作为示例,虚拟场景中可以包括第一团队,第一团队中包括多个虚拟对象,第一团队中的虚拟对象均为由机器学习模型控制的虚拟对象,或者第一团队中的部分虚拟对象由机器学习模型控制,另一部分由真实用户控制。虚拟场景中还可以包括第二团队,第二团队中的虚拟对象由真实用户控制,或者第二团队中的部分虚拟对象由真实用户控制,另一部分虚拟对象由机器学习模型控制。第一团队与第二团队呈敌对关系或竞争关系。本申请实施例以射击游戏的虚拟场景为例进行说明,虚拟场景还可以对应于其他具有团队模式的场景(如:体育竞技游戏的虚拟场景等)。
作为示例,继续参考图2B,步骤101由团队管理模块4551执行,第一团队中的虚拟对象可以分别对应于图2B中的虚拟对象,团队管理模块4551将虚拟场景中的环境信息、其他虚拟对象的当前状态的状态参数发送至每个虚拟对象的共享数据结构,每个虚拟对象的机器学习模型通过共享数据结构接收团队中其他虚拟对象的当前状态的状态参数、虚拟场景的环境信息,使得团队中的虚拟对象之间能够进行信息共享。
在步骤102中,至少基于第一团队的当前状态确定第一团队的团队行动策略。
作为示例,第一团队的团队行动策略至少与第一团队的当前状态相关,为使团队行动策略更加的符合第一团队中的虚拟对象在虚拟场景中的需求,还可以结合虚拟场景的环境信息、敌对团队的当前状态等信息确定第一团队的团队行动策略。
作为示例,继续参考图2B,步骤102由团队管理模块4551执行,团队管理模块4551根据团队中的至少一个虚拟对象的当前状态确定第一团队的团队行动策略,或根据第一团队、第二团队的当前状态及虚拟场景的环境信息确定第一团队的团队行动策略,并将团队行动策略分别添加到团队行动策略对应的至少一个虚拟对象的共享数据结构中。
在一些实施例中,参考图4A,图4A是本申请实施例提供的虚拟对象的团队交互处理的流程示意图,步骤102可以通过步骤1021、步骤1022、步骤1023、步骤1024、步骤1025实现。
在步骤1021中,基于第一团队的当前状态或基于第一团队和第二团队的当前状态,确定团队行动类型。
作为示例,可以仅基于第一团队的当前状态确定第一团队的团队行动类型,通过对第一团队的生命值、战斗能力、物资储备量、所处位置的环境信息等因素进行分析,得到第一团队对应的团队行动类型。环境信息可以是虚拟环境的地形(平原、河流、山峰等)、虚拟环境的天气情况(晴天、下雨、下雪等)、虚拟环境中的建筑物信息(建筑物形态、位置等)、虚拟场景中的自然景物信息(树木的形态、树木的位置、石块的形态、石块的位置等)、虚拟场景中的物资(物资位置、数量等)等信息。
作为示例,第二团队与第一团队之间是敌对关系或者竞争关系,由于第二团队的部分行动能够影响第一团队的当前状态,因此,第二团队的状态可以作为决策第一团队行动策略的参考因素。将两个团队在虚拟场景中的战斗能力、物资储备量、所处位置的环境信息等因素进行比较能够根据比较结果确认第一团队的团队行动类型。团队行动类型包括救援行动、攻击行动、防守行动、物资收集行动等。
步骤1021可以通过以下方式实现:当第一团队中的第一虚拟对象的状态发生衰减时,基于第一虚拟对象的当前状态确定团队行动类型;定期地或当处于特定互动节点时,对第一团队的当前状态与第二团队的当前状态进行比较,根据比较结果确定团队行动类型。
示例的,状态衰减可以为虚拟对象的生命值下降、行动速度下降、所持有的物资量减少、虚拟对象穿戴的装备的耐久度下降等;特定互动节点可以为互动开始、转换阵地、双方阵亡总数超过阈值、补给消耗超过阈值、第一团队与第二团队之间进行团队交互等。团队交互包括:发现对方团队的虚拟对象、向对方团队的方向移动、交战、躲避或者追击对方团队的虚拟对象等。
在一些实施例中,基于第一虚拟对象的当前状态确定团队行动类型,包括:当满足救援条件时,确定团队行动类型为救援型团队行动;其中,救援条件包括以下至少之一:第一虚拟对象的生命值大于生命值阈值、第一虚拟对象与第一团队中其他的至少一个虚拟对象之间的距离小于救援距离阈值。当满足放弃救援条件时,确定团队行动类型为放弃救援团队行动;其中,放弃救援条件包括以下至少之一:第一虚拟对象的生命值小于生命值阈值、第一团队中不存在与第一虚拟对象的距离小于救援距离阈值的其他虚拟对象。
作为示例,第一虚拟对象可以是第一团队中任一虚拟对象。例如:生命值阈值可以为生命值上限的20%、10%等,若第一虚拟对象的生命值为生命值上限的5%,小于生命值阈值,则第一虚拟对象的生还几率较小,确定团队行动类型为放弃救援团队行动。救援距离阈值是虚拟对象能够及时对其他虚拟对象进行施救的最大距离,例如:虚拟对象在虚拟场景中的平均移动速度是每秒3米,第一虚拟对象的生命值为30%,每1秒下降10%,则第一虚拟对象的生命值下降到生命值阈值10%需要20秒,救援距离阈值是20*3=60米。若第一团队中不存在距离第一虚拟对象60米以内的虚拟对象,则确定团队行动类型为放弃救援团队行动。
参考图5B,图5B是本申请实施例提供的虚拟对象的团队交互处理方法的交互示意图;
图5B中虚拟对象B1、B2、B3属于第一团队、虚拟对象b1、b2属于第二团队,两团队之间敌对。虚拟对象B1是待救援对象,虚拟对象B1周围的圆形区域是以虚拟对象B1为圆心,救援距离阈值为半径的区域。虚拟对象B2处于该区域范围内,若虚拟对象B2的生命值大于生命值阈值、虚拟对象B2的攻击能力大于虚拟对象b1的攻击能力,满足救援条件,则团队行动类型为救援团队行动类型。
在一些实施例中,对第一虚拟对象执行救援行动的其他虚拟对象的生命值大于生命值阈值才能确定团队行动类型为救援型团队行动,反之则确定团队行动类型为放弃救援团队行动。例如:第一团队中仅有一个虚拟对象与第一虚拟对象的之间的距离小于救援距离阈值,该虚拟对象的生命值为生命值上限的3%,小于第一虚拟对象的生命值、生命值阈值,该虚拟对象无法成为执行救援行动的对象,则确定团队行动类型为放弃救援团队行动。
继续参考图5B,图5B中虚拟对象B3与虚拟对象B1之间的距离大于救援距离阈值,不满足救援条件;虚拟对象B2与虚拟对象B1之间的距离小于救援距离阈值,若虚拟对象B2的生命值小于生命值阈值,则第一团队中不存在与虚拟对象B1之间距离小于等于救援距离阈值且能够执行救援行动的虚拟对象,则确定团队行动类型为放弃救援团队行动。
在一些实施例中,除了通过上述方式确定团队行动类型外,还可以基于第一虚拟对象的当前状态(例如:第一虚拟对象的生命值、第一虚拟对象与第一团队中其他的至少一个虚拟对象之间的距离、第一虚拟对象的当前位置)调用类型决策模型(分类树、神经网络)进行预测,得到救援或放弃救援的团队行动类型。
作为示例,基于分类树的类型决策模型可以通过训练二分类的分类树得到。二分类的分类树的每个叶子节点对应于一种状态参数的取值区间,不同的取值区间对应于不同的团队行动类型(救援或者放弃救援)。类型决策模型的分类树可以是单个分类树或者集成树,集成树集成了多个分类树,每个分类树之间没有关联,每个分类树的判断是分别进行的,基于每个分类树的判断结果及投票机制确定集成树的决策结果。基于分类树的类型决策模型判断第一虚拟对象的当前状态的状态参数分别属于的取值区间,从而确定第一虚拟对象的当前状态对应的团队行动类型。
作为示例,基于神经网络的类型决策模型可以通过训练二分类的神经网络得到。将第一虚拟对象不同状态下的状态参数作为训练神经网络所需的样本数据,标记数据是救援团队行动或者放弃救援的团队行动。
在一些实施例中,确定第一虚拟对象的当前状态的每种状态参数分别属于的状态参数区间,根据候选的状态参数区间与候选的团队行动类型之间的映射关系,确定与第一虚拟对象的当前状态匹配的团队行动类型集合;其中,团队行动类型集合包括多种待定团队行动类型,每种待定团队行动类型对应于至少一种第一虚拟对象的当前状态的状态参数所属的状态参数区间;将行动类型集合中对应的状态参数区间的数量最多的待定团队行动类型,作为第一团队的团队行动类型。
作为示例,不同团队行动类型侧重的状态参数是不同的;例如物资收集型团队行动,侧重的是物资层面的参数(虚拟对象的物资储备量、虚拟对象附近的物资点数量等);攻击型团队行动,侧重的是虚拟对象的攻击相关的参数(攻击能力、剩余的生命值、攻击道具的储备量等);救援,侧重的是救援价值与风险(例如待救援对象附近是否存在有能力执行救援行动的成员、救援成功率等)。因此,每种团队行动类型对应不同的参数区间,例如:生命值为生命值上限的0%~20%,可以对应于救援型团队行动;生命值为生命值上限20%~100%,可以对应于攻击型或者防守型、物资收集型团队行动。除生命值外还可以结合多种参数作为考虑因素,将状态参数区间的数量最多的待定团队行动类型,作为第一团队的团队行动类型。
在一些实施例中,对第一团队的当前状态与第二团队的当前状态进行比较,根据比较结果确定团队行动类型,包括:当第一团队的攻击能力总和大于第二团队的攻击能力总和,且第一团队的地理情况优于第二团队的地理情况时,确定团队行动类型为攻击型团队行动。当第一团队的攻击能力总和或者地理情况中的至少一种相对于第二团队呈弱势时,确定团队行动类型为防守型团队行动。
作为示例,根据第一团队中的虚拟对象的当前状态的状态参数确定第一团队的攻击能力总和,并根据第二团队中的虚拟对象的当前状态的状态参数确定第二团队的攻击能力总和;根据第一团队中的虚拟对象的当前位置、虚拟场景的环境信息确定第一团队的地理情况,并根据第二团队中的虚拟对象的当前位置、虚拟场景的环境信息确定第二团队的地理情况。
作为示例,攻击能力是虚拟对象对其他虚拟对象造成生命值降低的能力,可以通过虚拟对象与攻击能力相关的状态参数(例如:武器攻击力、移动速度、防具的防御力、生命值等)表征。为便于评估虚拟对象的攻击能力的强度,可以将一个虚拟对象的攻击能力对应的状态参数进行统一量化,并将量化得到的数值的总值作为一个虚拟对象的攻击能力的强度。团队的攻击能力总和,也即团队中所有虚拟对象的攻击能力的加和。例如:对虚拟对象的当前状态中与攻击能力相关联的状态参数(例如:当前所持的武器的攻击力、背包中储备的攻击型道具量、生命值、装备防御力等)进行评估,以确定虚拟对象的攻击能力的强度,根据与攻击能力的关联性各参数分别对应的不同的比例系数(比例系数与关联性正相关),将每个参数乘以对应的比例系数后依次相加,得到的加和作为虚拟对象的攻击能力评分,也即虚拟对象的攻击能力对应的数值。将团队中的虚拟对象的攻击能力评分相加得到加和,将加和作为攻击能力总和对应的数值。
作为示例,某一虚拟对象对应的地理情况是,对于虚拟对象的当前位置与虚拟对象周围的虚拟场景的环境信息的关系、该种位置关系对虚拟对象带来的效应(比如隐蔽性好、便于攻击或者防守等),例如:虚拟对象的当前位置是三维的虚拟场景中的某一坐标点,虚拟对象周围的环境信息是环境为平地、平地上有多个岩石、每个岩石位置的坐标点;根据岩石的坐标点和虚拟对象的坐标点,得到虚拟对象对应的地理情况是虚拟对象处于岩石掩体的背后,具有隐蔽性。再例如:某一虚拟对象对应的地理情况是虚拟对象处于山脚下,容易被攻击,某一虚拟对象的地理情况呈劣势。某一虚拟对象的敌对虚拟对象的地理情况是敌对虚拟对象处于山坡上某一树木背后,具有隐蔽性方便对山脚下发起进攻。敌对虚拟对象的地理情况有优势。
作为示例,参考图5A,图5A是本申请实施例提供的虚拟对象的团队交互处理方法的交互示意图;在图5A的虚拟场景中,第一区域501是虚拟场景中的危险区域,在该区域内存在风沙天气,风沙天气会导致虚拟对象的生命值定期下降;第二区域502是虚拟场景中的安全区域,该区域内没有风沙天气。方块物体是虚拟场景中的虚拟建筑物。第一团队包括虚拟对象A1、A2、A3、A4、A5,第一团队中的虚拟对象分别由不同的机器学习模型预测行动;第二团队包括虚拟对象a1、a2、a3、a4,第二团队中的虚拟对象可以由真实玩家控制;第一团队处于安全区域,且虚拟对象A1处于建筑物上方,便于向建筑物下方攻击,虚拟对象A2、A3、A4分别在建筑物附近,超出第二团队的虚拟对象的可视范围。虚拟对象A5远离第一团队中其他成员,也远离第二团队。第二团队中虚拟对象a2处于建筑物下方,虚拟对象a3、a1处于第一区域501附近,虚拟对象a4处于第一区域501中。由于虚拟对象A5距离其他对象较远,虚拟对象A5难以参与战斗。第一团队的地理情况是,每个虚拟对象均处于安全区域,除虚拟对象A5均处于建筑物附近,第一团队的地理情况更适合发起攻击;第二团队的地理情况是,第二团队中一个虚拟对象在危险区域,两个虚拟对象位于危险区域附近,虚拟对象a2处于建筑物下方但该方向便于虚拟对象A1进行攻击。则,第二团队的地理情况相对第一团队劣势,若第一团队中虚拟对象A1、A2、A3、A4的攻击能力总和大于第二团队的攻击能力总和,则确定团队行动类型为攻击型团队行动。
作为示例,继续参考图5A,假设第二团队中的虚拟对象也由机器学习模型预测行动,基于上述地理情况、攻击能力总和等因素,第二团队的团队行动类型为防守型团队行动。
作为示例,参考图5D,图5D是本申请实施例提供的虚拟对象的团队交互处理方法的交互示意图;在图5D的虚拟场景中,存在两个虚拟建筑物。第一团队包括虚拟对象D1、D2、D3;第二团队包括虚拟对象d1、d2、d3;第一团队的地理情况是,虚拟对象D2、虚拟对象D3处于建筑物附近,具有掩体;虚拟对象D1处于建筑物上方,便于对建筑物下方进行攻击;第二团队的地理情况是,虚拟对象d1处于建筑物附近,虚拟对象d1相对于虚拟对象D2、D3较为隐蔽,但暴露于虚拟对象D1的攻击范围;虚拟对象d2、虚拟对象d3没有掩体远离建筑物。第一团队的地理情况优于第二团队的地理情况,若第一团队的攻击能力总和也大于第二团队的攻击能力总和,则团队行动类型为攻击型;若第一团队的攻击能力总和小于第二团队的攻击能力总和,则团队行动类型为防守型团队行动。
在一些实施例中,除了通过上述条件确定攻击或者防守的团队行动类型外,还可以为基于第一团队、第二团队的当前状态(例如:所持的武器的攻击力、所持攻击道具的攻击力、生命值、装备防御力、弹药储备量等)及虚拟场景的环境信息调用类型决策模型(分类树、神经网络)进行预测,得到攻击或者防守的团队行动类型。
作为示例,基于分类树的类型决策模型可以通过训练二分类的分类树得到。二分类的分类树的每个叶子节点对应于一种第一团队的某一状态参数与第二团队对应的状态参数的比较结果,不同的比较结果对应于不同的团队行动类型(攻击型团队行动或者防守型团队行动)。类型决策模型的分类树可以是单个分类树或者集成树,集成树集成了多个分类树,每个分类树之间没有关联,每个分类树的判断是分别进行的,基于每个分类树的判断结果及投票机制确定集成树的决策结果。基于分类树的类型决策模型判断第一团队与第二团队的当前状态的状态参数分别属于的比较结果,从而确定第一团队的当前状态对应的团队行动类型。
作为示例,基于神经网络的类型决策模型可以通过训练二分类的神经网络得到。将第一团队与第二团队的状态参数的不同比较结果作为训练神经网络所需的样本数据,标记数据是攻击型团队行动或者防守型团队行动。
在一些实施例中,当第一虚拟对象的生命值大于生命值阈值,且第一团队中围绕第一虚拟对象分布的其他虚拟对象的攻击能力总和,大于相同范围内分布的第二团队的虚拟对象的攻击能力总和时,确定团队行动类型为救援型团队行动;当第一虚拟对象的生命值小于生命值阈值,且第一团队中围绕第一虚拟对象的分布的其他虚拟对象的攻击能力总和,小于相同范围内分布的第二团队的虚拟对象的攻击能力总和时,确定团队行动类型为放弃救援团队行动。
这里,第一虚拟对象是第一团队中待救援的虚拟对象。
作为示例,可以是以第一团队中第一虚拟对象为圆心一定半径范围内分布的其他虚拟对象的攻击能力总和,若攻击能力总和比同范围的第二团队的虚拟对象的攻击能力总和低且第一虚拟对象的生命值较小,则说明第一团队救援成功的几率较低,确定团队行动的类型为放弃救援团队行动。
作为示例,继续参考图5B,假设第一虚拟对象为图5B中虚拟对象B1,则范围内存在敌对虚拟对象b1与第一团队的其他虚拟对象,虚拟对象B2。若虚拟对象B2的攻击能力比虚拟对象b1低,或者虚拟对象B1的生命值低于生命值阈值,则救援行动成功率低,确定团队行动类型为放弃救援团队行动。
在一些实施例中,除了通过上述条件确定团队行动类型外,还可以基于范围内分布的第一团队虚拟对象的当前状态及第二团队的虚拟对象的当前状态(例如:第一虚拟对象的生命值、第一团队中其他对象的生命值、战斗能力及第二团队中虚拟对象的战斗能力、生命值等)调用类型决策模型(分类树、神经网络)进行预测,得到救援或放弃救援的团队行动类型。
在一些实施例中,当第一团队的物资储备量小于第二团队的物资储备量时,确定团队行动类型为物资收集型团队行动。
作为示例,对于物资收集型团队行动还需要考虑周围环境中的物资量,可以是当第一团队的物资储备量小于第二团队的物资储备量且第一团队周围的设定范围内的可收集物资量大于设定物资量时,确定团队行动类型为物资收集型团队行动。
作为示例,设定范围可以为虚拟对象的可视范围,设定物资量可以为物资量的最低水平。例如:当第一团队的物资储备量小于第二团队的物资储备量且第一团队的每个虚拟对象的可视范围内均不存在可以收集的物资时,则团队行动类型为物资收集型以外的团队行动类型。
参考图5E,图5E是本申请实施例提供的虚拟对象的团队交互处理方法的交互示意图;
图5E中Z1、Z2、Z3是可收集物资,第一团队包括虚拟对象E1、E2、E3,第二团队包括虚拟对象e1、e2、e3。当第一团队的物资储备量小于第二团队的物资储备量时,根据图5E中的情况,第一团队的虚拟对象附近存在可收集物资Z1、Z2、Z3;可以将团队行动类型确定为物资收集型团队行动。
作为示例,若图5E中虚拟场景中不存在可收集物资Z1、Z2、Z3,则团队行动类型是物资收集型以外的团队行动类型。或者,若当第一团队的物资储备量小于第二团队的物资储备量且第二团队与第一团队进行交战,物资收集团队行动的优先级低于其他与团队中虚拟对象的生命值相关联的团队行动类型(如防守型、攻击型、救援型或者放弃救援团队行动等),则团队行动类型是物资收集型以外的其他团队行动类型。
继续参考图4A,在步骤1022中,当团队行动类型为攻击型团队行动时,根据第二团队的当前状态、第一团队的当前状态及虚拟场景的环境信息,确定第一团队的团队攻击行动策略。
作为示例,攻击型团队行动需要考虑到第一团队自身及敌对对象的当前状态及两方所处的环境。
在一些实施例中,团队攻击行动策略包括:被攻击对象、攻击阵型、进攻对象;步骤1022可以通过以下方式实现:将第二团队中与第一虚拟对象的距离小于攻击距离阈值的至少一个虚拟对象作为被攻击对象;根据每个被攻击对象的当前状态确定被攻击对象的攻击能力总和;选取第一团队中除第一虚拟对象之外的至少一个虚拟对象作为进攻对象。根据被攻击对象的当前位置、虚拟场景的环境信息及进攻对象的当前位置确定攻击阵型。
这里,被选取的至少一个进攻对象的攻击能力总和大于被攻击对象的攻击能力总和。
作为示例,对虚拟对象的当前状态中与攻击能力相关联的参数(例如:当前所持的武器的攻击力、背包中储备的攻击型道具(例如手雷、闪光弹等)、背包中储备的补给道具(例如绷带、医疗包等)、生命值、装备防御力、移动速度等)进行评估,以确定虚拟对象的攻击能力,根据与攻击能力的关联性各参数分别对应的不同的比例系数(比例系数与关联性正相关),将每个参数乘以对应的比例系数后依次相加,得到的加和作为虚拟对象的攻击能力评分,也即虚拟对象的攻击能力对应的数值。将每个被攻击对象的攻击能力评分相加得到被攻击对象的攻击能力加和。
作为示例,确定第一团队中每个虚拟对象的攻击能力,根据攻击能力降序将第一团队中每个虚拟对象的攻击能力依次相加,在得到大于被攻击对象的攻击能力加和的最小攻击能力加和时,将最小攻击能力加和对应的每个虚拟对象作为进攻对象;其中,进攻对象是第一团队中执行攻击行动的虚拟对象。
作为示例,还可以根据与被攻击对象的距离选择进攻对象,例如:根据距离升序,从距离被攻击对象最近的虚拟对象开始依次选择至少一个进攻对象。攻击型团队行动的行动策略还可以包括:辅助进攻对象。将第一团队中除了进攻对象以外的对象作为辅助进攻对象,使辅助进攻对象为进攻对象提供支援,提升攻击型团队行动的胜率。攻击距离阈值可以是虚拟对象所持的武器的最大攻击距离,也可以是虚拟对象的可视范围。继续参考图5A,图5A中第一团队的进攻对象可以为虚拟对象A1、A2、A3、A4;辅助进攻对象可以为虚拟对象A5。
作为示例,存在多种攻击阵型,每种攻击阵型具有对应的被攻击对象与进攻对象的位置关系、地形因素。根据进攻对象与被攻击对象所处环境的环境信息确定地形因素,选择该地形因素对应的攻击阵型的集合;再根据被攻击对象的当前位置、进攻对象的当前位置,确认两方之间的当前位置关系,根据当前位置关系在攻击阵型集合中查找对应该种位置关系的阵型,确定团队行动策略对应的攻击阵型。
在一些实施例中,团队救援行动策略包括:潜在威胁对象、救援对象、救援阵型、安全地点;继续参考图4A,在步骤1023中,当团队行动类型为救援型团队行动时,根据第二团队的当前状态、第一团队的当前状态及虚拟场景的环境信息,确定第一团队的团队救援行动策略。
作为示例,团队救援行动策略包括:潜在威胁对象、救援对象、救援阵型、安全地点。步骤1023可以通过以下方式实现:将第二团队中与第一虚拟对象的距离小于威胁距离阈值的虚拟对象作为潜在威胁对象;当第一虚拟对象的生命值大于生命值阈值时,选取第一团队中除第一虚拟对象之外的至少一个虚拟对象作为救援对象;其中,救援对象的攻击能力总和大于潜在威胁对象的攻击能力总和,或每个救援对象的攻击能力大于潜在威胁对象的平均攻击能力;根据潜在威胁对象的当前位置、虚拟环境的环境信息、第一虚拟对象的当前位置及救援对象的当前位置,确定救援阵型;根据潜在威胁对象的当前位置、虚拟环境的环境信息及第一团队中每个虚拟对象的当前位置确定安全地点。
这里,安全地点是第一团队用于躲避第二团队的地点。威胁距离阈值大于攻击距离阈值。
在一些实施例中,将潜在威胁对象的攻击能力总和除以潜在威胁对象的数量得到潜在威胁对象的平均攻击能力;安全地点可以是远离第二团队的地点,或者虚拟场景中易于防守的地点(如建筑物中的隐蔽处、山峰的背面等)。
作为示例,存在多种救援阵型,每种攻击阵型具有对应的救援对象、待救援对象与潜在威胁对象的位置关系、地形因素。根据救援对象、待救援对象与潜在威胁对象所处环境的环境信息确定地形因素,选择该地形因素对应的救援阵型的集合;再根据潜在威胁对象的当前位置、救援对象的当前位置、待救援对象的当前位置,确认三方之间的当前位置关系,根据当前位置关系在救援阵型集合中查找对应该种位置关系的阵型,确定团队行动策略对应的救援阵型。
作为示例,对于安全地点的确定,可以通过以下方式实现:以潜在威胁对象的当前位置为中心确定潜在威胁对象最大攻击范围及可视范围之外的区域,在该区域中根据虚拟环境的环境信息及第一团队中每个虚拟对象的当前位置分别确定距离每个虚拟对象最近的地点作为每个虚拟对象的安全地点。或者,根据虚拟场景的环境信息确定距离第一团队中每个虚拟对象最近的隐蔽地形(例如:岩石掩体的背后、建筑物中)作为安全地点。
继续参考图4A,在步骤1024中,当团队行动类型为物资收集型团队行动时,根据第一团队的当前状态及虚拟场景的环境信息,确定第一团队的团队物资收集行动策略。
在一些实施例中,团队物资收集行动策略包括:目标物资点;步骤1024可以通过以下方式实现:根据虚拟场景的环境信息中的物资位置,确定至少一个候选物资点;其中,候选物资点是第一团队用于物资收集的候选地点;分别确定第一团队中的每个虚拟对象的当前位置与所有候选物资点之间的距离,选取最短距离对应的候选物资点作为每个虚拟对象分别对应的目标物资点。
作为示例,每个虚拟对象分别前往对应的目标物资点进行物资收集,某一个物资点可能会是多个虚拟对象的目标物资点,当目标物资点的物资量无法满足多个虚拟对象的物资收集需求时,将虚拟对象与该物资点之间的距离进行排序,选择至少一个距离较近的虚拟对象前往与该虚拟对象第二近的物资点搜集物资。参考图5C,图5C是本申请实施例提供的虚拟对象的团队交互处理方法的交互示意图;图5C包括虚拟对象C1、虚拟对象C2及虚拟对象C2,图5C中X1、X2、Y是三个物资点;物资点X1分别是三个虚拟对象最近的物资点,物资点X1难以满足三个虚拟对象的物资收集需求,三个虚拟对象中至少有一个虚拟对象的目标物资点需要重新确定,假设虚拟对象C1、虚拟对象C2、虚拟对象C3与物资点X1的距离分别是10米、15米、25米;虚拟对象A1距离该物资点最近,则虚拟对象A1的目标物资点设置为与虚拟对象C1第二近的物资点Y,虚拟对象C2、虚拟对象C3的目标物资点为物资点X1。
继续参考图4A,在步骤1025中,当团队行动类型为防守型团队行动时,根据第二团队的当前状态、第一团队的当前状态及虚拟场景的环境信息,确定第一团队的团队防守行动策略。
在一些实施例中,团队防守行动策略包括:潜在攻击对象、防守阵型、防守对象;步骤1025可以通过以下方式实现:将第二团队中与第一虚拟对象的距离小于潜在攻击距离阈值的所有虚拟对象作为潜在攻击对象;根据每个潜在攻击对象的当前状态确定潜在攻击对象的攻击能力总和;选取第一团队中至少一个虚拟对象作为防守对象,其中,被选取的至少一个防守对象的防守能力总和大于潜在攻击对象的攻击能力总和;根据潜在攻击对象的当前位置、虚拟环境的环境信息及防守对象的当前位置确定防守阵型。
作为示例,潜在攻击距离阈值大于攻击距离阈值,潜在攻击距离阈值可以为,大于虚拟对象的攻击距离或者虚拟对象的可视距离的距离。
作为示例,存在多种防守阵型,每种防守阵型具有对应的被攻击对象与进攻对象的位置关系、地形因素。根据防守对象与潜在攻击对象所处环境的环境信息确定地形因素,选择该地形因素对应的防守阵型的集合;再根据潜在攻击对象的当前位置、防守对象的当前位置,确认两方之间的当前位置关系,根据当前位置关系在防守阵型集合中查找匹配该种位置关系的阵型,确定团队行动策略对应的防守阵型。
继续参考图3,在步骤103中,基于团队行动策略,调用第一团队中的至少一个虚拟对象分别对应的机器学习模型进行预测处理,得到每个虚拟对象的符合团队行动策略的行为。
作为示例,团队行动策略的内容可以为行动阵型、行动目标、执行团队行动的虚拟对象等,根据团队行动策略调用虚拟对象的机器学习模型,每个虚拟对象的机器学习模型基于团队行动策略及虚拟对象对应的状态信息、周围的环境信息预测每个虚拟对象符合团队行动策略的行为。
作为示例,继续参考图2B,步骤103由团队管理模块4551执行,团队管理模块4551通过将团队行动策略分别添加到团队行动策略对应的至少一个虚拟对象的共享数据结构中,至少一个虚拟对象的机器学习模型响应于共享数据结构中的数据发生变化被调用。至少一个虚拟对象的机器学习模型基于共享数据结构中的数据(数据包括团队行动策略)对虚拟对象的行为进行预测。机器学习模型将预测得到的符合团队行动策略的行为,输出到对应的行为控制模块。
作为示例,存在多种类型的虚拟对象,不同类型的虚拟对象的机器学习模型是不同的,相同类型的虚拟对象的机器学习模型是相同的;不同类型虚拟对象的机器学习模型对于同一状态参数的预测结果是不同的。例如:第一团队中不同类型的虚拟对象的机器学习模型的决策得到行动可以为保守型行动或者激进型行动;当敌对虚拟对象处于可攻击范围内时,保守型虚拟对象的机器学习模型根据敌对虚拟对象的当前状态与虚拟对象的当前状态,决策得到躲避敌对虚拟对象的行为,激进型虚拟对象的机器学习模型根据敌对虚拟对象的当前状态与虚拟对象的当前状态,决策得到攻击敌对虚拟对象的行为。
作为示例,第一团队中可以包括多种不同类型的虚拟对象,不同类型的虚拟对象的机器学习模型基于相同团队行动策略得到的预测结果可以是不同的。例如:虚拟对象的类型可以为狙击手、机枪手、卫生员、工兵、通信兵等。在团队行动策略对应的团队行动类型为救援团队行动时,团队中某一虚拟对象被敌对虚拟对象击倒等待救援,狙击手类型的机器学习模型根据团队行动策略可以预测得到攻击敌对虚拟对象至对方被击倒或被消灭的行为,以完成救援行动;机枪手类型的机器学习模型根据团队行动策略预测得到攻击敌对类型或扰乱敌对类型以减少敌对类型对待救援类型关注的行为,以完成救援行动;卫生员类型的机器学习模型根据团队行动策略可以预测得到扶起待救援对象的行为,以完成救援行动;工兵类型的机器学习模型根据团队行动策略预测得到向待救援对象提供用于提升生命值的虚拟道具的行为,以完成救援行动;通信兵类型的机器学习模型根据团队行动策略预测得到向其他队友发送待救援对象信息及敌对虚拟对象信息的行为,以完成救援行动。
在一些实施例中,当团队行动策略是团队攻击行动策略时,行动包括行进路径、攻击方式;步骤103可以通过以下方式实现:基于团队攻击行动策略确定进攻对象,根据每个进攻对象的位置信息、被攻击对象的位置信息与团队攻击行动策略对应的攻击阵型、虚拟场景的环境信息,调用每个进攻对象对应的机器学习模型进行预测处理,得到每个进攻对象的行进路径;根据每个进攻对象的装备信息、被攻击对象的位置信息、虚拟场景的环境信息,调用每个进攻对象对应的机器学习模型进行预测处理,得到每个进攻对象的攻击方式。
作为示例,环境信息可以是虚拟环境的地形(平原、河流、山峰等)、虚拟环境的天气情况(晴天、下雨、下雪等)、虚拟环境中的建筑物信息(建筑物形态、位置等)、虚拟场景中的自然景物信息(树木的形态、树木的位置、石块的形态、石块的位置等)、虚拟场景中的物资(物资位置、数量等)等信息。基于虚拟场景的环境信息可以确定虚拟场景中的障碍物(虚拟对象不能直接穿过的虚拟物体,例如:房屋的墙壁、树木、岩石等)的位置,一些情况下,障碍物可以作为进攻对象对被攻击对象进行攻击时所需的掩体。
作为示例,装备信息可以包括进攻对象所穿戴的防具(例如:头盔、防弹衣等)、进攻对象持有的攻击道具(例如,投掷物:手雷、闪光弹、烟雾弹等)、武器(例如,枪支:冲锋枪、狙击枪、火焰枪等;冷兵器:棍棒、平底锅、刀具等)。
作为示例,行进路径可以为基于攻击阵型以被攻击对象的位置为终点、以进攻对象的当前位置为起点,并绕过虚拟场景中的障碍物的路径。攻击方式可以包括:基于虚拟场景的地形使用攻击道具攻击被攻击对象;基于虚拟场景的地形用武器攻击被攻击对象。
在一些实施例中,当团队行动策略是团队救援行动策略时,行动包括行进路径、救援方式;步骤103可以通过以下方式实现:根据每个救援对象的位置信息、潜在威胁对象的位置信息与团队救援行动策略对应的救援阵型、虚拟场景的环境信息,调用每个救援对象对应的机器学习模型进行预测处理,得到每个救援对象的行进路径及救援方式;根据第一虚拟对象的当前位置、团队救援行动策略对应的安全地点,调用第一虚拟对象对应的机器学习模型进行预测处理,得到第一虚拟对象的行进路径。
作为示例,救援方式可以为:当第一虚拟对象的当前状态为倒地状态时,对第一虚拟对象进行扶起;对潜在威胁对象进行攻击,以转移潜在威胁对象对于第一虚拟对象的攻击;使用烟雾弹等虚拟道具对潜在威胁对象进行扰乱等。救援对象的行进路径可以为:基于救援阵型以第一虚拟对象的位置为终点、以救援对象的当前位置为起点,并绕过潜在威胁对象及虚拟场景中的障碍物的路径。或者,基于救援阵型以救援对象的当前位置为起点,以潜在威胁对象的位置为终端,并绕过虚拟场景中的障碍物的路径。第一虚拟对象的行为可以为远离潜在威胁对象并利用虚拟场景中的地形进行隐蔽。
在一些实施例中,当团队行动策略是团队物资收集行动策略时,行动包括行进路径、目标物资;其中,目标物资是虚拟对象所缺乏的物资;步骤103可以通过以下方式实现:基于团队物资收集行动策略确定每个虚拟对象分别对应的目标物资点,根据每个虚拟对象分别对应的目标物资点的位置,调用每个虚拟对象对应的机器学习模型进行预测处理,得到每个虚拟对象的行进路径;根据每个虚拟对象的当前物资量,调用每个虚拟对象对应的机器学习模型进行预测处理,得到每个虚拟对象的目标物资。
作为示例,行进路径可以为以虚拟对象的位置为起点,以虚拟对象对于的目标物资点为目的地,绕过虚拟场景中的障碍物的路径;每个虚拟对象根据对应的行进路径移动,若行动中虚拟对象周围的环境信息发生变化,则每个虚拟对象的机器学习模型根据变化的环境信息及团队行动策略对行动路径重新决策虚拟对象的行为。若某一个虚拟对象在收集物资时,对应的目标物资点不存在虚拟对象的所缺乏的目标物资,则根据当前的环境信息重新制定团队物资收集行动策略,为该虚拟对象重新分配目标物资点,虚拟对象的机器学习模型在接收到新的团队行动策略后根据新的团队行动策略决策该虚拟对象的行为。
在一些实施例中,当团队行动策略是团队防守行动策略时,行动包括行进路径、防守方式;步骤103可以通过以下方式实现:基于团队攻击行动策略确定防守对象,根据每个防守对象的位置信息、潜在攻击对象的位置信息与团队攻击行动策略对应的防守阵型、环境信息,调用每个防守对象对应的机器学习模型进行预测处理,得到每个防守对象的行进路径;根据每个防守对象的装备信息、潜在攻击对象的位置信息、环境信息,调用每个防守对象对应的机器学习模型进行预测处理,得到每个防守对象的防守方式。
作为示例,行进路径可以为基于防守阵型以防守对象的当前位置为起点,绕开潜在攻击对象的当前位置及虚拟场景中的障碍物的路径;装备信息可以包括防守对象持有的武器、装备、虚拟道具等。防守方式可以为使用武器对潜在攻击对象进行攻击、对潜在攻击对象进行攻击同时撤退(即,远离潜在攻击对象)、使用烟雾弹等虚拟道具对潜在攻击对象进行扰乱等。
在一些实施例中,每个虚拟对象的机器学习模型对应一个共享数据结构。参考图4B,图4B是本申请实施例提供的虚拟对象的团队交互处理方法的流程示意图;在图4B中,步骤103可以通过步骤1031、步骤1032实现。
在步骤1031中,将用于调用机器学习模型的共享数据存储到共享数据结构。
这里,共享数据包括团队行动策略。
作为示例,一个虚拟对象的机器学习模型对应于一个共享数据结构,共享数据还可以包括第一团队的当前状态的状态参数、第二团队的当前状态的状态参数、虚拟场景中的环境信息等。
在一些实施例中,也可以为每两个虚拟对象对应于一个机器学习模型,一个机器学习模型对应于一个共享数据结构。
在步骤1032中,调用机器学习模型从共享数据结构读取共享数据,并基于共享数据进行预测处理,得到每个虚拟对象的符合团队行动策略的行为。
在一些实施例中,每个虚拟对象的机器学习模型基于共享数据预测得到每个虚拟对象对应于团队行动策略的行为。机器学习模型还能够从其他数据模块获取数据。例如:每个虚拟对象的机器学习模型可以通过其他数据模块获虚拟对象周围的虚拟场景的环境信息。
继续参考图3,在步骤104中,控制第一团队中的至少一个虚拟对象执行对应的行为。
作为示例,虚拟对象的当前状态及虚拟对象周围的环境信息会发生变化,在执行过程中虚拟对象的机器学习模型可以根据虚拟对象对应的信息及团队行动策略实时确定虚拟对象的行为,从而使得虚拟对象的行为能够应对不同的虚拟环境中的因素,使得虚拟对象能有效完成对应团队行动策略的行为。
作为示例,继续参考图2B,步骤104由每个虚拟对象的行为控制模块执行,每个虚拟对象的行为控制模块接收对应的机器学习模型输出的符合团队行动策略的行动,并根据该行为控制虚拟对象在虚拟场景中执行实际的行为,以使虚拟场景中显示虚拟对象执行符合团队行动策略的行为的画面。
在一些实施例中,当第一团队中的各虚拟对象出现在虚拟场景中且第一团队与第二团队之间未进行交互时,根据第一团队中的每个虚拟对象的当前位置及虚拟场景的环境信息确定与第一团队的当前状态适配的团队行动策略。
作为示例,当虚拟对象被投放至虚拟场景时,虚拟对象的状态参数处于初始状态,因此需要基于初始状态对第一团队制定团队行动策略。以第三人称射击游戏举例,虚拟对象通常是从飞行载具上空降到虚拟场景的地面,初始状态下团队行动策略可以包括:第一团队的空降区域、目标物资点等。当团队空降于地面后,基于团队空降地点的环境信息及第一团队中每个虚拟对象的当前状态确定适配的团队行动策略。
在一些实施例中,步骤104之后,还包括:对第一团队中的每个虚拟对象执行的行为及行为效果进行记录;选取行为效果为虚拟对象对应的状态参数正增长的行为作为样本行为,根据样本行为对第一团队中的每个虚拟对象分别对应的机器学习模型进行优化训练。
作为示例,行为效果可以为虚拟对象完成行为后对虚拟对象自身状态参数产生的影响效果,参数正增长可以为生命值上升、攻击能力上升、移动速度上升等。基于这些样本行为对机器学习模型进行优化训练,可以提升机器学习模型的智能化程度,提升机器学习模型在同样的情况下的预测速度。
在一些实施例中,参考图6,图6是本申请实施例提供的虚拟对象的团队交互处理方法的流程示意图;图6中,团队管理模块4551执行步骤201:至少基于第一团队的当前状态确定第一团队的团队行动策略。并将行动策略发送至机器学习模块4556。机器学习模型4556执行步骤202:基于团队行动策略进行预测处理,得到虚拟对象的符合团队行动策略的行动,并将符合团队行动策略的行动发送至虚拟对象的动行为控制模块4552。行为控制模块4552执行步骤203:控制虚拟对象执行对应的行动。
作为示例,图6中各步骤基于图2B的架构,图6中的机器学习模型4556可以是图2B中某一虚拟对象对应的机器学习模型,机器学习模型能从共享数据结构或其他数据模块中获取预测虚拟对象的行为所需的多种数据,从而根据多种数据预测虚拟对象的符合团队行动策略的行为。
本申请实施例设置共享数据结构使得由人工智能控制的虚拟对象之间能够共享数据,并根据共享数据预测对应的行动;通过第一团队的当前状态、或第一团队及第二团队的当前状态确定与第一团队适配的团队行动策略,通过每个虚拟对象的机器模型基于团队行动策略决策每个虚拟对象的行为,使得第一团队中的虚拟对象的行为在完成团队配合情况下仍然保持每个虚拟对象自身的行为特性。通过虚拟对象之间的团队协作,使得虚拟对象的行为更接近于真实用户操作的虚拟对象的行为,实现了由人工智能控制的虚拟对象构成的团队的团队协作,显著提升虚拟对象的智能化程度。
下面,将说明本申请实施例在一个实际的应用场景中的示例性应用。
本申请实施例对每个团队设置团队管理模块对团队中每个游戏AI进行统筹管理,团队管理模块用于决策团队的行动策略;每个游戏AI的行为树负责决策出符合行动策略的具体行为,实现游戏AI之间的团队配合。
以虚拟对象是基于行为树设计的游戏AI为例进行说明,行为树从根部延伸的多个节点,每个叶子节点对应于一个行为,每次调用会从根节点开始遍历,通过检查行为的执行状态来执行不同的节点对应的行为。参考图7D,图7D是本申请实施例提供的行为树模型的结构示意图;图7D中701D(是否遭遇敌人)是行为树的根部节点,704D(攻击)、705D(躲避)、706D(移动)、708D(收集物资)、709D(寻找物资)是叶子节点,每个叶子节点对应于一种行为,702D(攻击能力是否足够)、703D(物资是否充足)、707D(周围环境是否有物资)是选择节点,当行为树遍历到选择节点时,根据游戏AI的当前状态判断执行哪种行为。例如:游戏AI在寻找物资时遭遇敌人,从行为树的根部节点701D开始遍历,进入节点702D,判断游戏AI的攻击能力是否大于敌人,若是行为树输出节点704D对应的“攻击”行为,若否行为树输出节点705D对的“躲避”行为。
示例的,图8A是本申请实施例提供的游戏AI团队架构示意图;图8A中,AI团队包括第一AI801、第二AI802、第三AI803;第一AI801对应于行为树8011及AI控制器8012,第二AI802对应于行为树8021及AI控制器8022,第三游戏AI803对应于行为树8031及AI控制器8032;图8A中的AI团队中包括三个AI。在实际应用中,AI团队中可以包括多个游戏AI,每个游戏AI有对应的行为树及AI控制器。行为树用于决策游戏AI的行为,并输出行为至AI控制器,AI控制器用于控制游戏AI的执行对应的行为,不同类型的游戏AI的行为树及AI控制器不同,不同类型的游戏AI的行为树对于同一信息决策得到的行动是不同的。
继续参考图8A,图8A中还包括AI团队管理模块804,AI团队管理模块804是封装有多个不同的函数的数据管理模块,每个函数均根据游戏AI在虚拟场景中的业务逻辑需求进行设置。当某一AI的状态参数发生变化,该AI的行为树会调用AI团队管理模块中对应该种变化的函数(图8A中以第一AI801的行为树8011调用函数为例,AI团队中每一AI的行为树均具备调用AI团队管理模块中函数的功能),AI团队管理模块804根据该函数输出该AI的状态变化信息或者AI团队的团队行动策略至团队中每个游戏AI对应的黑板模块(参考图8A,第一AI801对应于黑板模块8013,第二AI802对应于黑板模块8023,第三AI803对应于黑板模块8033)。黑板模块能够接收来自于外部数据模块或者AI团队管理模块发送的数据。每个AI的行为树读取对应的黑板模块中的数据,并根据黑板模块中的数据决策对应的行为。
参考图8B,图8B是本申请实施例提供的虚拟对象的团队交互处理方法的一个可选的流程示意图;图8B中包括:步骤801B:在第一AI的被击倒时,第一AI的行为树调用AI团队管理模块中的函数。步骤802B:AI团队管理模块将第一AI的状态信息添加到团队中其他AI的黑板模块中;步骤803B:其他AI的行为树读取分别对应的黑板模块中的数据,并根据黑板模块中的数据确定符合第一AI的状态信息的行为;步骤804B:至少一个AI执行救援第一AI的行为,并在救援成功时,通知AI团队管理模块救援完成。
示例的,为便于解释说明,以下将以虚拟对象表示游戏AI。第一团队包括多个虚拟对象,第一虚拟对象是第一团队中的任意虚拟对象,第一团队中还包括多个第二虚拟对象。例如:第一团队中有虚拟对象A1、A2及A3;将A1作为第一虚拟对象时,A2及A3是第二虚拟对象;将A2作为第一虚拟对象时,A1及A3是第二虚拟对象。
示例的,当第一虚拟对象被击倒时,第一虚拟对象的生命值对应的状态参数发生了变化,第一虚拟对象的行为树调用AI团队管理模块中的函数,使得AI团队管理模块通过该函数向团队中除第一虚拟对象之外的其他虚拟对象的黑板模块中添加第一虚拟对象被击倒的信息。AI团队管理模块向其他虚拟对象的黑板中添加的信息可以是:Someone Down=True;Knocked Down Member=AI No.1。该信息是黑板值,能够存储在黑板模块中,是行为树可以直接读取的数据。当其他虚拟对象的行为树检测到黑板模块中的数据发生变化时,其他虚拟对象的行为树根据分别对应的黑板模块中的数据决策虚拟对象的行为,并将行为指令发送至虚拟对象的控制器,使得虚拟对象在虚拟场景中执行对应的行为。在虚拟对象完成对应的行为时,虚拟对象的行为树修改对应的黑板中的数据,以通知AI团队管理模块团队行动结束。AI团队管理模块在获取到行动完成的信息后,可以将该信息添加到其他虚拟对象的黑板模块中,使得团队中所有虚拟对象共享该信息。
示例的,参考图7A,图7A是本申请实施例提供的人机交互界面画面的示意图;图7A中,真实用户以第一人称视角控制第三虚拟对象703A,第三虚拟对象703A对第一虚拟对象701A进行了攻击,使得第一虚拟对象701A被击倒。第一虚拟对象701A与第二虚拟对象702A属于同一团队,第三虚拟对象703A与第一虚拟对象701A、第二虚拟对象702A之间为敌对关系。
作为示例,以下结合图7A对图8B中的步骤进行解释说明。参考图7A,图7A中第二虚拟对象702A前往第一虚拟对象701A的位置对第一虚拟对象701A进行救援。第二虚拟对象702A对第一虚拟对象701A的救援可以通过以下方式实现:当第二虚拟对象702A的行为树检测到黑板模块内的数据发生了变化时,第二虚拟对象702A的行为树将黑板内的数据结合行为树逻辑确定自身与待救援的第一虚拟对象701A最接近能够进行救援,同时行为树决策出“前往被击倒队友的位置,对被击倒队友使用扶起动作进行救援”的具体行为,第二虚拟对象702A的控制器根据行为树输出的行为指令驱使第二虚拟对象702A执行对应的行为。在救援完成时,第二虚拟对象702A的行为树对黑板模块中的团队状态信息中的被击倒虚拟对象的数量修改为零,以通知AI团队管理模块已经完成救援,AI团队管理模块将被击倒虚拟对象的数量为零的信息添加到团队中其他虚拟对象的黑板模块,表示本次团队配合行动结束。AI团队管理模块对团队中的虚拟对象的信息进行了统一管理,使得虚拟对象之间能够进行信息沟通,每个虚拟对象根据共享的信息执行对应的行为,使得虚拟对象之间形成团队协作。
在一些实施例中,AI团队管理模块除了传递团队中虚拟对象的信息至其他虚拟对象的黑板模块外,还能够根据团队中任一虚拟对象的状态参数变化决策团队行动策略,或者根据第一团队的当前状态、虚拟场景的环境信息及第二团队的当前状态决策团队行动策略。
参考图8C,图8C是本申请实施例提供的虚拟对象的团队交互处理方法的一个可选的流程示意图;图8C中包括:步骤801C包括:AI团队管理模块根据第一团队的当前状态、虚拟场景的环境信息及第二团队的当前状态确定团队行动策略;步骤801C之后为步骤803C。步骤803包括:AI团队管理模块将团队行动策略添加至每个虚拟对象对应的黑板模块中。步骤803C之后为步骤804C,步骤804C包括:每个虚拟对象的行为树根据每个虚拟对象对应的黑板模块中的数据,确定每个虚拟对象与团队行动策略关联的行为。步骤804C之后是步骤805C,步骤805C包括:每个虚拟对象的控制器控制每个虚拟对象执行对应的行为。图8C中还包括步骤802C,步骤802C是与步骤801C不同的确定团队行动策略的方式,步骤802C包括:当第一虚拟对象的状态参数变化时,AI团队管理模块根据第一团队中的每个虚拟对象的当前状态确定团队行动策略。步骤802C之后为步骤803C。
示例的,状态参数变化可以是团队中虚拟对象与敌对虚拟对象之间的距离变化,团队中任一虚拟对象与敌对虚拟对象的距离小于等于可攻击距离,该虚拟对象的行为树调用AI团队管理模块中对应于攻击团队配合的函数(不同函数对应于不同类型的团队配合,每个函数与不同类型的状态参数变化存在预设的对应关系)。同时,该虚拟对象向AI团队管理模块发送敌情信息(敌人数量、位置信息等),AI团队管理模块根据对应于攻击团队配合的函数、敌情信息及团队中每个虚拟对象的状态信息确定行动策略(例如:被攻击对象、攻击阵型、行动人数等),并将行动策略添加到团队中每个虚拟对象对应的黑板模块中,每个虚拟对象的行为树根据黑板模块内的数据,确定每个虚拟对象的与团队行动策略适配的具体行为。
示例的,基于步骤802C,AI团队管理模块还能够接收虚拟环境中的其他信息(第二团队的当前状态、虚拟场景的环境信息等)并结合团队中虚拟对象的状态信息,根据这些信息决策团队行动策略,使得虚拟对象构成的团队更加智能化。
示例的,以下结合图7B、图7A对图8C中的步骤进行解释说明,参考图7B及图7C,图7B是本申请实施例提供的人机交互界面画面的示意图;图7C是本申请实施例提供的人机交互界面画面的示意图。图7B中,第三虚拟对象703与其他虚拟对象呈敌对关系,第一虚拟对象701、第二虚拟对象7021、第二虚拟对象7022属于同一团队,同一团队中的虚拟对象相互配合,三个虚拟对象对第三虚拟对象703进行了包围,其中第一虚拟对象701从侧面接近第三虚拟对象703并攻击,第二虚拟对象7021从建筑物顶部接近第三虚拟对象703并攻击,第二虚拟对象7022从远处对第三虚拟对象703进行狙击。图7C中的虚拟对象与图7B中的虚拟对象相同,但虚拟对象分别基于图7B中的位置进行了移动。
示例的,继续参考图7B,第一虚拟对象701的行为树根据黑板模块内的数据(例如:团队行动策略、位置信息、武器信息为持有冲锋枪、距离敌方的距离等),确定第一虚拟对象701的行为是“靠近敌人并攻击”,第二虚拟对象7021的行为树根据黑板模块内的数据(例如:团队行动策略、位置信息、武器信息为持有狙击枪、距离敌方的距离等),确定第二虚拟对象7021的行为是“远离敌人,并对敌人进行远程狙击”。第一虚拟对象701在接近第三虚拟对象703(参考图7B)后又远离了第三虚拟对象703(参考图7C),在第一虚拟对象701接近敌人时,第一虚拟对象701的行为树根据当前的环境信息、状态信息、团队行动策略确定第一虚拟对象701与敌方虚拟对象之间缺乏掩体容易被攻击,决策第一虚拟对象701的行为是“远离敌人并继续进行攻击”,从而第一虚拟对象701远离了第三虚拟对象703并继续进攻。AI团队管理模块对团队行动策略进行决策,每个虚拟对象个体根据黑板模块中包含的多种信息决策虚拟对象具体的行为,实现双端决策,游戏AI之间进行团队协作同时又保持了自身的行为特性,提升了游戏AI的智能程度,能够提升游戏的真实感。
下面继续说明本申请实施例提供的虚拟对象的团队交互处理装置455的实施为软件模块的示例性结构,在一些实施例中,如图2A所示,存储在存储器450的虚拟对象的团队交互处理装置455中的软件模块可以包括:团队管理模块4551,配置为在人机交互界面中显示虚拟场景,其中,虚拟场景包括第一团队。团队管理模块4551,配置为至少基于第一团队的当前状态确定第一团队的团队行动策略。团队管理模块4551,还配置为基于团队行动策略,调用第一团队中的至少一个虚拟对象分别对应的机器学习模型进行预测处理,得到每个虚拟对象的符合团队行动策略的行为。行为控制模块4552,配置为控制第一团队中的至少一个虚拟对象执行对应的行为。
在一些实施例中,虚拟场景还包括与第一团队处于敌对关系的第二团队;团队管理模块4551,还配置为基于第一团队的当前状态或基于第一团队和第二团队的当前状态,确定团队行动类型;当团队行动类型为攻击型团队行动时,根据第二团队的当前状态、第一团队的当前状态及虚拟场景的环境信息,确定第一团队的团队攻击行动策略;当团队行动类型为救援型团队行动时,根据第二团队的当前状态、第一团队的当前状态及虚拟场景的环境信息,确定第一团队的团队救援行动策略;当团队行动类型为物资收集型团队行动时,根据第一团队的当前状态及虚拟场景的环境信息,确定第一团队的团队物资收集行动策略;当团队行动类型为防守型团队行动时,根据第二团队的当前状态、第一团队的当前状态及虚拟场景的环境信息,确定第一团队的团队防守行动策略。
在一些实施例中,团队管理模块4551,还配置为当第一团队中的第一虚拟对象的状态发生衰减时,基于第一虚拟对象的当前状态确定团队行动类型;定期地或当处于特定互动节点时,对第一团队的当前状态与第二团队的当前状态进行比较,根据比较结果确定团队行动类型。
在一些实施例中,团队管理模块4551,还配置为当满足救援条件时,确定团队行动类型为救援型团队行动;其中,救援条件包括以下至少之一:第一虚拟对象的生命值大于生命值阈值、第一虚拟对象与第一团队中其他的至少一个虚拟对象之间的距离小于救援距离阈值;当满足放弃救援条件时,确定团队行动类型为放弃救援团队行动;其中,放弃救援条件包括以下至少之一:第一虚拟对象的生命值小于生命值阈值、第一团队中不存在与第一虚拟对象的距离小于救援距离阈值的其他虚拟对象。
在一些实施例中,团队管理模块4551,还配置为当第一团队的攻击能力总和大于第二团队的攻击能力总和,且第一团队的地理情况优于第二团队的地理情况时,确定团队行动类型为攻击型团队行动;当第一团队的攻击能力总和或者地理情况中的至少一种相对于第二团队呈弱势时,确定团队行动类型为防守型团队行动;当第一虚拟对象的生命值大于生命值阈值,且第一团队中围绕第一虚拟对象分布的其他虚拟对象的攻击能力总和,大于相同范围内分布的第二团队的虚拟对象的攻击能力总和时,确定团队行动类型为救援型团队行动,其中,第一虚拟对象是第一团队中待救援的虚拟对象;当第一虚拟对象的生命值小于生命值阈值,且第一团队中围绕第一虚拟对象的分布的其他虚拟对象的攻击能力总和,小于相同范围内分布的第二团队的虚拟对象的攻击能力总和时,确定团队行动类型为放弃救援团队行动,其中,第一虚拟对象是第一团队中待救援的虚拟对象;当第一团队的物资储备量小于第二团队的物资储备量时,确定团队行动类型为物资收集型团队行动。
在一些实施例中,团队攻击行动策略包括:被攻击对象、攻击阵型、进攻对象;团队管理模块4551,还配置为将第二团队中与第一虚拟对象的距离小于攻击距离阈值的至少一个虚拟对象作为被攻击对象;根据每个被攻击对象的当前状态确定被攻击对象的攻击能力总和;选取第一团队中除第一虚拟对象之外的至少一个虚拟对象作为进攻对象,其中,被选取的至少一个进攻对象的攻击能力总和大于被攻击对象的攻击能力总和;根据被攻击对象的当前位置、虚拟场景的环境信息及进攻对象的当前位置确定攻击阵型。
在一些实施例中,团队救援行动策略包括:潜在威胁对象、救援对象、救援阵型、安全地点;团队管理模块4551,还配置为将第二团队中与第一虚拟对象的距离小于威胁距离阈值的虚拟对象作为潜在威胁对象;当第一虚拟对象的生命值大于生命值阈值时,选取第一团队中除第一虚拟对象之外的至少一个虚拟对象作为救援对象;其中,救援对象的攻击能力总和大于潜在威胁对象的攻击能力总和,或每个救援对象的攻击能力大于潜在威胁对象的平均攻击能力;根据潜在威胁对象的当前位置、虚拟环境的环境信息、第一虚拟对象的当前位置及救援对象的当前位置,确定救援阵型;根据潜在威胁对象的当前位置、虚拟环境的环境信息及第一团队中每个虚拟对象的当前位置确定安全地点;其中,安全地点是第一团队用于躲避第二团队的地点。
在一些实施例中,团队防守行动策略包括:潜在攻击对象、防守阵型、防守对象;团队管理模块4551,还配置为将第二团队中与第一虚拟对象的距离小于潜在攻击距离阈值的所有虚拟对象作为潜在攻击对象;根据每个潜在攻击对象的当前状态确定潜在攻击对象的攻击能力总和;选取第一团队中至少一个虚拟对象作为防守对象,其中,被选取的至少一个防守对象的防守能力总和大于潜在攻击对象的攻击能力总和;根据潜在攻击对象的当前位置、虚拟环境的环境信息及防守对象的当前位置确定防守阵型。
在一些实施例中,团队物资收集行动策略包括:目标物资点;团队管理模块4551,还配置为根据虚拟场景的环境信息中的物资位置,确定至少一个候选物资点;其中,候选物资点是第一团队用于物资收集的候选地点;分别确定第一团队中的每个虚拟对象的当前位置与所有候选物资点之间的距离,选取最短距离对应的候选物资点作为每个虚拟对象分别对应的目标物资点。
在一些实施例中,当团队行动策略是团队攻击行动策略时,行动包括行进路径、攻击方式;团队管理模块4551,还配置为基于团队攻击行动策略确定进攻对象,根据每个进攻对象的位置信息、被攻击对象的位置信息与团队攻击行动策略对应的攻击阵型、虚拟场景的环境信息,调用每个进攻对象对应的机器学习模型进行预测处理,得到每个进攻对象的行进路径;根据每个进攻对象的装备信息、被攻击对象的位置信息、虚拟场景的环境信息,调用每个进攻对象对应的机器学习模型进行预测处理,得到每个进攻对象的攻击方式。
在一些实施例中,当团队行动策略是团队救援行动策略时,行动包括行进路径、救援方式;团队管理模块4551,还配置为根据每个救援对象的位置信息、潜在威胁对象的位置信息与团队救援行动策略对应的救援阵型、虚拟场景的环境信息,调用每个救援对象对应的机器学习模型进行预测处理,得到每个救援对象的行进路径及救援方式;根据第一虚拟对象的当前位置、团队救援行动策略对应的安全地点,调用第一虚拟对象对应的机器学习模型进行预测处理,得到第一虚拟对象的行进路径。
在一些实施例中,当团队行动策略是团队物资收集行动策略时,行动包括行进路径、目标物资;其中,目标物资是虚拟对象所缺乏的物资;团队管理模块4551,还配置为基于团队物资收集行动策略确定每个虚拟对象分别对应的目标物资点,根据每个虚拟对象分别对应的目标物资点的位置,调用每个虚拟对象对应的机器学习模型进行预测处理,得到每个虚拟对象的行进路径;根据每个虚拟对象的当前物资量,调用每个虚拟对象对应的机器学习模型进行预测处理,得到每个虚拟对象的目标物资。
在一些实施例中,当团队行动策略是团队防守行动策略时,行动包括行进路径、防守方式;团队管理模块4551,还配置为基于团队攻击行动策略确定防守对象,根据每个防守对象的位置信息、潜在攻击对象的位置信息与团队攻击行动策略对应的防守阵型、环境信息,调用每个防守对象对应的机器学习模型进行预测处理,得到每个防守对象的行进路径;根据每个防守对象的装备信息、潜在攻击对象的位置信息、环境信息,调用每个防守对象对应的机器学习模型进行预测处理,得到每个防守对象的防守方式。
在一些实施例中,每个虚拟对象的机器学习模型对应一个共享数据结构;团队管理模块4551,还配置为将用于调用机器学习模型的共享数据存储到共享数据结构,其中,共享数据包括团队行动策略;调用机器学习模型从共享数据结构读取共享数据,并基于共享数据进行预测处理,得到每个虚拟对象的符合团队行动策略的行为。
本申请实施例提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行本申请实施例上述的虚拟对象的团队交互处理方法。
本申请实施例提供一种存储有可执行指令的计算机可读存储介质,其中存储有可执行指令,当可执行指令被处理器执行时,将引起处理器执行本申请实施例提供的虚拟对象的团队交互处理方法,例如,如图3示出的虚拟对象的团队交互处理方法。
在一些实施例中,计算机可读存储介质可以是FRAM、ROM、PROM、EPROM、EEPROM、闪存、磁表面存储器、光盘、或CD-ROM等存储器;也可以是包括上述存储器之一或任意组合的各种设备。
在一些实施例中,可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。
作为示例,可执行指令可被部署为在一个计算设备上执行,或者在位于一个地点的多个计算设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算设备上执行。
综上所述,通过本申请实施例通过第一团队的当前状态确定与第一团队适配的团队行动策略,使每个虚拟对象各自的机器学习模型基于团队行动策略预测团队中至少一个虚拟对象的行为,使得第一团队中的虚拟对象既能进行团队协作又保持了每个虚拟对象自身的行为特性,提升了虚拟对象团队协作中的行为多样性,避免行为机械僵化,增强了虚拟对象的真实感,显著提升虚拟对象的智能化程度。
以上所述,仅为本申请的实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和范围之内所作的任何修改、等同替换和改进等,均包含在本申请的保护范围之内。
Claims (18)
1.一种虚拟对象的团队交互处理方法,其特征在于,所述方法包括:
在人机交互界面中显示虚拟场景,其中,所述虚拟场景包括第一团队;
至少基于所述第一团队的当前状态确定所述第一团队的团队行动策略;
基于所述团队行动策略,调用所述第一团队中的至少一个虚拟对象分别对应的机器学习模型进行预测处理,得到每个所述虚拟对象的符合所述团队行动策略的行为;
控制所述第一团队中的所述至少一个虚拟对象执行对应的行为。
2.根据权利要求1所述的方法,其特征在于,
所述虚拟场景还包括与所述第一团队处于敌对关系的第二团队;
所述至少基于所述第一团队的当前状态确定所述第一团队的团队行动策略,包括:
基于所述第一团队的当前状态或基于所述第一团队和所述第二团队的当前状态,确定团队行动类型;
当所述团队行动类型为攻击型团队行动时,根据所述第二团队的当前状态、所述第一团队的当前状态及所述虚拟场景的环境信息,确定所述第一团队的团队攻击行动策略;
当所述团队行动类型为救援型团队行动时,根据所述第二团队的当前状态、所述第一团队的当前状态及所述虚拟场景的环境信息,确定所述第一团队的团队救援行动策略;
当所述团队行动类型为物资收集型团队行动时,根据所述第一团队的当前状态及所述虚拟场景的环境信息,确定所述第一团队的团队物资收集行动策略;
当所述团队行动类型为防守型团队行动时,根据所述第二团队的当前状态、所述第一团队的当前状态及所述虚拟场景的环境信息,确定所述第一团队的团队防守行动策略。
3.根据权利要求2所述的方法,其特征在于,所述基于所述第一团队的当前状态或基于所述第一团队和所述第二团队的当前状态,确定团队行动类型,包括:
当所述第一团队中的第一虚拟对象的状态发生衰减时,基于所述第一虚拟对象的当前状态确定团队行动类型;或
定期地或当处于特定互动节点时,对所述第一团队的当前状态与所述第二团队的当前状态进行比较,根据比较结果确定团队行动类型。
4.根据权利要求3所述的方法,其特征在于,所述基于所述第一虚拟对象的当前状态确定团队行动类型,包括:
当满足救援条件时,确定所述团队行动类型为救援型团队行动;其中,所述救援条件包括以下至少之一:所述第一虚拟对象的生命值大于生命值阈值、所述第一虚拟对象与所述第一团队中其他的至少一个虚拟对象之间的距离小于救援距离阈值;
当满足放弃救援条件时,确定所述团队行动类型为放弃救援团队行动;其中,所述放弃救援条件包括以下至少之一:所述第一虚拟对象的生命值小于生命值阈值、所述第一团队中不存在与所述第一虚拟对象的距离小于救援距离阈值的其他虚拟对象。
5.根据权利要求3所述的方法,其特征在于,所述对所述第一团队的当前状态与所述第二团队的当前状态进行比较,根据比较结果确定团队行动类型,包括:
当所述第一团队的攻击能力总和大于所述第二团队的攻击能力总和,且所述第一团队的地理情况优于所述第二团队的地理情况时,确定所述团队行动类型为攻击型团队行动;
当所述第一团队的攻击能力总和或者地理情况中的至少一种相对于所述第二团队呈弱势时,确定所述团队行动类型为防守型团队行动;
当所述第一虚拟对象的生命值大于生命值阈值,且所述第一团队中围绕所述第一虚拟对象分布的其他虚拟对象的攻击能力总和,大于相同范围内分布的所述第二团队的虚拟对象的攻击能力总和时,确定所述团队行动类型为救援型团队行动,其中,所述第一虚拟对象是所述第一团队中待救援的虚拟对象;
当所述第一虚拟对象的生命值小于生命值阈值,且所述第一团队中围绕所述第一虚拟对象的分布的其他虚拟对象的攻击能力总和,小于相同范围内分布的所述第二团队的虚拟对象的攻击能力总和时,确定所述团队行动类型为放弃救援团队行动,其中,所述第一虚拟对象是所述第一团队中待救援的虚拟对象;
当所述第一团队的物资储备量小于所述第二团队的物资储备量时,确定所述团队行动类型为物资收集型团队行动。
6.根据权利要求2所述的方法,其特征在于,
所述团队攻击行动策略包括:被攻击对象、攻击阵型、进攻对象;
所述根据所述第二团队的当前状态、所述第一团队的当前状态及所述虚拟场景的环境信息,确定所述第一团队的团队攻击行动策略,包括:
将所述第二团队中与所述第一虚拟对象的距离小于攻击距离阈值的至少一个虚拟对象作为被攻击对象;
根据每个所述被攻击对象的当前状态确定所述被攻击对象的攻击能力总和;
选取所述第一团队中除所述第一虚拟对象之外的至少一个虚拟对象作为进攻对象,其中,被选取的至少一个所述进攻对象的攻击能力总和大于所述被攻击对象的攻击能力总和;
根据所述被攻击对象的当前位置、所述虚拟场景的环境信息及所述进攻对象的当前位置确定攻击阵型。
7.根据权利要求2所述的方法,其特征在于,
所述团队救援行动策略包括:潜在威胁对象、救援对象、救援阵型、安全地点;
所述根据所述第二团队的当前状态、所述第一团队的当前状态及所述虚拟场景的环境信息,确定所述第一团队的团队救援行动策略,包括:
将所述第二团队中与所述第一虚拟对象的距离小于威胁距离阈值的虚拟对象作为潜在威胁对象;
当所述第一虚拟对象的生命值大于生命值阈值时,选取所述第一团队中除所述第一虚拟对象之外的至少一个虚拟对象作为救援对象;其中,所述救援对象的攻击能力总和大于所述潜在威胁对象的攻击能力总和,或每个所述救援对象的攻击能力大于所述潜在威胁对象的平均攻击能力;
根据所述潜在威胁对象的当前位置、所述虚拟环境的环境信息、所述第一虚拟对象的当前位置及所述救援对象的当前位置,确定救援阵型;
根据所述潜在威胁对象的当前位置、所述虚拟环境的环境信息及所述第一团队中每个虚拟对象的当前位置确定安全地点;其中,所述安全地点是所述第一团队用于躲避所述第二团队的地点。
8.根据权利要求2所述的方法,其特征在于,
所述团队防守行动策略包括:潜在攻击对象、防守阵型、防守对象;
所述根据所述第二团队的当前状态、所述第一团队的当前状态及所述虚拟场景的环境信息,确定所述第一团队的团队防守行动策略,包括:
将所述第二团队中与所述第一虚拟对象的距离小于潜在攻击距离阈值的所有虚拟对象作为潜在攻击对象;
根据每个所述潜在攻击对象的当前状态确定所述潜在攻击对象的攻击能力总和;
选取所述第一团队中至少一个虚拟对象作为防守对象,其中,被选取的至少一个所述防守对象的防守能力总和大于所述潜在攻击对象的攻击能力总和;
根据所述潜在攻击对象的当前位置、所述虚拟环境的环境信息及所述防守对象的当前位置确定防守阵型。
9.根据权利要求2所述的方法,其特征在于,
所述团队物资收集行动策略包括:目标物资点;
所述根据所述第一团队的当前状态及所述虚拟场景的环境信息,确定所述第一团队的团队物资收集行动策略,包括:
根据所述虚拟场景的环境信息中的物资位置,确定至少一个候选物资点;其中,所述候选物资点是所述第一团队用于物资收集的候选地点;
分别确定所述第一团队中的每个所述虚拟对象的当前位置与所有候选物资点之间的距离,选取最短距离对应的候选物资点作为每个所述虚拟对象分别对应的目标物资点。
10.根据权利要求1所述的方法,其特征在于,
当所述团队行动策略是团队攻击行动策略时,所述行动包括行进路径、攻击方式;
所述基于所述团队行动策略,调用所述第一团队中的至少一个虚拟对象分别对应的机器学习模型进行预测处理,得到每个所述虚拟对象的符合所述团队行动策略的行为,包括:
基于所述团队攻击行动策略确定进攻对象,根据每个所述进攻对象的位置信息、所述被攻击对象的位置信息与所述团队攻击行动策略对应的攻击阵型、所述虚拟场景的环境信息,调用每个所述进攻对象对应的机器学习模型进行预测处理,得到每个所述进攻对象的行进路径;
根据每个所述进攻对象的装备信息、所述被攻击对象的位置信息、所述虚拟场景的环境信息,调用每个所述进攻对象对应的机器学习模型进行预测处理,得到每个所述进攻对象的攻击方式。
11.根据权利要求1所述的方法,其特征在于,
当所述团队行动策略是团队救援行动策略时,所述行动包括行进路径、救援方式;
所述基于所述团队行动策略,调用所述第一团队中的至少一个虚拟对象分别对应的机器学习模型进行预测处理,得到每个所述虚拟对象的符合所述团队行动策略的行为,包括:
根据每个所述救援对象的位置信息、所述潜在威胁对象的位置信息与所述团队救援行动策略对应的救援阵型、所述虚拟场景的环境信息,调用每个所述救援对象对应的机器学习模型进行预测处理,得到每个所述救援对象的行进路径及救援方式;
根据所述第一虚拟对象的当前位置、所述团队救援行动策略对应的安全地点,调用所述第一虚拟对象对应的机器学习模型进行预测处理,得到所述第一虚拟对象的行进路径。
12.根据权利要求1所述的方法,其特征在于,
当所述团队行动策略是团队物资收集行动策略时,所述行动包括行进路径、目标物资;其中,所述目标物资是所述虚拟对象所缺乏的物资;
所述基于所述团队行动策略,调用所述第一团队中的至少一个虚拟对象分别对应的机器学习模型进行预测处理,得到每个所述虚拟对象的符合所述团队行动策略的行为,包括:
基于所述团队物资收集行动策略确定每个所述虚拟对象分别对应的目标物资点,根据每个所述虚拟对象分别对应的目标物资点的位置,调用每个所述虚拟对象对应的机器学习模型进行预测处理,得到每个所述虚拟对象的行进路径;
根据每个所述虚拟对象的当前物资量,调用每个所述虚拟对象对应的机器学习模型进行预测处理,得到每个所述虚拟对象的目标物资。
13.根据权利要求1所述的方法,其特征在于,
当所述团队行动策略是团队防守行动策略时,所述行动包括行进路径、防守方式;
所述基于所述团队行动策略,调用所述第一团队中的至少一个虚拟对象分别对应的机器学习模型进行预测处理,得到每个所述虚拟对象的符合所述团队行动策略的行为,包括:
基于所述团队攻击行动策略确定防守对象,根据每个所述防守对象的位置信息、所述潜在攻击对象的位置信息与所述团队攻击行动策略对应的防守阵型、所述环境信息,调用每个所述防守对象对应的机器学习模型进行预测处理,得到每个所述防守对象的行进路径;
根据每个所述防守对象的装备信息、所述潜在攻击对象的位置信息、所述环境信息,调用每个所述防守对象对应的机器学习模型进行预测处理,得到每个所述防守对象的防守方式。
14.根据权利要求1所述的方法,其特征在于,
每个所述虚拟对象的机器学习模型对应一个共享数据结构;
所述基于所述团队行动策略,调用所述第一团队中的至少一个虚拟对象分别对应的机器学习模型进行预测处理,得到每个所述虚拟对象的符合所述团队行动策略的行为,包括:
将用于调用所述机器学习模型的共享数据存储到所述共享数据结构,其中,所述共享数据包括所述团队行动策略;
调用所述机器学习模型从所述共享数据结构读取所述共享数据,并基于所述共享数据进行预测处理,得到每个所述虚拟对象的符合所述团队行动策略的行为。
15.一种虚拟对象的团队交互处理装置,其特征在于,所述装置包括:
团队管理模块,配置为:
在人机交互界面中显示虚拟场景,其中,所述虚拟场景包括第一团队;
至少基于所述第一团队的当前状态确定所述第一团队的团队行动策略;
基于所述团队行动策略,调用所述第一团队中的至少一个虚拟对象分别对应的机器学习模型进行预测处理,得到每个所述虚拟对象的符合所述团队行动策略的行为;
行为控制模块,配置为控制所述第一团队中的所述至少一个虚拟对象执行对应的行为。
16.一种用于虚拟对象的团队交互处理的终端设备,其特征在于,所述终端设备包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,实现权利要求1至14任一项的虚拟对象的团队交互处理方法。
17.一种计算可读存储介质,存储有可执行指令,其特征在于,用于被处理器执行时实现权利要求1至14任一项的虚拟对象的团队交互处理方法。
18.一种计算机程序产品,包括计算机程序或指令,其特征在于,所述计算机程序或指令被处理器执行时实现权利要求1至14任一项的虚拟对象的团队交互处理方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111350320 | 2021-11-15 | ||
CN2021113503206 | 2021-11-15 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114344905A true CN114344905A (zh) | 2022-04-15 |
Family
ID=81104370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111660920.2A Pending CN114344905A (zh) | 2021-11-15 | 2021-12-31 | 虚拟对象的团队交互处理方法、装置、设备、介质及程序 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114344905A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116821693A (zh) * | 2023-08-29 | 2023-09-29 | 腾讯科技(深圳)有限公司 | 虚拟场景的模型训练方法、装置、电子设备及存储介质 |
WO2024060888A1 (zh) * | 2022-09-23 | 2024-03-28 | 腾讯科技(深圳)有限公司 | 虚拟场景的交互处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007252545A (ja) * | 2006-03-22 | 2007-10-04 | Konami Digital Entertainment:Kk | ゲーム装置、ゲーム装置の制御方法及びプログラム |
TW201524564A (zh) * | 2013-12-24 | 2015-07-01 | Redgate Games Co Ltd | 改變非玩家角色行為模式之方法 |
CN111228813A (zh) * | 2020-01-22 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 虚拟对象的控制方法、装置、设备及存储介质 |
CN111589166A (zh) * | 2020-05-15 | 2020-08-28 | 深圳海普参数科技有限公司 | 交互式任务控制、智能决策模型训练方法、设备和介质 |
CN112044076A (zh) * | 2020-08-28 | 2020-12-08 | 腾讯科技(深圳)有限公司 | 一种对象控制方法、装置及计算机可读存储介质 |
-
2021
- 2021-12-31 CN CN202111660920.2A patent/CN114344905A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007252545A (ja) * | 2006-03-22 | 2007-10-04 | Konami Digital Entertainment:Kk | ゲーム装置、ゲーム装置の制御方法及びプログラム |
TW201524564A (zh) * | 2013-12-24 | 2015-07-01 | Redgate Games Co Ltd | 改變非玩家角色行為模式之方法 |
CN111228813A (zh) * | 2020-01-22 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 虚拟对象的控制方法、装置、设备及存储介质 |
CN111589166A (zh) * | 2020-05-15 | 2020-08-28 | 深圳海普参数科技有限公司 | 交互式任务控制、智能决策模型训练方法、设备和介质 |
CN112044076A (zh) * | 2020-08-28 | 2020-12-08 | 腾讯科技(深圳)有限公司 | 一种对象控制方法、装置及计算机可读存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024060888A1 (zh) * | 2022-09-23 | 2024-03-28 | 腾讯科技(深圳)有限公司 | 虚拟场景的交互处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品 |
CN116821693A (zh) * | 2023-08-29 | 2023-09-29 | 腾讯科技(深圳)有限公司 | 虚拟场景的模型训练方法、装置、电子设备及存储介质 |
CN116821693B (zh) * | 2023-08-29 | 2023-11-03 | 腾讯科技(深圳)有限公司 | 虚拟场景的模型训练方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112691377B (zh) | 虚拟角色的控制方法、装置、电子设备及存储介质 | |
CN112076473B (zh) | 虚拟道具的控制方法、装置、电子设备及存储介质 | |
CN112402960B (zh) | 虚拟场景中状态切换方法、装置、设备及存储介质 | |
CN112121414B (zh) | 虚拟场景中的追踪方法、装置、电子设备及存储介质 | |
CN112295230B (zh) | 虚拟场景中虚拟道具的激活方法、装置、设备及存储介质 | |
JP7447296B2 (ja) | 仮想道具のインタラクティブ処理方法、装置、電子機器及びコンピュータプログラム | |
CN114344905A (zh) | 虚拟对象的团队交互处理方法、装置、设备、介质及程序 | |
US20230072503A1 (en) | Display method and apparatus for virtual vehicle, device, and storage medium | |
CN112138385B (zh) | 虚拟射击道具的瞄准方法、装置、电子设备及存储介质 | |
CN112057860B (zh) | 虚拟场景中激活操作控件的方法、装置、设备及存储介质 | |
WO2023138141A1 (zh) | 虚拟物品的处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品 | |
CN113181649A (zh) | 虚拟场景中召唤对象的控制方法、装置、设备及存储介质 | |
US20230031248A1 (en) | Level screen display method, apparatus, device and storage medium | |
CN113633964A (zh) | 虚拟技能的控制方法、装置、设备及计算机可读存储介质 | |
WO2023024762A1 (zh) | 人工智能对象控制方法、装置、设备及存储介质 | |
CN113262488A (zh) | 虚拟场景中虚拟对象的控制方法、装置、设备及存储介质 | |
TWI821779B (zh) | 虛擬對象的控制方法、裝置、計算機設備及儲存媒體 | |
CN111389007B (zh) | 一种游戏控制方法、装置、计算设备及存储介质 | |
CN113144603A (zh) | 虚拟场景中召唤对象的切换方法、装置、设备及存储介质 | |
CN115645923A (zh) | 游戏交互方法、装置、终端设备及计算机可读存储介质 | |
CN112121433B (zh) | 虚拟道具的处理方法、装置、设备及计算机可读存储介质 | |
CN110882543B (zh) | 控制虚拟环境中虚拟对象下落的方法、装置及终端 | |
CN114146414A (zh) | 虚拟技能的控制方法、装置、设备、存储介质及程序产品 | |
CN113018862A (zh) | 虚拟对象的控制方法、装置、电子设备及存储介质 | |
JP7434601B2 (ja) | ウィジェットの表示方法、装置、機器及びコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |