CN116531764A - 游戏数据处理方法、装置、设备及计算机可读存储介质 - Google Patents
游戏数据处理方法、装置、设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN116531764A CN116531764A CN202210089666.3A CN202210089666A CN116531764A CN 116531764 A CN116531764 A CN 116531764A CN 202210089666 A CN202210089666 A CN 202210089666A CN 116531764 A CN116531764 A CN 116531764A
- Authority
- CN
- China
- Prior art keywords
- virtual object
- current
- instruction
- sample
- map data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 24
- 238000003860 storage Methods 0.000 title claims abstract description 22
- 238000012360 testing method Methods 0.000 claims abstract description 136
- 238000000034 method Methods 0.000 claims abstract description 88
- 238000004458 analytical method Methods 0.000 claims abstract description 28
- 238000012545 processing Methods 0.000 claims description 95
- 238000004088 simulation Methods 0.000 claims description 87
- 239000013598 vector Substances 0.000 claims description 54
- 238000005070 sampling Methods 0.000 claims description 37
- 230000015654 memory Effects 0.000 claims description 31
- 238000013528 artificial neural network Methods 0.000 claims description 28
- 238000012549 training Methods 0.000 claims description 27
- 230000008859 change Effects 0.000 claims description 25
- 230000006870 function Effects 0.000 claims description 13
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 238000005457 optimization Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 13
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 description 18
- 230000004044 response Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 239000008280 blood Substances 0.000 description 8
- 210000004369 blood Anatomy 0.000 description 8
- 230000003111 delayed effect Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 5
- 208000015041 syndromic microphthalmia 10 Diseases 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000006378 damage Effects 0.000 description 4
- 208000027418 Wounds and injury Diseases 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000002860 competitive effect Effects 0.000 description 3
- 239000013078 crystal Substances 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 208000014674 injury Diseases 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 235000019800 disodium phosphate Nutrition 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005294 ferromagnetic effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000005291 magnetic effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000009991 scouring Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/77—Game security or game management aspects involving data related to game devices or game servers, e.g. configuration data, software version or amount of memory
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
- A63F13/5378—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/58—Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/822—Strategy games; Role-playing games
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/807—Role playing or strategy games
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Computer Security & Cryptography (AREA)
- General Business, Economics & Management (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请实施例提供一种游戏数据处理方法、装置、设备及计算机可读存储介质,至少应用于人工智能技术领域,其中,方法包括:获取当前虚拟场景下的全局地图数据、目标虚拟对象对应的局部地图数据和虚拟元素;根据所述全局地图数据、所述局部地图数据和所述虚拟元素,确定针对所述目标虚拟对象在当前时刻的指令信息;响应于所述指令信息对应的操控指令,对所述目标虚拟对象进行操控,得到所述目标虚拟对象的指标信息;根据所述指标信息生成对所述目标虚拟对象的角色测试结果。通过本申请,能够对当前虚拟场景下的目标虚拟对象进行准确且高效的角色分析和测试,并且角色分析和测试过程具有高的泛化性。
Description
技术领域
本申请实施例涉及互联网技术领域,涉及但不限于一种游戏数据处理方法、装置、设备及计算机可读存储介质。
背景技术
近年来,随着互联网技术的发展、个人终端的普及以及流量成本的降低,游戏产业呈现出蓬勃发展的趋势。其中,多人在线战术竞技游戏(MOBA,Multiplayer Online BattleArena)是目前市场上流行的一类网络游戏。在MOBA游戏中,玩家通常被分为多队,在分散的虚拟地图中完成特定的任务。游戏平衡性是影响MOBA游戏体验的核心因素。
目前,在对游戏平衡性进行测试时,通常采用以下方式实现:采用经验预估的方式进行测试、通过模型预测的方式进行测试、通过体验服试玩的方式进行测试。
但是,相关技术中的游戏平衡性测试方法均存在测试效率和准确率低,且测试结果的泛化性较差的问题。
发明内容
本申请实施例提供一种游戏数据处理方法、装置、设备及计算机可读存储介质,至少应用于人工智能技术领域,能够准确且高效的预测出针对于当前虚拟场景下的目标虚拟对象的操控指令,从而得到准确的指标信息,并基于指标信息对目标虚拟对象的平衡性进行准确且高效的测试。
本申请实施例的技术方案是这样实现的:
本申请实施例提供一种游戏数据处理方法,所述方法包括:
获取当前虚拟场景下的全局地图数据、目标虚拟对象对应的局部地图数据和虚拟元素;
根据所述全局地图数据、所述局部地图数据和所述虚拟元素,确定针对所述目标虚拟对象在当前时刻的指令信息;
响应于所述指令信息对应的操控指令,对所述目标虚拟对象进行操控,得到所述目标虚拟对象的指标信息;
根据所述指标信息生成对所述目标虚拟对象的角色测试结果。
本申请实施例提供一种游戏数据处理装置,所述装置包括:
获取模块,用于获取当前虚拟场景下的全局地图数据、目标虚拟对象对应的局部地图数据和虚拟元素;
确定模块,用于根据所述全局地图数据、所述局部地图数据和所述虚拟元素,确定针对所述目标虚拟对象在当前时刻的指令信息;
操控模块,用于响应于所述指令信息对应的操控指令,对所述目标虚拟对象进行操控,得到所述目标虚拟对象的指标信息;
测试模块,用于根据所述指标信息生成对所述目标虚拟对象的角色测试结果。
本申请实施例提供一种游戏数据处理设备,包括:
存储器,用于存储可执行指令;处理器,用于执行所述存储器中存储的可执行指令时,实现上述游戏数据处理方法。
本申请实施例提供一种计算机程序产品或计算机程序,所述计算机程序产品或计算机程序包括计算机指令,所述计算机指令存储在计算机可读存储介质中;其中,计算机设备的处理器从所述计算机可读存储介质中读取所述计算机指令,所述处理器用于执行所述计算机指令,实现上述的游戏数据处理方法。
本申请实施例提供一种计算机可读存储介质,存储有可执行指令,用于引起处理器执行所述可执行指令时,实现上述游戏数据处理方法。
本申请实施例具有以下有益效果:根据当前虚拟场景下的全局地图数据、局部地图数据和虚拟元素,确定针对当前虚拟场景中的目标虚拟对象在当前时刻的指令信息;并响应于指令信息对应的操控指令,对目标虚拟对象进行操控,得到目标虚拟对象的指标信息。如此,能够准确且高效的预测出针对于当前虚拟场景下的目标虚拟对象的操控指令,从而得到准确的指标信息,基于指标信息对目标虚拟对象的平衡性能够进行准确且高效的测试和分析,且由于可以适用于当前虚拟场景下的任意虚拟对象,因此具有高的泛化性。
附图说明
图1是本申请实施例提供的游戏数据处理系统的一个可选的架构示意图;
图2是本申请实施例提供的游戏数据处理设备的结构示意图;
图3是本申请实施例提供的游戏数据处理方法的一个可选的流程示意图;
图4是本申请实施例提供的游戏数据处理方法的另一个可选的流程示意图;
图5是本申请实施例提供的仿真测试模型训练方法的一个可选的流程示意图;
图6是本申请实施例提供的游戏数据处理方法的再一个可选的流程示意图;
图7是本申请实施例提供的游戏平衡性测试仿真系统的系统架构图;
图8是本申请实施例提供的仿真测试模型的网络结构示意图;
图9是本申请实施例提供的自动化搜索最优数据比例的调采样方法的算法流程示意图;
图10是本申请实施例提供的调整模型预测频率的实现流程示意图;
图11是本申请实施例提供的延迟执行模型预测指令的实现流程示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,所描述的实施例不应视为对本申请的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。除非另有定义,本申请实施例所使用的所有的技术和科学术语与属于本申请实施例的技术领域的技术人员通常理解的含义相同。本申请实施例所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
在说明本申请实施例的方案之前,首先对本申请实施例涉及的名词进行解释:
(1)MOBA游戏:多人在线竞技游戏,是在游戏过程中需要购买虚拟元素或者虚拟资源,玩家通常被分为两队,两队在分散的虚拟地图中完成预设任务。
(2)游戏平衡性:游戏的平衡性是至关重要的,对游戏的生命周期有着不可忽视的作用,通常游戏设计都是自洽的,体现在两方面:规则简洁优雅和千锤百炼的平衡性。其中,平衡性包括横向平衡性和纵向平衡性。横向平衡性是指策略选择的多样性,表现在游戏的资源、装备等属性配置是否能够给玩家提供丰富的选择,而不是存在最优策略,例如,某多人在线竞技游戏中如果存在一套完美阵容体系,那整个游戏的体验就比较差。纵向平衡性是指除了初始条件,玩家为了赢得本局游戏,是否能有一系列的主动选择和操作,更多关注的是玩家的成长曲线,例如,某多人在线竞技游戏中高段位玩家的操作和策略优势。游戏的平衡性归根结底其实是多样选择性,提供玩家足够丰富的组合选择和多条通往胜利的道路。举例来说,如果玩家在达到50%胜率的过程中,所能使用的虚拟对象越多,就认为游戏环境越健康、平衡。
(3)平衡性测试:是指为了达到游戏平衡,避免部分虚拟对象过强或过弱,要对虚拟对象进行调整,包括数值调整、技能调整、玩法调整等,此时,调整后的虚拟对象的强度评估就是平衡性测试,也就是测试虚拟对象是否依然过强或被削的过弱。
在解释本申请实施例的文本处理方法之前,首先对相关技术中的方法进行说明。相关技术中,在对游戏平衡性进行测试时,常用的方法包括:
方法一:经验预估。基于游戏本身的设计逻辑和游戏策划自身对游戏玩法的理解,结合以往虚拟对象调整效果的经验,来预估新调整的虚拟对象的强弱变化。
方法二:模型预测。设计游戏相关的静态属性特征,收集虚拟对象调整变化的历史数据训练模型,来预测新调整的虚拟对象的指标变化情况。
方法三:体验服测试。体验服是独立于正式服的另一个区服,体验服和正式服的差异是玩家数量少,游戏环境变动的影响范围小。可以先把虚拟对象调整的改动发布到体验服,供玩家试玩,根据小部分玩家的统计指标预估最终的指标变化情况。
但是,相关技术的方案无论是在测试效率还是测试准确率上,都存在一定的缺陷:
对于方法一中经验预估的方法,该方法过于依赖主观判断,可解释性差,难量化;且对历史未出现过的新情况预估可能会存在较大偏差。对于方法二中模型预测的方法,依赖的是历史静态信息,会存在数据集不足和泛化性差的风险;此外,玩家真实场景游戏时,会出现各种各样的情况,很难设计蕴含所有信息的特征去表达,导致对虚拟对象调整预估的准确率较低。对于方法三中体验服测试的方法,虽然借助的是自然人玩家的操控,但体验服的玩家数量较少,能力参差不齐,最终指标和正式服还是会有较大出入;且由于体验服玩家较少,为了保证一定的对局量,测试周期很长,效率低。
基于相关技术中的上述方法和所存在的问题,本申请实施例提供一种游戏数据处理方法,该方法可以通过平衡性测试仿真系统实现,针对以上技术方案存在的缺点,都能合理优化,且取得更好的效果。本申请实施例的技术方案会解决的问题主要包括以下3点:
第一,借助AI技术仿真自然人玩家对虚拟对象的操控,最终平衡性测试仿真系统中,目标虚拟对象的各项指标信息与自然人玩家对局环境中的指标信息接近,预估准确率高。第二,平衡性测试仿真系统可以说是真实环境的复制,目标对象调整的变化预估具有更强的可解释性,指标信息反映也会更客观,且不依赖历史经验和数据,更好的契合动态变化的游戏环境。第三,平衡性测试仿真系统全流程只涉及机器运算,规避了人力测试成本高的问题,小时级就能产生大量对局,大大提升了测试效率。
本申请实施例提供的游戏数据处理方法中,首先,获取当前虚拟场景下的全局地图数据、目标虚拟对象对应的局部地图数据和虚拟元素;然后,根据全局地图数据、局部地图数据和虚拟元素,确定针对目标虚拟对象在当前时刻的指令信息;响应于指令信息对应的操控指令,对目标虚拟对象进行操控,得到目标虚拟对象的指标信息;最后,根据指标信息生成对目标虚拟对象的角色测试结果。如此,能够准确且高效的预测出针对于当前虚拟场景下的目标虚拟对象的操控指令,从而得到准确的指标信息,基于指标信息对目标虚拟对象的平衡性能够进行准确且高效的测试和分析,且由于可以适用于当前虚拟场景下的任意虚拟对象,因此具有高的泛化性。
下面说明本申请实施例的游戏数据处理设备的示例性应用,本申请实施例提供的游戏数据处理设备可以实施为终端,也可以实施为服务器。在一种实现方式中,本申请实施例提供的游戏数据处理设备可以实施为笔记本电脑,平板电脑,台式计算机,移动设备(例如,移动电话,便携式音乐播放器,个人数字助理,专用消息设备,便携式游戏设备)、智能机器人、智能家电、智能手表和车载终端等任意的具备数据处理功能和能够安装游戏应用的终端;在另一种实现方式中,本申请实施例提供的游戏数据处理设备还可以实施为服务器,其中,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(CDN,Content Delivery Network)、以及大数据和人工智能平台等基础云计算服务的云服务器。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请实施例中不做限制。下面,将说明游戏数据处理设备实施为服务器时的示例性应用。
参见图1,图1是本申请实施例提供的游戏数据处理系统10的一个可选的架构示意图,为实现支撑一个游戏应用,并通过运行游戏应用实现对该游戏应用中的当前虚拟场景下的目标虚拟对象进行操作,本申请实施例中的游戏数据处理系统10中至少包括终端100、网络200和服务器300,其中服务器300构成本申请实施例的游戏数据处理设备。其中,终端100通过网络200连接服务器300,网络200可以是广域网或者局域网,又或者是二者的组合。终端100上安装有至少一个虚拟场景应用,虚拟场景应用可以是游戏应用,服务器300可以通过网络200获取终端100上所运行的虚拟场景应用在当前虚拟场景下的全局地图数据、目标虚拟对象对应的局部地图数据和虚拟元素。然后,根据全局地图数据、局部地图数据和虚拟元素,确定针对目标虚拟对象在当前时刻的指令信息;并响应于指令信息对应的操控指令,对目标虚拟对象进行操控,得到目标虚拟对象的指标信息;根据指标信息对目标虚拟对象进行角色分析,得到角色分析结果,也就是根据指标信息生成对目标虚拟对象的角色测试结果。本申请实施例中,服务器通过预测得到指令信息,并基于指令信息对应的操控指令对目标虚拟对象进行操控之后,会得到目标虚拟对象在多局虚拟场景下的指标信息,进而可以根据统计的多个指标信息对目标虚拟对象进行角色分析。
在得到角色测试结果之后,服务器300可以通过网络200将角色测试结果发送给终端100,在终端100上显示角色测试结果,或者,在其他实施例中,还可以根据角色测试结果确定出针对目标虚拟对象的调整策略,实现对目标虚拟对象的调整,从而使得调整后的目标虚拟对象具有更高的游戏平衡性。
本申请实施例所提供的游戏数据处理方法还可以基于云平台并通过云技术来实现,例如,上述服务器300可以是云端服务器,通过云端服务器确定针对目标虚拟对象在当前时刻的指令信息,或者,通过云端服务器对目标虚拟对象进行操控,得到目标虚拟对象的指标信息,或者,还可以通过云端服务器对目标虚拟对象进行角色分析,生成对目标虚拟对象的角色测试结果。在一些实施例,还可以具有云端存储器,可以将当前虚拟场景下的全局地图数据、局部地图数据、虚拟元素存储至云端存储器中,或者可以将确定出的指令信息、角色分析后得到的角色分析结果、角色测试结果等数据存储至云端存储器中。这样,在后续对目标虚拟对象进行再次调整时,可以从云端存储器中直接获取到角色分析结果或角色测试结果等数据,从而能够实现对目标虚拟对象准确和快速的更新调整。
这里需要说明的是,云技术(Cloud technology)是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。云技术基于云计算模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源,如视频网站、图片类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,将来每个物品都有可能存在自己的识别标志,都需要传输到后台系统进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的系统后盾支撑,只能通过云计算来实现。
图2是本申请实施例提供的游戏数据处理设备的结构示意图,图2所示的游戏数据处理设备包括:至少一个处理器310、存储器350、至少一个网络接口320和用户接口330。游戏数据处理设备中的各个组件通过总线系统340耦合在一起。可理解,总线系统340用于实现这些组件之间的连接通信。总线系统340除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图2中将各种总线都标为总线系统340。
处理器310可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(DSP,Digital Signal Processor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。
用户接口330包括使得能够呈现媒体内容的一个或多个输出装置331,包括一个或多个扬声器和/或一个或多个视觉显示屏。用户接口330还包括一个或多个输入装置332,包括有助于用户输入的用户接口部件,比如键盘、鼠标、麦克风、触屏显示屏、摄像头、其他输入按钮和控件。
存储器350可以是可移除的,不可移除的或其组合。示例性的硬件设备包括固态存储器,硬盘驱动器,光盘驱动器等。存储器350可选地包括在物理位置上远离处理器310的一个或多个存储设备。存储器350包括易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。非易失性存储器可以是只读存储器(ROM,Read Only Memory),易失性存储器可以是随机存取存储器(RAM,Random Access Memory)。本申请实施例描述的存储器350旨在包括任意适合类型的存储器。在一些实施例中,存储器350能够存储数据以支持各种操作,这些数据的示例包括程序、模块和数据结构或者其子集或超集,下面示例性说明。
操作系统351,包括用于处理各种基本系统服务和执行硬件相关任务的系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务;
网络通信模块352,用于经由一个或多个(有线或无线)网络接口320到达其他计算设备,示例性的网络接口320包括:蓝牙、无线相容性认证(WiFi)、和通用串行总线(USB,Universal Serial Bus)等;
输入处理模块353,用于对一个或多个来自一个或多个输入装置332之一的一个或多个用户输入或互动进行检测以及翻译所检测的输入或互动。
在一些实施例中,本申请实施例提供的装置可采用软件方式实现,图2示出了存储在存储器350中的一种游戏数据处理装置354,该游戏数据处理装置354可以是游戏数据处理设备中的游戏数据处理装置,其可以是程序和插件等形式的软件,包括以下软件模块:获取模块3541、确定模块3542、操控模块3543和测试模块3544,这些模块是逻辑上的,因此根据所实现的功能可以进行任意的组合或进一步拆分。将在下文中说明各个模块的功能。
在另一些实施例中,本申请实施例提供的装置可以采用硬件方式实现,作为示例,本申请实施例提供的装置可以是采用硬件译码处理器形式的处理器,其被编程以执行本申请实施例提供的游戏数据处理方法,例如,硬件译码处理器形式的处理器可以采用一个或多个应用专用集成电路(ASIC,Application Specific Integrated Circuit)、DSP、可编程逻辑器件(PLD,Programmable Logic Device)、复杂可编程逻辑器件(CPLD,ComplexProgrammable Logic Device)、现场可编程门阵列(FPGA,Field-Programmable GateArray)或其他电子元件。
下面将结合本申请实施例提供的游戏数据处理设备的示例性应用和实施,说明本申请实施例提供的游戏数据处理方法,其中,该游戏数据处理设备可以是任意一种具备数据处理功能和能够安装游戏应用的终端,或者也可以是服务器,即本申请实施例的游戏数据处理方法可以通过终端来执行,也可以通过服务器来执行,或者还可以通过终端与服务器进行交互来执行。
参见图3,图3是本申请实施例提供的游戏数据处理方法的一个可选的流程示意图,下面将结合图3示出的步骤进行说明,需要说明的是,图3中的游戏数据处理方法是通过服务器作为执行主体来实现的。
步骤S301,获取当前虚拟场景下的全局地图数据、目标虚拟对象对应的局部地图数据和虚拟元素。
本申请实施例中,服务器可以获取终端上的全局地图数据、目标虚拟对象对应的局部地图数据和虚拟元素,其中,终端上安装有至少一个虚拟场景应用,虚拟场景应用可以是游戏应用,或者,在实现本申请实施例的游戏数据处理方法时,可以无需终端运行虚拟场景应用,服务器在后台运行虚拟场景应用,并获取当前虚拟场景下的全局地图数据、目标虚拟对象对应的局部地图数据和虚拟元素。
当前虚拟场景可以是当前运行的游戏应用中的游戏视频的任一视频帧,在当前虚拟场景下,具有全局地图数据和局部地图数据,其中,全局地图数据是游戏视频的全局地图图像,局部地图数据是目标虚拟对象当前视野范围内的局部地图图像。本申请实施例中,还可以获取当前虚拟场景下的虚拟元素,虚拟元素可以是针对于当前虚拟场景设置的任意一种数据,例如,全部虚拟对象的对局强度、血量、移速、攻速、位置、技能、装备等属性特征;全部第一类附属虚拟对象(例如可以是游戏场景下的野怪等)的对局强度、血量、位置等属性特征;全部塔水晶的对局强度、血量、位置等特征;全部第二类附属虚拟对象(例如可以是游戏场景下的兵线等)的对局强度、血量、位置等特征;主虚拟对象与视野范围内友方虚拟对象的相对位置;主虚拟对象与视野范围内对方虚拟对象的相对位置;主虚拟对象与视野范围内兵野塔的相对位置。
本申请实施例中,目标虚拟对象可以是针对于当前虚拟对象池中已有虚拟对象进行角色调整或者功能调整后的虚拟对象,也可以是当前虚拟对象池中不存在的新的虚拟对象。
步骤S302,根据全局地图数据、局部地图数据和虚拟元素,确定针对目标虚拟对象在当前时刻的指令信息。
本申请实施例中,可以基于全局地图数据、局部地图数据和虚拟元素进行运算处理,得到针对目标虚拟对象在当前时刻的指令信息。其中,指令信息是用于控制目标虚拟对象在当前时刻执行特定操作的信息,指令信息中包括至少一个操控指令,例如,操控指令可以是移动、普攻、技能1、技能2、技能3、技能4、召唤师技能、回城、主动装备、友方虚拟对象的交互技能等。
步骤S303,响应于指令信息对应的操控指令,对目标虚拟对象进行操控,得到目标虚拟对象的指标信息。
本申请实施例中,在确定出指令信息之后,响应于指令信息对应的至少一个操控指令,对目标虚拟对象进行操控。在一些实施例中,在得到指令信息之后,对指令信息进行解析得到多个操作指令,还可以对多个操作指令进行筛选,筛选出适用于当前虚拟场景的目标操作指令,从而响应于目标操控指令,对目标虚拟对象进行操控,得到目标虚拟对象的指标信息。
目标虚拟对象的指标信息是指目标虚拟对象在执行操作指令后的属性变化值,例如,目标虚拟对象的指标信息包括但不限于以下至少之一:目标虚拟对象的胜率、KDA、场均评分、MVP率、热点分布、微操分布、对局经济、对局输出、对局承伤、技能释放次数、技能命中率、技能伤害等。
步骤S304,根据指标信息生成对目标虚拟对象的角色测试结果。
这里,可以分析目标虚拟对象在执行操控指令前后的指标信息的变化情况,得到针对于目标虚拟对象在本局对局中的指标变化,将指标变化确定为目标虚拟对象的角色分析结果,这里,对目标虚拟对象进行角色分析可以是对目标虚拟对象的平衡性进行测试。例如,可以是对目标虚拟对象的游戏平衡性进行分析,所得到的角色分析结果即目标虚拟对象的角色测试结果。
本申请实施例提供的游戏数据处理方法,根据当前虚拟场景下的全局地图数据、局部地图数据和虚拟元素,确定针对当前虚拟场景中的目标虚拟对象在当前时刻的指令信息;并响应于指令信息对应的操控指令,对目标虚拟对象进行操控,得到目标虚拟对象的指标信息。如此,能够准确且高效的预测出针对于当前虚拟场景下的目标虚拟对象的操控指令,从而得到准确的指标信息,基于指标信息对目标虚拟对象的平衡性能够进行准确且高效的测试和分析,且由于可以适用于当前虚拟场景下的任意虚拟对象,因此具有高的泛化性。
图4是本申请实施例提供的游戏数据处理方法的另一个可选的流程示意图,如图4所示,方法包括以下步骤:
步骤S401,终端获取针对当前虚拟场景所设置的场景参数和对局总数。
这里,场景参数和对局总数可以是人工设置的,也可以是系统预设的,在运行游戏应用实现目标虚拟对象与其他虚拟对象进行对局之前,即可设置好场景参数和对局总数。
场景参数是与本次虚拟场景相关的场景参数,包括但不限于:游戏版本、虚拟对象属性、虚拟对象分路、虚拟对象出场率、阵容搭配等。总对局数是指目标虚拟对象与其他虚拟对象的对局总次数,在目标虚拟对象与其他虚拟对象对局时,次数不超过对局总数。
步骤S402,终端运行游戏应用,根据场景参数确定出对应的当前虚拟场景并进入当前虚拟场景。
这里,终端根据预先设置的游戏版本、虚拟对象属性、虚拟对象分路、虚拟对象出场率、阵容搭配等场景参数运动游戏应用,进入当前虚拟场景。
步骤S403,终端在当前界面上显示游戏应用的客户端界面。
其中,客户端界面上包括当前虚拟场景下的每一视频帧对应的全局地图数据和局部地图数据。
在其他实施例中,步骤S401至步骤S403也可以由服务器来实现,也就是说,可以无需在终端上运行并显示游戏的当前画面,服务器在后台直接运行游戏应用就可以实现本申请实施例的游戏数据处理方法,完成对目标虚拟对象的游戏平衡性的分析。
步骤S404,终端获取针对当前虚拟场景下每一视频帧的虚拟元素。
这里,当前虚拟场景是游戏的实时画面场景,游戏的实时画面由多帧视频帧构成,可以获取每一视频帧对应的虚拟元素。
在一些实施例中,每一视频帧对应的虚拟元素可以相同,也可以不同。
步骤S405,终端将全局地图数据、局部地图数据、对局总数和虚拟元素发送给服务器。
步骤S406,服务器判断当前虚拟场景中执行预设任务的对局次数是否达到总数。
如果判断结果为是,则执行步骤S407;如果判断结果为否,则执行步骤S408。
步骤S407,服务器停止获取全局地图数据、局部地图数据和虚拟元素。
步骤S408,服务器对全局地图数据和局部地图数据进行卷积处理,得到卷积处理结果。
这里,可以采用卷积神经网络(CNN,Convolutional Neural Networks)对全局地图数据和局部地图数据进行卷积处理,得到卷积处理结果。其中,对全局地图数据和局部地图数据进行卷积处理,是指对全局地图数据对应的全局地图向量和局部地图数据对应的局部地图向量进行卷积运算。
举例来说,卷积神经网络可以对全局地图数据和局部地图数据进行4层卷积运算,得到卷积处理结果。
步骤S409,服务器对虚拟元素进行第一前馈网络处理,得到前馈处理结果。
这里,可以采用第一前馈神经网络对虚拟元素进行第一前馈网络处理,得到前馈处理结果。其中,对虚拟元素进行第一前馈网络处理,是指对虚拟元素对应的虚拟元素向量进行第一前馈网络运算。
举例来说,第一前馈神经网络可以对虚拟元素进行3层前馈神经网络运算,得到前馈处理结果。
步骤S410,服务器根据卷积处理结果和前馈处理结果,确定出针对目标虚拟对象在当前时刻的指令信息。
在一些实施例中,卷积处理结果中包括卷积向量,前馈处理结果中包括前馈运算向量;对应地,步骤S410可以通过以下步骤实现:
步骤S4101,服务器对卷积向量和前馈运算向量进行拼接,形成拼接向量。
这里,对卷积向量和前馈运算向量进行拼接可以是将卷积向量和前馈运算向量连接成一个向量,即拼接向量。
步骤S4102,服务器对拼接向量进行第二前馈网络处理,得到针对目标虚拟对象在当前时刻的指令信息。
这里,可以采用第二前馈神经网络对拼接向量进行第二前馈网络处理,得到针对目标虚拟对象在当前时刻的指令信息。本申请实施例中,第二前馈神经网络与第一前馈神经网络的结构可以相同也可以不同。
举例来说,第二前馈神经网络可以对拼接向量进行4层前馈神经网络运算,得到针对目标虚拟对象在当前时刻的指令信息。
步骤S411,服务器响应于指令信息对应的操控指令,对目标虚拟对象进行操控,得到目标虚拟对象的指标信息。
步骤S412,服务器根据指标信息生成对目标虚拟对象的角色测试结果。
在一些实施例中,指标信息包括:在完成当前虚拟场景下的预设任务后,目标虚拟对象对应的结束指标信息。对应地,步骤S412可以通过以下步骤实现:
步骤S4121,获取未对目标虚拟对象进行操控时的初始指标信息。
这里,初始指标信息是目标虚拟对象在响应指令信息对应的操控指令之前的指标信息,或者,初始指标信息是目标虚拟对象在开始运行游戏应用时的指标信息。
步骤S4122,根据结束指标信息和初始指标信息,确定目标虚拟对象的指标变化信息。
这里,可以计算结束指标信息和初始指标信息之间的差值,将差值确定为目标虚拟对象的指标变化信息。
步骤S4123,采用指标变化信息对目标虚拟对象进行平衡性分析,得到平衡性分析结果。
步骤S4124,将平衡性分析结果确定为针对目标虚拟对象的角色测试结果。
本申请实施例提供的游戏数据处理方法,通过对全局地图数据、局部地图数据和虚拟元素进行卷积处理和前馈网络处理,得到能够更加拟人的操控指令,并基于该操控指令对目标虚拟对象进行操控,得到准确的指标信息。如此,结合人工智能技术,能够准确的分析目标虚拟对象的游戏平衡性。
在一些实施例中,上述确定针对目标虚拟对象在当前时刻的指令信息的步骤,还可以采用预先训练的仿真测试模型,根据全局地图数据、局部地图数据和虚拟元素,确定针对目标虚拟对象在当前时刻的指令信息。
下面对仿真测试模型的训练过程进行说明。
图5是本申请实施例提供的仿真测试模型训练方法的一个可选的流程示意图,如图5所示,方法包括以下步骤:
步骤S501,将样本数据输入至仿真测试模型中。
步骤S502,通过仿真测试模型中的卷积神经网络和前馈神经网络对样本数据进行数据处理,得到针对目标训练对象在当前时刻的样本指令信息。
在一些实施例中,样本数据包括全局样本数据、局部样本数据和样本虚拟元素;对应地,步骤S502可以通过以下步骤实现:
步骤S5021,通过卷积神经网络对全局样本数据和局部样本数据进行卷积处理,得到样本卷积向量。
这里,对全局样本数据和局部样本数据进行卷积处理,是指对全局样本数据对应的全局地图向量和局部样本数据对应的局部地图向量进行卷积运算。
步骤S5022,通过前馈神经网络对样本虚拟元素进行第三前馈网络处理,得到样本前馈运算向量。
这里,可以采用第三前馈神经网络对样本虚拟元素进行第三前馈网络处理,得到样本前馈运算向量。其中,对样本虚拟元素进行第三前馈网络处理,是指对样本虚拟元素对应的虚拟元素向量进行第三前馈网络运算。本申请实施例中,第三前馈神经网络的结构与第一前馈神经网络的结构相同。
步骤S5023,对样本卷积向量和样本前馈运算向量进行拼接,得到样本拼接向量。
步骤S5024,对样本拼接向量进行第四前馈网络处理,得到针对目标训练对象在当前时刻的样本指令信息。
这里,可以采用第四前馈神经网络对样本拼接向量进行第二前馈网络处理,得到针对目标训练对象在当前时刻的样本指令信息。本申请实施例中,第四前馈神经网络与第二前馈神经网络的结构相同。
步骤S503,将样本指令信息输入至预设损失模型中,得到损失结果。
本申请实施例中,为了实现对局表现拟人,例如,对局表现拟人可以包括微操分布、技能释放次数和自然人玩家接近,由于监督学习的特性,归结到仿真测试模型的训练过程就是优化数据采样,即通过调整不同指令的训练数据比例,使仿真测试模型预测的指令分布与自然人玩家近似。本申请实施例中,在优化数据采样时,可以通过预设损失模型进行损失计算,进而逐渐调整不同指令数据的采样比例,使得最终的采样比例对应的指令分布与自然人玩家更加接近。
本申请实施例中,通过预设损失模型进行损失计算,进而逐渐调整不同指令数据的采样比例的过程,也就是步骤S503,可以通过以下步骤实现:
步骤S5031,统计针对目标训练对象的实际操作指令的实际数量。
步骤S5032,统计样本指令信息对应的样本操控指令的样本预测数量。
步骤S5033,采用预先定义的损失函数,确定实际数量与样本预测数量的绝对差值。
这里,绝对差值是指实际数量与样本预测数量求差值之后,对差值计算绝对值后所得到的数值。
步骤S5034,根据绝对差值确定损失结果。
这里,可以根据绝对差值,确定样本数据中不同指令数据对应的样本采样比例的调整量;然后根据调整量调整当前样本数据的样本采样比例,得到调整后的样本采样比例;其中,调整后的样本采样比例即为损失结果。
举例来说,指令数据可以包括静止、移动、普攻、技能1、技能2、技能3、技能4、召唤师技能、回复技能、回城,不同指令数据的采样比例就是这些指令数据的占比,例如总共需要10000帧数据用于训练,每帧数据对应一条指令,移动指令的数据占比50%,普攻指令的数据占比30%,等等,按照这样的比例进行采样。
本申请实施例中,可以统计自然人操作一个虚拟对象时下发指令(例如,普攻、技能1、技能2、技能3、技能4)的次数、统计仿真测试模型操作相同虚拟对象时下发上述五个指令的次数,对采样得到的次数分别做差,然后求绝对值,对绝对值求和,所得到的数值越小,说明仿真测试模型下发每种指令的次数与自然人玩家越接近。
步骤S504,根据损失结果,对仿真测试模型进行优化处理,得到训练后的仿真测试模型。
本申请实施例中,对仿真测试模型进行优化处理可以通过以下方式实现:采样调整后的样本采样比例,从预设的样本数据库中获取目标样本数据;然后采用目标样本数据对仿真测试模型进行再次训练。
图6是本申请实施例提供的游戏数据处理方法的再一个可选的流程示意图,如图6所示,方法包括以下步骤:
步骤S601,获取当前虚拟场景下的当前视频帧和当前视频帧对应的虚拟元素。
本申请实施例中,当前视频帧中包括全局地图数据、目标虚拟对象对应的局部地图数据。在局部地图数据和全局地图数据对应的虚拟场景视频中,每隔N帧视频帧对应一帧预测帧。N为大于等于1的正整数。
这里,预测帧是指用于预测目标虚拟对象的指标信息的视频帧,也就是说,会基于预测帧的全局地图数据、局部地图数据和虚拟元素预测针对目标虚拟对象的指标信息。
本申请实施例中,考虑到仿真测试模型运算耗时很短,但自然人玩家针对当前虚拟场景进行决策、并下发指令会存在一定反应延迟,且不同玩家反应时间也会存在差异。为了让仿真测试模型预测时能够仿真自然人决策频率和反应速度,本申请实施例引入调整模型预测频率和延迟执行模型预测指令的方法,下面对这两种方法的步骤进行说明。
在调整模型预测频率时,包括以下以下步骤:
步骤S602,判断当前时刻的当前视频帧是否是预测帧。
如果判断结果为是,则执行步骤S603;如果判断结果为否,则执行步骤S604。
步骤S603,根据当前视频帧对应的全局地图数据、局部地图数据和虚拟元素,确定针对目标虚拟对象在当前时刻的指令信息。也就是说,当当前时刻的当前视频帧是预测帧时,根据当前视频帧和虚拟元素,确定针对目标虚拟对象在当前时刻的当前指令信息。
步骤S604,获取当前时刻之前且距离当前时刻最近的预测帧和基于预测帧得到的历史指令信息。其中,历史指令信息是指当前时刻之前且距离当前时刻最近的预测帧对应的指令信息。
在一些实施例中,当预测出的针对目标虚拟对象的指标信息对应有多个操控指令时,还对应预测出每一操控指令的概率值。
步骤S605,将历史指令信息确定为当前时刻的当前指令信息。
本申请实施例中,使用前一预测帧模型的结果,例如,基于上一预测帧预测的指令信息为释放技能1概率最高、移动次之、其它指令的概率更小。如果当前帧不是预测帧,则依然使用上一预测帧的预测结果(技能1概率最高,移动次之、其它指令概率更小)。在一些实施例中,还可以选择可执行的预测概率最高的指令进行操作,也就是说,由于上一预测帧预测的技能1已经执行了,当前视频帧时,技能1在冷却,所以此时即使技能1概率最高也不选,而是选概率第二的移动作为当前帧的操作指令。当然,如果概率第二的移动也已经在之前的视频帧中操作过,则可以选择概率更小的其它指令。
在一些实施例中,当当前时刻的当前视频帧不是预测帧时,方法还可以包括以下步骤:
步骤S606,确定历史指令信息对应的多个操控指令、和每一操作指令在当前时刻的当前状态。
步骤S607,获取每一操作指令的预测概率值。
步骤S608,将具有最高预测概率值、且当前状态属于可执行状态的操控指令,确定为目标操控指令。
步骤S609,响应于目标操控指令,对当前视频帧中的目标虚拟对象进行操控,得到目标虚拟对象的指标信息。
在延迟执行模型预测指令时,也就是在得到当前时刻的当前指令信息之后,方法还可以包括以下步骤:
步骤S610,判断当前指令信息对应的操作指令是否为技能指令。
如果判断结果为是,则执行步骤S611;如果判断结果为否,则执行步骤S615。
步骤S611,获取当前视频帧之前的M帧视频帧的历史指令信息对应的历史技能指令。M为大于等于1的正整数。
步骤S612,判断当前指令信息对应的技能指令是否与M帧视频帧的历史技能指令相同。
如果判断结果为是,则执行步骤S613;如果判断结果为否,则执行步骤S614。
步骤S613,响应于技能指令,对当前视频帧中的目标虚拟对象进行操控,得到目标虚拟对象的指标信息。
步骤S614,清空当前指令信息。
这里,清空当前指令信息可以是将当前视频帧的预测结果置为空指令。
本申请实施例中,仿真测试模型在某一帧预测要释放技能1,由于设定了要延迟执行,不会立马返回执行技能1指令,根据当前的局面,仿真测试模型在下一帧还是会预测技能1,当模型连续N帧预测技能1时,再执行指令,相比第一次预测技能1,起到了延迟执行技能1指令的效果,同时,在第N帧之前都要改为空指令返回。当模型过了几帧之后不再预测技能1时,说明根据当前局面,执行技能1指令已不是较优解了,所以指令可能是延迟执行,也可能是由于延迟导致不执行。
步骤S615,直接返回预测的技能指令
步骤S616,根据指标信息生成对目标虚拟对象的角色测试结果。
本申请实施例提供的游戏数据处理方法,通过调整模型预测频率和延迟执行模型预测指令,使得模型进行决策、并下发指令时会更加仿真自然人决策频率和反应速度,从而能够得到更贴合自然人玩家的指标信息。
下面,将说明本申请实施例在一个实际的应用场景中的示例性应用。本申请实施例提供一种游戏数据处理方法,该方法是一种用AI代替自然人玩家,在一套封闭的仿真测试系统中快速产生大量对局,进而评估目标虚拟对象调整前后的强弱变化趋势和程度。具体地,分为以下三点:
1)基于深度学习的技术训练仿真测试模型代替自然人玩家操控目标虚拟对象,且足够拟人。主要包括策略拟人和对局表现拟人,例如,AI操控目标虚拟对象的能力和胜率与自然人玩家近似、出装玩法具有多风格、大局观,目标虚拟对象热点分布接近自然人玩家等。
2)搭建封闭的AI系统仿真自然人玩家对局环境,包括目标虚拟对象版本、目标虚拟对象调整的配置文件、目标虚拟对象出场率、阵容搭配等。
3)统计分析AI目标虚拟对象的对局指标,来评估目标虚拟对象调整的变化趋势和程度,其中,调整后关注的指标包括:目标虚拟对象的胜率、KDA、经济输出承伤、微操热点分布等。
图7是本申请实施例提供的游戏平衡性测试仿真系统(即仿真测试系统,该系统中包括仿真测试模型)的系统架构图,如图7所示,该游戏平衡性测试仿真系统70的输入是任务设置模块71,其中,任务设置模块71包括基础设置711、游戏内核设置712和虚拟对象池设置713。对于基础设置711,包括但不限于:对局数、超时、AI服务器版本;对于游戏内核设置712,包括但不限于:游戏版本、虚拟对象的数值属性;对于虚拟对象池设置713,包括但不限于:虚拟对象的分路和虚拟对象的出场率。系统内部包括对局模拟模块72和指标分析模块73。其中,对局模拟模块72包括基础组件721和AI虚拟对象722(即目标虚拟对象),对于基础组件721,包括但不限于:资源管理、任务部署、对局工具和统计工具;对于AI虚拟对象722,包括但不限于:能力均衡、出装策略多样、多风格玩法(这里,多风格玩法是指针对AI虚拟对象722,可以采用不同的虚拟对象风格进行操控,例如,可以操控AI虚拟对象在主操作区对局,也可以操控AI虚拟对象在辅助操作区对局等)、大局观拟人(这里,大局观拟人是指从整场游戏的对局操作过程来看,操作更加拟人,例如,当AI虚拟对象属于某一队时,这一队整体的对局操作过程更加拟人)、微操分布拟人、技能释放拟人。指标分析模块73包括关注的虚拟对象指标731和分析工具732,对于关注虚拟对象指标731,包括但不限于:胜率、KDA、热点分布、经济输出承伤、场均评分、MVP率、微操分布和技能释放表现;对于分析工具732,包括但不限于:指标筛选、版本对比、录像回放和异常监测。
总的来说,本申请实施例中,游戏平衡性测试仿真系统输入是设置游戏版本、虚拟对象属性、虚拟对象分路、虚拟对象出场率、阵容搭配、总对局数等参数;然后自动开启AI自对弈,完成所有对局后,统计分析虚拟对象的指标变化,预估虚拟对象的调整效果。
本申请实施例是用自然人玩家的对局数据,训练神经网络模型,得到仿真测试模型,然后用仿真测试模型代替自然人玩家进行对局,快速产生大量统计指标,进而评估虚拟对象调整的变化趋势和程度。
下面以某MOBA游戏为例来说,使用的自然人玩家数据是对局录像回放文件,解析回放文件中每个游戏帧的画面信息,且以一个玩家的虚拟对象作为主虚拟对象,抽取输入特征,主要包括三部分:全局地图特征(即全局地图数据)、局部地图特征(即局部地图数据)和游戏元素特征(虚拟元素)。
其中,全局地图特征是指游戏画面左上角小地图中可见虚拟对象的位置、野怪位置、塔和水晶的位置、兵线位置。局部地图特征是指主虚拟对象视野范围内的所有技能释放,主虚拟对象视野范围内的所有技能效果渲染。游戏元素特征是指全部虚拟对象的攻击力、血量、移速、攻速、位置、技能、装备等属性特征;全部野怪的攻击力、血量、位置等属性特征;全部塔水晶的攻击力、血量、位置等特征;全部兵线的攻击力、血量、位置等特征;主虚拟对象与视野范围内友方虚拟对象的相对位置;主虚拟对象与视野范围内对方虚拟对象的相对位置;主虚拟对象与视野范围内兵野塔的相对位置。
图8是本申请实施例提供的仿真测试模型的网络结构示意图,如图8所述,全局地图特征81、局部地图特征82、游戏元素特征83,输入到仿真测试模型中,全局地图特征81和局部地图特征82分别经过4层卷积运算84(即进行卷积处理),游戏元素特征83经过3层前馈神经网络运算85(即进行前馈网络处理),卷积运算得到的向量和前馈神经网络运算得到的向量进行拼接,再经过4层前馈神经网络运算86得到运算结果,并将运算结果经全连接层FC处理后传输到输出层,用于解析预测的指令。
仿真测试模型的输出层预测的是主虚拟对象的执行指令,分别包括虚拟对象的位置、虚拟对象的指令、移动方向、普攻目标、技能方向、技能位置、技能目标7项。其中,虚拟对象位置预测的是虚拟对象下一秒所处的位置,虚拟对象指令预测的是虚拟对象要执行的指令(例如,移动、普攻、技能1、技能2、技能3、技能4、召唤师技能、回城、主动装备、友方虚拟对象的交互技能),移动方向预测的是执行移动指令时的方向,普攻目标预测的是执行普攻指令时要对应的目标,技能方向预测的是执行方向型技能指令时的释放方向,技能位置预测的是执行位置型技能指令时的释放位置,技能目标预测的是执行目标型技能指令时的释放目标。
本申请实施例中,仿真测试模型在实际训练时,将游戏画面的每帧信息作为一条样本,抽取画面信息作为输入特征,抽取自然人玩家下发的指令作为真实值用于损失函数的计算。此外,选择不同段位的对局评分超过10分的虚拟对象数据作为训练集,以尽可能保证玩家下发指令的正确性,避免引入过多噪声。仿真测试模型训练采用交叉熵损失函数,效果评估是计算仿真测试模型预测指令的准确率。
本申请实施例中的仿真测试模型,在实际应用于仿真系统的AI虚拟对象中时,会着重关注拟人化,包括对局表现拟人和策略拟人,因为只有AI虚拟对象的表现和自然人玩家足够接近,仿真测试系统输出的指标才会准确。
下面对本申请实施例的对局表现拟人和策略拟人的实现过程进行说明。
对局表现拟人包括微操分布、技能释放次数和自然人玩家接近,由于监督学习的特性,归结到仿真测试模型训练就是优化数据采样,即通过调整不同指令的训练数据比例,使模型预测的指令分布与自然人玩家近似。本申请实施例提出一种自动化搜索最优数据比例的调采样方法,图9是本申请实施例提供的自动化搜索最优数据比例的调采样方法的算法流程示意图,如图9所示,算法包括以下步骤:
步骤S901,定义损失函数。
这里,可以定义如以下公式(1)的损失函数:
Score=∑x∈A|x-x*| (1);
其中,A=[普攻,技能1/2/3/4];x表示AI虚拟对象释放次数;x*表示自然人玩家释放次数。
Score是指统计自然人操作一个虚拟对象时下发指令(普攻、技能1、技能2、技能3、技能4)的次数、统计仿真测试模型操作相同虚拟对象时下发上述五个指令的次数,然后将对应每一指令统计出的次数分别做差的绝对值,再求和,即为Score。Score值越小,说明仿真测试模型下发每种指令的次数与自然人玩家越接近。
步骤S902,定义映射关系P:不同指令数据的采样比例→Score,并初始化概率模型M。
步骤S903,用初始采样比例训练仿真测试模型进行虚拟对象对局,统计AI虚拟对象的对局指标,计算Score值加入P。
步骤S904,用映射关系P更新概率模型M,使概率模型更加接近映射关系P的分布。
步骤S905,用概率模型M估计可以获得更小Score值的采样比例。
步骤S906,用概率模型M估计的采样比例重新训练AI虚拟对象进行对局,并统计对局指标,计算Score值加入P。
重复步骤S904至步骤S906,直到达到最大迭代次数或时间。
本申请实施例中,对于不同指令数据的采样比例,其中,指令包括静止、移动、普攻、技能1、技能2、技能3、技能4、召唤师技能、回复技能、回城等指令数据,不同指令数据的采样比例就是上述指令数据的占比,例如总共需要10000帧数据用于训练,每帧数据对应一条指令,移动指令的数据占比50%,普攻指令的数据占比30%,按照这样的比例进行采样。
在一些实施例中,考虑到仿真测试模型运算耗时很短,但自然人玩家针对当前局面进行决策、并下发指令会存在一定反应延迟,且不同玩家反应时间也会存在差异。为了让仿真测试模型的预测结果更加仿真自然人决策频率和反应速度,本申请实施例引入调整模型预测频率和延迟执行模型预测指令两种方法,进一步优化了AI虚拟对象的对局表现拟人。
图10是本申请实施例提供的调整模型预测频率的实现流程示意图,如图10所示,包括以下步骤:
步骤S101,仿真测试模型在每N帧视频帧预测一次指令信息。
步骤S102,判断当前视频帧是否为预测帧。
如果判断结果为是,则执行步骤S103;如果判断结果为否,则执行步骤S105。
步骤S103,进行特征抽取,采用仿真测试模型进行预测。
步骤S104,使用当前预测帧预测的结果作为模型预测结果。
步骤S105,不进行特征抽取,且不采用仿真测试模型进行预测。
步骤S106,使用上一视频帧预测的结果作为模型预测结果。
本申请实施例中,使用上一预测帧的模型预测结果,例如对于上一预测帧,仿真测试模型的预测释放技能1概率最高、移动次之、其它指令的概率更小。如果当前帧不是预测帧,依然使用上一次预测结果(技能1概率最高、移动次之、其它指令概率更小),则可以是选择可执行的模型预测概率最高的指令进行操作,由于在上一视频帧时技能1已经执行了,当前帧时技能1在冷却,所以即使技能1概率最高也不选,而是选概率第二的移动作为当前帧的操作指令。在一些实施例中,如果上一预测帧预测出的概率最高的指令在当前帧时依然可执行,则可以继续选择概率最高的指令来执行。
图11是本申请实施例提供的延迟执行模型预测指令的实现流程示意图,如图11所示,包括以下步骤:
步骤S111,获取当前视频帧的模型预测结果。
步骤S112,判断模型预测结果是否为技能。
如果判断结果为否,则执行步骤S113;如果判断结果为是,则执行步骤S114。
步骤S113,直接返回模型预测结果。
步骤S114,判断前N帧的模型预测结果是否相同。
如果判断结果为是,则执行步骤S115;如果判断结果为否,则执行步骤S116。
步骤S115,直接返回模型预测结果。
步骤S116,模型预测结果修改为空指令并返回。
本申请实施例中,假设仿真测试模型某一帧预测要释放技能1,由于设定了要延迟执行,不会立即返回执行技能1指令,根据当前的局面,仿真测试模型下一帧还是会预测到技能1,当仿真测试模型连续N帧预测技能1时,再执行技能1对应的指令,这样,相比第一次预测技能1,起到了延迟执行技能1的指令的效果,并且在第N帧之前模型预测结果都要改为空指令返回。当模型过了几帧不再预测技能1时,说明根据当前局面,执行技能1指令不是较优解了,所以指令可能是延迟执行,也可能是由于延迟导致不执行。
本申请实施例中,策略拟人主要包括虚拟对象出装、虚拟对象多分路多风格打法。其中,出装拟人是通过统计自然人玩家出装,并按照自然人玩家的出装概率来给AI虚拟对象选择出装策略;多分路多风格打法拟人是用不同风格打法的自然人玩家数据训练多个模型,按出场概率选择风格模型来预测AI虚拟对象的操作。
上述介绍的AI虚拟对象是整个仿真系统的核心模块,任务设置模块是根据测试需求设置游戏环境和对局总数,指标分析模块是统计虚拟对象调整前后的指标变化情况,进而评估调整的可行性和潜在风险。也就是说,仿真测试系统包括任务设置模块、对局模拟模块、指标分析模块三部分,其中对局模拟模块中用的是AI虚拟对象代替自然人玩家进行对局。
本申请实施例的方案不同于传统的游戏平衡性测试方法,借助AI技术搭建模拟自然人玩家对局的仿真测试系统,虚拟对象调整或游戏环境改变时,通过观测仿真测试系统的变化,来预估真实场景的变化。所产生的有益效果包括:提升评估准确率和可靠性,降低经验预估存在的主观性误差风险,且能主动发现游戏环境变化引发的异常。相比体验服至少两周的测试时长,本申请实施例小时级就可以输出测试结果,大大缩短测试周期,提升游戏研发效率。
需要说明的是,本申请实施例方案中的AI虚拟对象采用监督学习的方式训练仿真测试模型,仿真测试模型的结构可以为CNN与多层感知机的混合网络。当然,本申请实施例并不限定AI虚拟对象的训练方式和模型结构。训练方式可以替换为强化学习,模型结构可以替换为CNN、LSTM、Transformer等其它神经网络结构。此外,可以根据实际应用时的资源量和对准确率的要求,拓展或简化模型结构。本申请实施例方案采用AI自对弈的方式进行游戏平衡性测试,当然,本申请实施例的游戏对局方式也可以是AI与自然人玩家对局。
可以理解的是,在本申请实施例中,涉及到用户信息的内容,例如,用户在进入当前虚拟场景下时的全局地图数据、局部地图数据和虚拟元素、用户的指令信息、操控指令等数据,当本申请实施例运用到具体产品或技术中时,需要获得用户许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
下面继续说明本申请实施例提供的游戏数据处理装置354实施为软件模块的示例性结构,在一些实施例中,如图2所示,游戏数据处理装置354包括:
获取模块3541,用于获取当前虚拟场景下的全局地图数据、目标虚拟对象对应的局部地图数据和虚拟元素;
确定模块3542,用于根据所述全局地图数据、所述局部地图数据和所述虚拟元素,确定针对所述目标虚拟对象在当前时刻的指令信息;
操控模块3543,用于响应于所述指令信息对应的操控指令,对所述目标虚拟对象进行操控,得到所述目标虚拟对象的指标信息;
测试模块3544,用于根据所述指标信息生成对所述目标虚拟对象的角色测试结果。
在一些实施例中,所述确定模块还用于:对所述全局地图数据和所述局部地图数据进行卷积处理,得到卷积处理结果;对所述虚拟元素进行第一前馈网络处理,得到前馈处理结果;根据所述卷积处理结果和所述前馈处理结果,确定出针对所述目标虚拟对象在当前时刻的指令信息。
在一些实施例中,所述卷积处理结果中包括卷积向量,所述前馈处理结果中包括前馈运算向量;所述确定模块还用于:对所述卷积向量和所述前馈运算向量进行拼接,形成拼接向量;对所述拼接向量进行第二前馈网络处理,得到针对所述目标虚拟对象在当前时刻的指令信息。
在一些实施例中,所述指标信息包括:在完成所述当前虚拟场景下的预设任务后,所述目标虚拟对象对应的结束指标信息;所述测试模块还用于:获取未对所述目标虚拟对象进行操控时的初始指标信息;根据所述结束指标信息和所述初始指标信息,确定所述目标虚拟对象的指标变化信息;采用所述指标变化信息对所述目标虚拟对象进行平衡性分析,得到平衡性分析结果;将所述平衡性分析结果确定为针对所述目标虚拟对象的角色测试结果。
在一些实施例中,所述装置还包括:设置模块,用于在获取所述当前虚拟场景下的全局地图数据、所述局部地图数据和所述虚拟元素之前,设置所述当前虚拟场景的场景参数和对局总数;场景确定模块,用于根据所述场景参数确定出对应的当前虚拟场景并进入所述当前虚拟场景;对应地,所述获取模块还用于:在进入所述当前虚拟场景时,获取所述当前虚拟场景下每一视频帧对应的所述全局地图数据、所述局部地图数据和所述虚拟元素;当所述目标虚拟对象在所述当前虚拟场景中执行预设任务的对局次数达到所述对局总数时,停止获取所述全局地图数据、所述局部地图数据和所述虚拟元素。
在一些实施例中,所述确定模块还用于:采用预先训练的仿真测试模型,根据所述全局地图数据、所述局部地图数据和所述虚拟元素,确定针对所述目标虚拟对象在当前时刻的指令信息;其中,所述仿真测试模型通过以下步骤进行训练:将样本数据输入至所述仿真测试模型;通过所述仿真测试模型中的卷积神经网络和前馈神经网络对所述样本数据进行数据处理,得到针对目标训练对象在当前时刻的样本指令信息;将所述样本指令信息输入至预设损失模型中,得到损失结果;根据所述损失结果,对所述仿真测试模型进行优化处理,得到训练后的仿真测试模型。
在一些实施例中,所述样本数据包括全局样本数据、局部样本数据和样本虚拟元素;所述仿真测试模型通过以下步骤进行训练:通过所述卷积神经网络对所述全局样本数据和所述局部样本数据进行卷积处理,得到样本卷积向量;通过所述前馈神经网络对所述样本虚拟元素进行第三前馈网络处理,得到样本前馈运算向量;对所述样本卷积向量和所述样本前馈运算向量进行拼接,得到样本拼接向量;对所述样本拼接向量进行第四前馈网络处理,得到针对目标训练对象在当前时刻的样本指令信息。
在一些实施例中,所述仿真测试模型通过以下步骤进行训练:统计针对所述目标训练对象的实际操作指令的实际数量;统计所述样本指令信息对应的样本操控指令的样本预测数量;采用预先定义的损失函数,确定所述实际数量与所述样本预测数量的绝对差值;根据所述绝对差值确定所述损失结果。
在一些实施例中,所述仿真测试模型通过以下步骤进行训练:根据所述绝对差值,确定所述样本数据中不同指令数据对应的样本采样比例的调整量;根据所述调整量调整当前样本数据的样本采样比例,得到调整后的样本采样比例;其中,所述调整后的样本采样比例为所述损失结果;所述根据所述损失结果,对所述仿真测试模型进行优化处理,包括:采样所述调整后的样本采样比例,从预设的样本数据库中获取目标样本数据;采用所述目标样本数据对所述仿真测试模型进行再次训练。
在一些实施例中,在所述局部地图数据和所述全局地图数据对应的虚拟场景视频中,每隔N帧视频帧对应一帧预测帧;所述装置还包括:当前指令信息确定模块,用于当所述当前时刻的当前视频帧是所述预测帧时,根据所述当前视频帧和所述虚拟元素,确定针对所述目标虚拟对象在所述当前时刻的当前指令信息;历史指令信息获取模块,用于当所述当前时刻的当前视频帧不是所述预测帧时,获取所述当前时刻之前且距离所述当前时刻最近的预测帧和基于所述预测帧得到的历史指令信息;所述当前指令信息确定模块,还用于将所述历史指令信息确定为所述当前时刻的当前指令信息。
在一些实施例中,当所述当前时刻的当前视频帧不是所述预测帧时,所述装置还包括:信息确定模块,用于确定所述历史指令信息对应的多个操控指令、和每一所述操作指令在当前时刻的当前状态;概率值获取模块,用于获取每一所述操作指令的预测概率值;目标操控指令确定模块,用于将具有最高预测概率值、且所述当前状态属于可执行状态的操控指令,确定为目标操控指令;响应模块,用于响应于所述目标操控指令,对所述当前视频帧中的所述目标虚拟对象进行操控。
在一些实施例中,所述装置还包括:历史技能指令获取模块,用于当所述当前指令信息对应的操作指令为技能指令时,获取所述当前视频帧之前的M帧视频帧的历史指令信息对应的历史技能指令;虚拟对象操控模块,用于当所述技能指令与所述M帧视频帧的历史技能指令相同时,响应于所述技能指令,对所述当前视频帧中的所述目标虚拟对象进行操控;清空模块,用于当所述技能指令与所述M帧视频帧的历史技能指令不同时,清空所述当前指令信息。
需要说明的是,本申请实施例装置的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果,因此不做赘述。对于本装置实施例中未披露的技术细节,请参照本申请方法实施例的描述而理解。
本申请实施例提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行本申请实施例上述的方法。
本申请实施例提供一种存储有可执行指令的存储介质,其中存储有可执行指令,当可执行指令被处理器执行时,将引起处理器执行本申请实施例提供的方法,例如,如图3示出的方法。
在一些实施例中,存储介质可以是计算机可读存储介质,例如,铁电存储器(FRAM,Ferromagnetic Random Access Memory)、只读存储器(ROM,Read Only Memory)、可编程只读存储器(PROM,Programmable Read Only Memory)、可擦除可编程只读存储器(EPROM,Erasable Programmable Read Only Memory)、带电可擦可编程只读存储器(EEPROM,Electrically Erasable Programmable Read Only Memory)、闪存、磁表面存储器、光盘、或光盘只读存储器(CD-ROM,Compact Disk-Read Only Memory)等存储器;也可以是包括上述存储器之一或任意组合的各种设备。
在一些实施例中,可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。
作为示例,可执行指令可以但不一定对应于文件系统中的文件,可以可被存储在保存其它程序或数据的文件的一部分,例如,存储在超文本标记语言(HTML,Hyper TextMarkup Language)文档中的一个或多个脚本中,存储在专用于所讨论的程序的单个文件中,或者,存储在多个协同文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。作为示例,可执行指令可被部署为在一个计算设备上执行,或者在位于一个地点的多个计算设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算设备上执行。
以上所述,仅为本申请的实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和范围之内所作的任何修改、等同替换和改进等,均包含在本申请的保护范围之内。
Claims (15)
1.一种游戏数据处理方法,其特征在于,所述方法包括:
获取当前虚拟场景下的全局地图数据、目标虚拟对象对应的局部地图数据和虚拟元素;
根据所述全局地图数据、所述局部地图数据和所述虚拟元素,确定针对所述目标虚拟对象在当前时刻的指令信息;
响应于所述指令信息对应的操控指令,对所述目标虚拟对象进行操控,得到所述目标虚拟对象的指标信息;
根据所述指标信息生成对所述目标虚拟对象的角色测试结果。
2.根据权利要求1所述的方法,其特征在于,所述根据所述全局地图数据、所述局部地图数据和所述虚拟元素,确定针对所述目标虚拟对象在当前时刻的指令信息,包括:
对所述全局地图数据和所述局部地图数据进行卷积处理,得到卷积处理结果;
对所述虚拟元素进行第一前馈网络处理,得到前馈处理结果;
根据所述卷积处理结果和所述前馈处理结果,确定出针对所述目标虚拟对象在当前时刻的指令信息。
3.根据权利要求2所述的方法,其特征在于,所述卷积处理结果中包括卷积向量,所述前馈处理结果中包括前馈运算向量;
所述根据所述卷积处理结果和所述前馈处理结果,确定出针对所述目标虚拟对象在当前时刻的指令信息,包括:
对所述卷积向量和所述前馈运算向量进行拼接,形成拼接向量;
对所述拼接向量进行第二前馈网络处理,得到针对所述目标虚拟对象在当前时刻的指令信息。
4.根据权利要求1所述的方法,其特征在于,所述指标信息包括:在完成所述当前虚拟场景下的预设任务后,所述目标虚拟对象对应的结束指标信息;
所述根据所述指标信息生成对所述目标虚拟对象的角色测试结果,包括:
获取未对所述目标虚拟对象进行操控时的初始指标信息;
根据所述结束指标信息和所述初始指标信息,确定所述目标虚拟对象的指标变化信息;
采用所述指标变化信息对所述目标虚拟对象进行平衡性分析,得到平衡性分析结果;
将所述平衡性分析结果确定为针对所述目标虚拟对象的角色测试结果。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在获取所述当前虚拟场景下的全局地图数据、所述局部地图数据和所述虚拟元素之前,设置所述当前虚拟场景的场景参数和对局总数;
根据所述场景参数确定出对应的当前虚拟场景并进入所述当前虚拟场景;
对应地,所述获取当前虚拟场景下的全局地图数据、目标虚拟对象对应的局部地图数据和虚拟元素,包括:
在进入所述当前虚拟场景时,获取所述当前虚拟场景下每一视频帧对应的所述全局地图数据、所述局部地图数据和所述虚拟元素;
当所述目标虚拟对象在所述当前虚拟场景中执行预设任务的对局次数达到所述对局总数时,停止获取所述全局地图数据、所述局部地图数据和所述虚拟元素。
6.根据权利要求1所述的方法,其特征在于,所述根据所述全局地图数据、所述局部地图数据和所述虚拟元素,确定针对所述目标虚拟对象在当前时刻的指令信息,包括:
采用预先训练的仿真测试模型,根据所述全局地图数据、所述局部地图数据和所述虚拟元素,确定针对所述目标虚拟对象在当前时刻的指令信息;
其中,所述仿真测试模型通过以下步骤进行训练:
将样本数据输入至所述仿真测试模型;
通过所述仿真测试模型中的卷积神经网络和前馈神经网络对所述样本数据进行数据处理,得到针对目标训练对象在当前时刻的样本指令信息;
将所述样本指令信息输入至预设损失模型中,得到损失结果;
根据所述损失结果,对所述仿真测试模型进行优化处理,得到训练后的仿真测试模型。
7.根据权利要求6所述的方法,其特征在于,所述样本数据包括全局样本数据、局部样本数据和样本虚拟元素;
所述通过所述仿真测试模型中的卷积神经网络和前馈神经网络对所述样本数据进行数据处理,得到针对目标训练对象在当前时刻的样本指令信息,包括:
通过所述卷积神经网络对所述全局样本数据和所述局部样本数据进行卷积处理,得到样本卷积向量;
通过所述前馈神经网络对所述样本虚拟元素进行第三前馈网络处理,得到样本前馈运算向量;
对所述样本卷积向量和所述样本前馈运算向量进行拼接,得到样本拼接向量;
对所述样本拼接向量进行第四前馈网络处理,得到针对目标训练对象在当前时刻的样本指令信息。
8.根据权利要求6所述的方法,其特征在于,所述将所述样本指令信息输入至预设损失模型中,得到损失结果,包括:
统计针对所述目标训练对象的实际操作指令的实际数量;
统计所述样本指令信息对应的样本操控指令的样本预测数量;
采用预先定义的损失函数,确定所述实际数量与所述样本预测数量的绝对差值;
根据所述绝对差值确定所述损失结果。
9.根据权利要求8所述的方法,其特征在于,所述根据所述绝对差值确定所述损失结果,包括:
根据所述绝对差值,确定所述样本数据中不同指令数据对应的样本采样比例的调整量;
根据所述调整量调整当前样本数据的样本采样比例,得到调整后的样本采样比例;其中,所述调整后的样本采样比例为所述损失结果;
所述根据所述损失结果,对所述仿真测试模型进行优化处理,包括:
采样所述调整后的样本采样比例,从预设的样本数据库中获取目标样本数据;
采用所述目标样本数据对所述仿真测试模型进行再次训练。
10.根据权利要求1所述的方法,其特征在于,在所述局部地图数据和所述全局地图数据对应的虚拟场景视频中,每隔N帧视频帧对应一帧预测帧;所述方法还包括:
当所述当前时刻的当前视频帧是所述预测帧时,根据所述当前视频帧和所述虚拟元素,确定针对所述目标虚拟对象在所述当前时刻的当前指令信息;
当所述当前时刻的当前视频帧不是所述预测帧时,获取所述当前时刻之前且距离所述当前时刻最近的预测帧和基于所述预测帧得到的历史指令信息;
将所述历史指令信息确定为所述当前时刻的当前指令信息。
11.根据权利要求10所述的方法,其特征在于,当所述当前时刻的当前视频帧不是所述预测帧时,所述方法还包括:
确定所述历史指令信息对应的多个操控指令、和每一所述操作指令在当前时刻的当前状态;
获取每一所述操作指令的预测概率值;
将具有最高预测概率值、且所述当前状态属于可执行状态的操控指令,确定为目标操控指令;
响应于所述目标操控指令,对所述当前视频帧中的所述目标虚拟对象进行操控。
12.根据权利要求10所述的方法,其特征在于,所述方法还包括:
当所述当前指令信息对应的操作指令为技能指令时,获取所述当前视频帧之前的M帧视频帧的历史指令信息对应的历史技能指令;
当所述技能指令与所述M帧视频帧的历史技能指令相同时,响应于所述技能指令,对所述当前视频帧中的所述目标虚拟对象进行操控;
当所述技能指令与所述M帧视频帧的历史技能指令不同时,清空所述当前指令信息。
13.一种游戏数据处理装置,其特征在于,所述装置包括:
获取模块,用于获取当前虚拟场景下的全局地图数据、目标虚拟对象对应的局部地图数据和虚拟元素;
确定模块,用于根据所述全局地图数据、所述局部地图数据和所述虚拟元素,确定针对所述目标虚拟对象在当前时刻的指令信息;
操控模块,用于响应于所述指令信息对应的操控指令,对所述目标虚拟对象进行操控,得到所述目标虚拟对象的指标信息;
测试模块,用于根据所述指标信息生成对所述目标虚拟对象的角色测试结果。
14.一种游戏数据处理设备,其特征在于,包括:
存储器,用于存储可执行指令;处理器,用于执行所述存储器中存储的可执行指令时,实现权利要求1至12任一项所述的游戏数据处理方法。
15.一种计算机可读存储介质,其特征在于,存储有可执行指令,用于引起处理器执行所述可执行指令时,实现权利要求1至12任一项所述的游戏数据处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210089666.3A CN116531764B (zh) | 2022-01-25 | 2022-01-25 | 游戏数据处理方法、装置、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210089666.3A CN116531764B (zh) | 2022-01-25 | 2022-01-25 | 游戏数据处理方法、装置、设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116531764A true CN116531764A (zh) | 2023-08-04 |
CN116531764B CN116531764B (zh) | 2024-07-30 |
Family
ID=87456540
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210089666.3A Active CN116531764B (zh) | 2022-01-25 | 2022-01-25 | 游戏数据处理方法、装置、设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116531764B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111027683A (zh) * | 2019-12-09 | 2020-04-17 | Oppo广东移动通信有限公司 | 数据处理方法、装置、存储介质及电子设备 |
CN111589120A (zh) * | 2020-05-14 | 2020-08-28 | 深圳海普参数科技有限公司 | 目标物控制方法、计算机设备及计算机可读存储介质 |
CN111797970A (zh) * | 2019-12-24 | 2020-10-20 | 华为技术有限公司 | 训练神经网络的方法和装置 |
KR20210034561A (ko) * | 2021-03-16 | 2021-03-30 | 넷마블 주식회사 | 화면 분석 방법 |
CN113457156A (zh) * | 2021-06-25 | 2021-10-01 | 网易(杭州)网络有限公司 | 游戏中的信息交互方法、装置和电子设备 |
-
2022
- 2022-01-25 CN CN202210089666.3A patent/CN116531764B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111027683A (zh) * | 2019-12-09 | 2020-04-17 | Oppo广东移动通信有限公司 | 数据处理方法、装置、存储介质及电子设备 |
CN111797970A (zh) * | 2019-12-24 | 2020-10-20 | 华为技术有限公司 | 训练神经网络的方法和装置 |
CN111589120A (zh) * | 2020-05-14 | 2020-08-28 | 深圳海普参数科技有限公司 | 目标物控制方法、计算机设备及计算机可读存储介质 |
KR20210034561A (ko) * | 2021-03-16 | 2021-03-30 | 넷마블 주식회사 | 화면 분석 방법 |
CN113457156A (zh) * | 2021-06-25 | 2021-10-01 | 网易(杭州)网络有限公司 | 游戏中的信息交互方法、装置和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN116531764B (zh) | 2024-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180349757A1 (en) | Learning service providing apparatus | |
CN105637540A (zh) | 用于强化学习的方法和设备 | |
CN111079001A (zh) | 装修推荐信息生成方法、装置、存储介质及电子设备 | |
CN106502890A (zh) | 测试用例生成方法及系统 | |
CN111311030B (zh) | 基于影响因素检测的用户信用风险预测方法及装置 | |
CN113069769B (zh) | 云游戏界面显示方法、装置、电子设备以及存储介质 | |
CN113658689B (zh) | 多智能体模型的训练方法、装置、电子设备及存储介质 | |
CN115648204B (zh) | 智能决策模型的训练方法、装置、设备以及存储介质 | |
CN112138394A (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN111282272A (zh) | 信息处理方法、计算机可读介质及电子设备 | |
CN112973130B (zh) | 虚拟场景的回放模型构建方法、装置、设备及存储介质 | |
CN112274924B (zh) | 在应用门户中管理用户体验的系统和计算机实现的方法 | |
CN111753855B (zh) | 一种数据处理方法、装置、设备及介质 | |
CN111652673B (zh) | 智能推荐方法、装置、服务器和存储介质 | |
CN116531764B (zh) | 游戏数据处理方法、装置、设备及计算机可读存储介质 | |
CN117018635A (zh) | 数据处理方法、装置、电子设备以及存储介质 | |
CN116943220A (zh) | 一种游戏人工智能控制方法、装置、设备及存储介质 | |
CN112070205A (zh) | 一种多损失模型获取方法以及装置 | |
CN116662527A (zh) | 用于生成学习资源的方法及相关产品 | |
CN117217327A (zh) | 一种模型训练方法和相关装置 | |
KR20200029923A (ko) | 컴퓨팅 장치에서 게임에 대한 사용자의 데이터를 처리하는 방법, 및 컴퓨팅 장치 | |
CN117899487B (zh) | 一种数据处理方法、装置、设备、存储介质及程序产品 | |
CN117883788B (zh) | 智能体训练方法、游戏对战方法、装置及电子设备 | |
CN115463428A (zh) | 游戏参数的确定方法、装置、介质及设备 | |
CN117899478B (zh) | 一种虚拟角色的控制方法和相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40091515 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |