CN113230650A - 一种数据处理方法、装置及计算机可读存储介质 - Google Patents
一种数据处理方法、装置及计算机可读存储介质 Download PDFInfo
- Publication number
- CN113230650A CN113230650A CN202110413685.2A CN202110413685A CN113230650A CN 113230650 A CN113230650 A CN 113230650A CN 202110413685 A CN202110413685 A CN 202110413685A CN 113230650 A CN113230650 A CN 113230650A
- Authority
- CN
- China
- Prior art keywords
- fighting
- target
- lineup
- preset
- battle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/45—Controlling the progress of the video game
- A63F13/46—Computing the game score
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/79—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
- A63F13/798—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for assessing skills or for ranking players, e.g. for generating a hall of fame
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Security & Cryptography (AREA)
- General Business, Economics & Management (AREA)
- Business, Economics & Management (AREA)
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例公开了一种数据处理方法、装置及计算机可读存储介质,本申请实施例通过获取阵容集群;通过训练后的预设模型计算每一对战阵容的胜率值;从胜率值大于第一预设阈值的对战阵容中选取预设数量的对战阵容;从预设数量的对战阵容中选取一对第一目标对战阵容;分别选取每一第一目标对战阵容中的一个目标虚拟对象的属性信息进行调换;基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变换;返回执行通过训练后的预设模型计算更新后的每一对战阵容的胜率值,直至达到预设迭代阈值,输出胜率值大于第一预设阈值的对战阵容。以此,结合遗传算法进行对战阵容的筛选,极大提升了数据处理的效率和准确率。
Description
技术领域
本申请涉及计算机技术领域,具体涉及一种数据处理方法、装置及计算机可读存储介质。
背景技术
自走棋是一种新兴的棋类游戏,对战双方将已拥有的虚拟对象(通常被称为“棋子”)放置在棋盘上后,游戏应用即自动控制虚拟对象进行对战,并输出对战结果。
通常情况下,自走棋中棋盘的对战区域被均分为两部分,对战双方在准备阶段可以将己方虚拟对象放置在己方对战区域的任一位置;对战阶段,游戏应用根据虚拟对象的属性、技能以及在对战区域上所处的位置,自动控制虚拟对象在对战区域上移动,并对敌方虚拟对象进行攻击,从而模拟出对战效果;结算阶段,游戏应用根据对战区域上对战双方各自剩余的虚拟对象,计算出对战结果。
在对现有技术的研究和实践过程中,本申请的发明人发现,现有技术中,自走棋中的棋子种类以及棋子携带装备组合种类繁多,对游戏平衡性进行分析极具挑战性。
发明内容
本申请实施例提供一种数据处理方法、装置及计算机可读存储介质,可以提升数据处理的效率和准确率。
为解决上述技术问题,本申请实施例提供以下技术方案:
一种数据处理方法,包括:
获取阵容集群,所述阵容集群中包括多个对战阵容,每一对战阵容中包括至少一个虚拟对象;
通过训练后的预设模型计算每一对战阵容的胜率值;
从胜率值大于第一预设阈值的对战阵容中选取预设数量的对战阵容;
从预设数量的对战阵容中选取一对第一目标对战阵容,每一个第一目标对战阵容中包括至少一个目标虚拟对象;
分别选取每一第一目标对战阵容中的一个目标虚拟对象的属性信息进行调换,得到调换后的第一目标对战阵容;
基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变换,确定更新后的多个对战阵容,所述更新后的多个对战阵容中包括属性信息变换后的第一目标对战阵容;
返回执行通过训练后的预设模型计算更新后的每一对战阵容的胜率值,直至达到预设迭代阈值,输出胜率值大于所述第一预设阈值的对战阵容。
一种数据处理装置,包括:
获取单元,用于获取阵容集群,所述阵容集群中包括多个对战阵容,每一对战阵容中包括至少一个虚拟对象;
计算单元,用于通过训练后的预设模型计算每一对战阵容的胜率值;
第一选取单元,用于从胜率值大于第一预设阈值的对战阵容中选取预设数量的对战阵容;
第二选取单元,用于从预设数量的对战阵容中选取一对第一目标对战阵容,每一个第一目标对战阵容中包括至少一个目标虚拟对象;
第一调换单元,用于分别选取每一第一目标对战阵容中的一个目标虚拟对象的属性信息进行调换,得到调换后的第一目标对战阵容;
第一变换单元,用于基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变换,确定更新后的多个对战阵容,所述更新后的多个对战阵容中包括属性信息变换后的第一目标对战阵容;
迭代单元,用于返回执行通过训练后的预设模型计算更新后的每一对战阵容的胜率值,直至达到预设迭代阈值,输出胜率值大于所述第一预设阈值的对战阵容。
在一些实施例中,所述装置,还包括第二变换单元,用于:
基于第一预设概率,从调换后的第二目标对战阵容中选取任一虚拟对象进行对象类型数据变换;
执行确定更新后的多个对战阵容,所述更新后的多个对战阵容中包括装备数据变换后的第一目标对战阵容和对象类型数据变换后的第二目标对战阵容。
在一些实施例中,所述装置,还包括:
生成单元,用于生成样本对战阵容,所述样本对战阵容携带标签信息;
转化单元,用于将样本对战阵容转化为位置矩阵向量;
训练单元,用于将所述位置矩阵向量和对应的标签信息一并输入预设模型中进行训练,得到训练后的预设模型。
在一些实施例中,所述转化单元,用于:
将样本对战阵容中的每一虚拟对象转化为向量信息;
根据样本对战阵容的位置排列信息将所述向量信息进行拼接,得到位置矩阵向量。
在一些实施例中,所述预设模型为预设卷积神经网络模型,所述训练单元,用于:
将所述位置矩阵向量和对应的标签信息一并输入预设卷积神经网络模型;
通过预设卷积神经网络模型的卷积层对所述位置矩阵向量进行卷积处理以及特征扁平化处理,得到一维的特征向量;
将所述一维的特征向量输入所述预设卷积神经网络模型的全连接层,输出样本对战阵容的预测胜率值;
根据所述预测胜率值与对应的标签信息的差异,对预设卷积神经网络模型的网络参数进行调节,直至差异收敛,得到训练后的预设卷积神经网络模型。
在一些实施例中,所述生成单元,用于:
生成预设数目的基础对战阵容和样本对战阵容;
将所述样本对战阵容和每一基础对战阵容进行对战,得到多个对战结果;
将所述多个对战结果的胜利平均值作为所述样本对战阵容的标签信息。
一种计算机可读存储介质,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行上述数据处理方法中的步骤。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可以在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述提供的数据处理方法中的步骤。
一种计算机程序产品或计算机程序,所述计算机程序产品或计算机程序包括计算机指令,所述计算机指令存储在存储介质中。计算机设备的处理器从存储介质读取所述计算机指令,处理器执行所述计算机指令,使得所述计算机设备执行上述提供的数据处理方法中的步骤。
本申请实施例通过获取阵容集群;通过训练后的预设模型计算每一对战阵容的胜率值;从胜率值大于第一预设阈值的对战阵容中选取预设数量的对战阵容;从预设数量的对战阵容中选取一对第一目标对战阵容;分别选取每一第一目标对战阵容中的一个目标虚拟对象的属性信息进行调换;基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变换;返回执行通过训练后的预设模型计算更新后的每一对战阵容的胜率值,直至达到预设迭代阈值,输出胜率值大于第一预设阈值的对战阵容。以此,通过遗传算法的交替优化的原理,获取优秀的预设数量的对战阵容,并从其中选取出两个第一目标对战阵容中的各一个目标虚拟对象的属性信息进行调换遗传,以第一预设概率从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变异,重复经过一定的迭代之后,选取出胜率值较大的对战阵容,以进行后续游戏平衡性考量,相对于现有技术需要人工进行计算的方案,本申请实施例可以自动且高效选取出高胜率的对战阵容进行游戏平衡性考量,极大的提升了数据处理的效率和准确率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的数据处理系统的场景示意图;
图2是本申请实施例提供的数据处理方法的流程示意图;
图3是本申请实施例提供的数据处理方法的另一流程示意图;
图4为本申请实施例提供的数据处理方法的产品示意图;
图5是本申请实施例提供的数据处理装置的结构示意图;
图6是本申请实施例提供的服务器的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供一种数据处理方法、装置、及计算机可读存储介质。
请参阅图1,图1为本申请实施例所提供的数据处理系统的场景示意图,包括:终端A、和服务器(该数据处理系统还可以包括除终端A之外的其他终端,终端具体个数在此处不作限定),终端A与服务器之间可以通过通信网络连接,该通信网络,可以包括无线网络以及有线网络,其中无线网络包括无线广域网、无线局域网、无线城域网、以及无线个人网中的一种或多种的组合。网络中包括路由器、网关等等网络实体,图中并未示意出。终端A可以通过通信网络与服务器进行信息交互,比如终端A通过游戏应用在线将对战阵容发送至服务器。
该数据处理系统可以包括数据处理装置,该数据处理装置具体可以集成在服务器中,该服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。如图1所示,该服务器根据多个终端A发送的对战阵容组成阵容集群,该阵容集群中包括多个对战阵容,每一对战阵容中包括至少一个虚拟对象;通过训练后的预设模型计算每一对战阵容的胜率值;从胜率值大于第一预设阈值的对战阵容中选取预设数量的对战阵容;从预设数量的对战阵容中选取一对第一目标对战阵容,每一个第一目标对战阵容中包括至少一个目标虚拟对象;分别选取每一第一目标对战阵容中的一个目标虚拟对象的属性信息进行调换,得到调换后的第一目标对战阵容;基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变换,确定更新后的多个对战阵容,该更新后的多个对战阵容中包括属性信息变换后的第一目标对战阵容;返回执行通过训练后的预设模型计算更新后的每一对战阵容的胜率值,直至达到预设迭代阈值,输出胜率值大于该第一预设阈值的对战阵容。
该数据处理系统中终端A可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。该终端A可以安装各种用户需要的应用,比如自走棋游戏应用等,终端A可以实时将当前游戏应用的对战阵容发送至服务器。
需要说明的是,图1所示的数据处理系统的场景示意图仅仅是一个示例,本申请实施例描述的数据处理系统以及场景是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域普通技术人员可知,随着数据处理系统的演变和新业务场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
以下分别进行详细说明。
在本实施例中,将从数据处理装置的角度进行描述,该数据处理装置具体可以集成在具备储存单元并安装有微处理器而具有运算能力的服务器中。
请参阅图2,图2是本申请实施例提供的数据处理方法的流程示意图。该数据处理方法包括:
在步骤101中,获取阵容集群。
其中,本申请实施例应用于自走棋类型的策略游戏,自走棋游戏是多名玩家从公共牌库购买棋子(即虚拟对象),并将虚拟对象放置棋盘上,通过合理的阵容安排,最终决出最后的胜者,整个战斗的过程是自动的。
游戏中的虚拟对象可以拥有不同种类的职业划分,例如战士、法师、哥布林、人类等,且每一虚拟对象可以佩戴不同的装备,该装备可以改变虚拟对象的属性比如增加攻击力和防御力,每个虚拟对象可以携带若干个装备。游戏玩家可以根据需要将虚拟对象放置在游戏棋盘上的不同位置,该棋盘一般为8乘8大小的对战棋盘。
该阵容集群由多个对战阵容组成,该多个为至少2个以上,该对战阵容指同一对战阵营中不同种类的虚拟对象的搭配形成,每一对战阵容中包括至少一个以上的虚拟对象,如果同一对战阵营中的多个虚拟对象的职业或者种族搭配满足系统要求,可以产生组合效果,俗称羁绊,例如三个不同的战士同时在场可以给友方所有虚拟对象加护甲。
在步骤102中,通过训练后的预设模型计算每一对战阵容的胜率值。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
本申请实施例提供的方案涉及人工智能的计算机视觉技术等技术,具体通过如下实施例进行说明:
在自走棋游戏中,平衡性是影响玩家体验的最重要因素之一。一款具有良好平衡性的自走棋游戏拥有多套不同的阵容组合,玩家可以根据所抽到的棋子进行合适的组合进行游戏。如果平衡性不好,所有玩家都会倾向组合同一套阵容,从而使得难以组合成型,影响玩家的操作体验。多样化和平衡的阵容会带给玩家新奇感,给予有经验的玩家更大的操作空间,可以保持良好的游戏活跃度,以此,为了更好的衡量游戏的平衡性,本申请实施例借鉴了遗传算法的原理,该遗传算法(GA)是常用的启发式搜索算法之一,借鉴了生物进化学中自然选择、遗传、突变等自然现象,并通过计算机来进行模拟这些现象,核心思路是适者生存。该算法从完全随机个体的种群开始,之后在每一代中根据适应度函数选择优秀的个体,在优秀的个体中通过自然选择和突变等方式产生新的生命种群,经过一定的迭代得到最优秀的个体。,具体请一并参阅以下步骤:
本申请实施例可以基于人工智能技术预先训练得到可以识别对战阵容的胜率值的预设模型,用来衡量对战阵容优秀程度,在一实施方式中,该预设模型可以为卷积神经网络模型,即将大量的对战阵容和标签信息对该预设模型进行训练,该标签信息即为实际胜率值,使得该预设模型可以学习到如何对对战阵容输出相应的预测胜率值。
基于此,本申请实施例通过训练后的预设模型可以计算出每一对战阵容对应的胜率值。
在步骤103中,从胜率值大于第一预设阈值的对战阵容中选取预设数量的对战阵容。
其中,该第一预设阈值为用于衡量对战阵容是否优秀的阈值,该第一预设阈值可以为所有对战阵容的胜率值的平均值,当该胜率值大于第一预设阈值,说明该对战阵容为优秀的对战阵容,以此,可以从胜率值大于第一预设阈值的优秀的对战阵容中随机选择预设数量的对战阵容,该预设数量可以为5个、10个等,可以根据需求自定义设置,此处不做具体限定。
在一实施方式中,可以采用选择概率与对战阵容的胜率值大小成正比的选择方式,从胜率值大于预设阈值的对战阵容中选择预设数量的对战阵容,各个对战阵容被选中的概率与胜率值大小成正比的,即胜率值越大的对战阵容被选中的概率越大,以此,可以保证越优秀的对战阵容被选中的概率越大。所以基于该选择法进行预设数量的对战阵容选择可以更好的选择出最优秀的对战阵容进行后续的操作。
在步骤104中,从预设数量的对战阵容中选取一对第一目标对战阵容。
其中,为了实现遗传算法中的遗传处理,可以从预设数量的优秀的对战阵容中随机选出一对第一目标对战阵容,并分别从每一第一目标对战阵容中随机挑选出一个目标虚拟对象,该目标虚拟对象携带属性信息,该属性信息可以为虚拟对象的装备数据或者对象类型数据,该装备数据即为虚拟对象佩戴的装备类型数据,不同的装备类型可以增加不同的效果,如增加攻击力和防御力等,该对象类型数据可以为虚拟对象的种类类型,例如职业等。
在一实施方式中,该从预设数量的对战阵容中选取一对第一目标对战阵容的步骤,可以包括:基于第二预设概率,从该预设数量的对战阵容中选取一对第一目标对战阵容。
其中,该第二预设概率即为随机选择的概率值,基于该第二预设概率随机从该预设数量的优秀的对战阵容中选择两个第一目标对战阵容进行准备。
在步骤105中,分别选取每一第一目标对战阵容中的一个目标虚拟对象的属性信息进行调换,得到调换后的第一目标对战阵容。
其中,可以在选取的一对第一目标对战阵容中,各选取其中的一个目标虚拟对象,即在每一第一目标对战阵容中各自选取一个目标虚拟对象,得到两个目标虚拟对象,以此,将两个目标虚拟对象之间的属性信息进行调换,例如可以将第一个目标虚拟对象的装备数据和第二个目标虚拟对象的装备数据进行调换,或者将第一个目标虚拟对象的对象类型数据和第二个目标虚拟对象的对象类型数据进行调换。
在一实施方式中,该分别选取每一第一目标对战阵容中的一个目标虚拟对象的属性信息进行调换的步骤,可以包括:
(1)分别从每一第一目标对战阵容中选取一个第一目标虚拟对象,每一第一目标虚拟对象之间对应的装备数据的数量的差的绝对值小于第二预设阈值;
(2)将第一目标虚拟对象之间的装备数据进行调换。
其中,可以分别从每一第一目标对战阵容中随机选择其中的一个第一目标虚拟对象,即得到一对第一目标虚拟对象,为了控制在调换之后每一对战阵容中整体装备的数量不发生变化,可以设定两个第一目标虚拟对象之间对应的装备数据的数量的差的绝对值小于第二预设阈值,在此,该第二预设阈值可以为1,即选择出的第一目标虚拟对象的装备数据的数量可以相等,保证了后续调换可以实现每一目标对战阵容的整体装备的数量不发生变化。
进一步的,可以将一对第一目标对战阵容中分别选取的第一目标虚拟对象之间的装备数据进行对调,实现目标对战阵容的交叉遗传。
在步骤106中,基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变换,确定更新后的多个对战阵容。
其中,该第一预设概率为变异概率,该变异概率为属性信息随机进行变换的概率,假设为0.3,为了实现遗传算法中的变异处理,可以基于该第一预设概率依次对调换后的一对第一目标对战阵容进行变异判定,将确定进行变异的第一目标对战阵容中随机选取一个虚拟对象进行属性信息变换,该属性信息变换为变换成新的属性信息,该新的属性信息为随机选择的,例如当该属性信息为装备数据时,可以将选取的虚拟对象的武器装备数据变换为防护装备数据,实现装备变异,又或者当该属性信息为对象类型数据时,可以将选取的虚拟对象的战士职业变换为法师职业,实现对象类型变异。
进一步的,得到属性信息变换后的第一目标对战阵容,确定更新后的多个对战阵容,该更新后的多个对战阵容中包含属性信息变换后的第一目标对战阵容,即更新后的多个对阵阵容相对于先前的多个对战阵容,其中的一对第一目标对战阵容进行属性信息的调换和属性信息变换,实现更新。
在步骤107中,返回执行通过训练后的预设模型计算更新后的每一对战阵容的胜率值,直至达到预设迭代阈值,输出胜率值大于第一预设阈值的对战阵容。
其中,本申请实施例可以通过遗传处理的多次迭代来获得较优的对战阵容,该预设迭代阈值可以自定义设置,例如500次或者1000次等等,在对战阵容经过上述步骤102至106的属性调换和属性变换的遗传处理,可以返回执行102,通过训练后的预设模型对更新后的每一对战阵重新进行胜率值计算,并连续进行多次遗传迭代处理,直至完成预设迭代阈值,输出若干个高胜率的对战阵容。在一实施方式中,可以分析该若干个高胜率的对战阵容中每一装备出现的概率信息,分析出高胜率的装备进行削弱,避免破坏游戏的平衡性。
由上述可知,本申请实施例通过获取阵容集群;通过训练后的预设模型计算每一对战阵容的胜率值;从胜率值大于第一预设阈值的对战阵容中选取预设数量的对战阵容;从预设数量的对战阵容中选取一对第一目标对战阵容;分别选取每一第一目标对战阵容中的一个目标虚拟对象的属性信息进行调换;基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变换;返回执行通过训练后的预设模型计算更新后的每一对战阵容的胜率值,直至达到预设迭代阈值,输出胜率值大于第一预设阈值的对战阵容。以此,通过遗传算法的交替优化的原理,获取优秀的预设数量的对战阵容,并从其中选取出两个第一目标对战阵容中的各一个目标虚拟对象的属性信息进行调换遗传,以第一预设概率从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变异,重复经过一定的迭代之后,选取出胜率值较大的对战阵容,以进行后续游戏平衡性考量,相对于现有技术需要人工进行计算的方案,本申请实施例可以自动且高效选取出高胜率的对战阵容进行游戏平衡性考量,极大的提升了数据处理的效率和准确率。
结合上述实施例所描述的方法,以下将举例作进一步详细说明。
在本实施例中,将以该数据处理装置具体集成在服务器中为例进行说明,具体参照以下说明。
请一并参阅图3,图3为本申请实施例提供的数据处理方法的另一流程示意图。该方法流程可以包括:
在步骤201中,服务器获取阵容集群。
其中,该阵容集群由多个对战阵容组成,该对战阵容指同一对战阵营中不同种类的虚拟对象(即棋子)的搭配形成,该对战阵容中至少携带一个以上的虚拟对象,请一并参阅图4所示,本申请实施例以阵地(即棋盘)为8乘8大小为例,对战双方各占其中4乘8大小的阵地,将同一对战阵营的不同种类的虚拟对象放置在4乘8的棋盘上,形成对战阵容11,每一虚拟对象可以为不同种类的职业,佩戴不同的装备,在一实施方式中,为了避免对战阵容不公平,本申请实施例可以限定对战阵容中每一虚拟对象佩戴的装备的不超过一定数量,对战阵容所有虚拟对象的花费小于一定花销,例如要求每个虚拟对象带的装备不超过3件,对战阵容总花费在50-100水晶等。
在步骤202中,服务器生成预设数目的基础对战阵容和样本对战阵容,将样本对战阵容和每一基础对战阵容进行对战,得到多个对战结果,将多个对战结果的胜利平均值作为样本对战阵容的标签信息。
其中,该预设数目可以为2000个,该预设数目的基础对战阵容可以用于评估样本对战阵容的强度,为固定的对阵阵容,以此,将该样本对战阵容和每一基础对战阵容进行对战,得到2000个对战结果,该对战结果可以胜利或者失败,将多个对战结果中胜利平均值作为该样本对战阵容的标签信息,例如的对战2000次,胜利1200次,那么该胜率平均值为0.6,该标签信息可以为0.6。
在一些实施方式中,由于游戏模拟器模拟对战的时间较长,可以用预设的卷积神经网络学习游戏模拟器的对战结果,使得后续直接通过该预设的卷积神经网络进行对战模拟,加速对战结果,可以更快的获取样本对战阵容的胜率平均值,即标签信息。
在步骤203中,服务器将样本对战阵容中的每一虚拟对象转化为向量信息,根据样本对战阵容的位置排列信息将向量信息进行拼接,得到位置矩阵向量,将位置矩阵向量和对应的标签信息一并输入预设卷积神经网络模型。
其中,为了后续可以使得预设卷积神经网络模型进行学习训练,可以将样本对战阵容中的每一虚拟对象携带的对象类型数据、装备数据、羁绊类型数据进行编码,以转化为向量信息,该对象类型数据可以为虚拟对象的职业信息,该装备数据可以为虚拟对象佩戴的装备类型,该羁绊类型数据为同一对战阵营中的多个虚拟对象的职业或者种族搭配产生的组合效果。
具体为,将虚拟对象的种类使用二进制编码,假设有c个种类的虚拟对象,可以表示2c-1数量的虚拟对象种类(不包含全0的状态)。
该装备数据的种类可以使用独热编码,该独热编码指使用位一维向量来对状态进行编码,每个状态占这位一维向量其中的一位(置为1,其他位为0),假设以e位来表示e种不同的装备。
该羁绊类型数据的种类也可以使用独热编码,假设以j位来表示不同的羁绊。
以此,将样本对战阵容中每一虚拟对象转化为对应的向量信息c+j+e。
进一步的,由于单方对战阵营的位置位4乘8的棋盘,该4乘8的棋盘上的虚拟对象的在该4乘8的棋盘上的站位即为位置排列信息,假设该4乘8的棋盘上的某点没有虚拟对象站位,即将c+j+e设置为0进行填充,以此,结合位置排列信息将虚拟对象的向量信息进行拼接,得到4*8*(c+j+e)的位置矩阵向量(即编码后的输入信息12),该位置矩阵向量12可以反映虚拟对象站位的关系信息,提升后续预测的准确率,将位置矩阵向量12和对应的标签信息一并输入预设卷积神经网络模型13进行学习,卷积神经网络模型CNN(ConvolutionalNeural Networks,CNN)在卷积提取的过程中对空间信息比较敏感,可以捕捉到不同站位的棋子的关系信息。
在步骤204中,服务器通过预设卷积神经网络模型的卷积层对位置矩阵向量进行卷积处理以及特征扁平化处理,得到一维的特征向量,将一维的特征向量输入预设卷积神经网络模型的全连接层,输出样本对战阵容的预测胜率值。
其中,服务器可以通过预设卷积神经网络模型的卷积层对位置矩阵向量不断进行卷积处理,在一实施方式中,本申请实施例为了避免丢失棋盘上的虚拟对象的站位,可以设置该卷积层的步长(stride)为1,也就是说每一卷积层输出的特征图尺寸与输入保持一致。
该特征扁平化可以实现将维度HxWxC的特征变成一维1x(H*W*C)的特征向量,以此,通过对卷积处理后的特征进行特征扁平化处理,得到一维的特征向量,可以继续避免丢掉棋盘上虚拟对象的站位。在一实施方式中,还可以降低最后一层卷积层的输出维度,防止后续特征扁平化处理时维度过大影响处理。
进一步的,将该一维的特征向量输入预设卷积神经网络模型的全连接层14,输出样本对战阵容的预测胜率值。
在步骤205中,服务器根据预测胜率值与对应的标签信息的差异,对预设卷积神经网络模型的网络参数进行调节,直至差异收敛,得到训练后的预设卷积神经网络模型。
其中,服务器可以根据该预测胜率值与真实的标签信息之间的差异对该预设卷积神经网络模型的网络参数进行调节,使得预设卷积神经网络模型下一次输出更接近真实的标签信息,以此,通过不断的模型训练,直至该差异收敛,即该预设卷积神经网络模型的网络参数调节完毕,得到可以预测对战阵容的胜率值的训练后的预设卷积神经网络。
在步骤206中,服务器通过训练后的预设模型计算每一对战阵容的胜率值。
其中,可以将该训练后的预设模型作为遗传算法的适应度函数,用来衡量对战阵容优秀程度,以此,服务器可以通过训练后的预设模型直接计算每一对战阵容的胜率值,该胜率值越高,说明该对战阵容越优秀,该胜率值越低,说明该对战阵容越差。
在步骤207中,服务器从胜率值大于第一预设阈值的对战阵容中选取预设数量的对战阵容。
其中,该第一预设阈值为用于衡量对战阵容是否优秀的阈值,该第一预设阈值可以为每一对战阵容的胜率值的平均值,以该预设数量为6个进行举例说明。服务器可以从胜率值大于第一预设阈值的优秀的对战阵容中以选择概率与对战阵容的胜率值大小成正比的选择方式选择6个的对战阵容。
在步骤208中,服务器基于第二预设概率,从预设数量的对战阵容中选取一对第一目标对战阵容,分别从每一第一目标对战阵容中选取一个第一目标虚拟对象,将第一目标虚拟对象之间的装备数据进行调换,基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行装备数据变换。
其中,该第二预设概率即为随机选择的概率值,基于该第二预设概率随机从该6个对战阵容中随机选择两个第一目标对战阵容,并分别从每一第一目标对战阵容中随机选择其中的一个第一目标虚拟对象,为了控制每一对战阵容中整体装备的数量不发生变化,可以设定两个第一目标虚拟对象之间对应的装备数据的数量的差的绝对值小于1,即选择出的第一目标虚拟对象的装备数据的数量可以相等。将第一目标虚拟对象之间的装备数据进行对调,实现目标对战阵容在装备数据上的交叉遗传。
进一步的,该第一预设概率为变异概率,假设为0.2,为了实现遗传算法中的变异处理,可以基于变异概率从调换后的第一目标对战阵容中随机选取一个虚拟对象的装备数据进行变换,实现装备变异。
在步骤209中,服务器基于第二预设概率,从预设数量的对战阵容中选取一对第二目标对战阵容,分别从每一第二目标对战阵容中选取一个第二目标虚拟对象,将第二目标虚拟对象之间的阵容位置进行调换,得到调换后的第二目标对战阵容,基于第一预设概率,从调换后的第二目标对战阵容中选取任一虚拟对象进行对象类型数据变换,确定更新后的多个对战阵容。
其中,该第一预设概率为变异概率,该变异概率为属性信息随机进行变换的概率,假设为0.3,该预设数量可以为6,该第二预设概率即为随机选择的概率值,例如0.5,该阵容位置为第二目标虚拟对象在棋盘上的棋盘位置。本申请实施例的目标不仅为搜索出虚拟对象携带的高胜率装备,还需要搜索出高胜率的阵容搭配,以此,还需要对虚拟对象的对象类型数据进行进化,为了避免每一次遗传迭代将虚拟对象的对象类型数据和装备数据联合进化导致结果难以收敛,本申请实施例将虚拟对象的装备数据和对象类型数据交替进行进化,以此,本步骤用于对象类型数据的进化,具体为:
基于该第二预设概率随机从6个对战阵容中随机选择两个第二目标对战阵容,并分别从每一第二目标对战阵容中随机选择其中的一个第二目标虚拟对象。为了控制每一对的对战阵容中整体装备的数量不发生变化,可以设定两个第二目标虚拟对象之间对应的装备数据的数量的差的绝对值小于1,即选择出的两个第二目标虚拟对象的装备数据的数量可以相等。将第二目标虚拟对象之间的阵容位置进行对调,即实现一对的第二目标对战阵容中分别选择的两个第二目标虚拟对象之间的换位,换位的方式可以理解为将第二目标虚拟对象和携带的装备数据进行对调,实现目标对战阵容在对象类型数据上的交叉遗传。
进一步的,为了实现遗传算法中的变异处理,可以基于变异概率从调换后的第二目标对战阵容中随机选取一个虚拟对象的进行对象类型数据变换,例如将第二目标对战阵容中随机选取一个虚拟对象的对象类型数据“战士”变换为“法师”,实现对象类型变异。
以此,实现虚拟对象的装备数据和对象类型数据的交替遗传优化,得到装备数据变换后的第一目标对战阵容和对象类型数据变换后的第二目标对战阵容,确定更新后的多个对战阵容,该更新后的多个对战阵容中包含装备数据变换后的第一目标对战阵容和对象类型数据变换后的第二目标对战阵容,即更新后的多个对阵阵容相对于先前的多个对战阵容,其中的一对第一目标对战阵容进行装备数据的调换和变换以及一对第二目标对战阵容进行对象类型数据的调换和变换,实现更新。
在步骤210中,返回执行通过训练后的预设模型计算更新后的每一对战阵容的胜率值,直至达到预设迭代阈值,输出胜率值大于第一预设阈值的对战阵容。
其中,本申请实施例可以通过装备数据和对象类型数据的依次优化处理,结合多次迭代来获得较优的对战阵容,在对战阵容经过一次装备数据和对象类型数据的交替遗传处理之后,可以返回执行206,通过训练后的预设模型对更新后的每一对战阵容的胜率值重新进行胜率值计算,并进行多次交替遗传迭代处理,直至完成1000次,输出若干个高胜率的对战阵容和装备数据,可以对该高胜率的对战阵容频繁出现的特定对象类型数据的虚拟对象或装备数据进行削弱,避免严重破坏游戏的平衡性。当添加新的对象类型数据的虚拟对象和装备数据或者修改已有的虚拟对象和装备数据的属性时,本申请实施例还可以用于自动化衡量该添加或者修改的操作是否合理,极大地节省游戏策划的人工分析时间。
由上述可知,本申请实施例通过获取阵容集群;通过训练后的预设模型计算每一对战阵容的胜率值;从胜率值大于第一预设阈值的对战阵容中选取预设数量的对战阵容;从预设数量的对战阵容中选取一对第一目标对战阵容;分别选取每一第一目标对战阵容中的一个目标虚拟对象的属性信息进行调换;基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变换;返回执行通过训练后的预设模型计算更新后的每一对战阵容的胜率值,直至达到预设迭代阈值,输出胜率值大于第一预设阈值的对战阵容。以此,通过遗传算法的交替优化的原理,获取优秀的预设数量的对战阵容,并从其中选取出两个第一目标对战阵容中的各一个目标虚拟对象的属性信息进行调换遗传,以第一预设概率从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变异,重复经过一定的迭代之后,选取出胜率值较大的对战阵容,以进行后续游戏平衡性考量,相对于现有技术需要人工进行计算的方案,本申请实施例可以自动且高效选取出高胜率的对战阵容进行游戏平衡性考量,极大的提升了数据处理的效率和准确率。
为便于更好的实施本申请实施例提供的数据处理方法,本申请实施例还提供一种基于上述数据处理方法的装置。其中名词的含义与上述数据处理方法中相同,具体实现细节可以参考方法实施例中的说明。
请参阅图5,图5为本申请实施例提供的数据处理装置的结构示意图,其中该数据处理装置可以包括获取单元301、计算单元302、第一选取单元303、第二选取单元304、第一调换单元305、第一变换单元306以及迭代单元307等。
获取单元301,用于获取阵容集群,该阵容集群中包括多个对战阵容,每一对战阵容中包括至少一个虚拟对象。
在一些实施例中,该装置,还包括:
生成单元,用于生成样本对战阵容,该样本对战阵容携带标签信息;
转化单元,用于将样本对战阵容转化为位置矩阵向量;
训练单元,用于将该位置矩阵向量和对应的标签信息一并输入预设模型中进行训练,得到训练后的预设模型。
在一些实施例中,该转化单元,用于:
将样本对战阵容中的每一虚拟对象转化为向量信息;
根据样本对战阵容的位置排列信息将该向量信息进行拼接,得到位置矩阵向量。
在一些实施例中,该预设模型为预设卷积神经网络模型,该训练单元,用于:
将该位置矩阵向量和对应的标签信息一并输入预设卷积神经网络模型;
通过预设卷积神经网络模型的卷积层对该位置矩阵向量进行卷积处理以及特征扁平化处理,得到一维的特征向量;
将该一维的特征向量输入该预设卷积神经网络模型的全连接层,输出样本对战阵容的预测胜率值;
根据该预测胜率值与对应的标签信息的差异,对预设卷积神经网络模型的网络参数进行调节,直至差异收敛,得到训练后的预设卷积神经网络模型。
在一些实施例中,该生成单元,用于:
生成预设数目的基础对战阵容和样本对战阵容;
将该样本对战阵容和每一基础对战阵容进行对战,得到多个对战结果;
将该多个对战结果的胜利平均值作为该样本对战阵容的标签信息。
计算单元302,用于通过训练后的预设模型计算每一对战阵容的胜率值。
第一选取单元303,用于从胜率值大于第一预设阈值的对战阵容中选取预设数量的对战阵容。
第二选取单元304,用于从预设数量的对战阵容中选取一对第一目标对战阵容,每一个第一目标对战阵容中包括至少一个目标虚拟对象。
在一些实施方式中,该属性信息包括装备数据,该第二选取单元304,用于:
基于第二预设概率,从该预设数量的对战阵容中选取一对第一目标对战阵容;
第一调换单元305,用于分别选取每一第一目标对战阵容中的一个目标虚拟对象的属性信息进行调换,得到调换后的第一目标对战阵容。
在一些实施方式中,该第一调换单元305,用于:
分别从每一第一目标对战阵容中选取一个第一目标虚拟对象,每一第一目标虚拟对象之间对应的装备数据的数量的差的绝对值小于第二预设阈值;
将第一目标虚拟对象之间的装备数据进行调换,得到调换后的第一目标对战阵容。
第一变换单元306,用于基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变换,确定更新后的多个对战阵容,该更新后的多个对战阵容中包括属性信息变换后的第一目标对战阵容。
在一些实施方式中,该第一变换单元306,用于:
基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行装备数据变换,确定更新后的多个对战阵容,该更新后的多个对战阵容中包括属性信息变换后的第一目标对战阵容。。
在一些实施方式中,该装置,还包括第二调换单元,用于:
基于第二预设概率,从该预设数量的对战阵容中选取一对第二目标对战阵容;
分别从每一第二目标对战阵容中选取一个第二目标虚拟对象,每一第二目标虚拟对象之间对应的装备数据的数量的差的绝对值小于第二预设阈值;
将第二目标虚拟对象之间的阵容位置进行调换,得到调换后的第二目标对战阵容。
在一些实施例中,该装置,还包括第二变换单元,用于:
基于第一预设概率,从调换后的第二目标对战阵容中选取任一虚拟对象进行对象类型数据变换;
执行确定更新后的多个对战阵容,该更新后的多个对战阵容中包括装备数据变换后的第一目标对战阵容和对象类型数据变换后的第二目标对战阵容。
迭代单元307,用于返回执行通过训练后的预设模型计算更新后的每一对战阵容的胜率值,直至达到预设迭代阈值,输出胜率值大于该第一预设阈值的对战阵容。
以上各个单元的具体实施可参见前面的实施例,在此不再赘述。
由上述可知,本申请实施例通过获取单元301获取阵容集群;计算单元302通过训练后的预设模型计算每一对战阵容的胜率值;第一选取单元303从胜率值大于第一预设阈值的对战阵容中选取预设数量的对战阵容;第二选取单元304从预设数量的对战阵容中选取一对第一目标对战阵容;第一调换单元305分别选取每一第一目标对战阵容中的一个目标虚拟对象的属性信息进行调换;第一变换单元306基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变换;迭代单元307返回执行通过训练后的预设模型计算更新后的每一对战阵容的胜率值,直至达到预设迭代阈值,输出胜率值大于第一预设阈值的对战阵容。以此,通过遗传算法的交替优化的原理,获取优秀的预设数量的对战阵容,并从其中选取出两个第一目标对战阵容中的各一个目标虚拟对象的属性信息进行调换遗传,以第一预设概率从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变异,重复经过一定的迭代之后,选取出胜率值较大的对战阵容,以进行后续游戏平衡性考量,相对于现有技术需要人工进行计算的方案,本申请实施例可以自动且高效选取出高胜率的对战阵容进行游戏平衡性考量,极大的提升了数据处理的效率和准确率。
本申请实施例还提供一种计算机设备,该计算机设备可以为服务器,如图6所示,其示出了本申请实施例所涉及的服务器的结构示意图,具体来讲:
该计算机设备可以包括一个或者一个以上处理核心的处理器401、一个或一个以上计算机可读存储介质的存储器402、电源403和输入单元404等部件。本领域技术人员可以理解,图6中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器401是该计算机设备的控制中心,利用各种接口和线路连接整个计算机设备的各个部分,通过运行或执行存储在存储器402内的软件程序和/或模块,以及调用存储在存储器402内的数据,执行计算机设备的各种功能和处理数据,从而对计算机设备进行整体监控。可选的,处理器401可包括一个或多个处理核心;可选的,处理器401可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器401中。
存储器402可用于存储软件程序以及模块,处理器401通过运行存储在存储器402的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器402可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据服务器的使用所创建的数据等。此外,存储器402可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器402还可以包括存储器控制器,以提供处理器401对存储器402的访问。
计算机设备还包括给各个部件供电的电源403,可选的,电源403可以通过电源管理系统与处理器401逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源403还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
计算机设备还可包括输入单元404,该输入单元404可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
尽管未示出,计算机设备还可以包括显示单元等,在此不再赘述。具体在本实施例中,计算机设备中的处理器401会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器402中,并由处理器401来运行存储在存储器402中的应用程序,从而实现前述实施例提供的各种方法步骤,如下:
获取阵容集群,该阵容集群中包括多个对战阵容,每一对战阵容中包括至少一个虚拟对象;通过训练后的预设模型计算每一对战阵容的胜率值;从胜率值大于第一预设阈值的对战阵容中选取预设数量的对战阵容;从预设数量的对战阵容中选取一对第一目标对战阵容,每一个第一目标对战阵容中包括至少一个目标虚拟对象;分别选取每一第一目标对战阵容中的一个目标虚拟对象的属性信息进行调换,得到调换后的第一目标对战阵容;基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变换,确定更新后的多个对战阵容,该更新后的多个对战阵容中包括属性信息变换后的第一目标对战阵容;返回执行通过训练后的预设模型计算更新后的每一对战阵容的胜率值,直至达到预设迭代阈值,输出胜率值大于该第一预设阈值的对战阵容。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见上文针对数据处理方法的详细描述,此处不再赘述。
由上述可知,本申请实施例的计算机设备可以通过获取阵容集群;通过训练后的预设模型计算每一对战阵容的胜率值;从胜率值大于第一预设阈值的对战阵容中选取预设数量的对战阵容;从预设数量的对战阵容中选取一对第一目标对战阵容;分别选取每一第一目标对战阵容中的一个目标虚拟对象的属性信息进行调换;基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变换;返回执行通过训练后的预设模型计算更新后的每一对战阵容的胜率值,直至达到预设迭代阈值,输出胜率值大于第一预设阈值的对战阵容。以此,通过遗传算法的交替优化的原理,获取优秀的预设数量的对战阵容,并从其中选取出两个第一目标对战阵容中的各一个目标虚拟对象的属性信息进行调换遗传,以第一预设概率从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变异,重复经过一定的迭代之后,选取出胜率值较大的对战阵容,以进行后续游戏平衡性考量,相对于现有技术需要人工进行计算的方案,本申请实施例可以自动且高效选取出高胜率的对战阵容进行游戏平衡性考量,极大的提升了数据处理的效率和准确率。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种计算机可读存储介质,其中存储有多条指令,该指令能够被处理器进行加载,以执行本申请实施例所提供的任一种数据处理方法中的步骤。例如,该指令可以执行如下步骤:
获取阵容集群,该阵容集群中包括多个对战阵容,每一对战阵容中包括至少一个虚拟对象;通过训练后的预设模型计算每一对战阵容的胜率值;从胜率值大于第一预设阈值的对战阵容中选取预设数量的对战阵容;从预设数量的对战阵容中选取一对第一目标对战阵容,每一个第一目标对战阵容中包括至少一个目标虚拟对象;分别选取每一第一目标对战阵容中的一个目标虚拟对象的属性信息进行调换,得到调换后的第一目标对战阵容;基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变换,确定更新后的多个对战阵容,该更新后的多个对战阵容中包括属性信息变换后的第一目标对战阵容;返回执行通过训练后的预设模型计算更新后的每一对战阵容的胜率值,直至达到预设迭代阈值,输出胜率值大于该第一预设阈值的对战阵容。
根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述实施例提供的各种可选实现方式中提供的方法。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该计算机可读存储介质中所存储的指令,可以执行本申请实施例所提供的任一种数据处理方法中的步骤,因此,可以实现本申请实施例所提供的任一种数据处理方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本申请实施例所提供的一种数据处理方法、装置及计算机可读存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (15)
1.一种数据处理方法,其特征在于,包括:
获取阵容集群,所述阵容集群中包括多个对战阵容,每一对战阵容中包括至少一个虚拟对象;
通过训练后的预设模型计算每一对战阵容的胜率值;
从胜率值大于第一预设阈值的对战阵容中选取预设数量的对战阵容;
从预设数量的对战阵容中选取一对第一目标对战阵容,每一个第一目标对战阵容中包括至少一个目标虚拟对象;
分别选取每一第一目标对战阵容中的一个目标虚拟对象的属性信息进行调换,得到调换后的第一目标对战阵容;
基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变换,确定更新后的多个对战阵容,所述更新后的多个对战阵容中包括属性信息变换后的第一目标对战阵容;
返回执行通过训练后的预设模型计算更新后的每一对战阵容的胜率值,直至达到预设迭代阈值,输出胜率值大于所述第一预设阈值的对战阵容。
2.根据权利要求1所述的数据处理方法,其特征在于,所述属性信息包括装备数据,所述从预设数量的对战阵容中选取一对第一目标对战阵容的步骤,包括:
基于第二预设概率,从所述预设数量的对战阵容中选取一对第一目标对战阵容;
所述分别选取每一第一目标对战阵容中的一个目标虚拟对象的属性信息进行调换的步骤,包括:
分别从每一第一目标对战阵容中选取一个第一目标虚拟对象,所述第一目标虚拟对象之间对应的装备数据的数量的差的绝对值小于第二预设阈值;
将第一目标虚拟对象之间的装备数据进行调换。
3.根据权利要求2所述的数据处理方法,其特征在于,所述基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变换的步骤,包括:
基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行装备数据变换。
4.根据权利要求3所述的数据处理方法,其特征在于,所述确定更新后的多个对战阵容的步骤之前,还包括:
基于第二预设概率,从所述预设数量的对战阵容中选取一对第二目标对战阵容;
分别从每一第二目标对战阵容中选取一个第二目标虚拟对象,所述第二目标虚拟对象之间对应的装备数据的数量的差的绝对值小于第二预设阈值;
将第二目标虚拟对象之间的阵容位置进行调换,得到调换后的第二目标对战阵容。
5.根据权利要求4所述的数据处理方法,其特征在于,所述确定更新后的多个对战阵容的步骤的步骤之前,还包括:
基于第一预设概率,从调换后的第二目标对战阵容中选取任一虚拟对象进行对象类型数据变换;
执行确定更新后的多个对战阵容,所述更新后的多个对战阵容中包括装备数据变换后的第一目标对战阵容和对象类型数据变换后的第二目标对战阵容。
6.根据权利要求1所述的数据处理方法,其特征在于,所述通过训练后的预设模型计算每一对战阵容的胜率值的步骤之前,还包括:
生成样本对战阵容,所述样本对战阵容携带标签信息;
将样本对战阵容转化为位置矩阵向量;
将所述位置矩阵向量和对应的标签信息一并输入预设模型中进行训练,得到训练后的预设模型。
7.根据权利要求6所述的数据处理方法,其特征在于,所述将样本对战阵容转化为位置矩阵向量的步骤,包括:
将样本对战阵容中的每一虚拟对象转化为向量信息;
根据样本对战阵容的位置排列信息将所述向量信息进行拼接,得到位置矩阵向量。
8.根据权利要求6所述的数据处理方法,其特征在于,所述预设模型为预设卷积神经网络模型,所述将所述位置矩阵向量和对应的标签信息一并输入预设模型中进行训练,得到训练后的预设模型的步骤,包括:
将所述位置矩阵向量和对应的标签信息一并输入预设卷积神经网络模型;
通过预设卷积神经网络模型的卷积层对所述位置矩阵向量进行卷积处理以及特征扁平化处理,得到一维的特征向量;
将所述一维的特征向量输入所述预设卷积神经网络模型的全连接层,输出样本对战阵容的预测胜率值;
根据所述预测胜率值与对应的标签信息的差异,对预设卷积神经网络模型的网络参数进行调节,直至差异收敛,得到训练后的预设卷积神经网络模型。
9.根据权利要求6所述的数据处理方法,其特征在于,所述生成样本对战阵容的步骤,包括:
生成预设数目的基础对战阵容和样本对战阵容;
将所述样本对战阵容和每一基础对战阵容进行对战,得到多个对战结果;
将所述多个对战结果的胜利平均值作为所述样本对战阵容的标签信息。
10.一种数据处理装置,其特征在于,包括:
获取单元,用于获取阵容集群,所述阵容集群中包括多个对战阵容,每一对战阵容中包括至少一个虚拟对象;
计算单元,用于通过训练后的预设模型计算每一对战阵容的胜率值;
第一选取单元,用于从胜率值大于第一预设阈值的对战阵容中选取预设数量的对战阵容;
第二选取单元,用于从预设数量的对战阵容中选取一对第一目标对战阵容,每一个第一目标对战阵容中包括至少一个目标虚拟对象;
第一调换单元,用于分别选取每一第一目标对战阵容中的一个目标虚拟对象的属性信息进行调换,得到调换后的第一目标对战阵容;
第一变换单元,用于基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行属性信息变换,确定更新后的多个对战阵容,所述更新后的多个对战阵容中包括属性信息变换后的第一目标对战阵容;
迭代单元,用于返回执行通过训练后的预设模型计算更新后的每一对战阵容的胜率值,直至达到预设迭代阈值,输出胜率值大于所述第一预设阈值的对战阵容。
11.根据权利要求10所述的数据处理装置,其特征在于,所述属性信息包括装备数据,所述第二选取单元,用于:
基于第二预设概率,从所述预设数量的对战阵容中选取一对第一目标对战阵容;
所述第一调换单元,用于:
分别从每一第一目标对战阵容中选取一个第一目标虚拟对象,所述第一目标虚拟对象之间对应的装备数据的数量的差的绝对值小于第二预设阈值;
将第一目标虚拟对象之间的装备数据进行调换,得到调换后的第一目标对战阵容。
12.根据权利要求11所述的数据处理装置,其特征在于,所述第一变换单元,用于:
基于第一预设概率,从调换后的第一目标对战阵容中选取任一虚拟对象进行装备数据变换,确定更新后的多个对战阵容,所述更新后的多个对战阵容中包括属性信息变换后的第一目标对战阵容。
13.根据权利要求12所述的数据处理装置,其特征在于,所述装置,还包括第二调换单元,用于:
基于第二预设概率,从所述预设数量的对战阵容中选取一对第二目标对战阵容;
分别从每一第二目标对战阵容中选取一个第二目标虚拟对象,所述第二目标虚拟对象之间对应的装备数据的数量的差的绝对值小于第二预设阈值;
将第二目标虚拟对象之间的阵容位置进行调换,得到调换后的第二目标对战阵容。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行权利要求1至9任一项所述的数据处理方法中的步骤。
15.一种计算机设备,其特征在于,包括存储器、处理器以及存储在所述存储器中并可以在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现权利要求1至9任一项所述的数据处理方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110413685.2A CN113230650B (zh) | 2021-04-16 | 2021-04-16 | 一种数据处理方法、装置及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110413685.2A CN113230650B (zh) | 2021-04-16 | 2021-04-16 | 一种数据处理方法、装置及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113230650A true CN113230650A (zh) | 2021-08-10 |
CN113230650B CN113230650B (zh) | 2023-02-28 |
Family
ID=77128412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110413685.2A Active CN113230650B (zh) | 2021-04-16 | 2021-04-16 | 一种数据处理方法、装置及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113230650B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113877209A (zh) * | 2021-09-10 | 2022-01-04 | 广州三七极创网络科技有限公司 | 一种游戏数据测试方法、系统、设备及存储介质 |
CN116920411A (zh) * | 2023-09-18 | 2023-10-24 | 腾讯科技(深圳)有限公司 | 一种数据处理方法及相关装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111617478A (zh) * | 2020-05-29 | 2020-09-04 | 腾讯科技(深圳)有限公司 | 游戏阵容强度的预测方法、装置、电子设备及存储介质 |
-
2021
- 2021-04-16 CN CN202110413685.2A patent/CN113230650B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111617478A (zh) * | 2020-05-29 | 2020-09-04 | 腾讯科技(深圳)有限公司 | 游戏阵容强度的预测方法、装置、电子设备及存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113877209A (zh) * | 2021-09-10 | 2022-01-04 | 广州三七极创网络科技有限公司 | 一种游戏数据测试方法、系统、设备及存储介质 |
CN116920411A (zh) * | 2023-09-18 | 2023-10-24 | 腾讯科技(深圳)有限公司 | 一种数据处理方法及相关装置 |
CN116920411B (zh) * | 2023-09-18 | 2023-12-08 | 腾讯科技(深圳)有限公司 | 一种数据处理方法及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113230650B (zh) | 2023-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11938403B2 (en) | Game character behavior control method and apparatus, storage medium, and electronic device | |
CN109621422B (zh) | 电子棋牌决策模型训练方法及装置、策略生成方法及装置 | |
JP7159458B2 (ja) | 仮想環境における仮想対象のスケジューリング方法、装置、デバイス及びコンピュータプログラム | |
CN111111204B (zh) | 交互模型训练方法、装置、计算机设备和存储介质 | |
CN111111220B (zh) | 多人对战游戏的自对弈模型训练方法、装置和计算机设备 | |
CN109513215B (zh) | 一种对象匹配方法、模型训练方法以及服务器 | |
CN107970608A (zh) | 关卡游戏的设置方法和装置、存储介质、电子装置 | |
CN111282267B (zh) | 信息处理方法、装置、介质及电子设备 | |
CN111450531B (zh) | 虚拟角色控制方法、装置、电子设备以及存储介质 | |
CN113230650B (zh) | 一种数据处理方法、装置及计算机可读存储介质 | |
CN109453524B (zh) | 一种对象匹配的方法、模型训练的方法及服务器 | |
CN109847366A (zh) | 用于游戏的数据处理方法和装置 | |
CN114392560B (zh) | 虚拟场景的运行数据处理方法、装置、设备及存储介质 | |
CN111701240B (zh) | 虚拟物品的提示方法、装置、存储介质和电子装置 | |
CN111282281B (zh) | 图像处理方法及装置、电子设备和计算机可读存储介质 | |
Khan et al. | Optimal Skipping Rates: Training Agents with Fine‐Grained Control Using Deep Reinforcement Learning | |
CN110598853B (zh) | 一种模型训练的方法、信息处理的方法以及相关装置 | |
CN110325965A (zh) | 虚拟场景中的对象处理方法、设备及存储介质 | |
CN110263937B (zh) | 一种数据处理方法、设备及存储介质 | |
CN113893547A (zh) | 一种基于适应度函数的数据处理方法、系统及存储介质 | |
CN114404976B (zh) | 决策模型的训练方法、装置、计算机设备及存储介质 | |
CN114344916B (zh) | 一种数据处理方法及相关装置 | |
CN116850601A (zh) | 一种游戏对象处理方法、装置、计算机设备及存储介质 | |
CN112044082B (zh) | 一种信息检测方法、装置及计算机可读存储介质 | |
CN110721471B (zh) | 一种虚拟应用对象输出方法、装置以及计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40051664 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |